NaWennDuMeinst hat geschrieben : ↑ So 13. Sep 2020, 16:44
Hi Burkart,
Burkart hat geschrieben : ↑ So 13. Sep 2020, 14:16
Letztlich geht es ja um mehrere Aspekte: "Können Computer denken?" (Thema), Bewusstsein und in dem Zusammenhang sicherlich auch, was Denken überhaupt ist, z.B. ob Denken als Roboter "möglicher" ist als nur der reine Coumputer u.a.
Und mir ist dem Zusammenhang immer wichtig, dass mit KI *nicht* 100%ig der Mensch "nachgeäfft" werden soll, sondern nur, dass sie ähnlich intelligent sein soll.
Dann solltest es hier aber auch nicht um "Denken" gehen, sondern nur um eng eingegrenzte Teile des Denkes.
Wieso soll es hier um eng eingegrenzte Teile des Denkens gehen? Um welche (nicht)?
Also was bzgl. Denken aus wikipedia wird hier eingeschränkt? (Wobei man natürlich das rein auf Menschen bezogene "psychologisch" weglässt.)
"Unter Denken werden alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen."
Was an Vorstellungen, Erinnerungen und Begriffen hinsichtlich Erkenntnis ist denn eingeschränkt?
Das ist so wie wenn man sagt, man wolle gar keinen Hammer bauen, sondern nur die Bahn oder die Finne.
Ist das Ergebnis dann noch ein Hammer? Nein, natürlich nicht. Und wir sollten es dann auch nicht so nennen.
Den Vergleich kann ich nicht nachvollziehen.
Wie betont: Ich erwarte auch nicht, dass eine KI genauso fühlen und ggr. wirr phantasieren kann wie Menschen.
Sicher haben diese Dinge Einfluss auf das menschliche Denken, aber es ist ja nicht das Ziel, dass die KI genauso wie ein Mensch denkt. Vielmehr hoffe ich, dass sie nicht so egoistisch wie Menschen ist, was wieder mit Gefühlen zusammenhängt.
Sie wird dann aber auch nicht lieben können wie Menschen. Und das ist zum Beispiel bei ethischen Überlegungen absolut unverzichtbar.
Aber es geht nicht nur darum, dass die Maschine "ein Herz" hat, sondern auch darum, dass Emotionen unabdingbar für das Verstehen bestimmter Dinge sind.
Dinge die uns Menschen betreffen. Wir reden hier ja nicht von Maschinen, die dann auf einem Maschinenplaneten existieren und niemals einen Menschen zu Gesicht bekommen, sondern diese Dinger sollen ja Teil unseres Lebens sein. Und letztlich sollen sie uns behilflich sein. Darum geht es ja bei der ganzen Geschichte.
Das heißt aber nicht, dass die KI nicht auch sensorisch "empfinden" (=Daten quasi intutitiv erfassen durch hohe Geschwindigkeit und effektive Verarbeitung) kann, Gedanken rein deduktiv und ggf. eher zufällig verarbeiten kann (=träumen) und u.U. sinnvoll Phantasie zu entwickeln (quasi Neues aus Bekanntem 'neu' zusammenstellen).
Ich denke Phantasie ist mehr als nur die Vermischung von Altbekanntem.
Der Mensch verfügt über sowas was ich "echte Kreativität" nennen würde.
Definiere "echte Kreativität" bzw. nenne bitte ein Beispiel, wo Kreativität echter ist als andere.
Und natürlich hat er auch eine emotionale Innenwelt aus der heraus Vorstellungen entstehen.
Das alles kann eine Maschine nicht (und ich meine niemals, also prinzipiell nicht) leisten.
Vorstellungen können gut ohne Emotionen entstehen.
Hinzu kommt, dass Emotionen für den Menschen eine unverzichtbare Informationsquelle sind. Eine Informationsquelle auf die Maschinen nicht zugreifen können.
Das schränkt ihr "Denken" massiv ein.
Was für Informationen sollen es sein außer Emotionen? Insbesondere halbwegs sachliche, möglichst allgemein nachvollziehbare?
Dass wir nicht perfekt definieren können, was Denken ist: Einverstanden. Noch weniger aber können wir definieren, was Bewusstsein ist, oder?
Wir sind da auf das beschränkt, was wir an uns selbst erleben. Demensprechend sind unsere Vorstellung auch stark durch uns selbst geprägt.
Na ja, beschränkt darauf sind wir nur bedingt; wir haben viele Informationsquellen, um viel durch Andere mitzuerleben sozusagen, dies prägt uns mit.
Die Frage ist, ob der Mensch nicht auch (unbewusst) determniert ist und quasi so auch Algorithmen folgt.
Das finde ich interessant. Du verwehrst Dich zwar weiter unten dagegen, dass ich Dir unterstelle, Du würdest Dir Menschen wie "Bioroboter" vorstellen,
Bei Begriff (samt die ursprunglichen Vorstellungen) stammt von dir, also den Menschen auf einen Roboter zu reduzieren.
aber all Dein Schreiben zielt doch immer genau in diese Richtung: Der Mensch ist bei Dir "bedürfnisgelenkt", "von Algorithmen (unbewusst) gesteuert" usw.
Das ist eine reine Beschreibung des Menschen, hat grundsätzlich nichts mit einem Roboter zu tun, außer in deiner Interpretation.
Das ist eigentlich nichts anderes als die Ansicht, dass der Mensch eine biomechanische Maschine ist. Und von daher einer künstlichen Maschine wenn nicht gleich, dann doch zumindest sehr ähnlich.
Wenn du das so siehst, ich tue es nicht. Du versucht mir einzureden, dass ich aus dem Menschen eine Maschine machen will, was aber falsch ist - ich hoffe, du siehst das nun ein.
Das sehe ich komplett anders. Daher rühren auch(!) unsere unterschiedlichen Ansichten.
Ich glaube an den freien Willen.
Ich auch für den Menschen (siehe ggf. 40374 in "Weiterkommen in der Philosophie").
Ich glaube daran, dass Menschen sich spontan ändern können (niemand wird z.B. als Verbrecher geboren).
Also ich kann mich nicht spontan einfach so ändern und zum Verbrecher wird man i.a. auch nicht so einfach spontan; das wäre aber sonst ein trauriges Menschenbild.
Es gibt natürlich biologische Einschränkungen. Aber selbst die können wir ignorieren. Wir können uns also zu Tode hungern.
Das kannst du wohl, aber du kannst nicht alles einfach ändern; irgendwo ist immer eine Grenze, die nicht zu überschreiten ist.
Das ist also ein Grad an Freiheit dem unserem Denken zu eigen ist, von dem ich nicht wüsste wie Maschinen den erreichen sollten.
Eine Maschine hat es gar nicht nötig, sich zu Tode hungern zu wollen
Es mag ja sein, dass ein Mensch irgendwie freier sein kann, aber nenn mir mal ein Beispiel, wo das das (logische) Denken beeinflusst.
Wir sollten unterscheiden zwischen
1.(a) "bisher nicht umsetzbar" bzw. (b) "bisher nicht umgesetzt"
2. "logisch nicht umsetzbar" und
3. "nicht erwünscht umzusetzen".
1. wird irgendwann gehen, 3. wollen wir gar nicht und zu 2. müssen wir genau analysieren.
Eine Basisprogrammierung zu 1 (b) geht auf jeden Fall, man muss sich nur angehen.
Nun weiß ich nicht, was Du mit "Basisprogrammierung" meinst, aber ich gehe stark davon aus, dass man das dann nicht guten Gewissens "echtes" Denken nennen wird können.
Genauso wenig wie die Bedürfnisse des Menschen, (ein Teil) seine(r) "Basisprogrammierung" (und nein, er ist damit kein Roboter).
Vielleicht so wie mit dem Hammer: Ein bestimmter funktionaler Teil des Denkens. Das ist aber kein Denken. Es ist eine kastrierte Simulation bestimmter Denkfunktionen.
Das ist nicht nachvollziehbar.
Mir ging es um erstmal nur um die Frage, ob nicht auch Bewusstsein ohne Emotionen vorstellbar ist. (Oder definiere gerne "Bewusstsein" genauer.)
Deshalb bringe ich ja die Emotionen mit ins Spiel. Ich denke zum Bewusstsein, zu den mentalen Zuständen die ein Bewusstsein ausmachen, gehören auch Emotionen.
Hm, also beim "Erleben mentaler Zustände und Prozesse" kann ich keine Emotionen (unbedingt) entdecken.
Aber ja, theoretisch wäre ein Bewusstsein auch ohne Emotionen denkbar.
Ok
Ein solches Bewusstsein wäre aber nicht imstande uns adäquat bei Problemen weiterzuhelfen in die Emotionen involviert sind. Und das sind - ausser reinen Berechnungen - so gut wie alle.
So gut wie alle?
Wenn ich dich nach einem Weg frage und du ihn mir beschreibst, wo sind da (relevante) Emotionen? (Von der Uhrzeit mal ganz zu schweigen
)
Oder ist das so ein ungewöhnliches Problem für dich?
Ja, Menschen können ihre Emotionen wohl nicht komplett ignorieren, auch wenn dies manchmal sehr hilfreich wäre.[...]
Sind also menschliche Emotionen nicht also auch nachteilig!?
In dem Film "Equilibrium", in dem eine dystopische Welt beschrieben wird, in der Emotionen verboten sind und mit Drogen unterdrückt werden, gibt es eine schöne Passage.
Kurz vor ihrer Hinrichtung wegen "Sinnestaten" fragt die Verurteilte ihren Henker:
"Was ist der Sinn ihrer Existenz? Zu fühlen. Sie werden ganz sicher nicht wissen, was das ist. Aber es ist notwendig wie der Atem und ohne Gefühl, ohne Liebe, ohne Wut, ohne Trauer ist unsere Existenz nur eine Uhr, die tickt"
Das sind Maschinen. Uhren die ticken.
Also ich denke wir sind uns einig, dass Emotionen auch nachteilig sein können.
Ethische Probleme sind ein Spezialfall, meist geht es um praktische oder logische Probleme, und dafür sollte die KI zuerst einmal da sein.
Also geht es nur darum eine Finne zu bauen, nicht den ganzen Hammer.
Es geht ums Denken als "Vorgänge, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen", um nicht mehr oder weniger (laut wikipedia). Ist die Definition für dich ein Spezialfall? Oder steht da was von Emotion?
Natürlich soll eine emotionslose KI nicht einfach über uns Menschen herrschen, aber das hatte ich ja schon an anderer Stelle geschrieben (KI als Diener bzw. hier als Berater).
Herrschen sowieso nicht. Aber auch ich meinte nur die Beraterfunktion.
Schön, dass wir hier einer Meinung sind.
Wie soll uns eine Maschine bei Fragen beraten die man nur sinnvoll beantworten kann, wenn man fühlen kann? Das wird sie wohl nicht leisten können. Da kann nur Unsinn bei raus kommen.
Sie kann auf Basis von Wissen beraten. Beispiel: Ein männlicher Arzt kann auch einer Frau hinsichtlich Geburt beraten, auch wenn er nichts nachempfinden kann (wie Geburtsschmerz).
Die sind (genetisch) programmiert und spulen dann ihr Programm ab.
Nein, habe ich das oben irgendwie geschrieben? Oder willst du verneinen, dass Grundlegendes beim Menschen angeboren ist?
Nein. Aber ich verneine, dass der Mensch darauf beschränkt ist.
Das sage ich ja auch gar nicht, u.a. weil der Mensch lernt.
Dass alles an ihm wie eine "Programmierung" abläuft.
Da muss du mit Leuten über Willensfreiheit diskutieren, ob es die gibt oder nicht.
Diese Vorstellung halte ich für komplett falsch.
Das ist vielleicht bei Maschinen so, und das ist eben auch der grundlegende Unterschied zum Menschen.
However, dem Denken als "innere Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen" hinsichtlich einer Erkenntnis ist es egal, ob es "programmiert" ist oder nicht; es geht "nur" um "Beschäftigung mit Vorstellungen...", aber irgendwie wiederhole ich mich gerade
Nicht "daher", aber natürlich bedarf es einer Programmierung, wie soll es sonst gehen?
Das ist die Frage: Wie kommt es dazu, dass der Mensch Dinge macht, die ihm nicht "einprogrammiert" wurden?
[/quote]
Z.B. indem er etwas gelernt oder etwas Neues erfahren hat o.ä.
Und Maschinen können auch lernen oder Neues erfahren.
Das ist ja das was ich meine: Es ist ein grundsätzlicher Fehler anzunehmen, dass gewisse Fähigkeiten die der Mensch hat, und die man bei Maschinen nachbilden will, folge irgendeiner Programmierung sind, oder im Menschen wie "Programme" ablaufen.
Und deshalb sind sie in Maschinen auch nicht umsetzbar. Denn wie Du selbst sagst: Mehr als einen programmatischen Ablauf gibt es bei den Maschinen nicht.
[/quote]
Zählt etwas Gelerntes in einen Ablauf mit einzubeziehen für dich auch dazu?
Aber hier liegt eben schon mMn der Fehler. Denn so wie Du da den Menschen beschreibst ist er nicht.
Ich beschreibe ihn nicht so, nur du - außer ggf. mit dem grundlegend Angeborenen.
Doch, Du beschreibst ihn so. Andauernd. Siehe oben. Es kann sein, dass Du das nicht so meinst. Aber Du beschreibst den Menschen andauernd so wie eine Maschine in der irgendwas programmartig abläuft.
[/quote]
Wo denn genau? Bedürfnisse zu folgen heißt nicht gleich einem festen Programm zu befolgen.
Und daraus folgt dann eben auch die Vorstellung, dass man Denken, Intelligenz, Bewusstsein programmatisch nachbilden kann.
Denken ist ein Programm. Und weil das ein Programm ist, kann ich es eben auch nachprogrammieren.
So ist die Denke. Aber die könnte ja falsch sein. Oder?
Sag mir mal eine Aufgabe, die Intelligenz erfordert, die nur ein Mensch lösen kann. Ich bin gespannt, was dir dazu einfällt.
Meine "Denke" ist "nur", dass KI Intelligenz nachbilden können wird, nicht, dass sie einen Menschen nachbildet, vergiss das nicht.
Aber wenn alle grundlegenden Bedürfnisse erfüllt sind,
Was heißt für dich "grundlegend"? Hast du höhere Bedürfnisse da schon mit einbezogen, siehe z.B. Sicherheit, Soziales bis hin zur Selbstverwirklichung (siehe z.B. die
Maslowsche Bedürfnishierarchie)?
Man kann natürlich alles zu "Bedürfnisbefriedigung" erklären. Dann gibt es ein "Kunstbedürfnis", ein "Spielbedürfnis", ein "Gesellschaftsbedürfnis" usw.
Auch hier wieder: Der Mensch als Bioroboter. Bei allem was er macht spult er genetisch "einprgrammierte" Programme ab, die ihm Bedürfnisse aufzwingen.
Du mit deinem Bioroboter; du scheinst dieses Bild zu lieben. Dass wir Bedürfnisse haben, an denen wir uns orientieren, wirst du noch nicht negieren, oder?
Das kann dann aber zum Beispiel nicht erklären, wieso Menschen bestimmte "höhere Bedürfnisse" gar nicht verspüren,
Oh, das könnte sogar schon Maslow antworten: Es meint, dass erst die niederen Bedürfnisse befriedigt sein müssten, bevor es um die höheren gehen kann. (Das ist zwar nicht meine Meinung, aber immerhin ist sie nicht völlig abwegig.)
oder warum sie unterschiedliche Gewichtungen bei der Befriedigung dieser "Bedürfnisse" setzen.
Tja, unterschiedliche menschliche "Prägungen", z.B. was er gelernt hat, was ihm beigebracht wurde u.a.
In dem Film "A.I." stösst der kleine Kind-Androide David auf die Geschichte "Pinocchio" und setzt diese (fiktive) Geschichte in ein Verhältnis zu sich selbst. David fängt an nach der "blauen Fee" aus der Geschichte zu suchen, weil er glaubt dass diese ihn zu einem "echten Jungen" machen kann.
Ja, einer KI Märchen vorzulesen, so dass diese sie als solche begreift, ist schon eine interessante Idee. Auch Kinder müssen die Trennung zwischen Märchen und Wirklichkeit erst lernen, wie wohl (fast) jeder mit dem Weihnachtsmann lernt.
Darum geht es nicht. Es geht um das genaue Gegenteil: Nämlich aus etwas, das es in der Realität gar nicht gibt, seine Motivation zu ziehen.
Also wie an den Weihnachtsmann zu glauben und ihm lieber mal ein nettes Gedicht aufzusagen
So wie Millionen von Menschen jeden Tag zu Gott beten und ihr Leben nach ihm und seinen Geboten ausrichten.
Das ist für mich mehr eine kulturelle Angelegenheit, quasi eine Übereinkunft der Gemeinschaft.
interessant wäre mal, ob ein Kind ohne jeglichen Bezug zu Religion selbst auf die Idee nach einem Gott käme; vermutlich meist nicht.
Woran glauben Maschinen? Können Sie überhaupt glauben?
Das tut eine Maschine schon, wenn sie nach meiner Vorstellung einem ihr Dinge beibringen Menschen implizit vertraut, ähnlich wie ein Kind seinen Eltern.
Ok, das meintest du wahrscheinlich nicht. Hm, ich überlege gerade, ob ich an etwas in deinem Sinne glaube... mir fällt dazu nichts ein.
Aber gut, wenn jemand eine tolle Geschichte erzählt, mag man die glauben oder auch nicht... und vielleicht auch mal eine KI.
KI kann und soll ihre Programmierung auch nicht ändern, sondern sie nur ständig ausbauen, ähnlich wie es der Mensch auch quasi tut.
Irgendwie missverstehen wir uns hier.
Es geht darum, dass eine Maschine ihre Aufgaben durch die Programmierung erhält. Sie kann sich keine eigenen Aufgaben suchen und sich auch nicht ihrer Programmierung widersetzen.
Ein Mensch kann das aber.
Der Mensch kann sich auch nicht grenzenlos widersetzen, aber das hatten wir oben schon mal. Auch kann sich eine KI auch mal eigene Aufgaben suchen, die sie für sinnvoll erachtet (anhand ihres Wissens u.ä.).
Menschen können nicht einfach sich beliebig ändern, sondern auch nur anpassen, auch wenn es anders natürlich besser klingt, gerade von Motivationstrainern u.ä.
Es geht nicht darum, dass der Mensch zum Fisch werden kann, sondern dass er nicht einem stupiden Programm folgt.
Er funktioniert halt einfach ganz anders als ein Computer.
Bei dem ganzen Geschreibe hier geht es genau darum: Nämlich um die irrige Annahme Denken sei sowas wie ein "Programm" das man einfach nur "nachprogrammieren" muss.
Das ist einfach Quatsch. So funktioniert das nicht. Und deshalb wird es auch keine denkenden Maschinen geben. Weil der Ansatz schon falsch ist.
Jetzt sagst Du: "Ja, aber was soll man denn mit Maschinen anderes machen als sie zu programmieren?"
Und ich sage nun: Ja, eben!
Also noch ein letztes Mal wikipidia mit Denken als Zusammenfassung von "Vorgängen, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen": Was geht hieran nicht für eine KI?
Oder gefällt dir dieser Denkbegriff nicht? Irgendeinen möglichst allgemeinen sollten wir doch nehmen, oder nicht?
Ziele setzen kann sich eine KI auch, s.o. u.a. Dazu bedarf es keiner menschlichen Träume.
Für Ziele die aus Träumen erwachsen bedarf es selbstverständlich Träume.
Ok, Träume im Sinne von unterbewusstem, deduktiven Verarbeiten, von mir aus
Und für Ziele die aus Emotionen entstehen braucht es natürlich Emotionen.
Und Emotionen sind eben nicht nötig - wir wollen doch nicht, dass durch eine blöde Emotion eine KI zum Mörder wird.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.