Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Mo 20. Jul 2020, 18:05

Jörn Budesheim hat geschrieben :
Mo 20. Jul 2020, 06:23
Schimmermatt hat geschrieben :
Mo 15. Okt 2018, 13:58
Wenn man den Turing-Test mal umdreht, stellt sich ganz ernsthaft die gar nicht dumme Frage: "Kann Lieschen Müller wirklich sicher NICHT für einen Automaten gehalten werden?"
In welcher Beziehung ist das für dich so interessant? Dass L.M. auch einfach zu dumm sein kann? Dass irgendwann Automaten doch so gut sind, das L.M. für ähnlich dumm gehalten werden kann?
Thomas Fuchs hat geschrieben : Beim Turing-Test sind es daher nicht etwa komplexe logische oder Wissensfragen, bei denen die Systeme versagen, sondern eher Fragen, die gesunden Menschenverstand und Kontextverständnis voraussetzen (Moor 2001), etwa: »Wo ist Peters Nase, wenn Peter in New York ist? Wie sieht der Buchstabe M aus, wenn man ihn auf den Kopf stellt? Hat mein Wellensittich Vorfahren, die 1750 am Leben waren? Ab wie vielen Sandkörnern spricht man von einem Haufen?« – Oder es genügen relativ simple, aber mehrdeutig formulierte Situationen: »Ein Kunde betritt eine Bank und sticht auf den Kassierer ein. Er wird in die Notaufnahme gebracht. Wer wird in die Notaufnahme gebracht?« – Vermeintlich intelligente Systeme müssen hier passen, erst recht wenn es um das Verständnis von Metaphern, Ironie oder Sarkasmus geht. Sie kennen nur eindeutige Einzelelemente, 0 oder 1 – für alles, was mehrdeutig, schillernd oder vage ist, eine atmosphärische Anmutung hat, fehlt ihnen der Sinn.
Die Kontextverständnis-Beispiele zeigen gut, wie Allgemeinwissen und Verständnis wichtig sind. Die aktuellen Systemen haben beides nicht wirklich und scheitern deshalb. Verständnis ist halt ein wichtiger Punkt, den wir einer starken KI beibringen müssen, und natürlich muss sie auch viel Allgemeinwissen samt desses Verstehens erlernen. Dazu gehören auch Metaphern u.ä. Das hat aber nichts mit 0/1-"Einzelelementen" zu tun.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Mo 20. Jul 2020, 18:12

Alethos hat geschrieben :
So 19. Jul 2020, 17:25
Jörn Budesheim hat geschrieben :
So 19. Jul 2020, 17:08
Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können.
Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln.
Was verstehst du unter diesen Computer? Sind Roboter für dich schon was anderes? Falls ja, wo ist der große Unterschied (z.B. wenn ein Computer einen Roboterarm bedienen kann u.ä.)?
Das ist selbst für einen Computerlaien wie mich völlig klar. Was heutige Rechner leisten, das ist, was du mit Funktionalismus beschrieben hast: Ein Versuch der Imitation von Intelligenz und in keiner Weise Intelligenz im Vollsinn des Wortes, wie wir es für lebendige Systeme verwenden.

Dass ein Schachcomputer intelligente Züge macht, das ist, wenn man so will, nur die Illusion von Intelligenz.
Wie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?
Es gibt ja schliesslich keinen Agens, der irgendwie entscheidet, sich in die Situation einfühlt oder sich anpasst. Wie ich weiter oben sagte, müsste ein Schachcomputer entscheiden können, dass er Kaffeekochen will, einen Roman lesen will oder aber einfach entscheiden, dass er nicht mitspielt. Zur Intelligenz gehört die Freiheit, dies zu tun oder dies zu lassen und sich damit an seine Umgebung anzupassen.
Kannst du dich entscheiden, Arme schwingend fliegen zu wollen? Kannst du dich entscheiden, ab morgen ein Fisch zu sein?
Jedes System ist irgendwo beschränkt.
Klar, heutige Computer/Programme/KI ist/sind es viel mehr als Menschen, aber deshalb gibt es halt auch noch keine starke KI, die noch zu entwickeln ist.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Mo 20. Jul 2020, 18:25

Jörn Budesheim hat geschrieben :
So 19. Jul 2020, 17:08
Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können. (Dafür dass starke KI möglich ist, sind wir schließlich selbst der Beweis.)
Das hängt von "Maschinen wie unsere Computer" ab. Sind welche, die Richtung Roboter gehen, auch noch solche? (Das Thema habe ich schon mehrfach so oder ähnlich aufgegriffen ohne echte Antwort hier.)
Wenn wir von künstliche biologischen Körpern sprechen, sprechen wir nicht von Computern. Ob wir künstliche biologischer Körper erstellen können, ist meines Erachtens eine andere, eine weitere Frage.
Das sehe ich auch so.
Eine ziemlich grundsätzliche Frage ist, ob die Computer, die z.b. so stark "Schach spielen" können, dass sie selbst den Weltmeister "besiegen", wirklich intelligent sind oder ob Intelligenz sozusagen nur "simuliert" wird.
Kann ein Zug bzw. ein Spiel nur simuliert werden? Dass Intelligenz gerne immer das ist, was Computer noch nicht können, ist ja nichts Neues.
Damit zusammen hängt die Frage, ob es richtig und sinnvoll ist, Begriffe wie "ausprobieren", "spielen", "lernen" etc. auf Computer anzuwenden.
Warum sollte das nicht sinnvoll sein? Dass Programme lernen können, ist wirklich nichts Neues. Ok, bei "spielen" wird es etwas haariger.
Darin spiegelt sich meines Erachtens eine behavioristische Auffassung dieser Begriffe: etwas ironisch gesagt, wenn es aussieht wie Intelligenz, dann ist es Intelligenz. Allerdings ist der Behaviorismus eine gescheiterte Forschungsrichtung, und ich sehe nicht warum wir uns dem Anschließen sollten.
Der Turingtest als behavioristischer Beweis (bzw. Zeichen) für Intelligenz ist für mich nicht gescheitert; das chinesische Zimmer ist jedenfalls kein Gegenbeweis.
Die Idee, dass Intelligenz im Grunde etwas abstraktes ist und es egal ist, in welchem "Substrat" sie realisiert wird, entspricht der philosophischen Idee des Funktionalismus in der philosophy of mind. Der Gedanke ist, dass es für die Algorithmen im Grunde egal ist, wie sie realisiert sind: wenn es ausreichend komplex ist, sind Bierdosen dafür ebenso geeignet, wie Computer oder Wetware. Das Bierdosen Beispiel ist keineswegs von mir, sondern, sofern ich mich richtig erinnere, von jemandem, der der Idee des Funktionalismus gegenüber aufgeschlossen war. (Für das folgende müsste ich allerdings tief in meinen Bücherregalen forschen: ich meine, der Erfinder des Funktionalismus Hilary Putnam ist zugleich derjenige, der im wieder widerlegt hat.)

...
Und was hast du gegen Bierdosen? ;)
Schon klar, der Funktionalismus wirkt kalt und fremd, aber so abwegig ist er auch nicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 20. Jul 2020, 18:30

Burkart hat geschrieben :
Mo 20. Jul 2020, 18:25
Das hängt von "Maschinen wie unsere Computer" ab. Sind welche, die Richtung Roboter gehen, auch noch solche? (Das Thema habe ich schon mehrfach so oder ähnlich aufgegriffen ohne echte Antwort hier.)
du hast meines Erachtens von Alethos und mir dazu schon wiederholt Antworten kommen. Ich weiß nicht ob die echt waren, wir leben schließlich in Zeiten der Fake News. Der Unterschied ist der Leib.




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Mo 20. Jul 2020, 23:38

Burkart hat geschrieben :
Mo 20. Jul 2020, 18:12
Alethos hat geschrieben :
So 19. Jul 2020, 17:25
Jörn Budesheim hat geschrieben :
So 19. Jul 2020, 17:08
Sogenannte schwache KI gehört bei uns mittlerweile zum Alltag, während starke KI ist science fiction ist, wie es heißt. Dabei geht es nicht darum, ob irgendetwas beliebiges in irgendeiner Zukunft starke KI sein kann, sondern - zumindest soweit ich es verstehe - darum, ob Maschinen wie unsere Computer starke KI werden können.
Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln.
Was verstehst du unter diesen Computer? Sind Roboter für dich schon was anderes? Falls ja, wo ist der große Unterschied (z.B. wenn ein Computer einen Roboterarm bedienen kann u.ä.)?
Die Unterscheidung zwischen Computern, wie wir sie heute kennen, und Computern, wie ich sie mir für die Entwicklung von Intelligenz vorstelle, liegt nicht so sehr
in der Anordnung des Computers (auf dem
Tisch, in einem Roboter). Ich denke, dass diese Computer der Zukunft grundsätzlich anders funktionieren müssen: nicht als binäres, sondern eher als holistisches System. Ich kann dazu aber nichts genaues sagen, da ich kein Informatikwissenschaftler bin.
Wie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?
Der Computer knobelt ja nicht, der rattert
nur alle Optionen ab und kommt
zu einem Ergebnis. Da ist keine Intuition dabei, keine Aufregung, keine Anstrengung. Das gehört für mich zum Knobeln dazu.

Betreffend Illusion von Intelligenz und realer Intelligenz: Wenn man die Spielregeln ändert, kann ein Mensch mit "Knobeln" rausfinden, wie das neue Spiel funktioniert. Ein Mensch kann deduzieren und adaptieren, weil er intelligent ist. Das kann ein Computer nicht, man muss ihm zuerst alle Schritte neu programmieren, damit er richtig Schach spielt. Da ist kein Wissendes oder Intelligentes, sondern nur etwas, das so scheint, als wäre es intelligent.

Nimm das Beispiel mit Sophia und ihrer Mimik: Da steckt kein Gefühl hinter der Mimik, keine Emotion im sich verändernden Tonfall. Das ist alles nur Hülle. Auch der Schachcomputer ist nur der Hülle nach ein intelligentes Ding.
Kannst du dich entscheiden, Arme schwingend fliegen zu wollen? Kannst du dich entscheiden, ab morgen ein Fisch zu sein?
Jedes System ist irgendwo beschränkt.
Klar, heutige Computer/Programme/KI ist/sind es viel mehr als Menschen, aber deshalb gibt es halt auch noch keine starke KI, die noch zu entwickeln ist.
Ja, das meine ich ja. Eine starke KI müsste entscheiden können, ob sie statt Schach zu spielen doch lieber einen Roman liest. Und damit sie das eine dem anderen vorziehen kann, muss sie den Dingen einen Wert beimessen können - nicht zuletzt sich selbst und den eigenen Wünschen und Befindlichkeiten. Dass dies möglich sein wird, halte ich für möglich, wie schon gesagt.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 21. Jul 2020, 05:42

Es ist uns ja sogar lästig, Mensch zu sein – ein Mensch mit wirklichem, eigenem Fleisch und Blut; wir schämen uns dessen, halten es für eine Schmach und trachten lieber danach, irgendwelche phänomenalen Allgemeinmenschen zu sein. […] Bald werden wir so weit sein, dass wir von einer Idee gezeugt werden.

F. J. Dostojewski (zitiert nach Thomas Fuchs, Verteidigung des Menschen)




Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Jul 2020, 19:33

Jörn Budesheim hat geschrieben :
Mo 20. Jul 2020, 18:30
Burkart hat geschrieben :
Mo 20. Jul 2020, 18:25
Das hängt von "Maschinen wie unsere Computer" ab. Sind welche, die Richtung Roboter gehen, auch noch solche? (Das Thema habe ich schon mehrfach so oder ähnlich aufgegriffen ohne echte Antwort hier.)
du hast meines Erachtens von Alethos und mir dazu schon wiederholt Antworten kommen. Ich weiß nicht ob die echt waren, wir leben schließlich in Zeiten der Fake News. Der Unterschied ist der Leib.
Wenn "Leib" als etwas Biologisches dein Kriterium ist, können wir uns eine weitere Diskussion ersparen, da du Leben voraussetzt, was für Computer/Roboter keinen Sinn macht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 21. Jul 2020, 20:30

Denken, Intelligenz, Wünschen, Ziele anstreben und so weiter und so fort ... das gibt es nur da, wo es Leben gibt. Deswegen künstliche Intelligenz bereits ein Widerspruch in sich.




Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Jul 2020, 20:43

Alethos hat geschrieben :
Mo 20. Jul 2020, 23:38
Burkart hat geschrieben :
Mo 20. Jul 2020, 18:12
Alethos hat geschrieben :
So 19. Jul 2020, 17:25

Auf keinen Fall werden Computer, wie wir sie heute kennen, "starke KI" entwickeln.
Was verstehst du unter diesen Computer? Sind Roboter für dich schon was anderes? Falls ja, wo ist der große Unterschied (z.B. wenn ein Computer einen Roboterarm bedienen kann u.ä.)?
Die Unterscheidung zwischen Computern, wie wir sie heute kennen, und Computern, wie ich sie mir für die Entwicklung von Intelligenz vorstelle, liegt nicht so sehr
in der Anordnung des Computers (auf dem
Tisch, in einem Roboter). Ich denke, dass diese Computer der Zukunft grundsätzlich anders funktionieren müssen: nicht als binäres, sondern eher als holistisches System. Ich kann dazu aber nichts genaues sagen, da ich kein Informatikwissenschaftler bin.
Was würdest du dazu sagen, dass ein Mensch nicht als atomares, sondern als holistisches System bestehen soll? Daran erinnert mich dein der Vergleich sehr. Nimm das "atomar" sonst "synaptisch", wenn dir das besser gefällt. Ich wundere mich, warum so oft völlig verschiedene Ebenen durcheinander geworfen werden.
Wie unterscheidest du Illusion von Realtität? Kann man sie wirklich so einfach trennen? Ist es nicht egal, ob ein Mensch oder Computer einen Schachzug ausknobelt?
Der Computer knobelt ja nicht, der rattert nur alle Optionen ab und kommt zu einem Ergebnis.
Ok, die schwache KI ist da etwas langweilig, aber wenn das Ergebnis das gleiche ist... Also hälst du auch nichts von Turingtest, weil das ein Computer auch nur alles "runterrattern" könnte?
Da ist keine Intuition dabei, keine Aufregung, keine Anstrengung. Das gehört für mich zum Knobeln dazu.
Bei starker KI kann Intuition durch Un(ter)bewusstein dabei sein. Intelligenz hat mit Aufregung und menschlicher Anstrengung allerdings nicht viel zu tun, wobei komplexe Lösungen allerdings auch mit etwas wie "Anstrengung" im übertragenen Sinne zu tun haben kann.
Betreffend Illusion von Intelligenz und realer Intelligenz: Wenn man die Spielregeln ändert, kann ein Mensch mit "Knobeln" rausfinden, wie das neue Spiel funktioniert. Ein Mensch kann deduzieren und adaptieren, weil er intelligent ist. Das kann ein Computer nicht,
Das könnte ein allgemeine KI u.U. schon, wenn sie Spiele richtig versteht, also auch deren Ziele, Sinn u.ä.

> man muss ihm zuerst alle Schritte neu programmieren, damit er richtig Schach spielt.

Na ja, es gab schon Systeme, die angeblich in wenigen Stunden durch Lernen von unzähligen Partien und Stellungen sehr gut Schach spielen konnten.

> Da ist kein Wissendes oder Intelligentes, sondern nur etwas, das so scheint, als wäre es intelligent.

Nur wenn es wirklich alles durchprogrammiert wäre.
Nimm das Beispiel mit Sophia und ihrer Mimik: Da steckt kein Gefühl hinter der Mimik, keine Emotion im sich verändernden Tonfall. Das ist alles nur Hülle.
So wird es bei Sophia wohl sein.
Auch der Schachcomputer ist nur der Hülle nach ein intelligentes Ding.
Es ist halt schach-intelligent sozusagen.



Wenn die KI ein Werkzeug/Diener sein soll, muss sich unbedingt groß eigene Wünsche haben (und "Befindlichkeiten" klingt sehr menschlich); sie soll vor allem für uns da sein. (Und ja, auch Diener können intelligent sein.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Jul 2020, 20:44

Jörn Budesheim hat geschrieben :
Di 21. Jul 2020, 20:30
Denken, Intelligenz, Wünschen, Ziele anstreben und so weiter und so fort ... das gibt es nur da, wo es Leben gibt. Deswegen künstliche Intelligenz bereits ein Widerspruch in sich.
Nur weil die Intelligenz u.a. so axiomatisch an Leben bindest.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 21. Jul 2020, 21:36

Am Wochenende habe ich mir ein Buch gekauft von Thomas Fuchs, ich habe das ja schon erwähnt. Dort hat er die wesentlichen Unterschiede, auf die Alethos und ich zum Teil schon hingewiesen haben, in systematischer Form in eine Tabelle gepackt. (Für so etwas hat man die Philosophen ja schließlich.)
Thomas Fuchs hat geschrieben : Verteidigung des Menschen, Grundfragen einer verkörperten Anthropologie

Die nachfolgende Tabelle fasst die herausgearbeiteten Unterschiede zwischen menschlicher und künstlicher Intelligenz noch einmal zusammen.

Bild
Thomas Fuchs (* 29. September 1958 in München) ist ein deutscher Psychiater und Philosoph.

Leben
Von 1981 bis 1988 studierte Fuchs Medizin, Philosophie und Wissenschaftsgeschichte. 1990 wurde er in Medizingeschichte mit einer Dissertation über Die Mechanisierung des Herzens – Harvey und Descartes promoviert. In den Jahren von 1989 bis 1996 folgte eine psychiatrische Ausbildung an der TU München. 1995 wurde er zum Facharzt für Psychiatrie und Psychotherapie ernannt. Seit 1997 ist Fuchs Oberarzt an der Psychiatrischen Universitätsklinik Heidelberg sowie Leiter der Sektion Phänomenologische Psychopathologie und Psychotherapie. 1999 folgte seine Habilitation in Psychiatrie an der Universität Heidelberg. 1999 promovierte er in Philosophie zum Thema "Leib, Raum, Person. Entwurf einer phänomenologischen Anthropologie".

Seit 2004 ist er Leiter des Referats "Philosophische Grundlagen" der Deutschen Gesellschaft für Psychiatrie, Psychotherapie und Nervenheilkunde, seit 2005 Professor für Psychiatrie und Psychotherapie an der Universität Heidelberg. Seit 2008 Fellow im Marsilius-Kolleg (Center for Advanced Interdisciplinary Studies) Heidelberg und Direktor des Interdisziplinären Forums für Biomedizin und Kulturwissenschaften (IFBK). 2010 schließlich folgte seine Habilitation in Philosophie an der Universität Heidelberg und die Ernennung zum Karl Jaspers-Professor für Philosophische Grundlagen der Psychiatrie und Psychotherapie.[1] Seit 2012 ist er Forschungsstellenleiter des Editionsprojekts "Karl-Jaspers-Gesamtausgabe" an der Heidelberger Akademie der Wissenschaften und seit 2013 erster Vorsitzender der Deutschen Gesellschaft für Phänomenologische Anthropologie, Psychiatrie und Psychotherapie (DGAP). 2019 wurde Fuchs zum Vize-Präsidenten der Deutsche Gesellschaft für phänomenologische Forschung gewählt. Zusammen mit Lambert Wiesing, der zeitgleich zum Präsidenten gewählt wurde, leitet er die Gesellschaft.

(Wikipedia)




Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Jul 2020, 22:17

Ist ja schön, so eine Gegenüberstellung laut Thomas Fuchs... er ist eben anscheinend keiner, der sich Potential starker KI vorstellen kann.
Z.B.: Hochspezialisierung gilt vor allem für schwache KI; eine allgemeine hat ganz andere Ziele. Ähnlich ist es mit "ohne Verständnis", dies erfordert halt nur einiges mehr als schwache KI u.ä.
Zukunftsbezug ist möglich, auch Problemlösen auf Basis von früheren Lösungen und somit eigenen KI-Erfahrungen usw. usf.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 22. Jul 2020, 05:56

Zukunftsbezug ist nicht möglich, wenn es kein Ich und kein Zeitempfinden gibt.




Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Mi 22. Jul 2020, 17:19

Jörn Budesheim hat geschrieben :
Mi 22. Jul 2020, 05:56
Zukunftsbezug ist nicht möglich, wenn es kein Ich und kein Zeitempfinden gibt.
Ein Selbstbewusstsein (zum Ich) ist schon möglich, weil eine KI ja individuell lernt und auch lernt, wo sie selbst in der Welt etwas verändert und die Änderung selbst ausgelöst hat und so auf sich beziehen kann.
Für Zeit mag man ihr eine interne Uhr einbauen; wie sie Zeit dann "empfindet" bzw. genauer verarbeitet, muss man dann mal schauen. Zumindest kann sie z.B bei Gelerntem feststellen, dass etwas nicht gut (genug) war und sich *in der Zukunft* vornehmen, es besser zu machen bzw. machen zu wollen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 10. Sep 2020, 18:48

CHRISTOF KOCH hat geschrieben :
Diese Technik, die wir zip and zap nennen, ist für den Kortex entwickelt und würde für andere Strukturen, wie die, die man bei Computern findet, nicht funktionieren. Aber die Integrated Information Theory (IIT) ist eine mathematische Theorie, die auf jedes physikalische System anwendbar ist. Wenn man sich digitale, programmierbare Computer anschaut, sagt die Theorie voraus, dass das Phi von einem solchen System eher gering ist. Ein Programm kann kausale Wirkung simulieren, aber das ist nicht dasselbe, wie kausale Wirksamkeit zu besitzen. Lassen Sie es mich an einem Beispiel erklären. Betrachten wir ein Computerprogramm, das die einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie simuliert und Masse in Relation zur Krümmung des Raumes setzt. Dieses Programm kann ein schwarzes Loch simulieren, das eine derart starke Gravitationswirkung auf seine Nachbarschaft ausübt, dass nicht einmal Licht von diesem erkalteten Stern entfliehen kann. Dennoch wird der Mikroprozessor, der dieses Programm rechnet, die Raum-Zeit um ihn herum nicht beeinflussen. Denn seine Masse ist winzig und die Kosmologin, die dieses Programm geschrieben hat, muss nicht befürchten, dass sie durch die extreme Anziehungskraft des schwarzen Lochs, das sie simuliert, in ihren Laptop gesaugt wird. Die Fähigkeit des schwarzen Lochs, die Raumkrümmung zu beeinflussen – also seine Wirksamkeit auf andere Dinge – kann man simulieren. Aber diese Simulation besitzt nicht die tatsächliche Wirkung des schwarzen Lochs.

MATTHIAS ECKOLDT: Ebenso wenig wie es in einem Computer nass wird, wenn man Regen mit einem Wetterprogramm simuliert.

CHRISTOF KOCH: So ist es. Was nun für die kausale Wirkung nach außen, für andere Systeme gilt, gilt ebenso für die nach innen – für die Selbstwirksamkeit. Daher kann menschliches Bewusstsein nicht durch einen Computer simuliert werden, weil ein programmierbarer Computer so gut wie keinerlei Selbstwirksamkeit hat und dementsprechend auch so gut wie nichts erleben würde. Selbst dann noch, wenn der Computer das menschliche Gehirn simuliert. Wenn wir in, sagen wir, einhundert Jahren alles vom menschlichen Gehirn wissen und das alles in einen Computer einspeisen, dann könnte dieses System aufwachen und sagen: Ich bin bewusst! Dann ist das aber alles nur Show. Denn dieses System, das die Abläufe im menschlichen Gehirn simuliert, fühlt sich eben nicht nach einem menschlichen Bewusstsein an.

MATTHIAS ECKOLDT: Die Frage von Thomas Nagel, die er 1974 in seinem Essay »Wie ist es, eine Fledermaus zu sein?« stellte, ist für Sie tatsächlich die entscheidende in der Erforschung des Bewusstseins? Wenn es sich für das System – ob nun biologisch oder technisch – nicht irgendwie anfühlt, dieses System zu sein, dann kann es nicht den Anspruch erheben, bewusst zu sein?

CHRISTOF KOCH: Genau. Die Mathematik in dieser Theorie ist sehr kompliziert. Aber die Theorie bestimmt, im Prinzip, nicht nur die Quantität, sondern ebenso die Qualität des Bewusstseins. Die Theorie sagt voraus, dass Sie Bewusstsein nicht simulieren können, sondern nur erzeugen können durch Selbstwirksamkeit; d. h., man muss ein physikalisches System mit kausaler Wirksamkeit für sich selbst tatsächlich bauen. Wenn man das Verhalten dieses Systems simuliert, entsteht kein Bewusstsein. Wenn es also einen Computer mit Bewusstsein geben wird, muss es sich, ganz im Sinne von Thomas Nagel, tatsächlich irgendwie anfühlen, dieser Computerzu sein. Denken Sie an den Film »Her«. Da verliebt sich der Protagonist in seinen digitalen Assistenten, mit Namen Samantha, ein App(let) auf seinem Smartphone, das man sich als weiterentwickeltes iPhone vorstellen muss. Der Film spielt zu einem Zeitpunkt in der Zukunft, zu dem man nicht mehr unterscheiden kann, ob man mit einem iPhone oder einem Menschen spricht. Das iPhone weiß einfach alles über seinen Besitzer, weil es all seine Mails und Telefonate kennt. Es kann einen Menschen perfekt simulieren, mit allen seinen Fehlern und Macken. Es würde spielend den Turing-Test bestehen. IIT sagt nun aber, dass es trotzdem nur wenig Bewusstsein hat, weil seine kausale Selbstwirksamkeit minimal ist. Es fühlt sich kaum irgendwie an, dieses System zu sein.

MATTHIAS ECKOLDT: Es fehlt die phänomenale Komponente.

Das ist doch sehr eingängig geschrieben! Quelle: Matthias Eckoldt, Kann sich das Bewusstsein bewusst sein? (Sehr empfehlenswert!)




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 12. Sep 2020, 12:40

Man kann das auch in einem einfachen Satz zusammenfassen: Eine Simulation ist nicht das echte Ding.
Die Simulation eines Bewusstseins ist kein Bewusstsein.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Sa 12. Sep 2020, 15:51

NaWennDuMeinst hat geschrieben :
Sa 12. Sep 2020, 12:40
Man kann das auch in einem einfachen Satz zusammenfassen: Eine Simulation ist nicht das echte Ding.
Die Simulation eines Bewusstseins ist kein Bewusstsein.
Eine Simulation ist nur eine Simulation, völlig richtig.
MATTHIAS ECKOLDT: Die Frage von Thomas Nagel, die er 1974 in seinem Essay »Wie ist es, eine Fledermaus zu sein?« stellte, ist für Sie tatsächlich die entscheidende in der Erforschung des Bewusstseins? Wenn es sich für das System – ob nun biologisch oder technisch – nicht irgendwie anfühlt, dieses System zu sein, dann kann es nicht den Anspruch erheben, bewusst zu sein?
Nur was hat das So-Sein wie eine Fledermaus mit Bewusstsein zu tun?
Wenn die Fledermaus ihr Bewusstsein hat und wir ihr das nicht nachempfinden können, haben wir deshalb kein Bewusstsein?

Wenn wir an Regen denken, simulieren wir im Denken den Regen. Genau kann es ein Computer prinzipiell auch machen.

Heißt das dann, dass das reine denkende Gehirn auch kein Bewusstsein hat, weil es selbst nur reale Dinge denken, also nur simulieren kann?

Wenn man aber einem Computer mittels Roboter ein Körper gibt, vergleichbar wie das Gehirn an ein Körper angeschlossen ist, wo ist hier dann noch der entscheidende Unterschied? Also hinsichtlich Simulation und nicht? (Und nicht hinsichtlich "Leben" oder dem mystischen "Bewusstsein", solange dies nicht unabhängig von Leben definiert ist.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23410
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 12. Sep 2020, 19:15

Burkart hat geschrieben :
Sa 12. Sep 2020, 15:51
Wenn wir an Regen denken, simulieren wir im Denken den Regen. Genau kann es ein Computer prinzipiell auch machen.
Nein, natürlich nicht. Nehmen wir mal für einen Moment an, an Regen zu denken oder sagen wir: uns Regen vorzustellen sei eine Art "innere" Simulation des Regens. Wem simulieren wir in diesem Fall den Regen? Uns selbst!

Genau das machen die Computer aber nicht. Die Regensimulation des Computers ist nur eine Simulation für uns.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 12. Sep 2020, 20:02

Das Problem mit dem Bewusstsein ist, dass wir kein (oder nur ein sehr geringes) Verständnis von seiner Entstehung und Funktion haben.
Deshalb können wir es auch nicht nachbilden. Aus dieser Verlegenheit heraus machen wir etwas anderes: Wir versuchen stattdessen das Verhalten von Wesen mit einem Bewusstsein auf den Maschinen zu imitieren.
Ziel ist es eine Maschine zu erschaffen, die sich wie ein Wesen mit Bewusstsein verhält.
Nehmen wir an, das gelänge. Eine Maschine verhält sich exakt so, wie ein Wesen mit Bewusstsein.
Den Nachweis, dass es sich um ein Bewusstsein handelt, könnten wir ja wieder nur anhand des beobachteten Verhaltens erbringen.
Unglücklicherweise ist das bei unseren Mitmenschen genauso: Ob mein Gegenüber ein Bewusstsein hat, kann ich nur daraus ableiten, wie sich mein Gegenüber verhält.
Dass aber hinter diesem Verhalten ein reales Bewusstsein steckt, und keine Simulation oder Imitation, wissen wir dann noch nicht.
Trotzdem gehen wir ja davon aus, dass das Gegenüber über ein Bewusstsein verfügt, wenn es das erwartete Verhalten zeigt.
Daher kommt dann auch die Annahme: Sobald eine Maschine das erwartete Verhalten zeigt, verfügt sie über ein Bewusstsein.

Und jetzt kommt die schwierigste Frage, nämlich welches Verhalten soll ein Indiz für Bewusstsein sein? Wenn es zum Beispiel zum Bewusstsein gehört, emotionale Reaktionen zu zeigen, gekränkt, fröhlich, motiviert oder demotiviert zu sein , rational und irrational sein zu können - wenn es dazu gehört, dass sich dieses Bewusstsein auch eigene Ziele schaffen kann, dass es sich selbst motivieren kann, Träume und Phantasien hat, dann sehe ich schwarz für das Bewusstsein auf Siliziumbasis.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

So 13. Sep 2020, 07:25

Jörn Budesheim hat geschrieben :
Sa 12. Sep 2020, 19:15
Burkart hat geschrieben :
Sa 12. Sep 2020, 15:51
Wenn wir an Regen denken, simulieren wir im Denken den Regen. Genau kann es ein Computer prinzipiell auch machen.
Nein, natürlich nicht. Nehmen wir mal für einen Moment an, an Regen zu denken oder sagen wir: uns Regen vorzustellen sei eine Art "innere" Simulation des Regens.
Ok, "Simulation im Denken" bzw. "innere Simulation" ist vielleicht eine unglückliche Begriffsbildung. Vielleicht sollte man einfach von "Vorstellung" sprechen, also sich den Regen vorzustellen. Vorzustellen heißt, die über ihn irgendwann aufgenommenen Daten und über ihn Gelerntes ins aktuelle Denken zu bringen.
Wem simulieren wir in diesem Fall den Regen? Uns selbst!
Kann man so sagen.
Genau das machen die Computer aber nicht. Die Regensimulation des Computers ist nur eine Simulation für uns.
Warum soll der Computer das nicht auch können mit entsprechendem Wissen und Erfahrungen? Warum soll er nicht auch in einen aktuellen Denk- bzw. Datenverarbeitungsprozess haben?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten