Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Di 15. Sep 2020, 10:24

Jörn Budesheim hat geschrieben :
Di 15. Sep 2020, 09:16
Ein anderes Wort dafür ist: Einfühlungsvermögen, also das Vermögen sich in eine andere Person einzufühlen.
Ganz wichtiger Punkt! Empathie ist zum Beispiel im medizinischen Bereich unverzichtbar. Aber eigentlich spielt das überall eine Rolle wo Menschen miteinander interagieren.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 18. Sep 2020, 13:41

Wissensrepräsentation ist eine entscheidende Grundlage für nahezu alle
Bereiche der KI. Zum Beispiel sind für das Sprachverstehen enorme Mengen
an Alltagswissen notwendig, über die wir Menschen problemlos verfügen.
Ein Mensch würde bei dem Satz „Jens schneidet den Kuchen mit den
Schokostücken“ niemals auf die Idee kommen, dass Jens die Schokostücke
benutzt, um damit zu schneiden. Dennoch ist der Satz mehrdeutig und man
benötigt Wissen über die Welt, um die unzähligen Mehrdeutigkeiten der
natürlichen Sprache sinnvoll aufzulösen. Dabei reicht es nicht, dem
Computer einfach verschiedene Lexika einzuspeisen, denn viel von unserem
Allgemeinwissen ist für Menschen so trivial, dass es nirgendwo explizit
festgehalten wird. Zum Beispiel, dass Schokostücke nicht zum Schneiden
geeignet sind. Außerdem besteht Wissen nicht nur aus Fakten (deklaratives
Wissen), sondern auch aus Wissen über Handlungsabläufe (prozedurales
Wissen). Dass prozedurales Wissen schwer zu formalisieren ist, kann man
selbst feststellen, beispielsweise wenn man versucht, jemandem nur durch
Worte zu erklären, wie man beim Fahrradfahren die Balance hält.
Menschen verfügen auch über Wissen über ihr Wissen (Metawissen).
Sie können einschätzen, in welchen Gebieten sie viel oder nur unzureichend
viel wissen und wie zuverlässig dieses Wissen ist.
https://schuelerlabor.informatik.rwth-a ... uschay.pdf



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 18. Sep 2020, 22:48

Zu 40443 (Jörn):
Ja, man muss auf die Frage nach einem Weg keine Auskunft geben, dazu haben wir i.a. einen triftigen Grund. Ich vermute, dass ein Kind i.a. einfach versuchen wird, die Frage nach bestem Wissen zu beantworten und erst später "lernt", es nicht mehr zu tun.
Es wäre ja schon schön, wenn wir eine KI entwickelten, die so intelligent wie ein Kind ist, alles weitere ggf. später.
Ansonsten sehe ich eine KI ja auch als kooperativen Diener, so dass sie deshalb auch antworten wird.

Und richtig (zu 40445), ein Weg bzw. dessen "richtige" Beschreibung kann alles andere als trivial sein, die Welt ist es halt nicht und eine KI hat sehr viel zu lernen, was Menschen antreibt, warum mal dieses, mal jenes mehr ihren Wünschen entspricht. Es ist viel Verständnis für den Menschen erforderlich, was du bzw. man gerne als "Einfühlungsvermögen" bezeichne(s)t - die Frage ist halt, ob das Einfühlen nicht vor allem ein tiefes (erlerntes) Verstehen der jeweiligen Situation ist.

Zu 40446 (nun NaWenDuMeinst)
Das "Denken" jetziger Maschinen hat mit Intelligenz und/oder auch Verstehen nur nicht viel zu tun. Oder kennst du eine verstehende Maschine?
Natürlich gibt es einfache wie auch komplexe Aufgaben, solche, die vor allem irgendwein fachliches Verständnis benötigt (dazu sollte KI erstmal entwickelt werden) und solche, die die Menschen auch gut verstehen sollen (das ist z.T. sicher erheblich schwieriger).
Insofern sollte alles mit Emotionen erstmal nicht das primäre Ziel der KI sein; es gibt noch genug andere Dinge für KI.

Zu 40523:
Ja, es gibt sehr viel Alltagswissen, dass man einer KI nicht alles sinnvoll einprogrammieren kann, sondern was sie lernen muss (wenn sie sich damit auseinandersetzen soll) - was wiederum letztlich in Perfektion heißen kann, den komplexen Menschen zu verstehen, eine sehr anstrengende Aufgabe, selbst für Menschen z.T. nicht perfekt lösbar.
Was prozedurales Wissen betrifft, müsste die KI genauso Fahrrad fahren lernen durch Ausprobieren (wenn man nicht sehr aufwändig und speziell programmieren will), um dies zu können.
Und richtig, es gibt insgesamt viel zu lernen, auch was man nicht weiß (in dem man angrenzendes Wissen und dessen Grenzen kennt z.B.).

Keiner sagt, dass KI einfach ist. Es sollte erstmal auch nur einfaches Denken nachempfunden werden, das wäre ja schon was.
Dass Menschen z.B. fliegen konnten, hat auch lange gedauert, und das scheint vergleichsweise einfach zu sein.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 01:55

Frau Kuschay geht in ihrer Examensarbeit auch auf die philosophischen Aspekte der künstlichen Intelligenz ein.
Es lohnt sich, bei dem Thema künstliche Intelligenz über den Tellerrand der
Informatik zu schauen. Bei der Frage „Können Computer denken?“ geht es
eben nicht nur um die technische Machbarkeit, im Sinne von Speicherplatz,
Prozessorleistung und Programmierung, sondern es geht auch um
philosophische Überzeugungen. Was unterscheidet den Menschen von
einem Computer? Ist der Mensch lediglich eine komplizierte Maschine aus
Fleisch oder ist er etwas Grundverschiedenes?
Genau das ist mMn eine der zentralen Fragen, an der sich auch entscheidet, ob Computer jemals denken können werden.
3.1 Das Leib-Seele-Problem
Hans Moravec, Leiter des „Robotics Institute“ an der Carnegie Mellon
University in Pittsburgh, sagt in seinem Buch „Mind Children“, dass es nur
eine Frage der Zeit ist, bis es möglich sein wird, den Geist eines Menschen
auf einen Computer zu übertragen (vgl. Moravec, 2001). Dazu wird der
Geist eines Menschen aus seinem Gehirn ‚runtergeladen‘ und kann dann
auf einen Roboter ‚aufgespielt‘ werden, sodass der Mensch mit seinem
Bewusstsein und dem neuen Roboterkörper weiterlebt. Moravec
beantwortet damit, ganz nebenbei, eine alte Frage der Menschheit.
Nämlich die Frage, ob die Seele getrennt vom Körper existiert.
Die Frage ob Leib und Seele untrennbar miteinander verbunden sind oder
ob die Seele unabhängig vom Körper existiert, ist eine grundlegende Frage
der Philosophie, die eine lange Tradition hat. René Descartes war der
Auffassung, dass es einen fundamentalen Unterschied zwischen Geist und
Materie gibt. Diese Auffassung nennt man Dualismus. Das Hauptproblem
des Dualismus ist zu klären, wie Geist und Körper miteinander in
Zusammenhang stehen. Wo ist die Schnittstelle über die sie interagieren?
Dem gegenüber steht der Monismus. Er besagt, dass es nur eine Substanz
gibt und sowohl Körper als auch Geist aus dieser Substanz bestehen. Ein
Vertreter des Monismus ist Hilary Putnam. Für ihn ist der Geist lediglich ein
materieller Zustand des Gehirns. Vereinfacht gesagt, je nachdem welche
Nervenzellen gerade aktiv sind, so fühlen wir uns und unser Gefühl ist
nichts anderes als diese bestimmte Aktivierung von Nervenzellen. Das
zentrale Problem des Monismus ist zu klären, wie aus diesen physikalischen
Zuständen ein Bewusstsein entstehen kann. Angenommen Wissenschaftler
untersuchten das Gehirn eines bestimmten Menschen und wüssten genau,
wie der Zustand des Gehirns ist, wenn dieser Mensch Schokolade isst. Dann
wüssten die Wissenschaftler trotzdem nichts darüber, wie der Geschmack
von Schokolade sich für diesen Menschen anfühlt. Das subjektive
Empfinden ist nicht durch den physikalischen Zustand zu beobachten. Der
Monismus schafft es nicht, eine befriedigende Antwort dafür zu finden,
warum eine bestimmte Aktivierung der Nervenzellen auf eine bestimmte
subjektive Weise empfunden wird.
Ein ähnliches Problem haben die Vertreter der starken KI. Wie kann ein
Computer, der nur über materielle Zustände verfügt, bewusst etwas
erleben. Oder gibt es eine Trennung von Geist und Körper, Software und
Hardware, so wie Moravec annimmt?
Dann kommt Sie auch zu der Frage wo der Unterschied zwischen echten Verstehen und bloßer Simulation liegt.
3.2 Das chinesische Zimmer
Was wäre, wenn ein Chatbot den Turing-Test bestünde? Nehmen wir an,
dass er tatsächlich ununterscheidbar von einem Menschen auf Eingaben
antworten würde.
Würde dieser Chatbot dann Sprache verstehen? John R. Searle präsentierte
dazu das folgende Gedankenexperiment.
Angenommen eine Person sitzt in einem geschlossenen Zimmer und man
gibt ihr Zettel mit chinesischer Schrift (oder irgendeiner anderen Schrift, die
sie nicht kennt) unter der Tür durch. Für sie stehen auf den Zetteln also nur
unverständliche Zeichen. Nun gibt jemand der Person ein dickes Buch mit
einer Anleitung aus der hervorgeht, wie sie Schriftzeichen kombinieren soll,
um auf die Zettel, die hereingegeben werden, zu antworten. Es werden also
Zettel unter der Tür zu ihr ins Zimmer geschoben. Sie nutzt das Buch und
zeichnet Striche auf einen Zettel, wie in der Anweisung beschrieben, und
schiebt den Zettel zurück.
Angenommen das Buch wäre so gut und die Person würde mit der Zeit so
schnell werden, dass ihre Antworten genauso gut wären wie die eines
Muttersprachlers. Für denjenigen der vor der Tür steht, sind die Antworten
also gleichwertig. Doch offensichtlich hat die Person überhaupt nicht
verstanden, worüber sie sich unterhalten hat. Wie ein Computer hat sie
nach bestimmten Anweisungen gehandelt und mit Symbolen hantiert. Die
eigentliche Bedeutung bleibt ihr jedoch fern. Searle sagt, dass ein Chatbot
Sprache genauso wenig wirklich verstehen kann, wie die Person chinesisch
versteht. Auch wenn der Chatbot perfekte Antworten liefert, kennt er die
Bedeutung des Gesagten nicht.
Dieser Ansicht nach gehört zum Denken auch Verstehen. Ein Apparat, der nach Anleitung korrekte Antworten liefert denkt nicht. Er simuliert Gedachtes nur.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 02:24

Burkart hat geschrieben :
Fr 18. Sep 2020, 22:48
Zu 40446 (nun NaWenDuMeinst)
Das "Denken" jetziger Maschinen hat mit Intelligenz und/oder auch Verstehen nur nicht viel zu tun. Oder kennst du eine verstehende Maschine?
Natürlich gibt es einfache wie auch komplexe Aufgaben, solche, die vor allem irgendwein fachliches Verständnis benötigt (dazu sollte KI erstmal entwickelt werden) und solche, die die Menschen auch gut verstehen sollen (das ist z.T. sicher erheblich schwieriger).
Insofern sollte alles mit Emotionen erstmal nicht das primäre Ziel der KI sein; es gibt noch genug andere Dinge für KI.
Mir ist schon klar, dass man klein anfangen muss. Da habe ich auch überhaupt nichts dagegen. Aber es ging mir ja um die grundsätzliche Frage, ob bestimmte Leistungen die das menschliche (biologische) Denken erbringt überhaupt (also prinzipiell) von Maschinen erbracht werden können. Ich sehe das kritisch. Denn dazu - und dazu diente mein Beispiel mit dem Vergnügungspark- ist etwas nötig, was Maschinen aus Prinzip (aufgrund der limitierten Art wie sie konstruiert sind) gar nicht haben können. Emotionen.
Ein gewisser Teil menschlichen Denkens wird den Maschinen also auf ewig verwehrt bleiben.
Das meine ich mit: Maschinen werden wenn dann höchstens Teilaspekte des Denkens (so wie wir es verstehen und ausüben) nachbilden können.
Und das bedeutet dann auch, dass sie bei bestimmten Problemlösungen - also solche bei denen ein Teilaspekt des Denkens nötig ist über den sie nicht verfügen - stets scheitern werden.
Ob man dann beim anderen Teil (Lösung von Logikproblemen) von "echtem Denken" oder nur von einer Simulation desselben wird reden müssen ist damit auch noch gar nicht geklärt. Siehe oben.

Vielleicht hilft es ja, wenn ich an der Stelle auch noch mal betone, dass ich grundsätzlich gar nichts dagegen hätte, wenn Maschinen denken könnten. Es würde mich schon sehr reizen mich einmal mit einer Intelligenz (oder gar einem Bewusstsein) zu unterhalten die nicht menschlich ist. Allerdings kommen wir da auch in einen Bereich rein, der auch ethische Fragen aufwirft. Und so spannend ich das auch fände: ich glaube ehrlich gesagt nicht daran, dass das passieren wird. Aus genannten Gründen.
Zuletzt geändert von NaWennDuMeinst am Sa 19. Sep 2020, 02:42, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 02:38

Vielleicht wird es irgendwann ein kluger Kopf (oder eine Köpfin) schaffen Emotionen mathematisch zu beschreiben. Man soll die Menschen da nicht unterschätzen. Eins unserer hervorstechensten Merkmale ist, dass wir - und scheint es noch so aussichtslos - niemals aufgeben bis wir ein Problem gelöst haben, auch wenn es tausend Jahre dauert.
Das ist aber eben auch eine philosophische Frage, nämlich die Frage ob sich alles mathematisch beschreiben und auflösen lässt, oder ob es eben auch Dinge in der Welt und am Menschen gibt, die etwas Grundverschiedenes darstellen, also ob die Mathematik und die Logik in diesen Fällen überhaupt adäquate Mittel sind.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 05:12

Wie das Team bei IBM dem Supercomputer "Watson" beibrachte die besten menschlichen Jeopardy-Campions zu schlagen.




But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23269
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 19. Sep 2020, 10:03

Burkart hat geschrieben :
Fr 18. Sep 2020, 22:48
eine KI hat sehr viel zu lernen, was Menschen antreibt
Vieles, was Menschen antreibt, kann man nur verstehen, wenn man selbst davon angetrieben wird, weil es keinen anderen Weg gibt, es kennenzulernen. Und Menschen sind eben Lebewesen aus Fleisch und Blut.




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Sa 19. Sep 2020, 11:32

Jörn Budesheim hat geschrieben :
Sa 19. Sep 2020, 10:03
Burkart hat geschrieben :
Fr 18. Sep 2020, 22:48
eine KI hat sehr viel zu lernen, was Menschen antreibt
Vieles, was Menschen antreibt, kann man nur verstehen, wenn man selbst davon angetrieben wird, weil es keinen anderen Weg gibt, es kennenzulernen. Und Menschen sind eben Lebewesen aus Fleisch und Blut.
@Burkart: Obwohl ich glaube, dass Maschinen denken können werden, setze ich Denken in Anführungszeichen. Denn das, was wir unter Denken verstehen, ist ein komplexes Tun von Lebewesen und Lebewesein ist an und für sich nicht reproduzierbar ausser durch Leben selbst.

Das ist so, weil zum Leben sowohl die historische Dimension dazukommt (Evolution, soziale Entwicklung und alles, was dem Menschen widerfahren ist) als auch die vielfältigen Implikationen von Sprache, Gefühlen, Emotionen, Subjektivität, Leiblichkeit etc. Das nachzubauen, eine Geschichte nachzubauen, ist kategorisch ausgeschlossen. Maschinen werden nie Menschen nachahmen können in der Art, dass Ihr Tun als das gelten kann, was Menschen tun.

Nur, und das war mein Punkt im Laufe dieser Diskussion, bedeutet das alles nicht, dass Computer so etwas tun können wie das, was wir Denken nennen, nun müssten wir es vielleicht mit einem anderen Verb ausdrücken, das dem Umstand Rechnung trägt, dass es nicht Menschen sind, die dieses Etwas tun, sondern Maschinen sind, die ein anderes Etwas tun. Dieses andere Etwas wäre ein Analogon zu dem, was Menschen tun, nur eben in der Art von Maschinen. Es ist denkbar und sogar wahrscheinlich, dass Maschinen Empfindsamkeit haben werden, Subjektivität, ja, sogar Emotionen ausbilden werden: Das alles wird aber nicht unter denselben Begriff fallen können, unter den das fällt, was Menschen ausmacht.



-------------------------------
Alle lächeln in derselben Sprache.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 11:33

NaWennDuMeinst hat geschrieben :
Sa 19. Sep 2020, 01:55
Frau Kuschay geht in ihrer Examensarbeit auch auf die philosophischen Aspekte der künstlichen Intelligenz ein.
Es lohnt sich, bei dem Thema künstliche Intelligenz über den Tellerrand der
Informatik zu schauen. Bei der Frage „Können Computer denken?“ geht es
eben nicht nur um die technische Machbarkeit, im Sinne von Speicherplatz,
Prozessorleistung und Programmierung, sondern es geht auch um
philosophische Überzeugungen.
Das sehe ich genauso.
Was unterscheidet den Menschen von einem Computer? Ist der Mensch lediglich eine komplizierte Maschine aus
Fleisch oder ist er etwas Grundverschiedenes?
Genau das ist mMn eine der zentralen Fragen, an der sich auch entscheidet, ob Computer jemals denken können werden.
Mch stört daran das Schwarz-Weiß-Denken, alleine deshalb sollte schon jeder vernünftig denkende Mensch oder zumindest Nicht-Scheuklappen-Philosoph stutzig werden (außer vielleicht er ist großer Fan von Merkels "alternativlos"). Als ob es nur die Alternativen "Mensch ist komplizierte Maschine" oder "Grundverschiedenes" gäbe.
Natürlich ist der Mensch keine Maschine, aber besteht genauso aus Materie wie alles andere in der physikalischen Welt Existierende.
3.1 Das Leib-Seele-Problem
Hans Moravec, Leiter des „Robotics Institute“ an der Carnegie Mellon
University in Pittsburgh, sagt in seinem Buch „Mind Children“, dass es nur
eine Frage der Zeit ist, bis es möglich sein wird, den Geist eines Menschen
auf einen Computer zu übertragen (vgl. Moravec, 2001). Dazu wird der
Geist eines Menschen aus seinem Gehirn ‚runtergeladen‘ und kann dann
auf einen Roboter ‚aufgespielt‘ werden, sodass der Mensch mit seinem
Bewusstsein und dem neuen Roboterkörper weiterlebt. Moravec
beantwortet damit, ganz nebenbei, eine alte Frage der Menschheit.
Nämlich die Frage, ob die Seele getrennt vom Körper existiert.
Die Frage ob Leib und Seele untrennbar miteinander verbunden sind oder
ob die Seele unabhängig vom Körper existiert, ist eine grundlegende Frage
der Philosophie, die eine lange Tradition hat. René Descartes war der
Auffassung, dass es einen fundamentalen Unterschied zwischen Geist und
Materie gibt. Diese Auffassung nennt man Dualismus. Das Hauptproblem
des Dualismus ist zu klären, wie Geist und Körper miteinander in
Zusammenhang stehen. Wo ist die Schnittstelle über die sie interagieren?
Dem gegenüber steht der Monismus. Er besagt, dass es nur eine Substanz
gibt und sowohl Körper als auch Geist aus dieser Substanz bestehen. Ein
Vertreter des Monismus ist Hilary Putnam. Für ihn ist der Geist lediglich ein
materieller Zustand des Gehirns. Vereinfacht gesagt, je nachdem welche
Nervenzellen gerade aktiv sind, so fühlen wir uns und unser Gefühl ist
nichts anderes als diese bestimmte Aktivierung von Nervenzellen. Das
zentrale Problem des Monismus ist zu klären, wie aus diesen physikalischen
Zuständen ein Bewusstsein entstehen kann. Angenommen Wissenschaftler
untersuchten das Gehirn eines bestimmten Menschen und wüssten genau,
wie der Zustand des Gehirns ist, wenn dieser Mensch Schokolade isst. Dann
wüssten die Wissenschaftler trotzdem nichts darüber, wie der Geschmack
von Schokolade sich für diesen Menschen anfühlt. Das subjektive
Empfinden ist nicht durch den physikalischen Zustand zu beobachten. Der
Monismus schafft es nicht, eine befriedigende Antwort dafür zu finden,
warum eine bestimmte Aktivierung der Nervenzellen auf eine bestimmte
subjektive Weise empfunden wird.
Ein ähnliches Problem haben die Vertreter der starken KI. Wie kann ein
Computer, der nur über materielle Zustände verfügt, bewusst etwas
erleben. Oder gibt es eine Trennung von Geist und Körper, Software und
Hardware, so wie Moravec annimmt?
Dann kommt Sie auch zu der Frage wo der Unterschied zwischen echten Verstehen und bloßer Simulation liegt.
Ach ja, Movarec, er mit seinem Geist herunterladen u.ä.; wir sind uns sicherlich einig, dass wir uns das nicht als machbar vorstellen.

Richtig, Verstehen ist ein zentraler Punkt. Simulation heißt, nur etwas Nachzubauen, zu modellieren.
Wenn man dagegen echte Daten aus der Umwelt aufnimmt, ist es keine Simulation mehr, wenn auf diesen Daten direkt aufgebaut wird.

Zu "Wie kann ein Computer, der nur über materielle Zustände verfügt, bewusst etwas erleben.":
Nur materielle Zustände ist einfach falsch; es geht schließlich um die logischen (u.ä.) gespeicherten Zusammenhänge.

Ich vertrete den Monismus in dem Sinne, dass Geist nicht etwas von einer Intelligenz unanhängiges ist.
Zu deren Problem: "Das subjektive Empfinden ist nicht durch den physikalischen Zustand zu beobachten. Der Monismus schafft es nicht, eine befriedigende Antwort dafür zu finden, warum eine bestimmte Aktivierung der Nervenzellen auf eine bestimmte subjektive Weise empfunden wird."
Warum soll auch ein Empfinden genau beobachtbar sein? Jeder Mensch empfindet sowieso anders und dazu zählt ja mehr als das Gehirn, z.B. seine ganzen Sinne, die dem Gehirn ständig (für dieses nicht vorhersehbare) neue Daten liefern. Abgesehen davon, dass die Vorstellung des genauen Messens nicht genau realisierbar ist, Menschen ja sowieso alle verschieden fühlen...
3.2 Das chinesische Zimmer
Was wäre, wenn ein Chatbot den Turing-Test bestünde? Nehmen wir an,
dass er tatsächlich ununterscheidbar von einem Menschen auf Eingaben
antworten würde.
Würde dieser Chatbot dann Sprache verstehen? John R. Searle präsentierte
dazu das folgende Gedankenexperiment.
Angenommen eine Person sitzt in einem geschlossenen Zimmer und man
gibt ihr Zettel mit chinesischer Schrift (oder irgendeiner anderen Schrift, die
sie nicht kennt) unter der Tür durch. Für sie stehen auf den Zetteln also nur
unverständliche Zeichen. Nun gibt jemand der Person ein dickes Buch mit
einer Anleitung aus der hervorgeht, wie sie Schriftzeichen kombinieren soll,
um auf die Zettel, die hereingegeben werden, zu antworten. Es werden also
Zettel unter der Tür zu ihr ins Zimmer geschoben. Sie nutzt das Buch und
zeichnet Striche auf einen Zettel, wie in der Anweisung beschrieben, und
schiebt den Zettel zurück.
Angenommen das Buch wäre so gut und die Person würde mit der Zeit so
schnell werden, dass ihre Antworten genauso gut wären wie die eines
Muttersprachlers. Für denjenigen der vor der Tür steht, sind die Antworten
also gleichwertig. Doch offensichtlich hat die Person überhaupt nicht
verstanden, worüber sie sich unterhalten hat. Wie ein Computer hat sie
nach bestimmten Anweisungen gehandelt und mit Symbolen hantiert. Die
eigentliche Bedeutung bleibt ihr jedoch fern. Searle sagt, dass ein Chatbot
Sprache genauso wenig wirklich verstehen kann, wie die Person chinesisch
versteht. Auch wenn der Chatbot perfekte Antworten liefert, kennt er die
Bedeutung des Gesagten nicht.
Dieser Ansicht nach gehört zum Denken auch Verstehen. Ein Apparat, der nach Anleitung korrekte Antworten liefert denkt nicht. Er simuliert Gedachtes nur.
Ganz meiner Meinung, dass auch Verstehen dazugehört. Und deshalb hilft uns das Chinesische Zimmer nicht weiter.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 11:46

NaWennDuMeinst hat geschrieben :
Sa 19. Sep 2020, 02:38
Vielleicht wird es irgendwann ein kluger Kopf (oder eine Köpfin) schaffen Emotionen mathematisch zu beschreiben.
Richtig - oder vielleicht sogar eine KI ohne Emotionen. Man muss nicht alles genau nachempfinden können, um sich ein hinreichendes Bild machen zu können - so wie sich z.B. ein männlicher Arzt sich hinreichend in eine Gebärende hineinversetzen kann.
Man soll die Menschen da nicht unterschätzen. Eins unserer hervorstechensten Merkmale ist, dass wir - und scheint es noch so aussichtslos - niemals
aufgeben bis wir ein Problem gelöst haben, auch wenn es tausend Jahre dauert.
Genau wir haben sooo viel Zeit... also mal hoffen für die Menschheit...
Das ist aber eben auch eine philosophische Frage, nämlich die Frage ob sich alles mathematisch beschreiben und auflösen lässt, oder ob es eben auch Dinge in der Welt und am Menschen gibt, die etwas Grundverschiedenes darstellen, also ob die Mathematik und die Logik in diesen Fällen überhaupt adäquate Mittel sind.
Tja, das wird sich irgendwann zeigen.
Man konnte sich mathematisch-logisch-physikalisch auch länger nicht erklären, warum schwere Insekten überhaupt fliegen können, bis man es irgendwann doch herausbekommen hat.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 11:50

Jörn Budesheim hat geschrieben :
Sa 19. Sep 2020, 10:03
Burkart hat geschrieben :
Fr 18. Sep 2020, 22:48
eine KI hat sehr viel zu lernen, was Menschen antreibt
Vieles, was Menschen antreibt, kann man nur verstehen, wenn man selbst davon angetrieben wird, weil es keinen anderen Weg gibt, es kennenzulernen. Und Menschen sind eben Lebewesen aus Fleisch und Blut.
Warum soll nicht eine Näherung reichen (also ähnliche Motivationen u.ä., die dann hinreichend gut übertragbar sind), um verstehen zu können? Also die Näherung einer KI, um Menschen hinreichend gut zu verstehen?
Ein männlicher Arzt kann sich auch hinreichend in eine Gebärende hineinversetzen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 11:59

Alethos hat geschrieben :
Sa 19. Sep 2020, 11:32
Jörn Budesheim hat geschrieben :
Sa 19. Sep 2020, 10:03
Burkart hat geschrieben :
Fr 18. Sep 2020, 22:48
eine KI hat sehr viel zu lernen, was Menschen antreibt
Vieles, was Menschen antreibt, kann man nur verstehen, wenn man selbst davon angetrieben wird, weil es keinen anderen Weg gibt, es kennenzulernen. Und Menschen sind eben Lebewesen aus Fleisch und Blut.
@Burkart: Obwohl ich glaube, dass Maschinen denken können werden, setze ich Denken in Anführungszeichen.
Wenn es dir irgendwie hilft...
Denn das, was wir unter Denken verstehen, ist ein komplexes Tun von Lebewesen und Lebewesein ist an und für sich nicht reproduzierbar ausser durch Leben selbst.
Müsstest du denn dann nicht für niedere Lebenwesen auch unzählige verschiedene Arten von Anführungszeichen definieren, weil praktisch alle verschieden komplex denken? Und wo soll denn Denken anfangen? Erstmal per Definition beim (göttlichen ;) ) Menschen?
Das ist so, weil zum Leben sowohl die historische Dimension dazukommt (Evolution, soziale Entwicklung und alles, was dem Menschen widerfahren ist) als auch die vielfältigen Implikationen von Sprache, Gefühlen, Emotionen, Subjektivität, Leiblichkeit etc. Das nachzubauen, eine Geschichte nachzubauen, ist kategorisch ausgeschlossen. Maschinen werden nie Menschen nachahmen können in der Art, dass Ihr Tun als das gelten kann, was Menschen tun.
Das ist u.a. eine Definition bzw. Akzeptanz des Menschen. Tiere wurden auch früher für viel dümmer gehalten als man in zwischen weiß; das gilt sogar für Pflanzen.
Nur, und das war mein Punkt im Laufe dieser Diskussion, bedeutet das alles nicht, dass Computer so etwas tun können wie das, was wir Denken nennen, nun müssten wir es vielleicht mit einem anderen Verb ausdrücken, das dem Umstand Rechnung trägt, dass es nicht Menschen sind, die dieses Etwas tun, sondern Maschinen sind, die ein anderes Etwas tun.
Hm, hatten wir hier nicht schon vom Verb "computer-denken" gesprochen? (Oder sollte es in einem anderen Forum gewesen sein...?)
Oder sagen wir kürzer "KI-denken"?
Soll mir recht sein (wenn der Unterschied denn gerade wichtig ist).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 12:05

Alethos hat geschrieben :
Sa 19. Sep 2020, 11:32
Es ist denkbar und sogar wahrscheinlich, dass Maschinen Empfindsamkeit haben werden, Subjektivität, ja, sogar Emotionen ausbilden werden:
Also momentan ist das absolute Science-Fiction, und es ist nicht mal im Ansatz denkbar oder wahrscheinlich.
Das liegt u.a. daran, dass wir ja überhaupt nicht verstehen wie diese Dinge funktionieren.
Ich persönlich glaube, dass Dinge wie Emotionen ein exklusives Merkmal biologischen Lebens sind. Reine Logikapparate können das nicht nachbilden. Wie denn?
Sie können es höchstens vortäuschen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 12:24

Burkart hat geschrieben :
Sa 19. Sep 2020, 11:50
Ein männlicher Arzt kann sich auch hinreichend in eine Gebärende hineinversetzen.
Das kann er aber nur, weil er auch ein Mensch ist und zum Beispiel Begriffe wie "Schmerz" nachvollziehen kann.
Im Übrigen ist es in Deutschland so:

Eine Hebamme leitet in Deutschland und Österreich die regelrechte Geburt ab Wehenbeginn völlig selbständig und selbstverantwortlich ohne Arzt (nach § 4 Abs. 1 Satz 2 (HebG/D) und nach § 3 Abs. 1–2 Hebammengesetz (HebG/Ö)). Nach diesen Gesetzen besteht die Hinzuziehungspflicht einer Hebamme. Das heißt, ein Arzt darf nur im Notfall eine Geburt ohne Hebamme durchführen.

Es sind also stets (meist) weibliche Hebammen bei der Geburt dabei. Was denkst Du ist der Grund für das Gesetz?
Ihre Aufgabe ist es die Gebärende emotional und mental zu begleiten. Das machen sie weil der Arzt dafür gar keine Zeit hat, aber auch, weil es einer Frau besser gelingt sich in die Gebärende hineinzuversetzen.
Es geht also darum zu verstehen wie die Gebärende sich fühlt, ihr ihre Ängste und Sorgen vor und während der Geburt zu nehmen usw.
Dafür ist viel Erfahrung und eben auch Empathie nötig. Ein Computer kann sowas nicht erledigen. Noch weniger als ein Mann, der gar nicht weiß wie es sich anfühlt schwanger zu sein.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 12:32

Burkart hat geschrieben :
Sa 19. Sep 2020, 11:59
Müsstest du denn dann nicht für niedere Lebenwesen auch unzählige verschiedene Arten von Anführungszeichen definieren, weil praktisch alle verschieden komplex denken? Und wo soll denn Denken anfangen? Erstmal per Definition beim (göttlichen ;) ) Menschen?
Du selbst hast in deinem Satz ja die Definition schon mitgegeben, wenn Du von Lebewesen sprichst (ein Computer ist kein Lebewesen).
Ich würde mindestens unterscheiden zwischen biologischem Denken und künstlichem Denken.
Das ist sicher nicht das selbe, und es ist für mich auch noch lange nicht geklärt ob es sich beim künstlichen Denken überhaupt um sowas wie "Denken" handelt, oder eben einfach nur um eine Simulation.
Dann kommt auch die Frage auf, ob für das Denken auch ein "Bewusstsein" nötig ist (das wäre dann sowohl ein Unterscheidungsmerkmal zwischen Mensch und Maschine, also auch zwischen Mensch und Tier und Tier und Maschine) usw.
Das hatten wir ja alles schon.
Zuletzt geändert von NaWennDuMeinst am Sa 19. Sep 2020, 12:37, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 19. Sep 2020, 12:37

Burkart hat geschrieben :
Sa 19. Sep 2020, 11:33
Dieser Ansicht nach gehört zum Denken auch Verstehen. Ein Apparat, der nach Anleitung korrekte Antworten liefert denkt nicht. Er simuliert Gedachtes nur.
Ganz meiner Meinung, dass auch Verstehen dazugehört.
Ich finde das Gedankenexperiment zeigt ganz gut, dass man daraus, dass ein Computer die richtigen (erwarteten) Antworten gibt, nicht folgern kann, dass er auch denkt.
Mit Symbolen nach Regeln zu hantieren hat mit Verstehen erstmal noch nichts zu tun. Und wenn aber nun Verstehen zum Denken dazugehört (wobei Du ja zustimmst), dann ist da ohne Verstehen auch kein "echtes Denken".
Und deshalb hilft uns das Chinesische Zimmer nicht weiter.
Du meinst das Denken als einfaches Befolgen von Regeln und Anleitungen zu begreifen hilft uns nicht weiter.
Offenbar funktioniert es so nicht, beziehungsweise, das Befolgen von Regeln ist nur ein Teil des ganzen Komplexes.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 12:48

NaWennDuMeinst hat geschrieben :
Sa 19. Sep 2020, 12:24
Burkart hat geschrieben :
Sa 19. Sep 2020, 11:50
Ein männlicher Arzt kann sich auch hinreichend in eine Gebärende hineinversetzen.
Das kann er aber nur, weil er auch ein Mensch ist und zum Beispiel Begriffe wie "Schmerz" nachvollziehen kann.
Mal in wikipedia schauend:
"Schmerz ist eine komplexe subjektive Sinneswahrnehmung, die als akutes Geschehen den Charakter eines Warn- und Leitsignals aufweist und in der Intensität von unangenehm bis unerträglich reichen kann."
Sinneswahrnehmung: klar...
subjektiv: sowieso...
komplex: ok...
Charakter eines Warn- und Leitsignals: Ja, ein guter Aspekt, also dass gewisse Sinneseindrücke wichtiger und als höher priorisiert angesehen werden sollten, zumindest nach erster kurzer Verarbeitung...
Soweit kein echtes "Problem"...

Intensität von unangenehm bis unerträglich:
Ok, hier sind wir wieder bei Emotionen, anscheinend unserem Hauptproblem im Unterschied zwischen Mensch und Maschine/KI.
Es ist halt wirklich die Frage, ob diese irgendwann hinreichend genau nachempfunden werden können, für welchen Zweck dann auch immer.
Im Übrigen ist es in Deutschland so:

Eine Hebamme leitet in Deutschland und Österreich die regelrechte Geburt ab Wehenbeginn völlig selbständig und selbstverantwortlich ohne Arzt (nach § 4 Abs. 1 Satz 2 (HebG/D) und nach § 3 Abs. 1–2 Hebammengesetz (HebG/Ö)). Nach diesen Gesetzen besteht die Hinzuziehungspflicht einer Hebamme. Das heißt, ein Arzt darf nur im Notfall eine Geburt ohne Hebamme durchführen.

Es sind also stets (meist) weibliche Hebammen bei der Geburt dabei. Was denkst Du ist der Grund für das Gesetz?
Immerhin gibt es auch männliche Hebammen, also so entscheidend kann es dann nicht sein.
Ihre Aufgabe ist es die Gebärende emotional und mental zu begleiten. Das machen sie weil der Arzt dafür gar keine Zeit hat, aber auch, weil es einer Frau besser gelingt sich in die Gebärende hineinzuversetzen.
Ok, dann sind es eben meist keine Ärzte - wobei diese im Notfall sicherlich die Tätigkeit übernehmen werden.
Es geht also darum zu verstehen wie die Gebärende sich fühlt, ihr ihre Ängste und Sorgen vor und während der Geburt zu nehmen usw.
Dafür ist viel Erfahrung und eben auch Empathie nötig. Ein Computer kann sowas nicht erledigen. Noch weniger als ein Mann, der gar nicht weiß wie es sich anfühlt schwanger zu sein.
Klar, je ähnlicher man jemandem ist, desto genauer kann man ihn verstehen bzw. nachempfinden. Es ist halt nur immer die Frage, wie genau das sein muss, siehe halt z.B. "männliche Hebamme". (Einem Computer hatte ich nun auch nicht vor, diesen Job zu übertragen ;) )



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 19. Sep 2020, 12:59

NaWennDuMeinst hat geschrieben :
Sa 19. Sep 2020, 12:32
Burkart hat geschrieben :
Sa 19. Sep 2020, 11:59
Müsstest du denn dann nicht für niedere Lebenwesen auch unzählige verschiedene Arten von Anführungszeichen definieren, weil praktisch alle verschieden komplex denken? Und wo soll denn Denken anfangen? Erstmal per Definition beim (göttlichen ;) ) Menschen?
Du selbst hast in deinem Satz ja die Definition schon mitgegeben, wenn Du von Lebewesen sprichst (ein Computer ist kein Lebewesen).
Nur in der Hinsicht, als dass Denken nicht von Leben abhängt, insofern du primitivsten Lebenwesen doch kein Denken zugestehst, oder tust du das?
Ich würde mindestens unterscheiden zwischen biologischem Denken und künstlichem Denken.
Unterscheidest du auch zwischen biologischem und künstlichen (Roboter-)Handeln? Also z.B. ob ein Mensch einen Gegenstand von A nach B bewegt?
Falls nicht, warum dann beim Denken, dass doch die Vorstufe zum Handeln ist?
Das ist sicher nicht das selbe, und es ist für mich auch noch lange nicht geklärt ob es sich beim künstlichen Denken überhaupt um sowas wie "Denken" handelt, oder eben einfach nur um eine Simulation.
Wie kann es eine Simulation sein, wenn es um echte Welt geht, also z.B. Daten aus ihr, (Roboter-)Handeln in ihr?
Aus wikipedia: "Bei der Simulation werden Experimente an einem Modell durchgeführt,..." - die Welt ist aber kein Modell.
Ok, solange man sich in einer Simulation bewegt mit einer künstlichen Welt, kann man davon noch sprechen.
Dann kommt auch die Frage auf, ob für das Denken auch ein "Bewusstsein" nötig ist (das wäre dann sowohl ein Unterscheidungsmerkmal zwischen Mensch und Maschine, also auch zwischen Mensch und Tier und Tier und Maschine) usw.
Das hatten wir ja alles schon.
Richtig, wiederholen wir uns nicht hinsichtlich des schwammigen (Begriffs des) Bewusstseins. U.a. müsste man dann ja noch verschiedene "Bewusstseine" von Menschen, höheren und niedrigeren Tieren u.ä. einführen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Sa 19. Sep 2020, 13:01

Burkart hat geschrieben :
Sa 19. Sep 2020, 11:59
Alethos hat geschrieben :
Sa 19. Sep 2020, 11:32
Denn das, was wir unter Denken verstehen, ist ein komplexes Tun von Lebewesen und Lebewesein ist an und für sich nicht reproduzierbar ausser durch Leben selbst.
Müsstest du denn dann nicht für niedere Lebenwesen auch unzählige verschiedene Arten von Anführungszeichen definieren, weil praktisch alle verschieden komplex denken?
Das müssten wir gerade nicht, da ja nicht die Komplexität an und für sich das Kriterium für Denken ist, als vielmehr die Tatsache, dass es Lebewesen sind. Unabhängig davon, ob dieses Denken komplex ist oder wegen fehlender Komplexität gar nicht denken genannt werden sollte, z.B. bei Mikroben, es ist, falls es ein Denken ist, ein Denken von Lebewesen. Das ist die Kategorie: Lebendigkeit.

Ich könnte mit deinem Vorschlag des KI-Denkens leben, mir wäre ein Verb lieber, das >Denken< im Wort gar nicht führt.



-------------------------------
Alle lächeln in derselben Sprache.

Antworten