Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Do 26. Jan 2023, 15:58

sybok hat geschrieben :
Do 26. Jan 2023, 15:02
Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 12:53
Wenn auf "Guten" oft "Tag" folgt, dann ist "Tag" nach "Guten" eben eine brauchbare Wette. Man kann sie eingehen, ohne zu wissen, worum es geht. Wirkliche Sprache ist hingegen in unserem Leben und in der Wirklichkeit verankert. Auf beides hat das Programm keinen Zugriff.
Dann, wenn du auf diese Weise ChatGPT analysierst, hat future06 aber meinem Eindruck nach recht wenn er sagt, dass Statistik irreführend und das Modell von GPT weitaus komplexer als "Wörter zählen" sei.
Ich sehe das so:
Wir werden in ein Universum reingeboren und machen uns Modelle von den Dingen die wir sehen und erfahren (es gibt Bäume, dies ist ein Haus, das ist die Sonne, die Sonne leuchtet,...). Um uns darüber auszutauschen und selber mehr Klarheit zu verschaffen, haben wir Sprache und damit ist unser Modell von der Realität bereits in die Sprache eingewoben. Ein weiteres Modell, das nun auf dieser Sprache rechnet, hat demnach - bis zu einem gewissen Grad - ebenfalls ein Modell unseres Modells von der Realität, weil dieses implizit in die Sprache eingewoben ist.
Für mich ist der Punkt, dass bei ChatGPT das Wort = das Ding ist. Es gibt keinen Unterschied, weil die "Maschine" ja auch nach eigener Auskunft über keine Repräsentationen verfügt. Die Beziehungen zwischen den Wörtern sind statistische und keine auf irgendwelcher Erfahrung und Wahrnehmung beruhenden. Es gibt keinen Unterschied zwischen dem Wort "Rose" und der "Rose", die du oder ich sehen, fühlen, riechen können. Es gibt nichts, wovon das Ding ein Modell machen könnte, außer Texten. Ich hatte schon einmal irgendwo darauf hingewiesen, dass selbst Brandoms Modell ein soziales und kein statistisches ist.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Do 26. Jan 2023, 16:22

Hier ist keine Magie am Werk, die Buchstabenfolge [b+a+u+m] verweist nicht von sich aus auf Bäume. Ohne unsere Sozialität und Intentionalität wären sie leere "Zeichen". Kinder lernen die Grundbedeutungen, auf denen alles andere aufbaut, im direkten Kontakt mit der Wirklichkeit. Ohne diesen direkten Bezug zur Wirklichkeit gibt es keine Sprache. Und dieser Wirklichkeitsbezug fehlt im Programm völlig, es gibt nur "Zeichen".
Das mit der Magie will ich mal dahingestellt lassen :mrgreen: und eventuell in einem anderen Thread wieder aufgreifen.
ChatGPT "weiß" mehr über Bäume als jeder Teilnehmer an dieser Diskussion. Es ist aber nicht fähig dieses Wissen zu prüfen und gegebenenfalls zu falsifizieren. Es kann nichts Neues über Bäume dazu lernen und alte "Vorstellungen" nicht ändern. Deshalb kann es auch nicht künstlerisch (Literatur, Bilder,...) arbeiten. Es wirkt dann bestenfalls so als ob.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Benutzeravatar
Jörn Budesheim
Beiträge: 23418
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 17:10

Glaubst du, dass ein Lexikon etwas über Bäume weiß? Glaubst du, dass ein Telefonbuch die Telefonnummern kennt?




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Do 26. Jan 2023, 17:44

Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 12:53
Wenn auf "Guten" oft "Tag" folgt, dann ist "Tag" nach "Guten" eben eine brauchbare Wette. Man kann sie eingehen, ohne zu wissen, worum es geht. Wirkliche Sprache ist hingegen in unserem Leben und in der Wirklichkeit verankert. Auf beides hat das Programm keinen Zugriff.
Nochmals zurück zur Beziehung:

King - Man + Woman = Queen

Solche Beziehungen sind wie gesagt im Datenmodell eines frühen Vorläufers von chatGPT enthalten und sie nicht etwa explizit einprogrammiert, sondern durch das Lernverfahren des neuronalen Netzes allein aufgrund der "Analyse" der Beispieltexte entstanden. Und zwar ohne Zugriff auf die Wirklichkeit - zumindest was du darunter verstehst.

Es sind also Aspekte der Wirklichkeit im Datenmodell repräsentiert. Wie willst du das anders erklären?

Um Missverständnisse zu vermeiden: Unter einer Repräsentation verstehe ich hier etwas wie z.B. die Konstruktionszeichnung eines Gegenstands.
Genauso arbeitet m.E. chatGPT. Es kann sinnvolle Dialoge führen, weil es in diesem Sinne ein Verständnis von der Welt besitzt. Vergleichbar mit einem autonomen Fahrzeug, das sich im Straßenverkehr zurechtfindet, weil in seinem Speicher eine Repräsentation der realen Welt in Form eines Datenmodells enthalten ist.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 23418
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 17:53

future06 hat geschrieben :
Do 26. Jan 2023, 17:44
Konstruktionszeichnung eines Gegenstands.
Auch das ist nur geliehene Intentionalität. Wenn ich ein Auto zeichne, weiß die Zeichnung nichts über das Auto. Die Zeichnung enthält Informationen, mit denen wir das Auto möglicherweise bauen könnten, aber daraus folgt nicht, dass die Zeichnung etwas über das Auto weiß. Das Telefonbuch enthält Informationen über alle möglichen Telefonnummern, aber daraus folgt nicht, dass das Telefonbuch die Nummern kennt.




Benutzeravatar
AufDerSonne
Beiträge: 1281
Registriert: Do 1. Sep 2022, 19:44

Do 26. Jan 2023, 19:17

Gespräch mit ChatGPT:

Matthias (Ich): "What is your definition of consciousness?"

KI: "Consciousness is a complex and multi-faceted concept that is not fully understood by scientists and philosophers. It refers to the subjective experience of being aware of one's surroundings and one's own thoughts, feelings, and sensations. In other words, consciousness is the experience of being "awake" and aware of the world around us.

There are different theories about the nature of consciousness, such as the idea that it is a product of brain activity, or that it is a fundamental property of the universe. Some theories propose that consciousness emerges from the complexity of neural processes, while others propose that consciousness is a fundamental property of the universe, similar to space and time.

It's important to note that I am a machine learning model and I don't have a personal consciousness, I am not aware of my existence, I don't have feelings or emotions, I don't experience the world. I am a computer program that processes and generates text based on the input provided to me."

Das ist erstaunlich. Die Maschine spricht beinahe wie ein Mensch! :D



Ohne Gehirn kein Geist!

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Do 26. Jan 2023, 20:11

@Lucian Wing und Jörn Budesheim

Das sehe ich anders, natürlich "leihen wir Intentionalität", aber das ist in der Symbolfolge b-a-u-m etwa bereits passiert, sie steckt bereits in der Sprache.
"Heute ist auf meinem Baum ein Flugzeug gewachsen" wird das Programm nicht ausgeben, obwohl es syntaktisch korrekt wäre. Es inferiert doch die Semantik automatisch mit, eben weil unser Weltmodell bereits drinsteckt.

Die Beziehung zwischen den Worten ist zwar eine statistische, aber sie basieren dennoch auf Erfahrungen und Wahrnehmungen, nämlich ja unseren.
Die Frage wäre dann, was quasi nicht-Text wäre - ist wohl, momentan zumindest noch, eine Weltbildfrage: Was wir wahrnehmen und erfahren ist nach meiner Sichtweise Information im formalen Sinne, also codierbar und damit sozusagen "textifizierbar".

Dass ChatGPT nicht "lebt", nicht "versteht" was es ausgibt, kein "Bewusstsein" hat etc. das ist doch trivial und wird nicht bestritten.
Das interessante ist doch, dass GPT uns einen ersten Geschmack des Zombies gibt. Ist nach wie vor gewagt, aber das Programm ist derart gut, dass wir erahnen können, dass es das alles eben tasächlich wohl nicht braucht, die Konzepte formal gesehen wohl leer sind (wie du es mal im KI Thread sinngemäss sagtest: Stimmen die Zuschreibungen die wir uns selbst geben überhaupt?).
Es war schon früh eine Idee, dass Chatbots ein Weg zur starken KI sein könnten. Nun ist das wieder aktuell: Das Modell, das in "Text" steckt ist nicht nur ein Modell von sich selber, sondern ist doch mit unserem Weltmodell aufgeladen.

@Lucian Wing: Wenn es keine Semantik erzeugt, darfst du es natürlich auch nicht ernst nehmen, wenn es von sich selber sagt, dass es keine interne Repräsentation verfügt ;)




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Do 26. Jan 2023, 20:54

sybok hat geschrieben :
Do 26. Jan 2023, 20:11
@Lucian Wing und Jörn Budesheim

Das sehe ich anders, natürlich "leihen wir Intentionalität", aber das ist in der Symbolfolge b-a-u-m etwa bereits passiert, sie steckt bereits in der Sprache.
"Heute ist auf meinem Baum ein Flugzeug gewachsen" wird das Programm nicht ausgeben, obwohl es syntaktisch korrekt wäre. Es inferiert doch die Semantik automatisch mit, eben weil unser Weltmodell bereits drinsteckt.

Die Beziehung zwischen den Worten ist zwar eine statistische, aber sie basieren dennoch auf Erfahrungen und Wahrnehmungen, nämlich ja unseren.
Die Frage wäre dann, was quasi nicht-Text wäre - ist wohl, momentan zumindest noch, eine Weltbildfrage: Was wir wahrnehmen und erfahren ist nach meiner Sichtweise Information im formalen Sinne, also codierbar und damit sozusagen "textifizierbar".

Dass ChatGPT nicht "lebt", nicht "versteht" was es ausgibt, kein "Bewusstsein" hat etc. das ist doch trivial und wird nicht bestritten.
Das interessante ist doch, dass GPT uns einen ersten Geschmack des Zombies gibt. Ist nach wie vor gewagt, aber das Programm ist derart gut, dass wir erahnen können, dass es das alles eben tasächlich wohl nicht braucht, die Konzepte formal gesehen wohl leer sind (wie du es mal im KI Thread sinngemäss sagtest: Stimmen die Zuschreibungen die wir uns selbst geben überhaupt?).
Es war schon früh eine Idee, dass Chatbots ein Weg zur starken KI sein könnten. Nun ist das wieder aktuell: Das Modell, das in "Text" steckt ist nicht nur ein Modell von sich selber, sondern ist doch mit unserem Weltmodell aufgeladen.

@Lucian Wing: Wenn es keine Semantik erzeugt, darfst du es natürlich auch nicht ernst nehmen, wenn es von sich selber sagt, dass es keine interne Repräsentation verfügt ;)
Ich lese jetzt mal den McEwan, der vieles aus dem sozialen Bereich anspricht (auch die Postmoderne und den Dekonstruktivismus und das schwindende Wahrheitsbild). Grundsätzlich denke ich einfach, dass alle, die zum Beispiel im Falle des Geschlechts das "Sich-Fühlen-Als" akzeptieren, das auch bei einer KI tun müssen. Die "Menschlichkeit" der KI, sofern das Problem des Fremdpsychischen nicht gelöst ist, wird über soziale Anerkennung gelöst werden. Und da solche Systeme schneller als die Lösung des Problems des Fremdpsychischen kommen werden, wird mit den Füßen abgestimmt. Der Film "Ich bin dein Mensch" gewinnt gerade rasant an Aktualität.

Philosophisch gesehen arbeiten eben aus meiner Sicht drei Richtungen (ungewollt) zusammen: Wissenschaftlicher Reduktionismus, Sozialkonstruktivismus, Common Sense - jeder wird auf seine Art zur Akzeptanz und Anerkennung beitragen.

Wenn ich das Durchschnittsalter erreiche, dann werde ich den Messias noch erleben.

Wäre ich Philosoph, würde ich den Willen zur Illusion als die Wahrheit zum Übermenschen propagieren. :mrgreen:



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 23418
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 21:04

sybok hat geschrieben :
Do 26. Jan 2023, 20:11
Dass ChatGPT nicht [...] "versteht" was es ausgibt [...] ist doch trivial und wird nicht bestritten.
Ja, das ist trivial, dennoch wird dauernd behauptet, das Chat GPT spricht, sich austauscht, denkt oder ähnliches.




Benutzeravatar
AufDerSonne
Beiträge: 1281
Registriert: Do 1. Sep 2022, 19:44

Do 26. Jan 2023, 22:37

Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 21:04
Ja, das ist trivial, dennoch wird dauernd behauptet, das Chat GPT spricht, sich austauscht, denkt oder ähnliches.
Das Programm macht mir langsam Eindruck.
Es hat ein recht schwieriges Mystery, das ich ihm gestellt habe, korrekt gelöst.
Ihr kennt ja die Regeln für ein Mystery. Ich schildere eine Situation und ihr dürft Fragen stellen, die ich nur mit ja und nein beantworten darf.

Das Mystery geht so:
Jeden Tag kommt der Mann von der Arbeit nach Hause und klingelt um sechs Uhr unten an der Haustüre.
Eines Tages als er wie immer heimkommt und klingelt, weiss er in diesem Moment, dass seine Frau tot ist.
Was ist passiert?



Ohne Gehirn kein Geist!

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Do 26. Jan 2023, 22:43

AufDerSonne hat geschrieben :
Do 26. Jan 2023, 22:37
Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 21:04
Ja, das ist trivial, dennoch wird dauernd behauptet, das Chat GPT spricht, sich austauscht, denkt oder ähnliches.
Das Programm macht mir langsam Eindruck.
Es hat ein recht schwieriges Mystery, das ich ihm gestellt habe, korrekt gelöst.
Ihr kennt ja die Regeln für ein Mystery. Ich schildere eine Situation und ihr dürft Fragen stellen, die ich nur mit ja und nein beantworten darf.

Das Mystery geht so:
Jeden Tag kommt der Mann von der Arbeit nach Hause und klingelt um sechs Uhr unten an der Haustüre.
Eines Tages als er wie immer heimkommt und klingelt, weiss er in diesem Moment, dass seine Frau tot ist.
Was ist passiert?
Wenn ich das jetzt in Google eingebe, finde ich dann die Lösung?
Falls ja, musst du dir was Neues ausdenken.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
AufDerSonne
Beiträge: 1281
Registriert: Do 1. Sep 2022, 19:44

Do 26. Jan 2023, 22:45

Ich weiss nicht, ob ChatGPT solche Probleme sofort ins Netz stellt! :mrgreen:



Ohne Gehirn kein Geist!

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Do 26. Jan 2023, 22:47

Lucian Wing hat geschrieben :
Do 26. Jan 2023, 12:50
@Burkart

Als ich gestern deine letzten Beiträge zur KI und hier las, kam mir spontan der Gedanke: Eigentlich ist Burkart einfach ein Gläubiger, ein religiöser Mensch. Vorhin habe ich dann meine frisch angekommene Lektüre ausgepackt. Dort heißt es auf der ersten Seite:
Es war der Hoffnungsschimmer einer religiösen Sehn sucht, es war der Heilige Gral der Wissenschaft. Unsere höchsten und niedersten Erwartungen wurden geweckt von diesem wahr gewordenen Schöpfungsmythos, diesem ungeheuerlichen Akt der Selbstverliebtheit. Kaum war es machbar, blieb nichts weiter übrig, als unserem Verlangen nachzugeben und auf die Folgen zu pfeifen. Pathetisch gesagt strebten wir danach, unserer Sterblichkeit zu entrinnen, Gott mit seinem perfekten Ebenbild zu konfrontieren oder gar zu ersetzen. Praktischer gedacht wollten wir eine verbesserte, modernere Version unserer selbst schaffen und die Freuden des Erfindens genießen, das Hochgefühl wahrer Meisterschaft. Im Herbst des zwanzigsten Jahrhunderts war es endlich so weit: Der erste Schritt zur Erfüllung eines uralten Traums war getan, und es begann jene lange Lektion, die uns lehrte, dass wir – wie kompliziert wir auch sein mochten, wie fehlerhaft und selbst in unseren einfachsten Handlungen, unserem schlich testen Sein so schwer zu beschreiben – dennoch kopiert und verbessert werden konnten.
Ich glaube, Ian McEwan macht hier in "Maschinen wie ich" einen wichtigen Punkt. Ich denke auch, dass die quasi-religiöse Haltung einerseits und die menschliche Neigung, allem, was sich einem scheinbar zuwendet, ein eigenes Sein zuzugestehen und sich ihm anzuvertrauen, dazu führen wird, dass wir den Dingern all diese lebendigen Eigenschaften zugestehen und sie über den Status einer Sache erheben und gleichberechtigt machen werden.
Religiös... ich weiß nicht, ich bin eigentlich Agnostiker - keine Ahnung, ob es Gott wirklich gibt, wer weiß das schon.
Hinsichtlich KI sehe ich mich eher als optimistischer Visionär, optimistisch hinsichtlich der Möglichkeiten der KI (auf Basis meiner Kenntnisse und jahrzehnte langer Überlegungen), allerdings nicht unbedingt in der Hinsicht, was Menschen aus ihr real machen werden.
Zum Status: Ja, über eine rein tote Sache erheben macht einen gewissen Sinn, aber das tun wir auch schon bei Maschinen gegenüber totem Gestein. Aber "all die lebendigen Eigenschaften" und "gleichberechtigt" halte ich erheblich für übertrieben; das machen wohl nur wirklich religiöse Menschen.
Genauso wäre ich sehr skeptisch, wenn man ChatGPT zu überhöht ansieht - nicht zuletzt, weil es noch erheblich besser geht, weit bevor man ein System "gleichberechtigt" macht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Do 26. Jan 2023, 22:50

AufDerSonne hat geschrieben :
Do 26. Jan 2023, 22:45
Ich weiss nicht, ob ChatGPT solche Probleme sofort ins Netz stellt! :mrgreen:
Die Frage ist ja, ob ChatGPT das schon im Netz gefunden hatte quasi (also bei Aufbau seines "Wissennetzes"), wahrscheinlich :)

Was antwortet ChatGPT denn bei dir darauf? Bei mir nur:
"Es ist nicht klar, was passiert ist, um die Frau des Mannes zu töten. Es werden keine Informationen darüber gegeben, wie sie gestorben ist oder warum. Der einzige Hinweis ist, dass der Mann wie immer um sechs Uhr nach Hause kommt und an der Tür klingelt, aber in diesem Moment erkennt er, dass seine Frau tot ist."



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
AufDerSonne
Beiträge: 1281
Registriert: Do 1. Sep 2022, 19:44

Do 26. Jan 2023, 23:13

Burkart hat geschrieben :
Do 26. Jan 2023, 22:50
Was antwortet ChatGPT denn bei dir darauf? Bei mir nur:
Ich konnte ChatGPT irgendwie klar machen, dass es das Rätsel mit ja-nein-Fragen lösen soll.
Es hat mir Fragen gestellt, die ich mit ja oder nein beantwortet habe.
Und die Lösung gefunden!

Jetzt mal ehrlich. Das hat mich schon ein wenig beeindruckt!



Ohne Gehirn kein Geist!

Benutzeravatar
AufDerSonne
Beiträge: 1281
Registriert: Do 1. Sep 2022, 19:44

Do 26. Jan 2023, 23:41

Ich gebe dir noch einen Hinweis, Burkart.
Wenn der Mann klingelt, dann hört er normalerweise den Ton der Klingel unten an der Türe. :D



Ohne Gehirn kein Geist!

Burkart
Beiträge: 2783
Registriert: Sa 11. Jul 2020, 09:59

Do 26. Jan 2023, 23:52

AufDerSonne hat geschrieben :
Do 26. Jan 2023, 23:41
Ich gebe dir noch einen Hinweis, Burkart.
Wenn der Mann klingelt, dann hört er normalerweise den Ton der Klingel unten an der Türe. :D
Möglichkeiten gibt es sicherlich einige (mehr oder weniger plausible), z.B. dass die Frau sonst die Türklingel immer zeitnah aktiviert hat und dies diesmal nicht mehr konnte. Vielleicht ist die Klingel so intelligent und kann ihren Klingelton als Antwort präsentieren a la "Rrrinnggg... sorry, deine Frau ist gerade gen Himmel gegangen, rechne nicht damit, dass dir jemand aufmacht" ;)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1663
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 27. Jan 2023, 02:07

Jörn Budesheim hat geschrieben :
Di 24. Jan 2023, 11:38
future06 hat geschrieben :
Di 24. Jan 2023, 10:48
D.h. diese Sprachmodelle enthalten nicht nur syntaktische, sondern auch semantische Beziehungen
Nach allem, was ich bisher darüber gelesen oder in Videos gesehen habe, ist das anders. Das Programm wird nur und ausschließlich mit Texten gefüttert, es gibt keinen Bezug zu derjenigen Wirklichkeit, von der diese Texte handeln. Mit anderen Worten: keine Semantik. Es geht also stets nur um das Zeichen "Baum", aber nie um Bäume.
Was ja dann wohl darauf hinausläuft , dass wenn man ChatGPT mit einem "Bild von einem wirklichen Baum "füttert" , dieses Programm damit nichts an zu fangen "weiß".
AufDerSonne hat geschrieben :
Do 26. Jan 2023, 22:37

Das Mystery geht so:
Jeden Tag kommt der Mann von der Arbeit nach Hause und klingelt um sechs Uhr unten an der Haustüre.
Eines Tages als er wie immer heimkommt und klingelt, weiss er in diesem Moment, dass seine Frau tot ist.
Was ist passiert?
.. oder auch mit dem Ton einer Haustürklingel. Hat doch auch dieser "wirkliche" Ton rein gar nichts mit jenen Texten zu tun, mit denen das Programm angeblich ausschließlich gefüttert wird.

"Das Mystery geht so:"

.. wie bei einem "Baum", so geht es für ChatGPT auch beim "Klingelton" um das Zeichen , aber nie um Klingeltöne.

Das wäre in etwa so , als würde ein von Geburt an Gehörloser , sich mit jemanden über Klingeltöne unterhalten , ohne selbst je Klingeltöne gehört zu haben.




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Fr 27. Jan 2023, 09:08

Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 17:53
future06 hat geschrieben :
Do 26. Jan 2023, 17:44
Konstruktionszeichnung eines Gegenstands.
Auch das ist nur geliehene Intentionalität. Wenn ich ein Auto zeichne, weiß die Zeichnung nichts über das Auto. Die Zeichnung enthält Informationen, mit denen wir das Auto möglicherweise bauen könnten, aber daraus folgt nicht, dass die Zeichnung etwas über das Auto weiß. Das Telefonbuch enthält Informationen über alle möglichen Telefonnummern, aber daraus folgt nicht, dass das Telefonbuch die Nummern kennt.
Aber das ist nicht der Punkt. Es geht um die Frage, ob ein algorithmisches System die richtigen Telefonnummern verwenden kann, ohne dazu ein Telefonbuch zu haben. Oder ob ein solches System bestimmte Eigenschaften eine realen Autos verarbeiten kann (also zB. Fragen dazu korrekt beantworten kann), ohne Rückgriff auf eine solche Repräsentation.

Ich möchte dich mal auf einen Widerspruch in der bisherigen Argumentation hinweisen, zumindest aus meiner Sicht:
Du argumentierst einerseits mit dem chinesischen Zimmer und andererseits widersprichst du aber auch meiner These von der internen Repräsentation von Aspekten der Wirklichkeit, die chatGPT befähigt, sinnvolle Dialoge zu führen. Denn das "Regelhandbuch" im chinesischen Zimmer ist nichts anderes als eine solche Repräsentation.

Das chinesische Zimmer soll die Behauptung widerlegen, ein automatisiertes bzw. algorithmisches System könne Sprache im menschlichen Sinne verstehen, weil dazu Intentionalität benötigt wird (was man unter dieser ominösen Intentionalität genau versteht, ist m.E: unklar). Diese Kernaussage dieses Gedankenexperiments hat also mit meiner These nichts zu tun und wird darüber hinaus, wie gesagt, in der Fachwelt auch kritisiert. Dennett z.B. bezeichnet das als Intuitionspumpe, also ein missglückter Versuch, etwas zu beweisen, weil die Schlussfolgerung lediglich auf der Intuition beruht.



king - man + woman = queen

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Fr 27. Jan 2023, 09:26

Hier nochmal meine These:
chatGPT ist weit mehr als ein Automat, der Worte zufällig aneinanderreiht und dabei die Wahrscheinlichkeitsverteilung der Wortreihenfolge der analysierten Beispieltexte berücksichtigt.
Um sinnvolle Dialoge zu führen, werden Repräsentationen von Aspekten unserer Wirklichkeit benötigt, die chatGPT aus den Beispieltexten selbstständig extrahiert.



king - man + woman = queen

Antworten