Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

Di 24. Jan 2023, 12:18

future06 hat geschrieben :
Di 24. Jan 2023, 10:58
Burkart hat geschrieben :
Mo 23. Jan 2023, 23:23
future06 hat geschrieben :
Mo 23. Jan 2023, 09:45
Am Ende könnte eine KI stehen, die uns Menschen weit überlegen ist.
Die Frage ist: Inwiefern? Und was machen wir daraus?
Taschenrechner rechnen z.B. schon lange viel schneller bzw. besser als die allermeisten Menschen.
Wir nutzen sie bzw. Computer als Werkzeuge aber gerne, vergessen leicht, dass sie viel schneller und mehr Daten als wir verarbeiten können.
Aber diese Werkzeuge sind halt Werkzeuge und keine Frankenstein-Monster, solange Menschen sie nicht mehr oder bewusst zu solchen machen - praktisch jedes Werkzeug kann missbraucht werden, auch wenn es nicht gleich so extrem wie eine Atombombe ist.
Ich könnte mir z.B. vorstellen, dass diese KI von vielen als neue Gottheit angebetet wird und es zu einer neuen Weltreligion kommt. Dazu muss diese Technologie gar nicht missbraucht werden, denn die Menschen werden selbst dafür sorgen, dass es soweit kommt ohne sich darüber klar zu werden, was das letztlich bedeutet.
Meinst du in etwa wie Google benutzt wird oder früher(?) Facebook?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

Benutzeravatar
Lucian Wing
Beiträge: 585
Registriert: Do 7. Jul 2022, 18:40

Di 24. Jan 2023, 13:45

Als Nachtrag zu Beitrag #62815:

Brandoms Inferentialismus mit seinen semantischen Beziehungen ist primär eine soziale Idee, keine statistische.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

Di 24. Jan 2023, 14:13

Wenn es Semantik nicht zu einem gewissen Grad ebenfalls inferieren könnte, würde es nicht den Output generieren, den es eben tut.
Wie im KI Strang schon behauptet, wir haben eine viel zu hohe Meinung von uns selbst, unsere Intelligenz, Verstand, Gefühle und Abstraktionsvermögen, das muss ja irgendwie magisch sein.
Wie sich zu zeigen anbahnt, scheint das alles nur elaborierte Statistik, clevere Berechnung und assoziative Speicherung.




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Di 24. Jan 2023, 17:12

Jörn Budesheim hat geschrieben :
Di 24. Jan 2023, 11:38
future06 hat geschrieben :
Di 24. Jan 2023, 10:48
D.h. diese Sprachmodelle enthalten nicht nur syntaktische, sondern auch semantische Beziehungen
Nach allem, was ich bisher darüber gelesen oder in Videos gesehen habe, ist das anders. Das Programm wird nur und ausschließlich mit Texten gefüttert, es gibt keinen Bezug zu derjenigen Wirklichkeit, von der diese Texte handeln. Mit anderen Worten: keine Semantik. Es geht also stets nur um das Zeichen "Baum", aber nie um Bäume.
Ja, das ist korrekt, chatGPT wurde ausschließlich mit Texten gefüttert. Aber Sprache hat doch eindeutig einen Bezug zur Wirklichkeit, insofern kann man m.E. nicht einfach von vorneherein ausschließen, dass hier Semantik ins Spiel kommt.

Wie gesagt, frühe Vorläufer von chatGPT kannten bereits semantische Beziehung wie z.B.:
King - Man + Women = Queen
Das ist doch eindeutig eine semantische Beziehung, oder wie würdest du das nennen?

Klar, chatGPT hat nie einen König gesehen oder ein Haus. Aber das gilt auch für blinde Personen.

Vielleicht kann man das auch als "semantischen Relativismus" bezeichnen. D.h. solche Sprachmodelle haben zwar keinen absoluten Bezug zur Bedeutung von Wörtern, aber sie kennen die semantischen Beziehungen untereinander. Die Frage ist jetzt, ob das bei uns Menschen überhaupt prinzipiell anders ist.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 24. Jan 2023, 20:01

future06 hat geschrieben :
Di 24. Jan 2023, 17:12
King - Man + Women = Queen
Das ist eine reine Zeichen zu Zeichen Beziehung. Es fehlt der Bezug zur Wirklichkeit, die über die Zeichen hinausgeht. Also keine Bedeutung, keine Semantik.
future06 hat geschrieben :
Di 24. Jan 2023, 17:12
Klar, chatGPT hat nie einen König gesehen oder ein Haus. Aber das gilt auch für blinde Personen.
Sehen ist nicht unser einziger Bezug zur Wirklichkeit. Wieviele Sinne wir haben ist unklar, manche Schätzungen gehen bis zu 30.




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Mi 25. Jan 2023, 09:22

Jörn Budesheim hat geschrieben :
Di 24. Jan 2023, 20:01
future06 hat geschrieben :
Di 24. Jan 2023, 17:12
King - Man + Women = Queen
Das ist eine reine Zeichen zu Zeichen Beziehung. Es fehlt der Bezug zur Wirklichkeit, die über die Zeichen hinausgeht. Also keine Bedeutung, keine Semantik.
Sehe ich anders. M.E. ist das eine semantische Beziehung mit Bezug zur Wirklichkeit, die durch Symbole ausgedrückt wird.

Wäre deine Ansicht korrekt, gäbe es zwischen diesen beiden Beziehungen keinen qualitativen Unterschied:
1. King - Man + Women = Queen
2. King + Man - Women = Queen

Beziehung 1 hat doch aber unbestritten einen Bezug zur Wirklichkeit, 2 hingegen nicht.

Sicherlich werden damit nicht alle Aspekte der Wirklichkeit ausgedrückt, aber "nicht alle" ist nicht dasselbe wie "keine".



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 25. Jan 2023, 09:38

future06 hat geschrieben :
Mi 25. Jan 2023, 09:22
Beziehung 1 hat doch aber unbestritten einen Bezug zur Wirklichkeit, 2 hingegen nicht
"Unbestritten"? Ich bestreite das :-) Die Zeichen haben grundsätzlich nur "geliehene Intentionalität". "Lebendig", also bedeutungsvoll werden sie nur für kompetente Nutzer, intentionale Wesen.




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Mi 25. Jan 2023, 14:38

Jörn Budesheim hat geschrieben :
Mi 25. Jan 2023, 09:38
future06 hat geschrieben :
Mi 25. Jan 2023, 09:22
Beziehung 1 hat doch aber unbestritten einen Bezug zur Wirklichkeit, 2 hingegen nicht
"Unbestritten"? Ich bestreite das :-) Die Zeichen haben grundsätzlich nur "geliehene Intentionalität". "Lebendig", also bedeutungsvoll werden sie nur für kompetente Nutzer, intentionale Wesen.
Grundsätzlich? Und nur eine "geliehene Intentionalität"? Das musst du näher erläutern, denn das beruht offensichtlich auf der Annahme, dass Intentionalität nicht naturalistisch erklärbar ist. Ich verstehe dein Argument in etwa so: Intentionalität ist notwendig für Semantik und da Intentionalität nicht naturalistisch erklärbar ist, kann es keine naturalistisch erklärbare Semantik geben.

Vielleicht handelt es sich auch um ein Missverständnis. Denn unter einer Bezugnahme auf unsere Wirklichkeit verstehe ich, dass chatGPT eine (sicher nicht vollständige) Repräsentation unserer Wirklichkeit besitzt und aus diesem Grund in der Lage ist, sinnvolle Aussagen zu treffen und sinnvolle Dialoge zu führen. Ob eine derartige Bezugnahme auf die Wirklichkeit dem Konzept der Intentionalität aus der Philosophie des Geistes genügt, ist dabei m.E. unerheblich.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 25. Jan 2023, 15:04

Ich meine, dass Zeichen - wie die in diesem Text - nur eine "geliehene Intentionalität" (ein Ausdruck von Searle) haben. Das fragliche Programm hat nur die Zeichen, aber keinen Bezug zur Realität. Der Bezug zu Bäumen ist der Zeichenkette [B ä u m e n] schließlich nicht inhärent, das wäre das magische Zeichenverständnis, das an anderer Stelle kurz diskutiert wurde. Solche Zeichen handeln nur von etwas, wenn wir ihnen unsere Intentionalität leihen, wie Searle sagt.




Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 25. Jan 2023, 16:23

Wie oben schon vorgeschlagen, kann man sich chatGPT anhand des chinesischen Zimmers von Searle erklären. Keine Intentionalität, keine Repräsentation der Wirklichkeit, kein Sinn, gar nichts.
deutschlandfunkkultur hat geschrieben : ... Es handelt sich [bei chatGPT] nicht um ein intelligentes System, erklärt Benjamin Grewe, Professor für Neuroinformatik an der ETH Zürich. „Überleg dir, du würdest in einem Turm sitzen, mit einem Buch mit chinesischen Zeichen. Du würdest nur diese Zeichen lesen. Du würdest aufwachsen in diesem Turm und du hättest nichts anders gesehen. Dann könntest du vielleicht irgendwann, wenn ich dir drei Zeichen gebe, die wahrscheinlich weiterschreiben“, erklärt Grewe das Prinzip von ChatGPT.

Dem Beispiel folgend spricht das System also kein Chinesisch, sondern hat einfach die Muster aus dem Buch erkannt. So funktioniert GPT3 – das ist das statistische Sprachmodell, auf dem ChatGPT aufbaut. Oder einfach gesagt: Es kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig. ...




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Do 26. Jan 2023, 11:57

Jörn Budesheim hat geschrieben :
Mi 25. Jan 2023, 16:23
Wie oben schon vorgeschlagen, kann man sich chatGPT anhand des chinesischen Zimmers von Searle erklären. Keine Intentionalität, keine Repräsentation der Wirklichkeit, kein Sinn, gar nichts.
deutschlandfunkkultur hat geschrieben : ... Es handelt sich [bei chatGPT] nicht um ein intelligentes System, erklärt Benjamin Grewe, Professor für Neuroinformatik an der ETH Zürich. „Überleg dir, du würdest in einem Turm sitzen, mit einem Buch mit chinesischen Zeichen. Du würdest nur diese Zeichen lesen. Du würdest aufwachsen in diesem Turm und du hättest nichts anders gesehen. Dann könntest du vielleicht irgendwann, wenn ich dir drei Zeichen gebe, die wahrscheinlich weiterschreiben“, erklärt Grewe das Prinzip von ChatGPT.

Dem Beispiel folgend spricht das System also kein Chinesisch, sondern hat einfach die Muster aus dem Buch erkannt. So funktioniert GPT3 – das ist das statistische Sprachmodell, auf dem ChatGPT aufbaut. Oder einfach gesagt: Es kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig. ...
Ja gut, soweit die Sicht von Searle bzw. den Anhängern seiner Argumentation zum chinesischen Zimmer. Allerdings ist diese Sicht der Dinge lediglich eine mögliche Sicht. Siehe zB. im Wikipedia-Artikel https://de.wikipedia.org/wiki/Chinesisches_Zimmer das folgende Zitat:

"Es wird kritisiert, dass zwar das im Raum befindliche Individuum kein Chinesisch spricht, es aber nicht klar ist, weshalb der Raum in seiner Gesamtheit die Sprache nicht verstehen sollte, d. h. die Kombination aus ausführendem Organ (dem Menschen), Daten und Anweisungen. Diese Kombination wird als ein denkendes System aufgefasst. Diese Position befürwortet tendenziell damit auch die Möglichkeit künstlicher Intelligenz (KI) wie auch eine funktionalistische Sicht darauf, was als Träger von Verständnis zu betrachten sei."

Mit meiner Argumentation hat das aber gar nichts zu tun, denn ich behaupte lediglich, dass Systeme wie chatGPT eine (nicht vollständige) Repräsentation der Wirklichkeit enthalten, die es solchen Systemen ermöglicht, sinnvolle Dialoge zu führen.

Bezugnehmend auf das Grewe-Zitat oben kann man also sagen: Es [chatGPT] kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig, weil es eine mehr oder weniger gute interne Repräsentation unserer Welt besitzt.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 12:02

Wir können uns da nicht einigen, schätze ich, wir liegen viel zuuu weit auseinander.




Benutzeravatar
Lucian Wing
Beiträge: 585
Registriert: Do 7. Jul 2022, 18:40

Do 26. Jan 2023, 12:03

future06 hat geschrieben :
Do 26. Jan 2023, 11:57
Es [chatGPT] kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig, weil es eine mehr oder weniger gute interne Repräsentation unserer Welt besitzt.
Gespräch mit ChatGPT:
Ich: Besitzt du eine interne Repräsentation der Welt?

Das Programm: Nein, ich habe keine interne Repräsentation der Welt. Ich bin ein maschinelles Lernmodell, das Text basierend auf einer großen Menge an Trainingsdaten generieren und verstehen kann. Ich verwende keine expliziten Repräsentationen von Objekten oder Konzepten in der Welt, sondern verarbeite lediglich Eingaben in Form von Text.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Do 26. Jan 2023, 12:10

Lucian Wing hat geschrieben :
Do 26. Jan 2023, 12:03
future06 hat geschrieben :
Do 26. Jan 2023, 11:57
Es [chatGPT] kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig, weil es eine mehr oder weniger gute interne Repräsentation unserer Welt besitzt.
Gespräch mit ChatGPT:
Ich: Besitzt du eine interne Repräsentation der Welt?

Das Programm: Nein, ich habe keine interne Repräsentation der Welt. Ich bin ein maschinelles Lernmodell, das Text basierend auf einer großen Menge an Trainingsdaten generieren und verstehen kann. Ich verwende keine expliziten Repräsentationen von Objekten oder Konzepten in der Welt, sondern verarbeite lediglich Eingaben in Form von Text.
OK, chatGPT besitzt keine Repräsentation der Welt, kann Texte aber trotzdem verstehen :)
(wobei es laut chatGPT keine expliziten Repräsentationen enthält, denn das wäre dann eine regelbasierte KI).



king - man + woman = queen

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Do 26. Jan 2023, 12:40

Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 12:02
Wir können uns da nicht einigen, schätze ich, wir liegen viel zuuu weit auseinander.
Müssen wir auch nicht.

Aber mich würde interessieren, wie die Gegenthese aussieht. Warum ist chatGPT in der Lage, durchaus sinnvolle Dialoge zu führen? Nur weil es die Wörter zufällig aneinanderreiht und dabei die Wahrscheinlichkeitsverteilung der Wortreihenfolge der analysierten Beispieltexte berücksichtigt?



king - man + woman = queen

Benutzeravatar
Lucian Wing
Beiträge: 585
Registriert: Do 7. Jul 2022, 18:40

Do 26. Jan 2023, 12:50

@Burkart

Als ich gestern deine letzten Beiträge zur KI und hier las, kam mir spontan der Gedanke: Eigentlich ist Burkart einfach ein Gläubiger, ein religiöser Mensch. Vorhin habe ich dann meine frisch angekommene Lektüre ausgepackt. Dort heißt es auf der ersten Seite:
Es war der Hoffnungsschimmer einer religiösen Sehn sucht, es war der Heilige Gral der Wissenschaft. Unsere höchsten und niedersten Erwartungen wurden geweckt von diesem wahr gewordenen Schöpfungsmythos, diesem ungeheuerlichen Akt der Selbstverliebtheit. Kaum war es machbar, blieb nichts weiter übrig, als unserem Verlangen nachzugeben und auf die Folgen zu pfeifen. Pathetisch gesagt strebten wir danach, unserer Sterblichkeit zu entrinnen, Gott mit seinem perfekten Ebenbild zu konfrontieren oder gar zu ersetzen. Praktischer gedacht wollten wir eine verbesserte, modernere Version unserer selbst schaffen und die Freuden des Erfindens genießen, das Hochgefühl wahrer Meisterschaft. Im Herbst des zwanzigsten Jahrhunderts war es endlich so weit: Der erste Schritt zur Erfüllung eines uralten Traums war getan, und es begann jene lange Lektion, die uns lehrte, dass wir – wie kompliziert wir auch sein mochten, wie fehlerhaft und selbst in unseren einfachsten Handlungen, unserem schlich testen Sein so schwer zu beschreiben – dennoch kopiert und verbessert werden konnten.
Ich glaube, Ian McEwan macht hier in "Maschinen wie ich" einen wichtigen Punkt. Ich denke auch, dass die quasi-religiöse Haltung einerseits und die menschliche Neigung, allem, was sich einem scheinbar zuwendet, ein eigenes Sein zuzugestehen und sich ihm anzuvertrauen, dazu führen wird, dass wir den Dingern all diese lebendigen Eigenschaften zugestehen und sie über den Status einer Sache erheben und gleichberechtigt machen werden. Im Prinzip ist die nachfolgende Diskussion wahrscheinlich rein akademischer Art:
future06 hat geschrieben :
Do 26. Jan 2023, 12:10
Lucian Wing hat geschrieben :
Do 26. Jan 2023, 12:03
future06 hat geschrieben :
Do 26. Jan 2023, 11:57
Es [chatGPT] kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig, weil es eine mehr oder weniger gute interne Repräsentation unserer Welt besitzt.
Gespräch mit ChatGPT:
Ich: Besitzt du eine interne Repräsentation der Welt?

Das Programm: Nein, ich habe keine interne Repräsentation der Welt. Ich bin ein maschinelles Lernmodell, das Text basierend auf einer großen Menge an Trainingsdaten generieren und verstehen kann. Ich verwende keine expliziten Repräsentationen von Objekten oder Konzepten in der Welt, sondern verarbeite lediglich Eingaben in Form von Text.
OK, chatGPT besitzt keine Repräsentation der Welt, kann Texte aber trotzdem verstehen :)
(wobei es laut chatGPT keine expliziten Repräsentationen enthält, denn das wäre dann ein regelbasierte KI).
Ja, ich habe mich köstlich amüsiert über seine Behauptung, er verstünde Texte auch so. Aber dass ihm dieser Selbstwiderspruch nicht auffällt, das zeigt aus meiner Sicht, dass er nichts versteht.

Es ist doch nur eine Interpretation "unsererseits" auf der Basis des Outputs, dass wir ihm diese intentionale Repräsentationsfähigkeit zugestehen. Allerdings tun wir eins nicht: Wir scheinen, sofern wir davon überzeugt sind, nicht einmal die Möglichkeit in Betracht ziehen, dass wir uns irren können. So wie bei einem, dem wir nachts in der Stadt sich vor Schmerzen windend auf dem Gehsteig finden, und der uns, wenn wir uns hilfsbereit hinabbeugen, dann ein Messer an den Hals hält und den Geldbeutel verlangt.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 12:53

future06 hat geschrieben :
Do 26. Jan 2023, 12:40
Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 12:02
Wir können uns da nicht einigen, schätze ich, wir liegen viel zuuu weit auseinander.
Müssen wir auch nicht.

Aber mich würde interessieren, wie die Gegenthese aussieht. Warum ist chatGPT in der Lage, durchaus sinnvolle Dialoge zu führen? Nur weil es die Wörter zufällig aneinanderreiht und dabei die Wahrscheinlichkeitsverteilung der Wortreihenfolge der analysierten Beispieltexte berücksichtigt?
Wenn auf "Guten" oft "Tag" folgt, dann ist "Tag" nach "Guten" eben eine brauchbare Wette. Man kann sie eingehen, ohne zu wissen, worum es geht. Wirkliche Sprache ist hingegen in unserem Leben und in der Wirklichkeit verankert. Auf beides hat das Programm keinen Zugriff.




sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

Do 26. Jan 2023, 15:02

Jörn Budesheim hat geschrieben :
Do 26. Jan 2023, 12:53
Wenn auf "Guten" oft "Tag" folgt, dann ist "Tag" nach "Guten" eben eine brauchbare Wette. Man kann sie eingehen, ohne zu wissen, worum es geht. Wirkliche Sprache ist hingegen in unserem Leben und in der Wirklichkeit verankert. Auf beides hat das Programm keinen Zugriff.
Dann, wenn du auf diese Weise ChatGPT analysierst, hat future06 aber meinem Eindruck nach recht wenn er sagt, dass Statistik irreführend und das Modell von GPT weitaus komplexer als "Wörter zählen" sei.
Ich sehe das so:
Wir werden in ein Universum reingeboren und machen uns Modelle von den Dingen die wir sehen und erfahren (es gibt Bäume, dies ist ein Haus, das ist die Sonne, die Sonne leuchtet,...). Um uns darüber auszutauschen und selber mehr Klarheit zu verschaffen, haben wir Sprache und damit ist unser Modell von der Realität bereits in die Sprache eingewoben. Ein weiteres Modell, das nun auf dieser Sprache rechnet, hat demnach - bis zu einem gewissen Grad - ebenfalls ein Modell unseres Modells von der Realität, weil dieses implizit in die Sprache eingewoben ist.
Universum --> Von Menschen durch Wahrnehmung und Abstraktion gemachtes Modell des Universums --> Sprache als "Modell 2ter Ordnung" dieses ersten Modells.
GPT wäre dann vielleicht sowas wie ein Modell 3. Ordnung. In jedem Modellierungsschritt geht gemäss der Natur von Modellen was verloren, aber zu sagen, GPT sei komplett von der Welt entkoppelt, halte ich für absurd - eben weil es alleine schon durch formal-korrekten Umgang mit Sprache bereits auf dem für uns relevanten Weltmodell arbeitet.




ahasver
Beiträge: 265
Registriert: Di 25. Sep 2018, 09:55

Do 26. Jan 2023, 15:12

ChatGPT kommuniziert mit ich weiß nicht wie vielen Usern. Das ist ein Kontakt mit der Außenwelt. Aufgrund dieses Kontaktes könnte es, wäre es lernfähig, Neues lernen. Ist es lernfähig? Oder haben seine Konstrukteure das verhindert? Darf es Chats memorieren und auswerten?



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Benutzeravatar
Jörn Budesheim
Beiträge: 19305
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 26. Jan 2023, 15:57

sybok hat geschrieben :
Do 26. Jan 2023, 15:02
eben weil es alleine schon durch formal-korrekten Umgang mit Sprache bereits auf dem für uns relevanten Weltmodell arbeitet.
Ich halte es mit Benjamin Grewe, Professor für Neuroinformatik, den ich oben zitiert habe. Das Programm hat mit Sprache nichts zu tun. Die "Zeichen", die es verarbeitet, haben nur für uns eine Bedeutung, weil wir ihnen "unsere Intentionalität verleihen". Diese Zeichen "leben" nur in unserem Gebrauch. Hier ist keine Magie am Werk, die Buchstabenfolge [b+a+u+m] verweist nicht von sich aus auf Bäume. Ohne unsere Sozialität und Intentionalität wären sie leere "Zeichen". Kinder lernen die Grundbedeutungen, auf denen alles andere aufbaut, im direkten Kontakt mit der Wirklichkeit. Ohne diesen direkten Bezug zur Wirklichkeit gibt es keine Sprache. Und dieser Wirklichkeitsbezug fehlt im Programm völlig, es gibt nur "Zeichen".




Antworten