Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 18:56

Jörn Budesheim hat geschrieben :
Di 17. Jan 2023, 18:14
In dieser Woche hat Getty Images vor dem High Court of Justice in London ein Verfahren gegen Stability AI eingeleitet. Laut Getty Images verletze Stability AI die Rechte an geistigem Eigentum, einschließlich des Urheberrechts an Inhalten, die Getty Images gehören oder von Getty Images vertreten werden, verletzt hat. Getty Images vertritt den Standpunkt, dass Stability AI Millionen von urheberrechtlich geschützten Bildern und die dazugehörigen Metadaten, die Getty Images gehören oder von Getty Images vertreten werden, unrechtmäßig kopiert und verarbeitet hat, ohne eine Lizenz zu besitzen, um die kommerziellen Interessen von Stability AI zu fördern und die Urheber der Inhalte zu benachteiligen.

https://stadt-bremerhaven.de/klagen-geg ... betroffen/
Ich schwanke zwischen tiefster Ergriffenheit und schallendem Gelächter.
Hier geht es knallhart ums Geschäft, um Bares.
Dass einer von den beiden sein Herz für die Benachteiligten entdeckt, gehört dazu.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 23267
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 19:17

Mir ist jetzt nicht ganz klar, wie genau dein Argument lautet und wofür oder wogegen du argumentierst?




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 19:34

Jörn Budesheim hat geschrieben :
Di 17. Jan 2023, 19:17
Mir ist jetzt nicht ganz klar, wie genau dein Argument lautet und wofür oder wogegen du argumentierst?
Dass hier zwei miteinander prozessieren werden, denen es um ihre materiellen Interessen geht und nicht etwa um das Allgemeinwohl. Der Normalverbraucher hat die Wahl zwischen Pest und Cholera. (Es sind auch irgendwelche Getty-Erben, die, wie man heute von Vertretern der Letzten Generation persönlich erfahren hat, jene finanzieren, die sich irgendwo fürs Klima festkleben). Jedenfalls hat der Einzelne inzwischen so wenig im Thema zu entscheiden wie diejenigen, die er als seine Reprräsentanten wählt. Das tragen, wie diese Nachricht zeigt, die großen Unternehmen schon miteinander aus. Meine Sympathien für die Klage hält sich also in gewissen Grenzen.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 23267
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 20:03

Natürlich geht es Getty Image um die eigenen Interessen. Dennoch ist es wichtig, ob das Gericht eine Verletzung des Copyrights bzw des geistigen Eigentums sehen wird. Ich hoffe sehr, dass es so etwas wie eine Klagewelle geben wird und dass das Urheberrecht schwerer wiegen wird als die Interessen von Stability AI & Co.

Um es Mal mit einem Bild zu sagen: im Prinzip geht es ja darum, dass jemand unser "Schwarmwissen" bzw. den objektiven Geist monopolisieren will. Und das kann unmöglich rechtens sein.




sokrates_is_alive
Beiträge: 79
Registriert: Sa 26. Sep 2020, 14:38

Mi 18. Jan 2023, 17:34

Burkart hat geschrieben :
So 8. Jan 2023, 11:03
Um den KI-Thread damit nicht überladen, hab ich hierzu einen neuen Thread angelegt.

Ich weiter: "Wie viele Buchstaben haben das japanische und das chinesische Alphabet?"
ChatGPT:
"Das japanische Alphabet, auch bekannt als Hiragana, hat 46 Grundbuchstaben und einige zusätzliche Zeichen, die als Diakritika bezeichnet werden.

Das chinesische Alphabet besteht nicht aus Buchstaben im traditionellen Sinne, sondern aus Schriftzeichen, die als Hanzi bezeichnet werden. Es gibt über 50.000 Hanzi, die in modernen chinesischen Wörterbüchern aufgeführt sind, obwohl nur ein Bruchteil davon tatsächlich in Gebrauch ist. Die meisten chinesischen Schriftzeichen sind ideographisch und stellen konkrete Dinge oder Ideen dar, anstatt phonetisch zu sein und Laute wiederzugeben. In der modernen chinesischen Sprache werden jedoch auch phonetische Hilfszeichen verwendet, die als Pinyin bezeichnet werden und den Laut eines Hanzi wiedergeben. Es gibt insgesamt 26 Buchstaben im Pinyin-Alphabet."
Da sind wohl gewisse "Großzügigkeiten" erkennbar. Z.B. verwendet Japanisch 3 Systeme: Hiragana und Katakana (jeweils 48 Zeichen) und Kanji. Hiragana/ Katakana haben zusätzlich Kombinationen mit diakritischen Zeichen (z.B. が) oder Kombination aus 2 Zeichen (z.B.きゃ) - es sind also genau genommen mehr als jeweils 48. Das umfassendste Kompendium enhält 50.000 Kanji, davon sind in Ostasien etwa 10.000 im Gebrauch, in Japan etwa 6.000, davon 3.000 regelmäßig. Das japanische Kultusministerium stellt eine Liste mit Schriftzeichen zusammen, die für Behörden, Schulen und Medien verbindlich sind, die sog. Jōyō-Kanji, Kanji des täglichen Gebrauchs (etwas über 2.000). Wenn bei diesen leicht überprüf- und recherchierbaren Dingen schon so "großzügig" verfahren wird, betrachte ich es zur Zeit als nette "Spielerei", aus der sich aber noch mehr entwickeln kann.

Bei chin. Pinyin wird es ein wenig wild, denn Pinyin bestehen aus An- und Schlusslaut, so dass die offiziellen Pinyin-Tabellen 23 Zeilen und 35 Spalten haben, die jedoch nicht alle gefüllt sind.

In diesen beiden Fällen vermittelt KI "(un)gesundes Halbwissen". Ich bleibe also lieber bei meinen menschlichen Gesprächspartnern, die mich auch nicht nach meiner Telefonnummer fragen, bevor sie mit mir reden. ;)



"Der Teufel ist ein Optimist. Er glaubt, er könnte die Menschen schlechter machen." (nach Karl Kraus) :roll:

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Do 19. Jan 2023, 22:42

sokrates_is_alive hat geschrieben :
Mi 18. Jan 2023, 17:34
Burkart hat geschrieben :
So 8. Jan 2023, 11:03
Um den KI-Thread damit nicht überladen, hab ich hierzu einen neuen Thread angelegt.

Ich weiter: "Wie viele Buchstaben haben das japanische und das chinesische Alphabet?"
ChatGPT:
"Das japanische Alphabet, auch bekannt als Hiragana, hat 46 Grundbuchstaben und einige zusätzliche Zeichen, die als Diakritika bezeichnet werden.

Das chinesische Alphabet besteht nicht aus Buchstaben im traditionellen Sinne, sondern aus Schriftzeichen, die als Hanzi bezeichnet werden. Es gibt über 50.000 Hanzi, die in modernen chinesischen Wörterbüchern aufgeführt sind, obwohl nur ein Bruchteil davon tatsächlich in Gebrauch ist. Die meisten chinesischen Schriftzeichen sind ideographisch und stellen konkrete Dinge oder Ideen dar, anstatt phonetisch zu sein und Laute wiederzugeben. In der modernen chinesischen Sprache werden jedoch auch phonetische Hilfszeichen verwendet, die als Pinyin bezeichnet werden und den Laut eines Hanzi wiedergeben. Es gibt insgesamt 26 Buchstaben im Pinyin-Alphabet."
Da sind wohl gewisse "Großzügigkeiten" erkennbar. Z.B. verwendet Japanisch 3 Systeme: ...
Ja, bei ChatGPT muss man nicht selten großzügig sein, darf sich auf Wissen bzw. die Genauigkeit auf keinen Fall verlassen. Ich famd das Thema mit den Alphabeten aber interessant, hat es mich in den Bereich ein wenig reinschnuppern lassen; die Details vergesse ich sowieso schnell wieder bzw. würde sie mir bei mehr Ernsthaftigkeit aus seriöseren Quellen beschaffen müssen.
In diesen beiden Fällen vermittelt KI "(un)gesundes Halbwissen". Ich bleibe also lieber bei meinen menschlichen Gesprächspartnern, die mich auch nicht nach meiner Telefonnummer fragen, bevor sie mit mir reden. ;)
Hm, habe ich da was verpasst? ChatGPT hat mich noch nie nach meiner Telefonnummer gefragt, sniiiieefff ;)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
infinitum
Beiträge: 199
Registriert: Mi 12. Aug 2020, 07:10
Kontaktdaten:

Fr 20. Jan 2023, 11:27

traumhaft... :D
insbesondere welche deutsche Mathematiker laut Chat GPT die Fields Medaille erhalten haben...




summonsound.wordpress.com
https://t.me/franzphilo

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 21. Jan 2023, 13:14

transfinitum hat geschrieben :
Fr 20. Jan 2023, 11:27
traumhaft... :D
insbesondere welche deutsche Mathematiker laut Chat GPT die Fields Medaille erhalten haben...

Interessante ChatGPT-Kritik, Transfinitum <wink :)>
Sie entspricht auch ungefähr meinen Erfahrungen hinsichtlich Fehlern, Selbstkritik und natürlich Nicht-wirklich-Verstehen u.ä.
Hast du auch schon mit ChatGPT experimentiert? Der spricht z.B. auch gut französisch als eine von sehr vielen Sprachen.
sybok hat geschrieben :
So 15. Jan 2023, 22:51
Ich halte es für geschichtsträchtig, das letzte Vergleichbare war mE die Entwicklung von Google.
[...]
Man muss ja bedenken, dass ChatGPT quasi ein Prototyp und das Erste seiner Art ist.
Sybok: ChatGPT ist "nur" die Version einer Entwicklung, vielleicht als "Chat" die erste Version seiner Art, das weiß ich nicht.
Ich fand diesen Kommentar bzw. genauer Interview (Potcast) zu ChatGPT von einer Professorin recht passend:
ChatGPT: Kein Ersatz für Google, Autoren und Programmierer – noch nicht

Deine Euphorie zeigt mir, dass durch das breite Veröffentlichen eines gerade aktuellen Standes leicht der Eindruck einer scheinbar riesigen Innovation hervorgebracht werden kann, der im Hintergrund der Wissenschaft nur ein weiterer Schritt ist, die Schritte aber halt der Öffentlichkeit meist unbekannt sind.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Sa 21. Jan 2023, 16:38

Es ist mMn auch ein Meilenstein, ein Durchbruch (*).
AlphaZero war einer, weil es zeigte, wie weit man mit Reinforcement kommt und wie unheimlich mächtig die autom. Featureextraktion von Netzen ist.
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.

Frag mal 100 Leute auf der Strasse, wer deutsche Fieldspreisträger sind (mir gibt es übrigens Kummer, Siegel, Faltings und Werner an). Gut möglich, dass von den 100 noch nicht mal eine einzige Person weiss, dass es überhaupt um Mathe geht.
Das Performance-Mass für solche Systeme ist für mich der "Durchschnittsmensch" nicht die "Perfektion".
Die mediale Darstellung interessiert mich nicht und ist auch kein Kriterium. Dass GPT nichts mit KI - in dem Sinne, wie wir es hier ansatzweise im KI-Thread (mMn: korrekt) verwenden - zu tun hat, ist sozusagen ein "no-brainer".

(*) Ein schweineteurer, sowohl monetär als auch "energetisch", und quasi plump mit roher Gewalt erreicht, aber dennoch ein Durchbruch - wie gesagt: mMn.




Benutzeravatar
Jörn Budesheim
Beiträge: 23267
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 21. Jan 2023, 17:01

Ja, ich denke auch, dass das ein Meilenstein ist. Wenn man den Meldungen glauben darf, sieht es auch Google so :)




Groot
Beiträge: 229
Registriert: Di 6. Apr 2021, 17:10

So 22. Jan 2023, 00:32

sybok hat geschrieben :
Sa 21. Jan 2023, 16:38
Es ist mMn auch ein Meilenstein, ein Durchbruch (*).
AlphaZero war einer, weil es zeigte, wie weit man mit Reinforcement kommt und wie unheimlich mächtig die autom. Featureextraktion von Netzen ist.
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.

Frag mal 100 Leute auf der Strasse, wer deutsche Fieldspreisträger sind (mir gibt es übrigens Kummer, Siegel, Faltings und Werner an). Gut möglich, dass von den 100 noch nicht mal eine einzige Person weiss, dass es überhaupt um Mathe geht.
Das Performance-Mass für solche Systeme ist für mich der "Durchschnittsmensch" nicht die "Perfektion".
Die mediale Darstellung interessiert mich nicht und ist auch kein Kriterium. Dass GPT nichts mit KI - in dem Sinne, wie wir es hier ansatzweise im KI-Thread (mMn: korrekt) verwenden - zu tun hat, ist sozusagen ein "no-brainer".

(*) Ein schweineteurer, sowohl monetär als auch "energetisch", und quasi plump mit roher Gewalt erreicht, aber dennoch ein Durchbruch - wie gesagt: mMn.
Wie könnte man denn so eine Wissensmenge anders als statistisch ineinander verdrahten?




sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 09:42

Groot hat geschrieben :
So 22. Jan 2023, 00:32
Wie könnte man denn so eine Wissensmenge anders als statistisch ineinander verdrahten?
Z.B. symbolisch, etwa über sowas wie formale Grammatiken über irgendwelchen Datenbanken. Der Ansatz wird ja auch immer noch verfolgt. Soweit ich weiss, gingen auch die ersten Versuche in diese Richtung und mW funktionieren die meisten (wenn nicht alle) Chatbots, die man etwa für Kundencenter im Einsatz hat, über Regelsysteme.
Das ist ja auch intuitiv, resp. umgekehrt, dass Statistik hier derart gut funktioniert, scheint mir unintuitiv: Wenn ich über Sprache kommunizieren, hab ich das Gefühl, dass ich Regeln und eine gewisse Art von Logik anwende (alleine schon durch das grammatikalische Regelwerk). Gerade schrieb NaWennDuMeinst, er hätte mit "Sepulkralkultur" von Jörn Budesheim ein neues Wort gelernt, ich auch: Ich hab dann nach der Definition gegoogelt, nicht 10'000 Beispiele betrachtet und versucht den Sinn des Wortes zu inferieren. Das gibt es sicher auch und wahrscheinlich lernen wir ja unsere jeweiligen Muttersprachen als Kinder zum grossen Teil auf eine statistische Weise.

Je nach Erwartungshaltung weiss man nicht genau, was man von ChatGPT tatsächlich halten soll. Einerseits produziert es auf eine absolut simple ("Datenbank"-)Frage nach Fieldspreisträger Fantasieschrott , andererseits liefert es mir einen validen und präzisen tabellarischen Vergleich zwischen römischem und chinesischem Reich der Antike (und als dritte Option liefert es wie im Video von Weitz für sowas wie (a^4)^7:a^7 zwar die korrekte Vereinfachung, aber mit Fehlern in den Umformungsschritten - und wieder: wie viele Menschen können hier das korrekte Resultat aufschreiben?)
Ich bin bezüglich ChatGPT ganz und gar nicht "euphorisch" wie Burkart sagt, aber das Programm scheint mir der Beginn einer Entwicklung, nicht das Ende, es ist gewissermassen ein Prototyp, ein "proof-of-work".
Was passiert, wenn man da nun tatsächlich ein "mathematisches System" einstöpselt, wenn man eben etwa Wolframs Engine ankoppelt - ich weiss ehrlich nicht, ob ich das sehen will...




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

So 22. Jan 2023, 10:04

sybok hat geschrieben :
Sa 21. Jan 2023, 16:38
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.
Es stellt sich die Frage, ob das menschliche Gehirn prinzipiell anders funktioniert oder ob es letztlich auch nur auf Statistik basiert. Wobei "Statistik" den unbedarften Leser vermutlich etwas in die Irre führt. Es ist schon etwas mehr als nur das plumpe zählen von Wörtern und einsortieren in irgendwelche Kategorien.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 23267
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 22. Jan 2023, 10:24

sybok hat geschrieben :
So 22. Jan 2023, 09:42
Regeln
Ich denke, das Wichtigste bei der Sprache ist der gemeinsame Wirklichkeitsbezug. Die Grundkonstellation ist die sogenannte Triangulation bei der sich (min.) Zwei auf etwas gemeinschaftlich beziehen. Dieser gemeinschaftliche Bezug ist auch möglich, wenn beide über gewisse Sequenzen ihren je eigenen Regeln folgen. Gemeinsame Regeln sind zwar bequem, aber nicht unbedingt notwendig.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 22. Jan 2023, 10:31

Bei "Meilenstein" stimme ich euch gerne zu, bei "Durchbruch" nur bedingt. Dass man statistisch viel erreicht, ist nicht ganz neu. Z.B. wurde ein Schachprogramm geschaffen, dass in kurzer Zeit (Stunden?) zu einem hervorragend spielenden Programm wurde, durch mAn statischer Analyse von unzähligen Schachpartien.

"Durchbruch" in Hinsicht eines Sprachmodell, das mit wenig Intelligenz, aber Unmengen an Daten so viel produzieren kann wie ChatGPT es eben kann, einverstanden.

Durchbrochen wurde anscheinend, dass Leute Output wie von ChatGPT z.T. zu ernst nehmen und zu unkritisch und diesen für Hausaufgaben-Texte u.ä. missbrauchen.
Insofern freue ich mich, dass ich mich bei der Euphorie von Sybok getäuscht hatte.

Letztlich wurde mal wieder mit ChatGPT gut gezeigt, was man mit unzähligen Daten und ein wenig maschineller Intelligenz erreichen kann. Klar, ChatGPT soll keine KI sein, dürfte aber von nicht wenigen Leute trotzdem als solche gesehen werden.

Wie Sybok schon richtig schrieb, kann man nicht nur statistisch lerrnen, sondern auch symbolisch. Während ChatGPT das statistische Lernen anscheinend recht gut perfektioniert hat, kann ChatGPT durch dies Lernen nur sehr wenig "verstehen", wenn überhaupt. Immerhin entschuldigt es sich manchmal für Fehler, versteht in dem Sinne schon etwas (gleicht also Wissenslemente mit etwas früheren ab und erkennt Fehler), aber das Verstehen hat schnell Grenzen.
Das Verstehen ist es aus meiner Sicht, dass man symbolisch entwickeln könnte, also das z.B. statistisch erfasstes 'Wissen' zu Symbolen abstrahiert, z.B. Begriffen/Begrifflichkeiten, die man mit Wörtern und ganzen Sätzen sprachlich austauschen kann. Im Unterschied zu ChatGPT würden dies Austauschen mit Verstehen wirklich Richtung KI gehen, aus meiner Sicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 10:32

future06 hat geschrieben :
So 22. Jan 2023, 10:04
sybok hat geschrieben :
Sa 21. Jan 2023, 16:38
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.
Es stellt sich die Frage, ob das menschliche Gehirn prinzipiell anders funktioniert oder ob es letztlich auch nur auf Statistik basiert. Wobei "Statistik" den unbedarften Leser vermutlich etwas in die Irre führt. Es ist schon etwas mehr als nur das plumpe zählen von Wörtern und einsortieren in irgendwelche Kategorien.
Ja, stimmt. Vielleicht ist letztlich sogar eine scharfe Grenzziehung zwischen Statistik und Logik / "Symbolformalismen" sozusagen auch irgendwo "ungesund".




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 22. Jan 2023, 10:34

future06 hat geschrieben :
So 22. Jan 2023, 10:04
sybok hat geschrieben :
Sa 21. Jan 2023, 16:38
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.
Es stellt sich die Frage, ob das menschliche Gehirn prinzipiell anders funktioniert oder ob es letztlich auch nur auf Statistik basiert. Wobei "Statistik" den unbedarften Leser vermutlich etwas in die Irre führt. Es ist schon etwas mehr als nur das plumpe zählen von Wörtern und einsortieren in irgendwelche Kategorien.
Es funktioniert sicherlich auch viel auf Statistik. Der Unterschied ist, dass es einen Körper und eine ganze reale Welt herum gibt, auf den und die es Bezug nimmt.

Das passt dazu hinsichtlich gemeinsamen Wirklichkeitsbezug:
Jörn Budesheim hat geschrieben :
So 22. Jan 2023, 10:24
sybok hat geschrieben :
So 22. Jan 2023, 09:42
Regeln
Ich denke, das Wichtigste bei der Sprache ist der gemeinsame Wirklichkeitsbezug. Die Grundkonstellation ist die sogenannte Triangulation bei der sich (min.) Zwei auf etwas gemeinschaftlich beziehen. Dieser gemeinschaftliche Bezug ist auch möglich, wenn beide über gewisse Sequenzen ihren je eigenen Regeln folgen. Gemeinsame Regeln sind zwar bequem, aber nicht unbedingt notwendig.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 22. Jan 2023, 10:47

sybok hat geschrieben :
So 22. Jan 2023, 10:32
future06 hat geschrieben :
So 22. Jan 2023, 10:04
sybok hat geschrieben :
Sa 21. Jan 2023, 16:38
GPT ist einer, weil es zeigt, wie erschreckend weit man mit Statistik kommt.
Es stellt sich die Frage, ob das menschliche Gehirn prinzipiell anders funktioniert oder ob es letztlich auch nur auf Statistik basiert. Wobei "Statistik" den unbedarften Leser vermutlich etwas in die Irre führt. Es ist schon etwas mehr als nur das plumpe zählen von Wörtern und einsortieren in irgendwelche Kategorien.
Ja, stimmt. Vielleicht ist letztlich sogar eine scharfe Grenzziehung zwischen Statistik und Logik / "Symbolformalismen" sozusagen auch irgendwo "ungesund".
Guter Hinweis. Der Punkt, der mir bei künstlichen neuronalen Netze entscheidend fehlt, ist, dass sie ihr statistisches Lernen gut in Logik / "Symbolformalismen" "umwandeln" können.
Ich denke, dass Logik hier etwas wie durch Erfahrung abstrahierte Statistik in relevanten Symbolen ist:
Man empfindet etwas als "logisch", wenn man reale, häufige bzw. regelmäßig auftretende Zusammenhänge erkannt hat und diese begrifflich z.B. in Wörtern oder z.B. auch mathematischen Symbolen ausdrücken kann. Ggf. erfindet man dann noch Wörter oder andere Symbole, damit man diese Zusammenhänge auch in der Zukunft besser behalten kann.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 11:02

Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Dass man statistisch viel erreicht, ist nicht ganz neu. Z.B. wurde ein Schachprogramm geschaffen, dass in kurzer Zeit (Stunden?) zu einem hervorragend spielenden Programm wurde, durch mAn statischer Analyse von unzähligen Schachpartien.
Das ist doch aber qualitativ eine ganz andere "Baustelle" - zumindest bei einem ersten, oberflächlichen Blick. Bei Schach ist vollständige Information, eine abgeschlossene Welt und ein überschaubares Regelsystem gegeben. Unsere Rechner sind so schnell, dass für solche Dinge bald nichts weiter als Monte-Carlo nötig ist.
Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Immerhin entschuldigt es sich manchmal für Fehler, versteht in dem Sinne schon etwas (gleicht also Wissenslemente mit etwas früheren ab und erkennt Fehler), aber das Verstehen hat schnell Grenzen.
Das hast du schon mal erwähnt, dass dir das gefällt. Dann fällst du aber doch genau auf den "ELIZA-Trick" herein ;) - im Sinne von schmeichle dem User, befriedige seinen latenten Narzissmus und sorge dafür, dass er sich mit sich selbst beschäftigt :D . Würde mich nicht wundern, wenn solche Dinge für diese Chat-Version sogar hard-coded wurden.
Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Klar, ChatGPT soll keine KI sein, dürfte aber von nicht wenigen Leute trotzdem als solche gesehen werden.
Ja, weil es so verdammt gut ist, dass es irgendwo eine Grenze zu kratzen scheint. Manchmal, ein Auge zudrückend und naiv angegangen, könnte man ja tatsächlich fast vermuten, dass das Ding "versteht" was es tut. Was zu diesen ambivalenten Gefühlen führt: Natürlich versteht es nicht, was es tut, aber ist es da wirklich noch weit von entfernt? Future06's Frage wird ganz konkret ernst und deutet bereits den Schmerz an: Machen wir bei all dem, wofür wir uns so grossartig halten, letztlich was anderes als elaborierte Statistik?




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 22. Jan 2023, 11:24

sybok hat geschrieben :
So 22. Jan 2023, 11:02
Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Dass man statistisch viel erreicht, ist nicht ganz neu. Z.B. wurde ein Schachprogramm geschaffen, dass in kurzer Zeit (Stunden?) zu einem hervorragend spielenden Programm wurde, durch mAn statischer Analyse von unzähligen Schachpartien.
Das ist doch aber qualitativ eine ganz andere "Baustelle" - zumindest bei einem ersten, oberflächlichen Blick.
Es ging mir hier nur darum, dass Statistik nichts Neues war/ist. Klar, die Baustelle sieht anders und viel umfangreicher aus, aber ist sie es wirklich so sehr? "Erster, oberflächlicher Blick" könnte schon gut passen.
Bei Schach ist vollständige Information,
Vollständig? Niemand ja das Spiel völlig durchanalysiert, dazu gibt es zu viele Möglichkeiten.
eine abgeschlossene Welt und ein überschaubares Regelsystem gegeben.
Sicher ist Schach eine kleine Welt mit überschaubaren Regeln.
Interessant ist die Frage, welche Welt und Regeln ChatGPT denn so analysiert und aufstellt: Doch die unserer Sprache, oder? Ist diese nicht auch recht abgeschlossen mit mehr oder weniger überschaubaren Regeln?
Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Immerhin entschuldigt es sich manchmal für Fehler, versteht in dem Sinne schon etwas (gleicht also Wissenslemente mit etwas früheren ab und erkennt Fehler), aber das Verstehen hat schnell Grenzen.
Das hast du schon mal erwähnt, dass dir das gefällt. Dann fällst du aber doch genau auf den "ELIZA-Trick" herein ;) - im Sinne von schmeichle dem User, befriedige seinen latenten Narzissmus und sorge dafür, dass er sich mit sich selbst beschäftigt :D . Würde mich nicht wundern, wenn solche Dinge für diese Chat-Version sogar hard-coded wurden.
So kann man es sehen, aber mir ist nicht der "Trick" wichtig, sondern, dass einige Fehler richtig erkannt werden, also dass (auch tempräre) Inhalte gegenüber gestellt und abgeglichen und logisch bewertet werden können, wenn auch nicht immer richtig 😉
Burkart hat geschrieben :
So 22. Jan 2023, 10:31
Klar, ChatGPT soll keine KI sein, dürfte aber von nicht wenigen Leute trotzdem als solche gesehen werden.
Ja, weil es so verdammt gut ist, dass es irgendwo eine Grenze zu kratzen scheint.
Die Grenze ist in unseren Köpfen, bei mir hat sie an keiner Grenze gekratzt. Ich finde es aber interessant, wie solche "Grenzen" verschoben werden, also was inzwischen machbar ist und was nicht.
Manchmal, ein Auge zudrückend und naiv angegangen, könnte man ja tatsächlich fast vermuten, dass das Ding "versteht" was es tut. Was zu diesen ambivalenten Gefühlen führt: Natürlich versteht es nicht, was es tut, aber ist es da wirklich noch weit von entfernt?
Tja, was genau ist "Verstehen" bzw. ab wann akzeptieren wir ein solches? Wieder mal etwas, was unseren Kopf betrifft.
ChatGPT erkennt immerhin teilweise Fehler und "versteht" (statistisch zumindest) meist, was wir von ihm sprachlich wollen.
Aber es versteht halt nicht im tieferen Sinne, also z.B. bzgl. der realen Welt oder einem komplexen mathematischen Modell, wie man an seinen Fehlern sieht.
Future06's Frage wird ganz konkret ernst und deutet bereits den Schmerz an: Machen wir bei all dem, wofür wir uns so grossartig halten, letztlich was anderes als elaborierte Statistik?
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten