Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 11:58

Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Vollständig? Niemand ja das Spiel völlig durchanalysiert, dazu gibt es zu viele Möglichkeiten.
Ja, vollständig. Das meint, dass ich alle Informationen für eine Entscheidungsfindung zu jedem Zeitpunkt theoretisch vollständig vorliegen habe. Es gibt keine relevanten verborgenen Variablen wie etwa die Gefühle und Gedanken meines Gegners (und bei Schach noch nicht mal stochastische Komponenten) .
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Interessant ist die Frage, welche Welt und Regeln ChatGPT denn so analysiert und aufstellt: Doch die unserer Sprache, oder? Ist diese nicht auch recht abgeschlossen mit mehr oder weniger überschaubaren Regeln?
Nein, denn du kannst beispielsweise neue Wörter schöpfen, Metaphern entwickeln, Kontexte verändern, etc.
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)
Witzig, wie sich hier irgendwie unsere Rollen aus dem KI-Thread tauschen :D .
Was ist denn ein "Missbrauch" von ChatGPT?




sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 12:29

Würde all die Kritik an ChatGPT bedient, wenn es nur korrekte Informationen wiedergäbe, jedes mathematische Problem fehlerfrei löste, jede Frage beantwortete und an Kreativität in Wissenschaft und Literatur den Menschen überträfe - und alles in der gewohnten Geschwindigkeit der Computer,... ja dann wäre es ein Orakel, eine wahrhafte Zaubermaschine, dann sind wir zweitklassig.
Was sind denn eigentlich die Erwartungshaltungen und Zielvorstellungen hinter der Kritik? Wollen wir solche Systeme überhaupt?
Vorausgesetzt, ich schätze das halbwegs richtig ein, ist mir diese Entwicklung zu rasant. Wie es mir nun scheint, wird sie uns wohl letztlich total unvorbereitet treffen.




Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 22. Jan 2023, 12:39

sybok hat geschrieben :
So 22. Jan 2023, 11:58
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Vollständig? Niemand ja das Spiel völlig durchanalysiert, dazu gibt es zu viele Möglichkeiten.
Ja, vollständig. Das meint, dass ich alle Informationen für eine Entscheidungsfindung zu jedem Zeitpunkt theoretisch vollständig vorliegen habe. Es gibt keine relevanten verborgenen Variablen wie etwa die Gefühle und Gedanken meines Gegners (und bei Schach noch nicht mal stochastische Komponenten) .
Ich hatte schon etwas befürchtet, dass wir "vollständig" hier unterschiedlich verstehen.
Den Horizont-Effekt bekommen wir ja nicht gelöst, insofern bleibt die Entscheidungsfindung beim Schach unvollständig. Dass man den Effekt theoretisch nicht hat oder zumindest beiliebig weit wegschieben kann, ändert an der Praxis ja nichts.
Aber klar, in Bezug auf deine Aspekte ist das Schachspiel klar und nichts ist verborgen - vielleicht ein Grund, warum Pokern (gegen Menschen) für einige z.T. sehr gute Schachspieler interessanter geworden ist, auch für mich z.T.
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Interessant ist die Frage, welche Welt und Regeln ChatGPT denn so analysiert und aufstellt: Doch die unserer Sprache, oder? Ist diese nicht auch recht abgeschlossen mit mehr oder weniger überschaubaren Regeln?
Nein, denn du kannst beispielsweise neue Wörter schöpfen, Metaphern entwickeln, Kontexte verändern, etc.
Na ja, aber auch diese Regeln sind nicht beliebig. ChatGPT beruht immerhin auf festem Wissen von bis 2021; ob es mit neuen Wörtern u.ä. wirklich längerfristig klar kommt... da müsste man dessen Entwickler fragen.
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)
Witzig, wie sich hier irgendwie unsere Rollen aus dem KI-Thread tauschen :D .
Das zeugt von unserer Flexibilität in der Diskussion ;)
Was ist denn ein "Missbrauch" von ChatGPT?
...wobei hier vielleicht ein Missverständnis vorliegt: Ich meinte damit nicht "des Systems ChatGPT" im Sinne eines Wesens oder so, sondern dass ChatGPT als technisches Mittel schlecht eingesetzt wird, um "eigene" Hausarbeiten u.ä. zu generieren.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 12:49

Burkart hat geschrieben :
So 22. Jan 2023, 12:39
Na ja, aber auch diese Regeln sind nicht beliebig. ChatGPT beruht immerhin auf festem Wissen von bis 2021; ob es mit neuen Wörtern u.ä. wirklich längerfristig klar kommt... da müsste man dessen Entwickler fragen.
...oder einfach ChatGPT fragen:
"Erfinde zehn Wörter, die Aspekte von Lampe und Kopf kombinieren."
Antwort:
Lampenkopf
Leuchtgesicht
Hellhaupt
Lichthirn
Glühkopf
Lichtgeist
Leuchtendkopf
Glühbirnehirn
Lichtverstand
Leuchtendes Gehirn




Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 22. Jan 2023, 12:56

sybok hat geschrieben :
So 22. Jan 2023, 12:29
Würde all die Kritik an ChatGPT bedient, wenn es nur korrekte Informationen wiedergäbe, jedes mathematische Problem fehlerfrei löste, jede Frage beantwortete und an Kreativität in Wissenschaft und Literatur den Menschen überträfe - und alles in der gewohnten Geschwindigkeit der Computer,... ja dann wäre es ein Orakel, eine wahrhafte Zaubermaschine, dann sind wir zweitklassig.
So ganz verstehe ich deinen Punkt nicht (vielleicht wegen "bedient"). Kritik halte ich immer für sinnvoll; sie kann ja positiv wie negativ und natürlich differenzierter sein.
Auch bessere Systeme sind immer kritisierbar, wobei die Zaubernaschine ja bisher nur sehr theoretisch ist.
Was sind denn eigentlich die Erwartungshaltungen und Zielvorstellungen hinter der Kritik?
Einfach uns über die ChatGPT auszutauschen z.B.
Wollen wir solche Systeme überhaupt?
Vorausgesetzt, ich schätze das halbwegs richtig ein, ist mir diese Entwicklung zu rasant. Wie es mir nun scheint, wird sie uns wohl letztlich total unvorbereitet treffen.
Haben wir eine Wahl...? Erscheint uns (z.B. technische) Entwicklung nicht oft als zu rasant und hängt z.B. der normale Menschen ihr nicht z.T. hinterher? Gerade was die Benutzung unserer Daten betrifft bei Google, Facebook & Co. - da werden wir auch nicht gefragt, wollen wir die Dienste nutzen und dies wiederum wird z.B. im Job erfordert (Web-Recherche), aber auch im Privatleben, wenn es z.B. um die Grundsteuer geht (vor allem Infos dazu, aber auch deren Beantragung wird digital bevorzugt).
Gewisse Teile der Gesellschaft (ggf.wechselnde) zwingen uns letztlich dazu, mehr oder weniger die Entwicklung mitzumachen und uns anzupassen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 22. Jan 2023, 13:02

sybok hat geschrieben :
So 22. Jan 2023, 12:49
Burkart hat geschrieben :
So 22. Jan 2023, 12:39
Na ja, aber auch diese Regeln sind nicht beliebig. ChatGPT beruht immerhin auf festem Wissen von bis 2021; ob es mit neuen Wörtern u.ä. wirklich längerfristig klar kommt... da müsste man dessen Entwickler fragen.
...oder einfach ChatGPT fragen:
"Erfinde zehn Wörter, die Aspekte von Lampe und Kopf kombinieren."
Antwort:
Lampenkopf
Leuchtgesicht
Hellhaupt
Lichthirn
Glühkopf
Lichtgeist
Leuchtendkopf
Glühbirnehirn
Lichtverstand
Leuchtendes Gehirn
Neue Wörter aus zwei Begriffen zusammenzusetzen heißt ja noch lange nicht, dass ChatGPT mit den Begriffen auch langfristig etwas 'gedanklich' verbindet.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

So 22. Jan 2023, 13:43

Burkart hat geschrieben :
So 22. Jan 2023, 10:34
Es funktioniert sicherlich auch viel auf Statistik. Der Unterschied ist, dass es einen Körper und eine ganze reale Welt herum gibt, auf den und die es Bezug nimmt.
Was verstehst du denn eigentlich in diesem Kontext unter "Statistik"? Ich habe den Eindruck, dass du Statistik als etwas simples, stupides assoziierst und dadurch den Schluss ziehst, dass solche Sprachmodelle nicht mit KI zu tun haben.
Aber ich denke, du täuschst dich hier.

Schau die mal meine Signatur an, die ich übrigens schon seit meiner Anmeldung hier habe. Ich vermute, niemandem ist das bis jetzt aufgefallen und auch niemand hat bis jetzt verstanden, welchen Zusammenhang es mit dieser Diskussion hier gibt :)



king - man + woman = queen

sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 13:58

future06 hat geschrieben :
So 22. Jan 2023, 13:43
Ich vermute, niemandem ist das bis jetzt aufgefallen und auch niemand hat bis jetzt verstanden, welchen Zusammenhang es mit dieser Diskussion hier gibt :)
Doch natürlich 8-) , word2vec, das war auch schon ziemlich cool.




Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 22. Jan 2023, 14:28

future06 hat geschrieben :
So 22. Jan 2023, 13:43
Burkart hat geschrieben :
So 22. Jan 2023, 10:34
Es funktioniert sicherlich auch viel auf Statistik. Der Unterschied ist, dass es einen Körper und eine ganze reale Welt herum gibt, auf den und die es Bezug nimmt.
Was verstehst du denn eigentlich in diesem Kontext unter "Statistik"? Ich habe den Eindruck, dass du Statistik als etwas simples, stupides assoziierst und dadurch den Schluss ziehst, dass solche Sprachmodelle nicht mit KI zu tun haben.
Aber ich denke, du täuschst dich hier.
Ich meinte damit sehr allgemein, dass wir in unserem Denken oft so Daten sammeln und auswerten, in dem man die wahrscheinlichsten Aussagen als am ehesten wahr annehmt - solange sie nicht aus trifftigen (z.B. logischen) Gründen falsch erscheinen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

sybok
Beiträge: 225
Registriert: Mi 7. Sep 2022, 17:36

So 22. Jan 2023, 14:36

Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)
Kein Schmerz? Natürlich kann ich mich komplett irren, aber ich glaube du unterschätzt ganz stark die Bedeutung von "Text".
Du bist doch Programmierer, oder?
Hast du damit auch schon rumgespielt? Sowas beispielsweise:
Input: Given a two dimensional array, an array of arrays of integers. Write a python program, that finds the subarray with the second largest standard deviation.
Output:

Code: Alles auswählen

import numpy as np

# create the 2-D array
arr = [[5, 1, 8], [12, 7, 3], [9, 2, 15]]

# use numpy to calculate the standard deviation of each subarray
stds = [np.std(sub) for sub in arr]

# sort the list of standard deviations in descending order
stds.sort(reverse=True)

# second highest standard deviation
second_highest_std = stds[1]

# find the subarray with the second highest standard deviation
for i, sub in enumerate(arr):
    if np.std(sub) == second_highest_std:
        print(f"The subarray with the second highest standard deviation is {sub}")
        break
Wie lange wird es wohl noch Programmierer geben?




Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 22. Jan 2023, 14:51

sybok hat geschrieben :
So 22. Jan 2023, 14:36
Burkart hat geschrieben :
So 22. Jan 2023, 11:24
Wie gesagt: Jein. Wir machen Stastistik, aber bauen auf ihr unsere Logik auf, in dem wir mit der realen Welt und unseren Bedüfnissen u.ä. abgleichen. Insofern sehe ich da einen erheblichen Unterschied, sodass mir kein Schmerz bereitet wird. (Wenn Schmerz, dann nur, dass ChatGPT zu unkritsch gesehen und missbraucht wird.)
Kein Schmerz? Natürlich kann ich mich komplett irren, aber ich glaube du unterschätzt ganz stark die Bedeutung von "Text".
Du bist doch Programmierer, oder?
Hast du damit auch schon rumgespielt? Sowas beispielsweise:
Input: Given a two dimensional array, an array of arrays of integers. Write a python program, that finds the subarray with the second largest standard deviation.
Output:

Code: Alles auswählen

import numpy as np

# create the 2-D array
arr = [[5, 1, 8], [12, 7, 3], [9, 2, 15]]

# use numpy to calculate the standard deviation of each subarray
stds = [np.std(sub) for sub in arr]

# sort the list of standard deviations in descending order
stds.sort(reverse=True)

# second highest standard deviation
second_highest_std = stds[1]

# find the subarray with the second highest standard deviation
for i, sub in enumerate(arr):
    if np.std(sub) == second_highest_std:
        print(f"The subarray with the second highest standard deviation is {sub}")
        break
Wie lange wird es wohl noch Programmierer geben?
Reine Programmierer gibt es sowieso kaum noch. Es wird immer mehr technisches und/oder Fachwissen erwartet, was das Ganze nicht so einfach macht, dass ChatGPT es könnte.
Umgekehrt würde ich mich sogar teilweise freuen, wenn eine Technik einem gewisse Programmier- und technische Arbeit abnimmt und man sich mehr um das große Ganze kümmern dürfte.
Ja, es ist zweischneidig: Einige Menschen bevorzugen einen eher einfachen Job wie z.B. die des reinen Programmierers, aber einfache Jobs sterben halt immer mehr aus, wenn Computer/Roboter etwas billiger können. Das könnte man nur gesellschaftlich ändern, aber solange das Geld hauptsächlich regiert...

Ich denke also nicht, dass ich Text unterschätze. Alleine, wie Trump Präsodent wurde, hat sicher viel mit Informationen zu tun, die sicher oft in Textform vermittelnt wurden.
Und falls es dich interessiert: Sollte ich meinen Job verlieren, würde ich halt in Frührente gehen müssen (bzw. jüngere Programmierer sich umorientieren müssen, z.B. gen KI)... aber bei der derzeitigen Arbeitnehmerlage scheint das Risiko nicht zu bestehen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

Groot
Beiträge: 213
Registriert: Di 6. Apr 2021, 17:10

So 22. Jan 2023, 21:13

könnte diese KI einfach ein Programm oder ein Kalkül, ein Modell adaptieren? Also angenommen irgendwer erklärt diesem Programm ein Modell das neu ist. Dieses passt aus welchen Gründen auch immer, sehr gut in eine Lücke bei diesem Bot. Dort treffen sich viele Knoten, die durch Relationen anderer, benachbarter Assoziationsfelder genau ein Loch produzieren; etwas, das noch unbenannt ist. Und dieser Irgendwer, Hans genannt, erklärt dem Modell nun über Wochen hinweg, was seine spezifiche Sache tut und lehrt der KI das quasi, bis diese KI schließlich selbst darauf referiert, weil es ihm schlüssig erscheint.

Kp, bspw. etwas wie eine grammatische Raute als Gegenspieler zum semiotischen Dreieck. Und die KI denkt, dass das super viele Probleme löst und nutzt das dann immer, wenn es um Semiotik und Semantik bzw. Linguistik geht.

Könnte diese KI das überhaupt oder bräuchte es hier symbolische KI, statt Lernen mittels Wiederholung bzw. statistisch per Dichtefunktion (oft das Wort Mensch, selten Xylophon und eben so Clusteranalysen (?) um Relationen und Verhältnisse zu erkennen.)?




Timberlake
Beiträge: 738
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 23. Jan 2023, 01:12

sybok hat geschrieben :
So 22. Jan 2023, 12:49
Burkart hat geschrieben :
So 22. Jan 2023, 12:39
Na ja, aber auch diese Regeln sind nicht beliebig. ChatGPT beruht immerhin auf festem Wissen von bis 2021; ob es mit neuen Wörtern u.ä. wirklich längerfristig klar kommt... da müsste man dessen Entwickler fragen.
...oder einfach ChatGPT fragen:
Nur mal so als "Frage" . Hat denn schon mal ChatGPT etwas gefragt ? Abgesehen natürlich von Nachfragen auf Fragen , weil die nicht eindeutig waren und deshalb von ChatGPT nicht beantwortet werden konnten. Fragen wie ..
Burkart hat geschrieben :
So 8. Jan 2023, 11:03

"Was ist das Wichtigste an Kant?":




future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Mo 23. Jan 2023, 09:45

Burkart hat geschrieben :
So 22. Jan 2023, 14:28
future06 hat geschrieben :
So 22. Jan 2023, 13:43
Burkart hat geschrieben :
So 22. Jan 2023, 10:34
Es funktioniert sicherlich auch viel auf Statistik. Der Unterschied ist, dass es einen Körper und eine ganze reale Welt herum gibt, auf den und die es Bezug nimmt.
Was verstehst du denn eigentlich in diesem Kontext unter "Statistik"? Ich habe den Eindruck, dass du Statistik als etwas simples, stupides assoziierst und dadurch den Schluss ziehst, dass solche Sprachmodelle nicht mit KI zu tun haben.
Aber ich denke, du täuschst dich hier.
Ich meinte damit sehr allgemein, dass wir in unserem Denken oft so Daten sammeln und auswerten, in dem man die wahrscheinlichsten Aussagen als am ehesten wahr annehmt - solange sie nicht aus trifftigen (z.B. logischen) Gründen falsch erscheinen.
Du meinst also, dass ein System wie ChatGPT keine KI ist, bzw. nichts mit Intelligenz zu tun hast, weil es lediglich auf einer statistischen Auswertung der immensen Datenmengen basiert, "echte" Intelligenz, also zB. eine logische Schlussfolgerung aber etwas völlig anders ist? Genau das möchte ich bezweifeln. Denn ich denke, dass das, was wir Intelligenz nennen, nichts anderes ist, als eine ganz speziellen "statistische Auswertung" einer Datenmenge.

Im übrigen haben Sprachmodelle wie chatGPT durchaus eine Bezug zur realen Welt. Sicherlich nicht im selben Sinne wir wir, also durch direkte Wahrnehmung der Außenwelt sondern über den Umweg der Sprache. Denn ein solches Sprachmodell ist im Grunde ein hochdimensionaler Vektorraum, der eine Repräsentation der realen Welt darstellt.

Somit denke ich, dass chatGPT eher von vielen unterschätzt wird, denn m.E. wird diese Technologie die Welt mehr verändern als alles bisherige. chatGPT ist schließlich nicht das Ende dieser Entwicklung sondern erst der Anfang. Am Ende könnte eine KI stehen, die uns Menschen weit überlegen ist.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19303
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 23. Jan 2023, 10:22

future06 hat geschrieben :
Mo 23. Jan 2023, 09:45
Im übrigen haben Sprachmodelle wie chatGPT durchaus eine Bezug zur realen Welt. Sicherlich nicht im selben Sinne wir wir, also durch direkte Wahrnehmung der Außenwelt sondern über den Umweg der Sprache.
ChatGPT kommt jedoch gar nicht in Kontakt mit der Sprache, weil es kein kompetenter Sprecher ist. Man kann sich das anhand des chinesischen Zimmers ausmalen. Wenn ich statistisch ausrechnen kann, welches Zeichen als Nächstes in die Reihe passt, dann spreche ich natürlich nicht und habe keinen Kontakt mit der Sprache, weil ich so gar nicht in die Semantik hereinkomme. Es gibt keinen Kontakt zu Sprache ohne Kontakt zur Wirklichkeit, von der die Sprache handelt.




Benutzeravatar
Burkart
Beiträge: 1944
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

Mo 23. Jan 2023, 23:23

future06 hat geschrieben :
Mo 23. Jan 2023, 09:45
Burkart hat geschrieben :
So 22. Jan 2023, 14:28
future06 hat geschrieben :
So 22. Jan 2023, 13:43

Was verstehst du denn eigentlich in diesem Kontext unter "Statistik"? Ich habe den Eindruck, dass du Statistik als etwas simples, stupides assoziierst und dadurch den Schluss ziehst, dass solche Sprachmodelle nicht mit KI zu tun haben.
Aber ich denke, du täuschst dich hier.
Ich meinte damit sehr allgemein, dass wir in unserem Denken oft so Daten sammeln und auswerten, in dem man die wahrscheinlichsten Aussagen als am ehesten wahr annehmt - solange sie nicht aus trifftigen (z.B. logischen) Gründen falsch erscheinen.
Du meinst also, dass ein System wie ChatGPT keine KI ist, bzw. nichts mit Intelligenz zu tun hast, weil es lediglich auf einer statistischen Auswertung der immensen Datenmengen basiert, "echte" Intelligenz, also zB. eine logische Schlussfolgerung aber etwas völlig anders ist? Genau das möchte ich bezweifeln. Denn ich denke, dass das, was wir Intelligenz nennen, nichts anderes ist, als eine ganz speziellen "statistische Auswertung" einer Datenmenge.
Doch, ChatGPT hat schon mit KI zu tun, nur ist die Intention ihrer Erschaffer nicht (explizit) die einer KI.
Wie ist schon schrieb, halte ich solche "statistische Datenauswertung" auch für sehr wichtig für KI, aber eben ist es nicht alles, das ist mein Einwand. Insofern sehe ich auch nicht, dass neuronale Netze alleine einfach zu einer starken, allgemeinen KI kommen werden; symbolisches Ergänzungen könnten zumindest kurzfristig erheblich mehr erreichen.
Im übrigen haben Sprachmodelle wie chatGPT durchaus eine Bezug zur realen Welt. Sicherlich nicht im selben Sinne wir wir, also durch direkte Wahrnehmung der Außenwelt sondern über den Umweg der Sprache. Denn ein solches Sprachmodell ist im Grunde ein hochdimensionaler Vektorraum, der eine Repräsentation der realen Welt darstellt.
Das ist schon richtig. Mir fehlt halt nur der direkte dynamische Bezug zur Welt z.B. als Roboter u.ä., der die Welt mit seinen 'Sinnen' erfasst oder auch direkten Einfluss auf die Welt hat (z.B. durch Bewegen von Objekten in der Welt).
Somit denke ich, dass chatGPT eher von vielen unterschätzt wird,
Das kann ich nicht beurteilen, das müsste man mal irgendwie statistisch geschickt untersuchen.
denn m.E. wird diese Technologie die Welt mehr verändern als alles bisherige.
Na ja, das ist halt recht subjektiv.
chatGPT ist schließlich nicht das Ende dieser Entwicklung sondern erst der Anfang.
Das ist sicherlich ein guter Aspekt, die Entwicklung wird sicherlich weitergehen.
Am Ende könnte eine KI stehen, die uns Menschen weit überlegen ist.
Die Frage ist: Inwiefern? Und was machen wir daraus?
Taschenrechner rechnen z.B. schon lange viel schneller bzw. besser als die allermeisten Menschen.
Wir nutzen sie bzw. Computer als Werkzeuge aber gerne, vergessen leicht, dass sie viel schneller und mehr Daten als wir verarbeiten können.
Aber diese Werkzeuge sind halt Werkzeuge und keine Frankenstein-Monster, solange Menschen sie nicht mehr oder bewusst zu solchen machen - praktisch jedes Werkzeug kann missbraucht werden, auch wenn es nicht gleich so extrem wie eine Atombombe ist.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Di 24. Jan 2023, 10:48

Jörn Budesheim hat geschrieben :
Mo 23. Jan 2023, 10:22
future06 hat geschrieben :
Mo 23. Jan 2023, 09:45
Im übrigen haben Sprachmodelle wie chatGPT durchaus eine Bezug zur realen Welt. Sicherlich nicht im selben Sinne wir wir, also durch direkte Wahrnehmung der Außenwelt sondern über den Umweg der Sprache.
ChatGPT kommt jedoch gar nicht in Kontakt mit der Sprache, weil es kein kompetenter Sprecher ist. Man kann sich das anhand des chinesischen Zimmers ausmalen. Wenn ich statistisch ausrechnen kann, welches Zeichen als Nächstes in die Reihe passt, dann spreche ich natürlich nicht und habe keinen Kontakt mit der Sprache, weil ich so gar nicht in die Semantik hereinkomme. Es gibt keinen Kontakt zu Sprache ohne Kontakt zur Wirklichkeit, von der die Sprache handelt.
Guter Einwand, aber m.E. basierend auf einer Fehlannahme bzw. auf einer Intuition, die nicht der tatsächlichen Funktionalität von chatGPT entspricht. In meinem ursprünglichen Zitat hast du leider den zum Verständnis wichtigen Punkt weggelassen: "Denn ein solches Sprachmodell ist im Grunde ein hochdimensionaler Vektorraum, der eine Repräsentation der realen Welt darstellt."

D.h. diese Sprachmodelle enthalten nicht nur syntaktische, sondern auch semantische Beziehungen, d.h. sie repräsentieren die Sprache auch semantisch. Und da die Semantik unserer Sprache die Wirklichkeit repräsentiert, hat ein solches Sprachmodell auch einen Bezug zur Wirklichkeit.

Zum besseren Verständnis nochmal der Hinweis auf meine Signatur, denn damit müsste es intuitiv recht gut verständlich sein, ohne den mathematischen Hintergrund zu kennen. Das Sprachmodell "word2vec", ein früher Vorläufer von chatGPT aus 2013 "kennt" z.B. folgende Beziehung:

King - Man + Woman = Queen

Es ist zwar richtig, dass chatGPT in einem gewissen Sinne die produzierten Wortfolgen basierend auf statistischen Zusammenhängen "ausrechnet", jedoch gibt es zwei Möglichkeiten, wie dadurch sinnvolle bzw. sinnvoll erscheinende Texte produziert werden:
1. Der generierte Text basiert auf einer zufälligen Wortfolge, die der typischen Auftrittswahrscheinlichkeit der einzelnen Worte(*) entspricht.
2. Der generierte Text basiert auf einer zufälligen Wortfolge, die der Auftrittswahrscheinlichkeit und der semantischen Beziehungen der einzelnen Worte(*) entspricht.

Bei diesen fortgeschrittenen Sprachmodellen ist letzteres der Fall, chatGPT "weiß" also in einem gewissen Sinne, wovon es spricht.

(*) sagt man hier Worte oder Wörter? :)



king - man + woman = queen

future06
Beiträge: 24
Registriert: Mi 20. Dez 2017, 17:54

Di 24. Jan 2023, 10:58

Burkart hat geschrieben :
Mo 23. Jan 2023, 23:23
future06 hat geschrieben :
Mo 23. Jan 2023, 09:45
Am Ende könnte eine KI stehen, die uns Menschen weit überlegen ist.
Die Frage ist: Inwiefern? Und was machen wir daraus?
Taschenrechner rechnen z.B. schon lange viel schneller bzw. besser als die allermeisten Menschen.
Wir nutzen sie bzw. Computer als Werkzeuge aber gerne, vergessen leicht, dass sie viel schneller und mehr Daten als wir verarbeiten können.
Aber diese Werkzeuge sind halt Werkzeuge und keine Frankenstein-Monster, solange Menschen sie nicht mehr oder bewusst zu solchen machen - praktisch jedes Werkzeug kann missbraucht werden, auch wenn es nicht gleich so extrem wie eine Atombombe ist.
Ich könnte mir z.B. vorstellen, dass diese KI von vielen als neue Gottheit angebetet wird und es zu einer neuen Weltreligion kommt. Dazu muss diese Technologie gar nicht missbraucht werden, denn die Menschen werden selbst dafür sorgen, dass es soweit kommt ohne sich darüber klar zu werden, was das letztlich bedeutet.



king - man + woman = queen

Benutzeravatar
Jörn Budesheim
Beiträge: 19303
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 24. Jan 2023, 11:38

future06 hat geschrieben :
Di 24. Jan 2023, 10:48
D.h. diese Sprachmodelle enthalten nicht nur syntaktische, sondern auch semantische Beziehungen
Nach allem, was ich bisher darüber gelesen oder in Videos gesehen habe, ist das anders. Das Programm wird nur und ausschließlich mit Texten gefüttert, es gibt keinen Bezug zu derjenigen Wirklichkeit, von der diese Texte handeln. Mit anderen Worten: keine Semantik. Es geht also stets nur um das Zeichen "Baum", aber nie um Bäume.




Benutzeravatar
Lucian Wing
Beiträge: 583
Registriert: Do 7. Jul 2022, 18:40

Di 24. Jan 2023, 11:57

future06 hat geschrieben :
Di 24. Jan 2023, 10:48
Und da die Semantik unserer Sprache die Wirklichkeit repräsentiert, hat ein solches Sprachmodell auch einen Bezug zur Wirklichkeit.
Das ist prekär. Welche Wirklichkeit meinst du?
Der Output der KI basiert auf reiner Statistik, die "Semantik" dieser Zeichenfolgen kennt keine Bedeutung, sondern nur statistische Häufungen von Wortbeziehungen. Menschliches Sprachverständnis basiert dagegen primär auf dem Verständnis von Bedeutungen, was primär eine soziale und keine statistische Angelegenheit ist. Das schließt im sekundären Bereich bestimmte Häufungen nicht aus - das Verständnis mancher Wörter erschließt sich erst, wenn man ein solches Wort in ganz vielen verschiedenen Kontexten gelesen hat. Die KI aber funktioniert lediglich wie ein hochkomplexer Papagei, der seinen Output auch nicht versteht.

Allerdings wird der Output dafür sorgen, dass KIs wohl als gleichberechtigte Gesprächspartner angenommen werden in Zukunft. Schon heute kann man beobachten, wie Menschen zu simplen Robotern Beziehungen entwickeln, und darauf können KI-Entwickler bauen. In dieser Hinsicht ist für mich die Botschaft in dem Film "Ich bin dein Mensch" unmissverständlich. In einem Umfeld, welches das Individuum kraft seines individuellen Fühlens absolut und von jeder geteilten Intentionalität unabhängig stellt, was ja dem gängigen Zeitgeist entspricht, ist das Glückserlebnis, das vom Verhalten des anderen abhängt, nur noch durch humanoide Roboter wirklich erreichbar. Wer es sich leisten kann, kann den dann zurückgeben ohne jeden Trennungskrampf und sich ein angepasstes Modell liefern lassen.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Antworten