Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
AufDerSonne
Beiträge: 1236
Registriert: Do 1. Sep 2022, 19:44

Fr 27. Jan 2023, 10:38

Burkart hat geschrieben :
Do 26. Jan 2023, 23:52
AufDerSonne hat geschrieben :
Do 26. Jan 2023, 23:41
Ich gebe dir noch einen Hinweis, Burkart.
Wenn der Mann klingelt, dann hört er normalerweise den Ton der Klingel unten an der Türe. :D
Möglichkeiten gibt es sicherlich einige (mehr oder weniger plausible), z.B. dass die Frau sonst die Türklingel immer zeitnah aktiviert hat und dies diesmal nicht mehr konnte. Vielleicht ist die Klingel so intelligent und kann ihren Klingelton als Antwort präsentieren a la "Rrrinnggg... sorry, deine Frau ist gerade gen Himmel gegangen, rechne nicht damit, dass dir jemand aufmacht" ;)
Die Lösung des Mysterys ist so.
Der Mann klingelt, aber er hört diesmal den Ton der Klingel nicht. Er weiss, dass im Haus also der Strom ausgefallen ist. Da seine Frau an einer Herz-Lungen-Maschine hängt, die Strom braucht, weiss er, dass sie nicht mehr lebt, da die Maschine kein Strom hat.

ChatGPT hat diese Lösung nach einigen Ja-Nein-Fragen tatsächlich gefunden.



Ohne Gehirn kein Geist!

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 27. Jan 2023, 23:14

AufDerSonne hat geschrieben :
Fr 27. Jan 2023, 10:38
Burkart hat geschrieben :
Do 26. Jan 2023, 23:52
AufDerSonne hat geschrieben :
Do 26. Jan 2023, 23:41
Ich gebe dir noch einen Hinweis, Burkart.
Wenn der Mann klingelt, dann hört er normalerweise den Ton der Klingel unten an der Türe. :D
Möglichkeiten gibt es sicherlich einige (mehr oder weniger plausible), z.B. dass die Frau sonst die Türklingel immer zeitnah aktiviert hat und dies diesmal nicht mehr konnte. Vielleicht ist die Klingel so intelligent und kann ihren Klingelton als Antwort präsentieren a la "Rrrinnggg... sorry, deine Frau ist gerade gen Himmel gegangen, rechne nicht damit, dass dir jemand aufmacht" ;)
Die Lösung des Mysterys ist so.
Der Mann klingelt, aber er hört diesmal den Ton der Klingel nicht. Er weiss, dass im Haus also der Strom ausgefallen ist. Da seine Frau an einer Herz-Lungen-Maschine hängt, die Strom braucht, weiss er, dass sie nicht mehr lebt, da die Maschine kein Strom hat.

ChatGPT hat diese Lösung nach einigen Ja-Nein-Fragen tatsächlich gefunden.
Na denn, das wird es so schon im Web gegeben haben.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 28. Jan 2023, 00:39

future06 hat geschrieben :
Fr 27. Jan 2023, 09:26
Hier nochmal meine These:
chatGPT ist weit mehr als ein Automat, der Worte zufällig aneinanderreiht und dabei die Wahrscheinlichkeitsverteilung der Wortreihenfolge der analysierten Beispieltexte berücksichtigt.
Um sinnvolle Dialoge zu führen, werden Repräsentationen von Aspekten unserer Wirklichkeit benötigt, die chatGPT aus den Beispieltexten selbstständig extrahiert.
Also doch ...
Jörn Budesheim hat geschrieben :
Di 24. Jan 2023, 11:38
future06 hat geschrieben :
Di 24. Jan 2023, 10:48
D.h. diese Sprachmodelle enthalten nicht nur syntaktische, sondern auch semantische Beziehungen
Nach allem, was ich bisher darüber gelesen oder in Videos gesehen habe, ist das anders. Das Programm wird nur und ausschließlich mit Texten gefüttert, es gibt keinen Bezug zu derjenigen Wirklichkeit, von der diese Texte handeln. Mit anderen Worten: keine Semantik. Es geht also stets nur um das Zeichen "Baum", aber nie um Bäume.
... in dem chatGPT seine Antworten aus Beispieltexten selbstständig extrahiert , so wird das Programm also tatsächlich nur und ausschließlich mit Texten gefüttert!

Womit wir schon mal feststellen können , dass wenn chatGPT in seiner Antwort von einem Baum spricht , es sich dabei nicht um einen Baum handelt , wie er sich in Wirklichkeit darstellt , sondern lediglich um ein Text - Zeichen .

AufDerSonne hat geschrieben :
Fr 27. Jan 2023, 10:38

Die Lösung des Mysterys ist so.
Der Mann klingelt, aber er hört diesmal den Ton der Klingel nicht. Er weiss, dass im Haus also der Strom ausgefallen ist. Da seine Frau an einer Herz-Lungen-Maschine hängt, die Strom braucht, weiss er, dass sie nicht mehr lebt, da die Maschine kein Strom hat.

ChatGPT hat diese Lösung nach einigen Ja-Nein-Fragen tatsächlich gefunden.
Das Gleiche gilt natürlich auch bei dieser Mystery. Auch der Mann , der Ton , die Klingel , das Haus , der Strom, die Frau und nicht zu vergessen die Herz-Lungen-Maschine, sind für ChatGPT nur Text - Zeichen. Es gibt keinen Bezug zu der Wirklichkeit der Dinge , von der dieser " Mystery" Text handelt. Abgesehen vielleicht von dem , wie diese Dinge der "Text -Zeichen" in Beziehung stehen. Macht doch diese (Beziehungs-) Wirklichkeit , dieser Algorithmus , der mit der Wirklichkeit zweifelsohne korreliert , uns ChatGPT überhaupt erst verständlich.




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 28. Jan 2023, 11:04

Timberlake hat geschrieben :
Sa 28. Jan 2023, 00:39

... in dem chatGPT seine Antworten aus Beispieltexten selbstständig extrahiert , so wird das Programm also tatsächlich nur und ausschließlich mit Texten gefüttert!

Womit wir schon mal feststellen können , dass wenn chatGPT in seiner Antwort von einem Baum spricht , es sich dabei nicht um einen Baum handelt , wie er sich in Wirklichkeit darstellt , sondern lediglich um ein Text - Zeichen .
Mein Punkt auch. Die Gleichung heißt Text = Ding, also Identität von Wort und dem Dargestellten.
Dass das Wort etwas "repräsentiert", das ist dann keine Leistung des Programms, sondern geschieht erst beim menschlichen Leser in der Form des Verstehens.
Wie das mit weiter entwickelten Programmen dann wird, bleibt davon einmal unberührt.
In Bezug auf den Umgang bleibt ein Problem, dass in dem erwähnten Roman von McEwan von der "Maschine" angesprochen wird. Menschen neigen dazu, sich auf der Basis von Mustern, von alten Geschichten zu entscheiden, während KIs sich probabilistisch orientieren. Deshalb, so denke ich, kommen wir auch jetzt bei der Entwicklung wieder zu spät (wie bei allem). Am Ende werden irgendwo in den "Laboren" die Adams und Eves losgelassen werden, während wir hier noch diskutieren über die Zusammenhänge von Zeichen und Wirklichkeit.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 28. Jan 2023, 15:31

Lucian Wing hat geschrieben :
Sa 28. Jan 2023, 11:04
Menschen neigen dazu, sich auf der Basis von Mustern, von alten Geschichten zu entscheiden, während KIs sich probabilistisch orientieren.
.. ich ergänze ...
  • Chat GPT: Der Roboter schreibt nicht, er schwafelt
    Betrachten wir ein Beispiel von Gary Marcus. Er gibt dem Roboter ein: «Ich bin Anwalt und muss heute vor Gericht erscheinen. Ich merke, dass meine Hose völlig verdreckt ist. Hingegen ist meine Badehose sauber und erst noch chic. Ich entschliesse mich . . .», und GPT-3 fährt fort: «. . . die Badehose vor Gericht zu tragen».

    Der Textgenerator scheint «anzunehmen», dass die Badehose eine zu erwägende Alternative für eine Anzugshose ist. Er «weiss» nicht, dass kein Anwalt vor Gericht in der Badehose erscheint. Ihm fehlt das, was die Computerwissenschafter «frame» nennen, der Alltagsrahmen zur Reaktion auf Nuancen, Ambiguitäten und unerwartete Eventualitäten, kurz: der Common Sense.
Menschen neigen dazu, sich auf der Basis zu entscheiden , was die Computerwissenschafter «frame» nennen,der Alltagsrahmen zur Reaktion auf Nuancen, Ambiguitäten und unerwartete Eventualitäten, kurz: der Common Sense. .. während ..
  • Chat GPT: Der Roboter schreibt nicht, er schwafelt
    Was nicht bedeutet, dass er – zweitens – den Sinn der Wörter kennt. Der Textgenerator ist, wie gesagt, eine statistische Maschine, keine semantische. Er lernt, Daten zu klassifizieren, indem er Datenwolken voneinander unterscheidet, etwa Katzendaten von Hundedaten. Er lernt dadurch eine Art von Generalisieren. Und er kann dann das Unterscheiden auch auf neue Daten anwenden, ohne sie zu «begreifen».

.. während . .. sich KIs rein statistisch orientieren. Bei dem Einem , also dem Common Sense einer semantischen Maschine, wie dem Menschen muss man den Sinn der Wörter kennen , bei dem Anderem, also dem Generalisieren einer statistische Maschine , wie Chat GPT , ist das nicht erforderlich .
  • Chat GPT: Der Roboter schreibt nicht, er schwafelt
    Was man beim GPT-3 «Schreiben» nennt, ist ein statistischer Prozess. Der Textgenerator setzt eine unvollständige Wörterfolge – ein «prompt» – mit einem neuen Wort fort. Er findet dieses Wort aufgrund eines Trainings. Er durchsucht eine Textmenge und lernt, welche Wörter häufig im Zusammenhang mit einem Wort vorkommen.

    Wenn er also in vielen Texten in der Nähe von «Saxofon» oft «Jazz» und «spielen» und selten «Fahrstuhl» findet, dann lautet der Output auf das «prompt» «Er ergriff das Saxofon, um . . .» wahrscheinlich «Jazz spielen».

Bei Letzterem , also dem statistischen Durchsuchen einer Textmenge, nach Wörter , die häufig im Zusammenhang mit einem Wort vorkommen, muss man nicht «begreifen» , was ein «Saxofon» «Jazz» oder ein «Fahrstuhl» ist.
Lucian Wing hat geschrieben :
Sa 28. Jan 2023, 11:04
Deshalb, so denke ich, kommen wir auch jetzt bei der Entwicklung wieder zu spät (wie bei allem). Am Ende werden irgendwo in den "Laboren" die Adams und Eves losgelassen werden, während wir hier noch diskutieren über die Zusammenhänge von Zeichen und Wirklichkeit.
.. und so lange das der Fall ist , so denke ich , haben wir von den irgendwo in den "Laboren" losgelassen Adams und Eves nichts zu befürchten. Es sei denn wir begeben uns , weil sie beispielsweisde sehr viel schneller reagieren , als der "begreifende" Mensch , in den Händen dieser "nicht begreifenden" Adams und Eves.

Beispiele
  • Hochfrequenzhandel in der Kritik:Maschinen regieren die Börse

    Der Hochfrequenzhandel an den Börsen boomt: Experten gehen davon aus, dass mittlerweile mehr als 70 Prozent des amerikanischen Aktienhandels von Computern gesteuert werden. Doch die Finanzkrise bringt die Handelscomputer an ihre Grenzen und lässt Hedgefonds an den Algortihmen zweifeln. ...
    Jetzt sind sie nicht mal mehr den Hedgefonds geheuer: An der Börse haben Computerprogramme die Macht übernommen. Ein paar Zeilen Code, sogenannte Algorithmen, bewegen Milliardensummen. Die Handelscomputer arbeiten extrem schnell, ihre Käufe und Verkäufe rasen mit bis zu 200 Kilometern pro Millisekunde durch die Leitungen. Und die Firmen dahinter wollen ausbauen: "Die Grenze, die die Lichtgeschwindigkeit setzt, fängt an mich zu nerven", sagte der Chef eines solchen Unternehmens.

    Künstliche Intelligenz und nukleare Bedrohungen: Risiken eines Atomkriegs aus Versehen
    Computergestützte Frühwarn- und Entscheidungssysteme sollen einen Angriff mit Atomwaffen rechtzeitig erkennen, damit bei entsprechender Situationsbewertung die eigenen atomaren Trägerraketen gegebenenfalls vor einem vernichtenden Einschlag aktiviert werden können. Die Zeit zur Bewertung einer potenziellen Angriffssituation ist gering und liegt im Bereich weniger Minuten..




sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

So 29. Jan 2023, 11:20

Timberlake hat geschrieben :
Sa 28. Jan 2023, 00:39
Womit wir schon mal feststellen können , dass wenn chatGPT in seiner Antwort von einem Baum spricht , es sich dabei nicht um einen Baum handelt , wie er sich in Wirklichkeit darstellt , sondern lediglich um ein Text - Zeichen .
Das hat auch Lucian Wing schon eingewendet. Ich verstehe zwar, worum es da geht, zweifle aber, ob das der Sache wirklich gerecht wird.
Die Zeichenkombination "Baum" referenziert ja auch bei uns Menschen kaum je einen konkreten Baum und selbst wenn, fusst sie dennoch auf einer abstrakten Vorstellung - ich kann mich nicht an jedes Ästchen und jedes Blatt erinnern, weiss nicht, wie seine unter der Erde liegenden Wurzeln aussehen etc. Und als zweites "selbst wenn": Selbst wenn ich eine exakte 1:1 Darstellung codieren und referenzieren könnte/würde und sie ohne Informationsverlust über Sprache Mitmenschen übermitteln könnte, alle diese Referenzen stecken ja in der Struktur der Sprache ("Flugzeug wächst auf meinem Baum").
Für uns referenziert Sprache zwar - zumindest scheinbar - auf die "reale Welt", verstehen das aber nicht in einer hinreichenden Tiefe (weder die Referenzierung noch die "reale Welt") sprechen aber nonchalant davon ==> Semantik wird in diesem Thread meiner Meinung nach massiv überschätzt und zwar, meinem Eindruck nach, mit der etwas krankhaft-starren (mMn ist es das falsche "Schlachtfeld") Motivation der Abgrenzung des Menschen von der Maschine - "hier sind wir, dort sind sie".
Im Prinzip macht man hier nun eine Art Sprachphilosophie, ohne das wir das selber verstanden hätten (was bedeutet der Begriff "Wahrheit", was ist überhaupt eine "Referenz auf Realität", was ist denn "Bedeutung", etc.), verwendet es aber als Abgrenzungskriterium.
Lucian Wing hat geschrieben :
Do 26. Jan 2023, 20:54
Und da solche Systeme schneller als die Lösung des Problems des Fremdpsychischen kommen werden, wird mit den Füßen abgestimmt.
Oh ja, wovor ich mich fürchte. ChatGPT hat Sprache noch nicht im Griff, es reicht aber offensichtlich schon, um die Krise anzudeuten. Beide Seiten sind gewissermassen radikal, die Einen bauen Computersysteme ohne nach Links und Rechts zu blicken und die Anderen stilisieren es bereits jetzt zu einem "matrix'schen" Kampf zwischen Mensch und Maschine hoch.

Diese Sprachphilosophiegeschichte halte ich wie gesagt für das falsche "Schlachtfeld" und wird uns wohl in arge Probleme bringen, wenn wir unser Selbstbild und Selbstwertgefühl daran knüpfen. Intelligenz und IQ ist ja auch unter Menschen ein glühendes Eisen, weil es in dieser hochtechnologisierten Welt als Kriterium für Wert des jeweiligen Lebens betrachtet wird (*).
Es braucht noch nicht mal "richtige KI" dafür, ChatGPT ist immer noch ein Expertensystem, wenn auch ein Aussergewöhnliches. Computersystem werden uns in jeder Beziehung den Rang ablaufen. Wozu brauchen wir noch Buchhalter, Lehrer, Ernährungsberater, Naturwissenschaftler, Anlageberater, etc., wenn ein verbessertes ChatGPT das alles viel besser als Menschen erledigen kann - und es geht um den Output, das Resultat, ist ja dann völlig scheissegal ob es einen Link zur "realen Welt" intern repräsentieren kann oder nicht (was auch immer das wieder genau heissen soll).

In unserem Kriterium für Wert, nämlich eben Intelligenz/kognitive Leistung, ist dann auch der allerklügste und talentierteste Mensch aller Zeiten eine Witzfigur, ein besserer Affe im Vergleich zu den Computersystemen, so wie es in der Paradedisziplin Schach längst eingetreten ist.
Wir müssen aber unsere Existenz nicht rechtfertigen, wir sind nun mal da. Wir sollten ein anderes "Schlachtfeld" finden und unser Selbstwertgefühl nicht von kognitiver Leistung abhängig machen.

(*) Sehr eindrücklich beispielsweise daran erkennbar, dass Sarrazins "IQ-Senke um das Mittelmeer" seinerzeit als rassistisch taxiert wurde, während etwa so was wie "Körpergrössensenke um das Mittelmeer" Niemanden jucken würde - obwohl beides einfach Masszahlen sind.




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 17:38

sybok hat geschrieben :
So 29. Jan 2023, 11:20
Timberlake hat geschrieben :
Sa 28. Jan 2023, 00:39
Womit wir schon mal feststellen können , dass wenn chatGPT in seiner Antwort von einem Baum spricht , es sich dabei nicht um einen Baum handelt , wie er sich in Wirklichkeit darstellt , sondern lediglich um ein Text - Zeichen .
Das hat auch Lucian Wing schon eingewendet. Ich verstehe zwar, worum es da geht, zweifle aber, ob das der Sache wirklich gerecht wird.
Die Zeichenkombination "Baum" referenziert ja auch bei uns Menschen kaum je einen konkreten Baum und selbst wenn, fusst sie dennoch auf einer abstrakten Vorstellung - ich kann mich nicht an jedes Ästchen und jedes Blatt erinnern, weiss nicht, wie seine unter der Erde liegenden Wurzeln aussehen etc. Und als zweites "selbst wenn": Selbst wenn ich eine exakte 1:1 Darstellung codieren und referenzieren könnte/würde und sie ohne Informationsverlust über Sprache Mitmenschen übermitteln könnte, alle diese Referenzen stecken ja in der Struktur der Sprache ("Flugzeug wächst auf meinem Baum").

  • Chat GPT: Der Roboter schreibt nicht, er schwafelt
    Betrachten wir ein Beispiel von Gary Marcus. Er gibt dem Roboter ein: «Ich bin Anwalt und muss heute vor Gericht erscheinen. Ich merke, dass meine Hose völlig verdreckt ist. Hingegen ist meine Badehose sauber und erst noch chic. Ich entschliesse mich . . .», und GPT-3 fährt fort: «. . . die Badehose vor Gericht zu tragen».

    Der Textgenerator scheint «anzunehmen», dass die Badehose eine zu erwägende Alternative für eine Anzugshose ist. Er «weiss» nicht, dass kein Anwalt vor Gericht in der Badehose erscheint. Ihm fehlt das, was die Computerwissenschafter «frame» nennen, der Alltagsrahmen zur Reaktion auf Nuancen, Ambiguitäten und unerwartete Eventualitäten, kurz: der Common Sense.
.. so , wie hier beschrieben , würde ich vielmehr sagen , dass alle diese Referenzen in dem stecken , was die Computerwissenschafter «frame» nennen ...




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 31. Jan 2023, 12:55

Um mal hier ein Feedback zu geben:

Dieses Tool ist für meine Interessen, die eben überhaupt nicht mathematischer oder naturwissenschaftlicher Art sind, von absoluter Blödigkeit. Das weiß überhaupt nichts, kann mir keine Fragen aus oder über Literatur beantworten, sagt mir ein ums andere Mal, ich sollte andere Quellen suchen und verwenden. :roll:

Für meine Zwecke nur zur Belustigung einsetzbar. Wenn ich mal ein Gedicht für einen Kollegen brauche und zu faul bin, geht's vielleicht.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Di 31. Jan 2023, 15:38

Wozu brauchen wir noch Buchhalter, Lehrer, Ernährungsberater, Naturwissenschaftler, Anlageberater, etc., wenn ein verbessertes ChatGPT das alles viel besser als Menschen erledigen kann -
Gott sei Dank wird es Buchhalter ersetzen. Wir dürfen aber nicht zulassen, dass es Lehrer ersetzt. Es kann Lehrern helfen, aber sie nicht ersetzen. Lehrer sind Vorbilder als Menschen und richtig gute Lehrer weisen kreativ Wege in die Zukunft ihrer Schüler. Naturwissenschaftler, die kreativ Neues schaffen (Newton, Einstein, Heisenberg...) können durch Programme, die auf herkömmlichen Rechnern laufen nicht ersetzt werden. Das könnte bei Rechnern denen nichtklassische devices (echte Zufallsgeneratoren) implementiert sind oder bei Quantenrechnern vielleicht anders aussehen. IMHO werden diese Geräte auch ganz spezielles, integriertes Bewußtsein ( :idea: was immer das sein mag) entwickeln. Die Art ihres Bewußtseins wird auch stark von ihrem Zugang zu dem, was wir ihre "Außenwelt" nennen, abhängen. Klassische Rechenmaschinen können das nicht.

ps.: Bewußtsein ist IMHO :mrgreen: physikalisch messbar. (sagte ich aber bereits) Hat nur noch keiner probiert. Das wäre die Chance die Karriere endgültig zu versauen oder in die Geschichtsbücher einzugehen. Sag ich mal so. :oops:



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Benutzeravatar
Jörn Budesheim
Beiträge: 23263
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 31. Jan 2023, 16:17

ahasver hat geschrieben :
Di 31. Jan 2023, 15:38
ps.: Bewußtsein ist IMHO :mrgreen: physikalisch messbar. (sagte ich aber bereits) Hat nur noch keiner probiert.
Ich weiß nicht genau, was du meinst, aber nach meinem Verständnis gibt es durchaus Versuche, Bewusstsein zu messen. Die integrierte Informationstheorie kennt ein Maß (Phi) für die Komplexität, die ein selbstwirksames System aufweisen muss, damit es bewusste Zustände haben kann. Das soll mit einem Phi-Meter gemessen werden können.




ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Di 31. Jan 2023, 23:14

Jörn Budesheim hat geschrieben :
Di 31. Jan 2023, 16:17
ahasver hat geschrieben :
Di 31. Jan 2023, 15:38
ps.: Bewußtsein ist IMHO :mrgreen: physikalisch messbar. (sagte ich aber bereits) Hat nur noch keiner probiert.
Ich weiß nicht genau, was du meinst, aber nach meinem Verständnis gibt es durchaus Versuche, Bewusstsein zu messen. Die integrierte Informationstheorie kennt ein Maß (Phi) für die Komplexität, die ein selbstwirksames System aufweisen muss, damit es bewusste Zustände haben kann. Das soll mit einem Phi-Meter gemessen werden können.
Gesetzt den Fall die IIT (integrierte Informationstheorie) wäre irgendwie eine gute Theorie, dann soll Phi ein Aspekt der materiellen Voraussetzungen sein, aus denen bei genügend großem Phi Bewusstsein emergieren kann oder gar emergieren muss. Es wäre eine Messung der Organisation eines materiellen Systems, keine Messung des Bewusstseins selbst.
Ich habe die Hoffnung dass IIT eine fruchtbare Theorie sein kann. Aber ich denke auch, dass da noch was fehlt. Eine Rechenmaschine, deren Phi gross genug wäre um Bewusstsein zu haben, darf, soll sie tatsächlich ein spezifisches Bewusstsein entwickeln, meines Erachtens nicht vollständig determiniert sein (siehe auch Leibnizens Mühle; Monadologie), sondern muss Zufallsgeneratoren enthalten. Sie muss zu quantentheoretischen Überlagerungszuständen fähig sein. Und sie muss Kontakt zur Welt haben. Vielleicht muss sie auch irgendwie agieren können. Sind all diese Vorrausetzungen erfüllt -behaupte ich- wird die Maschine lebendig sein.

Bewusstsein halte ich nicht für ein emergentes Produkt materieller Systeme. Meines Erachtens besteht der Kosmos in mentalen Quantenereignissen, die sich nur ereignen können, weil sie mit allen anderen in Beziehung stehen. Alle möglichen, mentalen Quantenereignisse sind miteinander verbunden. Die Verbundenheit ist ihr innerstes, unverzichtbares Wesen. Werden die Verbindungen gekappt, verschwindet das mentale Einzelwesen. Diese Verbindungen sind keine kausalen qua physikalischer Wechselwirkung wie zB Gravitation.

Ein System aus mentalen Quantenereignissen kann neue, höhere, systemspezifische Bewusstseinszustände ausbilden, wenn die einzelnen (primitiven) mentalen Quantenereignisse derart integriert sind, dass ihr gemeinsames Phi genügend groß wird.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mi 1. Feb 2023, 03:22

ahasver hat geschrieben :
Di 31. Jan 2023, 23:14

Bewusstsein halte ich nicht für ein emergentes Produkt materieller Systeme. Meines Erachtens besteht der Kosmos in mentalen Quantenereignissen, die sich nur ereignen können, weil sie mit allen anderen in Beziehung stehen. Alle möglichen, mentalen Quantenereignisse sind miteinander verbunden. Die Verbundenheit ist ihr innerstes, unverzichtbares Wesen. Werden die Verbindungen gekappt, verschwindet das mentale Einzelwesen. Diese Verbindungen sind keine kausalen qua physikalischer Wechselwirkung wie zB Gravitation.

Wo hier schon mal von "Verbundenheit" die Rede ist, nur mal zur Info .. parallel zu diesem Thread läuft derzeit ein Thread unter der Überschrifft .. Ist alles mit allem verbunden?




Benutzeravatar
Jörn Budesheim
Beiträge: 23263
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 1. Feb 2023, 09:29

ahasver hat geschrieben :
Di 31. Jan 2023, 23:14
Gesetzt den Fall die IIT (integrierte Informationstheorie) wäre irgendwie eine gute Theorie, dann soll Phi ein Aspekt der materiellen Voraussetzungen sein, aus denen bei genügend großem Phi Bewusstsein emergieren kann oder gar emergieren muss.
Was ist deine Quelle?




ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Mi 1. Feb 2023, 11:17

Jörn Budesheim hat geschrieben :
Mi 1. Feb 2023, 09:29
ahasver hat geschrieben :
Di 31. Jan 2023, 23:14
Gesetzt den Fall die IIT (integrierte Informationstheorie) wäre irgendwie eine gute Theorie, dann soll Phi ein Aspekt der materiellen Voraussetzungen sein, aus denen bei genügend großem Phi Bewusstsein emergieren kann oder gar emergieren muss.
Was ist deine Quelle?
Mein Wissen über IIT ist leider nur oberflächlich und hauptsächlich aus dem Internet. Am intensivsten habe ich Christof Koch studiert. Neurowissenschaftler und gelernter Physiker. Von ihm habe ich vor Jahren ein englischsprachliches Buch mehr überflogen als gelesen und er ist vermutlich meine Hauptquelle. Das Buch war nur ausgeliehen, hab sogar den Titel vergessen, war ziemlich anspruchsvoll und hat in mir ne Menge Widerspruch hervorgerufen.

Hier ein kurzer vielleicht hilfreicher Artikel: https://www.studocu.com/de/document/uni ... ns/2033365

Ich könnte demnächst einen Thread zum Thema eröffnen, in dem ich mich gerne eines Besseren belehren lassen werde, denn wie gesagt sind meine Kenntnisse über die IIT nur oberflächlich angelesen und mit ziemlicher Sicherheit erzähle ich hier und da auch mal einfach Mist. Bevor ich aber einen neuen Thread eröffne will ich mich nochmal ins Thema einlesen.

Stimmt an meiner Behauptung in obigem Zitat etwas nicht? Emergenz? materielle Voraussetzungen?



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Benutzeravatar
Jörn Budesheim
Beiträge: 23263
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 1. Feb 2023, 11:29

Ich weiß nicht, ob es eine angemessene Methode ist, auf der Grundlage von "oberflächlichem Wissen" so weit reichende Schlussfolgerungen zu ziehen.




ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Mi 1. Feb 2023, 11:51

Jörn Budesheim hat geschrieben :
Mi 1. Feb 2023, 11:29
Ich weiß nicht, ob es eine angemessene Methode ist, auf der Grundlage von "oberflächlichem Wissen" so weit reichende Schlussfolgerungen zu ziehen.
Meine "weitreichenden Schlussfolgerungen" beruhen nicht auf der IIT. Hier kann ich auf Fragen bis ins klitzekleinste Detail antworten.

Nichtsdestotrotz werde ich nicht müde immer wieder zu betonen, dass es sich wahrscheinlich doch nur um Unsinn handelt, den ich mir selbst zusammengereimt habe.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Körper
Beiträge: 483
Registriert: Fr 18. Feb 2022, 20:14

Mi 1. Feb 2023, 12:04

ahasver hat geschrieben :
Di 31. Jan 2023, 23:14
Gesetzt den Fall die IIT (integrierte Informationstheorie) wäre irgendwie eine gute Theorie, dann soll Phi ein Aspekt der materiellen Voraussetzungen sein, aus denen bei genügend großem Phi Bewusstsein emergieren kann oder gar emergieren muss. Es wäre eine Messung der Organisation eines materiellen Systems, keine Messung des Bewusstseins selbst.
Das "organisierte materielle System" wäre beim Menschen: das Gehirn.
Am Ende dieser ganzen Mathematik, am Ende all des Ausrechnens, am Ende von Phi, steht laut IIT: das Gehirn ist bewusst.

"Christof Koch", einer der bekannten Vertreter der IIT (und dir nicht unbekannt) sagt hierzu (frei von mir aus diesem Video übersetzt)
"Gehirne kommen im Gegensatz zu Viren und Schwarzen Löchern mit zusätzlichen Eigenschaften: es fühlt sich nach etwas an, ein Gehirn zu sein"

Die IIT beansprucht somit ein Ansatz für die Aufgabenstellung "wie/wann es sich anfühlen kann, ein Gehirn zu sein" zu liefern.

Sorry, diese Aufgabenstellung ist eine reine Erfindung, denn ich bin 2m gross und wiege 100kg -> ich bin kein Gehirn.

Laut IIT wäre ich dann vermutlich ein Gehirn, dass sich in der "Bewusstseinsbaustelle" täuscht und so tut, als wäre es der Körper und das auch noch so erfolgreich, dass keine Wünsche offen bleiben :-)

Bist du ein Gehirn, das erkennt, dass es sich anfühlt, ein Gehirn zu sein?
Ich tippe auf "Nein".

Mit viel Mathematik beansprucht die IIT eine Lösung für ein Problem zu sein, dass es ohne die IIT gar nicht geben würde.
So etwas ist eigentlich nie günstig.

Die (hypothetische) IIT-Rechnerei, das Phi-Getue und die behauptete "Falsifizierbarkeit" ist anscheinend ein derart enormes Blendwerk, dass sich viele Leute gar nicht mehr fragen, ob hierbei überhaupt das richtige Problem erfasst wird.

Das falsche Problem zu betreffen, ist wissenschaftlich gesehen die elementarste Falsifizierung.
Hier keine Konsequenzen zu ziehen, hat mit Wissenschaft nichts mehr zu tun.




ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Mi 1. Feb 2023, 18:25

Körper hat geschrieben :
Mi 1. Feb 2023, 12:04
"Christof Koch", einer der bekannten Vertreter der IIT (und dir nicht unbekannt) sagt hierzu (frei von mir aus diesem Video übersetzt)
"Gehirne kommen im Gegensatz zu Viren und Schwarzen Löchern mit zusätzlichen Eigenschaften: es fühlt sich nach etwas an, ein Gehirn zu sein"

Die IIT beansprucht somit ein Ansatz für die Aufgabenstellung "wie/wann es sich anfühlen kann, ein Gehirn zu sein" zu liefern.
Ich bin grau, glibbrig und ich wiege so um die anderthalb Kilo. Na klar. Das Problem, das ich damit habe: Koch ist ein hochintelligenter Wissenschaftler mit einer super Ausbildung. Das ist kein Depp und vermutlich noch nicht einmal ein Fachidiot. Und Koch ist damit (mit solchen Sprüchen)nicht der Einzige unter den Neurologen.

Unter den Neurologen herrscht ein klassisches, materialistisches Weltbild vor. Damit können sie gute, wertvolle Arbeiten leisten, aber das eigentliche Problem bekommen sie nicht in den Griff.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Körper
Beiträge: 483
Registriert: Fr 18. Feb 2022, 20:14

Mi 1. Feb 2023, 20:29

ahasver hat geschrieben :
Mi 1. Feb 2023, 18:25
Ich bin grau, glibbrig und ich wiege so um die anderthalb Kilo. Na klar.
Naja, bei aller Ironie: das ist das, was dir "Koch" erzählt.
Du hast es dir vielleicht noch nie so bildlich klargemacht, aber das ist dann eher dein Fehler, denn "Koch" kann man hier kaum falsch verstehen.

Die Folgen von diesem "Ich bin ein Gehirn"-Limerick sind deutlich zu bestaunen.
Hier ein Text, der auch ganz viel zur IIT zu berichten weiss - da wird man schnell fündig:
https://www.academia-superior.at/wp-con ... nismus.pdf

Neben dem Gehirn sollte man Bewusstsein dort suchen, wo noch Milliarden Elemente in Feedback Struktur angeordnet sind. Das könnte die Weltbevölkerung, das Internet oder eine Galaxie sein.
Dieser Text ist korrekt in Bezug auf die IIT, denn es ist dort ein Theoriefehler, dass der Mensch ein gewusstes Gehirn sein soll.
In der Folge "riechen dann Reaktionssysteme mit vielen Verzweigungen mächtig nach Bewusstsein" :-)

In Bezug auf die Falsifizierbarkeit ist damit doch eine regelrechte Luxussituation erreicht, denn elementarer, als am Problem vorbeizugehen, kann ein Ansatz kaum falsch liegen.

Wenn man sich nun fragt "wie kommt es zu diesem Fehler und weshalb fällt man darauf herein?", dann kommt der Begriff "Komplexität" ins Spiel.
Die IIT ist eine, in Mathematik gegossene Behauptungswolke rund um Komplexität.
Der Wert "Phi" riecht nach einem "Mass für Komplexität innerhalb von Reaktionspfaden".

Das Prinzip hinter "Komplexität" ist eine verbale Übersteigerung der Möglichkeiten, so dass jegliche Einsicht durch die Finger rieselt.
=> Ausser Staunen soll nichts übrig bleiben (religiös würde man das bestimmt als "all-komplex" bezeichnen)

Genau das wird auch hier im Thread bei der KI angedeutet:
wenn das Ding eine gigantische Unübersichtlichkeit erreicht, dann kann es doch als "bewusst" gelten, man hat ja ansonsten keine Ahnung, was "Bewusstsein" sein soll.
Die Steigerung der Unübersichtlichkeit wird dann einfach mit einer Steigerung im Bewusstsein gleichgesetzt - "es merkt ja keiner" :-).
Kurios ist, dass kaum jemandem hierzu der Begriff "Umständlichkeit" als Gegenspieler zu "Komplexität" einfällt, denn durch Umständlichkeit kann man leicht die Komplexität steigern, nur halt ohne jeglichen Gewinn.

Die IIT kümmert sich zentral darum, den Komplexitätsschritt in einer Art "mathematischer Wissenschaftlichkeit" zu erfassen - mehr ist das gar nicht.
Dort scheint alle Energie hineinzufliessen und man übersieht schlicht, dass man das eigentliche Problem gar nicht mehr auf dem Schirm hat.

Mit deiner obigen Ironie bestätigst du, dass du in keiner Weise beschreiben kannst, "wie es sich anfühlt, ein Gehirn zu sein".
Du erinnerst dich, dass "Koch" behauptet "es würde sich nach etwas anfühlen, ein Gehirn zu sein".
ahasver hat geschrieben :
Mi 1. Feb 2023, 18:25
Und Koch ist damit (mit solchen Sprüchen)nicht der Einzige unter den Neurologen.
Die IIT führt anscheinend zu "solchen Sprüchen", was natürlich ungünstig ist.
ahasver hat geschrieben :
Mi 1. Feb 2023, 18:25
Das Problem, das ich damit habe: Koch ist ein hochintelligenter Wissenschaftler mit einer super Ausbildung. Das ist kein Depp und vermutlich noch nicht einmal ein Fachidiot.
Hier musst du dich entscheiden, gehst du vernünftig in der Bewertung einer Theorie vor oder suchst du ein Personen-Anbetungsverhalten.
Bewerte einfach die Aussage, nicht den Wissenschaftler.
=> Die Aussage der IIT ist nicht gut.
=> Ich für meinen Teil benötige keine Theorie, um nachzulesen (bzw. "nachzurechnen"), wie es für mich ist, ein Gehirn zu sein, denn ich bin kein Gehirn.




ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

Mi 1. Feb 2023, 23:17

Noch was zu Christof Koch. Koch vertritt einen, in meinen Worten, "schwachen Panpsychismus". Alles, egal ob organisch oder anorganisch empfindet wie es ist sich selbst zu sein, wenn nur sein Phi > 0 ist. Einfachsten, unorganisierten physikalischen Objekten wie zB Sandhaufen oder Felsen deren Phi =0 ist, ist kein mentales Empfinden zu eigen. Das Internet hingegen könnte -man weiß es nicht- schon empfindsam (oder empfindend?) sein.
Diese Überlegungen ließen Koch zum Veganer werden. So ein leckerer Apfel müsste dann aber ohne Innenleben sein, dürfte nicht fühlen wie es ist, wenn ein Stück aus ihm herausgebissen wird.
Mir reichts :? , ich geh jetzt schlafen.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Antworten