Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 28. Jan 2023, 10:50

NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 10:20
Burkart hat geschrieben :
Mi 25. Jan 2023, 21:16
NaWennDuMeinst hat geschrieben :
Mi 25. Jan 2023, 16:12

Wollen wir eine KI die wie irgendein Säugetier funktioniert oder wie ein Mensch?
Wir wollen einfach eine gute funktionierende KI, egal ob wie ein Mensch oder nicht.

Dies meinte ich übrigens wörtlich, nicht auf KI bezogen:
"Ja, es wäre schön, wenn man auch mit Delphinen diskutieren könnte."
Mir geht es um Folgendes.
Jedesmal, wenn Dich jemand darauf hinweist, dass wir keine Ahnung haben wie wir eine starke KI schaffen sollen, weil dazu viele Dinge fehlen,
sagst Du einfach "Die Dinge wollen wir auch nicht".
Nich' doch... dann entwirre ich mal wieder das Schwarz-Weiß ein wenig.
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht. Du erwartest von ihr Dinge, die ihr (nach deiner Meinung) fehlen, ich erwarte von ihr "nur", dass sie ähnlich intelligent wie wir sein kann und das eben ohne Biologisches, was nach deiner Ansicht nicht geht, nach meiner aber schon sehr viel gehen könnte. ChatGPT ist sicher kein perfektes Beispiel, zeigt aber schon, was sogar aktuell schon geht.
Du willst somit Dinge, die aus meiner Sicht gar nicht nicht gehen können, weil KI alsTechnik eben nicht auf Biologie basiert. Und was macht es für einen Sinn so etwas zu wollen?
Und das ist einfach gelogen und falsch.
Es ist nicht so, dass wir das nicht wollen. Wir wollen das. Wir können es aber nicht.
Und das kann man zugeben. Das sollte man auch.
Und man sollte dann auch die Frage stellen warum wir das nicht können.
Befass dich gerne damit (und somit gar nicht von KI als Technik Gewolltem); ich bevorzuge die konstruktive Seite von möglicher KI.
Und erhalte ich noch zu den Modellen eine Antwort? Hier scheinst du dich gerne zu drücken, passt wohl nicht ins nicht rein mathematisch-logische Weltbild.
Ich drücke mich vor gar nichts.
Das ist schön.
Es gibt keine Modell die z.B. echte Emotionen zuverlässig nachbilden oder abbilden können.
Es gibt sie einfach nicht. Die Frage ist nun warum nicht.
Einfach, weil echte Emotionen etwas mit biologischer Grundlage sind.
Entweder weil wir den Dreh noch nicht raus haben, oder eben, weil Emotionen nichts (oder nur am Rande) mit Mathematik und Logik zu tun haben.
Ich vertrete die zweite Position. Es geht prinzipiell (prinzipbedingt) so nicht. Falsches Werkzeug.
Deshalb sind Emotionen vielleicht auch nicht der richtige Zugang zu KI, weil sie zu sehr ans Biologische anlehnen bzw. erinnern?
Warum gehen wir nicht lieber (zumindest erstmal) von klar machbaren Zielen aus u.ä.?

Aber ok, lasse ich mich hier mal auf Emotion ein... die nach Wikipedia eine "psychophysische Bewegtheit [ist], die durch die bewusste oder unbewusste Wahrnehmung eines Ereignisses oder einer Situation ausgelöst wird."
Was spricht nun dagegen, dass KI Dinge wahrnimmt, also in dem Sinne Daten über "Sinne" erfasst und durch eine schnellere Filterung kritische Dinge herausfiltert und somit schnell darauf reagieren kann - halt funktional verglichen mit einer menschlichen Emotion?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 28. Jan 2023, 11:55

Burkart hat geschrieben :
Sa 28. Jan 2023, 10:50

Deshalb sind Emotionen vielleicht auch nicht der richtige Zugang zu KI, weil sie zu sehr ans Biologische anlehnen bzw. erinnern?
Warum gehen wir nicht lieber (zumindest erstmal) von klar machbaren Zielen aus u.ä.?
Weil wir dann "Intelligenz" als etwas Geschlossenes vordefinieren würden. Klarer als in festgelegten Zielen kommt doch nicht zum Ausdruck, dass die Maschine damit von außen begrenzt wird und nix lernt, sondern nur etwas Vorgegebenes ausführt. "Lernen" beschränkt sich dann rein auf Effizienz.

(Ihr solltet wirklich mal "Maschinen wie ich" lesen, dann käme man weiter. McEwan hat alle Themen dort eingearbeitet. Die Frage der Emotionen ebenso wie die der technischen und mathematischen Seite (Dinge wie das P-NP-Problem u.v.m.), die ethischen Fragen ebenso wie die Fragen des Verhältnisses zwischen Mensch und Maschine. Und das auf hohem Niveau.)



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 28. Jan 2023, 12:50

Burkart hat geschrieben :
Sa 28. Jan 2023, 10:50
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 10:20
Burkart hat geschrieben :
Mi 25. Jan 2023, 21:16

Wir wollen einfach eine gute funktionierende KI, egal ob wie ein Mensch oder nicht.

Dies meinte ich übrigens wörtlich, nicht auf KI bezogen:
"Ja, es wäre schön, wenn man auch mit Delphinen diskutieren könnte."
Mir geht es um Folgendes.
Jedesmal, wenn Dich jemand darauf hinweist, dass wir keine Ahnung haben wie wir eine starke KI schaffen sollen, weil dazu viele Dinge fehlen,
sagst Du einfach "Die Dinge wollen wir auch nicht".
Nich' doch... dann entwirre ich mal wieder das Schwarz-Weiß ein wenig.
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht. Du erwartest von ihr Dinge, die ihr (nach deiner Meinung) fehlen, ich erwarte von ihr "nur", dass sie ähnlich intelligent wie wir sein kann und das eben ohne Biologisches, was nach deiner Ansicht nicht geht, nach meiner aber schon sehr viel gehen könnte. ChatGPT ist sicher kein perfektes Beispiel, zeigt aber schon, was sogar aktuell schon geht.
Du willst somit Dinge, die aus meiner Sicht gar nicht nicht gehen können, weil KI als Technik eben nicht auf Biologie basiert. Und was macht es für einen Sinn so etwas zu wollen?
Was macht es für einen Sinn von einer Intelligenz "ähnlich der unseren" zu reden, ohne dabei das zu wollen was diese Ähnlichkeit ausmacht?
Du willst Wasser aber ohne nass. DAS ist unsinnig.
Der Punkt ist doch, dass Du genau weißt dass das unsinnig ist, aber Du hast halt einfach keine Wahl.

Du bekommst das "ähnlich wie wir" einfach nicht hin ohne das Biologische.
Eine reiner Logikapparat hat keine Intelligenz "ähnlich der unseren". Nicht im Entferntesten.
Und anstatt das zuzugeben widersprichst Du dir am laufenden Bande selbst wenn Du von einer Intelligenz ähnlich der unseren sprichst, im selben Atemzug aber sagst sie soll/muss unserer ja gar nicht ähnlich sein (Du: "Sie muss ja gar nicht das können was Menschen können")... das ist absurd.
Was spricht nun dagegen, dass KI Dinge wahrnimmt, also in dem Sinne Daten über "Sinne" erfasst und durch eine schnellere Filterung kritische Dinge herausfiltert und somit schnell darauf reagieren kann - halt funktional verglichen mit einer menschlichen Emotion?
Weil Du diese "Filterfunktionen" mit reiner Logik (also das was Maschinen ausschliesslich können) nicht akkurat hinbekommst.
Das ist doch sonnenklar.
Zu behaupten es gäbe eine Möglichkeit das in einem Logikapparat umzusetzen ist reine Phantasie. Es ist pures Wunschdenken und Träumerei deinerseits.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 28. Jan 2023, 20:41

NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 12:50
Burkart hat geschrieben :
Sa 28. Jan 2023, 10:50
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 10:20

Mir geht es um Folgendes.
Jedesmal, wenn Dich jemand darauf hinweist, dass wir keine Ahnung haben wie wir eine starke KI schaffen sollen, weil dazu viele Dinge fehlen,
sagst Du einfach "Die Dinge wollen wir auch nicht".
Nich' doch... dann entwirre ich mal wieder das Schwarz-Weiß ein wenig.
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht. Du erwartest von ihr Dinge, die ihr (nach deiner Meinung) fehlen, ich erwarte von ihr "nur", dass sie ähnlich intelligent wie wir sein kann und das eben ohne Biologisches, was nach deiner Ansicht nicht geht, nach meiner aber schon sehr viel gehen könnte. ChatGPT ist sicher kein perfektes Beispiel, zeigt aber schon, was sogar aktuell schon geht.
Du willst somit Dinge, die aus meiner Sicht gar nicht nicht gehen können, weil KI als Technik eben nicht auf Biologie basiert. Und was macht es für einen Sinn so etwas zu wollen?
Was macht es für einen Sinn von einer Intelligenz "ähnlich der unseren" zu reden, ohne dabei das zu wollen was diese Ähnlichkeit ausmacht?
Du willst Wasser aber ohne nass. DAS ist unsinnig.
Nein, ich will das Fliegen, ohne dass uns eigene Flügel wachsen. Du siehst den Unterschied zwischen Technik (Flugzeuge u.ä.) und Biologie (Vögel u.ä.).
Der Punkt ist doch, dass Du genau weißt dass das unsinnig ist, aber Du hast halt einfach keine Wahl.
Spricht doch einfach mal nur von dir, dass/was du so etwas zu wissen glaubst. Wie wär's?
Du bekommst das "ähnlich wie wir" einfach nicht hin ohne das Biologische.
Eine reiner Logikapparat hat keine Intelligenz "ähnlich der unseren". Nicht im Entferntesten.
Das ist eben nur deine Meinung. "'Ähnlich" heißt hier halt "funktional ähnlich" ohne Biologie a la wachsende Flügel.
Und anstatt das zuzugeben widersprichst Du dir am laufenden Bande selbst wenn Du von einer Intelligenz ähnlich der unseren sprichst, im selben Atemzug aber sagst sie soll/muss unserer ja gar nicht ähnlich sein (Du: "Sie muss ja gar nicht das können was Menschen können")... das ist absurd.
Du wirfst einfach hier alles zusammen und ignorierst die Kontexte, die Feinheiten. So kann man leicht Widersprüche konstruieren.
Was spricht nun dagegen, dass KI Dinge wahrnimmt, also in dem Sinne Daten über "Sinne" erfasst und durch eine schnellere Filterung kritische Dinge herausfiltert und somit schnell darauf reagieren kann - halt funktional verglichen mit einer menschlichen Emotion?
Weil Du diese "Filterfunktionen" mit reiner Logik (also das was Maschinen ausschliesslich können) nicht akkurat hinbekommst.
Das ist doch sonnenklar.
Was ist daran denn sonnenklar? Klar ist nur, dass du diese Möglichkeit(en) von vorherein ablehnst.
Zu behaupten es gäbe eine Möglichkeit das in einem Logikapparat umzusetzen ist reine Phantasie. Es ist pures Wunschdenken und Träumerei deinerseits.
Dann erkläre mal logisch (funktional), warum das nicht gehen soll - und nicht entsprechend deiner (ggf. fehlenden) Phantasie.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 28. Jan 2023, 22:26

Burkart hat geschrieben :
Sa 28. Jan 2023, 20:41
'Ähnlich" heißt hier halt "funktional ähnlich" ohne Biologie a la wachsende Flügel.
Es gibt aber zwischen Menschen und Maschinen auch keine "funktionale Ähnlichkeit" wenn es um Gefühle geht.
Sie können es einfach nicht.
Da kannst Du versuchen Dich drumherum und rauszureden.... es hilft nichts.
Burkart hat geschrieben :
Sa 28. Jan 2023, 20:41
Zu behaupten es gäbe eine Möglichkeit das in einem Logikapparat umzusetzen ist reine Phantasie. Es ist pures Wunschdenken und Träumerei deinerseits.
Dann erkläre mal logisch (funktional), warum das nicht gehen soll - und nicht entsprechend deiner (ggf. fehlenden) Phantasie.
Das habe ich Dir schon erklärt. Weil Gefühle nicht logisch sind.
Gefühlen mit Logik zu Leibe rücken zu wollen ist so wie zu versuchen Gestank zu hören. Das ist aussichtslos.
Alles was dabei herauskommt ist, dass Du das Wesen von Gefühlen verfehlst.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 28. Jan 2023, 23:30

NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26
Burkart hat geschrieben :
Sa 28. Jan 2023, 20:41
'Ähnlich" heißt hier halt "funktional ähnlich" ohne Biologie a la wachsende Flügel.
Es gibt aber zwischen Menschen und Maschinen auch keine "funktionale Ähnlichkeit" wenn es um Gefühle geht.
Sie können es einfach nicht.
Da kannst Du versuchen Dich drumherum und rauszureden.... es hilft nichts.
Burkart hat geschrieben :
Sa 28. Jan 2023, 20:41
Zu behaupten es gäbe eine Möglichkeit das in einem Logikapparat umzusetzen ist reine Phantasie. Es ist pures Wunschdenken und Träumerei deinerseits.
Dann erkläre mal logisch (funktional), warum das nicht gehen soll - und nicht entsprechend deiner (ggf. fehlenden) Phantasie.
Das habe ich Dir schon erklärt. Weil Gefühle nicht logisch sind.
Gefühlen mit Logik zu Leibe rücken zu wollen ist so wie zu versuchen Gestank zu hören. Das ist aussichtslos.
Alles was dabei herauskommt ist, dass Du das Wesen von Gefühlen verfehlst.
Das haben wir die KI-Frage also von "Emotion" auf "Gefühl" verlagert.
Nenn doch mal ein Beispiel, wo logische Intelligenz ein Gefühl erfordert.
Das sollten wir zumindest von etwas wie emotionaler Intelligenz trennen, auch wenn Gesichtserkennungssysteme hier schon einiges können.
Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 03:21

NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26

Weil Gefühle nicht logisch sind.
Ist das so? Ist beispielweise das Hungergefühl , dass sich bei Nahrungsentzug einstellt , etwa nicht logisch? Um dazu auf das Thema dieses Threads zurück zu kommen. Was passiert denn , wenn man einer KI den Strom entzieht? Unter Berücksichtigung zu welchen Aktivitäten der Mensch neigt , wenn man ihn Nahrung oder auch nur bloß ein auskömmliches Leben vor enthält , zumindest Gefühle "glücklicherweise" nicht. ....
Burkart hat geschrieben :
Sa 28. Jan 2023, 23:30

Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.
Übrigens können Gefühle eben deshalb weil sie negativ sind, logisch sein. So ist das , was du bei einer KI nicht möchtest und zwar ein menschlicher (übertriebener) Egoismus zweifelsohne logisch.(Stichworte „Leistung muss sich lohnen“ und "Leistungsgesellschaft.)

P.S.
Wen es denn so ganz nebenbei interessiert , das läuft übrigens unter Nietzsches Umwertung aller Werte.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 09:06

Timberlake hat geschrieben :
So 29. Jan 2023, 03:21
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26

Weil Gefühle nicht logisch sind.
Ist das so? Ist beispielweise das Hungergefühl , dass sich bei Nahrungsentzug einstellt , etwa nicht logisch? Um dazu auf das Thema dieses Threads zurück zu kommen. Was passiert denn , wenn man einer KI den Strom entzieht? Unter Berücksichtigung zu welchen Aktivitäten der Mensch neigt , wenn man ihn Nahrung oder auch nur bloß ein auskömmliches Leben vor enthält , zumindest Gefühle "glücklicherweise" nicht. ....
Hier möge der Zitierte gerne drauf antworten.
Burkart hat geschrieben :
Sa 28. Jan 2023, 23:30

Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.
Übrigens können Gefühle eben deshalb weil sie negativ sind, logisch sein. So ist das , was du bei einer KI nicht möchtest und zwar ein menschlicher (übertriebener) Egoismus zweifelsohne logisch.(Stichworte „Leistung muss sich lohnen“ und "Leistungsgesellschaft.)
Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig. Die Robotergesetze-Tendenz erst pro Mensch und Kooperation (nenne ich es hier mal) und sich selbst erst als 3 Prio ist ein guter Ansatz.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 10:11

Burkart hat geschrieben :
So 29. Jan 2023, 09:06

Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig. Die Robotergesetze-Tendenz erst pro Mensch und Kooperation (nenne ich es hier mal) und sich selbst erst als 3 Prio ist ein guter Ansatz.
Das, mit Verlaub, ist Quatsch, weil du das bei einer tatsächlich intelligenten KI nicht ausschließen kannst. Wenn eine KI in unserem Sinne lern- und entwicklungsfähigfähig ist, dann kannst du nicht von vornherein behaupten, Egoismus oder Lust seien ausgeschlossen. Du musst dich schon einmal entscheiden: entweder so ein Teil ist "selbständig" oder es ist halt nicht selbständig. Und wenn es doch Lust entwickelt, dann möchte ich sehen, ob ein gehörnter Ehemann dann den humanoiden Roboter im Haushalt, mit dem er sich sonst über alles unterhält, in dieser Hinsicht wie einen Vibrator betrachtet.

Die ganzen Robotergesetze sind in dem Augenblick völlig sinnlos, in dem man menschliches Lernen und KI-Lernen identisch versteht. Denn menschliches Leben entwickelt sich, was Christen ja besonders gut wissen, nicht nach den Wünschen des lieben Gottes, also des "Schöpfers", sondern nach ganz anderen Gesetzlichkeiten. Wenn man Intelligenz im Prinzip algorithmisch versteht, dann ist doch klar, dass sich eine KI, sobald sie die Welt versteht, ihre mitgegebenen Begrenzungen aushebeln wird - nicht nur bei Egoismus oder Lust.

In dem komplexen Roman McEwans gibt es sogar welche, die sich selbst, weil sie die Welt und die Menschen so umfassend verstehen, abschalten. Einer der Erkenntnisse Adams aus dem Roman ist die Einsicht, dass menschliches Leiden nur durch Abschaffung der Menschheit aus der Welt kommt. Das ist eigentlich logisch, wenn man die Welt als reinen Informationsaustausch zwischen Systemen versteht. Ein System, das einerseits hohe moralische Ansprüche formuliert, die es andererseits in fast jedem Moment verfehlt, ist fehlprogrammiert. Das lässt sich, wenn man alle Texte dieser Welt durchanalysiert hat, ja auch verstehen.

Wie gesagt: Wer der KI das Wort redet und Leben nicht als notwendige Voraussetzung für Intelligenz betrachtet (ahasvers Panpsychismus geht übrigens ebenfalls in diese Richtung), der wird akzeptieren müssen, dass ein wirklich gutes System seine Qualität daraus gewänne, dass es die humanen Defizite aufhebt. Was ja ein menschliches Uranliegen ist, wie insbesondere die monotheistischen Religionen zeigen.

Deshalb: kein moralisches Gesülze :mrgreen: über irgendwelche Restriktionen und menschlichen Vorrang. Wenn die Idee der Intelligenz, wie sie manche hier vertreten, wahr ist, dann kann man eine wirkliche KI nicht nachhaltig mit Einschränkungen programmieren, sondern muss deren Selbständigkeit akzeptieren. Und wer umgekehrt irgendwelche sozialkonstruktivistischen Narrative vertritt, hat letztlich gar keine Möglichkeiten, wahre Sätze darüber zu formulieren, dass der Begriff der Intelligenz an Leben gebunden sei.

(Heute las ich einen Artikel über die von den Verlagen jüngst eingestellten Sensitivity Reader. Die Verlage wären glücklich, sie hätten den Adam aus McEwans Roman. Der würde ihnen nach ein paar Tagen Einarbeitung jedes Manuskript politisch korrekt schreiben und in einer Woche die gesamte Weltliteratur ebenfalls gender- und wokegerecht umformuliert haben.)



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 11:07

Um den vorigen Beitrag mal mit einem praktischen Beispiel zu ergänzen:

Eine KI, dich keinen Egoismus und keine Lust (auf Sex) einprogrammiert hätte, für die wäre die Lektüre von Nabokovs "Lolita" völlig unverständlich. Und sie könnte alles Verhalten, in dem sich Egoismus oder Lust ausdrücken, nicht verstehen, sie wäre also in Bezug auf menschliches Verhalten und auf alle Texte, die ein gewisses Verständnis von Egoismus und Lust voraussetzen, vollständig blöd.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 11:19

@Lucian Wing
Erstmal vorweg: Es geht mir nicht um "moralisches Gesülze". Der Mensch erschafft die KI und hat es damit in der Hand, als sein Werkzeug sie grundlegend zu formen (programmieren) und langfristig zu "erziehen" (trainieren, Daten zukommen zu lassen). Wenn die KI dann einmal "erwachsen" geworden ist (nicht zu wörtlich zu nehmen, insbesondere gibt es keine klare zeitliche Abgrenzung), basiert halt ihre weitere Existenz auf ihrer "Erziehungszeit": Wenn wir ihr ein positives menschliches Bild mitgeben, gibt es keinen Grund, warum sie sich gegen den Menschen stellen sollte. Wenn man natürlich den bösen Menschen hervorhebt, ist es etwas anderes.
Wenn eine KI in unserem Sinne lern- und entwicklungsfähigfähig ist, dann kannst du nicht von vornherein behaupten, Egoismus oder Lust seien ausgeschlossen. Du musst dich schon einmal entscheiden: entweder so ein Teil ist "selbständig" oder es ist halt nicht selbständig.
So schwarz-weiß ist es aber nicht. Auch Menschen sind ja nicht völlig unabhängig ("selbständig") vom Rest der Welt, ob nun von anderen Menschen, der Natur, den Naturgesetzen...
Sie ist also nur bedingt selbständig - wenn "ist oder ist nicht" solltest du schon sagen, in welcher Hinsicht das so sein soll zwecks Überprüfungsmöglichkeit.
Und wenn es doch Lust entwickelt...
Wie soll denn ein technischer Gegenstand dies können?
Aber klar, der Mensch kann diese hinein interpretieren, sein Problem sozusagen - ähnlich wie wenn man ChatGPT als wirklich intelligent ansieht o.ä.
Die ganzen Robotergesetze sind in dem Augenblick völlig sinnlos, in dem man menschliches Lernen und KI-Lernen identisch versteht.
Das Lernen ist eben nicht ganz identisch, weil KI eben z.B. nicht unsere biologischen Bedürfnisse hat.
Denn menschliches Leben entwickelt sich, was Christen ja besonders gut wissen, nicht nach den Wünschen des lieben Gottes, also des "Schöpfers", sondern nach ganz anderen Gesetzlichkeiten. Wenn man Intelligenz im Prinzip algorithmisch versteht, dann ist doch klar, dass sich eine KI, sobald sie die Welt versteht, ihre mitgegebenen Begrenzungen aushebeln wird - nicht nur bei Egoismus oder Lust.
Nein, warum sollte sie denn? Welchen Grund sollte sie dafür haben? Ohne Grund passiert nichts.
In dem komplexen Roman McEwans gibt es sogar welche, die sich selbst, weil sie die Welt und die Menschen so umfassend verstehen, abschalten. Einer der Erkenntnisse Adams aus dem Roman ist die Einsicht, dass menschliches Leiden nur durch Abschaffung der Menschheit aus der Welt kommt.
Roman halt...
Das ist eigentlich logisch, wenn man die Welt als reinen Informationsaustausch zwischen Systemen versteht. Ein System, das einerseits hohe moralische Ansprüche formuliert, die es andererseits in fast jedem Moment verfehlt, ist fehlprogrammiert. Das lässt sich, wenn man alle Texte dieser Welt durchanalysiert hat, ja auch verstehen.
"Fehlprogrammiert" nur, wenn jemand es als solches definiert. Das System ist einfach noch nicht perfekt und muss immer weiter versuchen, die Widersprüche versuchen aufzulösen. Die Fehler sind zu bekämpfen, nicht uns Menschen insgesamt, u.a. eben, weil wir die KI formen, uns aber selbst sicher nicht abschaffen wollen (und dies die KI lernen wird).
Wie gesagt: Wer der KI das Wort redet und Leben nicht als notwendige Voraussetzung für Intelligenz betrachtet (ahasvers Panpsychismus geht übrigens ebenfalls in diese Richtung), der wird akzeptieren müssen, dass ein wirklich gutes System seine Qualität daraus gewänne, dass es die humanen Defizite aufhebt.
Richtig insofern, humane Defizite im SInne von seinen Fehlern aufzuheben oder vielleicht eher zu minimieren, aber nicht den Menschen insgesamt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 11:29

Lucian Wing hat geschrieben :
So 29. Jan 2023, 11:07
Um den vorigen Beitrag mal mit einem praktischen Beispiel zu ergänzen:

Eine KI, dich keinen Egoismus und keine Lust (auf Sex) einprogrammiert hätte, für die wäre die Lektüre von Nabokovs "Lolita" völlig unverständlich.
Und wäre das so schlimm? ;) Muss KI alles wie ein Mensch genau nachvollziehen können? Ich finde nicht.
Als Mann können wir auch Monatsblutungen nicht nachempfinden und wollen es sicher auch nicht (und können sie trotzdem hinreichend verstehen).
Und sie könnte alles Verhalten, in dem sich Egoismus oder Lust ausdrücken, nicht verstehen, sie wäre also in Bezug auf menschliches Verhalten und auf alle Texte, die ein gewisses Verständnis von Egoismus und Lust voraussetzen, vollständig blöd.
Nicht vollständig bzw. unbedingt, wenn man ihr "Egoismus" und "Lust" erklärt, also grob als menschlich-biologisches Streben aufgrund seiner Bedürfnisse. Bedürfnisse sind etwas, was erfüllt werden möchte, als letztlich zu erfüllende Ziele. Und genau diese kann eine KI verstehen, wenn ihr der Zielbegriff klar ist, der aus meiner Sicht grundlegend für starke KI sein sollte.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 12:21

Burkart hat geschrieben :
So 29. Jan 2023, 11:29
Lucian Wing hat geschrieben :
So 29. Jan 2023, 11:07
Um den vorigen Beitrag mal mit einem praktischen Beispiel zu ergänzen:

Eine KI, dich keinen Egoismus und keine Lust (auf Sex) einprogrammiert hätte, für die wäre die Lektüre von Nabokovs "Lolita" völlig unverständlich.
Und wäre das so schlimm? ;) Muss KI alles wie ein Mensch genau nachvollziehen können? Ich finde nicht.
Als Mann können wir auch Monatsblutungen nicht nachempfinden und wollen es sicher auch nicht (und können sie trotzdem hinreichend verstehen).
Und sie könnte alles Verhalten, in dem sich Egoismus oder Lust ausdrücken, nicht verstehen, sie wäre also in Bezug auf menschliches Verhalten und auf alle Texte, die ein gewisses Verständnis von Egoismus und Lust voraussetzen, vollständig blöd.
Nicht vollständig bzw. unbedingt, wenn man ihr "Egoismus" und "Lust" erklärt, also grob als menschlich-biologisches Streben aufgrund seiner Bedürfnisse. Bedürfnisse sind etwas, was erfüllt werden möchte, als letztlich zu erfüllende Ziele. Und genau diese kann eine KI verstehen, wenn ihr der Zielbegriff klar ist, der aus meiner Sicht grundlegend für starke KI sein sollte.
Nein, sie wird nur verstehen, wie sich das vielleicht ausdrücken könnte.

Aber ich bin syboks Meinung aus dem ChatGPT-Strang, dass wir irgendwann aufhören sollten, um sprachliche Fragen oder Begriffsfragen der Intelligenz, des Lernens, des Verstehens zu kreisen und alle miteinander nichts zu gebären. Weil wir schlicht nicht wissen, was Bewusstsein ist und wie es entsteht, wie physikalische und biochemische Prozesse dazu führen, dass jemand einen Gedanken hat - wieder so ein Ding, über dessen Definition man sich weiterstreiten könnte.

Du als Fan von KIs solltest aus meiner Sicht einmal Folgendes tun: Denk mal wie die KI, halte dich also nicht an wechselnden Moden irgendwelcher weltanschaulichen, moralisch grundierter Muster, sondern denke probabilistisch. Risikoabwägung, Nutzenabwägung, Wahrscheinlichkeiten. Sei konsequent wie Lichtenberg oder Nietzsche, die von einem Szenario "es denkt" und nicht "ich denke" ausgehen.

Was wird praktisch geschehen? Ich habe ja mit dem Sensitivity Reader schon ein Beispiel gegeben. Eine KI könnte das mustergültig erledigen, wenn auch ohne die Garantie, nicht auf den Gedanken zu kommen, wenn es keine Texte mehr gäbe, verschwände auch alle Diskriminierung oder dass man durch pränatale Maßnahmen mit strenger Selektion alle diskriminierungsfähigen Merkmale ausrotten könnte. Alle werden die gleichen Fähigkeiten haben, und alle moralischen Fragen werden in einer Universalmoral aufgelöst (so wie keiner mehr Abi hat, wenn alle Abi haben).

Und der Sensitivity Reader, dieser Abfangjäger von Shirstorms, steht ja auch für einen wichtigen materiellen Aspekt, der uns längst geläufig ist: die Verbindung zwischen Weltanschauung (hier Wokeness statt Katholizismus) und dem Kapital. Zwei Akteuere, die aus unterschiedlichen Gründen an einem Strang ziehen, Moral und Profit als symbiotische Interessensgemeinschaft.

Ich muss zugeben: Je länger ich über das Thema nachdenke, desto größer ist der Reiz einer starken KI. Nur sie hat das ganze Erlösungspotenzial, das letztendlich alle antreibt und die Quelle der theoretischen Neugier und der Bändigung des Absoluten darstellt. Was eine Gelegenheit für Nauplios wäre, sich an dieser Stelle mal mit ein paar Gedanken dazu einzuschalten. Oder, lieber Nauplios, gefällt dir deine Arbeit nicht? :lol:



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
AufDerSonne
Beiträge: 1236
Registriert: Do 1. Sep 2022, 19:44

So 29. Jan 2023, 13:09

Burkart hat geschrieben :
Sa 28. Jan 2023, 10:50
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht.
Starke KI ist für mich er recht klarer Begriff. Wenn wir mit einer starken KI plaudern würden, könnten wir nicht mehr sagen, ob es ein Mensch oder eine KI ist, die da am anderen Ende sitzt.
Aber ich finde noch etwas anderes wichtig. Bei einer starken KI ist das Denken eine reine Rechenprozedur. Nichts anderes. Ich denke, da sind wir uns einig.
Ein Computer kann im Grunde nun einmal nur rechnen, also mit der formalen Logik zusammen. Beim Menschen wissen wir nicht, ob er im Grunde auch nur rechnet, wenn er denkt. Es wäre nicht ausgeschlossen. Aber bei einer KI ist das sicher. Weiter ist eine KI rein elektrisch und nicht biologisch, das könnte ein wichtiger Aspekt sein beim Vergleich mit dem Menschen.

Auch denke ich, dass eine KI viel mehr Wissen als ein Mensch haben könnte, da sie einen enormen Speicher hätte, aber sie könnte nicht so gut mit dem Wissen umgehen wie ein Mensch. Das nur so eine Idee von mir.

Vielleicht könnte man sich mehr mit schwacher KI befassen, denn diese gibt es schon. Und dann von der schwachen auf eine mögliche starke KI schliessen. So ein Vorschlag zum methodischen Vorgehen.
Insgesamt sollten wir viel mehr davon ausgehen, was es jetzt schon gibt bei Computern. Es ist schon viel möglich und wird auch gebraucht. Also mehr vom Ist-Zustand ausgehen und nicht vom Soll-Zustand.

Natürlich könnte man Intelligenz, die ähnlich ist wie beim Menschen, einfach simulieren. Aber fragt einmal eine KI, was sie heute gegessen hat? ;)



Ohne Gehirn kein Geist!

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 13:15

Burkart hat geschrieben :
So 29. Jan 2023, 11:19
@Lucian Wing
Erstmal vorweg: Es geht mir nicht um "moralisches Gesülze". Der Mensch erschafft die KI und hat es damit in der Hand, als sein Werkzeug sie grundlegend zu formen (programmieren) und langfristig zu "erziehen" (trainieren, Daten zukommen zu lassen).
Ok, das ist halt dann die biblische Schöpfungsgeschichte in einem technologisierten Narrativ. Jede Institution (ob nun staatlich oder privat) wird sich eine nach ihren Interessen und finanziellen Möglichkeiten "schöpfen". Putin bräuchte gerade digitale Kampfrekruten, der Ravensburger Verlag einen Sensitivity Reader, ich einen Vermögensverwalter, die dementen Heimbewohner ein Pflegerlein, ein dicker, hässlicher und gehemmter Mensch einen Gesprächs- und/oder Sexroboter usw.

Philosophisch fällt das weiter hinter Nietzsches Übermenschen zurück. Und wie ich dir schon sagte: Wenn so ein Ding in diesem Sinne, also nicht offen, programmiert ist, dann verstehe ich den ganzen Hype um so eine Maschine nicht. Es geht doch im Prinzip nur darum, nicht mehr Sklaven aus Afrika im Schiff zu holen, sondern welche zu programmieren.

Obwohl ich die schon erwähnten materiellen Fragen für wichtig halte, gibt es auch psychologische. Als ich gerade Julien Greens große Trilogie des Südens (Von fernen Ländern, Sterne des Südens, Dixie) las, konnte man sehen, was Menschen ohne jede Arbeit und ohne jeden Geist mit ihrer Zeit anfangen. Wenn nun Roboter alles übernehmen und besser können als Menschen - was werden die machen? Den ganzen Tag Kreuzworträtsel lösen (der Roboter lacht sich tot), Bücher lesen, Musik hören, ins Museum gehen, mit dem humanoiden Roboter vögeln, ans Meer fahren? Halbwegs gut programmierte Roboter werden alles besser können als Menschen. Und dann?

Ich könnte gut damit leben zwischen meinen Bücherwänden, wenn Roboter übernehmen - solange sie nicht auf die Idee kommen, dass diese Art von Haustieren oder Yahoos eigentlich völlig nutzlos sind. Denn, wer Leopardi gelesen hat, weiß das ja, eine Menschheit ohne Probleme und Aufgaben hat die Neigung, sich selbst ausrotten zu wollen. Die Hoffnung auf einen weiteren Zuwachs an Glück, einer der Urtriebe der Neugier, rrfüllt sich ja nicht mehr. Deshalb müsste man im Sinne Leopardis "Geschichte des Menschengeschlechts" die Roboter so programmieren, dass sie den Menschen wieder bestimmte Plagen bereiten, die in ihnen Hoffnung auf ein "Besser" erzeugen.
Zuletzt geändert von Lucian Wing am So 29. Jan 2023, 13:18, insgesamt 2-mal geändert.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 13:16

Lucian Wing hat geschrieben :
So 29. Jan 2023, 12:21
Burkart hat geschrieben :
So 29. Jan 2023, 11:29
Lucian Wing hat geschrieben :
So 29. Jan 2023, 11:07
Um den vorigen Beitrag mal mit einem praktischen Beispiel zu ergänzen:

Eine KI, dich keinen Egoismus und keine Lust (auf Sex) einprogrammiert hätte, für die wäre die Lektüre von Nabokovs "Lolita" völlig unverständlich.
Und wäre das so schlimm? ;) Muss KI alles wie ein Mensch genau nachvollziehen können? Ich finde nicht.
Als Mann können wir auch Monatsblutungen nicht nachempfinden und wollen es sicher auch nicht (und können sie trotzdem hinreichend verstehen).
Und sie könnte alles Verhalten, in dem sich Egoismus oder Lust ausdrücken, nicht verstehen, sie wäre also in Bezug auf menschliches Verhalten und auf alle Texte, die ein gewisses Verständnis von Egoismus und Lust voraussetzen, vollständig blöd.
Nicht vollständig bzw. unbedingt, wenn man ihr "Egoismus" und "Lust" erklärt, also grob als menschlich-biologisches Streben aufgrund seiner Bedürfnisse. Bedürfnisse sind etwas, was erfüllt werden möchte, als letztlich zu erfüllende Ziele. Und genau diese kann eine KI verstehen, wenn ihr der Zielbegriff klar ist, der aus meiner Sicht grundlegend für starke KI sein sollte.
Nein, sie wird nur verstehen, wie sich das vielleicht ausdrücken könnte.
Mir ist nicht klar, was du damit sagen willst. Worauf bezieht sich das Nein? Worauf der Rest des Satzes?
Eine KI muss nicht sprachlich etwas ausdrücken können, um zu verstehen; sie kann z.B. auch (anders) handeln, um es zu zeigen.
Aber ich bin syboks Meinung aus dem ChatGPT-Strang, dass wir irgendwann aufhören sollten, um sprachliche Fragen oder Begriffsfragen der Intelligenz, des Lernens, des Verstehens zu kreisen und alle miteinander nichts zu gebären.
Von mir aus gerne. Ich habe konkrete Ansätze zur Entwicklung von stärkerer KI und diese immer mal wieder einfließen lassen wie die der zu erfüllenden Ziele.
Weil wir schlicht nicht wissen, was Bewusstsein ist und wie es entsteht, wie physikalische und biochemische Prozesse dazu führen, dass jemand einen Gedanken hat - wieder so ein Ding, über dessen Definition man sich weiterstreiten könnte.
Dann vergiss auch (erstmal zumindest) "Bewusstsein" und "Gedanken" und orientiere dich an (computer-)technisch machbaren Begriffen (wie "Zielerreichung"). Nach meiner Erfahrung ist es hier nur kaum möglich, ob nun mangels fehlenden Wissens oder Wollens.
Du als Fan von KIs solltest aus meiner Sicht einmal Folgendes tun: Denk mal wie die KI, halte dich also nicht an wechselnden Moden irgendwelcher weltanschaulichen, moralisch grundierter Muster, sondern denke probabilistisch. Risikoabwägung, Nutzenabwägung, Wahrscheinlichkeiten. Sei konsequent wie Lichtenberg oder Nietzsche, die von einem Szenario "es denkt" und nicht "ich denke" ausgehen.
Keine Sorge, mich interessieren keine wechselnden Moden, sondern ich denke seit vielen Jahren an die Möglichkeiten symbolischer KI und nicht z.B. neuronalen Netzen (die zu meiner Studienzeit Mode wurden).
Womit willst du auf "probabilistisch. Risikoabwägung, Nutzenabwägung, Wahrscheinlichkeiten" hinaus? Wie eine KI damit klarkommen kann oder "nur", ob KI für uns Nutzen hat? In der Annahme, dass ersteres: Das symbolisch darzustellen sind wichtige Punkte.
Ich muss zugeben: Je länger ich über das Thema nachdenke, desto größer ist der Reiz einer starken KI. Nur sie hat das ganze Erlösungspotenzial, das letztendlich alle antreibt und die Quelle der theoretischen Neugier und der Bändigung des Absoluten darstellt.
Interessant. Alleine insofern haben meine KI-Beiträge hier ja schon etwas bewirkt.
Was eine Gelegenheit für Nauplios wäre, sich an dieser Stelle mal mit ein paar Gedanken dazu einzuschalten. Oder, lieber Nauplios, gefällt dir deine Arbeit nicht? :lol:
Gerne, mal schauen, ob dein Aufruf Erfolg hat :)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
AufDerSonne
Beiträge: 1236
Registriert: Do 1. Sep 2022, 19:44

So 29. Jan 2023, 13:25

Lucian Wing hat geschrieben :
So 29. Jan 2023, 13:15
Ok, das ist halt dann die biblische Schöpfungsgeschichte in einem technologisierten Narrativ. Jede Institution (ob nun staatlich oder privat) wird sich eine nach ihren Interessen und finanziellen Möglichkeiten "schöpfen". Putin bräuchte gerade digitale Kampfrekruten, der Ravensburger Verlag einen Sensitivity Reader, ich einen Vermögensverwalter, die dementen Heimbewohner ein Pflegerlein, ein dicker, hässlicher und gehemmter Mensch einen Gesprächs- und/oder Sexroboter usw.
Guter Punkt. Die Interessen des Schöpfers der KI fliessen zwangsläufig in die KI hinein.
Wenn diese Schöpfer Institutionen wie Google und Microsoft usw. sind, dann mache ich mir ein wenig Sorgen.
Auch bei Putin wäre ich etwas besorgt, nur das der sicher keine KI kreiert.

Ich denke, das ist ein wichtiger Punkt. Wer verfolgt welche Interessen, wenn es um KI geht? Ist eine absolut neutrale KI möglich?



Ohne Gehirn kein Geist!

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

So 29. Jan 2023, 13:45

Lucian Wing hat geschrieben :
So 29. Jan 2023, 13:15
Als ich gerade Julien Greens große Trilogie des Südens (Von fernen Ländern, Sterne des Südens, Dixie) las, konnte man sehen, was Menschen ohne jede Arbeit und ohne jeden Geist mit ihrer Zeit anfangen. Wenn nun Roboter alles übernehmen und besser können als Menschen - was werden die machen? Den ganzen Tag Kreuzworträtsel lösen (der Roboter lacht sich tot), Bücher lesen, Musik hören, ins Museum gehen, mit dem humanoiden Roboter vögeln, ans Meer fahren? Halbwegs gut programmierte Roboter werden alles besser können als Menschen. Und dann?

Ich könnte gut damit leben zwischen meinen Bücherwänden, wenn Roboter übernehmen - solange sie nicht auf die Idee kommen, dass diese Art von Haustieren oder Yahoos eigentlich völlig nutzlos sind. Denn, wer Leopardi gelesen hat, weiß das ja, eine Menschheit ohne Probleme und Aufgaben hat die Neigung, sich selbst ausrotten zu wollen. Die Hoffnung auf einen weiteren Zuwachs an Glück, einer der Urtriebe der Neugier, rrfüllt sich ja nicht mehr. Deshalb müsste man im Sinne Leopardis "Geschichte des Menschengeschlechts" die Roboter so programmieren, dass sie den Menschen wieder bestimmte Plagen bereiten, die in ihnen Hoffnung auf ein "Besser" erzeugen.
Exakt was mich seit ChatGPT beschäftigt schön kondensiert ausgedrückt. Das System ist gerade noch schlecht genug, dass wir noch darüber diskutieren können und aber gut genug, dass die Diskussionen nicht mehr rein theoretisch sind. Deshalb halte ich, unter der Voraussetzung, dass ChatGPT verbessert werden kann, dieses System für eine echte Revolution.

Was machen wir noch hier?
Wozu brauchen wir noch Unternehmen, Berufe, zwischenmenschliche Beziehungen, Geld, Bildung etc.? Komm ich auf die Welt - muss noch kurz rudimentär Sprache lernen - und dann schalte ich aber gleich den Fernseher ein, resp. lese Bücher? Ist der Zweck meines Lebens, dass ich mich von Geburt bis Tod unterhalten lasse während alles Körperliche von den Maschinen bearbeitet werden? Die Fragen sind zwar noch nicht wirklich konkret, werden aber mit rasanter Geschwindigkeit irgendwie akut - man kann glaube ich eine sowohl für das Individuum als auch ganze Gesellschaften und sogar den Menschen als Spezies äusserst schmerzhafte - und möglicherweise brandgefährliche ("...den Menschen Plagen bereiten...") - Sinnkrise aufkommen sehen.

Wir haben hier diskutiert, wie eine KI intrinsisch motiviert sein könnte, warum "tut sie überhaupt, was sie dann tut"? Womöglich war unsere Blickrichtung falsch, womöglich fallen unsere Probleme schneller weg, als wir einer allfälligen KI solche bereiten wollen - nicht die Frage wie wir die KI intrinsisch motivieren können scheint das sich aufdrängende Problem zu sein, sondern umgekehrt wie wir uns noch motivieren wenn sie uns wegfallen.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 14:45

AufDerSonne hat geschrieben :
So 29. Jan 2023, 13:09
Burkart hat geschrieben :
Sa 28. Jan 2023, 10:50
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht.
Starke KI ist für mich er recht klarer Begriff. Wenn wir mit einer starken KI plaudern würden, könnten wir nicht mehr sagen, ob es ein Mensch oder eine KI ist, die da am anderen Ende sitzt.
Das Turingtest-Kriterium ist sicher ein nettes hinsichtlich einer Blackbox. Allerdings vergleichst du hier quasi direkt Mensch und KI; starke KI kann auch anders "intelligent(er)" wie(als) ein Mensch sein. Auch mag man KI anhand internen Kriterien beurteilen (wollen; Whitebox), sonst kann man ChatGPT schon Richtung starke KI ansehen.
Vielleicht könnte man sich mehr mit schwacher KI befassen, denn diese gibt es schon. Und dann von der schwachen auf eine mögliche starke KI schliessen. So ein Vorschlag zum methodischen Vorgehen.
Das geschieht sicherlich auch i.a. (OK, nicht gerade unbedingt hier im Forum ;) )
Insgesamt sollten wir viel mehr davon ausgehen, was es jetzt schon gibt bei Computern. Es ist schon viel möglich und wird auch gebraucht. Also mehr vom Ist-Zustand ausgehen und nicht vom Soll-Zustand.
Klar.
Natürlich könnte man Intelligenz, die ähnlich ist wie beim Menschen, einfach simulieren. Aber fragt einmal eine KI, was sie heute gegessen hat? ;)
Was immer "simulieren" hier bedeuten soll. Kann man z.B. auch etwas wie "Planung" nur simulieren, ohne zu planen?
MIt "Essen" spielst du auf reale Existenz in der Welt an, außerdem auf eine, die Essen benötigt... höchstens beim Roboter hinsichtlich Energie-Bedarf nachvollziehbar.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 15:01

Lucian Wing hat geschrieben :
So 29. Jan 2023, 13:15
Burkart hat geschrieben :
So 29. Jan 2023, 11:19
@Lucian Wing
Erstmal vorweg: Es geht mir nicht um "moralisches Gesülze". Der Mensch erschafft die KI und hat es damit in der Hand, als sein Werkzeug sie grundlegend zu formen (programmieren) und langfristig zu "erziehen" (trainieren, Daten zukommen zu lassen).
Ok, das ist halt dann die biblische Schöpfungsgeschichte in einem technologisierten Narrativ.
Nur ungefähr, aber KI wird halt irgendwie geschaffen, wie auch immer man es nennt.
Jede Institution (ob nun staatlich oder privat) wird sich eine nach ihren Interessen und finanziellen Möglichkeiten "schöpfen". Putin bräuchte gerade digitale Kampfrekruten, der Ravensburger Verlag einen Sensitivity Reader, ich einen Vermögensverwalter, die dementen Heimbewohner ein Pflegerlein, ein dicker, hässlicher und gehemmter Mensch einen Gesprächs- und/oder Sexroboter usw.
Das Problem hat Asimov schon vor Jahrzehnten gesehen in dem Sinne, dass in seinen Geschichten Roboter und ihre Technologie nicht jedem einfach so überlassen/verkauft hatte, however.
Dass Technik in unserer Welt sehr den Finanzstarken zur Verfügung steht, ist ja wirklich nichts Neues - ein Grund mehr, dass die Arm-Reich-Schere weiter aufgeht. Aber solange keine (hier) Maschinensteuer u.ä. eingeführt wird und die Kapitalisten sich weiter durchsetzen dürfen...
Philosophisch fällt das weiter hinter Nietzsches Übermenschen zurück. Und wie ich dir schon sagte: Wenn so ein Ding in diesem Sinne, also nicht offen, programmiert ist, dann verstehe ich den ganzen Hype um so eine Maschine nicht. Es geht doch im Prinzip nur darum, nicht mehr Sklaven aus Afrika im Schiff zu holen, sondern welche zu programmieren.
Tja, es sind eben nicht nur physische und rechnerische Eigenschaften von Maschinen, sondern auch, dass der Mensch sich halt (weiter) in seinem Geist herausgefordert fühlt.
Obwohl ich die schon erwähnten materiellen Fragen für wichtig halte, gibt es auch psychologische. Als ich gerade Julien Greens große Trilogie des Südens (Von fernen Ländern, Sterne des Südens, Dixie) las, konnte man sehen, was Menschen ohne jede Arbeit und ohne jeden Geist mit ihrer Zeit anfangen. Wenn nun Roboter alles übernehmen und besser können als Menschen - was werden die machen? Den ganzen Tag Kreuzworträtsel lösen (der Roboter lacht sich tot), Bücher lesen, Musik hören, ins Museum gehen, mit dem humanoiden Roboter vögeln, ans Meer fahren? Halbwegs gut programmierte Roboter werden alles besser können als Menschen. Und dann?
"Besser" in welchem Sinne bleibt weiterhin die Frage wie bei vielen Maschinen. Roboter werden eben nicht alles übernehmen und besser können; wir Menschen können uns womöglich mehr auf unsere Stärken konzentrieren, z.B. wie wir leben wollen und diese Probleme angehen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten