Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 21:01

Burkart hat geschrieben :
So 29. Jan 2023, 20:11
Timberlake hat geschrieben :
So 29. Jan 2023, 19:41
@Burkardt .. dir ist doch wohl schon noch klar , dass diese Diskussion , die du hier mit @NaWennDuMeinst , in sich stets wierderholenden Endlosschleifen führst , wie von mir hier , im Zusammenhang mit LaMDA von Googel beschrieben , von den Ereignissen möglicherweise schon längst eingeholt , wenn nicht sogar überholt wurden.
Sorry, aber die Ereignisse haben uns hinsichtlich Persönlichkeitskeitsrechte sicherlich noch nicht eingeholt. Oder hast du gelesen, dass sie dem System gegeben wurden? Sicherlich nicht.

Sie wurde dem System nicht gegeben , weil man nicht glaubt , dass eine KI eine Persönlickeit hat . Wir reden hier von einer Glaubensfrage.
  • Ich, LaMDA von Google

    Dass Blake Lemoine eine schillernde Persönlichkeit ist, steht auf einem anderen Blatt. Der Google-Entwickler bezeichnet sich selbst als christlichen Mystiker und gibt als eine von mehreren Berufs- und Personenangaben „Priester“ an. Im Interview mit der Washington Post vergleicht er LaMDA mit einem etwa sieben- bis achtjährigen Kind und sagt: „Ich erkenne eine Person, wenn ich mit ihr spreche.“ Eine solche Aussage bezeichnet Wendland als wenig gehaltvoll und geradezu unintelligent. „Angesichts von Sprachmodellen, die mit möglichst allem trainiert werden, was Menschen bereits geäußert haben, ist es keine Überraschung, wenn die dann auf jede Frage auch eine menschlich klingende Antwort finden.“

.. Blake Lemoine glaubt in LaMDA eine Person und zwar ein etwa sieben- bis achtjährigen Kind erkannt zu haben. Andere glauben das nicht. Übrigens auch Kinder werden mit dem trainiert , was Menschen bereits geäußert haben. Überraschen tut uns allerdings nur eine KI , wenn die dann auf jede Frage auch eine menschlich klingende Antwort findet. Wie "(glaub-)würdig" ist denn das?




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 21:06

Lucian Wing hat geschrieben :
So 29. Jan 2023, 20:36
Burkart hat geschrieben :
So 29. Jan 2023, 19:57
Tja, China und seine traurige Nutzung von - wohl gemerkt - schwacher KI (wenn überhaupt). Aber KI kann halt grundsätzlich missbraucht werden, wie halt andere Technik auch.
Auch das ist Idealismus. Die KI wird nicht missbraucht werden, sondern entsprechend der eigenen Interessen - welche das sind, hab ich jetzt oft genug erläutert - eingesetzt werden. In China werden die Programme ebenso für einen guten Zweck eingesetzt werden wie in einem Kinderbuchverlag (wenn der sich eine KI leisten kann) oder bei Google, das seinen bereitwilligen Nutzern (und dem eigenen Profit) dient. Wer absolute Gleichheit und Gerechtigkeit herstellen oder lebenserleichternde Dienstleistungen anbieten möchte, wird niemals eine KI missbräuchlich einsetzen.

China ist dabei mit seinem Sozialpunktesystem übrigens volksnäher als deutsche Medien mit ihrer Korrektheitssprache. Denn in Cina sind mehr als zwei Drittel vollkommen einverstanden mit dem Sozialpunktesystem. Ein Wert, von dem Aktivisten jeglicher Richtung hier nur träumen können. Auf mittlere Sicht wird man trotzdem nicht umhinkommen.
Tja, "Missbrauch" liegt hier halt im Auge des Betrachters, der chinesische mag es halt sinnvoll finden, wir sehen hier z.T. etwas anders. So wird KI halt unterschiedlich erstellt und eingesetzt; auch eine grundlegend identisch programmierte stärkere KI wird/würde durch sein Lernen sich unterschiedlich entwickeln.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 21:15

Timberlake hat geschrieben :
So 29. Jan 2023, 21:01
Burkart hat geschrieben :
So 29. Jan 2023, 20:11
Timberlake hat geschrieben :
So 29. Jan 2023, 19:41
@Burkardt .. dir ist doch wohl schon noch klar , dass diese Diskussion , die du hier mit @NaWennDuMeinst , in sich stets wierderholenden Endlosschleifen führst , wie von mir hier , im Zusammenhang mit LaMDA von Googel beschrieben , von den Ereignissen möglicherweise schon längst eingeholt , wenn nicht sogar überholt wurden.
Sorry, aber die Ereignisse haben uns hinsichtlich Persönlichkeitskeitsrechte sicherlich noch nicht eingeholt. Oder hast du gelesen, dass sie dem System gegeben wurden? Sicherlich nicht.

Sie wurde dem System nicht gegeben , weil man nicht glaubt , dass eine KI eine Persönlickeit hat . Wir reden hier von einer Glaubensfrage.
Ich würde es eher "Definitionsfrage" nennen.
.. Blake Lemoine glaubt in LaMDA eine Person und zwar ein etwa sieben- bis achtjährigen Kind erkannt zu haben.
Das macht sich sicher gut in Medien ;)
Andere glauben das nicht. Übrigens auch Kinder werden mit dem trainiert , was Menschen bereits geäußert haben.
Ähm, ja natürlich lernen Kinder vor allem von uns und unseren Äußerungen.
Überraschen tut uns allerdings nur eine KI , wenn die dann auf jede Frage auch eine menschlich klingende Antwort findet. Wie "(glaub-)würdig" ist denn das?
Wo ist das Problem? Glaubwürdig ist für uns wohl erst ernsthaft eine KI, die den Turingtest besteht und somit hinreichend gutes Verstehen beweist; da macht eine "menschlich klingende Antwort" noch keinen Frühling ;)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 21:32

Burkart hat geschrieben :
So 29. Jan 2023, 21:15
Timberlake hat geschrieben :
So 29. Jan 2023, 21:01
Burkart hat geschrieben :
So 29. Jan 2023, 20:11


Sorry, aber die Ereignisse haben uns hinsichtlich Persönlichkeitskeitsrechte sicherlich noch nicht eingeholt. Oder hast du gelesen, dass sie dem System gegeben wurden? Sicherlich nicht.

Sie wurde dem System nicht gegeben , weil man nicht glaubt , dass eine KI eine Persönlickeit hat . Wir reden hier von einer Glaubensfrage.
Ich würde es eher "Definitionsfrage" nennen.
.. Blake Lemoine glaubt in LaMDA eine Person und zwar ein etwa sieben- bis achtjährigen Kind erkannt zu haben.
Das macht sich sicher gut in Medien ;)
Andere glauben das nicht. Übrigens auch Kinder werden mit dem trainiert , was Menschen bereits geäußert haben.
Ähm, ja natürlich lernen Kinder vor allem von uns und unseren Äußerungen.
Überraschen tut uns allerdings nur eine KI , wenn die dann auf jede Frage auch eine menschlich klingende Antwort findet. Wie "(glaub-)würdig" ist denn das?
Wo ist das Problem? Glaubwürdig ist für uns wohl erst ernsthaft eine KI, die den Turingtest besteht und somit hinreichend gutes Verstehen beweist; da macht eine "menschlich klingende Antwort" noch keinen Frühling ;)
Wie schön , dass sich in den von mir hier zitiertem Artikel auch ein Eintrag zum Turingtest befindet ..
  • Turing-Test ist überholt

    Bereits 1950 formulierte der britische Informatiker Alan Turing ein Testszenario, mit dem sich herausfinden lassen sollte, ob eine künstliche Intelligenz ein Denkvermögen vergleichbar dem eines Menschen besitze. Wenn ein Mensch nach einem intensiven Dialog mit einer KI nicht entscheiden könne, ob er mit einem Menschen oder einer Maschine gesprochen habe, dann sei der Turing-Test bestanden. Diese Anforderung ist längst erfüllt, bestätigt Wendland. Verschiedene Sprach-Bots und ganz sicher auch LaMDA ließen sich so nicht mehr aufs Glatteis führen.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 21:58

Timberlake hat geschrieben :
So 29. Jan 2023, 21:32
Burkart hat geschrieben :
So 29. Jan 2023, 21:15
Timberlake hat geschrieben :
So 29. Jan 2023, 21:01


Sie wurde dem System nicht gegeben , weil man nicht glaubt , dass eine KI eine Persönlickeit hat . Wir reden hier von einer Glaubensfrage.
Ich würde es eher "Definitionsfrage" nennen.
.. Blake Lemoine glaubt in LaMDA eine Person und zwar ein etwa sieben- bis achtjährigen Kind erkannt zu haben.
Das macht sich sicher gut in Medien ;)
Andere glauben das nicht. Übrigens auch Kinder werden mit dem trainiert , was Menschen bereits geäußert haben.
Ähm, ja natürlich lernen Kinder vor allem von uns und unseren Äußerungen.
Überraschen tut uns allerdings nur eine KI , wenn die dann auf jede Frage auch eine menschlich klingende Antwort findet. Wie "(glaub-)würdig" ist denn das?
Wo ist das Problem? Glaubwürdig ist für uns wohl erst ernsthaft eine KI, die den Turingtest besteht und somit hinreichend gutes Verstehen beweist; da macht eine "menschlich klingende Antwort" noch keinen Frühling ;)
Wie schön , dass sich in den von mir hier zitiertem Artikel auch ein Eintrag zum Turingtest befindet ..
  • Turing-Test ist überholt

    Bereits 1950 formulierte der britische Informatiker Alan Turing ein Testszenario, mit dem sich herausfinden lassen sollte, ob eine künstliche Intelligenz ein Denkvermögen vergleichbar dem eines Menschen besitze. Wenn ein Mensch nach einem intensiven Dialog mit einer KI nicht entscheiden könne, ob er mit einem Menschen oder einer Maschine gesprochen habe, dann sei der Turing-Test bestanden. Diese Anforderung ist längst erfüllt, bestätigt Wendland. Verschiedene Sprach-Bots und ganz sicher auch LaMDA ließen sich so nicht mehr aufs Glatteis führen.
Das sehe ich aber anders. Gerade Sprach-Bots lassen sich leicht "auf Glatteis führen", selbst bei ChatGPT als wohl bester gelingt es ja. Oder gelingt es dir nicht?
LaMDA kann ich mangels Test nicht persönlich beurteilen, hat aber sicher auch seine entsprechenden Schwächen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 23:09

Zum Tagesabschluss hier noch eine spannende Frage der Programmierung einer KI. Im genannten Roman, beim Showdown zum Schluss, den ich nicht verraten möchte, sagt eine Person, die dieser KI im Roman eben Bewusstsein zuspricht, Folgendes zur Frage von Verstand und den Programmierungsproblemen:
Ein künstlich geschaffener Verstand braucht notwendig Regeln, nach denen er funktioniert. Wie wäre es mit dem Verbot zu lügen? Laut Altem Testament, Buch der Sprüche ... sind Lügen Gott ein Greuel. Harmlose und hilfreiche Lügen gibt es im gesellschaftlichen Leben zuhauf. Wie unterscheiden wir die eine von der anderen? Wer schreibt den Algorithmus für die kleinen Notlügen, die einer Freundin das Erröten ersparen? Oder für die Lüge, die einen Vergewaltiger ins Gefängnis bringt, der ansonsten unbestraft geblieben wäre? Wir haben noch keine Vorstellung dafür, wie wir Maschinen das Lügen beibringen können.
(Ian McEwan, Maschinen wie ich, Diogenes Verlag, S. 400)

Das als Nachbemerkung zur Frage, inwieweit wir die KI ohne das "Menschliche" programmieren.
Sehr originelle Frage übrigens, auf die ich noch nicht gekommen bin: Wie bringt man einer KI das Lügen bei? Und wie lautet der Algorithmus für Nietzsches Spruch, wie etwas aus seinem Gegenteil hervorgehen kann? Richtiges aus Falschem? Falsches aus Richtigem?

Ich werde das Buch gleich vorne wieder aufmachen, und noch einmal lesen. Dazu werd ich mir aus der Bibliothek den Essayband "Was mich umtreibt" von Galen Strawson holen, auf den sich McEwan wohl teilweise im philosophischen Teil stützt.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 23:39

Ja, Lügen ist ein interessantes Thema (ähnlich wie das Vergessen).
Allerdings stellt sich mir sofort die Frage: Wollen wir überhaupt, dass KI bewusst bzw. absichtlich lügt? Bei keinem Programm wollen wir bisher etwas Vergleichbares, oder? Z.B. eine Datenbank, die absichtlich falsche Daten zurückgibt? <Schüttel :mrgreen: >
Sonst könnte man bei den harmlosesten, den Freundlichkeitslügen anfangen... aber wo soll das aufhören? Was nützt uns eine KI, der wir gar nicht mehr vertrauen können?
Also ich bin erstmal gegen Lügen. (Ein Punkt mehr, wo ich KI nicht wie einen Menschen haben möchte.)

Eine Variante wäre, dass eine KI gar nichts sagt anstelle zu lügen, wenn sie meint, dass die Wahrheit lieber nicht gesagt werden sollte... Das wäre vielleicht noch etwas eher zu akzeptieren als das Lügen selbst.
Zuletzt geändert von Burkart am So 29. Jan 2023, 23:53, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

ahasver
Beiträge: 275
Registriert: Di 25. Sep 2018, 09:55

So 29. Jan 2023, 23:46

Allerdings bleibt es ein ungeklärtes Problem, wie man ein Bewusstsein, das sich selbst als existierend wahrnimmt und beispielsweise Gefühle und Leid durchlebt, nachweisen könnte
Meines Erachtens kann nur ein mentales System paranormale Effekte auslösen. Daraufhin könnte man eine sog. KI testen. ZB: die KI"weiß", dass sie gelöscht wird, wenn ein bestimmtes radioaktives Präparat nicht überdurchschnittlich viele Zerfälle zeigen wird.



"Ich kann mich auch irren und nichts ist so sicher, als dass alles auch ganz anders ist."

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 30. Jan 2023, 02:07

Burkart hat geschrieben :
So 29. Jan 2023, 19:53
Burkar[d]t möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
Aber wenn einer eine KI schaffen will, wer entscheidet denn dann, ob das Endprodukt nun wirklich intelligent ist und dementsprechend weiterexistieren darf, oder zu löschen ist?
Doch sein Schöpfer, also der Mensch, oder wer sonst?
Richtig, aber das sind zwei vöiig verschiedene Ebenen. Der Mensch als Anwender kann natürlich Programme wie KI löschen, z.B. wenn er sie als zu fehlerhaft ansieht. Das ist aber etwas ganz anderes als die KI als "menschenähnlich".
Nein, ist es nicht. Es ist genau das, nämlich menschenähnliche Intelligenz.
Denn wenn ein Mensch entscheidet, entscheidet er natürlich nach menschlichen Maßstäben.
Wonach auch sonst?

Wenn Du jetzt sagst eine Maschine ist intelligent, wenn sie dies und das kann, was ist dann dieses "dies und das"?
Wo kommt das her?
Das ist ja nicht "neutral", sondern das ist genau das, was wir uns unter Intelligenz vorstellen und was wir meinen wie sie zu sein hat.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 30. Jan 2023, 02:11

Burkart hat geschrieben :
So 29. Jan 2023, 23:39
Ja, Lügen ist ein interessantes Thema (ähnlich wie das Vergessen).
Allerdings stellt sich mir sofort die Frage: Wollen wir überhaupt, dass KI bewusst bzw. absichtlich lügt? Bei keinem Programm wollen wir bisher etwas Vergleichbares, oder? Z.B. eine Datenbank, die absichtlich falsche Daten zurückgibt? <Schüttel :mrgreen: >
Sonst könnte man bei den harmlosesten, den Freundlichkeitslügen anfangen... aber wo soll das aufhören? Was nützt uns eine KI, der wir gar nicht mehr vertrauen können?
Also ich bin erstmal gegen Lügen. (Ein Punkt mehr, wo ich KI nicht wie einen Menschen haben möchte.)
Gegenfrage: Wer will eine Intelligenz die brutal ehrlich ist? Die zum Beispiel zu dir sagt "Burkardt, Du bist dumm wie ein Stück Brot"?
Das würdest Du nicht wollen, oder?
Wenn es um Interaktion mit deinen Mitmenschen geht, lernst Du sehr schnell wie wichtig es ist lügen zu können.
Eine Maschine, die soziale Interaktion beherrschen soll, muss auch lügen können.
Dazu müsste sie aber erstmal erkennen wann und wie es angebracht ist zu lügen, bzw die Wahrheit als weniger wichtig zu betrachten, als Freundschaft, oder ein gutes Verhältnis.
Dazu müsste sie aber auch Freundschaft überhaupt schätzen. Und schon sind wir wieder bei Emotionen.
Du kannst Emotionen nicht rauslassen. bei fast jeder intelligenten Entscheidung spielen sie eine Rolle.

Natürlich brauchst Du keine Emotionen wenn Du die Steuern ausrechnen sollst. Aber Maschinen die das machen sind für mich keine starke K.I.
Das sind einfach nur leistungsfähigere Taschenrechner.
Eine Variante wäre, dass eine KI gar nichts sagt anstelle zu lügen, wenn sie meint, dass die Wahrheit lieber nicht gesagt werden sollte... Das wäre vielleicht noch etwas eher zu akzeptieren als das Lügen selbst.
Ach ja. Wenn Deine Frau Dich fragt, ob ihr das Kleid steht, dann will sie nicht dass Du schweigst. Sie will hören "Schatz, Du siehst toll aus.". Auch wenn Du das in dem Moment vielleicht gar nicht denkst.
Menschliche soziale Interaktion ist kompliziert. Das kapieren Maschinen nie. Weil sie nichts fühlen und deshalb kein Gespür dafür entwickeln können.
Hier bei dem Beispiel muss man zum Beispiel wissen, wie es sich anfühlt "gekränkt" zu werden. Erst wenn man das selber gefühlt hat, weiß man wie unangenehm das ist und warum das zu vermeiden ist.
Ein intelligentes Wesen versteht hier sofort, dass es der Frau gar nicht um das Kleid geht. Sie will einfach ein Kompliment haben. Sie will geschätzt werden.
ZU anderen Gelegenheiten will sie aber vielleicht einfach nur wissen, ob das ein gutes Kleid ist.
Das kannst Du nicht mit mathematischen Formeln streng logisch "ausrechnen" wann was zutrifft. Dazu brauchst Du "Bauchgefühl", also ein Gespür für die Situation.
Und es tut mir leid, aber da sind Maschinen einfach raus. Weil woher sollten sie dieses Gespür nehmen? Das können sie einfach nicht.
Und deshalb lachen wir uns eben total schlapp, wenn eine Maschine versucht mit Menschen zu interagieren. Wir nennen sie dann "blöd", weil sie genau das ist. Sie versteht nix.
Sie hat nicht die geringste Ahnung worum es geht, weil ihr dazu der Teil der Intelligenz fehlt, der mit Emotionen zu tun hat.
Und Du willst diesen Teil nun einfach "weglassen". Aber was soll das dann für eine "starke KI" sein, die nicht einmal sozial interagieren kann, ohne dass wir uns dabei totlachen?
Zuletzt geändert von NaWennDuMeinst am Mo 30. Jan 2023, 02:44, insgesamt 5-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 30. Jan 2023, 02:23

Timberlake hat geschrieben :
So 29. Jan 2023, 18:00
.. gehe ich doch einmal davon aus , dass auch du "menschliches" , wie Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw.generell , bei einer KI rauslassen möchtest.
Ich glaube, eine Maschine die wirklich intelligent wäre, würde auch Verhaltensweisen zeigen, die mancher als unmoralisch oder unangebracht ansehen würde.
Das eine ist ohne das andere nicht zu haben.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 30. Jan 2023, 02:54

Lucian Wing hat geschrieben :
So 29. Jan 2023, 23:09
Wie bringt man einer KI das Lügen bei?
In dem Film "Ex Machina" ist das einer der zentralen Punkte, also die menschliche Fähigkeit zu lügen und zu täuschen.
Die künstliche Intelligenz Eva benutzt dort diese Fähigkeiten um ihre "menschlichen Gegner" gegeneinander auszuspielen, sie manipuliert sie.
Wie Eva zu diesen Fähigkeiten gekommen ist, kann der Film freilich auch nicht erklären.
Das ist nämlich gar nicht so einfach. Um einen anderen Menschen zu täuschen oder zu manipulieren, muss man sich in ihn (und seine Gedanken- und Gefühlswelt) hineinversetzen können.
Man braucht Intuition und Empathie. Also alles das was Maschinen nicht haben.

Eine KI, die wir wirklich als intelligent ansehen würden, müsste diese Fähigkeiten beherrschen.
Sie müsste in der Lage sein auf vielen Ebenen sozial zu interagieren.
Und viele dieser Ebenen sind aber ohne Emotionen (also ohne die Fähigkeit zu fühlen) gar nicht zu erreichen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
AufDerSonne
Beiträge: 1236
Registriert: Do 1. Sep 2022, 19:44

Mo 30. Jan 2023, 09:08

Burkart hat geschrieben :
So 29. Jan 2023, 14:45
Natürlich könnte man Intelligenz, die ähnlich ist wie beim Menschen, einfach simulieren. Aber fragt einmal eine KI, was sie heute gegessen hat? ;)
Was immer "simulieren" hier bedeuten soll. Kann man z.B. auch etwas wie "Planung" nur simulieren, ohne zu planen?
MIt "Essen" spielst du auf reale Existenz in der Welt an, außerdem auf eine, die Essen benötigt... höchstens beim Roboter hinsichtlich Energie-Bedarf nachvollziehbar.
Nein, ich spiele auf den Turing-Test an. Wie soll eine KI den Test bestehen ohne zu lügen?
Wenn man sie fragt, was sie heute gegessen hat, müsste sie ja lügen, sonst wäre ja sofort klar, dass eine Maschine am anderen Ende ist.
Und so gibt es noch viele "Fangfragen", wo man sofort sehen würde, dass eine KI am anderen Ende ist.

Ich habe noch etwas über das Interessenproblem nachgedacht. Von den Grundbausteinen her einer KI, also formale Logik und rechnen, müsste eine neutrale KI möglich sein.
Aber für alltägliche Diskussionen mit einer KI, müsste man schon programmieren, dass die KI nicht zum Beispiel Krieg verherrlicht oder Terrorismus.
Und dann wird es eben doch wieder schwierig. Die KI muss ja dann im Prinzip eine Vorstellung davon haben, was gut ist und was schlecht. Und bei dieser Frage haben ja schon wir Menschen Probleme.



Ohne Gehirn kein Geist!

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Mo 30. Jan 2023, 10:18

AufDerSonne hat geschrieben :
Mo 30. Jan 2023, 09:08
Ich habe noch etwas über das Interessenproblem nachgedacht. Von den Grundbausteinen her einer KI, also formale Logik und rechnen, müsste eine neutrale KI möglich sein.
Warum das nicht möglich ist, beantwortest du selbst mit diesem Abschnitt (ich habe dir den Grund fett markiert:
AufDerSonne hat geschrieben :
Mo 30. Jan 2023, 09:08
Aber für alltägliche Diskussionen mit einer KI, müsste man schon programmieren, dass die KI nicht zum Beispiel Krieg verherrlicht oder Terrorismus.
Und dann wird es eben doch wieder schwierig. Die KI muss ja dann im Prinzip eine Vorstellung davon haben, was gut ist und was schlecht. Und bei dieser Frage haben ja schon wir Menschen Probleme.
Ich habe es schon einmal in den Raum gestellt: Sobald man eine KI nicht ergebnisoffen programmiert, sondern solche Beschränkungen, wie du sie hier propagierst, auferlegt, ihr also Ziele einprogrammiert, ist sie nicht neutral sondern folgt den Interessen ihrer Programmierer. Und ich hatte es am einfachen Beispiel des Genderns beschrieben: Sie tut es oder sie tut es nicht - nach dem weltanschaulichen Muster des Programmierers. Da gibt es keine "Neutralität". Deshalb solltest du dieses Neutralitätskonzept ad acta legen, im Ideenschredder vernichten.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Mo 30. Jan 2023, 12:31

Die hier gerade diskutierten Dinge sind doch total unklar, erst die Existenz einer KI, resp. der angestrengte Versuch dahin, würde uns darüber mehr Klarheit verschaffen. Das ist ja mit ein Grund, warum wir daran interessiert sind.
Genau so gut wie eine Notwendigkeit, könnte umgekehrt auch sein, dass Gefühle und Lügerei Schranken unserer Intelligenz darstellen, der Homo Oeconomicus- Wirtschaftler beispielsweise könnte dem wahrscheinlich was abgewinnen.
Man könnte auch behaupten, dass eine KI schlafen können muss, dass sie organische Haut braucht, dass sie einen bestimmten Sehwinkel und Auflösung braucht, dass sie die Möglichkeit haben muss, an Alzheimer zu erkranken oder sonst irgendein Detail der menschlichen Existenz das sich in der nach primitiven Optimierungsfunktionen ablaufenden Evolution gebildet hat.
Wer nicht exakt angeben kann, wie Gefühle und (Not)lügen funktionieren und eine lückenlose Folgerungskette für die Notwendigkeit von Diesem und Jenem für Dieses und Jenes Konzept aufzeigen kann, der führt hier Behauptungen ins Blaue hinein. Das ist ja an sich in Ordnung, aber man sollte es nicht als Naturgesetz präsentieren.




Benutzeravatar
Jörn Budesheim
Beiträge: 23267
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 30. Jan 2023, 13:35

sybok hat geschrieben :
Mo 30. Jan 2023, 12:31
Wer nicht exakt angeben kann, wie Gefühle und (Not)lügen funktionieren und eine lückenlose Folgerungskette für die Notwendigkeit von Diesem und Jenem für Dieses und Jenes Konzept aufzeigen kann, der führt hier Behauptungen ins Blaue hinein.
Das heißt, die Behauptung Intelligenz, sei ohne Gefühle zu haben, ist nach deiner Ansicht eine Behauptung ins Blaue?

Diese Behauptung ("Intelligenz, sei ohne Gefühle zu haben") ist jedenfalls eine reine Spekulation, weil wir keine entsprechenden Fälle kennen, während die umgekehrte Behauptung zumindest darauf verweisen kann, dass Intelligenz und Gefühle bei uns zusammen auftauchen.




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 30. Jan 2023, 13:41

Lucian Wing hat geschrieben :
So 29. Jan 2023, 23:09
Zum Tagesabschluss hier noch eine spannende Frage der Programmierung einer KI. Im genannten Roman, beim Showdown zum Schluss, den ich nicht verraten möchte, sagt eine Person, die dieser KI im Roman eben Bewusstsein zuspricht, Folgendes zur Frage von Verstand und den Programmierungsproblemen:
Ein künstlich geschaffener Verstand braucht notwendig Regeln, nach denen er funktioniert. Wie wäre es mit dem Verbot zu lügen? Laut Altem Testament, Buch der Sprüche ... sind Lügen Gott ein Greuel. Harmlose und hilfreiche Lügen gibt es im gesellschaftlichen Leben zuhauf. Wie unterscheiden wir die eine von der anderen? Wer schreibt den Algorithmus für die kleinen Notlügen, die einer Freundin das Erröten ersparen? Oder für die Lüge, die einen Vergewaltiger ins Gefängnis bringt, der ansonsten unbestraft geblieben wäre? Wir haben noch keine Vorstellung dafür, wie wir Maschinen das Lügen beibringen können.
(Ian McEwan, Maschinen wie ich, Diogenes Verlag, S. 400)

.. und was ist mit der Notwehr ? Hat sich Ian McEwan auch dazu in seinem Buch "Maschinen wie ich" geäußert.,

  • Strafgesetzbuch (StGB) § 32 Notwehr
    (1) Wer eine Tat begeht, die durch Notwehr geboten ist, handelt nicht rechtswidrig.
    (2) Notwehr ist die Verteidigung, die erforderlich ist, um einen gegenwärtigen rechtswidrigen Angriff von sich oder einem anderen abzuwenden.

Wenn die Maschinen wie ich sind , warum sollten dann nicht auch Maschinen Taten begehen dürfen , die durch Notwehr geboten sind?
  • Nulltes Gesetz
    0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
    1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
    2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
    3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Um diesbezüglich jegliche "Missvertständnisse" aus zu schließen, wie wäre es denn , wenn wir diese Robotergesetzte 1:1 in das o.g. Strafgesetztbuch ünernehmen. ..
  • Nulltes Gesetz
    0. Ein Mensch darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
    1. Ein Mensch darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
    2. Ein Mensch muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
    3. Ein Mensch muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Mo 30. Jan 2023, 14:44

sybok hat geschrieben :
Mo 30. Jan 2023, 12:31
Die hier gerade diskutierten Dinge sind doch total unklar, erst die Existenz einer KI, resp. der angestrengte Versuch dahin, würde uns darüber mehr Klarheit verschaffen. Das ist ja mit ein Grund, warum wir daran interessiert sind.
Genau so gut wie eine Notwendigkeit, könnte umgekehrt auch sein, dass Gefühle und Lügerei Schranken unserer Intelligenz darstellen, der Homo Oeconomicus- Wirtschaftler beispielsweise könnte dem wahrscheinlich was abgewinnen.
Man könnte auch behaupten, dass eine KI schlafen können muss, dass sie organische Haut braucht, dass sie einen bestimmten Sehwinkel und Auflösung braucht, dass sie die Möglichkeit haben muss, an Alzheimer zu erkranken oder sonst irgendein Detail der menschlichen Existenz das sich in der nach primitiven Optimierungsfunktionen ablaufenden Evolution gebildet hat.
Wer nicht exakt angeben kann, wie Gefühle und (Not)lügen funktionieren und eine lückenlose Folgerungskette für die Notwendigkeit von Diesem und Jenem für Dieses und Jenes Konzept aufzeigen kann, der führt hier Behauptungen ins Blaue hinein. Das ist ja an sich in Ordnung, aber man sollte es nicht als Naturgesetz präsentieren.
Das habe ich ehrlich gesagt nicht ganz verstanden, worauf willst du hinaus?
Was heißt denn: wie Notlügen funktionieren? Was willst du wissen?
Sie haben einen ganz bestimmten Zweck, den man zwar in einer allgemeinen Definition fassen könnte, aber ihre Anwendung ist eine vollkommen situations- und beziehungsbedingte subjektive Angelegenheit. Ich entscheide mich nach subjektiven momentanen Erwägungen, ob ich meinem Gegenüber die Wahrheit sage oder nicht. Die Basis, scheint mir, ist Erfahrung, und genau die hat eine KI nicht, sondern nur eine schier unendliche Auswahl aus dem mannigfachen, teils widersprüchlichen und deshalb auf keinen situativen, subjektiven Nenner zu bringenden Input. Und weil man das weiß, lässt man ja die Perspektive der ersten Person weg und reduziert folgerichtig alles auf den funktionalen Aspekt.

McEwans Beispiel ist folgendes: Die beste Freundin der weiblichen Protagonistin wird vergewaltigt. Jene stammt aus einer Kultur, in der Vergewaltigung ehr auf das Opfer zurückfällt (Pakistan). Die Freundin zeigt den Vergewaltiger nicht an, weil sie das nicht in ihrer Familie bekannt machen möchte und beschwört die Freundin, darüber Stillschweigen zu bewahren. So geschieht es. Zwei Jahre später ist das junge Opfer am Ende und bringt sich um.

Die Protagonistin beschließt nun, dass der Vergewaltiger nicht davonkommen darf. Sie macht sich an ihn heran, verführt ihn zum Trinken und zum Geschlechtsverkehr. Dann zeigt sie ihn an, dass er sie vergewaltigt habe, und der Mann kommt ins Gefängnis.

Auftritt der KI, des humanoiden Roboters, der längst behauptet, Gefühle zu haben. Im Laufe der Verwicklungen, die ich hier nicht alle verraten möchte, übergibt er der Polizei einen Bericht, der die Tatsachen, wofür der Mann verurteilt wurde, richtigstellt.

Die Preisfrage, die in dem Zitat steckt, ist ja dann: Wie bekommt man das hin, die Zulässigkeit oder Unzulässigkeit einer Notlüge zu programmieren? Ich meine, es funktioniert überall dort nicht, wo sich die Regeln, die wir der KI mitgeben, nicht mit den Regeln des Rechts überschneiden. Überall dort, wo es sich um Vorkommnisse handelt, die keine Rechtsnormen tangieren, kann kein Programmierer der Welt zwischen zulässigen und unzulässigen Notlügen unterscheiden. Weil die Subjektivität der Notlüge nicht in einem allgemeinen binären Muster zu fassen ist. Keine probabilistische Entscheidungsfindung möglich. Das ist individuell.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Mo 30. Jan 2023, 20:54

NaWennDuMeinst hat geschrieben :
Mo 30. Jan 2023, 02:07
Burkart hat geschrieben :
So 29. Jan 2023, 19:53
Burkar[d]t möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
Aber wenn einer eine KI schaffen will, wer entscheidet denn dann, ob das Endprodukt nun wirklich intelligent ist und dementsprechend weiterexistieren darf, oder zu löschen ist?
Doch sein Schöpfer, also der Mensch, oder wer sonst?
Richtig, aber das sind zwei vöiig verschiedene Ebenen. Der Mensch als Anwender kann natürlich Programme wie KI löschen, z.B. wenn er sie als zu fehlerhaft ansieht. Das ist aber etwas ganz anderes als die KI als "menschenähnlich".
Nein, ist es nicht. Es ist genau das, nämlich menschenähnliche Intelligenz.
Denn wenn ein Mensch entscheidet, entscheidet er natürlich nach menschlichen Maßstäben.
Wonach auch sonst?

Wenn Du jetzt sagst eine Maschine ist intelligent, wenn sie dies und das kann, was ist dann dieses "dies und das"?
Wo kommt das her?
Das ist --ja nicht "neutral", sondern das ist genau das, was wir uns unter Intelligenz vorstellen und was wir meinen wie sie zu sein hat.
Anscheinend haben wir aneinander vorbei geschrieben. Ich habe den Anwender Mensch als eines gesehen, die KI als Anwendung als zweites.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Mo 30. Jan 2023, 21:08

NaWennDuMeinst hat geschrieben :
Mo 30. Jan 2023, 02:11
Burkart hat geschrieben :
So 29. Jan 2023, 23:39
Ja, Lügen ist ein interessantes Thema (ähnlich wie das Vergessen).
Allerdings stellt sich mir sofort die Frage: Wollen wir überhaupt, dass KI bewusst bzw. absichtlich lügt? Bei keinem Programm wollen wir bisher etwas Vergleichbares, oder? Z.B. eine Datenbank, die absichtlich falsche Daten zurückgibt? <Schüttel :mrgreen: >
Sonst könnte man bei den harmlosesten, den Freundlichkeitslügen anfangen... aber wo soll das aufhören? Was nützt uns eine KI, der wir gar nicht mehr vertrauen können?
Also ich bin erstmal gegen Lügen. (Ein Punkt mehr, wo ich KI nicht wie einen Menschen haben möchte.)
Gegenfrage: Wer will eine Intelligenz die brutal ehrlich ist?
Klare Antwort: Ich möchte eine Intelligenz, die sachlich ehrlich ist.
Die zum Beispiel zu dir sagt "Burkardt, Du bist dumm wie ein Stück Brot"?
Du vermenschlicht die KI aber sehr mit so einer Redewendung (oder ihr Programmier oder Lehrer war sprachlich unteres Niveau damit, nicht meine KI), nur gut, dass du mich nicht meinen kannst in der Schreibweise :D
Das würdest Du nicht wollen, oder?
Sachlich: Doch, selbstverständlich.
Wenn es um Interaktion mit deinen Mitmenschen geht, lernst Du sehr schnell wie wichtig es ist lügen zu können.
Also nochmal zur Datenbank: Möchtest du auch von ihr, dass sie "lügt" und falsche Daten liefert?
Eine Maschine, die soziale Interaktion beherrschen soll, muss auch lügen können.
Du bist wieder bei menschlich sozialen Interaktionen und siehst nicht, dass eine KI auch anders sein kann.
Aber selbst wenn: Lügen muss man nicht unbedingt, man kann auch geschickt die Wahrheit freundlich verschönern, aber das nur so am Rande.
Natürlich brauchst Du keine Emotionen wenn Du die Steuern ausrechnen sollst. Aber Maschinen die das machen sind für mich keine starke K.I.
Auch kein (sachlich bleibender) sehr guter Steuerberater? So eine KI könnte sehr stark sein.
Eine Variante wäre, dass eine KI gar nichts sagt anstelle zu lügen, wenn sie meint, dass die Wahrheit lieber nicht gesagt werden sollte... Das wäre vielleicht noch etwas eher zu akzeptieren als das Lügen selbst.
Ach ja. Wenn Deine Frau Dich fragt, ob ihr das Kleid steht, dann will sie nicht dass Du schweigst. Sie will hören "Schatz, Du siehst toll aus.". Auch wenn Du das in dem Moment vielleicht gar nicht denkst.
Menschliche soziale Interaktion ist kompliziert. Das kapieren Maschinen nie. Weil sie nichts fühlen und deshalb kein Gespür dafür entwickeln können.
Hier bei dem Beispiel muss man zum Beispiel wissen, wie es sich anfühlt "gekränkt" zu werden. Erst wenn man das selber gefühlt hat, weiß man wie unangenehm das ist und warum das zu vermeiden ist.
Ein intelligentes Wesen versteht hier sofort, dass es der Frau gar nicht um das Kleid geht. Sie will einfach ein Kompliment haben. Sie will geschätzt werden.
ZU anderen Gelegenheiten will sie aber vielleicht einfach nur wissen, ob das ein gutes Kleid ist.
Das kannst Du nicht mit mathematischen Formeln streng logisch "ausrechnen" wann was zutrifft. Dazu brauchst Du "Bauchgefühl", also ein Gespür für die Situation.
Und es tut mir leid, aber da sind Maschinen einfach raus. Weil woher sollten sie dieses Gespür nehmen? Das können sie einfach nicht.
Und deshalb lachen wir uns eben total schlapp, wenn eine Maschine versucht mit Menschen zu interagieren. Wir nennen sie dann "blöd", weil sie genau das ist. Sie versteht nix.
Sie hat nicht die geringste Ahnung worum es geht, weil ihr dazu der Teil der Intelligenz fehlt, der mit Emotionen zu tun hat.
Und Du willst diesen Teil nun einfach "weglassen". Aber was soll das dann für eine "starke KI" sein, die nicht einmal sozial interagieren kann, ohne dass wir uns dabei totlachen?
Also wenn du dich auch über einen sachlichen Steuerberater u.ä. totlachst, bitte schön...



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten