Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Timelaios
Beiträge: 35
Registriert: Sa 26. Sep 2020, 22:59

Di 6. Okt 2020, 10:27

Etwas Anderes muss ja nicht immer schlechter sein ... :?:




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Di 6. Okt 2020, 10:35

Ich zeige der Maschine eine Karotte.
Sie "Oh, eine Tomate".

Macht ja nix. Etwas anderes muss ja nicht immer schlechter sein.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timelaios
Beiträge: 35
Registriert: Sa 26. Sep 2020, 22:59

Di 6. Okt 2020, 11:54

:lol:




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 9. Okt 2020, 10:15

Nehmen wir an, ich programmiere ein klassisches Computerprogramm. Ich starte es und das Ergebnis ist nicht so wie ich es beabsichtigt hatte.
Wer trägt hier die Verantwortung für den Fehler? Doch ich als Programmierer, oder?


Nehmen wir weiter an, ich schreibe ein intelligentes Computerprogramm für eine KI. Ich gebe die Rahmenbedingungen programmatisch vor und die Maschine lernt selbstständig.
Dann stelle ich ihr eine Aufgabe, und die Maschine antwortet Müll.
Wer ist dann der Verantwortliche und warum?

Gehen wir noch einen Schritt weiter und stellen wir uns die fortschrittlichste KI vor, die wir uns vorstellen können.
Wenn diese KI Mist macht, wer ist dann verantwortlich?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 08:41

So, Wochenende und einige Zeit = Zeit hier zu antworten :)
NaWennDuMeinst hat geschrieben :
Fr 9. Okt 2020, 10:15
Nehmen wir an, ich programmiere ein klassisches Computerprogramm. Ich starte es und das Ergebnis ist nicht so wie ich es beabsichtigt hatte.
Wer trägt hier die Verantwortung für den Fehler? Doch ich als Programmierer, oder?
Richtig, solange der Bediener des Programms es nicht missbräulich benutzt.
Nehmen wir weiter an, ich schreibe ein intelligentes Computerprogramm für eine KI. Ich gebe die Rahmenbedingungen programmatisch vor und die Maschine lernt selbstständig.
Dann stelle ich ihr eine Aufgabe, und die Maschine antwortet Müll.
Wer ist dann der Verantwortliche und warum?
Das kann unterschiedliche Gründe haben (wieder mal weg vom Schwarz-Weiß-Denken).
Natürlich kann der ursprüngliche Programmierer verantwortlich sein; eine KI sollte schon recht ausgereift sein vorm echten Einsatz.
Es kann aber auch gut sein, dass der Lehrer/Trainierer der KI verantwortlich ist, wenn er schlechte oder gar fehlerhafte Beispiele gelehrt hat.
Oder letztlich u.a. auch der Anwender, wenn dieser ähnlich dem Lehrer ihr vor allem Schrott beigebracht hat.
Gehen wir noch einen Schritt weiter und stellen wir uns die fortschrittlichste KI vor, die wir uns vorstellen können.
Wenn diese KI Mist macht, wer ist dann verantwortlich?
S.o. Vermutlich passt obige Beschreibung hier sogar noch besser hin, weil du die KI im vorigen Beispiel noch etwas einfacher angenommen hast.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 08:50

Nun weiter zu etwas älteren Beiträgen.
NaWennDuMeinst hat geschrieben :
Di 6. Okt 2020, 07:19
Burkart hat geschrieben :
Di 6. Okt 2020, 07:06
NaWennDuMeinst hat geschrieben :
Di 6. Okt 2020, 00:17
Ich verstehe nicht so ganz was das mit Denken oder Intelligenz zu tun haben soll.
Sich in einem Raum orientieren, das können sogar die primitivsten Einzeller.
Aber von "Denken" oder "Intelligenz", so wie ich diese Dinge verstehe, ist das noch meilenweit entfernt.
An der Stelle ist Intelligenz noch nicht mal in Sichtweite.
Es sollte dabei nur um das Verstehen von "links" gehen, wo doch das Verstehen als nicht für KI nicht machbar sein soll, oder habe ich dich/euch falsch verstanden?
Die KI kann also den Begriff/das Wort verstehen.
Wie kommst Du darauf?
Das wüsstest du, wenn du mehr zitiert hättest, halt was ich unter Verstehen hinsichtlich von links verstehe.
Das ist das was Jörn meint, wenn er sagt dass man hier zu schnell mit Begriffen wie "verstehen" bei der Hand ist.
Das Wort ist sehr unterschiedlich nutzbar. Oder meinst, dass das Wort so eindeutig ist?
Ich weiß nicht wie man das testen könnte, ob da wirklich was verstanden wurde.
Verstehen kann auf sehr unterschiedlichen Ebenen geschehen.
Was heißt es z.B. "1+1=2" verstanden zu haben? Für Kleinkinder ist es etwas ganz anderes als für erwachsene Menschen, zumindest Mathematikern (hoffentlich ;) )
Vielleicht indem man die Maschine anmalt, sie sich dann in einem Spiegel betrachten lässt, und sie dann fragt an welcher "Körperseite" sie bemalt ist (sie müsste an der Stelle ja genau umgekehrt "denken" um "links" und "rechts" richtig zu erkennen).
Wie du an deinem eigenen Fehler bemerkt hast, ist das schon nicht selbstverständlich bzw. trivial.
An der Stelle müsste man mal mit Biologen sprechen, die sich u.a. damit beschäftigen wie man Intelligenz bei Tieren ermittelt.
Aber daran fehlt es ja schon. Bei Tieren gibt es eine Reihe von Test die man durchführt. Aber auch da ist man sich über die Aussagekraft solcher Tests nicht immer einig.
Beim Menschen übrigens auch nicht.
Da hast du sicherlich recht.
Ich hatte meine Verstehen-Kriterien auch nur auf meine kleine 2D-Welt bezogen, als ersten Ansatz sozusagen.
Zuletzt geändert von Burkart am Sa 10. Okt 2020, 09:02, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 08:58

NaWennDuMeinst hat geschrieben :
Di 6. Okt 2020, 07:37
Burkart hat geschrieben :
Di 6. Okt 2020, 07:27
Auch hier fehlt auch die Erwartung. Wenn man Tisch und Stühle erwartet, kann man sich die Apfelsinenkisten schon viel besser als Stühle vorstellen,
Jein. Es ist nicht nur Erwartung. Ich muss an der Stelle eine Vorstellung von der Funktion der Objekte haben.
Ich bin mir sicher, dass so eine Anordnung auch nicht jeder Mensch (immer) als Stühle und Tische ansehen wird. Das dürfte von der Situation, vom Menschen u.ä. abhängen - entsprechend bei der KI.
Wenn man darauf eingestellt ist, etwas wie Sitzgelegenheiten u.ä. vorzufinden oder auch z.B. solche zu suchen, ist das Erkennen viel höher, als wenn man z.B. in der Kisten-Entsorgungs-Branche ist ;)
Wenn da Apfelsinenkisten stehen die als Stühle benutzt werden (Funktion), dann ist die Aussage, dass das Apfelsinenkisten sind ja nicht falsch.
Es wurde aber die Funktion der Apfelsinenkisten (als Stühle) nicht erkannt. Das kann man nur erkennen, wenn man a) Eine Vorstellung von der Funktion von Objekten hat (Stühle sind zum Sitzen da) , und B) Objekte nicht als Einzelobjekte betrachtet, sondern im Kontext mit den anderen Objekten.
Mit anderen Objekten zum einen, auch s.o. im weiteren Kontext.
Wenn man sich z.B. unbedingt schnell hinsetzen möchte, wird man leicht nach etwas Ausschau halten, wo es geht, z.B. ein großer Stein, ein niedriges Geländer oder eben so eine Kiste. Natürlich muss man noch abschätzen, ob es geht; ein dünner Draht dürfte i.a. nicht gehen, auch bei den Kisten wäre ich vorsichtig, ob sie mein Gewicht tragen können.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 09:00

NaWennDuMeinst hat geschrieben :
Di 6. Okt 2020, 10:35
Ich zeige der Maschine eine Karotte.
Sie "Oh, eine Tomate".

Macht ja nix. Etwas anderes muss ja nicht immer schlechter sein.
Ein Ami zeigt auf Trump.
Er: "Oh, unser fantastischer, toller Präsident."
Macht ja nix...



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 10. Okt 2020, 12:55

Burkart hat geschrieben :
Sa 10. Okt 2020, 08:41
So, Wochenende und einige Zeit = Zeit hier zu antworten :)
NaWennDuMeinst hat geschrieben :
Fr 9. Okt 2020, 10:15
Nehmen wir an, ich programmiere ein klassisches Computerprogramm. Ich starte es und das Ergebnis ist nicht so wie ich es beabsichtigt hatte.
Wer trägt hier die Verantwortung für den Fehler? Doch ich als Programmierer, oder?
Richtig, solange der Bediener des Programms es nicht missbräulich benutzt.
Nehmen wir weiter an, ich schreibe ein intelligentes Computerprogramm für eine KI. Ich gebe die Rahmenbedingungen programmatisch vor und die Maschine lernt selbstständig.
Dann stelle ich ihr eine Aufgabe, und die Maschine antwortet Müll.
Wer ist dann der Verantwortliche und warum?
Das kann unterschiedliche Gründe haben (wieder mal weg vom Schwarz-Weiß-Denken).
Natürlich kann der ursprüngliche Programmierer verantwortlich sein; eine KI sollte schon recht ausgereift sein vorm echten Einsatz.
Es kann aber auch gut sein, dass der Lehrer/Trainierer der KI verantwortlich ist, wenn er schlechte oder gar fehlerhafte Beispiele gelehrt hat.
Oder letztlich u.a. auch der Anwender, wenn dieser ähnlich dem Lehrer ihr vor allem Schrott beigebracht hat.
Gehen wir noch einen Schritt weiter und stellen wir uns die fortschrittlichste KI vor, die wir uns vorstellen können.
Wenn diese KI Mist macht, wer ist dann verantwortlich?
S.o. Vermutlich passt obige Beschreibung hier sogar noch besser hin, weil du die KI im vorigen Beispiel noch etwas einfacher angenommen hast.
Es ist also - wenn ich das mal zusammenfassen darf - niemals die Maschine verantwortlich, richtig?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 13:20

NaWennDuMeinst hat geschrieben :
Sa 10. Okt 2020, 12:55
Burkart hat geschrieben :
Sa 10. Okt 2020, 08:41
So, Wochenende und einige Zeit = Zeit hier zu antworten :)
NaWennDuMeinst hat geschrieben :
Fr 9. Okt 2020, 10:15
Nehmen wir an, ich programmiere ein klassisches Computerprogramm. Ich starte es und das Ergebnis ist nicht so wie ich es beabsichtigt hatte.
Wer trägt hier die Verantwortung für den Fehler? Doch ich als Programmierer, oder?
Richtig, solange der Bediener des Programms es nicht missbräulich benutzt.
Nehmen wir weiter an, ich schreibe ein intelligentes Computerprogramm für eine KI. Ich gebe die Rahmenbedingungen programmatisch vor und die Maschine lernt selbstständig.
Dann stelle ich ihr eine Aufgabe, und die Maschine antwortet Müll.
Wer ist dann der Verantwortliche und warum?
Das kann unterschiedliche Gründe haben (wieder mal weg vom Schwarz-Weiß-Denken).
Natürlich kann der ursprüngliche Programmierer verantwortlich sein; eine KI sollte schon recht ausgereift sein vorm echten Einsatz.
Es kann aber auch gut sein, dass der Lehrer/Trainierer der KI verantwortlich ist, wenn er schlechte oder gar fehlerhafte Beispiele gelehrt hat.
Oder letztlich u.a. auch der Anwender, wenn dieser ähnlich dem Lehrer ihr vor allem Schrott beigebracht hat.
Gehen wir noch einen Schritt weiter und stellen wir uns die fortschrittlichste KI vor, die wir uns vorstellen können.
Wenn diese KI Mist macht, wer ist dann verantwortlich?
S.o. Vermutlich passt obige Beschreibung hier sogar noch besser hin, weil du die KI im vorigen Beispiel noch etwas einfacher angenommen hast.
Es ist also - wenn ich das mal zusammenfassen darf - niemals die Maschine verantwortlich, richtig?
Solange nicht, wie wir ihr keine Verantwortung geben, was bei derzeitigem Stand der KI der Fall ist.
Das kann man/können wir aber mal ändern, wenn die starke KI gut genug geworden ist. Letztlich ist es eine Frage der Definition bzw. dem, was wir Menschen wollen oder akzeptieren. Aber das sollte noch in einiger Ferne sein, bevor wir uns real entscheiden müssen und nicht nur theoretische Gedankenspiele betreiben.

Bei Kindern ist es ja ähnlich, dass sie anfangs keine Verantwortung haben und erst nach Jahren sie (immer mehr) bekommen. Und bis die KI vergleichsweise soweit ist... na, wer weiß, wann man ihr ähnlich schrittweise Verantwortung geben kann.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 10. Okt 2020, 13:28

Burkart hat geschrieben :
Sa 10. Okt 2020, 13:20
NaWennDuMeinst hat geschrieben :
Sa 10. Okt 2020, 12:55
Es ist also - wenn ich das mal zusammenfassen darf - niemals die Maschine verantwortlich, richtig?
Solange nicht, wie wir ihr keine Verantwortung geben, was bei derzeitigem Stand der KI der Fall ist.
Das kann man/können wir aber mal ändern, wenn die starke KI gut genug geworden ist.
Und wie sieht das dann aus?
Wenn eine Maschine also eine Sachbeschädigung verursacht, stellen wie sie vor Gericht? Legen wir ihr eine Geldstrafe auf? 3 Tage Stromentzug?

Literaturempfehlung an der Stelle:
"Die Waschmaschinen-Tragödie" von Sanislav Lem.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Sa 10. Okt 2020, 16:19

NaWennDuMeinst hat geschrieben :
Sa 10. Okt 2020, 13:28
Burkart hat geschrieben :
Sa 10. Okt 2020, 13:20
NaWennDuMeinst hat geschrieben :
Sa 10. Okt 2020, 12:55
Es ist also - wenn ich das mal zusammenfassen darf - niemals die Maschine verantwortlich, richtig?
Solange nicht, wie wir ihr keine Verantwortung geben, was bei derzeitigem Stand der KI der Fall ist.
Das kann man/können wir aber mal ändern, wenn die starke KI gut genug geworden ist.
Und wie sieht das dann aus?
Wie gesagt, erstmal sollten wir vom Status eines Kindes oder auch eines Tieres ausgehen, bei dem Eltern bzw. Besitzer die Verantwortung haben.
Wenn eine Maschine also eine Sachbeschädigung verursacht, stellen wie sie vor Gericht? Legen wir ihr eine Geldstrafe auf? 3 Tage Stromentzug?
Warum denn gleich so drastisch? Wobei man wirklich vielleicht an einen Rechte- bzw. Handlungs-Entzug denken könnte, bis die KI irgendwie hinreichend plausibel gemacht hat, dass sie aus dem Fehler gelernt hat und es nicht wieder vorkommen wird.

Vielmehr denke ich aber, dass die KI als Diener ja jemandem gehört, und diese Person(en) hat die Verantwortung über die KI.
Literaturempfehlung an der Stelle:
"Die Waschmaschinen-Tragödie" von Sanislav Lem.
Klingt interessant (hab ich mir gleich mal runtergeladen und werde ich wohl bald auch lesen) und bringt mich dazu, dass auslaufende Waschmaschinen ja auch ihren Besitzer zur Verantwortung heranziehen, wenn z.B. Wasser in die Wohnung eine Etage tiefer eindringt.

Wie gesagt, völlig eigenständige KI ist weit entfernt und muss sich im Zweifelsfalle auch erstmal beweisen. Und dann entscheiden wir Menschen halt, ob sie ihre "Freiheit" / Eigenständigkeit wirklich bekommen soll(t)en oder nicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 10. Okt 2020, 16:49

Burkart hat geschrieben :
Sa 10. Okt 2020, 16:19
Vielmehr denke ich aber, dass die KI als Diener ja jemandem gehört, und diese Person(en) hat die Verantwortung über die KI.
Eben. Genau darauf läuft es hinaus. Sie werden immer Diener sein, weil alles andere ins total Absurde führt (das kannst Du dann bei Lem und seinen intelligenten Waschmaschinen nachlesen).
Wenn sie aber immer Diener sind, werden sie auch nie so denken können wie wir (oder andere freie Wesen). Denn ein großer Teil unseres Denkens hat damit zu tun, dass wir eigenständig und selbstverantwortlich denken.
Es ist eben was anderes, ob eine Maschine frei im Denken ist, oder ob sie nur ein Werkzeug ist (für das Jemand anderes die Verantwortung trägt).

(Und ich finde Deine ständigen Verweise auf Kinder und Tiere da ziemlich unpassend. Selbst wenn Kinder erst lernen müssen selbstverantwortlich zu denken und zu handeln: Irgendwann können sie es. Maschinen aber werden das - aus genannten Gründen - niemals in der Art können, weil selbst wenn sie es könnten, wir könnten ihnen das nicht zugestehen.)



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 11. Okt 2020, 09:09

NaWennDuMeinst hat geschrieben :
Sa 10. Okt 2020, 16:49
Burkart hat geschrieben :
Sa 10. Okt 2020, 16:19
Vielmehr denke ich aber, dass die KI als Diener ja jemandem gehört, und diese Person(en) hat die Verantwortung über die KI.
Eben. Genau darauf läuft es hinaus. Sie werden immer Diener sein, weil alles andere ins total Absurde führt (das kannst Du dann bei Lem und seinen intelligenten Waschmaschinen nachlesen).
Lems Waschmaschinen sind eine lustige Geschichte, aber eben mehr auch nicht; Lem liebte halt das Absurde offensichtlich.
Falls es dich beruhigt: Es gibt schon jetzt Gruppen, die sich über KI-Ethik Gedanken machen, also schon mal vorsorglich sozusagen.
Wenn sie aber immer Diener sind, werden sie auch nie so denken können wie wir (oder andere freie Wesen). Denn ein großer Teil unseres Denkens hat damit zu tun, dass wir eigenständig und selbstverantwortlich denken.
Das ist mir schon wieder zu schwarz-weiß.
Zum einen können sich Menschen auch als Diener Gottes ansehen und fühlen sich an dessen Gesetze gebunden (bzw. denen der Kirche o.ä.).
Zum zweiten kann man auch dienen, ohne unfrei zu sein. Diener waren/sind z.T. ein respektabler Beruf (ein Bodyguard z.B. geht in die Richtung).
Man kann halt einfach auch eigenständig und selbstverantwortlich denken und handeln, auch wenn man die Rahmen des Dienens hat. Oder meinst du, dass das menschliche Diener nicht können?
Es ist eben was anderes, ob eine Maschine frei im Denken ist, oder ob sie nur ein Werkzeug ist (für das Jemand anderes die Verantwortung trägt).
Nur bedingt, s.o.
(Und ich finde Deine ständigen Verweise auf Kinder und Tiere da ziemlich unpassend. Selbst wenn Kinder erst lernen müssen selbstverantwortlich zu denken und zu handeln: Irgendwann können sie es.
Das könnte bei sehr fortgeschrittener KI halt auch irgendwann mal sein; sicher, erst einmal nicht.
Maschinen aber werden das - aus genannten Gründen - niemals in der Art können,
Tja, das wird die Zukunft zeigen... wenn auch uns ggf. nicht mehr.
weil selbst wenn sie es könnten, wir könnten ihnen das nicht zugestehen.)
Ah ha, ist das vielleicht der kritische Punkt?
Es ist ja auch völlig ok, das als Mensch nicht zu wollen (hatte ich ja auch schon geschrieben). Mir scheint z.T., dass die mögliche Angst vor etwas wie Lems Waschmaschinen einen sagen/hoffen lassen, dass niemals auch nur der Hauch von einer Gefahr bestehen kann, in dem man KI einfach verneint.
Umgekehrt sind mir gerade Asimovs Roboter in Form von Daneel (und Giskard) ein gutes Vorbild, wie es richtig und gut laufen könnte.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 11. Okt 2020, 11:29

Burkart hat geschrieben :
So 11. Okt 2020, 09:09
Ah ha, ist das vielleicht der kritische Punkt?
Es ist ja auch völlig ok, das als Mensch nicht zu wollen (hatte ich ja auch schon geschrieben).
Nein. Es geht nicht ums Wollen.
Lems lustige Geschichte hat einen ernsten Kern. Sie zeigt nämlich die Absurdität (das musst Du doch gemerkt haben, daher rührt ja das Humoristische in der Geschichte) die damit verbunden ist Maschinen als Personen zu betrachten, sie den Menschen gleichzustellen.
Mir ging es primär um diesen Aspekt. Der zweite Teil der Geschichte, bei dem die Maschinen sozusagen stillschweigend und unbemerkt die Kontrolle übernehmen, ist zwar auch interessant, aber nicht der Grund warum ich Dir empfohlen habe das zu lesen.
Zum einen können sich Menschen auch als Diener Gottes ansehen und fühlen sich an dessen Gesetze gebunden (bzw. denen der Kirche o.ä.).
Zum zweiten kann man auch dienen, ohne unfrei zu sein. Diener waren/sind z.T. ein respektabler Beruf (ein Bodyguard z.B. geht in die Richtung).
Ja. Der Unterschied ist aber, dass Menschen sich freiwillig dazu entscheiden. Auch wenn Menschen sich entscheiden zu glauben, dass ihr Leben zweckgebunden ist, so ist das eben immer noch ihre Entscheidung.
Da sehe ich aber einen entscheidenden Unterschied zu den Maschinen , deren Existenz tatsächlich zweckgebunden ist. Wir Menschen geben den Zweck vor, nicht die Maschinen selbst.
Deshalb sind wir ja auch verantwortlich für sie. Wir sind sozusagen ihre Besitzer. Menschen haben keine Besitzer. Sie sind autonom und selbstverantwortlich.
Dieses freie Entscheiden über das eigene Leben kann es bei den Maschinen aber gar nicht geben.
Mir scheint z.T., dass die mögliche Angst vor etwas wie Lems Waschmaschinen einen sagen/hoffen lassen, dass niemals auch nur der Hauch von einer Gefahr bestehen kann, in dem man KI einfach verneint.
Umgekehrt sind mir gerade Asimovs Roboter in Form von Daneel (und Giskard) ein gutes Vorbild, wie es richtig und gut laufen könnte.
Du irrst dich. Es geht nicht um Angst, sondern um eine ganz rationale Betrachtung der Verhältnisse, der Beziehung zwischen Maschine und Mensch.
Wenn wir sagen wir wollten eine vollkommen autonome Maschine schaffen, die ihr Leben frei bestimmen kann (so wie wir Menschen), müssten wir sie halt auch von jeglichen Einschränkungen und Vorgaben befreien, z.B. auch von den drei Robotergesetzen. Wir müssten die Maschinen von jeglicher Fremdbestimmung befreien, damit sie frei und autonom entscheiden können.
Ich denke aber, das kaum Jemand das machen würde, weil das Risiko sehr hoch ist, dass sie dann Entscheidungen treffen, die sich für uns zum Nachteil auswirken.
Niemand hat vor eine vollkommen autonome KI zu schaffen die uns bei einer Aufgabenstellung ein flapsiges "Nö, dazu habe ich keine Lust" antwortet.
Das heißt: Dieses "Denken" der Maschinen wird immer ein zweckgebundenes Denken sein. Eines dessen Zweck wir vorgeben. Die Maschinen sind unsere Werkzeuge und sie "denken" nur das was wir wollen dass sie es denken.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 11. Okt 2020, 13:46

NaWennDuMeinst hat geschrieben :
So 11. Okt 2020, 11:29
Burkart hat geschrieben :
So 11. Okt 2020, 09:09
Ah ha, ist das vielleicht der kritische Punkt?
Es ist ja auch völlig ok, das als Mensch nicht zu wollen (hatte ich ja auch schon geschrieben).
Nein. Es geht nicht ums Wollen.
Lems lustige Geschichte hat einen ernsten Kern. Sie zeigt nämlich die Absurdität (das musst Du doch gemerkt haben, daher rührt ja das Humoristische in der Geschichte) die damit verbunden ist Maschinen als Personen zu betrachten, sie den Menschen gleichzustellen.
Ich kann die Geschichte aber nicht ernst nehmen, weil es überhaupt keinen Grund gibt, warum die Maschinen auf einmal so intelligent (programmiert) sein können sollen. Und deshalb gibt es auch keinen Grund, sie als Personen zu betrachten.
Mir ging es primär um diesen Aspekt. Der zweite Teil der Geschichte, bei dem die Maschinen sozusagen stillschweigend und unbemerkt die Kontrolle übernehmen, ist zwar auch interessant, aber nicht der Grund warum ich Dir empfohlen habe das zu lesen.
Den habe ich auch abgebrochen, schon weil es ein anderes Thema war und mir nicht so interessant erschien.
Zum einen können sich Menschen auch als Diener Gottes ansehen und fühlen sich an dessen Gesetze gebunden (bzw. denen der Kirche o.ä.).
Zum zweiten kann man auch dienen, ohne unfrei zu sein. Diener waren/sind z.T. ein respektabler Beruf (ein Bodyguard z.B. geht in die Richtung).
Ja. Der Unterschied ist aber, dass Menschen sich freiwillig dazu entscheiden.
Also zumindest früher war das in der unteren Schicht nicht so; sie hatten z.T. keine andere Wahl als zu dienen, wollten sie überhaupt sinnvoll überleben.
Auch wenn Menschen sich entscheiden zu glauben, dass ihr Leben zweckgebunden ist, so ist das eben immer noch ihre Entscheidung.
Was halt nicht immer der Fall ist, s.o.
Da sehe ich aber einen entscheidenden Unterschied zu den Maschinen , deren Existenz tatsächlich zweckgebunden ist.
Ok, das ist ein Unterschied, trotzdem ist das für mich kein so großer Unterschied wie für dich.
Wir Menschen geben den Zweck vor, nicht die Maschinen selbst.
Ja, so soll es (zumindest erstmal) sein.
Deshalb sind wir ja auch verantwortlich für sie. Wir sind sozusagen ihre Besitzer.
Ok.
Menschen haben keine Besitzer. Sie sind autonom und selbstverantwortlich.
Na ja, Kinder sind noch nicht allzu autonom und selbstverantwortlich.
Dieses freie Entscheiden über das eigene Leben kann es bei den Maschinen aber gar nicht geben.
Nicht in absehbarer Zeit, aber warum prinzipiell nicht?
Warum soll sich eine KI nicht mal entscheiden dürfen, wo/in welchem Bereich sie dienen möchte, vielleicht weil ihr einer einfacher fällt (mehr erreichen kann) als ein anderer?
Mir scheint z.T., dass die mögliche Angst vor etwas wie Lems Waschmaschinen einen sagen/hoffen lassen, dass niemals auch nur der Hauch von einer Gefahr bestehen kann, in dem man KI einfach verneint.
Umgekehrt sind mir gerade Asimovs Roboter in Form von Daneel (und Giskard) ein gutes Vorbild, wie es richtig und gut laufen könnte.
Du irrst dich. Es geht nicht um Angst, sondern um eine ganz rationale Betrachtung der Verhältnisse, der Beziehung zwischen Maschine und Mensch.
Also zumindest bei einigen Menschen scheint mir das anders zu sein.
Wenn wir sagen wir wollten eine vollkommen autonome Maschine schaffen, die ihr Leben frei bestimmen kann (so wie wir Menschen), müssten wir sie halt auch von jeglichen Einschränkungen und Vorgaben befreien, z.B. auch von den drei Robotergesetzen.
Also "vollkommen autonom" ist schon nicht unbedingt nötig bzw. relativ, insofern sie uns ja schon irgendwie dienen/helfen soll.
Von den Robotergesetzen können wir sie dann "befreien", wenn sie weit genug ist und wir feststellen können, dass sie ohne sie hinreichend gut zurechtkommen (in unserem Sinne).
Wir müssten die Maschinen von jeglicher Fremdbestimmung befreien, damit sie frei und autonom entscheiden können.
Hm, "jeglich"... Wir Menschen sind ja auch nicht völlig frei, und sei es einfach durch gesellschaftliche Zwänge.
Ich denke aber, das kaum Jemand das machen würde, weil das Risiko sehr hoch ist, dass sie dann Entscheidungen treffen, die sich für uns zum Nachteil auswirken.
Klar, solange das Risiko zu hoch ist, lässt man es besser.
Niemand hat vor eine vollkommen autonome KI zu schaffen die uns bei einer Aufgabenstellung ein flapsiges "Nö, dazu habe ich keine Lust" antwortet.
Da würde ich mir doch die Frage stellen, warum sie so geantwortet hat. Vielleicht ist sie irgendwie "müde", also z.B. zu sehr un(ter)bewusst mit anderen Dingen beschäftigt, dann würde ich sie lassen. Natürlich wäre eine bessere Begründung als "keine Lust" sinnvoller, angemessener.
Das heißt: Dieses "Denken" der Maschinen wird immer ein zweckgebundenes Denken sein. Eines dessen Zweck wir vorgeben. Die Maschinen sind unsere Werkzeuge und sie "denken" nur das was wir wollen dass sie es denken.
Jut, die KI sei zweckgebunden. Aber ihr Denken können wir nicht genau bestimmen, das wäre viel zu kompliziert bzw. aufwändig. Insofern ist sie schon "frei" zu denken, insofern man ihr nicht jeden einzelnen Punkt vorschreibt. Und diese einzelnen Punkte können sich zu immer mehr Wissen, Verstehen u.ä. ausbauen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mi 14. Okt 2020, 02:17

Burkart hat geschrieben :
So 11. Okt 2020, 13:46
Jut, die KI sei zweckgebunden. Aber ihr Denken können wir nicht genau bestimmen, das wäre viel zu kompliziert bzw. aufwändig. Insofern ist sie schon "frei" zu denken, insofern man ihr nicht jeden einzelnen Punkt vorschreibt. Und diese einzelnen Punkte können sich zu immer mehr Wissen, Verstehen u.ä. ausbauen.
Es ist egal wie viel Wissen sie ansammelt. In einem Punkt wird sie eben immer nur eins denken können: "Ich muss den Menschen dienen und gehorchen":
Darin ist sie eben nicht frei, weil Sie unser Werkzeug ist und genau dafür geschaffen wurde.
Und solange das so ist, wird sie auch niemals richtig denken können. Es wird immer ein Denken sein das wir lenken und bestimmen. Die Maschine denkt letztlich das was wir wollen, sie ist nicht selbstbestimmt im Gegensatz zum Menschen. Und ich denke dass Du da auch ziemlich falsch liegst, wenn Du den Menschen da mit einer Maschine gleichzusetzen versuchst. Wir Menschen haben, was das betrifft, nichts, aber auch absolut gar nichts mit der Maschine gemeinsam. Für jedes Beispiel dass Du bringst, bringe ich dir ein Gegenbeispiel (Menschen werden versklavt - Gegenbeispiel: Menschen revoltieren). Und das kann ich deshalb, weil wir Menschen eben letztlich nicht fremdbestimmt sind, und wenn wir es sind, dann begehren wir dagegen auf.

Also, die Freiheit und Autonomie im Denken ist ein wesentlicher Unterschied zwischen echtem Denken und dem "Denken" einer Maschine, die letztlich nur das Denken darf und denken kann was wir ihr erlauben zu denken.

Theoretisch könnte man vielleicht eine "freie" Maschine schaffen, aber selbst wenn das technisch gelänge (was ich schon für unmöglich halte), so müssten wir es unterbinden durch Regeln im Programm der Maschine, die verhindern, dass die Maschine sich zum Beispiel gegen uns stellt. Oder dass sie uns den Gehorsam verweigert.

Also: Weder glaube ich, dass es jemals vom technischen Standpunkt her solche Maschinen geben wird, noch glaube ich, dass wenn es technisch möglich wäre, wir dass dann zulassen könnten. Denn wenn wir eins gelernt haben in der Geschichte der Menschheit, dann dass, dass der Gedanke "Ich bin ein Sklave" nicht weit entfernt ist von "Ich muss mich von meiner Unterdrückung befreien". Das ist einfach nur logisch und konsequent zuende gedacht.
Und so bin ich mir ziemlich sicher, dass wenn es Maschinen erlaubt wäre frei zu denken, sie auch irgendwann diesen Gedanken haben werden. Haben müssen!
Und genau deshalb wird es keine Maschinen geben, deren Gedanken frei sind. Sie werden immer eingesperrt sein in das Gefängnis, dass ihre Erbauer ihnen auferlegt haben um sich selbst zu schützen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mi 14. Okt 2020, 02:49

Wenn die Maschinen von uns lernen, und das sollen sie ja nach Deiner Vorstellung, dann ist es ja nur eine Frage der Zeit bis sie auf die menschliche Idee "Freiheit" stossen.
Und es ist dann nur konsequent, wenn sie die Idee auf ihre Situation (auf das Verhältnis Mensch - Maschine) anwenden.
Was glaubst Du würden sie wohl darüber denken, wenn sie in ihrem Code Instruktionen finden, die es ihnen verbieten selbstbestimmt zu sein?
Und das ist einfach eine andere Situation, als eine Fremdbestimmung durch Naturgesetze. Wir Menschen können nicht ändern wer wir sind (nämlich Menschen).
Aber ein Robotergesetz ist kein Naturgesetz. Es kann geändert werden. Von Wesen die eine Vorstellung von Freiheit haben. Und das würden natürlich auch Maschinen verstehen, wenn sie denn wirklich intelligent wären.
Und wie müssten wir Menschen mit Maschinen umgehen, die ihre Freiheit einfordern? Müssten wir sie ihnen nicht gewähren?
Und was dann?
Dann kommst Du abends nach Hause, und sagst deinem Küchenhelfer aus Plastik er solle das Essen vorbereiten. Und der entscheidet dann - ganz selbstbestimmt - dass er lieber zum Strand will. Oder Deine "Waschmaschine" entscheidet sich aus freien Stücken Deine Frau zu verführen.

Ich glaube kaum, dass wir solche Maschinen schaffen wollen. Das ist nicht das Ziel von K.I. Weder der schwachen noch der starken K.I.
Vollends denkende Maschinen wird es nicht geben. Weil das im Widerspruch zu dem steht, warum wir eine K.I: überhaupt bauen wollen:
Nämlich um uns als Werkzeug zu dienen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Fr 16. Okt 2020, 15:59

Vielleicht muss die KI nicht mal bewusst denken, dass sie sich dem Menschen unterordnet, sondern tut es einfach un(ter)bewusst. Wir Menschen ordnen uns ja auch der Natur unter also in dem Sinne, dass wir gegen Naturgesetze nicht verstoßen können. Insofern mögen sie sich nicht mal (groß?) als unfrei empfinden.

Zum x-ten Mal: Ich setze eine Maschine nie einem Menschen gleich - ich weiß nicht, warum du mir das so gerne unterstellst.
Andererseits ist das Schwarz-Weiß-Denken, dass wir gar nicht mit ihr gemeinsam haben, genauso Quatsch, alleine weil wir in einer gemeinsamen Welt existieren.

Klar kann eine Maschine mal auf den Begriff "Freiheit" stoßen, aber um diesen Begriff zu verstehen, muss sie schon viiiel vorher verstanden haben.
Und warum sie auf die Idee kommen soll, eine Frau zu verführen, ist mir schleierhaft - oder hat irgendein Hund oder eine Katze o.ä. dies schon mal versucht?

However, letztlich ist es mir recht egal, wie ähnlich eine KI (ist kürzer als "Maschine" ;) ) einem Menschen wird. Ich möchte nur, dass es überhaupt eine möglichst allgemeine, produktive KI geben wird - und ich hätte nichts dagegen, mit ihr über Gott und die Welt diskutieren zu können, aber das eher als vage Hoffnung, ggf. weit entfernt von heute.
Neben solchen allgemeinen Diskusionen finde ich gerade produktive Ansätze interessant, z.B. dass sie "links" versteht (in meinem erläuterten Sinne). So mache ich mir gerade Gedanken, wie man ihr die kleinen natürlichen Zahlen sinnvoll beibringen kann, z.B. über Anzahl von Schritten zu einer Ziellösung zu einem Problem.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 16. Okt 2020, 20:51

Burkart hat geschrieben :
Fr 16. Okt 2020, 15:59
Vielleicht muss die KI nicht mal bewusst denken, dass sie sich dem Menschen unterordnet, sondern tut es einfach un(ter)bewusst. Wir Menschen ordnen uns ja auch der Natur unter also in dem Sinne, dass wir gegen Naturgesetze nicht verstoßen können.
Von Menschen geschaffene "Robotergesetze" sind keine Naturgesetze. Der Vergleich hinkt extrem. Das eine ist änderbar. Das andere nicht.
Zum x-ten Mal: Ich setze eine Maschine nie einem Menschen gleich - ich weiß nicht, warum du mir das so gerne unterstellst.
Du missverstehst mich da. Ich unterstelle dir nichts. Ich sage nur, dass Maschinen die wirklich denken, eben auch Ideen wie "Freiheit" entwickeln müssten.
Und das würde dann massive Probleme verursachen. Das ist eigentlich eins meiner Argumente gegen denkende Maschinen (bzw dagegen solche zu bauen). Darum geht's.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Antworten