Eine Einordnung der KI nach Schopenhauer ..

Dieses Unterforum beschäftigt sich mit dem Umfang und den Grenzen der menschlichen Erkenntnisfähigkeit sowie um die speziellen Gesichtspunkte des Systems der modernen Wissenschaften.
Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 24. Jun 2022, 22:11

Körper hat geschrieben :
Fr 24. Jun 2022, 19:37

Die Robotergesetze sind für den Roboter keine moralischen Werte, d.h. ihre Umsetzung darf nicht innerhalb der flexiblen Reaktion angesiedelt sein, sondern muss ein separater Regelkreis sein.
Es muss quasi eine hardwaretechnische Handlungsblockade mit eigener Sensorik sein.
Wir wollen doch bitteschön an dieser Stelle festhalten , dass der Roboter mit dieser "hardwaretechnischen Handlungsblockade mit eigener Sensorik" etwas schafft , was dem Menschen mit seiner Moral und Ethik, wie auch mit seiner seiner Fähigkeit zum denken nicht vergönnt ist. Menschen nicht zu verletzen und nicht zu töten
NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 18:03

Es ist ein wunderschönes Beispiel dafür, dass Ethik und Moral mehr als nur Logik sind, und dass ein Logikapparat das eben nicht erfassen kann, weil er seiner Natur (bzw Konstruktion) nach gar nichts anderes kann als logisch vorzugehen.


Es ist ein wunderschönes Beispiel dafür, dass Ethik und Moral weniger ist als die Logik einer "hardwaretechnischen Handlungsblockade mit eigener Sensorik"

Ich würde sogar sagen , dass immer dann , wenn man sich auf einer besonders hohen Moral und eine besonders hohen Ethik berufen hat , in Folge dessen auch eine besonders hohe Anzahl von Menschen ihr Leben lassen mussten. Wie auch das die Fähigkeit zum denken , „letztendlich“ zu immer besseren Massenvernichtungswaffen geführt hat .

Wie war denn das ? Hatte sich denn nicht jede Seite im kalten Krieg auf eine besonders hohe Moral und Ethik berufen und hatte man sich nicht in einer Art und Weise mit Atomwaffen hochgerüstet , dass man sich gegenseitig gleich mehrfach vernichten konnte ?

Da hätte ich mich doch schon sehr eine "hardwaretechnischen Handlungsblockade mit eigener Sensorik"gewünscht , die dergleichen , wie bei den Robotern , von vorneherein unmöglich macht.

  • "Um eine tiefere Einsicht in das Wesen der Welt zu erlangen, ist unumgänglich nöthig, daß man unterscheiden lerne den Willen als Ding an sich von seiner adäquaten Objektität, sodann die verschiedenen Stufen, auf welchen diese deutlicher und vollendeter hervortritt … Was in Wolken, Bach und Krystall erscheint, ist der schwächste Nachhall jenes Willens, der vollendeter in der Pflanze, noch vollendeter im Thier, am vollendetesten im Menschen hervortritt."

    Arthur Schopenhauer .. Die Welt als Wille und Vorstellung

Soviel zum Thema, dass der Nachhall des Willens , als Ding an sich, am vollendetesten im Menschen hervortritt. Um auf Schopenhauer und damit auf das Thema dieses Threads zurück zu kommen. Demnach würde dieser dieser Nachall vielmehr bei den Robotern, mit ihrer hardwaretechnischen Handlungsblockade und eigener Sensorik, am vollendetesten hervortreten.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 24. Jun 2022, 23:23

NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:30
Burkart hat geschrieben :
Do 23. Jun 2022, 23:12
So kann es nicht wirklich zum Konflikt kommen
Aber dann ist dein Roboter eben auch nicht frei und selbstdenkend, sondern ein programmierter Sklave.
Eine Maschine eben.
Konfliktfrei kann es auch zwischen einem menschlichen Diener und seinem geliebten Herren sein, der Diener kann somit auch selbstdenkend und keine Maschine sein.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 24. Jun 2022, 23:35

Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21
Burkart hat geschrieben :
Do 23. Jun 2022, 23:12
Timberlake hat geschrieben :
Do 23. Jun 2022, 01:41
Wenn man als KI , wie ein Lebewesen, darauf aus ist , sich selbst zu erhalten oder gar sich Fortzupflanzen , dann wird diese KI irgendwann im Konflikt mit uns stehen. So wie auch Menschen sich deshalb irgendwann , unter einander im Konflikt befinden werden. (Stichwort "Putin")
Deshalb ja auch Asimovs 1. Gesetz vor dem 3., also der Mensch ist immer wichtiger als die KI/der Roboter. So kann es nicht wirklich zum Konflikt kommen; im Zweifelsfrage kann die KI/der Roboter beim Menschen nachfragen, wenn sie/er sich unsicher ist.
Ob es unter diesen Umständen eine keine gute Idee ist , beim Menschen nach zufragen, würde ich bezweifeln.
Ich weiß nicht genau, an welche "Umstände" du denkst.
Warum soll ein KI-Roboter nicht beim Menschen nachfragen, wenn er Zweifel hat? Menschen fragen ggf. doch auch mal nach.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 24. Jun 2022, 23:40

NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:10
Und das zeigt eigentlich sehr deutlich, dass es unmöglich ist, eine Intelligenz auf menschlichem Niveau mit Apparaten nachzubilden die nur Logikapparate sind (und genau das sind Computer, reine Logikapparate).
Erwähnte ich schon, dass Menschen reine Biochemie-Molekül-Struktur-Wesen sind? Wie können die nur intelligent sein...

PS: Schade, dass du auch mein Zielmodell nicht eingegangen bist; dann hätten wir mal konkreter werden können, was bei KI machbar ist.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 25. Jun 2022, 00:18

Burkart hat geschrieben :
Fr 24. Jun 2022, 23:35
Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21
Burkart hat geschrieben :
Do 23. Jun 2022, 23:12

Deshalb ja auch Asimovs 1. Gesetz vor dem 3., also der Mensch ist immer wichtiger als die KI/der Roboter. So kann es nicht wirklich zum Konflikt kommen; im Zweifelsfrage kann die KI/der Roboter beim Menschen nachfragen, wenn sie/er sich unsicher ist.
Ob es unter diesen Umständen eine keine gute Idee ist , beim Menschen nach zufragen, würde ich bezweifeln.
Ich weiß nicht genau, an welche "Umstände" du denkst.
Warum soll ein KI-Roboter nicht beim Menschen nachfragen, wenn er Zweifel hat? Menschen fragen ggf. doch auch mal nach.
Dazu nur noch mal zur Erinnerung , im welchen Kontext ich auf diese "Umstände" gekommen bin ...
Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21


Genau .. bei Kant, wie auch bei den Robotergesetzen , hat der Mensch die höchste Priorität. Eine höchste Priorität, der allerdings derzeit nur die Roboter nachkommen und warum können sie dem nachkommen ? Was macht den Unterschied ? Besteht der Unterschied etwa darin , dass nur der Mensch denken kann ? Eigentlich sollte man doch meinen , gerade weil der Mensch denken kann , sollte er dem kategorischen Imperativ nachkommen können.
  • Kategorischer Imperativ einfach erklärt

    Was ist der kategorische Imperativ nach Immanuel Kant? Das ist ein Prinzip, mit dem du moralisch richtige Handlungsentscheidungen treffen kannst. Er lautet: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

    Ausschlaggebend ist also, dass du dir vor einer Handlung deine persönlichen Leitsätze (Maxime) vor Augen führst. Du fragst dich also: Möchte ich, dass alle anderen Menschen auch so handeln? Wenn die Antwort ja lautet, ist die Handlung moralisch; ist die Antwort nein, dann ist sie es nicht.
Wie sollte man sich auch sonst , als ohne das man darüber nachdenkt , sich fragen können "Möchte ich, dass alle anderen Menschen auch so handeln?"

Nur mal zum Vergleich ..

  • Die Asimov’schen Gesetze lauten:

    Ein Roboter darf kein menschliches Wesen (wissentlich]) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


.. das Einhalten dieser Gesetzte bekommt derzeit ein Roboter ganz ohne nachdenken hin. Zumindest wenn keine Fehlfunktion vorliegt.

Man könnte fast meinen , dass nicht nur bloß der Maschine , sondern auch dem Menschen NICHT erlaubt sein sollte selbst zu denken.

.. danach würden sich meine Zweifel erst dann in Luft auflösen , wenn gemäß dem kategorischen Imperativ von Kant , für den Menschen , der Mensch nicht nur bloß als Lippenbekenntnis höchste Priorität hat . Wenn er dem auch tatsächlich nachkommt , dann hätte ich überhaupt nichts dagegen , dass wenn eine KI/ Roboter unsicher ist, sie/er beim Menschen nachfragt. Ansonsten würde man den Bock zum Gärtner machen.




Benutzeravatar
Jörn Budesheim
Beiträge: 23264
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 25. Jun 2022, 08:07

studyflix hat geschrieben : Was ist der kategorische Imperativ nach Immanuel Kant? Das ist ein Prinzip, mit dem du moralisch richtige Handlungsentscheidungen treffen kannst. Er lautet: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

Ausschlaggebend ist also, dass du dir vor einer Handlung deine persönlichen Leitsätze (Maxime) vor Augen führst. Du fragst dich also: Möchte ich, dass alle anderen Menschen auch so handeln? Wenn die Antwort ja lautet, ist die Handlung moralisch; ist die Antwort nein, dann ist sie es nicht.

https://studyflix.de/allgemeinwissen/ka ... -kant-4464
Ich kann mir nur schwer vorstellen, dass moralisch richtiges Handeln generell daran hängt, dass jemand MÖCHTE, dass alle anderen auch so handeln (bzw gemäß der persönlichen Leitsätze) wie dieser jemand. Putin möchte vielleicht, dass alle anderen gemäß des Leitsatzes, der Stärkere setzt sich mit Gewalt durch, handeln.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 10:14

Burkart hat geschrieben :
Fr 24. Jun 2022, 23:23
NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:30
Burkart hat geschrieben :
Do 23. Jun 2022, 23:12
So kann es nicht wirklich zum Konflikt kommen
Aber dann ist dein Roboter eben auch nicht frei und selbstdenkend, sondern ein programmierter Sklave.
Eine Maschine eben.
Konfliktfrei kann es auch zwischen einem menschlichen Diener und seinem geliebten Herren sein, der Diener kann somit auch selbstdenkend und keine Maschine sein.
Es geht nicht um die Konfliktfreiheit sondern darum dass dein Roboter keine andere Wahl hat. Nicht weil er moralisch sein will handelt er moralisch, sondern weil er dazu gezwungen wird.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23264
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 25. Jun 2022, 10:23

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14
... sondern weil er dazu gezwungen wird.
Ist vielleicht Erbsenzählerei, aber dennoch: gezwungen wurde der Computer natürlich auch nicht, weil er schließlich nicht gegen seinen Willen handelt, sondern gar keinen Willen hat.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 10:32

Jörn Budesheim hat geschrieben :
Sa 25. Jun 2022, 10:23
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14
... sondern weil er dazu gezwungen wird.
Ist vielleicht Erbsenzählerei, aber dennoch: gezwungen wurde der Computer natürlich auch nicht, weil er schließlich nicht gegen seinen Willen handelt, sondern gar keinen Willen hat.
Nein, das ist keine Erbsenzählerei, sondern richtig und wichtig. Genau darum geht es.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 10:52

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14
Burkart hat geschrieben :
Fr 24. Jun 2022, 23:23
NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:30

Aber dann ist dein Roboter eben auch nicht frei und selbstdenkend, sondern ein programmierter Sklave.
Eine Maschine eben.
Konfliktfrei kann es auch zwischen einem menschlichen Diener und seinem geliebten Herren sein, der Diener kann somit auch selbstdenkend und keine Maschine sein.
Es geht nicht um die Konfliktfreiheit sondern darum dass dein Roboter keine andere Wahl hat. Nicht weil er moralisch sein will handelt er moralisch, sondern weil er dazu gezwungen wird.
"Gezwungen"? Werden wir nicht auch "gezwungen" zu leben?

Wahl wozu? Eine Wahl bezieht sich immer auf irgendwie bewertete Alternativen. Genau die soll ein KI-Roboter haben/bekommen, wenn man ihm (unterschiedliche) Ziele bzw. ein Ziel-Modell implementiert; Ziele selbst sind etwas zu bewertendes (wie gut ist ein Ziel erreicht u.ä.).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 10:54

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:32
Jörn Budesheim hat geschrieben :
Sa 25. Jun 2022, 10:23
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14
... sondern weil er dazu gezwungen wird.
Ist vielleicht Erbsenzählerei, aber dennoch: gezwungen wurde der Computer natürlich auch nicht, weil er schließlich nicht gegen seinen Willen handelt, sondern gar keinen Willen hat.
Nein, das ist keine Erbsenzählerei, sondern richtig und wichtig. Genau darum geht es.
Interessant... erst bewertest du Jörns Beitrag mit "gefält", dann widersprichst du ihm so klar.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 11:12

Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52
Wahl wozu?
Du streitest also ab, dass wir Menschen uns für oder gegen z.B. Krieg entscheiden könnnen, sehe ich das richtig?
Wir haben dMn keinen (freien) Willen. Richtig?
Zuletzt geändert von NaWennDuMeinst am Sa 25. Jun 2022, 11:14, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 11:14

Burkart hat geschrieben :
Sa 25. Jun 2022, 10:54
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:32
Jörn Budesheim hat geschrieben :
Sa 25. Jun 2022, 10:23


Ist vielleicht Erbsenzählerei, aber dennoch: gezwungen wurde der Computer natürlich auch nicht, weil er schließlich nicht gegen seinen Willen handelt, sondern gar keinen Willen hat.
Nein, das ist keine Erbsenzählerei, sondern richtig und wichtig. Genau darum geht es.
Interessant... erst bewertest du Jörns Beitrag mit "gefält", dann widersprichst du ihm so klar.
Hä? Ich bestärke ihn in seinem Einwand. Er hat nämlich recht. Der Unterschied zwischen dir und einer Maschine ist u.a. dass Du einen eigenen Willen hast. Die Maschine nicht.
Sie folgt nur dem Willen ihres Erbauers, d.h. sie setzt ihn um und kann sich z.B. nicht dagegen entscheiden.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 11:16

Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14
Burkart hat geschrieben :
Fr 24. Jun 2022, 23:23

Konfliktfrei kann es auch zwischen einem menschlichen Diener und seinem geliebten Herren sein, der Diener kann somit auch selbstdenkend und keine Maschine sein.
Es geht nicht um die Konfliktfreiheit sondern darum dass dein Roboter keine andere Wahl hat. Nicht weil er moralisch sein will handelt er moralisch, sondern weil er dazu gezwungen wird.
"Gezwungen"? Werden wir nicht auch "gezwungen" zu leben?
Nein. Von wem denn?
Du kannst Dich auch vor einen Zug werfen wenn Du willst (bitte nicht, das ist nur ein Beispiel, weil Du behauptest wir wären gezwungen zu leben).
Denn Du hast ja einen Willen im Gegensatz zur Maschine die nur das macht, was dem Willen ihrer Erbauer entspricht (manchmal auch nicht, aber das liegt dann daran, dass die Erbauer Hornochsen sind und die Maschine fehlerhaft programmieren).



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 11:41

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:12
Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52
Wahl wozu?
Du streitest also ab, dass wir Menschen uns für oder gegen z.B. Krieg entscheiden könnnen, sehe ich das richtig?
Wir haben dMn keinen (freien) Willen. Richtig?
Doch, haben wir (mehr oder weniger). Ähnlich kann eine KI aber auch nach vielem Lernen zu einem ähnlichen WIllen gelangen, in dem sie abwägt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 11:46

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:16
Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 10:14


Es geht nicht um die Konfliktfreiheit sondern darum dass dein Roboter keine andere Wahl hat. Nicht weil er moralisch sein will handelt er moralisch, sondern weil er dazu gezwungen wird.
"Gezwungen"? Werden wir nicht auch "gezwungen" zu leben?
Nein. Von wem denn?
Von der Natur, meiner Umwelt...
Du kannst Dich auch vor einen Zug werfen wenn Du willst (bitte nicht, das ist nur ein Beispiel, weil Du behauptest wir wären gezwungen zu leben).
Denn Du hast ja einen Willen im Gegensatz zur Maschine die nur das macht, was dem Willen ihrer Erbauer entspricht (manchmal auch nicht, aber das liegt dann daran, dass die Erbauer Hornochsen sind und die Maschine fehlerhaft programmieren).
Sie entspricht nur dem Willen des Erbauers, wenn man ihr keine Freiheiten gibt. Genau die entstehen aber durch's Lernen und späterem Abwägen des Gelernten (Zielerfüllung).
Das Lernen selbst kann völlig unabhängig vom Erbauer sein, sei es durch unabhängige "KI-Lehrer" bis hin zur Beobachtungen in der Welt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 11:52

Burkart hat geschrieben :
Sa 25. Jun 2022, 11:41
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:12
Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52
Wahl wozu?
Du streitest also ab, dass wir Menschen uns für oder gegen z.B. Krieg entscheiden könnnen, sehe ich das richtig?
Wir haben dMn keinen (freien) Willen. Richtig?
Doch, haben wir (mehr oder weniger). Ähnlich kann eine KI aber auch nach vielem Lernen zu einem ähnlichen WIllen gelangen, in dem sie abwägt.
Wenn Du ihr unüberwindbare Gesetze mitgibst kann sie das eben nicht.
Das ist ja auch der Sinn der Robotergesetze. Die Maschine soll sich verhalten wie WIR das wollen und nicht so wie SIE das will (wenn sie überhaupt sowas wie einen Willen hat).



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 12:00

Burkart hat geschrieben :
Sa 25. Jun 2022, 11:46
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:16
Burkart hat geschrieben :
Sa 25. Jun 2022, 10:52

"Gezwungen"? Werden wir nicht auch "gezwungen" zu leben?
Nein. Von wem denn?
Von der Natur, meiner Umwelt...
Die Natur schreibt Dir deinen Willen vor?
Nö. Wie sollte das gehen?

Du kannst Dich auch vor einen Zug werfen wenn Du willst (bitte nicht, das ist nur ein Beispiel, weil Du behauptest wir wären gezwungen zu leben).
Denn Du hast ja einen Willen im Gegensatz zur Maschine die nur das macht, was dem Willen ihrer Erbauer entspricht (manchmal auch nicht, aber das liegt dann daran, dass die Erbauer Hornochsen sind und die Maschine fehlerhaft programmieren).
Sie entspricht nur dem Willen des Erbauers, wenn man ihr keine Freiheiten gibt. Genau die entstehen aber durch's Lernen und späterem Abwägen des Gelernten (Zielerfüllung).
Das Lernen selbst kann völlig unabhängig vom Erbauer sein, sei es durch unabhängige "KI-Lehrer" bis hin zur Beobachtungen in der Welt.
Was hat Lernen jetzt hier mit Willen zu tun?
Es geht einzig und allein um die Frage ob Du einen eigenen Willen hast, und ob die Maschine sowas hat.
Du sagst wir können ihr einen geben. Nehmen wir an das könnten wir. Dann wäre die Maschine aber nicht mehr völlig kontrollierbar. Das will keiner.
Was wir wollen ist eine Maschine die nur das tut was wir wollen. WIR wollen hier Etwas, nicht die Maschine, verstehst Du?
Das ist das was man Fremdbestimmung nennt. Die Maschine folgt einem fremden Willen (nämlich unserem) und nicht einem eigenen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 12:08

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:52
Burkart hat geschrieben :
Sa 25. Jun 2022, 11:41
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:12

Du streitest also ab, dass wir Menschen uns für oder gegen z.B. Krieg entscheiden könnnen, sehe ich das richtig?
Wir haben dMn keinen (freien) Willen. Richtig?
Doch, haben wir (mehr oder weniger). Ähnlich kann eine KI aber auch nach vielem Lernen zu einem ähnlichen WIllen gelangen, in dem sie abwägt.
Wenn Du ihr unüberwindbare Gesetze mitgibst kann sie das eben nicht.
Wir Menschen haben doch auch unüberwindbare "Gesetze"/Grenzen, z.B. werden wir ohne Hilfsmittel nie fliegen können.
Außerdem soll(t)en die grundlegenden Gesetze für die KI minimal gering sein (zumindest erstmal) Dienen und Lernen.
Das ist ja auch der Sinn der Robotergesetze. Die Maschine soll sich verhalten wie WIR das wollen und nicht so wie SIE das will (wenn sie überhaupt sowas wie einen Willen hat).
Genau, ein "wie sie das will" gibt es nur bedingt, weil sie sich eben NICHT gegen uns verhalten soll ("dienen"), ansonsten aber in ihrem Rahmen schon relativ frei sein kann.
Dass nicht alles Schwarz--Weiß ist, ist dir schon klar?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Jun 2022, 12:18

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:00
Burkart hat geschrieben :
Sa 25. Jun 2022, 11:46
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:16

Nein. Von wem denn?
Von der Natur, meiner Umwelt...
Die Natur schreibt Dir deinen Willen vor?
Nö. Wie sollte das gehen?
Die Natur (meine Eltern) haben mich in die Welt gesetzt, ohne dass ich gefragt wurde.
Auch sonst gibt uns die Natur nur einen Rahmen vor, in dem uns bewegen können, auch wenn wir den für selbstverständlich hinnehmen sollten. Und sei es nur die "Kleinigkeit", dass wir immer mal wieder schlafen müssen.
Du kannst Dich auch vor einen Zug werfen wenn Du willst (bitte nicht, das ist nur ein Beispiel, weil Du behauptest wir wären gezwungen zu leben).
Denn Du hast ja einen Willen im Gegensatz zur Maschine die nur das macht, was dem Willen ihrer Erbauer entspricht (manchmal auch nicht, aber das liegt dann daran, dass die Erbauer Hornochsen sind und die Maschine fehlerhaft programmieren).
Sie entspricht nur dem Willen des Erbauers, wenn man ihr keine Freiheiten gibt. Genau die entstehen aber durch's Lernen und späterem Abwägen des Gelernten (Zielerfüllung).
Das Lernen selbst kann völlig unabhängig vom Erbauer sein, sei es durch unabhängige "KI-Lehrer" bis hin zur Beobachtungen in der Welt.
Was hat Lernen jetzt hier mit Willen zu tun?
Wie ich schon schrieb, heißt Wille zwischen Dingen entscheiden und ggf. durchsetzen zu können.
Je mehr man weiß, desto besser kann man etwas beurteilen und so Entscheidungen besser abwägen.
Es geht einzig und allein um die Frage ob Du einen eigenen Willen hast, und ob die Maschine sowas hat.
Und es geht um Grauzonen dazwischen, wie schon früher geschrieben.
Du sagst wir können ihr einen geben. Nehmen wir an das könnten wir. Dann wäre die Maschine aber nicht mehr völlig kontrollierbar. Das will keiner.
"Völlig" ist so eine Sache... vielleicht mag eine Maschine manchmal besser handeln, als wir es im Moment annehmen.
Was wir wollen ist eine Maschine die nur das tut was wir wollen.
Eine Frage ist halt, ob kurz- oder langfristig; das mag nicht immer identisch sein.
WIR wollen hier Etwas, nicht die Maschine, verstehst Du?
Grundsätzlich schon.
Das ist das was man Fremdbestimmung nennt. Die Maschine folgt einem fremden Willen (nämlich unserem) und nicht einem eigenen.
Siehe Scharz-Weiß... ein begrenzter Wille mag sinnvoll sein, a la menschlicher Diener.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten