Burkart hat geschrieben : ↑ Sa 25. Jun 2022, 12:18
NaWennDuMeinst hat geschrieben : ↑ Sa 25. Jun 2022, 12:00
Burkart hat geschrieben : ↑ Sa 25. Jun 2022, 11:46
Von der Natur, meiner Umwelt...
Die Natur schreibt Dir deinen Willen vor?
Nö. Wie sollte das gehen?
Die Natur (meine Eltern) haben mich in die Welt gesetzt, ohne dass ich gefragt wurde.
Dann beende es doch, wenn es dir nicht gefällt. Den freien Willen dazu hast Du, glaub's mir. Was sollte Dich daran hindern?
Ausserdem verstehst Du einfach überhaupt nicht worum es geht.
Nochmal: Es geht darum dass die Maschine nicht selbstbestimmt ist, sondern fremdbestimmt.
Und nein, nein, nein, das ist bei uns Menschen nicht so.
Es gibt zwar auch für uns äußere Zwänge, aber keiner kann dir vorschreiben was Du zu wollen hast. Das kannst nur Du selber.
Dass bei der Willensbildung auch Einflüsse von aussen eine Rolle spielen ändert doch daran gar nichts.
Wie ich schon schrieb, heißt Wille zwischen Dingen entscheiden und ggf. durchsetzen zu können.
Je mehr man weiß, desto besser kann man etwas beurteilen und so Entscheidungen besser abwägen.
Das ist nicht Wille sondern Willensbildung.
Bei den Robotergesetzen gibt es für die Maschine aber keine Willensbildung. Sie hat da keine Wahl. Egal was sie lernt, sie darf diese Regeln nicht verletzen.
Das ist kein freier, eigener Wille, da kanns Du mir erzählen was Du willst.
Es geht einzig und allein um die Frage ob Du einen eigenen Willen hast, und ob die Maschine sowas hat.
Und es geht um Grauzonen dazwischen, wie schon früher geschrieben.
Nein, darum geh es nicht. Es geht um die Frage ob die Maschine einen eigenen Willen hat (haben darf). Und nein, den hat sie nicht, im Gegensatz zum Menschen.
Du sagst wir können ihr einen geben. Nehmen wir an das könnten wir. Dann wäre die Maschine aber nicht mehr völlig kontrollierbar. Das will keiner.
"Völlig" ist so eine Sache... vielleicht mag eine Maschine manchmal besser handeln, als wir es im Moment annehmen.
Auch hier wieder: Du gehst auf das eigentliche Argument gar nicht ein, sondern weichst aus auf eine ganz andere Fragestellung.
Natürlich könnte eine Maschine durch Überlegung und Abwägung darauf kommen, dass man Menschen nicht verletzen darf.
Sie könnte aber auch zu einem anderen Schluß kommen (so wie wir Menschen auch).
Das heißt das
könnte sie,
wenn sie frei
wäre. Ist sie aber nicht. Diese Freiheit der Entscheidung hat sie einfach nicht, wenn wir ihr die Robotergesetz aufzwingen.
Und genau das ist ja auch der Zweck der Robotergesetze. Die Maschine soll in diesen Punkten nicht frei entscheiden können, sondern nur das tun was
wir wolllen.
Was wir wollen ist eine Maschine die nur das tut was wir wollen.
Eine Frage ist halt, ob kurz- oder langfristig; das mag nicht immer identisch sein.
Nein, das ist hier überhaupt nicht die Frage. Wir werden auch langfristig nicht wollen, dass Maschinen die Möglichkeit haben sich zu entscheiden uns zu töten.
Und warum? Weil wir das nicht wollen, sondern wir wollen dass die Maschine nicht ihrem sondern unserem Willen folgt.
Siehe Scharz-Weiß... ein begrenzter Wille mag sinnvoll sein, a la menschlicher Diener.
Es gibt keine menschlichen Diener die keinen eigenen Willen haben.
Es gibt Menschen die gegen ihren Willen zu etwas gezwungen werden.
Es gibt auch Menschen die freiwillig dienen.
Es gibt aber nicht einen Menschen der aufgrund seiner "Konstruktion" gar nicht anders wollen kann als zu dienen.