Eine Einordnung der KI nach Schopenhauer ..

Dieses Unterforum beschäftigt sich mit dem Umfang und den Grenzen der menschlichen Erkenntnisfähigkeit sowie um die speziellen Gesichtspunkte des Systems der modernen Wissenschaften.
Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Do 23. Jun 2022, 01:39

Pflichtenethik, auch deontologische Ethik (von gr. to deon "Das Notwendige") genannt, ist eine ethische Theoriebildung, die sich vor allem mit der Frage auseinandersetzt: "Was soll ich tun?"

Was soll ich tun. Für eine Maschine stellt sich diese Frage gar nicht. Was sie tun soll ist durch ihre Programmierung festgelegt. So etwas wie eine Wahlmöglichkeit haben Maschinen nicht.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Do 23. Jun 2022, 01:41

Burkart hat geschrieben :
Mi 22. Jun 2022, 22:12
Timberlake, mir ist auch nicht ganz klar, was du sagen willst.
Nimm wirklich Asimovs Robotergesetz(e) als Vorbild, sodass die Roboter/KI sich nie wichtiger nimmt als den Menschen und so ihn nicht aus dem Grund gefährden können soll.
Wer ihn/sie anders programmiert, macht sich entsprechend schuldig.
Menschen, die so agieren, können im Extremfall auch gefährlich werden (Stichwort "Putin").
Zumindest hast du das, im Gegensatz zu Jörn , mit einer Frage verknüpft. Darauf kann man als solches zumindest Antworten !

Wenn man als KI , wie ein Lebewesen, darauf aus ist , sich selbst zu erhalten oder gar sich Fortzupflanzen , dann wird diese KI irgendwann im Konflikt mit uns stehen. So wie auch Menschen sich deshalb irgendwann , unter einander im Konflikt befinden werden. (Stichwort "Putin")
Timberlake hat geschrieben :
Mi 22. Jun 2022, 14:58


Was ist aber wenn die KI gelernt hat , selbst kaputt gehen zu können ? Sie als solches selbsttändig Algorithmen entwickelt , um sich in diesem Fall selbst wieder herzustellen ..
  • Autopoiesis
    Eine weitere wesentliche Voraussetzung für das Vorhandensein eines Systems ist die Fähigkeit, sich selbst (wieder-)herzustellen, also die Autopoiesis. Der Merksatz im Luhmannschen Sinne lautet: Wenn es sich nicht selbst macht, ist es kein System. Dabei bezog sich Luhmann auf das Konzept der chilenischen Neurobiologen Humberto Maturana und Francisco Varela. Diese wendeten das Konzept der Autopoiesis auf organische Prozesse an und meinten damit, dass Systeme sich mit Hilfe ihrer eigenen Elemente selbst herstellen. Lebewesen sind die ursprünglichen Beispiele für autopoietische Systeme. Für den Beobachter ereignet sich Leben von selbst, ohne dass ein äußerer herstellender Prozess eingreift. Luhmann überträgt dieses Konzept nicht nur auf biologische Systeme, sondern auch auf psychische Systeme und insbesondere soziale Systeme. Auch diese reproduzieren sich selbst mit Hilfe ihrer systemeigenen Operationen (zur weiteren Erklärung dieser Operationen: siehe unten)
und somit .. so Niclas Luhmann .. eine wesentliche Voraussetzung für das Vorhandensein eines Systems erfüllt ist. Wenn denn Lebewesen ein ursprüngliches Beispiel, für die Selbstwiederherstellung sind , was ist , wenn diese KI infolge dessen das entwickelt , was insbeondere uns Menschen , als Lebewesen auszeichnet und zwar die Angst vor dem "ausschalten" .

Sollten wir dem zu folge möglicherweise tunlichst alles unterlassen, was eine KI dazu befähigt sich selbst wieder herzustellen ?

Unter Bezugnahme auf Luhmanns Autopoiesis Begriff , das .. und zwar , dass es erst gar nicht zu diesem Konflikt kommen kann .. meinte ich damit , tunlichst alles zu unterlassen, was eine KI dazu befähigt sich selbst wieder herzustellen. ( Stichwort: Replikanten bzw. Replikatoren)

Denn diese . . sich selbst (wieder-) herstellenden .. KI s, werden sich um Asimovs Robotergesetz(e) genau so viel bzw. wenig scheren , wie .. die sich selbst (wieder-) herstellende ...menschliche Spezies , um den kategorischen Imperativ von Kant. Glücklicherweise sind wir davon noch sehr weit entfernt. ..
NaWennDuMeinst hat geschrieben :
Do 23. Jun 2022, 01:39
Pflichtenethik, auch deontologische Ethik (von gr. to deon "Das Notwendige") genannt, ist eine ethische Theoriebildung, die sich vor allem mit der Frage auseinandersetzt: "Was soll ich tun?"

Was soll ich tun. Für eine Maschine stellt sich diese Frage gar nicht. Was sie tun soll ist durch ihre Programmierung festgelegt. So etwas wie eine Wahlmöglichkeit haben Maschinen nicht.
.. deshalb stellt sich auch diese Frage derzeit noch nicht. Möglicherweise wird sie sich auch nie stellen. Weil , bevor es dazu überhaupt kommen kann , dass Maschinen sich selbst (wieder-) herstellen und sich deshalb die Frage überhaupt erst stellen können "Was soll ich tun" , die menschliche Spezies sich selbst den gar ausgemacht hat . Eben weil sie nicht mit der Pflichtenethik, auch deontologische Ethik zu fassen ist. Denn nach dieser Ehtik wüsste man durchaus , was zu tun ist ? Kants kategorischer Imperativ ist diesbezüglich genau so unmissverständlich , wie Asimovs Robotergesetz(e).
NaWennDuMeinst hat geschrieben :
Mi 22. Jun 2022, 16:43

Und ich verstehe gerade nicht, was Kant mit den drei Robotergesetzen (asimov'sche Gesetze) zu tun hat.
.. möglicherweise verstehst du ja nun, was Kant und sein kategorischer Imperativ mit den drei Robotergesetzen (asimov'sche Gesetze) zu tun hat. Wenn der Mensch ein Roboter wäre , dann wäre er auch mit der Pflichtenethik, auch deontologische Ethik zu fassen. Nur müsste er dazu das Ablegen , was ihn lt. Luhmnann zum (lebendigen) System macht und zwar die Fähigkeit sich selbst (wieder-) her zu stellen.




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Do 23. Jun 2022, 03:41

Jörn Budesheim hat geschrieben :
Mo 13. Jun 2022, 14:02
Reflektiert sein heißt - einfach skizziert - meines Erachtens: einen Schritt zurücktreten und die Situation, in der man sich befindet - inklusive der eigenen Position in ihr - in den Blick nehmen. Ich schlage bewusst eine Metapher vor, die auf "Kopf" oder "Bauch" verzichtet.

Um Hinblick dessen , was euch unverständlich erscheint .. "in diesem Sinne" .. gleichfalls eine Metapher zu verwenden. Wenn das Unverständliche in meinen letzten Beiträgen ein Schloss ist , dann ist dazu die Fähigkeit sich selbst (wieder-) her zu stellen der Schlüssel.
Ein Schlüssel , der sich bezeichnender Weise weder in den Beitrag von Burkart , noch von NaWennDuMeinst geschweige denn Jörn Budesheim findet. Insofern wundert mich ihr Unverständnis überhaupt nicht.
  • Autopoiesis
    Eine weitere wesentliche Voraussetzung für das Vorhandensein eines Systems ist die Fähigkeit, sich selbst (wieder-)herzustellen, also die Autopoiesis. Der Merksatz im Luhmannschen Sinne lautet: Wenn es sich nicht selbst macht, ist es kein System. Dabei bezog sich Luhmann auf das Konzept der chilenischen Neurobiologen Humberto Maturana und Francisco Varela. Diese wendeten das Konzept der Autopoiesis auf organische Prozesse an und meinten damit, dass Systeme sich mit Hilfe ihrer eigenen Elemente selbst herstellen. Lebewesen sind die ursprünglichen Beispiele für autopoietische Systeme.Für den Beobachter ereignet sich Leben von selbst, ohne dass ein äußerer herstellender Prozess eingreift. Luhmann überträgt dieses Konzept nicht nur auf biologische Systeme, sondern auch auf psychische Systeme und insbesondere soziale Systeme. Auch diese reproduzieren sich selbst mit Hilfe ihrer systemeigenen Operationen (zur weiteren Erklärung dieser Operationen: siehe unten)

.. denn nach meiner Meinung könnte man dieses Konzept der Autopoiesis, zumindest in der Theorie , in Form einer KI , durch aus weitergehend auch auf technische und damit unorganische Systeme übertragen. Wohlgemerkt mit allen , den von mir geschilderten Risiken und Nebenwirkungen.




1+1=3
Beiträge: 577
Registriert: Di 22. Jun 2021, 00:50

Do 23. Jun 2022, 09:58

Naturgemäß muss ein System "aktiv" etc. aufrecht- oder selbsterhaltend sein, sonst wäre es ja keines (d.h. kein "stabiles", "dauerhaftes", sondern nur eine Art "flüchtiges, vorübergehendes Ereignis", oder so). Und in diesem Sinne also "(permanent) selbsterschaffend" ("autopoietisch"), d.h. selbstreproduzierend. Dagegen etwas "künstlich", sozusagen "von außen" Zusammengeschraubtes" oder so (also "Old School"-"Maschinen") zerfallen über kurz oder lang auch wieder (allein schon aus rein statistisch-"entropischen" Gründen - sie gehen mit der Zeit wieder kaputt). Kybernetische Maschinen dagegen "achten" & "kümmern" sich, gelinde gesagt, ja schon definitionsgemäß auf sich resp. um sich selbst, auf dass sie vorgängigen, ihnen in diesem Fall freilich "eingebauten" Zielen eben selbsttätig nachkommen (über ihr "Primärziel" der "aktiven, gezielten, gleichsam 'geliehen beabsichtigten/intendierten' " usw. usf. Selbsterhaltung hinaus, versteht sich). Das ist ein wesentlicher Unterschied zu den "herkömmlichen" Maschinen und tatsächlich (mindestens) der Anfang von so etwas wie, wenn auch ursprünglich künstlich eingerichteter (aber die Genese derartiger "Systeme" ist Nebenthema und entsprechend irrelevant), "echter Selbständigkeit" usf.
Und was besagte "Risiken & Nebenwirkungen" angeht, so stehen diese in der Tat nicht schon vorher fest, sondern es kommt auf die weitere Entwicklung solcher "Systeme" an. Wie dieses "Thema" "historisch" "evolviert" (!)...




Körper
Beiträge: 483
Registriert: Fr 18. Feb 2022, 20:14

Do 23. Jun 2022, 19:55

Timberlake hat geschrieben :
Mi 25. Mai 2022, 01:22
Um auf das Thema KI zurück zu kommen , so würde ich sie übrigens , bezüglich dieses Willens , zwischen den Wolken, Bächen , Kristallen und den Pflanzen verorten.
Wieso möchtest du die KI in das indische Weltbild aus "Illusion" und "Entwicklung des spirituellen Funkens (in immer 'höheren' Lebewesen)" einordnen?
Ich persönlich würde zuerst das indische Weltbild "peinlich befragen", bevor es als Richtschnur für moderne Entwicklungen herhalten darf.
Timberlake hat geschrieben :
Mi 25. Mai 2022, 01:38
Das Thema einer „menschlichen“ KI wäre nach dieser .. tieferen Einsicht in das Wesen der Welt (Schoppenhauer) .. somit gegessen.
Warum so kompliziert, man könnte es an der Haarfarbe oder am Mundgeruch festmachen und schon sieht es für die KI auch nicht so dolle aus.
Macht man natürlich nur ungern, denn hierbei erkennt man sehr schnell, dass Haarfarbe und Mundgeruch nicht so wirklich vernünftige Kriterien darstellen.
Ist das Kriterium der indischen Ansichten denn mehr, als Haarfarbe und Mundgeruch?




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Do 23. Jun 2022, 21:57

Timberlake hat geschrieben :
Do 23. Jun 2022, 01:41
NaWennDuMeinst hat geschrieben :
Do 23. Jun 2022, 01:39
Pflichtenethik, auch deontologische Ethik (von gr. to deon "Das Notwendige") genannt, ist eine ethische Theoriebildung, die sich vor allem mit der Frage auseinandersetzt: "Was soll ich tun?"

Was soll ich tun. Für eine Maschine stellt sich diese Frage gar nicht. Was sie tun soll ist durch ihre Programmierung festgelegt. So etwas wie eine Wahlmöglichkeit haben Maschinen nicht.
.. deshalb stellt sich auch diese Frage derzeit noch nicht. Möglicherweise wird sie sich auch nie stellen. Weil , bevor es dazu überhaupt kommen kann , dass Maschinen sich selbst (wieder-) herstellen und sich deshalb die Frage überhaupt erst stellen können "Was soll ich tun" , die menschliche Spezies sich selbst den gar ausgemacht hat . Eben weil sie nicht mit der Pflichtenethik, auch deontologische Ethik zu fassen ist. Denn nach dieser Ehtik wüsste man durchaus , was zu tun ist ? Kants kategorischer Imperativ ist diesbezüglich genau so unmissverständlich , wie Asimovs Robotergesetz(e).
Diese Analogie sehe ich nicht. Kants kategorischer Imperativ ist ein ethischer Leitfaden aus dem sich dann unterschiedliche moralische Ansätze (und moralische Normen) ergeben können.
Assimovs Robotergesetze sind genau das Gegenteil: "Tue genau das und nichts anderes". Der Maschine soll damit gerade NICHT erlaubt sein selbst zu denken, geschweige denn eigene moralische Entscheidungen zu treffen.
Die einzige Ähnlichkeit die ich sehe ist die, dass sowohl bei den Robotergesetzen als auch bei Kant der Mensch die höchste Priorität hat.


.. möglicherweise verstehst du ja nun, was Kant und sein kategorischer Imperativ mit den drei Robotergesetzen (asimov'sche Gesetze) zu tun hat. Wenn der Mensch ein Roboter wäre , dann wäre er auch mit der Pflichtenethik, auch deontologische Ethik zu fassen. Nur müsste er dazu das Ablegen , was ihn lt. Luhmnann zum (lebendigen) System macht und zwar die Fähigkeit sich selbst (wieder-) her zu stellen.
Nein, es tut mir leid. Ich verstehe es nicht. Wieso wäre der Mensch "nur mit der Pflichtenethik zu fassen" wenn er ein Roboter wäre?
Du meinst weil er dann gar nicht anders könnte, als zu gehorchen?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Do 23. Jun 2022, 22:09

1+1=3 hat geschrieben :
Do 23. Jun 2022, 09:58
Kybernetische Maschinen dagegen "achten" & "kümmern" sich, gelinde gesagt, ja schon definitionsgemäß auf sich resp. um sich selbst, auf dass sie vorgängigen, ihnen in diesem Fall freilich "eingebauten" Zielen eben selbsttätig nachkommen (über ihr "Primärziel" der "aktiven, gezielten, gleichsam 'geliehen beabsichtigten/intendierten' " usw. usf. Selbsterhaltung hinaus, versteht sich). Das ist ein wesentlicher Unterschied zu den "herkömmlichen" Maschinen und tatsächlich (mindestens) der Anfang von so etwas wie, wenn auch ursprünglich künstlich eingerichteter (aber die Genese derartiger "Systeme" ist Nebenthema und entsprechend irrelevant), "echter Selbständigkeit" usf.
Cool. Dann ist ein Trockner mit selbstreinigendem Kondensator tatsächlich eine künstliche KI-Lebensform, weil er ja versucht sich selbst zu erhalten.
So einfach ist das. Na dann.
Nur verstehe ich dann nicht, wieso das ein Unterschied zu heutigen Maschinen ist. Selbstwartende Maschinen gibt es ja schon längst. Die hält keiner für Lebensformen. Hat wohl keiner mitbekommen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Do 23. Jun 2022, 23:12

Timberlake hat geschrieben :
Do 23. Jun 2022, 01:41
Wenn man als KI , wie ein Lebewesen, darauf aus ist , sich selbst zu erhalten oder gar sich Fortzupflanzen , dann wird diese KI irgendwann im Konflikt mit uns stehen. So wie auch Menschen sich deshalb irgendwann , unter einander im Konflikt befinden werden. (Stichwort "Putin")
Deshalb ja auch Asimovs 1. Gesetz vor dem 3., also der Mensch ist immer wichtiger als die KI/der Roboter. So kann es nicht wirklich zum Konflikt kommen; im Zweifelsfrage kann die KI/der Roboter beim Menschen nachfragen, wenn sie/er sich unsicher ist.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

1+1=3
Beiträge: 577
Registriert: Di 22. Jun 2021, 00:50

Do 23. Jun 2022, 23:41

NaWennDuMeinst hat geschrieben :
Do 23. Jun 2022, 22:09
1+1=3 hat geschrieben :
Do 23. Jun 2022, 09:58
Kybernetische Maschinen dagegen "achten" & "kümmern" sich, gelinde gesagt, ja schon definitionsgemäß auf sich resp. um sich selbst, auf dass sie vorgängigen, ihnen in diesem Fall freilich "eingebauten" Zielen eben selbsttätig nachkommen (über ihr "Primärziel" der "aktiven, gezielten, gleichsam 'geliehen beabsichtigten/intendierten' " usw. usf. Selbsterhaltung hinaus, versteht sich). Das ist ein wesentlicher Unterschied zu den "herkömmlichen" Maschinen und tatsächlich (mindestens) der Anfang von so etwas wie, wenn auch ursprünglich künstlich eingerichteter (aber die Genese derartiger "Systeme" ist Nebenthema und entsprechend irrelevant), "echter Selbständigkeit" usf.
Cool. Dann ist ein Trockner mit selbstreinigendem Kondensator tatsächlich eine künstliche KI-Lebensform, weil er ja versucht sich selbst zu erhalten.
So einfach ist das. Na dann.
Nur verstehe ich dann nicht, wieso das ein Unterschied zu heutigen Maschinen ist. Selbstwartende Maschinen gibt es ja schon längst. Die hält keiner für Lebensformen. Hat wohl keiner mitbekommen.
Was ist denn eine künstliche KI-Lebensform? Ich habe im Leben noch niemals irgendeine Maschine, auch keine "selbststeuernde" (= kybernetische im eigentlichen, im Wortsinn), als Lebensform angesehen, geschweige denn so genannt. Und die über alles stehende, geheimnisvolle, geistbegabte, kreative, lebendige Crown of Creation Mensch ist ja ach so grundverschieden gegenüber allen anderen existierenden Phänomen - da bin ich doch versucht zu sagen, wozu dann überhaupt noch einen allmächtigen Gott, wenn ein derartiges... wahres Wunder einem geoffenbart wird. Da bleibe ich dann doch lieber strikt ein "naturalistischer Materialist", oder wie die einschlägigen Etikettierungem sonst noch heißen mögen, mit denen man so eilfertig "von interessierter Seite" einsortiert und abgeheftet/abgehakt wird (als "erledigter Fall" am liebsten). Der übrigens so etwas wie "Geist" im empathischen Sinne für ein real existierendes Phänomen hält (und keineswegs beschränkt auf oder zwangsläufig "nur auf biologischen Trägermedien laufend"...). Aber das nur nebenbei. (Da kann man auch mal bei Maturana & Co. nachsehen, wo die bspw. Bewusstsein "verorten"... Entsprechende "Systeme" gehen über allein biologische (dann Unter-)Einheiten hinaus... Siehe z.B. den "Geist" oder die "Intelligenz" usw. eines Ökosystems. Oder eben bei SÄMTLICHEN selbstregulierenden Systeme... Da ist - biologisches - "Leben" nur eine mögliche Unterklasse des Ganzen.)




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 24. Jun 2022, 01:21

NaWennDuMeinst hat geschrieben :
Do 23. Jun 2022, 21:57

Diese Analogie sehe ich nicht. Kants kategorischer Imperativ ist ein ethischer Leitfaden aus dem sich dann unterschiedliche moralische Ansätze (und moralische Normen) ergeben können.
Assimovs Robotergesetze sind genau das Gegenteil: "Tue genau das und nichts anderes". Der Maschine soll damit gerade NICHT erlaubt sein selbst zu denken, geschweige denn eigene moralische Entscheidungen zu treffen.
Die einzige Ähnlichkeit die ich sehe ist die, dass sowohl bei den Robotergesetzen als auch bei Kant der Mensch die höchste Priorität hat.
Genau .. bei Kant, wie auch bei den Robotergesetzen , hat der Mensch die höchste Priorität. Eine höchste Priorität, der allerdings derzeit nur die Roboter nachkommen und warum können sie dem nachkommen ? Was macht den Unterschied ? Besteht der Unterschied etwa darin , dass nur der Mensch denken kann ? Eigentlich sollte man doch meinen , gerade weil der Mensch denken kann , sollte er dem kategorischen Imperativ nachkommen können.
  • Kategorischer Imperativ einfach erklärt

    Was ist der kategorische Imperativ nach Immanuel Kant? Das ist ein Prinzip, mit dem du moralisch richtige Handlungsentscheidungen treffen kannst. Er lautet: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“

    Ausschlaggebend ist also, dass du dir vor einer Handlung deine persönlichen Leitsätze (Maxime) vor Augen führst. Du fragst dich also: Möchte ich, dass alle anderen Menschen auch so handeln? Wenn die Antwort ja lautet, ist die Handlung moralisch; ist die Antwort nein, dann ist sie es nicht.
Wie sollte man sich auch sonst , als ohne das man darüber nachdenkt , sich fragen können "Möchte ich, dass alle anderen Menschen auch so handeln?"

Nur mal zum Vergleich ..

  • Die Asimov’schen Gesetze lauten:

    Ein Roboter darf kein menschliches Wesen (wissentlich]) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.


.. das Einhalten dieser Gesetzte bekommt derzeit ein Roboter ganz ohne nachdenken hin. Zumindest wenn keine Fehlfunktion vorliegt.

Man könnte fast meinen , dass nicht nur bloß der Maschine , sondern auch dem Menschen NICHT erlaubt sein sollte selbst zu denken.
Burkart hat geschrieben :
Do 23. Jun 2022, 23:12
Timberlake hat geschrieben :
Do 23. Jun 2022, 01:41
Wenn man als KI , wie ein Lebewesen, darauf aus ist , sich selbst zu erhalten oder gar sich Fortzupflanzen , dann wird diese KI irgendwann im Konflikt mit uns stehen. So wie auch Menschen sich deshalb irgendwann , unter einander im Konflikt befinden werden. (Stichwort "Putin")
Deshalb ja auch Asimovs 1. Gesetz vor dem 3., also der Mensch ist immer wichtiger als die KI/der Roboter. So kann es nicht wirklich zum Konflikt kommen; im Zweifelsfrage kann die KI/der Roboter beim Menschen nachfragen, wenn sie/er sich unsicher ist.
Ob es unter diesen Umständen eine keine gute Idee ist , beim Menschen nach zufragen, würde ich bezweifeln.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 02:10

Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21
Man könnte fast meinen , dass nicht nur bloß der Maschine , sondern auch dem Menschen NICHT erlaubt sein sollte selbst zu denken.
Und damit verlässt Du den Pfad der Moral (und auch den Kants) völlig.
Filmtip hier: I, Robot.
Eine rein logisch agierende "Superintelligenz" kommt da am Ende ihrer Überlegungen zu dem Schluß, dass die Menschen vor sich selbst geschützt werden müssen (wenn es sein muss unter Einsatz von Gewalt und Zwang).
"Verstehst Du meine Logik nicht?"
"Doch. Aber sie ist mir einfach zu herzlos".

Damit man sich für die Menschen richtig und moralisch einsetzen kann muss man sie zuerst lieben. Und genau das können Maschinen nicht.
Sie haben gar keine Ahnung was es heißt zu lieben.
Moral ist nicht nur Logik. Sie wird auch gespeist von tiefen Emotionen, zur Welt, zu den Tieren, zu den Menschen. Und man kann das Handeln und Denken der Menschen (und ihre Moral) nicht nachvollziehen, wenn man - wie eine Maschine - nichts spürt.

Und das zeigt eigentlich sehr deutlich, dass es unmöglich ist, eine Intelligenz auf menschlichem Niveau mit Apparaten nachzubilden die nur Logikapparate sind (und genau das sind Computer, reine Logikapparate).



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 02:14

1+1=3 hat geschrieben :
Do 23. Jun 2022, 23:41
NaWennDuMeinst hat geschrieben :
Do 23. Jun 2022, 22:09
1+1=3 hat geschrieben :
Do 23. Jun 2022, 09:58
Kybernetische Maschinen dagegen "achten" & "kümmern" sich, gelinde gesagt, ja schon definitionsgemäß auf sich resp. um sich selbst, auf dass sie vorgängigen, ihnen in diesem Fall freilich "eingebauten" Zielen eben selbsttätig nachkommen (über ihr "Primärziel" der "aktiven, gezielten, gleichsam 'geliehen beabsichtigten/intendierten' " usw. usf. Selbsterhaltung hinaus, versteht sich). Das ist ein wesentlicher Unterschied zu den "herkömmlichen" Maschinen und tatsächlich (mindestens) der Anfang von so etwas wie, wenn auch ursprünglich künstlich eingerichteter (aber die Genese derartiger "Systeme" ist Nebenthema und entsprechend irrelevant), "echter Selbständigkeit" usf.
Cool. Dann ist ein Trockner mit selbstreinigendem Kondensator tatsächlich eine künstliche KI-Lebensform, weil er ja versucht sich selbst zu erhalten.
So einfach ist das. Na dann.
Nur verstehe ich dann nicht, wieso das ein Unterschied zu heutigen Maschinen ist. Selbstwartende Maschinen gibt es ja schon längst. Die hält keiner für Lebensformen. Hat wohl keiner mitbekommen.
Was ist denn eine künstliche KI-Lebensform? Ich habe im Leben noch niemals irgendeine Maschine, auch keine "selbststeuernde" (= kybernetische im eigentlichen, im Wortsinn), als Lebensform angesehen, geschweige denn so genannt. Und die über alles stehende, geheimnisvolle, geistbegabte, kreative, lebendige Crown of Creation Mensch ist ja ach so grundverschieden gegenüber allen anderen existierenden Phänomen - da bin ich doch versucht zu sagen, wozu dann überhaupt noch einen allmächtigen Gott, wenn ein derartiges... wahres Wunder einem geoffenbart wird. Da bleibe ich dann doch lieber strikt ein "naturalistischer Materialist", oder wie die einschlägigen Etikettierungem sonst noch heißen mögen, mit denen man so eilfertig "von interessierter Seite" einsortiert und abgeheftet/abgehakt wird (als "erledigter Fall" am liebsten). Der übrigens so etwas wie "Geist" im empathischen Sinne für ein real existierendes Phänomen hält (und keineswegs beschränkt auf oder zwangsläufig "nur auf biologischen Trägermedien laufend"...). Aber das nur nebenbei. (Da kann man auch mal bei Maturana & Co. nachsehen, wo die bspw. Bewusstsein "verorten"... Entsprechende "Systeme" gehen über allein biologische (dann Unter-)Einheiten hinaus... Siehe z.B. den "Geist" oder die "Intelligenz" usw. eines Ökosystems. Oder eben bei SÄMTLICHEN selbstregulierenden Systeme... Da ist - biologisches - "Leben" nur eine mögliche Unterklasse des Ganzen.)
Nanana. Jetzt beiss dich mal nicht an diesem einen Begriff fest. Mir ging es ja eigentlich um was anderes, nämlich um das Kriterium das hier aufgerufen wird: Selbsterneuerung, bzw Selbsterhaltung.
Ich sehe nämlich nicht, warum diese Fähigkeiten aus einer Maschine etwas Anderes machen sollten. Denn wenn dem so wäre müssten wir selbstreinigende Backöfen und selbstwartende Waschmaschinen als etwas Anderes ansehen als Maschinen. Das macht aber offensichtlich keiner. Hat das nun keiner verstanden oder sind es eben trotzdem einfach nur Maschinen?

Geist: Ich weiß nicht woher hier diese Verulkung des Begriffes kommt. Ich habe niemals gesagt, dass hier irgend ein Flattermann von Geist durch den Äther schwebt. Das ist (bei mir) mit Geist nicht gemeint. Sondern eher sowas wie "Ich", "Bewusstsein", "Emotionen" usw... alles zusammen ergibt dann etwas was man auch Persönlichkeit nennen kann. Ich kenne keine Maschine die Persönlichkeit hat, nicht einmal Etwas das dem auch nur ansatzweise nahe käme. Es gibt auch keine wissenschaftlichen These dazu wie man Derartiges in Computern nachbilden könnte. Trotzdem meint man hier aber das ist alles ganz einfach: Man muss nur Lehm in eine Schüssel geben, dreimal umrühren und dann hat man den Golem.... äh die KI, die so klug ist wie ein Mensch. So einfach ist es dann aber wohl doch nicht. Deshalb stelle ich einfach nur die Frage: Womit ist dieser grenzenlose Optimismus (wir bauen uns einfach eine intelligente Maschine) gerechtfertigt?
Zuletzt geändert von NaWennDuMeinst am Fr 24. Jun 2022, 02:32, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 02:30

Burkart hat geschrieben :
Do 23. Jun 2022, 23:12
So kann es nicht wirklich zum Konflikt kommen
Aber dann ist dein Roboter eben auch nicht frei und selbstdenkend, sondern ein programmierter Sklave.
Eine Maschine eben.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 24. Jun 2022, 02:42

NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:10
Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21
Man könnte fast meinen , dass nicht nur bloß der Maschine , sondern auch dem Menschen NICHT erlaubt sein sollte selbst zu denken.
Und damit verlässt Du den Pfad der Moral (und auch den Kants) völlig.
Filmtip hier: I, Robot.
.. und genau das ist das Problem bei I, Robot . Eine Maschine ist auf einmal in der Lage selbst zu denken und schon ist es mit den Asimov’schen Gesetzen Essig . Danke , dass du mit deinem Beispiel , an das ich übrigens in diesem Zusammenhang schon selbst gedacht habe , meine These nochmal bestätigt hast.
Zuletzt geändert von Timberlake am Fr 24. Jun 2022, 02:55, insgesamt 1-mal geändert.




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 24. Jun 2022, 02:52

NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:14

Nanana. Jetzt beiss dich mal nicht an diesem einen Begriff fest. Mir ging es ja eigentlich um was anderes, nämlich um das Kriterium das hier aufgerufen wird: Selbsterneuerung, bzw Selbsterhaltung.
Ich sehe nämlich nicht, warum diese Fähigkeiten aus einer Maschine etwas Anderes machen sollten. Denn wenn dem so wäre müssten wir selbstreinigende Backöfen und selbstwartende Waschmaschinen als etwas Anderes ansehen als Maschinen. Das macht aber offensichtlich keiner. Hat das nun keiner verstanden oder sind es eben trotzdem einfach nur Maschinen?

Respekt darauf muss man erst einmal kommen .. mit selbstreinigenden Backöfen und selbstwartenden Waschmaschinen zu kontern. :)
  • Autopoiesis
    Eine weitere wesentliche Voraussetzung für das Vorhandensein eines Systems ist die Fähigkeit, sich selbst (wieder-)herzustellen, also die Autopoiesis.

    Der Merksatz im Luhmannschen Sinne lautet: Wenn es sich nicht selbst macht, ist es kein System.

    Dabei bezog sich Luhmann auf das Konzept der chilenischen Neurobiologen Humberto Maturana und Francisco Varela. Diese wendeten das Konzept der Autopoiesis auf organische Prozesse an und meinten damit, dass Systeme sich mit Hilfe ihrer eigenen Elemente selbst herstellen. Lebewesen sind die ursprünglichen Beispiele für autopoietische Systeme.Für den Beobachter ereignet sich Leben von selbst, ohne dass ein äußerer herstellender Prozess eingreift. Luhmann überträgt dieses Konzept nicht nur auf biologische Systeme, sondern auch auf psychische Systeme und insbesondere soziale Systeme. Auch diese reproduzieren sich selbst mit Hilfe ihrer systemeigenen Operationen (zur weiteren Erklärung dieser Operationen: siehe unten)
Würdest du denn meinen , dass sich als solches diese Backöfen und Waschmaschinen , so wie hier beschrieben , selbst machen?

Nach meinem Verständnis würde dergleichen auf Backöfen und Waschmaschinen erst dann zu treffen , wenn sie sich wie die Lebewesen in der freien Natur selbst machen bzw. selbst , ohne Zutun des Menschen, bauen und wiederherstellen würden.
Zuletzt geändert von Timberlake am Fr 24. Jun 2022, 03:09, insgesamt 5-mal geändert.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 02:59

Timberlake hat geschrieben :
Fr 24. Jun 2022, 02:42
NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:10
Timberlake hat geschrieben :
Fr 24. Jun 2022, 01:21
Man könnte fast meinen , dass nicht nur bloß der Maschine , sondern auch dem Menschen NICHT erlaubt sein sollte selbst zu denken.
Und damit verlässt Du den Pfad der Moral (und auch den Kants) völlig.
Filmtip hier: I, Robot.
.. und genau das ist das Problem bei I, Robot . Eine Maschine ist auf einmal in der Lage selbst zu denken und schon ist es mit den Asimov’schen Gesetzen Essig . Danke das du mit deinem Beispiel , an das ich übrigens in diesem Zusammenhang schon selbst gedacht habe , meine These nochmal bestätigt hast.
Jein. Der Film sagt ja noch viel mehr.
1. Es gibt keine Moral die den Menschen gerecht wird ohne "Herz". Was mit Herz gemeint ist können wir vielleicht nochmal genauer auseinanderfuddeln. Ich verkürze hier und nenne es Liebe (zu den Menschen) aber auch sowas wie Mitgefühl ist damit gemeint.
2. Das Superhirn in I,Robot wendet die assimov'schen Gesetze ja eigentlich konsequent an. Es geht ihr ja darum die Menschen zu beschützen (so wie es ihre Programmierung vorsieht). Nur was soll sie tun, wenn die Menschen sich selbst verletzen? Ihre Antwort (die von einem rein logischen Standpunkt aus durchaus nachvollziehbar ist) lautet: Ich muss die Menschen vor sich selber schützen. Nur bedeutet das eben Zwang und Gewalt, weil die Menschen sich natürlich nicht freiwillig entmündigen lassen wollen. Und das ist hier das Problem. Die Maschine kann nicht erkennen, dass ihr Schluß unmoralisch ist, weil ihr dazu etwas Wichtiges fehlt. Das Urteil, dass man Menschen nicht entmündigen darf um sie zu schützen folgt nämlich nicht aus der Logik, sondern aus der Liebe zu den Menschen die eben frei sein wollen. Der Maschine fehlt einfach das Verständnis dafür was es heißt ein Mensch zu sein und was Menschen brauchen. Ihr Urteil basiert auch nicht auf Mitgefühl, sondern ist rein logisch... kalt und berechnend.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 03:21

Timberlake hat geschrieben :
Fr 24. Jun 2022, 02:52
Würdest du denn meinen , dass sich als solches diese Backöfen und Waschmaschinen , so wie hier beschrieben , selbst machen?
Wenn ich mir eine Roboterstraße ansehe in der Maschinen Maschinen bauen, dann ist das schon nahe dran.
Worum es aber eigentlich geht, ist, dass in der Roboterstraße der Mensch der Herr im Hause ist, und die Roboter sind nur Werkzeuge. Dass sie sich selber bauen ändert daran nichts.
Aus ihnen werden deshalb nicht plötzlich andere Dinge, nur weil sie den Zweck erfüllen für den Menschen sie erdacht haben.
Sie bleiben maschinelle Werkzeuge.
Nach meinem Verständnis würde dergleichen auf Backöfen und Waschmaschinen erst dann zu treffen , wenn sie sich wie die Lebewesen in der Natur selbst machen bzw. selbst , ohne Zutun des Menschen bauen und wiederherstellen würden.
Ohne Zutun des Menschen ist unmöglich. Maschinen sind eine Erfindung des Menschen. Es wird sie immer nur geben weil Menschen etwas Dazugetan haben.
Selbst ausserirdische Maschinen sind nicht ohne das Zutun von Ausserirdischen in die Welt gekommen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 24. Jun 2022, 03:28

NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:59

2. Das Superhirn in I,Robot wendet die assimov'schen Gesetze ja eigentlich konsequent an. Es geht ihr ja darum die Menschen zu beschützen (so wie es ihre Programmierung vorsieht). Nur was soll sie tun, wenn die Menschen sich selbst verletzen? Ihre Antwort (die von einem rein logischen Standpunkt aus durchaus nachvollziehbar ist) lautet: Ich muss die Menschen vor sich selber schützen.
.. und das ist eben nicht logisch nachvollziehbar ..
  • Die Asimov’schen Gesetze lauten:

    Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
    Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
.. ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder Schaden zu fügen . Punkt
.. wie auch nach dem kategorischen Imperativ nicht gelogen werden darf .. Punkt
  • Darf man lügen, wenn es um Leben und Tod geht?
    Kant bestreitet, dass eine Lüge in Notwehr erlaubt ist. Das ist absurd. Aber die Gründe, die er anführt, sind es nicht.
    Um den kategorischen Imperativ ad absurdum zu führen, stellt Constant folgendes Gedanken­experiment an: Ein Mörder klopft an Ihre Tür und fragt, ob sich das Opfer, auf das er es abgesehen hat, in Ihrer Wohnung versteckt. Dürfen Sie lügen, um dem Flüchtenden das Leben zu retten, oder müssen Sie dem Mörder die Wahrheit sagen? Da niemand wollen kann, dass es ein Gesetz gibt, das zu lügen verlangt, darf auch derjenige, der dem Flüchtigen Asyl gewährt, nicht lügen.
.. als solches hat man "gefälligst" den Mörder wahrheitsgemäß darüber Auskunft zu geben , dass sich das Opfer in seiner Wohnung versteckt .. Punkt

Das ist logisch nachvollziehbar . Sicherlich , insbesondere bei Letzterem, ohne Herz .
  • Gesetzt aber, es gäbe etwas, dessen Dasein an sich selbst einen absoluten Wert hat, was, als Zweck an sich selbst, ein Grund bestimmter Gesetze sein könnte, so würde in ihm, und nur in ihm allein, der Grund eines möglichen kategorischen Imperativs, d.i. praktischen Gesetzes, liegen.
    Kant ...Grundlegung zur Metaphysik der Sitten
Nicht zu Lügen hätte , so wie von Kant hier beschrieben , als Zweck an sich selbst , einen absoluten Wert. Wie auch für einen Roboter die Unverletzbarkeit eines Menschen einen absoluten Wert zu haben hat. Übrigens auch für den Menschen. Was insofern zu hinterfragen ist , dass ein Chirurg ohne dem wohl kaum seinen Job machen kann und sollte irgengwann auch ein Roboter dazu in der Lage sein, so wird er wohl oder übel darüber mit den Asimov’schen Gesetzen in Konflikt geraten. Wenngleich den Menschen dadurch keinen Schaden zugefügt wird . Ganz im Gegenteil. Womit wir sowohl mit den Asimov’schen Gesetzen , wie auch dem kategorischen Imperativ wieder konform wären.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 24. Jun 2022, 18:03

Timberlake hat geschrieben :
Fr 24. Jun 2022, 03:28
NaWennDuMeinst hat geschrieben :
Fr 24. Jun 2022, 02:59

2. Das Superhirn in I,Robot wendet die assimov'schen Gesetze ja eigentlich konsequent an. Es geht ihr ja darum die Menschen zu beschützen (so wie es ihre Programmierung vorsieht). Nur was soll sie tun, wenn die Menschen sich selbst verletzen? Ihre Antwort (die von einem rein logischen Standpunkt aus durchaus nachvollziehbar ist) lautet: Ich muss die Menschen vor sich selber schützen.
.. und das ist eben nicht logisch nachvollziehbar ..
  • Die Asimov’schen Gesetze lauten:

    Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Das Problem steckt hier:
...oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Was soll die Maschine da machen? Sie darf nicht wegsehen, wenn Menschen Menschen verletzen, gleichzeitig darf sie den Menschen aber auch keinen Schaden zufügen.
Im Film versucht das Superhirn die Menschheit einzusperren und zu entmündigen, damit sie sich nicht mehr verletzen kann.
Rein logisch ist das sehr wohl und sehr gut nachvollziehbar und auch kein Problem.
Von einem moralischen Standpunkt aus, der nicht nur Logik kennt, ist es das aber schon.

Es ist ein wunderschönes Beispiel dafür, dass Ethik und Moral mehr als nur Logik sind, und dass ein Logikapparat das eben nicht erfassen kann, weil er seiner Natur (bzw Konstruktion) nach gar nichts anderes kann als logisch vorzugehen.
.. ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder Schaden zu fügen . Punkt
.. wie auch nach dem kategorischen Imperativ nicht gelogen werden darf .. Punkt
Da steht aber noch mehr. Punkt.
Du kannst nicht einfach das was dir nicht gefällt weglassen. Punkt.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Körper
Beiträge: 483
Registriert: Fr 18. Feb 2022, 20:14

Fr 24. Jun 2022, 19:37

Timberlake hat geschrieben :
Fr 24. Jun 2022, 03:28
Nicht zu Lügen hätte , so wie von Kant hier beschrieben , als Zweck an sich selbst , einen absoluten Wert. Wie auch für einen Roboter die Unverletzbarkeit eines Menschen einen absoluten Wert zu haben hat.
Ich würde eher sagen, dass es um sehr unterschiedliche Angelegenheiten geht.

Bei Kant und dem Lügen ist es eine moralische Abwägung, d.h. innerhalb der flexiblen Reaktionsgestaltung von Akteuren (hier Menschen) soll der Wert des Nicht-Lügens berücksichtigt werden - sie sollen sich denkend darum kümmern.
Dieser moralische Wert kann selbstverständlich auch nicht berücksichtigt werden -> flexible Reaktion.

Die Robotergesetze sind für den Roboter keine moralischen Werte, d.h. ihre Umsetzung darf nicht innerhalb der flexiblen Reaktion angesiedelt sein, sondern muss ein separater Regelkreis sein.
Es muss quasi eine hardwaretechnische Handlungsblockade mit eigener Sensorik sein.
In der flexiblen Reaktion darf der intelligente Roboter durchaus erkennen können, dass er etwas nicht kann (Menschen verletzen), aber in der flexiblen Reaktion darf der Regelkreis nicht alleine durch die Flexibilitätsmöglichkeiten umgangen werden können.
(Im Prinzip müsste es so sein, dass sich der Roboter zuerst in seiner Funktionalität verstehen und dann hardwaretechnisch umbauen muss, um den Regelkreis auszuschalten)
Würde man die Gesetze innerhalb der flexiblen Reaktionsmöglichkeit ansiedeln ("Lernen", "moralische Werte"), dann gibt es keine Sicherheit, sondern eine "normale" Streuung.

Insgesamt kommt es aber bei Kant und bei den Robotergesetzen zu der Frage nach dem Spannungsverhältnis von unterschiedlichen Zielsetzungen.

Im Beispiel mit dem Lügen steht eigentlich nicht das Lügen im Zentrum der Problematik, sondern das Schützen oder Ausliefern eines potenziellen Opfers an einen Täter.
Hier müsste es zu einer Abwägung kommen, was in der Situation unter den "kategorischen Imperativ" fallen soll: das Lügen oder das Schützen/Ausliefern.
Ist Lügen hier das Ziel oder ist es nur ein Werkzeug zum Erreichen des Ziels?

Auch bei den Robotergesetzen muss man sich bei der Konstruktion des separaten Regelkreises bzgl. des Ziels festlegen.
Geht es um ein unmittelbares körperliches Nicht-Verletzen durch die nächste motorische Handlung oder soll das Nicht-Verletzen abstrakter gelagert sein?
(Insgesamt liegt hier dann sogar eine Deadlock-Problematik vor, d.h. es kann zu Situationen kommen, in denen der Roboter keine nächste Handlung mehr durchführen kann)




Antworten