Dir ist doch wohl schon klar , dass in dem , was du von mir zitert hast , klar wird , was ich damit sagen wollte. Aber bitte schön, ich meinte damit , ob man vor dem Hintergrund , dass Menschen, die gemäß ihrer Lebensweise . menschliche Wesen (wissentlich) Schaden zufügen ..das Aussortieren von diesen Menschen in die Robotergesetze aufnehmen sollte.Burkart hat geschrieben : ↑So 21. Aug 2022, 18:56Was meinst du eigentlich genau mit "aussortieren"?Timberlake hat geschrieben : ↑So 21. Aug 2022, 16:32Ich denke mal eine KI braucht vielmehr Kriterien darüber , was sie aussortieren soll ..Burkart hat geschrieben : ↑So 21. Aug 2022, 15:51Wenn eine KI aussortieren soll, braucht sie natürlich mehr oder wenige klare Kriterien, entweder klar festlegte oder zumindest auf Lerndaten hinreichend gut erlernbar.
Sicher ist das möglich; dass sie ggf. Fehler macht bei "nur" Lerndaten, ist aber auch klar. Mal ganz abgesehen davon, dass sie Kriterien auch ändern können.
Im Zweifelsfalle sollte sie "nur" Vorschläge unterbreiten und sie sich vom Menschen abnehmen (oder halt ggf. ablehnen) lassen.
Mir ist dein "Aussortieren" nicht klar, was du damit sagen willst.... was würdest du denn meinen, sollte man in die Robotergesetze auch das Aussortieren von Menschen aufnehmen?
- Die Asimov’schen Gesetze lauten:
Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Also eine KI sollte sich zumindest nie gegen Menschen positionieren, halt entsprechend dem 1. Robotergesetz.Was ist aber mit Menschen , die menschliche Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird? Vielleicht sollte eine KI diesbezüglich im Zweifelsfalle tatsächlich "nur" Vorschläge unterbreiten .
Beispielsweise dadurch , dass sie die jenigen , die gemäß ihrer Lebensweise . menschliche Wesen (wissentlich) Schaden zufügen .. wie auch immer vorschlagen , sich selbst aus zu sortieren.
- Für Lebensweise der Deutschen werden fast drei Erden benötigt
Würde zum Beispiel jeder Mensch so viele Ressourcen wie die Einwohner von Kanada, Luxemburg und den USA verbrauchen, wären mindestens fünf Erden erforderlich, teilte Unicef in Köln mit. Auch in Deutschland sei der Ressourcenverbrauch zu hoch: Für die Lebensweise der Deutschen würden im Weltmaßstab 2,9 Erden benötigt.
Aber ansonsten müsste ich zu sehr raten, was du genauer meinst.
In dem ein Roboter nicht zulassen darf , dass durch Untätigkeit (wissentlich) einem menschlichen Wesen Schaden zugefügt wird, scheint mir das durchaus geboten zu sein. Wohlgemerkt im Gegensatz zu dem , was ihm lt. den Asimov’schen Gesetze verboten ist.
Das Aussortieren für sich genommen stellt noch keine (wissentlich) Verletzung von Menschen dar oder eine Untätigkeit, durch die (wissentlich) zugelassen wird , dass einem menschlichen Wesen Schaden zu gefügt wird. In sofern eine Kollision mit dieser "Regel eins" zunächst einmal ausgeschlossen werden kann.
Wo wäre denn auch bei den Asimov’schen Gesetzen die Rede davon , dass sich eine KI nie gegen Menschen positionieren sollte. Schließlich kann man sich gegen Menschen positionieren., auch ohne das man sie verletzt oder durch Untätigkeit zulässt , dass ihnen Schaden zufügt wird .