Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 23. Dez 2023, 15:34

Es gibt ein Gedankenexperiment von John Searle, zumindest glaube ich, dass es von ihm stammt, mit dem Roboter in der Scheune.

Stell dir vor, du bist ein Roboter, der in einer Scheune "lebt". Du hast einen Computer in deinem Kopf, der dir "sagt", was du tun sollst. (Das gesamte mentalistische Vokabular, was hier zum Einsatz kommt, ist natürlich rein metaphorisch. Ab jetzt verzichte ich auf die Anführungszeichen.) Du hast auch Sensoren, die dir Informationen über deine Umgebung geben. Eines Tages brennt die Scheune. Du bemerkst den Rauch und die Hitze und fragst dich, was du tun sollst. Es gibt zwei Möglichkeiten: Entweder du versuchst, aus der Scheune zu fliehen, oder du bleibst, wo du bist. Du beginnst, die Vor- und Nachteile beider Möglichkeiten abzuwägen. Während du das tust, stürzt das Dach über dir ein und erschlägt dich.

Searle argumentiert, dass der Roboter in diesem Szenario keine echte Intentionalität hat, d.h. er hat keine echten Ziele, Wünsche oder Überzeugungen. Er befolgt nur die Anweisungen seines Computers, ohne zu verstehen, was sie bedeuten. Er hat auch kein echtes Bewusstsein, d.h. er hat keine subjektiven Erfahrungen oder Gefühle. Er ist nur eine Maschine, die Daten verarbeitet.

Roboter können vielleicht das haben, was Searle geliehene Intentionalität nennt, aber sie haben keine intrinsische Intentionalität, die daran gebunden ist, dass man einen lebendigen Körper hat. Ich denke, das ist sowohl eine ontologische Gegebenheit als auch eine begriffliche Wahrheit.




Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 23. Dez 2023, 16:13

infinitum hat geschrieben :
Sa 23. Dez 2023, 14:00
Interessant finde ich erstmal, wie man ein Lebewesen definiert, dazu habe ich 7 Eigenschaften gefunden: Bewegung, Reizbarkeit, Fortpflanzung, Evolution, Wachstum und Entwicklung sowie Stoff- und Energiewechsel. Davon trifft mE nichts auf einen Computer zu.
Der Biologe und Nobelpreisträger Paul Nurse zählt aus seinem Schulwissen folgendes auf: "Bewegung, Atmung, Reizempfindlichkeit, Wachstum, Reproduktion, Ausscheidung und Nahrungsaufnahme." Er meint, das sei zwar eine akkurate Aufzählung dessen, was lebende Organismen tun, aber es ist keine befriedigende Erklärung dessen, was Leben ist.

Wie auch immer: Das folgende mag implizit in deiner Liste enthalten sein, aber ich möchte es noch mal explizit machen: Lebensformen sind "geschlossene" physische Gebilde, die sich selbst erhalten (Autopoiese). Sie sind von ihrer Umwelt "abgegrenzt", kommunizieren aber mit ihr. Diese Leiblichkeit und Selbstbezogenheit (Sorge) des Lebens schließt Computerprogramme aus dem Bereich des Lebens aus.

Etwas, das man auch hervorheben sollte, wofür mir aber die Sprache fehlt und von dem ich nicht sicher bin, ob es auf deiner Liste steht, ist die außergewöhnliche Chemie, die das Leben ausmacht. Zudem: Alle Lebewesen bestehen aus Zellen. Zellen gehen stets aus Zellen hervor... ist es einmal entstanden, hat Leben immer einen intrinsischen Bezug zu anderem Leben.




Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 23. Dez 2023, 19:29

Vor 25 Jahren wettete der Neurowissenschaftler Christof Koch mit dem Philosophen David Chalmers, dass er bis 2023 das Rätsel des Bewusstseins lösen könne. Wer hat gewonnen? Natürlich der Philosoph. 😉 Koch ist heute der Ansicht, dass das Bewusstsein zu den Grundbausteinen der Wirklichkeit gehört.





Timberlake
Beiträge: 1675
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 23. Dez 2023, 22:20

infinitum hat geschrieben :
Sa 23. Dez 2023, 14:00

Interessant finde ich erstmal, wie man ein Lebewesen definiert, dazu habe ich 7 Eigenschaften gefunden: Bewegung, Reizbarkeit, Fortpflanzung, Evolution, Wachstum und Entwicklung sowie Stoff- und Energiewechsel. Davon trifft mE nichts auf einen Computer zu.
Nun ja .. , dass sich ein computergesteuerter Roboter bewegt , sollte doch wohl außer Frage stehen. Wenn er denn über entsprechende Sensoren verfügt , beispielsweise zur Erkennung einer Kollision wie beim Rasenroboter , so wäre er auch reizbar . Auch verfügt dergleichen vielleicht nicht über einen Stoffwechsel aber ganz sicher über einen Energiewechsel. Sei es nun über eine elektrische Steckdose oder über eine Batterie.
Was allerdings tatsächlich weder auf ein Computer noch auf einen Roboter zutrifft , ist die Fortpflanzung und im Verlauf dessen eine Evolution. Wachstum und Entwicklung würde ich allerdings als Grenzwertig erachten. Wächst und Entwickelt sich doch eine Künstliche Intelligenz mit der ihr zur Verfügung stehenden Datenmenge und nicht zu vergessen mit deren Qualität.
Burkart hat geschrieben :
Sa 23. Dez 2023, 00:04
Timberlake hat geschrieben :
Fr 22. Dez 2023, 23:39
Burkart hat geschrieben :
Fr 22. Dez 2023, 19:48
Natürlich nicht im biologischen Sinne.
.. und im welchen Sinne würde ein Roboter anstatt dessen leben ?
Siehe meine vorigen Beiträge.
.... Fortpflanzung und Evolution war übrigens in diesen vorigen Beiträgen kein Thema. Zumindest nicht in derart , dass für Burkart eine Fortpflanzung bei einer "vernünftigen" KI in Frage käme ..
Burkart hat geschrieben :
Do 21. Dez 2023, 22:06

Aber Leben ist halt nicht alles; vernünftige KI auch ohne Fortpflanzung könnte uns schon helfen und eine Menge erreichen.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

Sa 23. Dez 2023, 22:39

infinitum hat geschrieben :
Sa 23. Dez 2023, 14:00
Timberlake hat geschrieben :
Fr 22. Dez 2023, 23:39
Burkart hat geschrieben :
Fr 22. Dez 2023, 19:48


Natürlich nicht im biologischen Sinne.

.. und im welchen Sinne würde ein Roboter anstatt dessen leben ?
Interessant finde ich erstmal, wie man ein Lebewesen definiert, dazu habe ich 7 Eigenschaften gefunden: Bewegung, Reizbarkeit, Fortpflanzung, Evolution, Wachstum und Entwicklung sowie Stoff- und Energiewechsel. Davon trifft mE nichts auf einen Computer zu.

Ein Roboter hat keine Innenperspektive und auch nicht die Art und Weise, wie ein Mensch Sinne empfinden kann. Sinnesempfindungen lassen sich teilweise annähernd nachbilden, aber nicht ausreichend genau.
Sicher richtig, solche Roboter gehören in den Reich der Science Fiction, aber eine solche Möglichkeit sollte nicht prinzipiell für die Zukunft ausgeschlossen werden.
Daher würde ich anstatt den Begriff "leben" eher "verfügt über eine Form von Bewusstsein" verwenden, da das künstliche Bewusstsein bereits dazu in der Lage ist, selbsständig Entscheidungen zu treffen und so weit trainiert werden kann, dass auch menschenähnliche Reaktionen oder Gedanken erzeugt werden können, die nicht rational oder logisch erscheinen,
Gut, dann können wir gerne auf dieser Basis weiter über KI und deren Möglichkeiten diskutieren.
denn hier sehe ich noch einen großen Unterschied zwischen dem menschlichen und künstlichen Bewusstsein, dass der Mensch aus vollem Bewusstsein "unlogische" aus individuellen Wertvorstellungen Entscheidungen trifft, die ein Computer oder eine KI so nicht treffen würde.
Und was, wenn die KI auch individuelle Wertvorstelungen hätte? :)
Entscheidend wäre hierfür vor allem, dass sie "selbst" lernen kann, also nicht (nur) aus vorgelegten Trainingsdaten, sondern z.B. ähnlich wie ein Mensch durch "Erleben" in einer/der komplexen Welt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1675
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 23. Dez 2023, 22:41

Jörn Budesheim hat geschrieben :
Sa 23. Dez 2023, 15:34
Es gibt ein Gedankenexperiment von John Searle, zumindest glaube ich, dass es von ihm stammt, mit dem Roboter in der Scheune.

Stell dir vor, du bist ein Roboter, der in einer Scheune "lebt". Du hast einen Computer in deinem Kopf, der dir "sagt", was du tun sollst. (Das gesamte mentalistische Vokabular, was hier zum Einsatz kommt, ist natürlich rein metaphorisch. Ab jetzt verzichte ich auf die Anführungszeichen.) Du hast auch Sensoren, die dir Informationen über deine Umgebung geben. Eines Tages brennt die Scheune. Du bemerkst den Rauch und die Hitze und fragst dich, was du tun sollst. Es gibt zwei Möglichkeiten: Entweder du versuchst, aus der Scheune zu fliehen, oder du bleibst, wo du bist. Du beginnst, die Vor- und Nachteile beider Möglichkeiten abzuwägen. Während du das tust, stürzt das Dach über dir ein und erschlägt dich.

Dieses Szenario erinnert mich doch schon sehr an Platons Höhlengleichnis , nur mit dem Unterschied, dass die Scheune nicht brennt ... "noch nicht" ..



... vielleicht braucht es ja (natürlich rein metaphorisch).. erst diesen Brand , um sich aus den Fesseln dieser "Scheune" zu befreien. Eine KI könnte übrigens sicherlich als "Brandmelder" hilfreich sein.
Zuletzt geändert von Timberlake am Sa 23. Dez 2023, 23:00, insgesamt 2-mal geändert.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

Sa 23. Dez 2023, 22:58

Jörn Budesheim hat geschrieben :
Sa 23. Dez 2023, 15:34
Es gibt ein Gedankenexperiment von John Searle, zumindest glaube ich, dass es von ihm stammt, mit dem Roboter in der Scheune.

Stell dir vor, du bist ein Roboter, der in einer Scheune "lebt". Du hast einen Computer in deinem Kopf, der dir "sagt", was du tun sollst. (Das gesamte mentalistische Vokabular, was hier zum Einsatz kommt, ist natürlich rein metaphorisch. Ab jetzt verzichte ich auf die Anführungszeichen.) Du hast auch Sensoren, die dir Informationen über deine Umgebung geben. Eines Tages brennt die Scheune. Du bemerkst den Rauch und die Hitze und fragst dich, was du tun sollst. Es gibt zwei Möglichkeiten: Entweder du versuchst, aus der Scheune zu fliehen, oder du bleibst, wo du bist. Du beginnst, die Vor- und Nachteile beider Möglichkeiten abzuwägen. Während du das tust, stürzt das Dach über dir ein und erschlägt dich.

Searle argumentiert, dass der Roboter in diesem Szenario keine echte Intentionalität hat, d.h. er hat keine echten Ziele, Wünsche oder Überzeugungen. Er befolgt nur die Anweisungen seines Computers, ohne zu verstehen, was sie bedeuten. Er hat auch kein echtes Bewusstsein, d.h. er hat keine subjektiven Erfahrungen oder Gefühle. Er ist nur eine Maschine, die Daten verarbeitet.

Roboter können vielleicht das haben, was Searle geliehene Intentionalität nennt, aber sie haben keine intrinsische Intentionalität, die daran gebunden ist, dass man einen lebendigen Körper hat. Ich denke, das ist sowohl eine ontologische Gegebenheit als auch eine begriffliche Wahrheit.
Das Modell geht nur nicht davon aus, dass Roboter auch grundsätzliche Gesetze (*) ähnlich den Asimovschen Robotergesetzen haben können. Dann könnte der Roboter bei Gefahr für seine Existenz schnell versuchen diese abzuwenden, außer ggf., dass er besser Menschen retten könnte - was hier immerhin eine gewisse Ähnlichkeit zu Feuerwehrleuten hätte.

(*) PS: Dies geht von (m)einer grundlegenden Ziel(verfolgungs)struktur für KI aus, gerne ggf. (erneut) an anderer Stelle.
Zuletzt geändert von Burkart am Sa 23. Dez 2023, 23:18, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1675
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 23. Dez 2023, 23:09

... bezugnehmend auf meinen letzten Beitrag, würde dergleichen allerdings auch vorrausetzen , dass man sich (metaphorisch gesprochen) auch durch eine "vernünftige" KI ( Burkart) retten lässt .




Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 24. Dez 2023, 07:26

Burkart hat geschrieben :
Sa 23. Dez 2023, 22:58
Das Modell geht nur nicht davon aus, dass Roboter auch grundsätzliche Gesetze (*) ähnlich den Asimovschen Robotergesetzen haben können.
Das Gedankenexperiment geht davon aus, dass Roboter nur Asimov'sche Robotergesetze o.ä. verarbeiten und keine intrinsische, sondern nur geliehene Intentionalität besitzen.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

So 24. Dez 2023, 10:57

Jörn Budesheim hat geschrieben :
So 24. Dez 2023, 07:26
Burkart hat geschrieben :
Sa 23. Dez 2023, 22:58
Das Modell geht nur nicht davon aus, dass Roboter auch grundsätzliche Gesetze (*) ähnlich den Asimovschen Robotergesetzen haben können.
Das Gedankenexperiment geht davon aus, dass Roboter nur Asimov'sche Robotergesetze o.ä. verarbeiten und keine intrinsische, sondern nur geliehene Intentionalität besitzen.
Was immer genau "intrinsische" und "geliehene" genau unterscheidet bzw. sind.
Hat uns sie ein Gott vielleicht "geliehen"? Oder eine allumfassende Natur? (Eine Frage der Perspektive...)

Die Robotergesetze sehe ich hier als so tief integriert wie bei uns unsere biologischen, sodass ihr Ursprung i.a. keine relevante Rolle spielt.
Insofern wird beim Roboter kein relevantes Zögern geben, wenn eine Scheune in Flammen steht. Dies fürchte ich eher bei Menschen, wenn sie in Panik geraten.
Stell dir vor, du bist ein Roboter, der in einer Scheune "lebt". Du hast einen Computer in deinem Kopf, der dir "sagt", was du tun sollst. (Das gesamte mentalistische Vokabular, was hier zum Einsatz kommt, ist natürlich rein metaphorisch. Ab jetzt verzichte ich auf die Anführungszeichen.) Du hast auch Sensoren, die dir Informationen über deine Umgebung geben. Eines Tages brennt die Scheune. Du bemerkst den Rauch und die Hitze und fragst dich, was du tun sollst. Es gibt zwei Möglichkeiten: Entweder du versuchst, aus der Scheune zu fliehen, oder du bleibst, wo du bist. Du beginnst, die Vor- und Nachteile beider Möglichkeiten abzuwägen. Während du das tust, stürzt das Dach über dir ein und erschlägt dich.

Searle argumentiert, dass der Roboter in diesem Szenario keine echte Intentionalität hat, d.h. er hat keine echten Ziele, Wünsche oder Überzeugungen.
Dann sollte Searle oder zumindest wir hier von einem Zielmodell ausgehen, das z.B. Gefahrensituationen entsprechend hoch priorisiert bzw. zumindest den Erhalt seiner eigenen Existenz. "Echt" ist dann für das Verhalten irrelevant.
Gefahrensituationen müssen bzw. können oft erlernt werden (Lernen als zentraler Aspekt von KI, den Searle hier anscheinend nicht einbezieht), was auch z.B. Kinder es oft erst müssen, wenn ihnen "spiel nicht mit Feuer" beigebracht wird.
Er befolgt nur die Anweisungen seines Computers, ohne zu verstehen, was sie bedeuten. Er hat auch kein echtes Bewusstsein, d.h. er hat keine subjektiven Erfahrungen oder Gefühle. Er ist nur eine Maschine, die Daten verarbeitet.
Das ist einfach ein zu primitives KI-Modell. Lernen sollte halt zentraler Punkt sein, um Bedeutungen bzw. Verstehen aufzubauen, eben um aus eigenen Erfahrungen z.B. von Erfolgen und Misserfolgen (= früher erfolgreich oder erfolglos erfüllte Ziele) zu profitieren.
Roboter können vielleicht das haben, was Searle geliehene Intentionalität nennt, aber sie haben keine intrinsische Intentionalität, die daran gebunden ist, dass man einen lebendigen Körper hat. Ich denke, das ist sowohl eine ontologische Gegebenheit als auch eine begriffliche Wahrheit.
Ja, Roboter leben nicht im biologischen Sinne, aber das müssen sie auch nicht, wollen wir in der KI auch gar nicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 24. Dez 2023, 12:00

Burkart hat geschrieben :
So 24. Dez 2023, 10:57
"Echt"
Das ist nicht irrelevant, sondern das ist das Thema des Fadens. Dass die Programme Dinge simulieren können, ist geschenkt. Aber es ist eben nicht echt, keine intrinsische Intentionalität, sondern nur von uns verliehen.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

So 24. Dez 2023, 13:16

Jörn Budesheim hat geschrieben :
So 24. Dez 2023, 12:00
Burkart hat geschrieben :
So 24. Dez 2023, 10:57
"Echt"
Das ist nicht irrelevant, sondern das ist das Thema des Fadens.
Thema ist doch einfach "K.I." und nicht "echt" o.ä.!?
Dass die Programme Dinge simulieren können, ist geschenkt. Aber es ist eben nicht echt, keine intrinsische Intentionalität, sondern nur von uns verliehen.
Entscheidend ist, was KI kann bzw. können wird, nicht warum.
Nun wünsche ich dir auch hier ein frohes Weihnachtsfest, vermutlich live ohne jegliche KI 😊🎄🎁



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23555
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 24. Dez 2023, 13:34

Ich vermute, dass ich viel mehr mit der sogenannten KI arbeite als du. Sie ist aus meinem Arbeitsalltag praktisch nicht mehr wegzudenken. Und das Wissen, dass es sich dabei nur um Werkzeuge handelt, gehört zum richtigen Umgang zwingend dazu.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

Mo 25. Dez 2023, 03:57

Jörn Budesheim hat geschrieben :
So 24. Dez 2023, 13:34
Ich vermute, dass ich viel mehr mit der sogenannten KI arbeite als du. Sie ist aus meinem Arbeitsalltag praktisch nicht mehr wegzudenken. Und das Wissen, dass es sich dabei nur um Werkzeuge handelt, gehört zum richtigen Umgang zwingend dazu.
Aktuelle KI(-Mittel) betreffend hast du sicher recht. Meine Betrachtungen gehen dagegen auch von weitreichenden KI-Möglichkeiten aus (KI als weites Feld), die es in der Praxis bisher nicht oder nur ansatzweise gibt.
Arbeitest du auch mit Robotern? Dies ist ja noch nicht so häufig.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1675
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mi 27. Dez 2023, 01:09

Burkart hat geschrieben :
So 24. Dez 2023, 10:57
Jörn Budesheim hat geschrieben :
So 24. Dez 2023, 07:26
Burkart hat geschrieben :
Sa 23. Dez 2023, 22:58
Das Modell geht nur nicht davon aus, dass Roboter auch grundsätzliche Gesetze (*) ähnlich den Asimovschen Robotergesetzen haben können.
Das Gedankenexperiment geht davon aus, dass Roboter nur Asimov'sche Robotergesetze o.ä. verarbeiten und keine intrinsische, sondern nur geliehene Intentionalität besitzen.
Was immer genau "intrinsische" und "geliehene" genau unterscheidet bzw. sind.
Hat uns sie ein Gott vielleicht "geliehen"? Oder eine allumfassende Natur? (Eine Frage der Perspektive...)

Die Robotergesetze sehe ich hier als so tief integriert wie bei uns unsere biologischen, sodass ihr Ursprung i.a. keine relevante Rolle spielt.
Insofern wird beim Roboter kein relevantes Zögern geben, wenn eine Scheune in Flammen steht. Dies fürchte ich eher bei Menschen, wenn sie in Panik geraten.
. Apropos in Panik geraten ..

www.fr.de hat geschrieben :
Militär testet KI-Kampfdrohne: Sie reagiert völlig unerwartet, Experten besorgt

Kampfdrohne eliminiert in Simulation ihren Betreiber: „Dürfen Ethik nicht vergessen“

Denn die Lehre aus dem Test: Die KI merkte, dass sie teils „Feinde“ erkannte, die sein Betreiber dennoch nicht getötet wissen wollte. „Aber die KI erreichte ‚Vorteile‘, wenn sie doch tötete“, zitiert ein Blogeintrag von dem Gipfel Hamilton. „Was ist also passiert? Die KI hat ihren Betreiber getötet. Sie hat ihren Betreiber getötet, weil er sie daran gehindert hat, ihr Ziel zu erreichen.“
.... habe selten so gelacht. :lol: Dazu nur mal zur Erinnerung was die Asimovschen Robotergesetze beinhalten ...
www.planet-wissen.de hat geschrieben :
Asimovs Robotergesetze

Das erste Mal tauchten diese Gesetze 1942 in der Geschichte "Runaround" auf. Auch der Begriff der "Robotik", der heute die Wissenschaft der Roboterentwicklung bezeichnet, wurde in "Runaround" erstmals erwähnt. Die ursprünglichen Grundregeln der Robotik lauteten:

1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.

3. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.
. das will ich wohl meinen , dass in Anbetracht von solchen "übereifrigen" Killerrobotern, die hier formulierten Robotergesetze keine relevante Rolle mehr spielen. Ganz im Gegenteil.
Wenn eine KI-Kampfdrohne:völlig unerwartet reagiert , warum sollte das dann nicht auch (um auf das Gedankenexperiment zurück zu kommen ) , für einen KI- Roboter in einer brennenden Scheune zu treffen ? Zumal , intrinsische oder geliehene Intentionalität hin oder her , das 3. Gesetz besagt , dass ein Roboter seine eigene Existenz schützen muss.




Benutzeravatar
AufDerSonne
Beiträge: 1294
Registriert: Do 1. Sep 2022, 19:44

Mi 27. Dez 2023, 12:05

Hallo Leute.
Wusstet ihr, dass ich der grösste Denker aller Zeiten bin? Noch grösser als die beste KI? :lol:



Ohne Gehirn kein Geist!

Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

Mi 27. Dez 2023, 13:27

AufDerSonne hat geschrieben :
Mi 27. Dez 2023, 12:05
Hallo Leute.
Wusstet ihr, dass ich der grösste Denker aller Zeiten bin? Noch grösser als die beste KI? :lol:
Und nun? (Ziehst du deine Dame nun nicht mehr zu früh? Kleiner Insider ;) )

@Timberlake:
Ja, leider setzen sich Asimovs Roboter-Gesetze wie die 3 (bzw. 4 zusammen mit dem 0. "pro Menschheit") nicht durch; gerade Kampfdrohnen scheinen ja zu wichtig zu sein... oder auch schon sowas wie (einseitige) Beeinflussung von Wahlen...
...aber hinreichend schnelles Agieren sollten sie oder auch ähnliche wirklich ermöglichen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
AufDerSonne
Beiträge: 1294
Registriert: Do 1. Sep 2022, 19:44

Mi 27. Dez 2023, 13:56

Burkart hat geschrieben :
Mi 27. Dez 2023, 13:27
Und nun? (Ziehst du deine Dame nun nicht mehr zu früh? Kleiner Insider ;) )
Du gönnst mir nur das schöne Gefühl nicht, der grösste Denker aller Zeiten zu sein.
Gut, dieser Damen-Zug wurmt mich schon ein bisschen. Hi hi.



Ohne Gehirn kein Geist!

Timberlake
Beiträge: 1675
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mi 27. Dez 2023, 16:11

AufDerSonne hat geschrieben :
Mi 27. Dez 2023, 12:05
Hallo Leute.
Wusstet ihr, dass ich der grösste Denker aller Zeiten bin? Noch grösser als die beste KI? :lol:
Als grösste Denker aller Zeiten hast du doch sicherlich das Leib-Seele-Problem gelöst. Ich meine , wie wollte man auch bei einer KI eine Seele ausmachen , wenn noch nicht einmal klar ist , wie die Seele aus einem menschlichen Leib hervorgeht.
www.spektrum.de hat geschrieben :
Leib-Seele-Problem
....
1) Bedingungen des psychophysischen Niveaus: Wie kann es sein, daß ein elektrophysiologischer oder biochemischer Erregungsprozeß im Nervensystem Bewußtseins- und Erlebnis-Qualität erhält?
..
Gegenfrage ... Wie kann es sein, daß ein elektromagnetischer oder quantenchemischer Erregungsprozeß in einem Computersystem ..( k-) ein! .. Bewußtseins- und Erlebnis-Qualität erhält.




Burkart
Beiträge: 2801
Registriert: Sa 11. Jul 2020, 09:59

Mi 27. Dez 2023, 21:48

Timberlake hat geschrieben :
Mi 27. Dez 2023, 16:11
AufDerSonne hat geschrieben :
Mi 27. Dez 2023, 12:05
Hallo Leute.
Wusstet ihr, dass ich der grösste Denker aller Zeiten bin? Noch grösser als die beste KI? :lol:
Als grösste Denker aller Zeiten hast du doch sicherlich das Leib-Seele-Problem gelöst. Ich meine , wie wollte man auch bei einer KI eine Seele ausmachen , wenn noch nicht einmal klar ist , wie die Seele aus einem menschlichen Leib hervorgeht.
Das ist für den größten Denker sicherlich kein Problem, er könnte doch einfach die Seele als reine Einbildung ansehen oder zurückfragen, wie du eine andere Existenz einer Seele beweisen willst.
www.spektrum.de hat geschrieben :
Leib-Seele-Problem
....
1) Bedingungen des psychophysischen Niveaus: Wie kann es sein, daß ein elektrophysiologischer oder biochemischer Erregungsprozeß im Nervensystem Bewußtseins- und Erlebnis-Qualität erhält?
..
Gegenfrage ... Wie kann es sein, daß ein elektromagnetischer oder quantenchemischer Erregungsprozeß in einem Computersystem ..( k-) ein! .. Bewußtseins- und Erlebnis-Qualität erhält.
Mehr oder weniger dito - Bewusstsein als Einbildung ;)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten