Eine Einordnung der KI nach Schopenhauer ..

Dieses Unterforum beschäftigt sich mit dem Umfang und den Grenzen der menschlichen Erkenntnisfähigkeit sowie um die speziellen Gesichtspunkte des Systems der modernen Wissenschaften.
Benutzeravatar
NaWennDuMeinst
Beiträge: 3700
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 12:34

Burkart hat geschrieben :
Sa 25. Jun 2022, 12:08
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:52
Burkart hat geschrieben :
Sa 25. Jun 2022, 11:41

Doch, haben wir (mehr oder weniger). Ähnlich kann eine KI aber auch nach vielem Lernen zu einem ähnlichen WIllen gelangen, in dem sie abwägt.
Wenn Du ihr unüberwindbare Gesetze mitgibst kann sie das eben nicht.
Wir Menschen haben doch auch unüberwindbare "Gesetze"/Grenzen, z.B. werden wir ohne Hilfsmittel nie fliegen können.
Das sind pyhsische Grenzen. Was hat das mit dem Willen zu tun?
Diese physischen Grenzen gelten für die Maschine übrigens gleichermaßen, weil sie sich aus universellen Naturgesetzen ergeben (denen alles unterliegt, auch deine Maschinen).
Hier geht es aber um den Willen und nicht darum, dass es eine Schwerkraft gibt.
Außerdem soll(t)en die grundlegenden Gesetze für die KI minimal gering sein (zumindest erstmal) Dienen und Lernen.
Aber Menschen haben sowas nicht. Oder gibt es in unserem Gencode Sequenzen die uns zwingen zu Dienen und zu Lernen, bzw das zu wollen?
Das ist ja auch der Sinn der Robotergesetze. Die Maschine soll sich verhalten wie WIR das wollen und nicht so wie SIE das will (wenn sie überhaupt sowas wie einen Willen hat).
Genau, ein "wie sie das will" gibt es nur bedingt, weil sie sich eben NICHT gegen uns verhalten soll ("dienen"), ansonsten aber in ihrem Rahmen schon relativ frei sein kann.
Dass nicht alles Schwarz--Weiß ist, ist dir schon klar?
Doch das ist schwarz/weiß. Die Regel lautet ja nicht so, dass die Maschine vielleicht Menschen verletzten kann, sondern, sie ist so zu bauen, dass sie das nicht kann.
Und wenn sie einen Willen hat ist dieser so zu konstruieren, dass die Maschine sich nichh darüber hinwegsetzen kann.
Das ist dann aber kein eigener, freier Wille mehr sondern unserer Wille der in der Maschine wirkt.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 3700
Registriert: Sa 30. Mai 2020, 12:37

Sa 25. Jun 2022, 12:51

Burkart hat geschrieben :
Sa 25. Jun 2022, 12:18
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:00
Burkart hat geschrieben :
Sa 25. Jun 2022, 11:46

Von der Natur, meiner Umwelt...
Die Natur schreibt Dir deinen Willen vor?
Nö. Wie sollte das gehen?
Die Natur (meine Eltern) haben mich in die Welt gesetzt, ohne dass ich gefragt wurde.
Dann beende es doch, wenn es dir nicht gefällt. Den freien Willen dazu hast Du, glaub's mir. Was sollte Dich daran hindern?
Ausserdem verstehst Du einfach überhaupt nicht worum es geht.
Nochmal: Es geht darum dass die Maschine nicht selbstbestimmt ist, sondern fremdbestimmt.
Und nein, nein, nein, das ist bei uns Menschen nicht so.
Es gibt zwar auch für uns äußere Zwänge, aber keiner kann dir vorschreiben was Du zu wollen hast. Das kannst nur Du selber.
Dass bei der Willensbildung auch Einflüsse von aussen eine Rolle spielen ändert doch daran gar nichts.

Wie ich schon schrieb, heißt Wille zwischen Dingen entscheiden und ggf. durchsetzen zu können.
Je mehr man weiß, desto besser kann man etwas beurteilen und so Entscheidungen besser abwägen.
Das ist nicht Wille sondern Willensbildung.
Bei den Robotergesetzen gibt es für die Maschine aber keine Willensbildung. Sie hat da keine Wahl. Egal was sie lernt, sie darf diese Regeln nicht verletzen.
Das ist kein freier, eigener Wille, da kanns Du mir erzählen was Du willst.
Es geht einzig und allein um die Frage ob Du einen eigenen Willen hast, und ob die Maschine sowas hat.
Und es geht um Grauzonen dazwischen, wie schon früher geschrieben.
Nein, darum geh es nicht. Es geht um die Frage ob die Maschine einen eigenen Willen hat (haben darf). Und nein, den hat sie nicht, im Gegensatz zum Menschen.
Du sagst wir können ihr einen geben. Nehmen wir an das könnten wir. Dann wäre die Maschine aber nicht mehr völlig kontrollierbar. Das will keiner.
"Völlig" ist so eine Sache... vielleicht mag eine Maschine manchmal besser handeln, als wir es im Moment annehmen.
Auch hier wieder: Du gehst auf das eigentliche Argument gar nicht ein, sondern weichst aus auf eine ganz andere Fragestellung.
Natürlich könnte eine Maschine durch Überlegung und Abwägung darauf kommen, dass man Menschen nicht verletzen darf.
Sie könnte aber auch zu einem anderen Schluß kommen (so wie wir Menschen auch).
Das heißt das könnte sie, wenn sie frei wäre. Ist sie aber nicht. Diese Freiheit der Entscheidung hat sie einfach nicht, wenn wir ihr die Robotergesetz aufzwingen.
Und genau das ist ja auch der Zweck der Robotergesetze. Die Maschine soll in diesen Punkten nicht frei entscheiden können, sondern nur das tun was wir wolllen.
Was wir wollen ist eine Maschine die nur das tut was wir wollen.
Eine Frage ist halt, ob kurz- oder langfristig; das mag nicht immer identisch sein.
Nein, das ist hier überhaupt nicht die Frage. Wir werden auch langfristig nicht wollen, dass Maschinen die Möglichkeit haben sich zu entscheiden uns zu töten.
Und warum? Weil wir das nicht wollen, sondern wir wollen dass die Maschine nicht ihrem sondern unserem Willen folgt.
Siehe Scharz-Weiß... ein begrenzter Wille mag sinnvoll sein, a la menschlicher Diener.
Es gibt keine menschlichen Diener die keinen eigenen Willen haben.
Es gibt Menschen die gegen ihren Willen zu etwas gezwungen werden.
Es gibt auch Menschen die freiwillig dienen.
Es gibt aber nicht einen Menschen der aufgrund seiner "Konstruktion" gar nicht anders wollen kann als zu dienen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Burkart
Beiträge: 1307
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

Sa 25. Jun 2022, 13:22

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:34
Burkart hat geschrieben :
Sa 25. Jun 2022, 12:08
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 11:52

Wenn Du ihr unüberwindbare Gesetze mitgibst kann sie das eben nicht.
Wir Menschen haben doch auch unüberwindbare "Gesetze"/Grenzen, z.B. werden wir ohne Hilfsmittel nie fliegen können.
Das sind pyhsische Grenzen. Was hat das mit dem Willen zu tun?
Insofern der Wille etwas u.U. können möchte, was physikalisch nicht geht. Oder auf ganz anderer Ebene, dass wir im Detail ganz nicht wissen, was unser physisches Gehirn uns genau an Willen erzeugt/erlaubt... bei einem vielleicht etwas mehr als bei einem anderen Menschen; "Wille" ist kein ganz klarer Begriff, man kann leider nicht direkt auf ihn zeigen, ihn untersuchen u.ä.

Aber Menschen haben sowas nicht. Oder gibt es in unserem Gencode Sequenzen die uns zwingen zu Dienen und zu Lernen, bzw das zu wollen?
Das wäre eine interessante Frage an Biologen (ich bin keiner) u.ä., wo z.B. menschliche Neugier (Lernen) genetisch herkommt.

Doch das ist schwarz/weiß. Die Regel lautet ja nicht so, dass die Maschine vielleicht Menschen verletzten kann, sondern, sie ist so zu bauen, dass sie das nicht kann.
Dir ist schon klar, dass man das 100% nie ausschließen kann!? Z.B. durch Unfälle usw.
Besser wäre es das zu minimieren, wozu maschinelle Intelligenz hilfreich sein könnte.
Und wenn sie einen Willen hat ist dieser so zu konstruieren, dass die Maschine sich nichh darüber hinwegsetzen kann.
Kurz- oder langfristig? Soll die KI lügen/schmeicheln (kurzfristig) oder immer die (ggf. ätzende) Wahrheit sagen (langfristig)?
Vielleicht sollte sie halt doch mal hinwegsetzen können, wenn es letztlich besser ist!?
Das ist dann aber kein eigener, freier Wille mehr sondern unserer Wille der in der Maschine wirkt.
Wir legen die Grundlagen, lernen soll die Maschine selbst. Oder ist Wille samt Entscheidungen zu treffen bei dir so statisch, dass Lernen ihn gar nicht beeinflussen kann?

So, nun erstmal raus in die Sonne...



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

Timberlake
Beiträge: 303
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 25. Jun 2022, 13:27

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:51
Was wir wollen ist eine Maschine die nur das tut was wir wollen.
Eine Frage ist halt, ob kurz- oder langfristig; das mag nicht immer identisch sein.
Nein, das ist hier überhaupt nicht die Frage. Wir werden auch langfristig nicht wollen, dass Maschinen die Möglichkeit haben sich zu entscheiden uns zu töten.
Und warum? Weil wir das nicht wollen, sondern wir wollen dass die Maschine nicht ihrem sondern unserem Willen folgt.
.. und ab wann werden Maschinen vermutlich nicht mehr unserem , sondern ihrem Willen folgen? Es ist noch gar nicht solange her , da habe ich , hier in diesem Thread , unter Bezugnahme auf Niclas Luhmnann und seiner Systemtheorie, genau darauf eine Antwort zu geben versucht.Aus diesem Grund können wir übrigens auch nicht den Willen Kants folgen, der da gemäß seines kategorischen Imperativs in seiner Grundform lautet ..

„Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“
Jörn Budesheim hat geschrieben :
Sa 25. Jun 2022, 08:07

Ich kann mir nur schwer vorstellen, dass moralisch richtiges Handeln generell daran hängt, dass jemand MÖCHTE, dass alle anderen auch so handeln (bzw gemäß der persönlichen Leitsätze) wie dieser jemand. Putin möchte vielleicht, dass alle anderen gemäß des Leitsatzes, der Stärkere setzt sich mit Gewalt durch, handeln.
. und möchte Putin vielleicht auch , dass er deshalb durch diesen Leitsatz ggf. selbst zu Fall gebracht wird ? Schließlich reden wir beim kategorischen Imperativ von einer Maxime, durch die "Putin" zugleich wollen kann , dass sie ein allgemeines Gesetz werde.
Unter Bezugnahme auf dieses Zitat , klingt mir das doch schon sehr nach dem s.g. hypothetischen Imperativ. .. „Wenn du x .. in diesem Fall, sich die Ukraine an zu eignen , dann tue y dich dazu deiner militärischen Stärke mit Gewalt zu bedienen “




Benutzeravatar
Burkart
Beiträge: 1307
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

Sa 25. Jun 2022, 17:10

NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:51
Burkart hat geschrieben :
Sa 25. Jun 2022, 12:18
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:00

Die Natur schreibt Dir deinen Willen vor?
Nö. Wie sollte das gehen?
Die Natur (meine Eltern) haben mich in die Welt gesetzt, ohne dass ich gefragt wurde.
Dann beende es doch, wenn es dir nicht gefällt. Den freien Willen dazu hast Du, glaub's mir. Was sollte Dich daran hindern?
Ausserdem verstehst Du einfach überhaupt nicht worum es geht.
Nochmal: Es geht darum dass die Maschine nicht selbstbestimmt ist, sondern fremdbestimmt.
Was heißt genau "fremdbestimmt"? Dass wir ihre Grundlage programmieren, ähnlich wie wir Menschen von der Natur genetisch festgelegt sind?
Wenn die Maschine aber durch Lernen immer mehr eine eigene "maschinelle Person" wird, sich also abgrenzt von allen anderen durch eigene Lerninhalte und -ergebnisse u.ä., und auf dieser Basis Entscheidungen trifft, ist das dann noch immer fremdbestimmt?
Und nein, nein, nein, das ist bei uns Menschen nicht so.
Es gibt zwar auch für uns äußere Zwänge, aber keiner kann dir vorschreiben was Du zu wollen hast. Das kannst nur Du selber.
Dass bei der Willensbildung auch Einflüsse von aussen eine Rolle spielen ändert doch daran gar nichts.
Schön wär's, wenn man wirklich immer tun könnte, was man will; mir scheint das eine zu optimistische Illusion zu sein.
Wie ich schon schrieb, heißt Wille zwischen Dingen entscheiden und ggf. durchsetzen zu können.
Je mehr man weiß, desto besser kann man etwas beurteilen und so Entscheidungen besser abwägen.
Das ist nicht Wille sondern Willensbildung.
Bei den Robotergesetzen gibt es für die Maschine aber keine Willensbildung. Sie hat da keine Wahl. Egal was sie lernt, sie darf diese Regeln nicht verletzen.
Das ist kein freier, eigener Wille, da kanns Du mir erzählen was Du willst.
Menschen sind auch nicht frei von Regeln; sie müssen atmen, essen, schlafen usw. Die können sie auch nicht einfach ignorieren.
Du unterscheidest nicht zwischen grundlegenden Regeln (so "wie keine Wahl haben") und aktuellem Handeln/Denken, das (wenn auch durch die Grundlagen bedingt) schon die eine oder andere Wahl lassen.
Es geht einzig und allein um die Frage ob Du einen eigenen Willen hast, und ob die Maschine sowas hat.
Und es geht um Grauzonen dazwischen, wie schon früher geschrieben.
Nein, darum geh es nicht. Es geht um die Frage ob die Maschine einen eigenen Willen hat (haben darf). Und nein, den hat sie nicht, im Gegensatz zum Menschen.
Gestehst du der Maschine denn zu, dass sie Entscheidungen trifft bzw. treffen kann? (Um den "Willen" mal etwas klarer zu sehen)
Oder auch nur, dass sie überhaupt lernen kann (für spätere Entscheidungen z.B.)?
Du sagst wir können ihr einen geben. Nehmen wir an das könnten wir. Dann wäre die Maschine aber nicht mehr völlig kontrollierbar. Das will keiner.
"Völlig" ist so eine Sache... vielleicht mag eine Maschine manchmal besser handeln, als wir es im Moment annehmen.
Auch hier wieder: Du gehst auf das eigentliche Argument gar nicht ein, sondern weichst aus auf eine ganz andere Fragestellung.
Wieso ausweichen? Vielleicht war ich schon einen Schritt zu weit...
"Nicht mehr vöiig kontrollierbar" ist doch dein Argument. Ich meinte oder dachte zumindest, dass eine 100%ige Kontrollierbarkeit sowieso Illusion ist, auch, dass 100%ige Kontrolle sogar negativ sein kann, wenn die Maschine besser agiert als der Kontrolleur es gerade glaubt. Das erinnert mit an Arbeitgeber, die ihre Arbeitnehmer lieber zu viel kontrollieren wollen...
Natürlich könnte eine Maschine durch Überlegung und Abwägung darauf kommen, dass man Menschen nicht verletzen darf.
Sie könnte aber auch zu einem anderen Schluß kommen (so wie wir Menschen auch).
Nur sehr bedingt könnte sie das, wenn sie grundlegend dienen soll; zu verletzen ist sicher gegenteilig zu dienen.
Das heißt das könnte sie, wenn sie frei wäre. Ist sie aber nicht. Diese Freiheit der Entscheidung hat sie einfach nicht, wenn wir ihr die Robotergesetz aufzwingen.
Und genau das ist ja auch der Zweck der Robotergesetze. Die Maschine soll in diesen Punkten nicht frei entscheiden können, sondern nur das tun was wir wolllen.
Ja, grundsätzlich soll sie das, aber nicht nur stumpf programmiert, sondern halt mit gewisser Intelligenz, also z.B. nach Gelerntem u.a. anders entscheiden als vorher.
Was wir wollen ist eine Maschine die nur das tut was wir wollen.
Eine Frage ist halt, ob kurz- oder langfristig; das mag nicht immer identisch sein.
Nein, das ist hier überhaupt nicht die Frage. Wir werden auch langfristig nicht wollen, dass Maschinen die Möglichkeit haben sich zu entscheiden uns zu töten.
Und warum? Weil wir das nicht wollen, sondern wir wollen dass die Maschine nicht ihrem sondern unserem Willen folgt.
Das kurz-/langfristig meinte ich anders. Kurzfristig mag es gut/angenehm sein, wenn dich die Maschine dich mit vielen Süßigkeiten vollstopfen lässt; langfristig mag es angebrachter sein, dass sie dich darauf hinweist, dass es für dich auf die Dauer vielleicht gesundheitlich nicht so gut ist.
Siehe Scharz-Weiß... ein begrenzter Wille mag sinnvoll sein, a la menschlicher Diener.
Es gibt keine menschlichen Diener die keinen eigenen Willen haben.
Es gibt Menschen die gegen ihren Willen zu etwas gezwungen werden.
Es gibt auch Menschen die freiwillig dienen.
Es gibt aber nicht einen Menschen der aufgrund seiner "Konstruktion" gar nicht anders wollen kann als zu dienen.
"Gar nicht anders" sag ich ja auch nicht. Die KI mag gerne andere Dinge verfolgen (lernen u.a.), wenn sie aktuell nicht als Diener gebraucht wird.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.

[Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...]

Benutzeravatar
Jörn Budesheim
Beiträge: 18118
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 25. Jun 2022, 17:29

Timberlake, mein Zusammenhang war nicht der kategorische Imperativ, sondern die verfehlte Erläuterung des KI, die du zitiert hast.




Timberlake
Beiträge: 303
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 25. Jun 2022, 22:31

Jörn Budesheim hat geschrieben :
Sa 25. Jun 2022, 17:29
Timberlake, mein Zusammenhang war nicht der kategorische Imperativ, sondern die verfehlte Erläuterung des KI, die du zitiert hast.

Um das Ganze hier nicht off Topic in eine Diskussion über den kategorischen Imperativ entgleiten zu lassen , habe ich mir erlaubt hier Der kategorische Imperativ dazu einen extra Thread zu eröffnen. Ich hätte zwar gerne auch eine "Karteileiche" , zum KI , wieder zum Leben erweckt. Nur leider konnte zu diesem Thema keinen Thread finden . Was übrigens bezüglich des Stellenwerts des KI tief blicken lässt.




Timberlake
Beiträge: 303
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 26. Jun 2022, 01:20

Burkart hat geschrieben :
Sa 25. Jun 2022, 13:22
NaWennDuMeinst hat geschrieben :
Sa 25. Jun 2022, 12:34
Burkart hat geschrieben :
Sa 25. Jun 2022, 12:08

Wir Menschen haben doch auch unüberwindbare "Gesetze"/Grenzen, z.B. werden wir ohne Hilfsmittel nie fliegen können.
Das sind pyhsische Grenzen. Was hat das mit dem Willen zu tun?
Insofern der Wille etwas u.U. können möchte, was physikalisch nicht geht. Oder auf ganz anderer Ebene, dass wir im Detail ganz nicht wissen, was unser physisches Gehirn uns genau an Willen erzeugt/erlaubt... bei einem vielleicht etwas mehr als bei einem anderen Menschen; "Wille" ist kein ganz klarer Begriff, man kann leider nicht direkt auf ihn zeigen, ihn untersuchen u.ä.


und genaun hier , um sich von dem Willen bzw. dessen Abstufungen einen klaren Begriff zu machen , kommt Schopenhauer ins Spiel. Dazu nur noch mal zur Erinnrerung ...

Timberlake hat geschrieben :
Mi 25. Mai 2022, 01:22


Dieses Mentale, was aus dem Phyischen erwächst bzw. die Annahme, dass alternativ das Mentale schon immer mit dem Physischen präsent gewesen sein könnte, erinnert mich ( Timberklake ) doch schon sehr an Schopenhauer ..

  • "Um eine tiefere Einsicht in das Wesen der Welt zu erlangen, ist unumgänglich nöthig, daß man unterscheiden lerne den Willen als Ding an sich von seiner adäquaten Objektität, sodann die verschiedenen Stufen, auf welchen diese deutlicher und vollendeter hervortritt … Was in Wolken, Bach und Krystall erscheint, ist der schwächste Nachhall jenes Willens, der vollendeter in der Pflanze, noch vollendeter im Thier, am vollendetesten im Menschen hervortritt."

    Arthur Schopenhauer .. Die Welt als Wille und Vorstellung

Wenn man denn , was ja so abwegig nicht ist , aus diesem Mentalen einen Willen ableitet. Wohlgemerkt einen Willen , der als Ding an sich .. so Schopenhauer .. in toter Materie , wie in den Wolken den Bächen aber auch in den Elektronen , um nicht sogar zu sagen in den Quanten der Quantentheorie als schwächste Nachhall erscheint und vollendeter in der Pflanze , noch vollendeter im Tier und am vollendesten im Menschen hervortritt . Wenn gleich ich Letzteres bezweifeln würde. Zumindest wenn man davon ausgeht ,dass möglicherweise auch noch auf den Menschen weitere Stufen folgen. ( Stichwort:Übermensch )


Um auf das Thema KI zurück zu kommen , so würde ich sie übrigens , bezüglich dieses Willens , zwischen den Wolken, Bächen , Kristallen und den Pflanzen verorten.




Timberlake
Beiträge: 303
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 11. Jul 2022, 15:58

NaWennDuMeinst hat geschrieben :
So 10. Jul 2022, 15:14
Burkart hat geschrieben :
So 10. Jul 2022, 13:22

Ganz meiner Meinung, das spricht gut für meine KI-Richtung (bzw. KI-Denken, wenn ich's vielleicht auch nicht überzeugend genug darstellen kann) :)
Ich finde in dem Artikel wird sehr schön klar, dass Mustererkennung keine Intelligenz ist.
Sie scheitert eben genau deshalb, weil es an Intelligenz mangelt.
Weil dazu .. andernorts! .. gerade die Rede war, was (künstliche) Intelligenz ist bzw. zu was sich dergleichen Auswachsen könnte ...
  • Prominenter Physiker warnt ..... Stephen Hawking: Wir müssen die Erde verlassen!
    Klimawandel, Viren, Künstliche Intelligenz und ein Atomkrieg: Der Physiker Stephen Hawking zählt die seiner Ansicht nach großen Bedrohungen der Menschheit auf – ist aber am Ende nicht nur pessimistisch.


    Über den Fortschritt im Bereich der Künstlichen Intelligenz sagte Hawking mehrfach voraus, dass dies das bedeutendste, aber auch letzte Ereignis in der Geschichte der Menschheit sein könnte. Er begründet dies logisch damit, dass Maschinen, die in der Lage wären, sich selbst fortzuentwickeln, viel schneller seien als die biologische Evolution, und dieser darum überlegen.
Diese Prognose, dass Maschinen irgendwann in der Lage wären, sich selbst fortzuentwickeln, möglicherweise sehr viel schneller , als die biologische Evolution , würde übrigens die "Einordnung der KI nach Schopenhauer" über die des Menschen hinaus katapultieren ..

Timberlake hat geschrieben :
Mi 25. Mai 2022, 01:22

  • "Um eine tiefere Einsicht in das Wesen der Welt zu erlangen, ist unumgänglich nöthig, daß man unterscheiden lerne den Willen als Ding an sich von seiner adäquaten Objektität, sodann die verschiedenen Stufen, auf welchen diese deutlicher und vollendeter hervortritt … Was in Wolken, Bach und Krystall erscheint, ist der schwächste Nachhall jenes Willens, der vollendeter in der Pflanze, noch vollendeter im Thier, am vollendetesten im Menschen hervortritt."

    Arthur Schopenhauer .. Die Welt als Wille und Vorstellung

Um auf das Thema KI zurück zu kommen , so würde ich sie übrigens , bezüglich dieses Willens , zwischen den Wolken, Bächen , Kristallen und den Pflanzen verorten.
.. danach würde . "der Wille , als Ding an sich" nun mehr am vollendetesten in der künstlichen Intelligenz hervortreten , um es mal mit den Worten von Schopenhauer zu formulieren.




Antworten