Hallo NaWennDuMeinst,
NaWennDuMeinst hat geschrieben : ↑ So 13. Sep 2020, 12:13
Hallo Burkart,
Ich bezog mich auf den Text in Beitrag Nr. 40328.
Dort geht es um Bewusstsein.
Du zitierst bei der Frage danach was Bewusstsein ist Wikipedia:
Danach ist Bewusstein
"im weitesten Sinne das Erleben mentaler Zustände und Prozesse"
Letztlich geht es ja um mehrere Aspekte: "Können Computer denken?" (Thema), Bewusstsein und in dem Zusammenhang sicherlich auch, was Denken überhaupt ist, z.B. ob Denken als Roboter "möglicher" ist als nur der reine Coumputer u.a.
Und mir ist dem Zusammenhang immer wichtig, dass mit KI *nicht* 100%ig der Mensch "nachgeäfft" werden soll, sondern nur, dass sie ähnlich intelligent sein soll.
Zu diesen Zuständen gehört zumindest beim Menschen auch das Träumen, das Phantasieren und natürlich auch das Fühlen.
Und natürlich haben all diese Dinge auch einen nicht geringen Einfluß darauf wie wir denken und damit dann auch darauf wie wir uns verhalten.
Deshalb glaube ich auch nicht, dass es gelingen kann eine Maschine zu schaffen die so denkt wie ein Mensch (und dann auch das entsprechende Verhalten zeigt), weil wir einer Maschine nicht beibringen können zu fühlen, zu träumen und zu phantasieren.
Wie betont: Ich erwarte auch nicht, dass eine KI genauso fühlen und ggr. wirr phantasieren kann wie Menschen.
Sicher haben diese Dinge Einfluss auf das menschliche Denken, aber es ist ja nicht das Ziel, dass die KI genauso wie ein Mensch denkt. Vielmehr hoffe ich, dass sie nicht so egoistisch wie Menschen ist, was wieder mit Gefühlen zusammenhängt.
Das heißt aber nicht, dass die KI nicht auch sensorisch "empfinden" (=Daten quasi intutitiv erfassen durch hohe Geschwindigkeit und effektive Verarbeitung) kann, Gedanken rein deduktiv und ggf. eher zufällig verarbeiten kann (=träumen) und u.U. sinnvoll Phantasie zu entwickeln (quasi Neues aus Bekanntem 'neu' zusammenstellen).
Laut Thema geht es ums Denken, nicht um Emotionen, Träume u.ä., insofern kann man da schon differenzieren.
Es geht nicht einfach nur ums Denken (denn wie gesagt: Wir wissen ja gar nicht genau was das eigentlich ist), sondern darum eine Maschine zu schaffen die das Verhalten zeigt, das Menschen zeigen.
[/quote]
Hinsichtlich Intelligenz u.ä. stimme ich dir zu, aber es ist nicht sinnvoll, Emotionen (künstlich) nachzuahmen - also insgesamt das menschliche Verhalten zu partiell nachzumachen.
Dass wir nicht perfekt definieren können, was Denken ist: Einverstanden. Noch weniger aber können wir definieren, was Bewusstsein ist, oder?
Wenn es nur ums Denken als Abarbeiten von irgendwelchen Inputs und Algorithmen ginge, dann würden Computer wahrscheinlich heute schon denken.
Die Frage ist, ob der Mensch nicht auch (unbewusst) determniert ist und quasi so auch Algorithmen folgt.
Aber wir stellen ja fest dass ihr "Denken" weit davon entfernt ist mit dem Denken eines Menschen identisch zu sein.
Wie gesagt, das sollte auch nicht das Ziel sein.
Und das liegt mMn vor allem daran, dass ganz wichtige Teile dessen was menschliches Denken ausmacht in der Maschine nicht umgesetzt werden können.
Wir sollten unterscheiden zwischen
1.(a) "bisher nicht umsetzbar" bzw. (b) "bisher nicht umgesetzt"
2. "logisch nicht umsetzbar" und
3. "nicht erwünscht umzusetzen".
Bei 2. ""logisch nicht umsetzbar" muss man sehr vorsichtig sein, was warum genau nicht gehen soll; ein schwammiges Bewusstsein zählt dazu sicherlich nicht.
Du glaubst jetzt das sei einfach nur eine Frage der richtigen Programmierung. Ich denke man kann wesentliche Teile, die unser Denken prägen gar nicht programmieren (weil diese Teile so nicht funktionieren).
Wie sagt, wir müssen unterscheiden zwischen 1., 2. und 3.
1. wird irgendwann gehen, 3. wollen wir gar nicht und zu 2. müssen wir genau analysieren.
Eine Basisprogrammierung zu 1 (b) geht auf jeden Fall, man muss sich nur angehen.
Wenn ein Mensch ganz pragmatisch, quasi emotionslos handelt, meinst du, dass er deshalb kein Bewusstsein hat? Ich glaube nicht.
Erstens glaube ich nicht, dass menschliches Denken komplett von Emotionen befreit sein kann. Emotionen spielen bei allem was wir machen immer mit.[/quote]
Mir ging es um erstmal nur um die Frage, ob nicht auch Bewusstsein ohne Emotionen vorstellbar ist. (Oder definiere gerne "Bewusstsein" genauer.)
Ja, Menschen können ihre Emotionen wohl nicht komplett ignorieren, auch wenn dies manchmal sehr hilfreich wäre, z.B. um sich auf etwas perfekt konzentieren zu können. Mir fällt da der Tennis-Kommentator ein, der meinte, dass der (aktuelle) Tennisspieler nun vielleicht doch bald an den Sieg oder die Niederlage denkt, was heißen soll, dass er sich durch den Gedanken ablenken bzw. beeinflussen lässt und so weniger konzentriert ist.
Sind also menschliche Emotionen nicht also auch nachteilig!?
Zweitens ist genau das ja ein entscheidender Vorteil im Denken des Menschen. Nehmen wir doch nur mal an wir wollten eine Maschine schaffen, die für uns ethische Probleme lösen soll.
Ethische Probleme sind ein Spezialfall, meist geht es um praktische oder logische Probleme, und dafür sollte die KI zuerst einmal da sein.
Möchtest Du das eine emotionslose Maschine erledigen lassen?
Ja, gerade! Wenn (nur) Menschen mit Emotionen an solche Probleme rangehen, kommt leicht einseitiger Mist raus, z.B. klare egoistische Übervorteilung.
Dass eine KI aber Emotionen (vernünftig) nachvollziehen lernen soll, dem stimme ich zu, einfach um den Menschen besser zu verstehen.
Natürlich soll eine emotionslose KI nicht einfach über uns Menschen herrschen, aber das hatte ich ja schon an anderer Stelle geschrieben (KI als Diener bzw. hier als Berater).
Die grundlegendsten Ziele sind dem Menschen angeboren, etwas ähnliches müsste einer KI programmiert werden - aber nicht (unbedingt) dieselben Ziele: Eine KI muss z.B. keinen Überlebens- oder gar Vermehrungsziel haben, insbesondere keinen Egoismus ("will mehr haben/besser sein als andere" o.ä.). Als Diener des Menschen sollte ein grundlegendes Ziel halt dem Menschen zu dienen sein, ein weiteres (dazu) möglichst viel (Relevantes) zu lernen.
Hier sieht man eben schon ganz deutlich wie Du Dir Menschen vorstellst. Nämlich als Bioroboter.
Nicht als Roboter, nur als physisches Wesen, ähnlich wie es ein Roboter ist.
Die sind (genetisch) programmiert und spulen dann ihr Programm ab.
Nein, habe ich das oben irgendwie geschrieben? Oder willst du verneinen, dass Grundlegendes beim Menschen angeboren ist?
Daher rührt auch Deine Ansicht, dass es nur eine Frage der "richtigen Programmierung" ist um eine Maschine zu schaffen, die sich ganz oder in Teilen wie ein Mensch verhält.
Nicht "daher", aber natürlich bedarf es einer Programmierung, wie soll es sonst gehen?
Aber hier liegt eben schon mMn der Fehler. Denn so wie Du da den Menschen beschreibst ist er nicht.
Ich beschreibe ihn nicht so, nur du - außer ggf. mit dem grundlegend Angeborenen.
Natürlich hat er eine gewisse genetische Programmierung.
Ah ok.
Aber wenn alle grundlegenden Bedürfnisse erfüllt sind,
Was heißt für dich "grundlegend"? Hast du höhere Bedürfnisse da schon mit einbezogen, siehe z.B. Sicherheit, Soziales bis hin zur Selbstverwirklichung (siehe z.B. die
Maslowsche Bedürfnishierarchie)?
macht der Mensch plötzlich etwas ganz Erstaunliches, was keine Maschine auf der Welt kann (und ich denke auch nie können wird).
Er fängt an sich eigene Ziele zu suchen.
Wo kommen deiner Ansicht nach diese menschlichen Ziele her? Aus dem Nichts etwa?
Meiner Ansicht nach kommen viele aus den Bedürfnissen, sind also von ihnen abgeleitet.
Wo in unserer DNA befindet sich zum Beispiel das "Kultur-Gen"? Wo das Spiritualitäts-Gen?
Warum soll es denn sowas geben?
Der Mensch lernt doch sein Leben lang und dass in einer Gemeinschaft, und so entsteht Kultur u.a.
Und ähnlich muss die KI seeehr viel lernen und das idealerweise vom Menschen und in einer Gemeinschaft.
Menschen motivieren sich selbst zum Beispiel in dem sie von etwas phantasieren oder träumen.
EIne KI kann auch deduktiv "träumen" und so ggf. zu neuen Zielen kommen, also feststellen, dass dies oder jenes sinnvoll zu erreichen wäre.
Extra Motivation braucht sich nicht (unbedingt).
Dabei ist es eben nicht so wie Du es beschreibst.
S.o.
Wir verarbeiten nicht einfach einen Input und leiten dann daraus etwas ab, sondern wir erfinden auch Dinge selbsttätig,
Du vermischt zwei völlig verschiedene Ebenen (so wie du Menschen sicher auch nicht durch ihre Atome beschreiben würdest). Natürlich verarbeiten wir Input und leiten daraus etwas ab, aber natürlich nicht nur bzw. "einfach", das sagt ja auch keiner. Etwas zu erfinden spielt sich auf einer ganz anderen Denkebene ab, z.B. in Richtung der Überlegung, ein Ziel besser erfüllen zu können oder wie man das wohl besser hinbekommt.
Dinge die es in de Welt gar nicht gibt, die auch nicht "wahrnehmbar" sind (z.B. die Vorstellung Gott).
Vieles ist nicht wahrnehmbar, z.B. alleine schon die Ziele. Und ein solches Ding ist leicht durch Mischung zweier Gedanken "produzierbar" wie ein rosa Elefant. Klar, dass es bei Gott etwas komplexer zuging.
In dem Film "A.I." stösst der kleine Kind-Androide David auf die Geschichte "Pinocchio" und setzt diese (fiktive) Geschichte in ein Verhältnis zu sich selbst. David fängt an nach der "blauen Fee" aus der Geschichte zu suchen, weil er glaubt dass diese ihn zu einem "echten Jungen" machen kann.
Ja, einer KI Märchen vorzulesen, so dass diese sie als solche begreift, ist schon eine interessante Idee. Auch Kinder müssen die Trennung zwischen Märchen und Wirklichkeit erst lernen, wie wohl (fast) jeder mit dem Weihnachtsmann lernt.
Ausgelöst wird das dadurch, dass seine "Mutter" sich einen echten Jungen (keinen Roboter) wünscht. David wünscht sich von seiner "Mutter" geliebt zu werden.
Ich hoffe, ich zerlege die Geschichte nicht zu sehr für dich...
...aber genau (mindestens) zwei vermischte Ziele (Ideen) spielen hier eine Rolle: Die geliebt zu werden und die der blauen Fee, wodurch eine Phantasie bzw. "nicht wahrnehmbares Objekt" entsteht.
Nun könnte man auch sagen unser Bedürfnis geliebt zu werden sei ein genetisches Grundprogramm, aber David macht da etwas, was eigentlich nur Menschen können: Er ignoriert das Gegebene (seine Programmierung, die bestimmt wer er ist) und glaubt daran, dass er ein "echter Junge" werden kann.
Seine Programmierung völlig zu ignorieren gehört natürlich zu dieser Geschichte und ist halt Phantasie.
Daraus zieht er dann seine Motivation. Wenn Du so willst hat David hier seine Programmierung selbsttätig geändert und das in eine unvorhersehbare Richtung.
A.I. ist ein Science-Fiction Film. Das was David da macht können Computer nicht.
Wie gesagt, es ist eine nette Geschichte.
KI kann und soll ihre Programmierung auch nicht ändern, sondern sie nur ständig ausbauen, ähnlich wie es der Mensch auch quasi tut.
Menschen können das.
Anhand ihrer Bedürfnisse, Ziele u.ä., aber sonst...?
Kannst du dich in einen Fisch oder Vogel verwandeln? Oder einfach als junger Mensch in einen alten oder umgekehrt?
Menschen können nicht einfach sich beliebig ändern, sondern auch nur anpassen, auch wenn es anders natürlich besser klingt, gerade von Motivationstrainern u.ä.
Sie können sich selbst motivieren und sich selbsttätig Ziele setzten. Diese Ziele können zum Bespiel ausgelöst sein durch Emotionen, oder auch durch Träume. Beides kommt in Maschinen nicht vor.
Ziele setzen kann sich eine KI auch, s.o. u.a. Dazu bedarf es keiner menschlichen Träume.
Ich halte aber Beides für erforderlich, weil es unser Denken und Bewusstsein prägt und ausmacht.
Das ist meine Vorstellung von "Denken" und "Bewusstsein" und natürlich kann man hier einwenden, dass die Erschaffung menschlichen Bewusstseins und Denkens nicht unbedingt das Ziel ist. Stimmt.
Eine gute Einschränkung.
Aber es ist das Ziel Maschinen zu schaffen die Probleme lösen wie wir Menschen.
Ähnlich wie er.
Und dafür wäre eben auch ein Bewusstsein oder Denken nötig, das wie menschliches Denken und Bewusstsein funktioniert.
Es ist Denken (o.ä.) nötig, dass ähnlich dem menschlichen funktioniert, nicht identisch; den Fehler sollte man nicht machen.
Und das muss scheitern, weil der Intelligenz auf Siliziumbasis dazu etwas fehlt, was sie aus Prinzip nicht haben kann. Gefühle. Träume. Phantasie.
Das habe ich oben ggf. schon erläutert.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.