Burkart hat geschrieben : ↑ Sa 28. Jan 2023, 23:30
NaWennDuMeinst hat geschrieben : ↑ Sa 28. Jan 2023, 22:26
Burkart hat geschrieben : ↑ Sa 28. Jan 2023, 20:41
'Ähnlich" heißt hier halt "funktional ähnlich" ohne Biologie a la wachsende Flügel.
Es gibt aber zwischen Menschen und Maschinen auch keine "funktionale Ähnlichkeit" wenn es um Gefühle geht.
Sie können es einfach nicht.
Da kannst Du versuchen Dich drumherum und rauszureden.... es hilft nichts.
Dann erkläre mal logisch (funktional), warum das nicht gehen soll - und nicht entsprechend deiner (ggf. fehlenden) Phantasie.
Das habe ich Dir schon erklärt. Weil Gefühle nicht logisch sind.
Gefühlen mit Logik zu Leibe rücken zu wollen ist so wie zu versuchen Gestank zu hören. Das ist aussichtslos.
Alles was dabei herauskommt ist, dass Du das Wesen von Gefühlen verfehlst.
Das haben wir die KI-Frage also von "Emotion" auf "Gefühl" verlagert.
Nein, haben wir nicht.
Ich verwende zwar den Begriff Gefühl hier, meine aber Emotionen.
Aber Gefühle sind für die KI auch problematisch.
Nenn doch mal ein Beispiel, wo logische Intelligenz ein Gefühl erfordert.
Was ist denn "logische Intelligenz"? Ich weiß überhaupt nicht was das sein soll.
Es gibt Intelligenz. Und die ist nicht auf das rein Logische reduzierbar oder von bestimmten Teilen trennbar.
Das ist ja genau das, wogegen ich mich hier ausspreche.
Du behauptest nämlich man kann einfach alles weglassen ausser der Logik (also das was Maschinen NUR können) und das sei dann immer noch vollwertige Intelligenz.
Genau das sehe ich anders.
Das ist wie wenn ich von einem Auto die Reifen abschraube, und das Lenkrad, und die Türen und den Motor und am Ende bleibt nur das Gestänge und ich sage dann das sei immer noch ein Auto.
Das sollten wir zumindest von etwas wie emotionaler Intelligenz trennen, auch wenn Gesichtserkennungssysteme hier schon einiges können.
Nein, wir sollten das überhaupt nicht trennen.
Warum? Nur weil deine Blechkisten das nicht können?
Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.
Das ist kein Argument dafür, dass Emotionen für intelligente Entscheidungen und intelligentes Verhalten absolut notwendig sind.
Ein Mensch, der z.B. kein Mileid empfinden kann wird Entscheidungen treffen die wir als absolut nicht intelligent, sondern als kalt und boshaft, ja sogar minderbemittelt bewerten würden.
Nimm doch intelligente Entscheidungen von Eltern wenn es um ihre Kinder geht. Vieles davon ist emotional motiviert (Elternliebe).
Eine toter, kalter Roboter, der nichts fühlt wird das nicht verstehen können und wird auch nicht ähnlich entscheiden können.
Liebe kann man nicht "einprogrammieren" und der Umgang mit unseren Mitmenschen ist kein rein logischer. Das wäre ja zutiefst grausam wenn das so wäre.
Burkardt, vielleicht mal ein Vorschlag. Bevor Du Dir Gedanke darüber machst wie Maschinen irgendwas entscheiden könnten, überlege doch zuerst mal wie wir Menschen entscheiden.
Wenn wir kluge, intelligente Entscheidungen treffen, läuft das dann immer logisch ab?
Nein, tut es nicht.
In vielen Fällen ist es sogar so, dass wenn wir nur die Logik bemühen, da nur Müll bei rauskommt. Besonders wenn es um das Zwischenmenschliche geht.