Nich' doch... dann entwirre ich mal wieder das Schwarz-Weiß ein wenig.NaWennDuMeinst hat geschrieben : ↑Sa 28. Jan 2023, 10:20Mir geht es um Folgendes.Burkart hat geschrieben : ↑Mi 25. Jan 2023, 21:16Wir wollen einfach eine gute funktionierende KI, egal ob wie ein Mensch oder nicht.NaWennDuMeinst hat geschrieben : ↑Mi 25. Jan 2023, 16:12
Wollen wir eine KI die wie irgendein Säugetier funktioniert oder wie ein Mensch?
Dies meinte ich übrigens wörtlich, nicht auf KI bezogen:
"Ja, es wäre schön, wenn man auch mit Delphinen diskutieren könnte."
Jedesmal, wenn Dich jemand darauf hinweist, dass wir keine Ahnung haben wie wir eine starke KI schaffen sollen, weil dazu viele Dinge fehlen,
sagst Du einfach "Die Dinge wollen wir auch nicht".
Also: "Starke KI" ist ja alles andere als ein völlig klarer Begriff, also was sie wirklich können soll und was nicht. Du erwartest von ihr Dinge, die ihr (nach deiner Meinung) fehlen, ich erwarte von ihr "nur", dass sie ähnlich intelligent wie wir sein kann und das eben ohne Biologisches, was nach deiner Ansicht nicht geht, nach meiner aber schon sehr viel gehen könnte. ChatGPT ist sicher kein perfektes Beispiel, zeigt aber schon, was sogar aktuell schon geht.
Du willst somit Dinge, die aus meiner Sicht gar nicht nicht gehen können, weil KI alsTechnik eben nicht auf Biologie basiert. Und was macht es für einen Sinn so etwas zu wollen?
Befass dich gerne damit (und somit gar nicht von KI als Technik Gewolltem); ich bevorzuge die konstruktive Seite von möglicher KI.Und das ist einfach gelogen und falsch.
Es ist nicht so, dass wir das nicht wollen. Wir wollen das. Wir können es aber nicht.
Und das kann man zugeben. Das sollte man auch.
Und man sollte dann auch die Frage stellen warum wir das nicht können.
Das ist schön.Ich drücke mich vor gar nichts.Und erhalte ich noch zu den Modellen eine Antwort? Hier scheinst du dich gerne zu drücken, passt wohl nicht ins nicht rein mathematisch-logische Weltbild.
Einfach, weil echte Emotionen etwas mit biologischer Grundlage sind.Es gibt keine Modell die z.B. echte Emotionen zuverlässig nachbilden oder abbilden können.
Es gibt sie einfach nicht. Die Frage ist nun warum nicht.
Deshalb sind Emotionen vielleicht auch nicht der richtige Zugang zu KI, weil sie zu sehr ans Biologische anlehnen bzw. erinnern?Entweder weil wir den Dreh noch nicht raus haben, oder eben, weil Emotionen nichts (oder nur am Rande) mit Mathematik und Logik zu tun haben.
Ich vertrete die zweite Position. Es geht prinzipiell (prinzipbedingt) so nicht. Falsches Werkzeug.
Warum gehen wir nicht lieber (zumindest erstmal) von klar machbaren Zielen aus u.ä.?
Aber ok, lasse ich mich hier mal auf Emotion ein... die nach Wikipedia eine "psychophysische Bewegtheit [ist], die durch die bewusste oder unbewusste Wahrnehmung eines Ereignisses oder einer Situation ausgelöst wird."
Was spricht nun dagegen, dass KI Dinge wahrnimmt, also in dem Sinne Daten über "Sinne" erfasst und durch eine schnellere Filterung kritische Dinge herausfiltert und somit schnell darauf reagieren kann - halt funktional verglichen mit einer menschlichen Emotion?