Burkart hat geschrieben : ↑ Mi 25. Jan 2023, 21:16
NaWennDuMeinst hat geschrieben : ↑ Mi 25. Jan 2023, 16:12
Burkart hat geschrieben : ↑ Di 24. Jan 2023, 12:31
Du siehst wieder zu schwarz-weiß. Ganz anders funktioniert sie nicht, immerhin sind es auch Säugetiere.
Wollen wir eine KI die wie irgendein Säugetier funktioniert oder wie ein Mensch?
Wir wollen einfach eine gute funktionierende KI, egal ob wie ein Mensch oder nicht.
Dies meinte ich übrigens wörtlich, nicht auf KI bezogen:
"Ja, es wäre schön, wenn man auch mit Delphinen diskutieren könnte."
Mir geht es um Folgendes.
Jedesmal, wenn Dich jemand darauf hinweist, dass wir keine Ahnung haben wie wir eine starke KI schaffen sollen, weil dazu viele Dinge fehlen,
sagst Du einfach "Die Dinge wollen wir auch nicht".
Und das ist einfach gelogen und falsch.
Es ist nicht so, dass wir das nicht wollen. Wir wollen das. Wir
können es aber nicht.
Und das kann man zugeben. Das sollte man auch.
Und man sollte dann auch die Frage stellen
warum wir das nicht können.
Das führt dann nämlich zu einem prinzipiellen Problem:
Und erhalte ich noch zu den Modellen eine Antwort? Hier scheinst du dich gerne zu drücken, passt wohl nicht ins nicht rein mathematisch-logische Weltbild.
Ich drücke mich vor gar nichts. Ich habe dir schon gesagt: Es gibt keine Modell die z.B. echte Emotionen zuverlässig nachbilden oder abbilden können.
Es gibt sie einfach nicht. Die Frage ist nun warum nicht.
Entweder weil wir den Dreh noch nicht raus haben, oder eben, weil Emotionen nichts (oder nur am Rande) mit Mathematik und Logik zu tun haben.
Ich vertrete die zweite Position. Es geht prinzipiell (prinzipbedingt) so nicht. Falsches Werkzeug.
Man kann einem Logikapparat nicht beibringen zu fühlen.
Aber ohne das wird deine KI immer geistig minderbemittelt sein.
Zum Beispiel im Bereich der ethischen Problemstellungen. Dazu ist es einfach nötig (auch) zu fühlen.
Ich kann mir zum Beispiel keine Ethik vorstellen in der Mitleid und Mitgefühl keine Rolle spielen. Das wäre eine kalte, erbarmungslose Ethik.