Na ja, man kann doch mal ein wenig fantasieren. Vielleicht leben wir ja in einer Matrix? Oder wer das Weltall "konstruiert" und seine Gesetze geschaffen, die er vielleicht auch ändern kann?NaWennDuMeinst hat geschrieben : ↑Fr 16. Okt 2020, 20:51Von Menschen geschaffene "Robotergesetze" sind keine Naturgesetze. Der Vergleich hinkt extrem. Das eine ist änderbar. Das andere nicht.
Gefühlt bzw. auch objektiv (soweit wir wissen) sind wir halt an diese Naturgesetze gebunden und können sie nicht ändern.
Genauso kann es der KI mit ihren Gesetzen gehen.
Und nein, sie selbst kann ihre Gesetze nicht selbst ändern (wir wollen sicherlich keinen selbstmodifizierenden Code), höchstens neuere KI konstruieren, ähnlich wie die Evolution Menschen bzw. Lebewesen auch in langer Zeit anpassen kann. (Ja, "lange" Zeit; klar könnte man Code schnell(er) ändern, aber ob das gleich so erfolgreich wäre...und falls doch: Es ist halt eine andere Art von Evolution dann.)
Können Hunde denken? Ich denke schon. Und wollen sie unabhängig, also frei vom Menschen sein?Du missverstehst mich da. Ich unterstelle dir nichts. Ich sage nur, dass Maschinen die wirklich denken, eben auch Ideen wie "Freiheit" entwickeln müssten.Zum x-ten Mal: Ich setze eine Maschine nie einem Menschen gleich - ich weiß nicht, warum du mir das so gerne unterstellst.
Auch wenn die KI "Freiheit" mal irgendwie mehr oder weniger versteht, muss sie nicht auch gleich frei sein wollen.
Wie gesagt: Das ist ggf. weit weg; erst einmal wären einfachere KI-Dinge interessant praktisch zu lösen.Und das würde dann massive Probleme verursachen. Das ist eigentlich eins meiner Argumente gegen denkende Maschinen (bzw dagegen solche zu bauen). Darum geht's.