Ich sicher auch nicht.Steinmetz hat geschrieben : ↑Sa 27. Aug 2022, 14:24Ich verstehe das Zitat nicht als mathematische Aufgabe.Burkart hat geschrieben : ↑Sa 27. Aug 2022, 11:02Gut, gehen wir davon aus.
Tja, z.T. bewegt sie sich dahin, während mein eigentliches Anliegen eigentlich lieber die technischen Möglichkeiten von KI sind. Aber diese werden leider oft abgetan als "geht nicht (recht)" oder "unwichtig (gegen Ethik z.B.)".Die Debatte bewegt sich eher in Richtung Ethik. Dafür ist es aber sehr wohl wichtig die Begrifflichkeiten zu unterscheiden.
Dann ist die Frage, wer vermenschlicht. Ich als möglicher KI-Entwickler vermenschliche ganz und gar nicht, kenne ich doch um so mehr die Unterschiede.NaWennDuMeinst warnt meiner Meinung nach davor, sich auf eine Vermenschlichung der KI einzulassen. Unter anderem deswegen die Vergleiche mit Werkzeugen.
Mir scheint, dass vor allem die KI-Kritiker vermenschlichen, um die KI herabzusetzen. Dass dann noch "normale Menschen" KI vermenschlichen, mag sein, aber das hat z.B. einer Puppe auch noch nicht geschadet.
Sicher, das Verantwortungsproblem muss man sich genau überlegen, letztlich hängt es am Menschen. Die Frage ist nur, an wem, also z.B. dem grundlegenden KI-Entwickler oder z.B. dem KI-Anwender, ähnlich wie ein Autofahrer Verantwortung für seine Fahrweise hat. Insofern ist Autonomie nur begrenzt ein Problem, ähnlich wie die Autonomie eines Hundes oder so.Zum einem würde eine Vermenschlichung dazu führen, dass wir einer KI Autonomie zutrauen und KI auch zur Verantwortung für die Folgen heranziehen wollen.
Ohne nun sehr pessimistisch zu klingen aber solche Risiken muss man doch nicht eingehen.
Aus meiner Sicht ist der eigentliche Fehler die Vermenschlichung. Warum soll eine KI nicht intelligent und gar Bewusstsein haben können? Nur weil der Mensch sich zurückgesetzt fühlen könnte? Taschenrechner rechnen besser, Autos und Flugzeuge sind schneller, fühlen wir uns da zurückgesetzt?Nun ist der Begriff noch aus einer anderen Sicht problematisch. Es wurde ja schon Reduktionismus erwähnt. Wenn man also die Intelligenz der Maschine und das maschinelle Lernen nimmt und aussagt, dass funktioniert quasi wie beim Menschen, welche Schlüsse ziehen wir dann auf die menschliche Intelligenz?
Dann müsste man auch den Determinismus verurteilen oder die Vorherbestimmung des Menschen... aber darauf fällt ja auch keiner rein, zumindest kein Richter u.ä.Wenn wir das Innenleben des Menschen auf derart mechanische Weise erklären, kann sich der Mensch darauf berufen, dass er für sein Handeln nicht verantwortlich ist, da er ja nur Opfer seiner eigenen mechanischen Vorgänge ist.
Und wie gesagt: KI erklärt nicht den Menschen (das tun Philosophen u.ä.), sie ist nur Technik, natürlich gerne angelehnt an menschliche Eigenschaften und Möglichkeiten.
Daraus hätte ich fast ein ähnliches neues Thema gemacht a la "Ist alles eins?" - oder eben nicht unbedingt, wenn die Summe mehr sein soll.Nun noch eine Interessante Weltanschauung auf die ich gestoßen bin:
Der Holismus.
Lässt sich ebenfalls auf Wikipedia finden.
Da wird dann auch ein schönes Zitat von Aristoteles verwendet. "Das Ganze ist nicht die Summe seiner Teile"
Das gibt einem Grund zu grübeln.
Aus meiner Sicht ist die Summe nur mehr, weil wir sie als solche ansehen und beim Summieren gerne Einzelteile vernachlässigen bzw. sie nicht als solche anerkennen.
Oder hättest du ein Beispiel, wo die Summe klar mehr ist? (Möglichst ein Beispiel, dessen Teile überschaubar sind.)
Jedenfalls dank dir für die erfrischende Sachlichkeit hier, die ich manchmal bei Anderen vermisst habe.
Klar, wenn man nur die materiellen Dinge betrachtet, das ist eine funtionierende Uhr natürlich durch ihre Funktion mehr als ihre Teile.Wenn wir die Teile einer Uhr nebeneinanderlegen und Addieren bekommen wir eine Summe. Wenn wir die Teile zusammenbauen bekommen wir eine Uhr. Insofern sie dann funktioniert.
Du meinst nur von Einzelteilem auf das System Uhr?Ich kann bei dieser Betrachtungsweise nicht durch ein Zahnrad oder eine Feder oder gar der Wechselwirkung von einem Zahnrad und einer Feder auf die Uhr schließen.
Das sicher nicht, aber wenn man allle Einzelteile in ihrer Anordnung usw. hat, so auf erkennt, wie sie wechselwirken können, kann man dann nicht auf die Uhr schließen, sie erkennen somit?
Eine Frage ist, warum sie dann vermenschlichen. Wenn es um Profite geht, tun sie's sicher gerne, weil sich Bewusstsein von Lemda gut verkaufen lässt. Ich glaube allerdings nicht, dass die Entwickler selbst glauben, etwas klar Richtung Mensch erschaffen zu haben, wenn sie selbstkritisch genug sind.Dann zum Thema Vermenschlichung. Selbst die KI-Entwickler sind nicht alle resistent. Wir haben uns in der Debatte ja auch mit einem Artikel beschäftigt, der hier als Beispiel dienen dürfte. Der Techniker Blake Lemoine will bei der Google KI Lembda ein Bewusstsein nachgewiesen haben. Als nächstes kommt dann der Anwalt. Persönlichkeitsrechte stehen im Raum etc. Das passiert, wenn eine KI vermenschlicht wird.
Also selbst jene, die sich intensiv mit dem Thema beschäftigen, schlagen den Weg der Vermenschlichung ein.
Zugegebenermaßen könnte es auch sein, dass Mr. Blake mit seiner Bewusstseins These etwas ganz anderes meint. Ähnlich wie wir es bei dem Begriff der Intelligenz herauszuarbeiten versuchen.
Es ist ja auch eine Frage, was sie mit Persönlichkeitsrechten bewirken wollen, vermutlich wieder mal nur mehr Rechte für sich durch ihr Produkt.
Das hat für mich wenig mit einem echten Weg zur (stärkeren) KI zu tun.
"Künstliche Intelligenz" ist halt nicht "Intelligenz" wie ein Teddybär kein Bär, die Unterscheidung steckt immerhin schon im Begriff. Allerdings sehe ich, dass "KI" in den letzten Jahren leider oft auch für einfachere Dinge benutzt wird in allgemeinen Medien, weil es den Medien als Schlagwort zu gefiel. Auch in Firmen wird gerne Automatisierung mit KI vermischt.Nun besteht die Welt aber nicht aus IT Profis auf der einen und Philosophen auf der anderen Seite. Wenn wir Begriffe doppelt belegen dann nimmt der Verkäufer, der Arzt und die Rechtsanwältin eben den Begriff mit ihren subjektiven Bedeutungen auf und schon landen wir unausweichlich in der Falle. Die paar IT Profis auf der Welt müssten sich dann schon ganz erheblich ins Zeug legen um derartige Dinge zu relativieren.
Sorry, dann habe ich es unklar ausgedrückt: Ich wollte nur ausdrücken, dass der Determinismus nicht herhalten kann, um sich von Verantwortung loszusprechen; ob bzw. inwiefern er existiert, wollte ich keineswegs negieren.Der Determinismus.
Nun muss ich dir dann doch Mal wiedersprechen. Auf den Determinismus fällt keiner mehr rein ist doch schon eine sehr steile These. Der freie Wille ist immer noch eines der großen Themen in der Philosophie. Neurowissenschaften hauen da immer wieder in die empfindlichsten Kerben. So wurden durch Experimente (es tut mir an der Stelle wieder Leid, dass ich keine Quellen angeben) gezeigt, dass Entscheidungen getroffen werden bevor wir uns der Entscheidung Bewusst werden.
Genau, ein Richter geht vom freien Willen aus, völlig zu recht. Aus meiner Sicht gibt es ihn hinreichend auf menschlicher Ebene, weil ein Mensch eben entscheiden kann - dabei ist es mir egal, ob diese Entscheidung deterministisch erfolgt oder nicht.Das der Richter*in hier nicht diese Überlegungen anstellen wird ist fast schon selbsterklärend. Der freie Wille ist fest mit unserer humanistischen Grundhaltung verwoben.
Ich für meinen Teil mag die deterministische Anschauung nicht aber um sie komplett zu wiederlegen fehlen dann doch wieder die Argumente.
An den Schwung glaube ich hier kaum noch, weil ich immer wieder praktische Stichworte geliefert habe. Der "Witz" ist, dass diese auch als solche (gen stärkere KI) akzeptiert werden müssen, bei Ablehnung (wie oft geschehen) ist alles weitere witzlos.Nun hasst du mehr oder minder den Wunsch formuliert, dich über die technischen Möglichkeiten der KI auszutauschen und angeboten die KI in ihrer Existenz zu untermauern. Es sieht bisher so aus als wärst du noch nicht dazu gekommen. Vielleicht solltest du, unabhängig von den Diskussionen die dabei aufkommen einfach damit anfangen. Das gibt bestimmt nochmal ein bisschen Schwung in die Sache.
Das beginnt mit maschinellem Lernen: Wenn man dies als Lernen für KI einfach ablehnt, hat sich's erledigt.
Selbst über (Selbst-)Bewusstsein habe ich mir hinsichtlich KI schon Gedanken gemacht, was dies denn heißen könnte bei KI (bzw. Roboter), aber ich fürchte spätestens da werden die KI-Kritiker wieder zu sehr an den Menschen denken, womit sich's wieder erledigt hätte.
Was Begriffe betrat, wurde selbst schon verneint, dass Flugzeuge fliegen können, weil ja doch i.a. ein Mensch dies steuert...
Man muss z.B. auch aus der Simulationsfalle herauskommen: Etwas wie Fliegen kann man simulieren, eine Rechnung dagegen ist keine Simulation, sondern einfach eine Rechnung (2+2 ist 4, egal ob vom Menschen oder einem Rechner ermittelt), und das lässt sich auf Vieles in der KI erweitern.
Soweit ein paar grundlegende Ideen/Ansätze/Überlegungen.