NaWennDuMeinst hat geschrieben : ↑ Do 1. Okt 2020, 01:45
Burkart hat geschrieben : ↑ Do 1. Okt 2020, 00:31
Was genau geht am Wegebeschreibung nicht, was nicht durch durch analytische Analyse des Menschen und notfalls durch Rückfrage(n) an ihn zu lösen wäre?
Rückfragen?
Wie soll ich mir das vorstellen?
Sind sie gehbehindert?
Nein.
Sind sie blind?
nein.
Sind sie mit Auto unterwegs?
nein.
Sind sie mit dem Fahrrad unterwegs?
nein
Sitzen sie im Rolllstuhl?
Nein.
Haben sie es eilig?
Nein
Was soll denn daran intelligent sein?
Es geht nur darum, notwendige Daten zu sammeln, also auch "intelligent" zu erkennen, wie notwendig/relevant sie sind.
Wenn aus einem Auto heraus nach dem Weg gefragt wird, ist ja (zu 99%) klar, dass es um einen Weg mittels Auto geht.
Wenn aber jemand als Zugänger an einem Parkplatz steht, kann er normaler Zugänger sein, aber vielleicht auch aus einem Auto ausgestiegen sein; insofern mag hier eine Nachfrage Sinn machen.
Wenn ein Fahrradfahrer an einem Bahnhof nach einem relativ nahen Ziel fragt, wird er dorthin wohl mit dem Rad fahren wollen. Ist die aber z.B. 500 km entfernt, wird er wohl eher sein Fahrrad in einer Bahn mitnehmen wollen. Bei einer Strecke dazwischen mag es aber nicht mehr ganz klar sein und eine Nachfrage hilfreich. Hier ist die Entfernung ein interessantes Merkmal.
Usw.
Dies kann mit etwas Erfahrung jeweils gut erkannt werden, also wann ggf. welche Frage hilfreich sein kann. Emotionen sind dafür aber nicht nötig.
Und wer braucht solche "Intelligenzen"?
Hast Du schon mal erlebt, dass Menschen sich so nach dem Weg fragen oder auf diese Weise ineinander einfühlen?
So meinte ich es nicht, s.o.
Was genau soll an der Planung des Vergüngungspark nicht gehen?
Wurde erklärt. Vergnügen ist eine Emotion. Was Vergnügen ist kannst Du niemanden beibringen, der kein Vergnügen empfindet.
Du kannst ihm zwar eine abstrakte Beschreibung liefern, aber das Erleben fehlt einfach.
Sicherlich ist Vergnügen Emotion. Nur würde ich einen Park nicht aus Gefühlen heraus planen, sondern nach klareren Kriterien, die gerne letztlich auf Emotionen beruhen mögen, aber die Kriterien dann unabhängig von Emotionen zum Planen genutzt werden.
Z.B. mögen kurvige Wege in einem gemütlichen Park, in dem man gerne spazieren gehen möchte, schön sein; in anderen Fällen sind gerade, kurze Weg bevorzugt (um z.B. zum nächsten Vergnügungsgerät/-geschäft zu kommen. Hier geht es bei Planung letztlich nur noch um kurvige oder gerade Wege, nicht mehr, warum diese oder jene besser sind (was anhand der Voraussetzungskriterien "gemütlich" oder "effektiv kurz" jemand vorher festgelegt haben mag).
Wenn jemand z.B. sich selbstständig macht, wird es das gerne anhand seiner Emotionen tun, also was ihm liegt. Trotzdem sollte er klare Kriterien zugrundelegen, ob es wirklich sinnvoll ist, also z.B. ob sich Kunden finden lassen, die Lage z.B. gut oder schlecht ist, wie die Konkurrenz ist usw.
Also was genau geht nicht - so konkret wie möglich? (Vieles lässt sich durch detaillierte Analyse doch lösen.)
Was nicht geht ist, dass die Maschine sich einfach selbst befragen kann, weil sie selbst keine Emotionen (wie zum Beispiel Vergnügen) hat.
Ein wichtiger Teil des Konzepts "Vergnügen", so wie wir Menschen es verstehen, ist das eigene Erleben von Vergnügen.
Wenn ich Dich frage was Vergnügen ist, dann kannst Du mir zwar sagen, dass das ein tolles Gefühl ist. Aber was ist ein tolles Gefühl?
Wie kann ich das begreifen, wenn ich selbst nichts fühle?
Als Mensch kann ich einen Vergügungspark einfach aufgrund meiner emotionalen Erfahrung mit Vergnügen planen (sofern ich die anderen Voraussetzungen erfülle).
Denn ich weiß ja wie sich ein Park anfühlen muss, welche Erlebnisse er bieten muss, damit ich ihn Vergügungspark nennen kann.
Eine Maschine hat aber dieses Erleben nicht.
Also was soll sie machen?
Jetzt schlägst Du vor sie soll fragen.
Und wie soll das ablaufen?
Baut sie dann eine sinnlose Apparatur nach der anderen, bis irgendwann durch Zufall mal eine dabei ist die Menschen Vergnügen bereitet, oder wie stellst Du dir das vor?
Wie gesagt, sie kann ja gerne sich Kriterien zum Planen geben lassen von emotionalen Menschen und dann halt planen.
Maschinen, also allgemeine, starke KI kann auch Anweisungen hinterfragen und ignorieren, wenn sie feststellen, dass sie gegen grundsätzliche Prinzipien verstoßen ("klar gegen Mensch" z.B.)
Selbstständig Denken würde aber bedeuten, dass sie sich selbst Prinzipien setzt.
Partiell mag das so sein.
Wenn ein Mensch selbstständig/flügge wird, soll es natürlich seinen eigenen Weg finden. Aber viele Prinzipien wird er einfach übernehmen wie sich einen Job suchen (Ausbildung, Studium...), eine Wohnmöglichkeit usw. Das sind alles wohlbekannte Prinzipien, aus denen der Menschen "nur" auswählt. Das könnte eine KI grundsätzlich auch (wenn man sie mal eben nicht als Diener ansieht) anhand von erlernten Dingen, also z.B. was sie beruflich am besten kann (im Vergleich mit Anderen z.B.) oder wo sie denkt, am besten "leben"/existieren zu können.
Wenn wir einer Maschine "einflanzen", dass sie uns nicht schaden darf,
Was den meisten Menschen zumindest im Großen und Ganzen erfolgreich gelehrt wird, also dass sie nicht zu Massenmördern o.ä. werden.
oder dass sie uns dienen muss, und wir das so einbauen, dass diese Prinzipien nicht hintergangen werden können, dann ist sie nicht frei im Denken.
Was ist schon völlig frei... Wir werden quasi gezwungen uns darüber Gedanken zu machen, wo wir Geld herbekommen, wie wir mit unseren Mitmenschen klarkommen usw. Sind wir wirklich so frei? (Auch hier gibt es mal wieder nicht nur schwarz-weiß.)
Dann bestimmen wir was sie denken darf und was nicht.
Bedingt durch Vorgeben eines Rahmens, aber nicht im Detail.
Und das muss auch so sein. Wir wollen schliesslich keine Maschinen bauen, die sich gegen ihre Erbauer stellen.
Richtig, deshalb der Rahmen.
Das ist aber bei uns Menschen nicht so.
Na ja, früher wurden Menschen auch befohlen, sich nicht gegen ihren "Erbauer" Gott zu stellen, was dann auch viele gemacht haben.
Wir sind unsere eigenen Gesetzgeber.
Sagen wir: Theoretisch ja, praktisch hat unsere einzelne Stimme aber so gut wie keinen Einfluss. Da haben z.B. Lobbys viel mehr Einfluss.
Wir können uns sogar freiwillig entscheiden nicht frei zu entscheiden (manche Menschen werden ja auch gerne geführt). Das macht einen bedeutenden Unterschied zwischen Mensch und Maschine aus.
Ok, zumindest anfangs möchte ich die KI ja auch als Diener sehen, so dass sie nur eingeschränkt entscheiden kann. Aber vielleicht stellen wir irgendwann fest, dass der Diener-Status nicht nötig ist.
2. Um das zu verhindern, haben zahlreiche Autoren den Vorschlag gemacht das "Denken" und Handeln von Maschinen programmatisch einzuschränken (siehe zum Beispiel Asimov -> Die drei Robotergesetze).
Das Handeln einzuschränken ist richtig, aber ein Denken muss so nicht eingeschränkt werden, solange es nicht zu falschem Handeln führt. (Was u.a. eine Frage der "Erziehung", des Lernens der KI ist, ähnlich wie bei Menschen/Kindern. Man bringt ja z.B. Kindern bei, keine Tiere zu quälen o.ä.)
Oder hast du ein Beispiel, was nicht gedacht werden darf?
Wie willst Du denn hier Handeln und Denken trennen?
[/quote]
Ich will es ja nicht einfach trennen, das macht ja keinen Sinn.
[/quote]
Wenn ein Mensch den Gedanken hat einen anderen umzubringen, dann folgt das Handeln aus seinem Denken.
Nur wenn er so emotional ist oder meint hinreichend sachliche Kriterien dafür zu haben (sagen wir als Hitler-Attentäter).
Was uns daran hindert
Oder eben gerade nicht wegen zu starker Emotionen...
das in die Tat umzusetzen ist ein anderer Gedanke, also zum Beispiel eine moralische Überzeugung die dagegen spricht zu töten, oder auch die Angst vor Strafe. Oder: Auch hier spielen wieder Emotionen rein.
Oder im Gegenteil können es auch sachliche Überlegungen sein, halt z.B. dass Strafe einen stark einschänkt oder dass etwas einfach verboten ist.
Die Corona-Maske trage ich z.T. nur, weil es unbedingt gewünscht wird (laut "Gesetz"), nicht weil ich von ihr irgendwie moralisch überzeugt wäre.
Ich kann nämlich Mitleid und Mitgefühl (mit dem potentiellen Opfer oder den Angehörigen usw) haben. Das kann den entscheidenden Unterschied ausmachen, bei der Frage ob ich es tue oder nicht.
Es kann - aber genau kann Hass o.ä. gerade das Gegenteil bewirken.
So eine Situation, in der die Maschine selbst darüber entscheidet, können wir aber der Maschine nicht erlauben.
Doch, wenn sie aus sachlichen Gründen vernünftig entscheidet, halt z.B. "pro Mensch" als Kriterium.
Nicht nur weil sie kein Mitleid oder Mitgefühl stoppen kann (sie hat ja nichts davon), sondern auch weil wir das einfach nicht riskieren können, dass die Maschine sich gegen uns entscheidet.
Deshalb ja ein vorgegebener Rahmen zu unserer Sicherheit. Und am besten wäre halt ein "Veto"-Knopf, mit dem wir eine Maschine stoppen können, wenn sie klar gegen uns ist (ohne dass sie es selbst erkennt). Bei einigen schlecht erzogenen Kindern (oder auch Erwachsenen) möchte man auch einen vergleichbaren Knopf haben; Erwachsene können ggf. wenigstens bestraft werden.
Das aber ist nichts anderes, als eine bewusste Einschränkung des selbständigen Denkens, und zwar keine Selbstbeschränkung, so wie sie bei uns Menschen aufgrund von ethischen Überlegungen vorkommt, sondern eine von aussen aufgezwungene. Der Maschine ist schlicht nicht erlaubt alles (mögliche) zu denken. Und sie kann sich darüber nicht hinwegsetzen, weil ihre Programmierung ihr das so aufzwingt. Und könnte sie sich hinwegsetzen, müssten wir sie als "ausser Kontrolle geraten" ausschalten.
Also was genau darf sie nicht denken? Beispiel?
Na, zum Beispiel: "Ich darf handeln wie ich will". Darf sie ja eben nicht, wenn wir ihr Handeln einschränken.
Na ja, das abstrakt zu denken ist noch ok, genauso wie wir Menschen denken dürfen, jemanden umbringen zu wollen.
Es muss uns nur jeweils klar sein, dass wir gegen unsere fundamentale Gesetze verstoßen, wenn wir es in Handeln umsetzen.
Insofern könnte man Menschen gar als gefährlicher ansehen, weil sie gegen sie verstoßen können.
Entscheidend ist, dass ihr Handeln vernünftig ist, nur insofern muss sie notfalls ihr Denken zum falschen Handeln einschränken,
Du gibst der Maschine einen Gedanken, ein Prinzip mit: "Ich muss vernünftig handeln."
Hat sie das selbst entschieden? Hat sie den Gedanken dann von alleine, oder wurde ihr der aufgezwungen?
Kann sie sich dann darüber hinwegsetzen?
Also ist sie da frei im Denken?
Und wie ist das bei Menschen?
(Wir können auch nicht immer handeln wie wir wollen, aber das hat nichts mit einer Beschränkung des Denken zu tun, sondern z.B. mit äußeren Bedingungen. Wenn kein Hammer da ist, kann ich den auch nicht zum Zuschlagen verwenden).
Na ja, wenn es keinen Hammer gäbe (auch nicht in Geschichten o.ä.), könntest du auch nicht an ihn denken. Umgekehrt ist unser Denken i.a. auf die Realität bezogen oder auf Dingen, die wir daraus abgeleitet haben. Insofern ist das auch eine Art von Beschränkung.
Es gibt das schöne
Höhlengleichnis von Platon. Wenn wir uns den philosophischen Ausstieg aus der Höhle mal wegdenken, sind wir als Nichtphilosphen bzw. unser Denken auf die Höhle beschränkt.
(Und auch mit philosophem Aufstieg gibt es immer irgendeine Höhle, die wir weiterhin nicht verlassen können.)
Selbst wenn es also terchnisch möglich wäre Maschinen das selbstständige Denken beizubringen, könnten wir ihnen das niemals erlauben.
Was genau heißt selbstständig?
Selbstständig heißt, dass ich voll und ganz Herr meiner Gedanken und Entscheidungen bin.
Was immer das genau heißt; wir sind halt stark durch unser Vorleben, Erziehung u.ä. geprägt.
Dabei geht es nicht darum wo die Gedanken herkommen (Erziehung etc), sondern dass ich mich überhaupt entscheiden kann.
Na ja, darum (Herkunft) geht es letztlich auch, warum denn nicht? Man entscheidet doch auf Basis seiner Vergangenheit. Und überhaupt zu entscheiden heißt "nur" einen Weg wählen zu können. Genau das passiert doch aber gerade, wenn man irgendetwas abwägt, (z.B.) um ein Ziel zu erreichen und die (ggf. vermeintlich) beste Lösung nimmt ("wählt")..
Jeder Mensch ist beeinflusst durch seine Umwelt, andere Menschen, seine Bedürfnisse usw. Sind das nicht alles Abhängigkeiten Richtung Unselbstständigkeit?
Wer keine Optionen hat, kann auch nicht wählen. Klar. Aber ich gehe hier davon aus, dass in einer Situation die Optionen bekannt sind.
Genau, gehen wir von Optionen aus.
Nehmen wir den Fall wo ein Mensch darüber nachdenkt einen anderen Menschen zu töten. Er kann es tun, er kann es aber auch lassen. Letztlich entscheidet er das ganz allein.
Genau das können wir aber einer Maschine nicht erlauben. Diesen Grad an Freiheit darf sie nicht haben. Sie ist also - was das betrifft- fremdbestimmt.
Und nein, das ist nicht das Gleiche wie Erziehung. Erziehung kann ich als Mensch ignorieren und verwerfen. Ich kann im Prinzip alles was ich gelernt habe verwerfen (Ob das Sinn macht ist dann eine andere Frage). Aber ein Maschine kann das nicht, bzw darf es auch nicht können. Sie darf sich nicht einfach über gewisse Handlungsmaximen hinwegsetzen, die wir ihr in Form von Gesetzen oder Befehlen mitgeben. Den Gedanken "Ich darf meine Befehle missachten" kann es bei ihr nicht geben, weil genau das ja ausgeschlossen sein soll.
Als ersten Schritt möchte ich ja auch nicht, dass sie die Maschine über eine Grundprogrammierung hinwegsetzen kann, halt weil wir das RIsiko erstmal nicht abschätzen können. Man kann es aber auch so sehen, dass die Maschine es auch nie können soll, nur dass wir die Grundprogrammierung immer weiter verfeinern bzw. zurücknehmen können (im Laufe ggf. längerer Forschung), bis sie quasi nicht mehr (relevant) existiert.
Das klingt für mich wie eine ziemlich krasse Dystopie.
Bücher und Filme aus dem Bereich der Science Fiction zu dem Thema gibt es übrigens genug.
However: Warum soll Maschinen-Intelligenz zwangsläufig in eine Dystopie münden?
Das habe ich ja gar nicht geschrieben. Ich wollte sagen eine Welt in der man es - so wie Du - als "Fortschritt" ansieht wenn Emotionen keine (oder nur noch eine untergeordnete) Rolle spielen, wäre eine (ziemlich krasse) Dystopie.
Auch das kann ich nicht nachvollziehen. Du denkst doch auch nicht so über bestehende Maschinen, z.B. Smartphones, Verkehrsmittel oder das Web. Oder doch?
Jede Maschine sollte letztlich durch Menschen gestoppt werden können, wenn sie sich "verrennt", z.B. durch solche scheinbar konsequente Logik.
Ach, das finde ich interessant. Du erkennst also an, dass eine Maschine sich in der Logik "verennen" kann.
Warum nicht, das schaffen Menschen auch (da fällt mir doch gerade wieder ein gewisses Trump-eltier ein...)
Das ist aber nur die halbe Pointe. Das wirklich Entscheidende ist bei dem "I, Robot"-Beispiel ja, dass es eben Emotionen braucht um zu erkennen, dass die Maschine sich "verrannt" hat. Verstehst Du? "Das ist mir zu herzlos" meint: Logik ohne Emotionen ist kalt, gefühllos, unmenschlich.
Genau darum geht es. Und genau darum sage ich dir immer, dass Maschinen erst dann wirklich denken und von Nutzen sein werden wenn sie auch fühlen können.
Kein Mensch auf diesem Planeten hat aber einen Plan wie man Maschinen das Fühlen beibringen soll. Nicht mal im entferntesten Ansatz. Und das liegt daran, dass Gefühle eben was anderes sind als Logik. Trotzdem ist ein Denken ohne sie eben genau das: kalt, tot, unmenschlich.
Ich verstehe ja, dass du meinst, dass du mit Emotionen die Logik übertrumpen kannst.
Aber warum soll es nicht auch ein klares "Denk"-Gesetz a la "pro Mensch" geben, so dass (spätestens, wenn es zum Handeln kommt) mit Vernunft statt mit Emotion gelöst wird?
Bei Asimovs 1. Gesetz (pro Mensch) wird normalerweise auf direkten Schaden verwiesen (das geht in die Richtung von dem "(zu) herzlos") und nicht auf einen, den sich eine Superintelligenz selbst überlegt hat, insbesondere nicht, wenn Menschen sich vage selbst schaden (wollen). Zumindest muss es halt immer eine Möglichkeit geben mit der Superintelligenz zu reden und sie letztlich "überstimmen" zu können.
Dass kein Monstrum herauskommt, darauf müssen die Menschen sowieso ständig schauen. Es ist ja nicht so, dass man eine KI sehr lange alleine brüten lässt bzw. lassen sollte, was aus ihrer (u.U. eingeschränkten) Sicht richtig ist. Vielmehr sollte man viel mit ihr interagieren und anhand dessen merken, was gut und was nicht so gut läuft, und letzteres z.B. durch Aufklärung verbessern - ähnlich wie man Verhalten von Kindern durch Erziehung prägen sollte.
Du hast immer noch nicht verstanden, was ich Dir eigentlich mit dem Beispiel zeigen wollte. Nämlich dass unser Verständnis von dem was "gut" und "schlecht" ist auch aus unseren Emotionen herrührt.
Ich denke, ich verstehe schon. Bist du denn der Ansicht, dass "gut" und "schlecht" so eindeutig ist - und nicht bei Menschen nicht selten unterschiedlich?
Nehmen wir z.B. "Eifersucht": Durch diese kann schon ein Blick zur falschen Person zu einem "schlecht" führen, während andere Menschen so etwas kalt lässt oder gar einfach positiv als freundliche Kontaktaufnahme ansieht.
Ist Egoismus gut oder schlecht, also Emotion des "ich zuerst"? Oder ist die Selbstlosigkeit "gut"? Wann ist was gut und wann schlecht? Kann das eine Emotion eindeutig entscheiden?
Ja, wir haben Emotionen, die uns lenken können, aber ist dieses Lenken denn wirklich richtig?
Oder welche Emotionen sind gut oder schlecht hinsichtlich der Flüchtlinge, also a la "alle reinlassen" oder aber "ganz abschotten"? Oder was soll dazwischen gut oder schlecht sein?
Wir - als Menschen - haben da eine Informationsquelle, die den Maschinen fehlt.
Informationsquelle...für einen selbst vielleicht, aber allgemein? Ist es nicht mehr ein wirres Emotions-Bündel, indivuell unterschiedlich ausgeprägt?
Ich bin schon lange mit meiner Partnerin zusammen, aber glaub ja nicht, dass wir dadurch ähnliche Emotionen haben müssen.
Einer (Person) ist das Vertrauen sehr wichtig, der anderen mehr Freiheit, die die andere Person aber kontrollieren möchte, was gegen Freiheit spricht und so zu Heimlichkeit führt, was wieder gegen Vertrauen spricht...
Welche Emotion ist nun gut, welche schlecht? Ist z.B. Freiheit gut oder schlecht?
Die Superintelligenz kann gar nichts dafür. Sie hat ja kein "Herz" (sie fühlt nichts), also wie soll sie darauf kommen, dass ihr Denken und Handeln herzlos (gefühllos) ist? Um zu diesem Entschluß zu kommen müsste sie ja fühlen können (weil das eine Erkenntnis ist, die aus der Fähigkeit zu fühlen entspringt).
Tja, und wer sagt (außer in der Geschichte), dass Emotionen im Durchschnitt wirklich besser sind als eine angemessene Vernunft?
Ich kann mir keine KI vorstellen, die Menschen aus Emotion heraus tötet, Menschen dagegen schon.
Ich denke, dass eine Mischung aus Emotions- und emotionslosen Geschöpfe letztlich die richtige ist, deshalb eine KI die vernunftsbezogene Alternative bzw. Ergänzung zum emotionsbezogenen (z.T. halt zu egoistischen) Menschen ist.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.