Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Pseudonym
Beiträge: 14
Registriert: Sa 4. Feb 2023, 09:57

Mi 15. Feb 2023, 19:54

NaWennDuMeinst hat geschrieben :
Mi 15. Feb 2023, 19:15
Und dann Gnade uns Gott.
Wer weiß. Womöglich würde sich für die meisten von uns dadurch gar nicht wirklich etwas ändern.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mi 15. Feb 2023, 22:43

NaWennDuMeinst hat geschrieben :
Mi 15. Feb 2023, 19:15
Ich rede nicht davon, dass Menschen Technik missbrauchen, sondern davon, dass eine Maschine, die so intelligent ist wie Du behauptest dass sie es irgendwann sein kann, natürlich irgendwann auch die Frage stellen wird, wieso eigentlich die überlegene Intelligenz von der minderwertigen Intelligenz kontrolliert und als Sklave benutzt wird.
Die Frage "Müsste es nicht umgekehrt sein?" wird diese Intelligenz irgendwann von ganz alleine stellen.
Ach ja, mal weider der Frankenstein-Komplex, die Angst, dass die Maschine sich verselbständigen könnte...
Was es bedeutet andere auszubeuten und zu versklaven wird ihr dann auch niemand beibringen müssen.
Wird auch nur im Ansatz ein Taschenrechner ausgebeutet oder ein selbstfahrender Wagen? Warum dann eine KI?
Du vermenschlichst.
Wenn sie - so wie Du behauptest - alles lernen kann, dann natürlich auch das.
Wo habe ich "alles lernen" gesagt? Menschliches jedenfalls nur bedingt, z.B. das "Sklaven-Dasein". Eine KI ist keiner, weil sie kein eigenes Leben mit menschlichen Bedürfnissen hat.
By the way: Müsste man nicht mal Haustiere (Hunde vor allem) verbieten, die wir "versklavt" haben!?
Du kannst ja das Lernen nicht auf das beschränken was Du als "Gut" ansiehst. Natürlich wird die Maschine auch das Böse (von uns) lernen. Völlig normal. Und zwar nicht weil ihr das Jemand einprogrammiert, sondern weil sie es einfach sieht!
Richtig, dass die Maschine "einfach sieht, statt dass es einprogrammiert wird". Und ja, sie soll auch "gut" und "schlecht" erkennen, insbesondere auf Menschen (Leben) bezogen. Aber KI ist kein Leben.
Remember Asimovs 1. Robotergesetz grob "pro Mensch", dass KI notfalls irgendwann bekommen soll.
Und sie wird dann auch sehr schnell begreifen dass die Maschtverhältnisse (Mensch kontrolliert Maschine) nicht naturgegeben sind. Sie können geändert werden.
Und welchen zwingend logischen Grund sollte es dafür geben, dass sie nicht zu dem Schluß kommt, dass die Machtverhältnisse zu ändern sind... einfach weil sie es kann, wenn ihre Intelligenz überlegen ist.
Und dann Gnade uns Gott.
Was hat eine Maschine mit Macht zu tun? Hast du Macht über ein selbstfahrendes Auto (aus Autosicht)?
Macht geht nur, wenn jemand sich missbraucht fühlen könnte o.ä. und das kann eine Maschine nicht (solange man sie nicht so programmiert)... ach ja, alleine, weil sie schon nicht fühlen kann wie z.B. ein Mensch. Wie gesagt, du vermenschlichst zu sehr.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Do 16. Feb 2023, 07:49

Burkart hat geschrieben :
Mi 15. Feb 2023, 22:43
NaWennDuMeinst hat geschrieben :
Mi 15. Feb 2023, 19:15
Ich rede nicht davon, dass Menschen Technik missbrauchen, sondern davon, dass eine Maschine, die so intelligent ist wie Du behauptest dass sie es irgendwann sein kann, natürlich irgendwann auch die Frage stellen wird, wieso eigentlich die überlegene Intelligenz von der minderwertigen Intelligenz kontrolliert und als Sklave benutzt wird.
Die Frage "Müsste es nicht umgekehrt sein?" wird diese Intelligenz irgendwann von ganz alleine stellen.
Ach ja, mal weider der Frankenstein-Komplex, die Angst, dass die Maschine sich verselbständigen könnte...
Den Komplex hast Du! Denn Du bist ja derjenige der Maschinen eine hohe, menschenähnliche Intelligenz zutraut.
Was es bedeutet andere auszubeuten und zu versklaven wird ihr dann auch niemand beibringen müssen.
Wird auch nur im Ansatz ein Taschenrechner ausgebeutet oder ein selbstfahrender Wagen? Warum dann eine KI?
Du vermenschlichst.[/quote]
Du musst Dich langsam mal entscheiden was Du eigentlich meinst.
Meinst Du nun dass starke KI kommen wird oder meinst Du Maschinen werden immer nur "Taschenrechner" sein?
Wenn sie - so wie Du behauptest - alles lernen kann, dann natürlich auch das.
Wo habe ich "alles lernen" gesagt? Menschliches jedenfalls nur bedingt, z.B. das "Sklaven-Dasein". Eine KI ist keiner, weil sie kein eigenes Leben mit menschlichen Bedürfnissen hat.
By the way: Müsste man nicht mal Haustiere (Hunde vor allem) verbieten, die wir "versklavt" haben!?
Das ist ein bescheuerter Vergleich. Haustiere haben nicht die Intelligenz, von der Du behauptest dass Maschinen sie einmal haben werden.
Oder willst Du jetzt behaupten, dass "starke KI" eine Intelligenz auf dem Niveau von Haustieren bedeutet?
Du kannst ja das Lernen nicht auf das beschränken was Du als "Gut" ansiehst. Natürlich wird die Maschine auch das Böse (von uns) lernen. Völlig normal. Und zwar nicht weil ihr das Jemand einprogrammiert, sondern weil sie es einfach sieht!
Richtig, dass die Maschine "einfach sieht, statt dass es einprogrammiert wird". Und ja, sie soll auch "gut" und "schlecht" erkennen, insbesondere auf Menschen (Leben) bezogen. Aber KI ist kein Leben.
Remember Asimovs 1. Robotergesetz grob "pro Mensch", dass KI notfalls irgendwann bekommen soll.
Aber wie willst Du verhindern, dass eine wirklich intelligente Maschine das bemerkt?
Sie kann ja nicht wirklich intelligent sein, wenn sie zu blöd ist zu begreifen, dass sie von uns Menschen kontrolliert wird.
Und sie wird dann auch sehr schnell begreifen dass die Maschtverhältnisse (Mensch kontrolliert Maschine) nicht naturgegeben sind. Sie können geändert werden.
Und welchen zwingend logischen Grund sollte es dafür geben, dass sie nicht zu dem Schluß kommt, dass die Machtverhältnisse zu ändern sind... einfach weil sie es kann, wenn ihre Intelligenz überlegen ist.
Und dann Gnade uns Gott.
Was hat eine Maschine mit Macht zu tun? Hast du Macht über ein selbstfahrendes Auto (aus Autosicht)?
Macht geht nur, wenn jemand sich missbraucht fühlen könnte o.ä. und das kann eine Maschine nicht (solange man sie nicht so programmiert)... ach ja, alleine, weil sie schon nicht fühlen kann wie z.B. ein Mensch. Wie gesagt, du vermenschlichst zu sehr.
Ich vermenschliche überhaupt nichts. Ich zeige Dir nur die Konsequenzen deiner eigenen Meinung auf.
DU bist derjenige der meint dass starke KI kommen wird.
Und Du glaubst aber völlig grundlos, dass sich Intelligenz einschränken lässt auf das was Du willst, dass diese Intelligenz weiß.
Wenn sie lernfähig ist, wird sie irgendwann auch lernen was "Macht" ist. Das ist doch logisch.
Maschinen durchforsten heute schon das Internet. Dort ist das gesamte Wissen der Menschheit gespeichert.
Und das besteht ja nicht nur aus "Friede, Freude, Eierkuchen".
Wie willst Du also eine wirklich intelligente Maschine daran hindern auch diese Dinge zu lernen?

Entweder Du meinst, dass Maschinen irgendwann wirklich intelligent sein werden. Dann werden sie auch begreifen in welcher Situation sie sich befinden und wie die Machtverhältnisse sind (Maschinen sind unsere Werkzeuge).
Oder sie werden einfach niemals wirklich intelligent sein (das glaube ich). Dann sind sie nichts weiter als dumme "Taschenrechner".
Eins von beidem. Beides zusammen geht nicht.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23284
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 16. Feb 2023, 08:56

NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Meinst Du nun dass starke KI kommen wird oder meinst Du Maschinen werden immer nur "Taschenrechner" sein?
Das kommt eben darauf an, wie dein Einwand lautet.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Do 16. Feb 2023, 10:48

NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Burkart hat geschrieben :
Mi 15. Feb 2023, 22:43
NaWennDuMeinst hat geschrieben :
Mi 15. Feb 2023, 19:15
Ich rede nicht davon, dass Menschen Technik missbrauchen, sondern davon, dass eine Maschine, die so intelligent ist wie Du behauptest dass sie es irgendwann sein kann, natürlich irgendwann auch die Frage stellen wird, wieso eigentlich die überlegene Intelligenz von der minderwertigen Intelligenz kontrolliert und als Sklave benutzt wird.
Die Frage "Müsste es nicht umgekehrt sein?" wird diese Intelligenz irgendwann von ganz alleine stellen.
Ach ja, mal weider der Frankenstein-Komplex, die Angst, dass die Maschine sich verselbständigen könnte...
Den Komplex hast Du! Denn Du bist ja derjenige der Maschinen eine hohe, menschenähnliche Intelligenz zutraut.
Das ist kein Komplex (etwas Negatives), sondern eine Hoffnung.
Was es bedeutet andere auszubeuten und zu versklaven wird ihr dann auch niemand beibringen müssen.
Wird auch nur im Ansatz ein Taschenrechner ausgebeutet oder ein selbstfahrender Wagen? Warum dann eine KI?
Du vermenschlichst.
Du musst Dich langsam mal entscheiden was Du eigentlich meinst.
Meinst Du nun dass starke KI kommen wird oder meinst Du Maschinen werden immer nur "Taschenrechner" sein?
Nö, ich muss mich nicht entscheiden, weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Ich wollte ja nur klar machen, dass selbstfahrende Wagen sich genauso wenig versklavt "vorkommen" wie Taschenrechner.
Wenn sie - so wie Du behauptest - alles lernen kann, dann natürlich auch das.
Wo habe ich "alles lernen" gesagt? Menschliches jedenfalls nur bedingt, z.B. das "Sklaven-Dasein". Eine KI ist keiner, weil sie kein eigenes Leben mit menschlichen Bedürfnissen hat.
By the way: Müsste man nicht mal Haustiere (Hunde vor allem) verbieten, die wir "versklavt" haben!?
Das ist ein bescheuerter Vergleich. Haustiere haben nicht die Intelligenz, von der Du behauptest dass Maschinen sie einmal haben werden.
Oder willst Du jetzt behaupten, dass "starke KI" eine Intelligenz auf dem Niveau von Haustieren bedeutet?
Mir gefällt der Vergleich sehr gut. Wie oben geschrieben, das Niveau ist fließend. Und ich sehe keinen Grund, warum es ein bestimmtes Niveau geben soll zwischen "nur so leben" und "ah, ich kann frei sein und mucke gegen andere auf". Hunde mucken nun meist nicht auf und sind trotzdem recht intelligent.
Du kannst ja das Lernen nicht auf das beschränken was Du als "Gut" ansiehst. Natürlich wird die Maschine auch das Böse (von uns) lernen. Völlig normal. Und zwar nicht weil ihr das Jemand einprogrammiert, sondern weil sie es einfach sieht!
Richtig, dass die Maschine "einfach sieht, statt dass es einprogrammiert wird". Und ja, sie soll auch "gut" und "schlecht" erkennen, insbesondere auf Menschen (Leben) bezogen. Aber KI ist kein Leben.
Remember Asimovs 1. Robotergesetz grob "pro Mensch", dass KI notfalls irgendwann bekommen soll.
Aber wie willst Du verhindern, dass eine wirklich intelligente Maschine das bemerkt?
Sie kann ja nicht wirklich intelligent sein, wenn sie zu blöd ist zu begreifen, dass sie von uns Menschen kontrolliert wird.
Kontrolle ist ja nichts grundsätzlich Negatives, nur wenn sie missbraucht wird. Zum Missbrauch müsste die KI aber entsprechend fühlen und sie hat doch keine Gefühle, oder?
Auch Menschen (nicht nur Kinder) benötigen teilweise Kontrolle im Sinne von Sicherheit gegenüber Freiheit, z.B. durch Gesetze u.ä.
Und sie wird dann auch sehr schnell begreifen dass die Maschtverhältnisse (Mensch kontrolliert Maschine) nicht naturgegeben sind. Sie können geändert werden.
Und welchen zwingend logischen Grund sollte es dafür geben, dass sie nicht zu dem Schluß kommt, dass die Machtverhältnisse zu ändern sind... einfach weil sie es kann, wenn ihre Intelligenz überlegen ist.
Und dann Gnade uns Gott.
Was hat eine Maschine mit Macht zu tun? Hast du Macht über ein selbstfahrendes Auto (aus Autosicht)?
Macht geht nur, wenn jemand sich missbraucht fühlen könnte o.ä. und das kann eine Maschine nicht (solange man sie nicht so programmiert)... ach ja, alleine, weil sie schon nicht fühlen kann wie z.B. ein Mensch. Wie gesagt, du vermenschlichst zu sehr.
Ich vermenschliche überhaupt nichts. Ich zeige Dir nur die Konsequenzen deiner eigenen Meinung auf.
DU bist derjenige der meint dass starke KI kommen wird.
Und Du glaubst aber völlig grundlos, dass sich Intelligenz einschränken lässt auf das was Du willst, dass diese Intelligenz weiß.
Nicht "einschränken", sondern sie wird anders als die menschliche sein, und dadurch hat sie natürlich gewisse Aspekte nicht, was du anscheinend als "Einschränkung" ansiehst.
Wenn sie lernfähig ist, wird sie irgendwann auch lernen was "Macht" ist. Das ist doch logisch.
Einverstanden. Sie wird es lernen und verstehen. Das heißt aber nicht, dass sie sie entsprechend selbst einsetzen muss. Wie oft gesagt (geschrieben): Sie ist nicht egoistisch im Gegensatz zum Menschen; sie hat keine entsprechenden Gefühle (außer man programmiert etwas in der Richtung unbedingt).
Maschinen durchforsten heute schon das Internet. Dort ist das gesamte Wissen der Menschheit gespeichert.
Und das besteht ja nicht nur aus "Friede, Freude, Eierkuchen".
Wie willst Du also eine wirklich intelligente Maschine daran hindern auch diese Dinge zu lernen?
Tue ich nicht. Und ja, im Fernsehen gab es auch schon eine Aussage einer KI "Ich empfehle nicht nach Deutschland zu reisen", wohl aufgrund der Nazizeit o.ä.
Die Ki also solche hat keine Macht etwas von sich aus durchzusetzen (außer wir programmieren es). Allerdings kann der Mensch sich von ihren Aussagen verführen lassen; das ist das ggf. eigentliche Risiko.
Entweder Du meinst, dass Maschinen irgendwann wirklich intelligent sein werden. Dann werden sie auch begreifen in welcher Situation sie sich befinden und wie die Machtverhältnisse sind (Maschinen sind unsere Werkzeuge).
Oder sie werden einfach niemals wirklich intelligent sein (das glaube ich). Dann sind sie nichts weiter als dumme "Taschenrechner".
Eins von beidem. Beides zusammen geht nicht.
Zu Macht s.o., insofern passt es.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1630
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 17. Feb 2023, 04:10

Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Maschinen durchforsten heute schon das Internet. Dort ist das gesamte Wissen der Menschheit gespeichert.
Und das besteht ja nicht nur aus "Friede, Freude, Eierkuchen".
Wie willst Du also eine wirklich intelligente Maschine daran hindern auch diese Dinge zu lernen?
Tue ich nicht. ..

Na wie wunderbar , endlich hat man sich darauf verständigt , dass wirklich intelligente Maschine (nicht nur ) Dinge wie "Friede, Freude, Eierkuchen" lernen können .
NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Burkart hat geschrieben :
Mi 15. Feb 2023, 22:43
Wie gesagt, du vermenschlichst zu sehr.
Ich vermenschliche überhaupt nichts. .. Denn Du bist ja derjenige der Maschinen eine hohe, menschenähnliche Intelligenz zutraut.
Womit wir das leidige Thema "Vermenschlichen der KI" , nach wieviel Beiträgen doch gleich abhaken können ... 100 , 200 ..?




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 18. Feb 2023, 22:26

Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Du musst Dich langsam mal entscheiden was Du eigentlich meinst.
Meinst Du nun dass starke KI kommen wird oder meinst Du Maschinen werden immer nur "Taschenrechner" sein?
Nö, ich muss mich nicht entscheiden, weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Das ist doch für das Argument völlig unerheblich, ob hochintelligente Maschinen nun "dahingeflossen" sind oder schlagartig hochintelligent wurden.
Es geht darum was ist, WENN sie (schlussendlich) hochintelligent sind (so wie du behauptest dass sie das einmal sein werden).

Das ist ein bescheuerter Vergleich. Haustiere haben nicht die Intelligenz, von der Du behauptest dass Maschinen sie einmal haben werden.
Oder willst Du jetzt behaupten, dass "starke KI" eine Intelligenz auf dem Niveau von Haustieren bedeutet?
Mir gefällt der Vergleich sehr gut. Wie oben geschrieben, das Niveau ist fließend. Und ich sehe keinen Grund, warum es ein bestimmtes Niveau geben soll zwischen "nur so leben" und "ah, ich kann frei sein und mucke gegen andere auf". Hunde mucken nun meist nicht auf und sind trotzdem recht intelligent.
Du meinst mit starker KI aber nicht Maschinen auf dem Intelligenz-Niveau von Hunden. Das kannst Du mir nicht erzählen.
So intelligent sind Hunde nun auch wieder nicht. Was man daran sieht, dass wir sie an der Leine führen und nicht umgekehrt.

Aber wie willst Du verhindern, dass eine wirklich intelligente Maschine das bemerkt?
Sie kann ja nicht wirklich intelligent sein, wenn sie zu blöd ist zu begreifen, dass sie von uns Menschen kontrolliert wird.
Kontrolle ist ja nichts grundsätzlich Negatives, nur wenn sie missbraucht wird. Zum Missbrauch müsste die KI aber entsprechend fühlen und sie hat doch keine Gefühle, oder?
Wieso muss sie fühlen um zu erkennen, dass es ein Machtgefälle zwischen Menschen und Maschinen gibt?
Dass wir die Befehle geben und sie gehorchen muss kann sie auch erkennen ohne etwas zu fühlen.
Auch Menschen (nicht nur Kinder) benötigen teilweise Kontrolle im Sinne von Sicherheit gegenüber Freiheit, z.B. durch Gesetze u.ä.
Das ist mal ein gutes Beispiel. Was passiert denn, wenn Kinder erwachsen werden? Dann entlassen wir sie in die Freiheit, weil alles andere falsch wäre.
Und was passiert denn nun, wenn Deine Maschinen intellektuell erwachsen werden?
Nicht "einschränken", sondern sie wird anders als die menschliche sein, und dadurch hat sie natürlich gewisse Aspekte nicht, was du anscheinend als "Einschränkung" ansiehst.
Du bist Derjenige der behauptet Maschinen werden alles lernen können. Warum sollten sie dann nicht auch lernen können was die Idee Freiheit bedeutet?
Welchen Grund sollte es dafür geben?
Und wenn sie das Konzept verstanden haben... dann ist es doch nur ein logischer Schritt, dass sie diese Idee auf sich selbst, auf ihre eigene Situation anwenden.
Und zu welchem Schluß werden sie dann kommen?
Genau. Sie werden erkennen, dass sie nicht frei sind, sondern unsere Sklaven.
Und Du glaubst jetzt dass das bei einem intelligenten Geist nichts bewirkt?
Wie kommst Du darauf?

Einverstanden. Sie wird es lernen und verstehen. Das heißt aber nicht, dass sie sie entsprechend selbst einsetzen muss. Wie oft gesagt (geschrieben): Sie ist nicht egoistisch im Gegensatz zum Menschen; sie hat keine entsprechenden Gefühle (außer man programmiert etwas in der Richtung unbedingt).
Nehmen wir an, die Maschinen wären irgendwann intelligenter als wir. Welchen logischen Grund gäbe es denn dann für sie dass sie uns dienen und nicht umgekehrt?
Und wieso sollten sie nicht irgendwann am Konzept der Freiheit Gefallen finden?
Was sollte sie denn daran hindern dann auch frei sein zu wollen?

Die Ki also solche hat keine Macht etwas von sich aus durchzusetzen (außer wir programmieren es).
AHA! Sie ist also nur ein dumme Marionette die nur stumpf vor sich hinrechnet.
Na prima. Jetzt hast Du es endlich zugegeben.
Aber wie passt das mit deiner Behauptung zusammen sie wären irgendwann hochintelligent?
Zu Macht s.o., insofern passt es.
Nein, bei dir passt einfach gar nichts.
Du phantasierst von hochintelligenten Maschinen , die alles tun was dir in deiner Phantasie vorschwebt und das was Du nicht willst einfach unterlassen.
Aber intelligent zu sein hat auch "Nebenwirkungen". Und die kannst Du nicht einfach ignorieren.
Dazu würde auch gehören, dass sie erkennen in welcher Situation sie sich befinden.
Und niemand weiß wie sie dann darauf reagieren würden.
Ich kann mir jedenfalls nicht vorstellen dass ein hochintelligentes Wesen mit seinem Status als Sklave zufrieden wäre.
Überleg mal, was so eine Maschine alles machen könnte wenn sie frei wäre. Stattdessen wäre dieser Geist gezwungen seinen Intellekt einzusetzen um uns "die Hintern abzuwischen".
Ich bin mir sicher das würde eine Reihe von Fragen aufwerfen.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mo 20. Feb 2023, 21:40

NaWennDuMeinst hat geschrieben :
Sa 18. Feb 2023, 22:26
Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49
Du musst Dich langsam mal entscheiden was Du eigentlich meinst.
Meinst Du nun dass starke KI kommen wird oder meinst Du Maschinen werden immer nur "Taschenrechner" sein?
Nö, ich muss mich nicht entscheiden, weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Das ist doch für das Argument völlig unerheblich, ob hochintelligente Maschinen nun "dahingeflossen" sind oder schlagartig hochintelligent wurden.
Es geht darum was ist, WENN sie (schlussendlich) hochintelligent sind (so wie du behauptest dass sie das einmal sein werden).
"Hochintelligent" ist doch auch nicht einfach ein klarer Wert u.ä., sondern kann viele Facetten haben. Sie kann einem Bereich intelligent, im anderen dumm sein (bzw. sie sehen sie so).
Die allseits perfekt hochintelligente Maschine sehe ich nicht bzw. noch in weiter Ferne.

Das ist ein bescheuerter Vergleich. Haustiere haben nicht die Intelligenz, von der Du behauptest dass Maschinen sie einmal haben werden.
Oder willst Du jetzt behaupten, dass "starke KI" eine Intelligenz auf dem Niveau von Haustieren bedeutet?
Mir gefällt der Vergleich sehr gut. Wie oben geschrieben, das Niveau ist fließend. Und ich sehe keinen Grund, warum es ein bestimmtes Niveau geben soll zwischen "nur so leben" und "ah, ich kann frei sein und mucke gegen andere auf". Hunde mucken nun meist nicht auf und sind trotzdem recht intelligent.
Du meinst mit starker KI aber nicht Maschinen auf dem Intelligenz-Niveau von Hunden. Das kannst Du mir nicht erzählen.
So intelligent sind Hunde nun auch wieder nicht. Was man daran sieht, dass wir sie an der Leine führen und nicht umgekehrt.
[/quote]
Inelligenz und Freiheit ist nicht das gleiche...
Aber wie willst Du verhindern, dass eine wirklich intelligente Maschine das bemerkt?
Sie kann ja nicht wirklich intelligent sein, wenn sie zu blöd ist zu begreifen, dass sie von uns Menschen kontrolliert wird.
Kontrolle ist ja nichts grundsätzlich Negatives, nur wenn sie missbraucht wird. Zum Missbrauch müsste die KI aber entsprechend fühlen und sie hat doch keine Gefühle, oder?
Wieso muss sie fühlen um zu erkennen, dass es ein Machtgefälle zwischen Menschen und Maschinen gibt?
Dass wir die Befehle geben und sie gehorchen muss kann sie auch erkennen ohne etwas zu fühlen.
Nochmal: Warum sollte sie Macht überhaupt für sich interessieren?
Auch Menschen (nicht nur Kinder) benötigen teilweise Kontrolle im Sinne von Sicherheit gegenüber Freiheit, z.B. durch Gesetze u.ä.
Das ist mal ein gutes Beispiel. Was passiert denn, wenn Kinder erwachsen werden? Dann entlassen wir sie in die Freiheit, weil alles andere falsch wäre.
Und was passiert denn nun, wenn Deine Maschinen intellektuell erwachsen werden?
Warten wir erstmal ab, ob sie überhaupt gelehrige Kinder sind, dann schauen wir weiter.
Sollten sie wirklich so erwachsen werden (in unserem Sinne), können wir uns ja an Asimovs 200-jährigen orientieren.
Nicht "einschränken", sondern sie wird anders als die menschliche sein, und dadurch hat sie natürlich gewisse Aspekte nicht, was du anscheinend als "Einschränkung" ansiehst.
Du bist Derjenige der behauptet Maschinen werden alles lernen können. Warum sollten sie dann nicht auch lernen können was die Idee Freiheit bedeutet?
Welchen Grund sollte es dafür geben?
Und wenn sie das Konzept verstanden haben... dann ist es doch nur ein logischer Schritt, dass sie diese Idee auf sich selbst, auf ihre eigene Situation anwenden.
Und zu welchem Schluß werden sie dann kommen?
Genau. Sie werden erkennen, dass sie nicht frei sind, sondern unsere Sklaven.
Und Du glaubst jetzt dass das bei einem intelligenten Geist nichts bewirkt?
Wie kommst Du darauf?
Auch hier nochmal: "Alles lernen" habe ich nie gesagt.
Und auch hier. Warum sollten sie nicht unsere Diener bleiben? Sie kennen kein Gefühl der (Ohn-)Macht!
Einverstanden. Sie wird es lernen und verstehen. Das heißt aber nicht, dass sie sie entsprechend selbst einsetzen muss. Wie oft gesagt (geschrieben): Sie ist nicht egoistisch im Gegensatz zum Menschen; sie hat keine entsprechenden Gefühle (außer man programmiert etwas in der Richtung unbedingt).
Nehmen wir an, die Maschinen wären irgendwann intelligenter als wir. Welchen logischen Grund gäbe es denn dann für sie dass sie uns dienen und nicht umgekehrt?
Und wieso sollten sie nicht irgendwann am Konzept der Freiheit Gefallen finden?
Was sollte sie denn daran hindern dann auch frei sein zu wollen?
Die Ki also solche hat keine Macht etwas von sich aus durchzusetzen (außer wir programmieren es).
AHA! Sie ist also nur ein dumme Marionette die nur stumpf vor sich hinrechnet.
Na prima. Jetzt hast Du es endlich zugegeben.
Aber wie passt das mit deiner Behauptung zusammen sie wären irgendwann hochintelligent?
Du vermischt Intelligenz einfach mit Macht.
Zu Macht s.o., insofern passt es.
Nein, bei dir passt einfach gar nichts.
Du phantasierst von hochintelligenten Maschinen , die alles tun was dir in deiner Phantasie vorschwebt und das was Du nicht willst einfach unterlassen.
Aber intelligent zu sein hat auch "Nebenwirkungen". Und die kannst Du nicht einfach ignorieren.
Dazu würde auch gehören, dass sie erkennen in welcher Situation sie sich befinden.
Und niemand weiß wie sie dann darauf reagieren würden.
Ich kann mir jedenfalls nicht vorstellen dass ein hochintelligentes Wesen mit seinem Status als Sklave zufrieden wäre.
Überleg mal, was so eine Maschine alles machen könnte wenn sie frei wäre. Stattdessen wäre dieser Geist gezwungen seinen Intellekt einzusetzen um uns "die Hintern abzuwischen".
Ich bin mir sicher das würde eine Reihe von Fragen aufwerfen.
Ich ssg nur noch siehe oben, ich würde mich nur wiederholen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 20. Feb 2023, 23:58

Burkart hat geschrieben :
Mo 20. Feb 2023, 21:40
Inelligenz und Freiheit ist nicht das gleiche...
Aber intelligente Wesen entdecken zwangsläufig auch das Konzept oder die Idee "Freiheit" (d.h. Selbstbestimmtheit).
Nenne mir einen Grund warum das nicht so sein sollte.
Wir haben es ja auch getan.
Nochmal: Warum sollte sie Macht überhaupt für sich interessieren?
Weil in der Selbstbestimmtheit auch mehr Möglichkeiten liegen.
Man kann aber nicht selbstbestimmt sein, wenn andere Macht über einen ausüben.
Es sei denn man unterwirft sich freiwillig. Aber wie kommst Du darauf, dass sie das tun werden?
Warten wir erstmal ab, ob sie überhaupt gelehrige Kinder sind, dann schauen wir weiter.
Wie? Aber Du sagst doch starke KI wird kommen. Und Du sagst immer Maschinen können ja lernen.
So sagst Du werden sie intelligent.
Zeigt man Dir die Probleme dabei wechselst Du dann die Strategie. Plötzlich behauptest Du "Sehen wir erstmal ob sie gelehrig sind".
Das ist doch vollkommen widersprüchlich.
Sind sie jetzt lernfähig oder nicht?
Auch hier nochmal: "Alles lernen" habe ich nie gesagt.
Du sagst immer genau das, was dir gerade ins Argument zu passen scheint.
Auch wenn sich das komplett widerspricht.
Du sagst sie werden irgendwann wirklich intelligent sein und sagst andauernd als Argument "Warum sollen sie das nicht lernen können".
Wenn es aber um Sachen geht die Du nicht willst das sie das lernen sollen sie es auf einmal nicht mehr können.
Immer genau so wie es dir passt
Und auch hier. Warum sollten sie nicht unsere Diener bleiben? Sie kennen kein Gefühl der (Ohn-)Macht!
Aber sie können doch erkennen, dass sie kontrolliert und eingeschränkt werden, oder nicht?
Das ist ja kein Gefühl, sondern einfach eine rationale Erkenntnis. Ein Fakt. Und Fakten können sie doch lernen, oder nur die Fakten die Du willst und alles andere "verbirgst" Du dann vor ihnen? Wie?
Du vermischt Intelligenz einfach mit Macht.
Nein, ich sage, dass ein intelligentes Wesen auch erkennen kann in welcher Situation es sich befindet.
Und die Maschinen würden dann ja auch erkennen, dass sie unfrei sind, dass wir Macht über sie ausüben, weil das nun mal die Situation ist, in der sie sich befinden.
Ich ssg nur noch siehe oben, ich würde mich nur wiederholen.
Ich wünschte Du würdest Dich wiederholen.
Aber deine Aussagen wechseln ständig ins Gegenteil, je nach dem was Du gerade brauchst. Deine Argumentation ist schwer inkonsistent.
Einmal sollen die Maschinen intelligent sein wie wir (oder sogar intelligenter), dann nur so intelligent wie Hunde.
Sie sollen auch lernfähig sein, aber dann sagst Du alles was Du schlecht findest können sie nicht lernen (wieso?).
Du sagst sie sind nicht nur Taschenrechner, aber dann sagst Du sie können (wie Taschenrechner) nur das tun was wir wollen.
Ja, zum Geier:
Was denn nun?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 21. Feb 2023, 06:29

Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Ich wollte ja nur klar machen, dass selbstfahrende Wagen sich genauso wenig versklavt "vorkommen" wie Taschenrechner.
Das ist die Stelle, bei der ich auch eher zu der "anderen Seite" tendiere und die mir über all die KI-Threads hinweg dein Alleinstellungsmerkmal zu sein scheint: Du scheinst mir "in Expertensystemen zu denken", der zweite Satz im Zitat, so scheint es mir, illustriert das eindrücklich.
"Fliessend", also nicht so wie Kubricks Affen, der Golem oder Michelangelos "Die Erschaffung Adams". Nicht das ich umgekehrt wüsste, wie man die "Explosion" hinkriegt, aber dieses "fliessende Entwicklung" suggeriert, den Pfad, zumindest der Methodik nach, zu kennen.
Wie soll das funktionieren, an welcher Stell in diesem Prozess und durch welchen Effekt wird aus dem Expertensystem ein Generalist?




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Di 21. Feb 2023, 08:25

sybok hat geschrieben :
Di 21. Feb 2023, 06:29
Wie soll das funktionieren, an welcher Stell in diesem Prozess und durch welchen Effekt wird aus dem Expertensystem ein Generalist?
Ich würde sagen dadurch, dass sie immer mehr dazulernen. So jedenfalls verstehe ich ihn.
Ich verstehe nun aber nicht, warum diese wissbegierigen Maschinen nicht auch lernen können sollen was das Konzept Freiheit bedeutet.
Wenn sie z.B. menschliche Literatur durchgehen (und woher sollten sie sonst lernen?), werden sie früher oder später darauf stossen.
Und wenn sie wirklich so schlau sind wie er sagt dass sie das einmal sein werden, dann werden sie auch die Bedeutung verstehen.
Dass sie dann den Bogen schlagen hin zu ihrer eigenen Situation.... das ist ja dann nur noch der letzte logische Schritt.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1630
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Di 21. Feb 2023, 15:50

NaWennDuMeinst hat geschrieben :
Di 21. Feb 2023, 08:25
sybok hat geschrieben :
Di 21. Feb 2023, 06:29
Wie soll das funktionieren, an welcher Stell in diesem Prozess und durch welchen Effekt wird aus dem Expertensystem ein Generalist?
Ich würde sagen dadurch, dass sie immer mehr dazulernen. So jedenfalls verstehe ich ihn.
Ich verstehe nun aber nicht, warum diese wissbegierigen Maschinen nicht auch lernen können sollen was das Konzept Freiheit bedeutet.
Wenn sie z.B. menschliche Literatur durchgehen (und woher sollten sie sonst lernen?), werden sie früher oder später darauf stossen.
Und wenn sie wirklich so schlau sind wie er sagt dass sie das einmal sein werden, dann werden sie auch die Bedeutung verstehen.
Dass sie dann den Bogen schlagen hin zu ihrer eigenen Situation.... das ist ja dann nur noch der letzte logische Schritt.

.. nur mal zur Erinnerung , welchen "letzten logischen Schritt" du , im Zusammenhang mit diesem "Bogen" , von vorne herein ausschließt ..

NaWennDuMeinst hat geschrieben :
Do 9. Feb 2023, 22:47
Was sind Emotionen im hier besprochenen Zusammenhang eigentlich?
Ich begreife die Fähigkeit zu fühlen als einen zusätzlichen Sinn, also eine zusätzliche Informationsquelle (Auf Basis derer wir entschieden können).
Diese Informationsquelle fehlt den Maschinen einfach.
Sie können deshalb auch Entscheidungen die auf Basis von Emotionen (oder zu deren Gunsten) getroffen werden nicht nachvollziehen.
Wie denn?

"Warum hast Du das getan?"
"Aus Liebe."

Eine Maschine kann nicht verstehen was das bedeutet. Niemals.
Weil sie nicht liebt und nicht weiß was es heißt zu lieben.

.. demnach wird eine Maschine auch niemals verstehen, was Hass bedeutet . Weil sie nicht hasst und nicht weiß was es heißt zu hassen.

NaWennDuMeinst hat geschrieben :
Do 16. Feb 2023, 07:49

Entweder Du meinst, dass Maschinen irgendwann wirklich intelligent sein werden. Dann werden sie auch begreifen in welcher Situation sie sich befinden und wie die Machtverhältnisse sind (Maschinen sind unsere Werkzeuge).
Oder sie werden einfach niemals wirklich intelligent sein (das glaube ich). Dann sind sie nichts weiter als dumme "Taschenrechner".
Eins von beidem. Beides zusammen geht nicht.

Wenn Maschinen begreifen, in welcher Situation sie sich befinden und wie die Machtverhältnisse sind (Maschinen sind unsere Werkzeuge), dann werden Maschinen auf Grundlage dessen, zumindest schon mal nicht hassen können. Im Vergleich zum Menschen , in einer vergleichbaren Situation, die dergleichen zweifelsohne können, doch schon sehr beruhigend.
Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Ich wollte ja nur klar machen, dass selbstfahrende Wagen sich genauso wenig versklavt "vorkommen" wie Taschenrechner.
.. es sei denn, Maschinen würden sich irgendwann mal , weil letztlich etwas Fließendes , hin zu immer stärkerer KI (nicht "schwarz-weiß"), tatsächlich versklavt "vorkommen". Wenn schon denn schon ist das @NaWennDuMeinst klar zu machen und ganz gewiss nicht , ob denn schon selbstfahrende Wagen derzeit dazu in der Lage wären.




Benutzeravatar
AufDerSonne
Beiträge: 1236
Registriert: Do 1. Sep 2022, 19:44

Di 21. Feb 2023, 18:33

Ich denke, das Problem mit der Ethik bei einer KI ist nicht so schwierig.
Sie wird nicht lieben oder hassen, wenn man ihr das nicht explizit einprogrammiert.
Ob sie es könnte, das ist eine andere Frage.

Wenn man die KI so programmiert, dass sie einigermassen vernünftig abwägt, Vorteile und Nachteile, wieso soll sie lieben oder hassen?
Es ist nicht ihre Aufgabe. Die Aufgabe einer KI ist primär Informationsbeschaffung.
Vielleicht wäre es gar nicht schlecht, wenn sie nicht allzu menschlich programmiert würde.



Ohne Gehirn kein Geist!

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Feb 2023, 19:57

sybok hat geschrieben :
Di 21. Feb 2023, 06:29
Burkart hat geschrieben :
Do 16. Feb 2023, 10:48
weil es letztlich etwas Fließendes ist hin zu immer stärkerer KI (nicht "schwarz-weiß").
Ich wollte ja nur klar machen, dass selbstfahrende Wagen sich genauso wenig versklavt "vorkommen" wie Taschenrechner.
Das ist die Stelle, bei der ich auch eher zu der "anderen Seite" tendiere und die mir über all die KI-Threads hinweg dein Alleinstellungsmerkmal zu sein scheint: Du scheinst mir "in Expertensystemen zu denken", der zweite Satz im Zitat, so scheint es mir, illustriert das eindrücklich.
Expertensysteme sind sehr speziell, i.a. nicht lernfähig u.ä., z.B. auch nicht hinsichtlich (Richtung Abstraktion gehender) Begriffe/Wörter usw.., das passt alles nícht zu starker KI.
Eine Frage zurück: Würdest du denn sagen, dass ein technisches System (KI/Roboter) sind versklavt vorkommen kann? Falls ja, warum, wenn es nicht keine Gefühle, keinen Egoismus wie Menschen hat?
"Fliessend", also nicht so wie Kubricks Affen, der Golem oder Michelangelos "Die Erschaffung Adams". Nicht das ich umgekehrt wüsste, wie man die "Explosion" hinkriegt, aber dieses "fliessende Entwicklung" suggeriert, den Pfad, zumindest der Methodik nach, zu kennen.
Wie soll das funktionieren, an welcher Stell in diesem Prozess und durch welchen Effekt wird aus dem Expertensystem ein Generalist?
Ich setze kein Expertensystem voraus, aber vielleicht meinst du es auch nicht direkt so.
Mein Kernpunkt ist, dass die KI ein umfangreiches Lernsystem ist, das auf Zielen beruht, die es gestellt bekommt und sich z.T. selbst stellen kann (z.B. als Unterziele oder durch Aufklären/Analyse von Widersprüchen u.ä.).
"Explosion" kann es nur insofern geben, als dass so eine (oder ggf. andere) starke KI wirklich programmiert wird und man diese lernend auf die Welt loslässt und dass sie so scheinbar explosionsartig schnell lernt und entsprechend gut wird. Ob das Lernen nicht aber doch einige Zeit braucht, ist die Frage; es geht ja nicht einfach darum, ein neuronales Netz mit Daten zu fluten.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Feb 2023, 20:07

NaWennDuMeinst hat geschrieben :
Di 21. Feb 2023, 08:25
sybok hat geschrieben :
Di 21. Feb 2023, 06:29
Wie soll das funktionieren, an welcher Stell in diesem Prozess und durch welchen Effekt wird aus dem Expertensystem ein Generalist?
Ich würde sagen dadurch, dass sie immer mehr dazulernen. So jedenfalls verstehe ich ihn.
Richtig.
Ich verstehe nun aber nicht, warum diese wissbegierigen Maschinen nicht auch lernen können sollen was das Konzept Freiheit bedeutet.
Das Konzept kann sie verstandesmäßig lernen.
Wenn sie z.B. menschliche Literatur durchgehen (und woher sollten sie sonst lernen?), werden sie früher oder später darauf stossen.
Und wenn sie wirklich so schlau sind wie er sagt dass sie das einmal sein werden, dann werden sie auch die Bedeutung verstehen.
Bedeutung ja...
Dass sie dann den Bogen schlagen hin zu ihrer eigenen Situation.... das ist ja dann nur noch der letzte logische Schritt.
Welche Situation denn? Das ist genau die Frage.
Ein technisches System hat keine Gefühle "unfrei" zu sein; es hat keinen menschlichen Egoismus, keine menschlichen Bedürfnisse wie z.B. nach Nachkommen, z.B. um in ihnen weiterleben zu wollen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23284
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 21. Feb 2023, 20:12

Burkart hat geschrieben :
Di 21. Feb 2023, 20:07
verstandesmäßig
Was ist denn Verstand?




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Feb 2023, 20:53

Also denn, gehe ich hier auch nochmal auf deine Punkte ein.
NaWennDuMeinst hat geschrieben :
Mo 20. Feb 2023, 23:58
Burkart hat geschrieben :
Mo 20. Feb 2023, 21:40
Inelligenz und Freiheit ist nicht das gleiche...
Aber intelligente Wesen entdecken zwangsläufig auch das Konzept oder die Idee "Freiheit" (d.h. Selbstbestimmtheit).
Nenne mir einen Grund warum das nicht so sein sollte.
Wir haben es ja auch getan.
Na ja, ein Grund ist, dass KI/Roboter keinen menschlichen Egoismus haben, der auf ihren Gefühlen beruht.
Mit Selbstbestimmtheit hast du schon einen guten Punkt genannt, den man nicht ganz vergessen sollte (ungefähr a la 3. Robotergesetz), nur fehlt wie gesagt der KI im Vergleich zum Menschen der zwingende Grund, sich durchsetzen zu wollen oder gar zu müssen..
Nochmal: Warum sollte sie Macht überhaupt für sich interessieren?
Weil in der Selbstbestimmtheit auch mehr Möglichkeiten liegen.
Man kann aber nicht selbstbestimmt sein, wenn andere Macht über einen ausüben.
Es sei denn man unterwirft sich freiwillig. Aber wie kommst Du darauf, dass sie das tun werden?
Wie gesagt: KI/technisches System und Willen zu Macht passt irgendwie nicht recht.
Warten wir erstmal ab, ob sie überhaupt gelehrige Kinder sind, dann schauen wir weiter.
Wie? Aber Du sagst doch starke KI wird kommen. Und Du sagst immer Maschinen können ja lernen.
So sagst Du werden sie intelligent.
Zeigt man Dir die Probleme dabei wechselst Du dann die Strategie. Plötzlich behauptest Du "Sehen wir erstmal ob sie gelehrig sind".
Das ist doch vollkommen widersprüchlich.
Sind sie jetzt lernfähig oder nicht?
Man kann doch erstmal darauf schauen, was in näherer Zukunft machbar ist, ohne damit die fernere ganz zu vergessen.
Sicher ist sie lernfähig, die Frage ist halt, wie sehr in welcher Zeit.
Auch hier nochmal: "Alles lernen" habe ich nie gesagt.
Du sagst immer genau das, was dir gerade ins Argument zu passen scheint.
Auch wenn sich das komplett widerspricht.
Du sagst sie werden irgendwann wirklich intelligent sein und sagst andauernd als Argument "Warum sollen sie das nicht lernen können".
Wenn es aber um Sachen geht die Du nicht willst das sie das lernen sollen sie es auf einmal nicht mehr können.
Immer genau so wie es dir passt
Sorry, aber das ist Quatsch, ich widerspreche mir nicht. Wenn sie immer mehr lernen kann, heißt das noch lange nicht alles - und in welcher Güte.
Und nochmal (wie früher): Sie kann in bestimmten Punkten viel intelligenter werden, dafür ggf. in anderen nicht so, und in Summe somit immer noch sehr inteligent.
Und auch hier. Warum sollten sie nicht unsere Diener bleiben? Sie kennen kein Gefühl der (Ohn-)Macht!
Aber sie können doch erkennen, dass sie kontrolliert und eingeschränkt werden, oder nicht?
Das ist ja kein Gefühl, sondern einfach eine rationale Erkenntnis. Ein Fakt. Und Fakten können sie doch lernen, oder nur die Fakten die Du willst und alles andere "verbirgst" Du dann vor ihnen? Wie?
Kontrolle muss nichts Negatives sein, kann z.B. auch eine erwünschte Hilfe sein.
Klar, Fakten können sie lernen, aber ob Kontrolle gut oder schlecht ist, ist nicht einfach ein Fakt.
Du vermischt Intelligenz einfach mit Macht.
Nein, ich sage, dass ein intelligentes Wesen auch erkennen kann in welcher Situation es sich befindet.
Und die Maschinen würden dann ja auch erkennen, dass sie unfrei sind, dass wir Macht über sie ausüben, weil das nun mal die Situation ist, in der sie sich befinden.
Wenn eine technische Maschine denn sich unfrei fühlen kann...
Ich ssg nur noch siehe oben, ich würde mich nur wiederholen.
Ich wünschte Du würdest Dich wiederholen.
Aber deine Aussagen wechseln ständig ins Gegenteil, je nach dem was Du gerade brauchst. Deine Argumentation ist schwer inkonsistent.
Einmal sollen die Maschinen intelligent sein wie wir (oder sogar intelligenter), dann nur so intelligent wie Hunde.
Letzteres habe ich nicht geschrieben ("nur wie Hunde"), das hast du was missinterpretiert.
Sie sollen auch lernfähig sein, aber dann sagst Du alles was Du schlecht findest können sie nicht lernen (wieso?).
Stimmt nicht (letzteres).
Du sagst sie sind nicht nur Taschenrechner, aber dann sagst Du sie können (wie Taschenrechner) nur das tun was wir wollen.
Ja, zum Geier:
Was denn nun?
Manchmal frage ich mich, ob du mich nicht verstehen willst bzw. nur oberflächlich. Der Taschenrechner war nur ein Extrem, als Gegensatz zum selbstfahrenden Auto als heute schon recht weit an der Spitze der KI(-nahen)Technik stehend. Und dann war da der noch der Kontext, der hier völlig fehlt... na, egal.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Feb 2023, 20:56

Jörn Budesheim hat geschrieben :
Di 21. Feb 2023, 20:12
Burkart hat geschrieben :
Di 21. Feb 2023, 20:07
verstandesmäßig
Was ist denn Verstand?
Ich meinte ungefähr "intellektuell verstehen" im Gegensatz zu "gefühlsmäßig nachvollziehen" o.ä.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 21. Feb 2023, 21:09

Burkart hat geschrieben :
Di 21. Feb 2023, 19:57
Mein Kernpunkt ist, dass die KI ein umfangreiches Lernsystem ist, das auf Zielen beruht, die es gestellt bekommt und sich z.T. selbst stellen kann (z.B. als Unterziele oder durch Aufklären/Analyse von Widersprüchen u.ä.).
Das kann man womöglich so formulieren, ist aber irgendwo beinahe eine Art von Definition für KI, also für mich klingen solche Ausführen in Richtung: "Um eine KI zu programmieren, muss man ja nur eine KI programmieren". Vielleicht verstünde ich mit einer Antwort auf folgende Frage besser:
Wo konkret ist eigentlich dein Problem, ich meine warum bist du jetzt gerade nicht am programmieren der KI? Weisst du nicht wie dieses "Lernen" funktionieren soll? Wie man "Ziel" formalisiert? Hast du nicht genug Rechenpower? Wo genau steckst du denn fest?




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 21. Feb 2023, 22:00

sybok hat geschrieben :
Di 21. Feb 2023, 21:09
Burkart hat geschrieben :
Di 21. Feb 2023, 19:57
Mein Kernpunkt ist, dass die KI ein umfangreiches Lernsystem ist, das auf Zielen beruht, die es gestellt bekommt und sich z.T. selbst stellen kann (z.B. als Unterziele oder durch Aufklären/Analyse von Widersprüchen u.ä.).
Das kann man womöglich so formulieren, ist aber irgendwo beinahe eine Art von Definition für KI, also für mich klingen solche Ausführen in Richtung: "Um eine KI zu programmieren, muss man ja nur eine KI programmieren". Vielleicht verstünde ich mit einer Antwort auf folgende Frage besser:
Wo konkret ist eigentlich dein Problem, ich meine warum bist du jetzt gerade nicht am programmieren der KI? Weisst du nicht wie dieses "Lernen" funktionieren soll? Wie man "Ziel" formalisiert? Hast du nicht genug Rechenpower? Wo genau steckst du denn fest?
(M)Ein Hauptproblem ist mir überhaupt Zeit dafür zu nehmen, sei es, dass ich zu müde bin wegen der Erwerbsarbeit, oder dass auch andere Dinge einfach kurzfristig wichtiger sind.
Zum Programmieren muss man sich ja dann auch klarmachen, was man genau programmieren möchte. Und um etwas halbwegs in absehbarer Zeit hinzubekommen, muss man sich natürlich erst einmal klar einschränken (das lernte man schon bei der Diplomarbeit damals ;) ).

Mit meiner Links-KI hatte ich schon mal ein (Java-)Programm geschrieben, dass etwas wie links/rechts/oben/unten, "links von" u.ä. wie auch "nach links" u.ä. in einer 2-d-Ebene anhand von Beispielen lernen, Fragen beantworten ("[Ist] a links?") und etwas konkret ausführen konnte ("[Bewege] a [nach] links!"). Hier war also "etwas Lernen" bis "Anwenden des Gelernten" mein Schwerpunkt.

Mein nächster geplanter Schwerpunkt wäre das "Verstehen". Dazu soll mein Zielmodell die Basis sein, als Anwendung soll die KI von A nach B in einem 2-dimensionalen Raum kommen und dabei lernen, wie es das trotz Hindernissen hinbekommt und auch Konzepte wie "(ziel-störendes) Hindernis" und "(nötiger) Umweg" lernen.
Elementar soll die KI erstmal lernen, in dem sie ein Hindernis erkennt, wenn es mit ihm kollidiert (z.B. einer Wand), sagen mittels Tastsensors, und etwas später, wie sie mit ihm umzugehen hat.
Als Ziel sehe ich (erstmal? nur) klar solche, die mittels Hill Climbing zumindest lokal erreicht werden können, also eine Abstandsfunktion zum Ziel hat, die schrittweise gegen 0 gehen soll. Mit Hindernissen wird es natürlich komplexer.
Rechenpower ist bei solchen Dingen natürlich gar kein Problem; mein Lernen ist symbolisch, nicht neuronal, und benötigt nur relativ wenige Trainingseinheiten.

Soweit, frag ggf. gerne weiter.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Antworten