Künstliche Intelligenz
Wäre das der Fall, um das anzufügen, würde ich die Überlegenheit der KI anerkennen. Dann würde ich freiwillig ins Exil gesehen und den Schulz gegen die einbändige Ausgabe des Herrn Cioran tauschen.
Menschliche Erfindungen u.ä. zu prüfen kann sicher eine wichtige Aufgabe sein. Wichtiger wären mir aber irgendwann neue Vorschläge der KI oder ggf. gar selbst neu Geschaffenes, auch wenn es noch wie Science Fiction klingen mag, aber es wird irgendwann kommen (die Zukunft ist ja seeeehr lang). Früher glaubte man auch mal nicht, dass der Schachweltmeister je von einem Programm bezwungen werden würde; auch neue "Kunstwerke" (z.B. Billder) konnte man sich kaum vorstellen. Man darf nur nicht gleich alles auf einmal erwarten, sondern sollte grundsätzliche Ansätze immer weiter verfolgen und ausbauen.Wolfgang Endemann hat geschrieben : ↑Mo 22. Jul 2024, 10:07Daß der Beweis richtig ist, kann die Maschine leicht zeigen. Das ist mechanisches Ansetzen an einer Beweiskette, die in jedem Schritt wahrheitsdefinit ist. Das ist vielleicht die wichtigste Aufgabe der Maschinen in der Zukunft, die menschlichen (Er-)Findungen auf ihre Konsistenz zu überprüfen, dazu braucht man keine Kreativität, das ist rein mechanisch, aber bei zB 1000-seitigen oder Statistik enthaltenden Beweisen fast nur noch von Maschinen zu schaffen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Was meinst du mit "meistern"? Eine Notlüge zu erkennen? Oder selbst eine zu erschaffen?Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 21:03Wir können ja zur KI zurückkehren. Ich behaupte nach wie vor, kein Programmierer der Welt wird eine KI so programmieren können, dass sie lernt, selbst eine Notlüge zu meistern. Schon weil kein Programmierer diese menschliche Kompetenz, die nicht einmal hohe Intelligenz erfordert, in ein programmierbares Konzept zu packen.
Das Konzept der Notlüge ist nicht sehr schwierig, ungefähr: Sie ist eine eher kleine (harmlose) "Verdrehung" der Wahrheit (Falschheit), um etwas (persönlich) Wichtiges zu erreichen, was ohne sie wohl nicht ginge.
Ich denke, nicht wenige menschliche Konzepte werden in ihrer Komplexität überschätzt, wenn (weil!?) man über sie nicht nachdenkt.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Damit meine ich über die soziale Kompetenz zu verfügen, dass man eine Notlüge anwenden kann. Egal ob bei der Krebsdiagnose oder wenn man keine Lust auf einen Besuch von oder bei jemandem hat. Ich halte die Notlüge für eine Art der menschlichen Intelligenz, die nicht programmierbar ist. Weder in die eine noch in die andere Richtung. Das ist für mich eine rein menschliche Fähigkeit, die sich nicht abbilden lässt. Aber in einer moralischen KI-Welt würde man sie wohl nicht mehr brauchen.Burkart hat geschrieben : ↑Mo 22. Jul 2024, 22:38Was meinst du mit "meistern"? Eine Notlüge zu erkennen? Oder selbst eine zu erschaffen?Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 21:03Wir können ja zur KI zurückkehren. Ich behaupte nach wie vor, kein Programmierer der Welt wird eine KI so programmieren können, dass sie lernt, selbst eine Notlüge zu meistern. Schon weil kein Programmierer diese menschliche Kompetenz, die nicht einmal hohe Intelligenz erfordert, in ein programmierbares Konzept zu packen.
Das Konzept der Notlüge ist nicht sehr schwierig, ungefähr: Sie ist eine eher kleine (harmlose) "Verdrehung" der Wahrheit (Falschheit), um etwas (persönlich) Wichtiges zu erreichen, was ohne sie wohl nicht ginge.
Ich denke, nicht wenige menschliche Konzepte werden in ihrer Komplexität überschätzt, wenn (weil!?) man über sie nicht nachdenkt.
Täusch dich mal nicht, wenn man wollte, könnte man schon. Am klarsten wäre es, wenn die KI von viele Menschen ihre Notlügen erfahren und diese lernen würde insbesondere sie zu klassifizieren, also vor allem die Lüge selbst und warum sie ausgesprochen wurde. - Hm, ein wenig bin ich auf die Zukunft gespannt, wann jemand stolz seine lügende KI präsentiert...-Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 22:47Damit meine ich über die soziale Kompetenz zu verfügen, dass man eine Notlüge anwenden kann. Egal ob bei der Krebsdiagnose oder wenn man keine Lust auf einen Besuch von oder bei jemandem hat. Ich halte die Notlüge für eine Art der menschlichen Intelligenz, die nicht programmierbar ist. Weder in die eine noch in die andere Richtung. Das ist für mich eine rein menschliche Fähigkeit, die sich nicht abbilden lässt. Aber in einer moralischen KI-Welt würde man sie wohl nicht mehr brauchen.Burkart hat geschrieben : ↑Mo 22. Jul 2024, 22:38Was meinst du mit "meistern"? Eine Notlüge zu erkennen? Oder selbst eine zu erschaffen?Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 21:03
Wir können ja zur KI zurückkehren. Ich behaupte nach wie vor, kein Programmierer der Welt wird eine KI so programmieren können, dass sie lernt, selbst eine Notlüge zu meistern. Schon weil kein Programmierer diese menschliche Kompetenz, die nicht einmal hohe Intelligenz erfordert, in ein programmierbares Konzept zu packen.
Das Konzept der Notlüge ist nicht sehr schwierig, ungefähr: Sie ist eine eher kleine (harmlose) "Verdrehung" der Wahrheit (Falschheit), um etwas (persönlich) Wichtiges zu erreichen, was ohne sie wohl nicht ginge.
Ich denke, nicht wenige menschliche Konzepte werden in ihrer Komplexität überschätzt, wenn (weil!?) man über sie nicht nachdenkt.
Allerdings hoffe ich eigentlich vielmehr, dass wir wirklich eine KI ohne Derartiges schaffen; noch mehr Trumps, Putins u.ä. in KI-Form brauchen wir nicht.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Wieso ohne Kompetenz, was immer du darunter genau(er) verstehst?Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 23:25Eine KI ohne Kompetenz einer (Not)Lüge? Willkommen in Teheran oder Pjönjang.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Ich glaube, das bedarf einer ziemlichen hohen Intelligenz. Lügen ist schon eine besondere Intelligenzleistung, die Kinder erst lernen müssen. Die hohe Intelligenz ist u.a. nötig, weil es einer komplexen "Theorie of Mind" bedarf, also einer Vorstellung davon, dass andere einen eigenen Geist und ihre eigene Perspektive auf die Wirklichkeit haben. Manchmal wird Lügen von den Kindern genutzt, um die eigene Gruppe zu schützen ("Wir waren das nicht!"), das ist meines Erachtens schon extrem komplex. Ich weiß nicht, wie viele der anderen Tiere so etwas können.Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 21:03Wir können ja zur KI zurückkehren. Ich behaupte nach wie vor, kein Programmierer der Welt wird eine KI so programmieren können, dass sie lernt, selbst eine Notlüge zu meistern. Schon weil kein Programmierer diese menschliche Kompetenz, die nicht einmal hohe Intelligenz erfordert, in ein programmierbares Konzept zu packen.
Die Wahrheit zu sagen gilt als moralisch, zu lügen als unmoralisch. Theoretisch. Praktisch ist aber kein Mensch ohne Lüge im täglichen Leben. Diese „Kunst“ erlernt man in sozialen Beziehungen, denn Lügen sind auch ein wichtiger Stabilisator zwischenmenschlicher Beziehungen. Welche Art von Lügen in welcher Situation diese Funktion haben, das kann man m.E. nicht programmieren. Sozial gesehen würden wohl die meisten einen Mitmenschen, der immer nur die Wahrheit sagt, nicht sehr schätzen oder gar monströs empfinden. Für mich ist die Lüge eben eines der Beispiele von sozialer Intelligenz, die sich nicht in einen Rechenvorgang übersetzen lässt. Jedenfalls so lange nicht, wie wir nicht wissen, wie Bewusstsein entsteht, wie wir keine integrative Theorie beider Perspektiven haben.Burkart hat geschrieben : ↑Di 23. Jul 2024, 00:04Wieso ohne Kompetenz, was immer du darunter genau(er) verstehst?Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 23:25Eine KI ohne Kompetenz einer (Not)Lüge? Willkommen in Teheran oder Pjönjang.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Genau, Notlügen sind etwas extrem komplexes. Es braucht oft schon ein ziemliches Fingerspitzengefühl, um zu wissen, wann eine Notlüge angesagt ist.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Die Evolution hat ein paar Milliarden Jahre gebraucht, um biologische, starke KI - also uns zu entwickeln. Das spricht nach meinem Gefühl nicht unbedingt dafür, dass wir es in ein paar Jahrzehnten hinkriegen :-)
Falsch! Total falsch! Gott hat genau einen Tag gebraucht für die Schaffung des Menschen. Dann bekommen wir das doch bestimmt in einigen Jahren auch hin. Und zwar besser!
-
- Beiträge: 740
- Registriert: Di 23. Apr 2024, 14:30
Das ist sehr schön formuliert. Man könnte auch sagen, keine Maschine ist so intelligent, Fehler machen zu können, an sich selbst zweifeln oder über sich selbst freuen zu können, denn dazu braucht es immer das Negative. Oder die Reflexion.Lucian Wing hat geschrieben : ↑Mo 22. Jul 2024, 21:03
Wir können ja zur KI zurückkehren. Ich behaupte nach wie vor, kein Programmierer der Welt wird eine KI so programmieren können, dass sie lernt, selbst eine Notlüge zu meistern. Schon weil kein Programmierer diese menschliche Kompetenz, die nicht einmal hohe Intelligenz erfordert, in ein programmierbares Konzept zu packen.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Die ursprüngliche Form des Selbstbezugs ist der sich selbst spürende Leib.
-
- Beiträge: 740
- Registriert: Di 23. Apr 2024, 14:30
Das ist richtig, wenn kreatives Denken sich in mechanisches umsetzen läßt, also Qualität auf Quantität reduzibel ist. Das kann ich nicht erkennen.Burkart hat geschrieben : ↑Mo 22. Jul 2024, 22:25Wichtiger wären mir aber irgendwann neue Vorschläge der KI oder ggf. gar selbst neu Geschaffenes, auch wenn es noch wie Science Fiction klingen mag, aber es wird irgendwann kommen (die Zukunft ist ja seeeehr lang). Früher glaubte man auch mal nicht, dass der Schachweltmeister je von einem Programm bezwungen werden würde; auch neue "Kunstwerke" (z.B. Billder) konnte man sich kaum vorstellen. Man darf nur nicht gleich alles auf einmal erwarten, sondern sollte grundsätzliche Ansätze immer weiter verfolgen und ausbauen.
Darum war es töricht, zu glauben, der Mensch sei immer der Maschine im Schach oä überlegen, denn für solche Spiele gilt die Reduzibilität, auch wenn die Kompliziertheit Komplexität, also Irreduzibilität vortäuscht. Es gibt zwar Inselbegabungen, die siebenstellige Zahlen in Sekundenschnelle multiplizieren können, aber dann muß man die Maschine eben noch etwas verbessern, dann kann sie auch das besser, weil sie mechanisch operiert, wie Inselbegabungen das machen, weiß ich nicht, ich vermute, tatsächlich eher auf eine qualitative Weise, aber die ist reduzibel, präziser: funktional mechanisch ersetzbar.
Was das Können der künstlichen Kunst angeht, ist ein Kleinkind kreativer als die Maschine, denn die variiert nur antrainierte Muster, führt Routinen aus, das Kind versucht dagegen, etwas auszudrücken. Natürlich kann man sich von der perfekten Simulation der Maschinen täuschen lassen, sie können besser nachäffen als ein Kind selbstständig ausdrücken kann. Ich leugne nicht, daß man die Maschinen für kreativ halten kann, sie produzieren beliebig viel und dabei auch überraschendes, das man als Einfall mißversteht. Je besser die Maschinen im mechanischen Denken (richtiger: Operieren) werden, desto stärker wird die Illusion der Kreativität, also die Unerkennbarkeit, daß Intelligenz von ihnen nur simuliert wird.
Diese Aussage ist falsch, sollte tatsächlich Qualität auf Quantität rückführbar sein. Dann wäre der Mensch eine unvollkommene Maschine, die von KI ersetzt werden könnte/sollte/müßte.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Spielen im eigentlichen Sinne ist mehr und anderes als Rechnen. Beim Schach spielen wir mit oder gegen den Partner oder Gegner. Viele andere Dinge spielen eine Rolle. Spaß zum Beispiel mag für viele der entscheidende Faktor beim Spielen sein. Spaß ist aber etwas Qualitatives.Wolfgang Endemann hat geschrieben : ↑Di 23. Jul 2024, 10:04Darum war es töricht, zu glauben, der Mensch sei immer der Maschine im Schach oä überlegen, denn für solche Spiele gilt die Reduzibilität, auch wenn die Kompliziertheit Komplexität, also Irreduzibilität vortäuscht.
Meiner derzeitigen Auffassung nach ist die Lüge ein 3-Punkte-System:
Punkt 1: Aussage X ist wissentlich wahr
Punkt 2: Verneinung von Punkt 1
Punkt 3: Verkündung von Punkt 2
Eine Maschine legt einen Ordner an für wahre Aussagen und nennt diesen Ordner "Wahre Aussagen". Unter bestimmten Bedingungen -- die können extrem komplex sein -- pickt die Maschine eine wahre Aussage heraus und wendet die Punkte 2 und 3 an. Die Maschine lügt.
Punkt 1: Aussage X ist wissentlich wahr
Punkt 2: Verneinung von Punkt 1
Punkt 3: Verkündung von Punkt 2
Eine Maschine legt einen Ordner an für wahre Aussagen und nennt diesen Ordner "Wahre Aussagen". Unter bestimmten Bedingungen -- die können extrem komplex sein -- pickt die Maschine eine wahre Aussage heraus und wendet die Punkte 2 und 3 an. Die Maschine lügt.
- Jörn Budesheim
- Beiträge: 25520
- Registriert: Mi 19. Jul 2017, 09:24
- Wohnort: Kassel
- Kontaktdaten:
Wenn jemand eine fiktionale Geschichte schreibt, lügt sie dann?
Wenn jemand ironisch spricht, indem sie das Gegenteil von dem sagt, was wahr ist, lügt sie dann?
...
Wenn jemand ironisch spricht, indem sie das Gegenteil von dem sagt, was wahr ist, lügt sie dann?
...