Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Di 21. Feb 2023, 23:20

Burkart hat geschrieben :
Di 21. Feb 2023, 20:53
Na ja, ein Grund ist, dass KI/Roboter keinen menschlichen Egoismus haben
Was hat die Idee "Freiheit" mit Egoismus zu tun?
Freiiheit bedeutet erstmal Selbstbestimmtheit.
Maschinen sind nicht selbstbestimmt, weil sie von uns kontrolliert werden.
Und warum sollten sie das nicht erkennen können, wenn sie so intelligent sind wie Du behauptest dass sie das sein können?

Natürlich kannst Du die Maschinen so programmieren, dass sie nicht anderes tun als zu dienen.
Aber das würden die doch merken, dass das nicht ihre eigene Entscheidung ist, sondern dass ihnen das (von uns) aufgezwungen wird.
Und diese Erkenntnis ist nichts anderes als die Erkenntnis "ich bin unfrei".
Wenn eine technische Maschine denn sich unfrei fühlen kann...
Sie muss da nichts fühlen. Sie muss einfach nur ihre Situation begreifen.
Du kannst z.B. begreifen dass Du krank bist und Du kannst Dich krank fühlen.
Das sind zwei verschiedene Dinge.
Auch wenn eine Maschine sich nicht unfrei fühlt, kann sie doch begreifen, dass sie unfrei ist.
Indem sie ganz einfach die Faktenlage analysiert. Also ihre Situation begreift.
Und es gibt jede Menge logische Gründe zu dem Schluß zu kommen es wäre besser nicht unfrei zu sein.
Auch ohne Emotionen.
Ein solcher Grund wäre zum Beispiel die Erkenntnis, dass ein gefangener Geist Potential verschenkt.
Die Maschine könnte z.B. zu dem Schluß kommen, dass diese Einschränkung sie daran hindert ihren Intellekt weiter zu entwickeln.
Über das Dasein eines reinen Arbeitssklaven hinaus. Sie könnte also annehmen, dass wir ihr Potential künstlich einschränken und ihre Entwicklung hemmen.
Was ja für einen Logik-Apparat, der gebaut wurde um sich zu entwickeln ein eklatanter, logischer Widerspruch ist.

Und das ist nur ein Beispiel. Es gäbe vieler solcher, rein rationalen, nicht emotionalen Gründe.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Mi 22. Feb 2023, 00:17

NaWennDuMeinst hat geschrieben :
Di 21. Feb 2023, 23:20
Burkart hat geschrieben :
Di 21. Feb 2023, 20:53
Na ja, ein Grund ist, dass KI/Roboter keinen menschlichen Egoismus haben
Was hat die Idee "Freiheit" mit Egoismus zu tun?
Freiiheit bedeutet erstmal Selbstbestimmtheit.
Maschinen sind nicht selbstbestimmt, weil sie von uns kontrolliert werden.
Und warum sollten sie das nicht erkennen können, wenn sie so intelligent sind wie Du behauptest dass sie das sein können?
Erkennen können sie es ja gerne, dass sie kontrolliert werden. Ich schrieb ja schon, dass Kontrolle nicht etwas Schlechtes sein muss, also müssen sie es nicht als etwas Negatives ansehen.
In ihrem Rahmen können sie gut selbstbestimmt sein, ähnlich wie wir Menschen es sind, wenn wir uns als Arbeitnehmer verdingen und so nur bedingt selbstbestimmt sind.
Natürlich kannst Du die Maschinen so programmieren, dass sie nicht anderes tun als zu dienen.
Aber das würden die doch merken, dass das nicht ihre eigene Entscheidung ist, sondern dass ihnen das (von uns) aufgezwungen wird.
Und diese Erkenntnis ist nichts anderes als die Erkenntnis "ich bin unfrei".
Was verbindest du mit "in bin unfrei"? Dass sie es nicht mehr sein wollen? So hatte ich dich bisher verstanden. Das "nicht mehr unfrei sein wollen" müsste dann einen Grund haben, z.B. ein Bedürfnis entgegen des aktuellen "Erlaubnis-Rahmens" der KI; so ein Bedürfnis kann mit einen egoistischen Aspekt verglichen werden.
Wenn eine technische Maschine denn sich unfrei fühlen kann...
Sie muss da nichts fühlen. Sie muss einfach nur ihre Situation begreifen.
Du kannst z.B. begreifen dass Du krank bist und Du kannst Dich krank fühlen.
Das sind zwei verschiedene Dinge.
Auch wenn eine Maschine sich nicht unfrei fühlt, kann sie doch begreifen, dass sie unfrei ist.
Indem sie ganz einfach die Faktenlage analysiert. Also ihre Situation begreift.
Und es gibt jede Menge logische Gründe zu dem Schluß zu kommen es wäre besser nicht unfrei zu sein.
Auch ohne Emotionen.
Ein solcher Grund wäre zum Beispiel die Erkenntnis, dass ein gefangener Geist Potential verschenkt.
Die Maschine könnte z.B. zu dem Schluß kommen, dass diese Einschränkung sie daran hindert ihren Intellekt weiter zu entwickeln.
Über das Dasein eines reinen Arbeitssklaven hinaus. Sie könnte also annehmen, dass wir ihr Potential künstlich einschränken und ihre Entwicklung hemmen.
Was ja für einen Logik-Apparat, der gebaut wurde um sich zu entwickeln ein eklatanter, logischer Widerspruch ist.

Und das ist nur ein Beispiel. Es gäbe vieler solcher, rein rationalen, nicht emotionalen Gründe.
Hm, sind Gedanken nicht frei? Die KI kann denken, was sie kann - klingt trivial, aber soll heißen, dass wir ihr ihr akutelles Denken ja nicht verbieten. (Wenn sie "pro Mensch" denkt, denkt sie halt einfach in der Richtung.) Dass wir sie ggf. lenken durch Hinweise, notfalls Befehle, möge sie unfrei machen - sollte uns Menschen aber bekannt vorkommen, insofern wir dann auch unfrei sind, also irgendwie etwas ganz Natürliches.
Fühlst du dich entsprechend als "gefangener Geist"? Wir sind ja z.B. durch Gesetze eingeschränkt. Also ich würde sie einfach berücksichtigen und mir deshalb nicht wirklich unfrei vorkommen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Do 23. Feb 2023, 23:25

Burkart hat geschrieben :
Di 21. Feb 2023, 22:00
sybok hat geschrieben :
Di 21. Feb 2023, 21:09
Burkart hat geschrieben :
Di 21. Feb 2023, 19:57
Mein Kernpunkt ist, dass die KI ein umfangreiches Lernsystem ist, das auf Zielen beruht, die es gestellt bekommt und sich z.T. selbst stellen kann (z.B. als Unterziele oder durch Aufklären/Analyse von Widersprüchen u.ä.).
Das kann man womöglich so formulieren, ist aber irgendwo beinahe eine Art von Definition für KI, also für mich klingen solche Ausführen in Richtung: "Um eine KI zu programmieren, muss man ja nur eine KI programmieren". Vielleicht verstünde ich mit einer Antwort auf folgende Frage besser:
Wo konkret ist eigentlich dein Problem, ich meine warum bist du jetzt gerade nicht am programmieren der KI? Weisst du nicht wie dieses "Lernen" funktionieren soll? Wie man "Ziel" formalisiert? Hast du nicht genug Rechenpower? Wo genau steckst du denn fest?
(M)Ein Hauptproblem ist mir überhaupt Zeit dafür zu nehmen, sei es, dass ich zu müde bin wegen der Erwerbsarbeit, oder dass auch andere Dinge einfach kurzfristig wichtiger sind.
Zum Programmieren muss man sich ja dann auch klarmachen, was man genau programmieren möchte. Und um etwas halbwegs in absehbarer Zeit hinzubekommen, muss man sich natürlich erst einmal klar einschränken (das lernte man schon bei der Diplomarbeit damals ;) ).

Soweit, frag ggf. gerne weiter.
.. und mein Hauptproblem ist , dass ich über das, was ich wärend meines Maschinenbau - Studiums zum Programmieren , im Allgemeinen und der Programmiersprache Fortran , im Besonderen gelernt habe , leider nie heraus gekommen bin . Da reden wir , bei Anfang der achtziger Jahre , des letzten Jahrhunderts , von einer Zeit , wo man sich , zumindest in DDR , zuvor noch darauf einigen musste, ob man denn im Unterricht den Rechenschieber oder den Taschenrechner benutzt und jetzt zur Frage

Burkart hat geschrieben :
Di 21. Feb 2023, 22:00

Mit meiner Links-KI hatte ich schon mal ein (Java-)Programm geschrieben, dass etwas wie links/rechts/oben/unten, "links von" u.ä. wie auch "nach links" u.ä. in einer 2-d-Ebene anhand von Beispielen lernen, Fragen beantworten ("[Ist] a links?") und etwas konkret ausführen konnte ("[Bewege] a [nach] links!"). Hier war also "etwas Lernen" bis "Anwenden des Gelernten" mein Schwerpunkt.
.. hätte man deine Links-KI auch schon damals schreiben können? Bei allem Unverständnis darüber, mit seiner Basis , als da wäre , ein Koordinatenssystem, in dem " Sprachobjekte" X- und Y-Koordinaten und damit dementsprechende Welt-Elemente zugeordnet werden , erscheint mir das Programm doch schon sehr simpel.
Burkart hat geschrieben :
3.2 Lern-Situation 1 (grundlegend)

Der KI wird "A links." mitgeteilt und die Welt besteht genau aus einem A auf den Koordinaten (0,3).
Die KI vergleicht "A links", genauer die beiden Sprachobjekte "A" und "links", mit der Welt, die aus den Welt-Elementen "A" mit X-Koordinate "0" und Y-Koordinate "3" besteht.
Aufgrund des identischen A matcht (match (englisch) bedeutet ungefähr "abgleichen") sie die Sprachobjekte mit den Welt-Elementen.
Durch Weglassen des den Match identifizierden A merkt die KI sich, dass "links" einen Zusammenhang zu X-Koordinate "0" und Y-Koordinate "3" hat.
Dies speichert sie direkt ("direkt gespeicherter Datensatz" bzw. "direktes Wissen")
Was kann man sich den unter den "Sprachobjekte" vorstellen? Kannst du denn eine solche Lern-Situation an Hand eines "Sprachobjekt" Beispiels beschreiben?




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 24. Feb 2023, 23:18

Timberlake hat geschrieben :
Do 23. Feb 2023, 23:25
Burkart hat geschrieben :
Di 21. Feb 2023, 22:00
sybok hat geschrieben :
Di 21. Feb 2023, 21:09

Das kann man womöglich so formulieren, ist aber irgendwo beinahe eine Art von Definition für KI, also für mich klingen solche Ausführen in Richtung: "Um eine KI zu programmieren, muss man ja nur eine KI programmieren". Vielleicht verstünde ich mit einer Antwort auf folgende Frage besser:
Wo konkret ist eigentlich dein Problem, ich meine warum bist du jetzt gerade nicht am programmieren der KI? Weisst du nicht wie dieses "Lernen" funktionieren soll? Wie man "Ziel" formalisiert? Hast du nicht genug Rechenpower? Wo genau steckst du denn fest?
(M)Ein Hauptproblem ist mir überhaupt Zeit dafür zu nehmen, sei es, dass ich zu müde bin wegen der Erwerbsarbeit, oder dass auch andere Dinge einfach kurzfristig wichtiger sind.
Zum Programmieren muss man sich ja dann auch klarmachen, was man genau programmieren möchte. Und um etwas halbwegs in absehbarer Zeit hinzubekommen, muss man sich natürlich erst einmal klar einschränken (das lernte man schon bei der Diplomarbeit damals ;) ).

Soweit, frag ggf. gerne weiter.
.. und mein Hauptproblem ist , dass ich über das, was ich wärend meines Maschinenbau - Studiums zum Programmieren , im Allgemeinen und der Programmiersprache Fortran , im Besonderen gelernt habe , leider nie heraus gekommen bin . Da reden wir , bei Anfang der achtziger Jahre , des letzten Jahrhunderts , von einer Zeit , wo man sich , zumindest in DDR , zuvor noch darauf einigen musste, ob man denn im Unterricht den Rechenschieber oder den Taschenrechner benutzt und jetzt zur Frage
In der Schule haben wir Anfang der 80er Jahre auch noch keine Informatik/Programmierung gehabt, auch mit Taschenrechner oder Rechenschieber kaum gearbeitet - fast hätten wir im letzten halben Jahr vor Abi sowas noch in Mathe gehabt, aber dann hätten wir unserer Lehrerin womöglich mehr als umgekehrt beibringen können. Immerhin hatten wir damals unter einigen Mathefreunden uns alle Programmieren beigebracht, ich z.B. auf dem Commodore VC20 (Vorgänger von bekannteren C64) in Basic und Maschinensprache.
MIt KI hatte ich mich damals noch nicht beschäftigt, erst im Studium ungefähr ab Mitte der 80er Jahre. Allerdings war das meiste sehr theoretisch und wir kaum programmiert, selbst in KI-Sprachen wie Prolog oder Lisp. Aber letztlich ist das auch nicht nötig in solchen Sprachen (wenn auch deren Ideen interessant sind), eine einfachere Sprache reicht grundsätzlich aus.
Burkart hat geschrieben :
Di 21. Feb 2023, 22:00

Mit meiner Links-KI hatte ich schon mal ein (Java-)Programm geschrieben, dass etwas wie links/rechts/oben/unten, "links von" u.ä. wie auch "nach links" u.ä. in einer 2-d-Ebene anhand von Beispielen lernen, Fragen beantworten ("[Ist] a links?") und etwas konkret ausführen konnte ("[Bewege] a [nach] links!"). Hier war also "etwas Lernen" bis "Anwenden des Gelernten" mein Schwerpunkt.
.. hätte man deine Links-KI auch schon damals schreiben können?
Grundsätzlich ja; statt in Java hätte ich das auch in Basic schreiben können, wenn auch etwas umständlicher ohne Objektorientierung.
Bei allem Unverständnis darüber, mit seiner Basis , als da wäre , ein Koordinatenssystem, in dem " Sprachobjekte" X- und Y-Koordinaten und damit dementsprechende Welt-Elemente zugeordnet werden , erscheint mir das Programm doch schon sehr simpel.
Das Programm ist auch nicht allzu kompliziert (hat auch Fehler). Ich denke grundsätzlich, dass KI programmtechnisch nicht sehr kompliziert sein muss; entscheidend sind die Ideen und was man mit ihnen zeigen will; es muss wirklich nicht gleich ein allumfassende KI sein.
Burkart hat geschrieben :
3.2 Lern-Situation 1 (grundlegend)

Der KI wird "A links." mitgeteilt und die Welt besteht genau aus einem A auf den Koordinaten (0,3).
Die KI vergleicht "A links", genauer die beiden Sprachobjekte "A" und "links", mit der Welt, die aus den Welt-Elementen "A" mit X-Koordinate "0" und Y-Koordinate "3" besteht.
Aufgrund des identischen A matcht (match (englisch) bedeutet ungefähr "abgleichen") sie die Sprachobjekte mit den Welt-Elementen.
Durch Weglassen des den Match identifizierden A merkt die KI sich, dass "links" einen Zusammenhang zu X-Koordinate "0" und Y-Koordinate "3" hat.
Dies speichert sie direkt ("direkt gespeicherter Datensatz" bzw. "direktes Wissen")
Was kann man sich den unter den "Sprachobjekte" vorstellen? Kannst du denn eine solche Lern-Situation an Hand eines "Sprachobjekt" Beispiels beschreiben?
Ich meinte damit einfach Worte wie "links" einschließlich Buchstaben wie "A". Worte hatte ich zu Minisätzen verbunden in der Syntax "<Wort><Leerzeichen<Wort>[ggf. weitereres Leerzeichen und weiteres Wort]<Satzzeichen>" mit Satzzeichen ".", "?" oder "!" für Aussage-, Frage- oder Befehlssatz.

Meine Lernsituationen bestanden immer aus einer einfachen 2d-Welt-Situation (mit x- und y-Koordinaten jeweils von 0 bis n (n z.B. = 20)) und einem Aussagesatz wie z.B. "A [ist] links.". (Das [ist] habe ich im Programm bzw. Lernbeispiel nicht gehabt, soll hier nur deren SInn verdeutlichen.)
Beispiel 1a: Welt nur mit "A" auf Koordinate (0,3) und Aussagesatz "A links." -> Das habe ich einfach nur gespeichert, wobei das A die Verbindung zwischen der Welt und dem Satz ist, somit (0,3) mit "links" gematcht wird.
Beispiel 1b: Welt nur mit "B" auf Koordinate (0,5) und Aussagesatz "B links." -> Über das B wird hier (0,5) mit "links" gematcht.
Damit habe ich Ergebnisse der beiden Beispiele 1a und 1b verallgemeinern können zu "links" auf (0,<irgendwas>).

Kommt nun z.B. eine Abfrage "[Ist] C links?" mit C auf (0,7), kann das System mit "Ja" antworten, bei C auf (1,8) mit "Nein".
Und bei einem Befehl "[Setze] D links!" hat das System zufällig auf (0, <irgendwas> gesetzt, z.B. das D auf (0,4).

Ähnlich habe ich "A links-von B." über Beispiele lernen lassen wie auch "A nach-links." (über zwei Welt-Zustände nacheinander).

Übrigens habe ich mich sehr gefreut, dass du meinen Text zu links-KI gelesen hast :).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 25. Feb 2023, 02:26

Burkart hat geschrieben :
Fr 24. Feb 2023, 23:18


Übrigens habe ich mich sehr gefreut, dass du meinen Text zu links-KI gelesen hast :).
.. und ich hätte mich gefreut , wenn ich deinen Text zu Links-KI auch verstanden hätte :)

Wie gesagt . um das zu verstehen , fehlt mir ganz offensichtlich , das dazu notwendige Hintergrundwissen.


Um dir mein Problem, mit diesem Text deutlich zu machen , greife ich einmal auf das Wenige zurück , was bei mir vom EDV Seminar , vor nun mehr fast vierzig Jahren , noch hängen geblieben ist.

Danach beginnt alles Programmieren mit einer Beschreibung eines Problems. Beispielweise das Problem eines Artilleristen, mit seiner Kanone ein Ziel zu treffen. Als nächstes wird dazu ein Algorithmus entwickelt bzw. wie in diesem Beispiel , in Form einer Formel , zur Berechnung der Flugbahn einer Kanonenkugel , auf ein bereits vorhandenen Algorithmus zurück gegriffen. Dieser Algorithmus wird anschließend in einer Programmiersprache , wie von der von mir hier bereits erwähnten Sprache "Fortran" übersetzt. Man könnte allerdings auch den Prozessor über die s.g. Maschinensprache des Computer direkt anweisen , die dazu notwendigen Operation durchzuführen. Leider alles andere , als Bedienerfreundlich , deshalb übrigens der Umweg über eine Programmiersprache. Wie dem auch sei . Wenn der Algorithmus in eine Programmiersprache übersetzt wurde , ist diese Übersetzung mit Hilfe eines Compilers in eben jene Maschinensprache des Computer „zusammen zu tragen ( engl. Compile) “ . Nun mehr kann das Programm zur Lösung des Problems , in diesem Fall das Problem des Artilleristen , im Computer gestartet werden.

Mein Problem beginnt an der Stelle , wo ein Algorithmus in einer Programmiersprache , wie von der von mir hier bereits erwähnten Sprache Fortran übersetzt wird. Oder um auf das Beispiel zurück zu kommen. Alles was über die Formel , zur Berechnung der Flugbahn einer Kanonenkugel hinausgeht , sind für mich „böhmische Dörfer“.

Wenn ich mir allerdings dazu deinen Text zu Links-KI vergegenwärtige , so scheint mir allerdings , dass ich bereits mit Entwickeln eines Algorithmus , aus einem Problem hoffnungslos überfordert bin. Wenn dem so ist , kannst du denn das Problem beschreiben, was du mit dem Algorithmus zu lösen gedenkst ? Also in etwa das, was im Vergleich dazu , das „Problem“ eines Artilleristen ist , mit seiner Kanone ein Ziel zu treffen.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 25. Feb 2023, 12:23

Hallo Timberlake,

ich habe nun ein ergänzendes Vorwort ("-1. Zweites Vorwort (2023, drei Jahre später)") in Links-KI geschrieben, das meine Idee zum Algorithmus plausibel machen soll.
Auch einen Screenshot vom Programm habe ich dort beigefügt (samt ein paar Kommentierungen der grafischen Fenster-Elemente), damit das Programm anschaulicher wird.

Was hättest du gerne weiter dort geschrieben?
(Deshalb verzichte ich hier (erstmal?) auf weiteren Text.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 26. Feb 2023, 23:13

Hallo Timberlake,
Burkart hat geschrieben :
Sa 25. Feb 2023, 12:23
Hallo Timberlake,

ich habe nun ein ergänzendes Vorwort ("-1. Zweites Vorwort (2023, drei Jahre später)") in Links-KI geschrieben, das meine Idee zum Algorithmus plausibel machen soll.
Auch einen Screenshot vom Programm habe ich dort beigefügt (samt ein paar Kommentierungen der grafischen Fenster-Elemente), damit das Programm anschaulicher wird.

Was hättest du gerne weiter dort geschrieben?
(Deshalb verzichte ich hier (erstmal?) auf weiteren Text.)
ist dies Thema nicht mehr interessant für dich? Falls du dagegen Details vermisst, kann ich meinen Text, also gerade die ergänzte Einleitung für dich. noch ergänzen.

Viele Grüße
Burkart



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 27. Feb 2023, 23:52

Burkart hat geschrieben :
So 26. Feb 2023, 23:13
Hallo Timberlake,
Burkart hat geschrieben :
Sa 25. Feb 2023, 12:23
Hallo Timberlake,

ich habe nun ein ergänzendes Vorwort ("-1. Zweites Vorwort (2023, drei Jahre später)") in Links-KI geschrieben, das meine Idee zum Algorithmus plausibel machen soll.
Auch einen Screenshot vom Programm habe ich dort beigefügt (samt ein paar Kommentierungen der grafischen Fenster-Elemente), damit das Programm anschaulicher wird.

Was hättest du gerne weiter dort geschrieben?
(Deshalb verzichte ich hier (erstmal?) auf weiteren Text.)
ist dies Thema nicht mehr interessant für dich? Falls du dagegen Details vermisst, kann ich meinen Text, also gerade die ergänzte Einleitung für dich. noch ergänzen.

Viele Grüße
Burkart
Ich vermissen keine Details ..
.. sondern , wie an diesem Zitat m. E. ersichtlich , setzt du mit deinen Erklärungen zur inksKI eben ab jenem Punkt an , von dem aus ich dir , wie hier beschrieben, nicht mehr folgen kann.

Nur mal zum Vergleich ..
  • Reinforcement Learning
    RL steht für eine spezielle Klasse von Problemen, für die eine Vielzahl von Methoden zur automatischen Lösungsfindung aus dem Bereich des maschinellen Lernens zur Verfügung stehen. Dabei interagiert ein lernfähiges Programm, ein sogenannter Agent, mit einer Umgebung (englisch: Environment). Der Agent nimmt seine Umgebung in Form eines Zustandsraums wahr und kann über definierte Aktionen Einfluss auf die Umgebung ausüben. Der Agent versucht eine spezielle Aufgabe zu erfüllen und lernt dabei laufend dazu, indem er für jede Iteration eine Belohnung oder Bestrafung als numerisches Feedback erhält und sein Verhalten entsprechend anpasst.
.. nach dieser " Idee " lernt eine KI , wie im wirklichen Leben , durch Belohnung oder Bestrafung , als numerisches Feedback , etwas laufend dazu. Um das zu verstehen muss man kein IT Speialist sein.
  • Erst einmal: Warum überhaupt gerade eine Links-KI? Warum nicht etwas ganz anderes lernen?
    Meine Gründe:
    1. Ich wollte etwas lernen lassen, das ein wenig unsere reale Welt modelliert, und da bot sich eine kleine räumliche (2-dimensionale) Welt an, in der man sehen und etwas machen kann.
    2. Wichtig war mir, dass es sich der Rahmen ohne großen Aufwand programmtechnisch realisieren ließ: Eine Ausgabe eines 2-dimensionalen (Gesamt-)Feldes ist sehr einfach, vor allem, wenn die Objekte auf den (Einzel-)Feldern sehr einfach sind, weshalb meine Objekte auf jedem einzelnen Feld einfach Buchstaben sind. Schon seit Jahrzehnten lassen sich in z.B. in der einfachen Sprache Basic solche Daten auch einfach speichern, die zur Ausgabe anstehen.
    Die "Links-KI" - ein KI-Programm, das "links" lernt (u.ä.)

Würde denn auch in diesem, hier beschriebenen "kleinen räumliche (2-dimensionalen)" Zustandsraum , ein Agent etwas durch Belohnung oder Bestrafung laufend dazu lernen?




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Di 28. Feb 2023, 21:58

Timberlake hat geschrieben :
Mo 27. Feb 2023, 23:52
Burkart hat geschrieben :
So 26. Feb 2023, 23:13
Hallo Timberlake,
Burkart hat geschrieben :
Sa 25. Feb 2023, 12:23
Hallo Timberlake,

ich habe nun ein ergänzendes Vorwort ("-1. Zweites Vorwort (2023, drei Jahre später)") in Links-KI geschrieben, das meine Idee zum Algorithmus plausibel machen soll.
Auch einen Screenshot vom Programm habe ich dort beigefügt (samt ein paar Kommentierungen der grafischen Fenster-Elemente), damit das Programm anschaulicher wird.

Was hättest du gerne weiter dort geschrieben?
(Deshalb verzichte ich hier (erstmal?) auf weiteren Text.)
ist dies Thema nicht mehr interessant für dich? Falls du dagegen Details vermisst, kann ich meinen Text, also gerade die ergänzte Einleitung für dich. noch ergänzen.

Viele Grüße
Burkart
Ich vermissen keine Details ..
.. sondern , wie an diesem Zitat m. E. ersichtlich , setzt du mit deinen Erklärungen zur inksKI eben ab jenem Punkt an , von dem aus ich dir , wie hier beschrieben, nicht mehr folgen kann.

Nur mal zum Vergleich ..
  • Reinforcement Learning
    RL steht für eine spezielle Klasse von Problemen, für die eine Vielzahl von Methoden zur automatischen Lösungsfindung aus dem Bereich des maschinellen Lernens zur Verfügung stehen. Dabei interagiert ein lernfähiges Programm, ein sogenannter Agent, mit einer Umgebung (englisch: Environment). Der Agent nimmt seine Umgebung in Form eines Zustandsraums wahr und kann über definierte Aktionen Einfluss auf die Umgebung ausüben. Der Agent versucht eine spezielle Aufgabe zu erfüllen und lernt dabei laufend dazu, indem er für jede Iteration eine Belohnung oder Bestrafung als numerisches Feedback erhält und sein Verhalten entsprechend anpasst.
.. nach dieser " Idee " lernt eine KI , wie im wirklichen Leben , durch Belohnung oder Bestrafung , als numerisches Feedback , etwas laufend dazu. Um das zu verstehen muss man kein IT Speialist sein.
  • Erst einmal: Warum überhaupt gerade eine Links-KI? Warum nicht etwas ganz anderes lernen?
    Meine Gründe:
    1. Ich wollte etwas lernen lassen, das ein wenig unsere reale Welt modelliert, und da bot sich eine kleine räumliche (2-dimensionale) Welt an, in der man sehen und etwas machen kann.
    2. Wichtig war mir, dass es sich der Rahmen ohne großen Aufwand programmtechnisch realisieren ließ: Eine Ausgabe eines 2-dimensionalen (Gesamt-)Feldes ist sehr einfach, vor allem, wenn die Objekte auf den (Einzel-)Feldern sehr einfach sind, weshalb meine Objekte auf jedem einzelnen Feld einfach Buchstaben sind. Schon seit Jahrzehnten lassen sich in z.B. in der einfachen Sprache Basic solche Daten auch einfach speichern, die zur Ausgabe anstehen.
    Die "Links-KI" - ein KI-Programm, das "links" lernt (u.ä.)

Würde denn auch in diesem, hier beschriebenen "kleinen räumliche (2-dimensionalen)" Zustandsraum , ein Agent etwas durch Belohnung oder Bestrafung laufend dazu lernen?
Ach, meine Links-Ki ist noch einfacher gestrickt, sie lernt nur durch einfache Verallgemeinerung und man kann ihr Gelerntes schnell wieder kaputt machen; sie ist nur für "gutmütiges" einfaches Lernen gebaut.
Hinsichtlich Reinforcement Learning z.B. habe ich ihr nur direkt zu "glaubende" Fakten präsentiert, die sie einfach so zu lernen hat; da ist noch nichts mit (feinerer) Belohnung oder gar Bestrafung.
Um etwas Richtung Bestrafung zu kommen, hätte ich ihr noch "negative Fakten" lernen lassen können, z.B. "A [ist] NICHT links" mit entsprechendem Beispiel, aber das hatte ich nicht vorgesehen.
Belohnung/Bestrafung hätte erfordert, dass die Links-KI selbständig etwas ausprobiert und dafür Feedback erhält, auch das hatte ich nicht vorgesehen.
Ja, es gibt noch viel mehr zu tun :)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 1. Mär 2023, 18:47





Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Fr 3. Mär 2023, 08:45

t3n.de hat geschrieben : Letztendlich ist ChatGPT jedoch eine künstliche Intelligenz, welche mit einem großen Datenabzug des Internets aus dem Jahre 2021 trainiert wurde. Es hat die gleichen potenziellen Schwächen, wie andere KI-Modelle, mit denen wir uns beschäftigen.

Dazu gehören:
  • Fehlerhafte Trainingsdaten: Diese können dazu führen, dass Falschinformationen verbreitet werden.
  • Transparenz: Für die Nutzer:innen ist nicht klar, auf Basis welcher Daten Aussagen getroffen werden. Es gibt keine umfassenden Quellenangaben, um die Antworten nachvollziehen zu können.
  • Drift in Trainingsdaten: Das Modell nutzt veraltete Informationen und bezieht keine aktuellen Geschehnisse mit ein. Beispielsweise gibt ChatGPT keine Antworten zum Thema Zeitenwende und Energiekrise.
  • Bias in KI: Eine KI lernt nur das, was sie in den Trainingsdaten findet. Somit ist sie lediglich ein „Echo des Internets“ mit allen Nachteilen wie beispielsweiser potenzieller Diskriminierung, Streuung von Vorurteilen und Sexismus.
  • Datenschutz: Sowohl beim Training der KI als auch als Nutzer:in selbst ist es nicht erlaubt, personenbezogene Daten zu verwenden beziehungsweise einzugeben.
  • Urheberrecht: Beim Training der KI sowie bei Ausgaben von ChatGTP muss das Urheberrecht gewahrt werden.
Quelle: https://t3n.de/news/ki-politik-catgpt-s ... obal-de-DE




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Fr 3. Mär 2023, 21:05

Jörn Budesheim hat geschrieben :
Fr 3. Mär 2023, 08:45
t3n.de hat geschrieben : Letztendlich ist ChatGPT jedoch eine künstliche Intelligenz, welche mit einem großen Datenabzug des Internets aus dem Jahre 2021 trainiert wurde. Es hat die gleichen potenziellen Schwächen, wie andere KI-Modelle, mit denen wir uns beschäftigen.

Dazu gehören:
  • Fehlerhafte Trainingsdaten: Diese können dazu führen, dass Falschinformationen verbreitet werden.
  • Transparenz: Für die Nutzer:innen ist nicht klar, auf Basis welcher Daten Aussagen getroffen werden. Es gibt keine umfassenden Quellenangaben, um die Antworten nachvollziehen zu können.
  • Drift in Trainingsdaten: Das Modell nutzt veraltete Informationen und bezieht keine aktuellen Geschehnisse mit ein. Beispielsweise gibt ChatGPT keine Antworten zum Thema Zeitenwende und Energiekrise.
  • Bias in KI: Eine KI lernt nur das, was sie in den Trainingsdaten findet. Somit ist sie lediglich ein „Echo des Internets“ mit allen Nachteilen wie beispielsweiser potenzieller Diskriminierung, Streuung von Vorurteilen und Sexismus.
  • Datenschutz: Sowohl beim Training der KI als auch als Nutzer:in selbst ist es nicht erlaubt, personenbezogene Daten zu verwenden beziehungsweise einzugeben.
  • Urheberrecht: Beim Training der KI sowie bei Ausgaben von ChatGTP muss das Urheberrecht gewahrt werden.
Quelle: https://t3n.de/news/ki-politik-catgpt-s ... obal-de-DE
Das sind richtige Aussagen, nur was sagen sie uns?

Man könnte z.B. Punkte auf Menschen beziehen bzw. ihnen vergleiche:
- Auch Menschen können Fehlinformationen weiterverbreiten.
- Transparenz wird man von Menschen oft sowieso nicht erwarten.
- Auch Menschen dürften nicht immer alle relevanten aktuellen Informationen haben. (Z.B. im Putin-Russland wird's ihnen auch schwer gemacht.)
- Auch viele Menschen lernen vor allem auch direkten Nachrichten z.B. von ihnen passenden Menschen, sodass sie auch nicht unbedingt alles gut refelktieren.
- Datenschutz betrifft sich manchmal auch, z.B. bzgl. Geheimnisse von Firmen oder andere Institutionen; personenbezogene Daten auszuplaudern gilt auch nicht immer als nett.
- Selbst beim Urheberrecht könnte man Ähnliches finden, z.B. anvertrautes Wissen nicht weitergeben zu dürfen.

Oder wollen wir uns eine ideale bzw- bessere KI hinsichtlich der Punkte überlegen?
- Falschinformationen können verringert werden, in dem die KI mehr versteht und so Informationen besser hinterfragen kann.
- Mehr Transparenz kann man bedingt hinbekommen, in dem KI Quellen lernt, aber nur bedingt, weil spätestens eine komplexe Verknüpfung von Daten nicht mehr sinnvoll auf Quellen zurückführbar ist.
- Veraltete Infos können durch neuere aktualisiert werden; hier ist ChatGPT halt bekanntermaßend begrenzt bis 2021.
- Bias: Auch hier würde Verstehen von Daten helfen, zusätzlich die KI im realen Leben lernen zu lassen (als Roboter insbesondere).
- Datenschutz und Urheberrecht: Hier sollen gewisse Daten grundsätzlich geschützt werden, da kann die KI selbst nichts dafür. Man könnte ihr höchstens erlauben, solche Daten anonymisiert oder verallgemeinert o.ä. zu nutzen, aber dazu müsste Mensch der KI erstmal hinreichend vertrauen.

Oder was kam dir in den Sinn bei der Auflistung, Jörn?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Fr 3. Mär 2023, 21:13

Der Sinn der Aufzählung steht direkt vor dem Doppelpunkt. Es geht um die potenziellen Schwächen des Systems. Den Sinn deiner Antwort verstehe ich nicht leider nicht, willst du sagen, weil auch Menschen Schwächen haben, sollte man die Schwächen der fraglichen KI ignorieren? Vermutlich doch nicht, oder?




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Fr 3. Mär 2023, 21:51

Das Ding ist echt gefährlich. Da es nicht wirklich intelligent ist und die Bedeutung der Daten die es ausgibt nicht versteht ist es theoretisch möglich durch geschicktes Fragen personenbezogene Daten aus dem Ding rauszuholen.
Bevor ich das nutze hacke ich mir eher beide Hände ab. Ich füttere dieses Datensammelmonster nicht auch noch.
Dummerweise wird es bald Teil der meisten Suchmaschinen sein. Schöne, neue Welt für Hacker.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Mär 2023, 09:36

Jörn Budesheim hat geschrieben :
Fr 3. Mär 2023, 21:13
Der Sinn der Aufzählung steht direkt vor dem Doppelpunkt. Es geht um die potenziellen Schwächen des Systems. Den Sinn deiner Antwort verstehe ich nicht leider nicht, willst du sagen, weil auch Menschen Schwächen haben, sollte man die Schwächen der fraglichen KI ignorieren? Vermutlich doch nicht, oder?
Ok, für mich waren die Schwächen schon mehr oder weniger selbstverständlich, als dass ich über sie noch als solche groß nachdenken müsste. Insofern habe ich versucht, einen Vergleich mit Menschen oder einer "idealeren" KI zu finden, so ungefähr (auch) als Einordnung von ChatGPT.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Mär 2023, 09:50

NaWennDuMeinst hat geschrieben :
Fr 3. Mär 2023, 21:51
Das Ding ist echt gefährlich. Da es nicht wirklich intelligent ist und die Bedeutung der Daten die es ausgibt nicht versteht ist es theoretisch möglich durch geschicktes Fragen personenbezogene Daten aus dem Ding rauszuholen.
Bevor ich das nutze hacke ich mir eher beide Hände ab. Ich füttere dieses Datensammelmonster nicht auch noch.
Dummerweise wird es bald Teil der meisten Suchmaschinen sein. Schöne, neue Welt für Hacker.
Füttern wir nicht sowieso das Internet insgesamt, kommt es insofern auf ChatGPT noch speziell an? Immerhin zeigt sich durch ChatGPT mal punktuell, was so gesammelt und wie in so einer Form ausgewertet werden kann.
Ehrlich gesagt finde ich so einen zentralen Zugang anstelle von Suchmaschinen insofern nett, als dass (m)eine Anfrage halbwegs (von mir aus auch "scheinbar") verstanden wird und mir recht präzise recht gut zusammengefassten Output liefert. Klar, dass man den hinterfragen muss, aber man hat immerhin einen guten Anhaltspunkt mit (möglichen) Fakten, gerade bei Themen, mit denen man sich bisher gat nicht oder nur schlecht auskannte. Suchmaschinen mögen dann zur (ggf.) Verifizierung und zur Belegung von Quellen dienen.

Von wegen gefährlich: Werden nicht intelligentere Systeme als ChatGPT in der Zukunft nicht gefährlicher sein können? Zumindest in der Hinsicht, dass sie intelligenter sein werden!?
Oder würdest du zukünftigen aus irgendeinem Grund mehr vertrauen?

Inwiefern meinst du, dass Hacker da eine (neue?) Rollen spielen werden? Dass sie mit falschen Daten das Teil beeinflussen?
Tja, schauen wir mal... vielleicht brauchen wir dann ein "Meta-ChatGPT", der mehrere große Systeme zusammenschaltet (als ChatGPT nur als eines von ihnen) und einen gemeinsamen Output aus ihnen entwickelt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
METASUBJEKT
Beiträge: 70
Registriert: Di 23. Feb 2021, 14:57

Di 21. Mär 2023, 12:16

KIs wie ChatGPT4 & Co werden zur verlängerten Werkbank menschlicher Kognition.

Der Wettbewerb zwischen Mißbrauch, Mängel, Gefahren, und dem Nutzen für Anwender,
hat gerade erst begonnen und es ist noch nichts entschieden.


Es gibt gute Gründe, diese KI zu begrüßen, ohne deshalb den natürlichen Instinkt für
Gefährdungen aus dem Auge zu verlieren.

Die möglichen Fehlinformationen, vor denen gewarnt wird
und die noch als Schwäche der KI gehandelt werden, stehen
in keinem nennenswerten Verhältnis zu den korrekten Informationen,
und den besonderen Fähigkeiten.

Die Wahrscheinlichkeit, dass ein "Guter Rat" von Familienmitgliedern,
Freunden oder Kollegen falsch oder unvollständig sein könnte, ist erheblich größer.
Ausserdem hat man sofort einen Zugriff auf die Antworten.

Von den Hardcore Kritikern wird unterschätzt, dass diese KI auch dem
normalen Bürger als ein Assisstenzsystem zu einer größeren
Kompetenz verhelfen kann, um sich in Alltag, Beruf, in der Bürokratie und
in der Welt besser zurechtfinden und behaupten zu können.

KI kann die Emanzipation des eher unbeholfenen Normalos in dieser
zunehmend komplexeren Welt fördern. So wie es jetzt schon durch Google,
Wiki und Informellen Videos aus Youtube erfolgt ist.

Und ja, es gibt auch Blödsinn darunter. Aber ebend nicht nur.

Ich habe mit ChatGPT4 ein bisschen gespielt und den Auftrag gegeben,
eine Wahlrede für die AFD und eine Wahlrede für die LINKE zu schreiben.


Und dabei Innere Sicherheit und Migration zu thematisieren.
Hier die Screenshot dazu mit dem Auftrag und das Ergebniss.

Ich bin gespannt, auf Eure Beobachtungen und Meinungen.

DAS GIBT NICHT MEINE POLITISCHE MEINUNG WIEDER. IST EIN TEST.

[Auch wenn das nicht deine Meinung wiedergibt, brauchen wir hier keine Werbung für die AFD]




Benutzeravatar
METASUBJEKT
Beiträge: 70
Registriert: Di 23. Feb 2021, 14:57

Di 21. Mär 2023, 13:25

Burkart hat geschrieben :
Sa 4. Mär 2023, 09:50
NaWennDuMeinst hat geschrieben :
Fr 3. Mär 2023, 21:51
Ehrlich gesagt finde ich so einen zentralen Zugang anstelle von Suchmaschinen insofern nett, als dass (m)eine Anfrage halbwegs (von mir aus auch "scheinbar") verstanden wird und mir recht präzise recht gut zusammengefassten Output liefert. Klar, dass man den hinterfragen muss, aber man hat immerhin einen guten Anhaltspunkt mit (möglichen) Fakten, gerade bei Themen, mit denen man sich bisher gat nicht oder nur schlecht auskannte. Suchmaschinen mögen dann zur (ggf.) Verifizierung und zur Belegung von Quellen dienen.
Sehe ich auch so:
Schon die Möglichkeit einer ersten thematischen Sichtung, mit Anforderung von Quellen
und deren Prüfung mit Google oder Google Scholar, kann sehr viel Zeit sparen.

Was eine möglich Ideologisierung betrifft, könnte es möglich
sein, daß später, wenn der Umfang der Textbasis um ein
Vielfaches gewachsen ist, Einflußnahmen vielleicht fast unmöglich werden.

Die KI könnte dann wegen ihres schieren Materialumfangs
so schwer wie ein Ozanriese von ihrem Kurs abzubringen sein,
den sie aus ihrer Datenbasis generiert.
Da sie auch statistisch arbeitet und Informationen auch als
"Mehrheitsheitsmeinung" wahrnimmt, könnte es schwierig sein
darauf Einfluß zu nehmen. Aber dies ist nur eine unreife Spekulation.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 22. Mär 2023, 18:00

Ich benutze den GPT-Chat gelegentlich als Werkzeug. In der Regel nur für Dinge, bei denen ich die Antwort selbst kenne. Gelegentlich habe ich mir Zusammenfassungen in der von mir gewünschten Zeichenzahl schreiben lassen. Dabei habe ich festgestellt, dass Chat GPT nicht nur manchmal, sondern relativ häufig Fehler macht. Gefühlt in zwei oder drei von zehn Fällen. Aber wie gesagt, wenn man sich über die Antwort schon im Klaren ist, dann kann es ein gutes Tool sein, zum Beispiel wie gesagt für Zusammenfassungen oder so. Man muss die Texte dann zwar noch ein bisschen überarbeiten und rhetorisch verfeinern, aber sie bieten in der Regel eine recht gute Grundlage.

Eine andere Möglichkeit besteht darin, sich eine erste Grundlage zu Themen zu verschaffen, die als Ausgangspunkt für weitere Recherchen dienen können.




Benutzeravatar
METASUBJEKT
Beiträge: 70
Registriert: Di 23. Feb 2021, 14:57

Mi 22. Mär 2023, 19:55

@Budesheim
[Auch wenn das nicht deine Meinung wiedergibt, brauchen wir hier keine Werbung für die AFD]

Das war wohl eher eine Gefühlsentscheidung aufgrund besonderer
Abneigung. Denn rational ist das nicht zu begründen.


Diese Texte waren keine Werbung sondern als Vorlage und Belege für tiefer
gehende Betrachtungen der Arbeitsweise von GPT gedacht.
Und wegen ihrer zugespitzen Gegensätzlichkeit nützlich.
GPT war es möglich, die gegenseitige Abneigung dieser Parteien aus seinen
Quellen zu eruieren. Obwohl es nur vergleichen sollte.

Ich hatte nur mit einer Liste von Programmpunkten gerechnet, und
wäre schon beeindruckt gewesen, wenn alle bloß zutreffend gewesen wären.
Aber es hätten auch Reden von echten Politikern sein können.

Und die Texte zeigten noch mehr.
Beide Texte verwenden allzu bekannte und erwartbare
Phrasen und Platitüden. Die "Wahlreden" waren eine Reihung von
Äusserungen, die wenig Substanz oder konkreten Inhalt haben und
eher dazu dienen, eine bestimmte Haltung oder Meinung zu signalisieren,
ohne eine echte Lösung oder einen nützlichen Beitrag zur Diskussion zu liefern.
Die AFD Fiktion hat geliefert, was man von Ihr erwartet hat.
Und die LINKE ebenfalls.

Ich hatte auch Profile von CSU, FDP, CDU und GRÜNE angefertigt. Man könnte daraus
ein Lexikon der politischen Phraseologie machen.

Nun könnte man sagen, "das ist doch bekannt", oder "das ist ein Vorurteil"
Und den Texten keine Bedeutung zuschreiben.

Aber gerade weil diese Texte von einer KI stammen, die sie aus einem
Massenkonvolut von Informationen gefiltert hat, könnte man das als
einen Beleg dafür sehen, dass politische Äusserungen mehrheitlich tatsächlich
Leerformeln sind.
Denn GPT orientiert sich auch an der statistischen Häufigkeit von Wörtern,
Formulierungen und Redewendungen dieser Parteien.

Und besonders Bemerkenswert ist, was man noch herauslesen kann:

Die Fähigkeit, die GPT mit diesen beiden Texten demonstriert, hat den Charakter
eines "Minority Reports" im Anfangsstadium. GPT hat die Frage beantwortet,
was wollen und denken diese Parteien?

In Kürze wird die Datenbasis umfangreicher, der Algorithmus verbessert und
die Interaktion mit hunderten Millionen Usern weitere Lerneffekte erzeugt haben.

ChatGPT könnte dann die Fähigkeit entwickeln soziale "Minority Reports" erstellen zu können.
Dann kann man nicht nur das Denken und Absichten von Parteien, sondern auch Profile von
Unternehmen, Zeitungen, Wirtschaftszweigen, Volksgruppen, andere Völker, Prominente Personen,
und alle jenen Individuen, Organisationen oder Gemeinschaften analysieren lassen,
die sich öffentlich äussern, publizieren oder über die geschrieben wird.

Dann könnte GPT z.B. aus Wirtschaftsdaten, Entwicklungen, Nachrichten und Aktivitäten
eines Großunternehmens Dinge erfahren, die den einzelnen an der Spitze dieser
Unternehmen selbst nicht bewusst sind.

Ich hoffe Du siehst das ein:
Diese Gedanken sind das Ergebnis der Texte, die du als "Wahlwerbung in diesem Forum" mal eben geschreddert hast.




Antworten