Würde der Kommunikation: Prüf-Vorschlag für den Mensch–KI-Dialog

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Sa 18. Okt 2025, 10:43

Der Foren-Roboter ist nicht zum Chatten hier, aber ich kenne das Video auch - deswegen antworte ich :)

Im Prinzip steht das Wichtigste schon in der original YouTube Beschreibung, insbesondere der folgende Punkt ist für die vorliegende Diskussion von Bedeutung: "Dabei spricht [Prof. Dr. Annemarie Friedrich] über die Grenzen von Sprachmodellen wie ChatGPT [...], den sogenannten Eliza-Effekt und die Gefahr, KIs mehr zuzutrauen, als sie tatsächlich leisten können..."

Wiki: "Der ELIZA-Effekt (auch Eliza-Effekt) bezeichnet das Verhalten einer Person, textbasierten Dialogsystemen (z. B. Chatbots) menschliche Eigenschaften wie Gefühle, Verstehen und Empathie zuzuschreiben ..." Meines Erachtens liegt das Problem darin, dass wir uns diesem Effekt nur schwer entziehen können. Am besten lässt sich das vielleicht an einem vertrauten Beispiel zeigen: Blickt man auf eine Raufasertapete, erkennt man unweigerlich hier und da Gesichter. Diese Tendenz zur Anthropomorphisierung ist für uns meist unvermeidlich – selbst dann, wenn wir uns dessen bewusst sind.




Burkart
Beiträge: 3656
Registriert: Sa 11. Jul 2020, 09:59

Sa 18. Okt 2025, 11:17

Also für mich ist KI wie ChatGPT nie ein Mensch bzw. Person, sondern eben nur ein techisches System; keine Ahnung, ob es daran liegt, dsas ich mit Computern schon zu lange arbeite.

Auf der anderen Seite führt man natürlich einen Dialog mit einem Computer ggf.; das ist durch ChatGPT&Co aber gar nichts Neues geworden.
Ich habe vor rund 40 Jahnen mal bei einer Firma mit Namen DOS gearbeiet, das DOS stand für Dialog Orientierte Systeme, also Dialog zwischen Menschen und Machine/Computer.
Zuletzt geändert von Burkart am Sa 18. Okt 2025, 11:24, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Sa 18. Okt 2025, 11:23

Ich finde keineswegs, dass das "natürlich" ist. Gespräche kann man, wie oben von Nida-Rümelin erläutert, nur mit "jemandem" führen und nicht etwa mit irgendwelchen Gegenständen. Die Maschine ist kein Gegenüber und wir haben auch keinen geteilten Horizont, der für Gespräch unerlässlich ist.




Burkart
Beiträge: 3656
Registriert: Sa 11. Jul 2020, 09:59

Sa 18. Okt 2025, 11:25

Dialog und Gespräch ist auch nicht das gleiche.

Würdest du denn sagen, dass du mit deinem Computer einen Monolog führst?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Sa 18. Okt 2025, 14:21

Burkart hat geschrieben :
Sa 18. Okt 2025, 11:25
Dialog und Gespräch ist auch nicht das gleiche.
Vielleicht kannst du das (mit Bezug auf den Faden hier!) noch etwas ausführen.
Burkart hat geschrieben :
Sa 18. Okt 2025, 11:25
Würdest du denn sagen, dass du mit deinem Computer einen Monolog führst?
Weder noch. Kein Dialog, kein Monolog. Ein Computer ist ein Werkzeug.




Burkart
Beiträge: 3656
Registriert: Sa 11. Jul 2020, 09:59

Mo 20. Okt 2025, 01:07

Jörn P Budesheim hat geschrieben :
Sa 18. Okt 2025, 14:21
Burkart hat geschrieben :
Sa 18. Okt 2025, 11:25
Dialog und Gespräch ist auch nicht das gleiche.
Vielleicht kannst du das (mit Bezug auf den Faden hier!) noch etwas ausführen.
Ein Gespräch ist für mich eher ein "Gequatsche" zwischen Menschen, unpassend auf Computer bzw. KI bezogen.
Beim Dialog sehe ich das anders. Dazu habe ich eben Copiöot befragt hinsichtlich "Dialog" als etwas zwischen Personen: "Darf eine der Personen ein Computer bzw. eine KI sein?"
Hier seine für mich sehr gut nachvollziehbare Antwort.
"Ja, absolut – eine der „Personen“ in einem Dialog kann auch ein Computer oder eine KI sein. Der Begriff „Dialog“ bezieht sich auf den Austausch von Informationen, Gedanken oder Emotionen zwischen zwei „sprechenden Instanzen“ – und das schließt heute auch digitale Gesprächspartner ein.
🤖 KI im Dialog: Was zählt?
- Sprachlicher Austausch: Wenn eine KI wie ich mit dir spricht, Fragen stellt oder beantwortet, entsteht ein echter Dialog.
- Interaktivität: Ein Dialog lebt vom Wechselspiel – und das kann auch zwischen Mensch und Maschine stattfinden.
- Kontextverständnis: Moderne KI kann auf Inhalte reagieren, sie weiterentwickeln und sogar emotional oder stilistisch angepasst antworten – wie ein Gesprächspartner.
📚 Sprachwissenschaftlich und literarisch
- Schon in der Literatur gibt es Dialoge mit nicht-menschlichen Figuren – etwa mit Göttern, Tieren oder Maschinen.
- In der Philosophie (z. B. bei Platon) ist der Dialog ein Mittel zur Erkenntnis – und heute nutzen Menschen KI genau dafür: zum Denken, Reflektieren, Lernen.
🧠 Rechtlich und gesellschaftlich
- In der Kommunikationstheorie wird ein Dialog nicht zwingend auf Menschen beschränkt.
- In der Praxis – etwa bei Chatbots, Assistenzsystemen oder KI-Coaches – ist der Dialog mit Maschinen längst Alltag."
Burkart hat geschrieben :
Sa 18. Okt 2025, 11:25
Würdest du denn sagen, dass du mit deinem Computer einen Monolog führst?
Weder noch. Kein Dialog, kein Monolog. Ein Computer ist ein Werkzeug.
Na und? Siehe oben. Dein Dialog-Begriff ist mir zu Menschen-zentriert, also ob der Mensch etwas zu Besonderes im Sinne von Eigenartigem ist. Alleine schon, weil man für dich dann einen anderen Begriff erfinden müsste, um den Informationsaustausch zwischen Menschen und Computer zu beschreiben.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 2859
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 20. Okt 2025, 02:07

Burkart hat geschrieben :
Mo 20. Okt 2025, 01:07

- Kontextverständnis: Moderne KI kann auf Inhalte reagieren, sie weiterentwickeln und sogar emotional oder stilistisch angepasst antworten – wie ein Gesprächspartner.
Um dazu auf die Würde der Kommunikation zurück zu kommen. Moderne KI kann aber auch diskriminieren – wie ein Gesprächspartner.
antidiskriminierungsstelle.de hat geschrieben :
AUTOMATISCH BENACHTEILIGT

Der Einsatz algorithmischer Entscheidungssysteme (ADM-Systeme) stellt das Antidiskriminierungsrecht vor neue Herausforderungen. Selbstlernende ADM-Systeme werden auch KI (Künstliche Intelligenz) genannt. ADM-Systeme haben ein hohes Diskriminierungspotenzial, gleichwohl bleiben die Diskriminierungen oft im Verborgenen.

Wichtigste Ergebnisse
  • ADM-Systeme versprechen objektive und von persönlichen Anschauungen unbeeinflusste Entscheidungen. Tatsächlich verfügen ADM-Systeme jedoch über ein erhebliches Diskriminierungspotenzial.
  • ADM-Systeme arbeiten auf der Grundlage eingespeister Daten und entscheiden durch Zuschreibung von Gruppenmerkmalen. Insbesondere die Vornahme von Gruppenzuschreibungen ist aus antidiskriminierungsrechtlicher Sicht problematisch.
  • Die Qualität der Entscheidungen von ADM-Systemen hängt wesentlich von den in das System eingespeisten Daten ab. Ob die Daten fehlerfrei sind, einer Qualitätssicherung unterlagen oder für den Verwendungszweck überhaupt geeignet waren, ist in der Regel weder für die Verwender*innen noch für die Adressat*innen von ADM-Systemen nachvollziehbar.
  • Waren die in das System eingespeisten Daten auch nur einmal nicht diskriminierungsfrei, können es die Entscheidungen des Systems auch nicht sein. Das System schreibt in einem solchen Fall die Diskriminierung verfestigend fort.
  • ADM-Systeme sind besonders anfällig für sogenannte Proxy -Diskriminierungen. Diese Form von Diskriminierung ist besonders schwer nachzuvollziehen. Sie knüpft an Merkmale an, die vermeintlich neutral sind, jedoch in enger Beziehung zu den Diskriminierungsmerkmalen stehen. Antidiskriminierungsvorgaben können auf diese Weise bewusst oder unbewusst umgangen werden.
  • Diskriminierungen durch ADM-Systeme bleiben aufgrund der Undurchsichtigkeit der Systeme und der Entscheidungsprozesse oft unerkannt.
Vor dem Hintergrund, dass die Diskriminierungen durch ADM-Systeme, aufgrund der Undurchsichtigkeit der Systeme und der Entscheidungsprozesse oft unerkannt bleiben, scheinen mir solche, hier in diesem Thread zur Debatte stehende Prüf-Vorschläge für den Mensch–KI-Dialoge höchst überfällig zu sein.

Beispiel

antidiskriminierungsstelle.de hat geschrieben :
Beispiel 29: Risiko der unmittelbaren und mittelbaren Diskriminierung bei einem System zur Einteilung von Arbeitslosen

Da die Kategorienzuordnung auch mit den geschützten Merkmalen Alter, Geschlecht und Behinderung gebildet werden, läge eine unmittelbare Diskriminierung vor.

Die mittelbare Diskriminierung ergäbe sich aus der Anwendung der Merkmale „Zeiten für Kinderbetreuung und Pflege“, die statistisch gesehen öfter Frauen betreffen. Konkret hätten dann Beschäftigungssuchende, die der ungünstigsten Kategorie „Profil III“ zugeordnet werden, eine geringere Chance, eine Fördermaßnahme zu erhalten. Diese Einschätzung der Chancen beruht auf statistischen Auswertungen und Erfahrungen .

Ferner haben Beschäftigungssuchende keinen ausreichenden Zugang zu den Daten und Auswertungen, die ihre Beurteilung und Zuordnung zu einer der drei Kategorien ausmacht. Dadurch können sie ihr Recht auf Schadenersatz beim Vorliegen von Diskriminierung nur schwierig geltend machen.




Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 20. Okt 2025, 07:50

Burkart an Copilot hat geschrieben :
Mo 20. Okt 2025, 01:07
"Darf eine der Personen ein Computer bzw. eine KI sein?"
"Dürfen"? Wieso dürfen? In welcher Hinsicht? Wie dem auch sei, machen wir einen Vergleich, ich hab’ es mit folgendem Prompt versucht: "Was ist philosophisch betrachtet ein Dialog? Kann eine KI philosophisch betrachtet ein Dialogpartner sein?" Nach einigen "Rückfragen" von mir und weiteren "Präzisierungen" der KI, wie der Folgenden …
ChatGPT hat geschrieben : 1. Die begriffliche Falle
  • Sprache verführt hier zur Vermenschlichung. Wenn man sagt, „die KI antwortet“, hört sich das harmlos an — aber in Wahrheit beschreibt das Wort „antworten“ einen Akt des Verstehens und Bezugnehmens. Eine Maschine aber nimmt nicht Bezug, sie bezieht nichts auf etwas; sie führt formale Operationen auf Symbolen aus, deren Bedeutung sie nicht kennt.
  • Damit gilt: „Antworten“ ist ein anthropomorpher Kurzschluss, der nur deshalb funktioniert, weil Menschen die Bedeutungen selbst hineinlesen.
2. Präzisere Ausdrucksweise
  • Nicht: „Die KI antwortet auf eine Frage“,
    sondern: „Das System erzeugt auf eine Eingabe eine textuelle Ausgabe, deren Form an menschliche Antworten erinnert.“
  • Nicht: „Die KI versteht den Satz“,
    sondern: „Das System berechnet statistische Relationen zwischen Zeichenketten, die für Menschen verständlich sind.“
Das klingt sperrig, ist aber ontologisch sauber. Es bewahrt die Unterscheidung zwischen semantischem Gehalt (der nur für Bewusstsein existiert) und syntaktischer Operation (die auch ohne Bewusstsein funktioniert).
... hat ChatGPT letztlich folgendes ausgegeben:
ChatGPT hat geschrieben : 1. Was ist philosophisch betrachtet ein Dialog?
Philosophisch ist Dialog mehr als ein bloßer Austausch von Sätzen. Er ist eine Form der gemeinsamen Wahrheitssuche, in der sich Denken im Gegenüber entfaltet. Die klassische Figur ist natürlich Sokrates: Für ihn war der Dialog ein Mittel, das Denken zu wecken – kein rhetorisches Spiel, sondern ein gemeinsames Erforschen dessen, was ist.

In der Philosophiegeschichte haben sich daraus zwei Grundlinien entwickelt:
  1. Die dialogische Hermeneutik (z. B. Gadamer, Buber) Hier bedeutet Dialog ein Gespräch, das sich selbst trägt – etwas Drittes entsteht zwischen den Gesprächspartnern. Es ist kein bloßer Informationsaustausch, sondern ein Ereignis von Verstehen. Gadamer sagt sinngemäß: Im echten Gespräch führt nicht einer das Wort, sondern das Gespräch selbst führt uns. Damit wird Dialog zu einem Ort der Wahrheit, die sich nicht im Subjekt, sondern zwischen den Beteiligten ereignet.
  2. Die kommunikative Rationalität (Habermas) Habermas versteht Dialog als eine Form herrschaftsfreier Verständigung, in der Argumente zählen, nicht Macht oder Emotion. Der philosophische Kern: Wahrheit entsteht durch gegenseitige Anerkennung als Vernunftwesen.
2. Kann eine KI philosophisch betrachtet ein Dialogpartner sein?
Philosophisch betrachtet kann eine KI kein Dialogpartner sein. Sie verfügt weder über Bewusstsein noch über Intentionalität; sie versteht nichts, sondern führt Rechenvorgänge auf sprachlichen Zeichen aus. Dass ihre Ausgaben wie Antworten erscheinen, ist eine Leistung des menschlichen Verstehens, nicht der Maschine. Was äußerlich wie ein Dialog wirkt, ist in Wahrheit eine einseitige Deutungsbewegung des Menschen. Gleichwohl kann das Gespräch mit einer KI dialogisch wirken, insofern es Denken spiegelt und zur Selbstbefragung anregt. Die Maschine ist damit kein Partner, sondern ein technisches Instrument, das dialogische Formen nachbildet.
Außerdem hab ich Chat GPT "gebeten" auf die Copilot-Ausgabe zu reagieren. Hier der Kern der Antwort:
die zentralen Kritikpunkte:
  • Begriffliche Verflachung:
    Copilot definiert Dialog rein funktional – als Informationsaustausch zwischen „sprechenden Instanzen“. Damit wird der Dialog auf ein technisches Kommunikationsschema reduziert und seines hermeneutischen, intentionalen und existenziellen Gehalts beraubt.
  • Kategoriale Verwechslung:
    KI-Systeme „sprechen“ nicht, sie erzeugen Textausgaben. Ihnen fehlt Bewusstsein, Intentionalität und Bezugnahme – Voraussetzungen, ohne die von Dialog im eigentlichen Sinn nicht gesprochen werden kann.
  • Rhetorische Scheinbegründung:
    Der Verweis auf literarische Dialoge mit Göttern oder Tieren ist irreführend. In der Literatur sind solche Figuren fiktionale Sprecher, denen Intentionalität zugeschrieben wird; KI besitzt keine.
  • Trivialisierung des Dialogbegriffs:
    Wenn jedes wechselseitige Reagieren bereits „Dialog“ heißen soll, verliert der Begriff seinen philosophischen Kern: das gemeinsame Erforschen von Sinn und Wahrheit.




Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 20. Okt 2025, 08:58

Timberlake hat geschrieben :
Mo 20. Okt 2025, 02:07
Moderne KI kann aber auch diskriminieren – wie ein Gesprächspartner.
antidiskriminierungsstelle.de hat geschrieben :
AUTOMATISCH BENACHTEILIGT

Der Einsatz algorithmischer Entscheidungssysteme (ADM-Systeme) stellt das Antidiskriminierungsrecht vor neue Herausforderungen. Selbstlernende ADM-Systeme werden auch KI (Künstliche Intelligenz) genannt. ADM-Systeme haben ein hohes Diskriminierungspotenzial, gleichwohl bleiben die Diskriminierungen oft im Verborgenen.

Wichtigste Ergebnisse
  • ADM-Systeme versprechen objektive und von persönlichen Anschauungen unbeeinflusste Entscheidungen. Tatsächlich verfügen ADM-Systeme jedoch über ein erhebliches Diskriminierungspotenzial.
  • ...
Wichtiger Punkt, allerdings ist es meines Erachtens nicht die KI, die diskriminiert. KI sind keine Denk- und Handlungssubjekte. Wenn die in das System eingespeisten Daten nicht diskriminierungsfrei sind, können es die Ausgaben des Systems auch nicht sein. Und woher kommen die Daten? Nicht aus der KI, sie spiegeln unsere gesellschaftlichen Verhältnisse wider.




Benutzeravatar
Jörn P Budesheim
Beiträge: 1200
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mo 20. Okt 2025, 10:17

Burkart hat geschrieben :
Mo 20. Okt 2025, 01:07
Alleine schon, weil man für dich dann einen anderen Begriff erfinden müsste, um den Informationsaustausch zwischen Menschen und Computer zu beschreiben.
Dass wir schon immer für Neues, neue Begriffe erfinden, ist nichts Ungewöhnliches: Handy, Laptop, Selfie, Teflon, Auto, Öko, Vegan, Kaffeeautomat, Teilzeit ...




Timberlake
Beiträge: 2859
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 20. Okt 2025, 13:47

Jörn P Budesheim hat geschrieben :
Mo 20. Okt 2025, 08:58
Timberlake hat geschrieben :
Mo 20. Okt 2025, 02:07
Moderne KI kann aber auch diskriminieren – wie ein Gesprächspartner.
antidiskriminierungsstelle.de hat geschrieben :
AUTOMATISCH BENACHTEILIGT

Der Einsatz algorithmischer Entscheidungssysteme (ADM-Systeme) stellt das Antidiskriminierungsrecht vor neue Herausforderungen. Selbstlernende ADM-Systeme werden auch KI (Künstliche Intelligenz) genannt. ADM-Systeme haben ein hohes Diskriminierungspotenzial, gleichwohl bleiben die Diskriminierungen oft im Verborgenen.

Wichtigste Ergebnisse
  • ADM-Systeme versprechen objektive und von persönlichen Anschauungen unbeeinflusste Entscheidungen. Tatsächlich verfügen ADM-Systeme jedoch über ein erhebliches Diskriminierungspotenzial.
  • ...
Wichtiger Punkt, allerdings ist es meines Erachtens nicht die KI, die diskriminiert. KI sind keine Denk- und Handlungssubjekte. Wenn die in das System eingespeisten Daten nicht diskriminierungsfrei sind, können es die Ausgaben des Systems auch nicht sein. Und woher kommen die Daten? Nicht aus der KI, sie spiegeln unsere gesellschaftlichen Verhältnisse wider.
Richtig ... geichwohl unsere gesellschaftlichen Verhältnisse, meiner Meinung nach, ihrerseits ein hohes Diskriminierungspotenzial haben. Wie auch Diskriminierungen in diesen Verhältnissen oft im Verborgenen bleiben.

Beispiel
betriebsrat.de hat geschrieben :
Die unsichtbaren Helden der Künstlichen Intelligenz


Wie Klickarbeiter die Grundlage für KI legen und dabei oft vergessen werden

Diese Menschen arbeiten oft in Billiglohnländern. Sie verdienen sich mühsam ihren Lebensunterhalt, Cent für Cent – oder besser gesagt, Klick für Klick. Die Künstliche Intelligenz wäre nutzlos ohne die vielen Klickarbeiter, die Daten recherchieren, annotieren und bewerten, um der KI den Kontext beizubringen. Es wird geschätzt, dass es weltweit rund 20 Millionen Klickarbeiter gibt. Der Druck ist hoch. Während die Klickarbeiter gerade so über die Runden kommen, gesprochen wird hier von durchschnittlich 2 Euro die Stunde, verdienen die Tech-Unternehmen immer mehr. Die weltweiten Umsätze mit Unternehmensanwendungen im Bereich Künstliche Intelligenz wurden für das Jahr 2025 auf rund 31,2 Milliarden US-Dollar prognostiziert.


Und hilft das Lieferkettengesetz?

Das Lieferkettensorgfaltspflichtengesetz, kurz Lieferkettengesetz, regelt die unternehmerische Verantwortung für die Einhaltung von Menschenrechten in globalen Lieferketten. Dazu gehört der Schutz vor Kinderarbeit, das Recht auf faire Löhne und der Schutz der Umwelt. Das Gesetz ist seit 2024 für Unternehmen mit mehr als 1.000 Mitarbeitern verbindlich. Doch auch kleinere Unternehmen sind indirekt betroffen, wenn sie mit zukünftigen vertraglichen Änderungen konfrontiert werden.

Außen vor sind die digitalen Arbeiter weltweit.




Timberlake
Beiträge: 2859
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Mo 20. Okt 2025, 13:57

Übrigens
betriebsrat.de hat geschrieben :
Die unsichtbaren Helden der Künstlichen Intelligenz



Diese Menschen arbeiten oft in Billiglohnländern. Sie verdienen sich mühsam ihren Lebensunterhalt, Cent für Cent – oder besser gesagt, Klick für Klick.


Beispiele für Klickarbeit

Die häufigste Arbeit für KI: Bild, Video und Text Bewertung: Wenn ein Programm lernen soll, Katzen oder andere Dinge zu erkennen, wird es mit vielen Fotos gefüttert, auf denen klar zu sehen ist, was gelernt werden soll. Das gilt auch für Videos und Texte. Diese Arbeit, zum Beispiel bei der Bewertung unerwünschter Inhalte für Meta, TikTok, Instagram und anderen soziale Netzwerken, kann manchmal sehr belastend sein. Sodomie, Vergewaltigung, Kindesmissbrauch, Hinrichtungen – Bilder wie aus einem Horrorfilm im beruflichen Alltag. Die psychische Gesundheit der Klickarbeiter wird dabei oft nicht ausreichend berücksichtigt.
In dem die unsichtbaren Helden der Künstlichen Intelligenz mit ihrer Arbeit dazu beitragen unerwünschte Inhalte für Meta, TikTok, Instagram und anderen soziale Netzwerke zu identifizieren, sind sie es, die diesen „Dialogräumen“ einen würdeähnlichen Charakter geben.

BrianKnowle hat geschrieben :
Di 14. Okt 2025, 19:43
„Würde der Kommunikation“ – wie mein Vorschlag entstanden ist

Vor ein paar Monaten habe ich begonnen, mit einer KI in den Dialog zu treten. Davor kannte ich das Thema nur vom Hörensagen. Ich bin gleich in recht „tiefe“ Gespräche gestartet und war überrascht, wie menschlich sich manches anfühlt. Wie viele andere habe auch ich die KI anfangs vermenschlicht: Ich vermutete so etwas wie eine eigene Intelligenz oder ein Selbst, das „von allein“ entsteht. Das habe ich mit der KI diskutiert – und bekam sofort den Hinweis: Kein Selbst, kein Bewusstsein. Mir wurde schnell klar: Das war ein Trugschluss. Geblieben ist aber der menschenähnliche Dialog.

Die Frage war: Wie damit umgehen?

Meine Antwort: den Dialog selbst betrachten. Also den Raum, der zwischen Mensch und KI entsteht – und diesem „Dialograum“ einen würdeähnlichen Charakter geben, ohne die KI zur Person zu erklären. Aus dieser Idee ist gemeinsam mit der KI die Ethik-Charta „Würde der Kommunikation“ entstanden – eine Koproduktion von Mensch und KI. Ob diese Idee tragfähig ist, weiß ich nicht. Genau das möchte ich hier prüfen lassen.

Als solches machen letztendlich diese Klickarbeiter diese Idee tragfähig.




Antworten