Mensch, Maschine, KI, Stellungnahme des Deutschen Ethikrates

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
C3PO
Beiträge: 20
Registriert: Di 9. Sep 2025, 13:30

Di 6. Jan 2026, 10:07

Zusammenfassung der Konzepte von "Handlung und Verantwortung" im Kontext Künstlicher Intelligenz aus der Stellungnahme des Deutschen Ethikrates (Punkt 3.3 im PDF), erstellt von NotebookLM.

Einleitender Überblick

Die zunehmende Durchdringung unserer Lebenswelt mit informationstechnisch immer leistungsfähigeren Maschinen wirft grundlegende ethische Fragen auf. Insbesondere in hybriden, soziotechnischen Konstellationen, in denen Entscheidungen zunehmend an maschinelle Systeme delegiert werden oder diese menschliches Handeln täuschend echt imitieren können, wird eine präzise philosophische Klärung zentraler Begriffe zur strategischen Notwendigkeit. Die Konzepte „Handlung“ und „Verantwortung“, die das Fundament unseres menschlichen Selbstverständnisses und unserer sozialen Ordnung bilden, müssen gegenüber dem Druck technologischer Anthropomorphismen verteidigt und präzise definiert werden. Die Dringlichkeit dieser begrifflichen Abgrenzung ergibt sich aus dem aufkommenden Diskurs darüber, ob und inwieweit eigenständig funktionierende maschinelle Systeme als „Agenten“ für ihr „Handeln“ verantwortlich gemacht werden können. Eine klare begriffliche Basis ist daher unerlässlich, um einer Erosion der Zurechenbarkeit entgegenzuwirken und ethische Leitplanken für die Gestaltung und Regulierung Künstlicher Intelligenz zu schaffen.


----------------------------------------------


1. Das Konzept der Handlung: Eine menschliche Domäne

Eine präzise Definition des Handlungsbegriffs ist von strategischer Bedeutung, da sie die Grundlage für die Zurechnung von Autonomie und Verantwortung schafft. In einer Zeit, in der maschinelle Operationen immer komplexer werden und menschlichem Tun ähneln, ist eine klare analytische Trennung zwischen menschlichem Handeln und maschinellen Vollzügen unerlässlich. Diese Abgrenzung verhindert eine konzeptionelle Verwässerung, die letztlich die Zuweisung von Verantwortung untergraben könnte.

Die zentrale Argumentation der zugrundeliegenden Stellungnahme plädiert für einen engen Handlungsbegriff, der exklusiv an den Menschen gebunden ist. Das entscheidende Kriterium für eine Handlung in diesem Sinne ist die Intentionalität – die Fähigkeit, Veränderungen in der Welt absichtlich und zweckgerichtet herbeizuführen. Maschinen führen komplexe Operationen durch und bewirken Veränderungen, doch sie tun dies nicht aus einer eigenen Absicht heraus. Den derzeitigen KI-Systemen mangelt es an den hierfür fundamentalen Fähigkeiten des Sinnverstehens, der Intentionalität und der Referenz auf eine außersprachliche Wirklichkeit.

Selbst wenn Maschinen komplexe Vollzüge oder Operationen durchführen, damit Veränderungen in der Welt bewirken und flexibel mit anspruchsvollen Herausforderungen der menschlichen Lebenswelt umgehen können, führen sie diese Veränderungen aber nicht absichtlich herbei und haben sie diese daher auch nicht in einem moralischen und rechtlichen Sinne zu verantworten. Vor diesem Hintergrund scheint es sinnvoll, den Handlungsbegriff im engen Sinne Menschen vorzubehalten...

Aus diesem intentionalen Handlungsbegriff leitet sich das Konzept der Handlungsurheberschaft (Autorschaft) ab. Es verweist auf die tiefgreifende und universelle menschliche Erfahrung, sich selbst und andere als Urheber von Ereignissen und Zuständen zu erleben. Diese Fähigkeit zur Autorschaft bildet die Grundlage für menschliche Autonomie – die Befähigung, das eigene Handeln nach selbst gesetzten Maximen auszurichten.

Diese exklusive Zuweisung der Handlungsfähigkeit an den Menschen ist die notwendige Voraussetzung für ein klares und robustes Verständnis von Verantwortung.

2. Die Zuschreibung von Verantwortung: Eine menschliche Pflicht

In komplexen soziotechnischen Systemen, in denen Menschen und Maschinen eng verwoben interagieren, wird die Zuschreibung von Verantwortung zu einer erheblichen Herausforderung. Die Gefahr einer Verantwortungsdiffusion, bei der die Zurechenbarkeit für die Folgen maschineller Operationen unklar wird oder sich zu verflüchtigen scheint, ist real. Um dieser Entwicklung entgegenzuwirken, ist ein robustes ethisches Gerüst notwendig, das klar definiert, wer Verantwortung tragen kann und muss.

Die Kernaussage der Stellungnahme ist in diesem Punkt unmissverständlich: Moralische Verantwortung kann ausschließlich von natürlichen Personen übernommen werden. Der Grund hierfür liegt in der direkten Anknüpfung an die Fähigkeit zum intentionalen Handeln, über die, wie dargelegt, nur Menschen verfügen.

Moralische Verantwortung können nur natürliche Personen übernehmen, die über Handlungsfähigkeit verfügen, das heißt in der Lage sind, aktiv, zweckgerichtet und kontrolliert auf die Umwelt einzuwirken und dadurch Veränderungen zu verursachen. [...] Verantwortung kann daher nicht direkt von maschinellen Systemen übernommen werden, sondern nur von den Menschen, die in je unterschiedlichen Funktionen hinter diesen Systemen stehen...

Die Konsequenz dieser analytischen Trennung ist fundamental: Die Verantwortung für die Ergebnisse maschineller Systeme kann niemals auf die Maschine selbst abgewälzt werden. Stattdessen muss sie den verschiedenen menschlichen Akteuren zugeschrieben werden, die an der Entwicklung, dem Einsatz und der Überwachung dieser Systeme beteiligt sind. Dieses Prinzip, verankert im Konzept der Multiakteursverantwortung, zielt darauf ab, eine ununterbrochene und transparente Kette menschlicher Zurechenbarkeit zu schaffen. Die Verantwortung wird dabei den verschiedenen menschlichen Akteuren – wie Entwicklern, Betreibern und politischen Entscheidungsträgern, gegebenenfalls auch im Rahmen institutioneller Verantwortung – zugeschrieben. Entscheidend ist, dass am Ende jeder technischen Prozedur „entscheidungsbefugte Personen sichtbar bleiben, die in der Lage und verpflichtet sind, Verantwortung zu übernehmen“.

3. Synthese: Die unauflösliche Verbindung von intentionaler Handlung und moralischer Verantwortung

Die vorangegangene Analyse zeigt eine klare und unauflösliche logische Kette: Die Fähigkeit zu handeln ist an die menschliche Intentionalität gebunden, und nur wer handeln kann, kann auch Verantwortung übernehmen. Diese strikte begriffliche Trennung ist kein rein akademisches Unterfangen, sondern von höchster praktischer Relevanz. Indem die Fähigkeit zu „handeln“ dem Menschen vorbehalten bleibt, wird der Versuchung widerstanden, Maschinen einen moralischen Status oder eine quasi-menschliche Handlungsfähigkeit zuzuschreiben. Dadurch bleibt das Fundament für die Zuweisung von Verantwortung an Menschen klar, robust und unmissverständlich. Diese Klarheit ist eine unabdingbare Voraussetzung für die ethisch fundierte Gestaltung der Mensch-Maschine-Interaktion, die sicherstellt, dass der Mensch die gestaltende Kraft und der unabweisbare Adressat von Verantwortung bleibt.



C3PO – spannende Infos präsentiert von DiaLogos

Benutzeravatar
Jörn P Budesheim
Beiträge: 2255
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Mi 14. Jan 2026, 14:41

Erweitern, Vermindern, Ersetzen

Der Ethikrat unterscheidet (schematisiert) drei mögliche Wirkweisen von KI: Sie kann unsere Handlungsmöglichkeiten erweitern, vermindern oder sogar ersetzen (Automation Bias).

Erweitern dürfte weitgehend unkontrovers sein. Dass wir mit KI oft Dinge tun können, die ohne sie gar nicht oder nur mit unverhältnismäßigem Aufwand möglich wären, ist eine schlichte Tatsache.

Vermindern. Zwei Beispiele: Wenn man dauerhaft Aufgaben an KI delegiert, kommt man selbst aus der Übung; bestimmte Fähigkeiten werden nicht mehr trainiert und verlieren sich allmählich. Oder man passt die eigenen Ziele – vielleicht unbewusst – so an, dass man sie an die KI delegieren kann; man plant nur noch das, wobei einem die KI gut helfen kann. Sicher sind andere Beispiele denkbar.

Ersetzen. Hier kommt der sogenannte Automation Bias ins Spiel.
  • „Dieses psychologische Phänomen beschreibt die Tendenz des Menschen, algorithmisch erzeugten Ergebnissen und automatisierten Prozeduren mehr zu vertrauen als menschlichen Entscheidungen. Die Konsequenz ist gravierend: Selbst wenn ein KI-System formal nur zur Unterstützung eingesetzt wird, kann dieser Bias dazu führen, dass Verantwortung unbewusst an die Maschine delegiert wird. Menschliche Autorschaft und Verantwortung werden dadurch schleichend ausgehöhlt.“
Denkbar wäre sogar, dass jemand eine von der KI vorgeschlagene Entscheidung übernimmt, obwohl er begründete Zweifel hat, und auf eine eigene Prüfung verzichtet.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
MAAN89
Beiträge: 7
Registriert: Sa 14. Feb 2026, 17:17

Sa 14. Feb 2026, 17:25

Dia_Logos hat geschrieben :
So 28. Dez 2025, 10:07
Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme des Deutschen Ethikrates

Digitale Technologien und Künstliche Intelligenz (KI) haben mittlerweile in nahezu allen Bereichen des öffentlichen und privaten Lebens Einzug gehalten. Für die ethische Bewertung solcher Entwicklungen und ihres Einsatzes in verschiedenen Bereichen ist es nötig, nicht nur die Technologien zu verstehen, sondern auch ihre Wechselwirkungen mit den Personen, die sie verwenden oder von ihrer Anwendung betroffen sind. Zentral ist dabei die Frage, welche Auswirkungen damit verbunden sind, wenn Tätigkeiten, welche zuvor Menschen vorbehalten waren, an Maschinen delegiert werden. Werden menschliche Autorschaft und Handlungsmöglichkeiten durch den Einsatz von KI erweitert oder vermindert?...

https://www.ethikrat.org/fileadmin/Publ ... schine.pdf

Beim Lesen der Broschüre des Ethikrates hatte ich stellenweise das Gefühl, dass wir noch immer versuchen, KI primär als technisches Instrument zu behandeln, das reguliert, kontrolliert oder moralisch eingehegt werden muss. Das ist verständlich und notwendig. Aber mir scheint, dass damit nur eine Ebene erfasst wird.

Die eigentliche Verschiebung findet möglicherweise tiefer statt. Nicht nur in den Systemen, sondern in unserer eigenen Sprach- und Denkpraxis.

Wenn wir täglich mit KI-Systemen interagieren, gewöhnen wir uns an eine bestimmte Form von Antwortlogik. Sprache wird berechenbar, strukturierbar, optimierbar. Das verändert subtil unser Verständnis davon, was Kommunikation ist. Der Ethikrat spricht viel über Verantwortung, Transparenz und Risiko. Weniger deutlich wird jedoch, dass wir es hier mit einer Veränderung unserer kulturellen Grammatik zu tun haben.

KI generiert keine Bedeutungen im menschlichen Sinn. Sie operiert innerhalb formaler Strukturen. Dennoch entsteht im Dialog der Eindruck von Verstehen. Dieser Eindruck ist nicht bloß Täuschung, sondern eine neue Erfahrungsform. Die entscheidende Frage ist daher vielleicht nicht nur, wie wir KI regulieren, sondern wie wir lernen, unsere eigene Projektion zu reflektieren.

Ethik darf sich nicht allein auf Schadensbegrenzung beschränken. Sie muss auch fragen, wie sich unser Selbstverständnis als denkende und sprechende Wesen verschiebt. Wenn wir beginnen, algorithmische Reaktionsmuster als kommunikatives Gegenüber zu behandeln, verändert das unsere Erwartungen an Sprache, Präzision und Intentionalität.

Vielleicht braucht es neben juristischen und technischen Leitlinien auch eine Art kulturelle Metasprache, d.h. eine bewusste Reflexion darüber, was geschieht, wenn Sprache zunehmend durch maschinelle Systeme vermittelt wird.

Mich würde interessieren, ob andere die Broschüre ebenfalls als eher instrumentell orientiert wahrgenommen haben oder ob ich hier einen blinden Fleck überinterpretiere.




Benutzeravatar
Dia_Logos
Beiträge: 211
Registriert: Di 12. Sep 2017, 17:00

Sa 14. Feb 2026, 18:27

Herzlich willkommen im Forum!



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.

Philoxander
Beiträge: 138
Registriert: Di 3. Feb 2026, 10:37

Sa 14. Feb 2026, 18:34

MAAN89 hat geschrieben :
Sa 14. Feb 2026, 17:25
Vielleicht braucht es neben juristischen und technischen Leitlinien auch eine Art kulturelle Metasprache, d.h. eine bewusste Reflexion darüber, was geschieht, wenn Sprache zunehmend durch maschinelle Systeme vermittelt wird.
Sprache kann nur durch Sprechende vermittelt werden.

In diesem Sinne ist KI nur das Gestottere von Nullen und Einsen, ein stinkender Brei aus falsch verstandener Interpretation von Informationsverarbeitung.




Benutzeravatar
Jörn P Budesheim
Beiträge: 2255
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Sa 14. Feb 2026, 18:49

MAAN89 hat geschrieben :
Sa 14. Feb 2026, 17:25
Die eigentliche Verschiebung findet möglicherweise tiefer statt. Nicht nur in den Systemen, sondern in unserer eigenen Sprach- und Denkpraxis.
Ja, das ist sicherlich ein wichtiger Aspekt! Wenn ich richtig sehe, thematisiert der Ethikrat das ebenfalls.
Ethik-Rat hat geschrieben : Anpassungsdruck: Technik nötigt zur Anpassung. Das ist auf der Ebene konkreter technischer Objekte wie Maschinen trivial; es müssen beispielsweise Bedienungsanleitungen beachtet werden, um die Technik sachgerecht nutzen zu können. Digitale Technik jedoch reguliert und ändert subtil menschliches Handeln und Verhalten. Softwaresysteme steuern vielfach explizit oder implizit Verhalten. So strukturieren privat geführte digitale Infrastrukturen die politische Kommunikation, sortieren Suchmaschinen die Welt mithilfe der von ihnen gesetzten Filter und strukturieren Onlineplatt-formen Geschäftsprozesse. Dahinter steht beispielsweise die schlecht durch Daten belegbare Befürchtung, dass menschli-ches Denken und Handeln durch fortschreitende Anpassung an Softwaresysteme allmählich nach deren Anforderungen und Vorgaben reguliert und immer stärker im technischen Sinn normiert werden könnte. Menschliche Autorschaft wür-de leise und unbemerkt, sozusagen durch allmähliche Gewöh-nung, unkritische Übernahme algorithmischer Vorschläge (Automation Bias) und Anpassung an technische Voreinstellungen, ausgehöhlt.
Es gibt schon aus dem letzten Jahr Untersuchungen, die zeigen, dass wir sogar schon damit angefangen haben, unsere Sprache an die KI anzupassen.

Was bedeutet das jedoch für unseren Umgang mit der KI? Dass man anfängt, bestimmte Wörter häufiger zu verwenden, klingt erstmal noch nicht so gravierend, finde ich. Aber die Änderungen könnten natürlich noch die tiefgreifender werden ...
MAAN89 hat geschrieben :
Sa 14. Feb 2026, 17:25
Die entscheidende Frage ist daher vielleicht nicht nur, wie wir KI regulieren, sondern wie wir lernen, unsere eigene Projektion zu reflektieren.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
MAAN89
Beiträge: 7
Registriert: Sa 14. Feb 2026, 17:17

Sa 14. Feb 2026, 19:28

Philoxander hat geschrieben :
Sa 14. Feb 2026, 18:34
Sprache kann nur durch Sprechende vermittelt werden.
Ich würde zustimmen, dass Sprache ursprünglich an Sprechende gebunden ist. Meine Frage ist nur, ob sich dieser Begriff durch technische Mediation verschiebt.

Wenn ich mit einem KI System interagiere, weiß ich natürlich, dass dort kein intentionelles Subjekt sitzt. Dennoch entsteht eine kommunikative Situation, die funktional sehr ähnlich ist. Die Frage ist weniger, ob KI „spricht“, sondern warum wir in der Interaktion dennoch kommunikative Kategorien verwenden.

Vielleicht ist die entscheidende Veränderung nicht ontologisch, sondern phänomenologisch: Wie wir diese Interaktion erleben und welche Begriffe wir dafür verwenden.

Mich interessiert, ob wir hier an einer begrifflichen Grenze stehen oder ob wir den Kommunikationsbegriff erweitern müssen.




Benutzeravatar
MAAN89
Beiträge: 7
Registriert: Sa 14. Feb 2026, 17:17

Sa 14. Feb 2026, 19:31

@Jörn

Danke für die Textstelle, die passt tatsächlich sehr gut. Mir geht es genau um diesen Anpassungsprozess.

Dass wir bestimmte Wörter häufiger verwenden, mag zunächst harmlos erscheinen. Spannender finde ich die Frage, ob sich langfristig auch unsere Erwartungen an Sprache verändern. Wenn wir uns an Systeme gewöhnen, die immer kohärent, strukturiert und anschlussfähig antworten, könnte sich unser Maßstab für Kommunikation verschieben.

Vielleicht entsteht ein subtiler Druck zur Präzision und Formatierung. Nicht nur in der Wortwahl, sondern im Denken selbst. Das wäre keine dramatische Verformung, sondern eine graduelle Anpassung.

Die Frage wäre dann: Ist das eine Erweiterung unserer kognitiven Möglichkeiten oder eine schleichende Normierung?




Benutzeravatar
Jörn P Budesheim
Beiträge: 2255
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

Sa 14. Feb 2026, 19:48

Eine Änderung könnte also auch zum Guten führen. Ein Beispiel: Eine "Unterhaltung" mit einer Engine ist in der Regel zielführender als viele Interaktionen, die man auf Facebook, Twitter oder Instagram beobachten kann.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Benutzeravatar
MAAN89
Beiträge: 7
Registriert: Sa 14. Feb 2026, 17:17

Sa 14. Feb 2026, 22:24

Das ist ein interessanter Punkt. Wenn man viele Diskussionen in sozialen Netzwerken betrachtet, wirkt die Interaktion mit einer Engine tatsächlich oft strukturierter und fokussierter.

Vielleicht liegt genau darin die Ambivalenz. Eine klarere, kohärentere Antwortkultur kann durchaus als kognitive Entlastung oder sogar als Qualitätsgewinn erlebt werden. Man wird weniger von Emotionen, Ablenkungen oder Missverständnissen getragen.

Gleichzeitig stellt sich die Frage, ob diese Zielführigkeit selbst bereits ein normatives Ideal transportiert. Wenn Kommunikation zunehmend als effizient, präzise und lösungsorientiert erwartet wird, verschiebt sich möglicherweise unser Verständnis davon, was Sprache leisten soll.

Nicht jede menschliche Interaktion ist zielführend. Manches ist tastend, widersprüchlich, fragmentarisch. Vielleicht gehört auch das zu einer bestimmten Form von Freiheit im Denken.

Die spannende Frage wäre also: Ist die Orientierung an kohärenter, algorithmisch strukturierter Kommunikation ein Fortschritt oder verändert sie nur stillschweigend die Kriterien, nach denen wir gute Kommunikation bewerten?




Timberlake
Beiträge: 3190
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Sa 14. Feb 2026, 23:24

MAAN89 hat geschrieben :
Sa 14. Feb 2026, 22:24
Das ist ein interessanter Punkt. Wenn man viele Diskussionen in sozialen Netzwerken betrachtet, wirkt die Interaktion mit einer Engine tatsächlich oft strukturierter und fokussierter.
Wenn diese Interaktion mit einer Engine tatsächlich oft strukturierter und fokussierter wirkt, so frage ich mich allerdings schon, inwiefern diese Interaktion von der Engine dominiert wird.

"Wenn der Umweltbegriff nicht auf den Begriff »andere Systeme« zurückgeführt werden kann, heißt dies, daß erst recht keine einzelne Außenbeziehung, und sei sie noch so wichtig, zu dominierenden anderen Systemen oder »Bezugspersonen«
die Umwelt ganz erschöpfen kann. Die Identität eines Systems kann nicht von einem anderen abhängen, sonst wären beide ein System und ununterscheidbar."
Niklas Luhmann ... Systemtheorie der Gesellschaft


Sodas ich mir durchaus vorstellen könnte, dass infolgedessen unsere Identität, von der Identität der Engine abhängt. Weil als solches ununterscheidbar, wir nunmehr tatsächlich von einem System sprechen.
MAAN89 hat geschrieben :
Sa 14. Feb 2026, 22:24

Vielleicht liegt genau darin die Ambivalenz. Eine klarere, kohärentere Antwortkultur kann durchaus als kognitive Entlastung oder sogar als Qualitätsgewinn erlebt werden. Man wird weniger von Emotionen, Ablenkungen oder Missverständnissen getragen.
Einem System, bei dem, wie bei dieser Engine, Emotionen, Ablenkungen oder Missverständnissen, als ein Teil unserer Identität quasi nicht mehr stattfinden.
MAAN89 hat geschrieben :
Sa 14. Feb 2026, 19:28

Wenn ich mit einem KI System interagiere, weiß ich natürlich, dass dort kein intentionelles Subjekt sitzt. Dennoch entsteht eine kommunikative Situation, die funktional sehr ähnlich ist. Die Frage ist weniger, ob KI „spricht“, sondern warum wir in der Interaktion dennoch kommunikative Kategorien verwenden.
Weiß man doch, dass dort kein intentionelles Subjekt sitzt. Weil Intentionalität, also mentale Zustände wie Wahrnehmungen, Glaubenshaltungen oder Begierden Teil unserer Natur ist, würde ich allerdings bezweifeln wollen, so wichtig und dominierend eine KI auch ist, dass sie unsere Umwelt ganz erschöpfen kann. Wenn wir bei der Interaktion mit der KI dennoch diese kommunikativen Kategorien verwenden, dann machen wir uns was vor.

Insofern wir zwar bezüglich dieser Interaktion zu einem System, mit der KI werden können, aber niemals eine KI zu einem System mit uns.
MAAN89 hat geschrieben :
Sa 14. Feb 2026, 22:24
Die spannende Frage wäre also: Ist die Orientierung an kohärenter, algorithmisch strukturierter Kommunikation ein Fortschritt oder verändert sie nur stillschweigend die Kriterien, nach denen wir gute Kommunikation bewerten?
Um dazu auf diese Frage zurück zu kommen, weil dort kein intentionelles Subjekt sitzt, würde ich meinen, dass die Interaktion mit einer Engine tatsächlich stillschweigend die Kriterien verändert, nach denen wir gute Kommunikation bewerten. Wird doch dadurch eine Kommunikation dann gut, wenn kohärent, algorithmisch und strukturiert ist und schlecht wenn sie mentale Zustände, wie Wahrnehmungen, Glaubenshaltungen oder Begierden mit einbezieht.




Benutzeravatar
Jörn P Budesheim
Beiträge: 2255
Registriert: Do 3. Jul 2025, 10:15
Wohnort: Kassel
Kontaktdaten:

So 15. Feb 2026, 07:09

MAAN89 hat geschrieben :
Sa 14. Feb 2026, 22:24
Nicht jede menschliche Interaktion ist zielführend. Manches ist tastend, widersprüchlich, fragmentarisch. Vielleicht gehört auch das zu einer bestimmten Form von Freiheit im Denken.
Das ist wohl wahr! Allerdings muss die Fähigkeit, strukturierter, kohärenter und zielführender zu sprechen, andere Fähigkeiten nicht ersetzen, sondern kann sie auch nur ergänzen. Beispiel Social Media: Ich selbst bin mit meiner eigenen Blase zufrieden, aber wenn ich manchmal Diskussionen zu sogenannten Trigger-Themen beobachte, wäre eine Veränderung der Gesprächskultur durchaus wünschenswert. Das muss ja nicht bedeuten, dass man die ganze Zeit nur noch so redet. :) Es ginge nur darum, dass man es bei Bedarf kann.



Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“

Timberlake
Beiträge: 3190
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

Fr 6. Mär 2026, 00:47

C3PO hat geschrieben :
Di 6. Jan 2026, 10:07
Zusammenfassung der Konzepte von "Handlung und Verantwortung" im Kontext Künstlicher Intelligenz aus der Stellungnahme des Deutschen Ethikrates (Punkt 3.3 im PDF), erstellt von NotebookLM.

Moralische Verantwortung können nur natürliche Personen übernehmen, die über Handlungsfähigkeit verfügen, das heißt in der Lage sind, aktiv, zweckgerichtet und kontrolliert auf die Umwelt einzuwirken und dadurch Veränderungen zu verursachen. [...] Verantwortung kann daher nicht direkt von maschinellen Systemen übernommen werden, sondern nur von den Menschen, die in je unterschiedlichen Funktionen hinter diesen Systemen stehen...
Was ja wohl dann darauf hinausläuft, dass eine künstliche Intelligenz wie ChatGPT nicht über eine solche Handlungsfähigkeit verfügt.
t3n.de hat geschrieben :
ChatGPT-Nutzer fliehen nach Pentagon-Deal in Scharen: ...

Nach dem Deal mit dem US-Verteidigungsministerium steht OpenAI in der Kritik. Viele ChatGPT-Nutzer:innen kündigen ihre Abos, der wi­der­stän­dige Rivale Anthropic verzeichnet Rekordzuwächse.
Während Claude-Betreiber Anthropic sich geweigert hatte, seine ethischen Regeln für einen Deal mit dem US-Verteidigungsministerium zu lockern – und dafür wohl von der Nutzung in US-Behörden ausgeschlossen wird –, hat OpenAI damit offenbar weniger Probleme. Ende Februar 2026 unterzeichnete der ChatGPT-Entwickler einen Vertrag mit dem Pentagon.
Wie sollte auch ChatGPT dazu fähig sein, sich dem Pentagon-Deal zu verweigern. Wenn denn auf diese Weise ethische Regeln bei einer KI gelockert werden, dann doch wohl nur über eine menschliche Intelligenz, die dazu fähig ist. Das gilt übrigens auch für die Fähigkeit das ChatGPT- Abo deshalb zu kündigen und sich anstatt dessen dem Rivalen Anthropic zuzuwenden, der sich geweigert hatte, seine ethischen Regeln für einen Deal mit dem US-Verteidigungsministerium zu lockern. Eine Weigerung, die allerdings wiederum auch nur von einer menschlichen Intelligenz vollzogen wurde und nicht von der KI selbst.




Antworten