Wie soll eine KI so "ähnlich" wie Kinder lernen? Dem Kind kann man sagen, dass es nicht richtig ist, die Ameisen zu quälen, denn das tut ihnen doch weh. Aber eine KI weiß nicht, was es bedeutet, dass etwas weh tut. Das weiß man nur, wenn man es auch schon mal erlebt hat. Kinder lernen Ethik nicht, indem sie programmiert werden. Denn das wäre selbst unethisch.Burkart hat geschrieben : ↑Mi 31. Dez 2025, 11:45Klar ist das nicht einfach. Aber ist es das denn für Menschen? Kindern mögen mit einer Lupe Ameisen o.ä. mit gebündleten Sonnenstrahlen bedrohen, bis man ihnen klar macht, dass das Leben ist, das man nicht einfach zerstören soll.
Ähnlich soll KI sehr viel lernen ...
Mensch, Maschine, KI, Stellungnahme des Deutschen Ethikrates
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Dass es weh tut, ist nicht nötig; es reicht zu sagen, dass Leben wertvoll ist, z.B. Ameisen.Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 11:49Wie soll eine KI so ähnlich wie Kinder lernen? Dem Kind kann man sagen, dass es nicht richtig ist, die Ameisen zu quälen, denn das tut ihnen doch weh. Aber eine KI weiß nicht, was es bedeutet, dass etwas weh tut. Das weiß man nur, wenn man es auch schon mal erlebt hat.Burkart hat geschrieben : ↑Mi 31. Dez 2025, 11:45Klar ist das nicht einfach. Aber ist es das denn für Menschen? Kindern mögen mit einer Lupe Ameisen o.ä. mit gebündleten Sonnenstrahlen bedrohen, bis man ihnen klar macht, dass das Leben ist, das man nicht einfach zerstören soll.
Ähnlich soll KI sehr viel lernen ...
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Wie kommst du darauf, dass eine KI einen Begriff davon haben könnte, dass etwas von Wert ist?
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Die NATO spricht in diesem Zusammenhang mittlerweile von "kognitiver Kriegsführung"!Jörn P Budesheim hat geschrieben : ↑So 28. Dez 2025, 22:27Könnte es nicht sein, dass Trump (und Putin, China u.a.) auch deshalb so gefährlich sind, weil sie KI und Bots als hocheffiziente Werkzeuge nutzen, um (unsere) Demokratie – etwa durch massenhafte Deepfakes, KI-gesteuerte Desinformations-Netzwerke oder psychologisches Microtargeting zur Manipulation – von innen heraus zu destabilisieren und anzugreifen?Burkart hat geschrieben : Öhm, ja, und daran ist also die heutige KI Schuld...? [...] Trump (und Putin, China u.a.)
Und: Es gibt natürlich auch Player hier im Land, die das sehr massiv tun!
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
"Für Mensch" bedeutet das für wertvoll zu halten, was er (möglichst grundlegend) wünscht.Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 11:53Wie kommst du darauf, dass eine KI einen Begriff davon haben könnte, dass etwas von Wert ist?
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Wie kommst du darauf, dass eine KI einen Begriff davon haben könnte, dass etwas einen Wert hat?
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Ok...Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 11:55Die NATO spricht in diesem Zusammenhang mittlerweile von "kognitiver Kriegsführung"!Jörn P Budesheim hat geschrieben : ↑So 28. Dez 2025, 22:27Könnte es nicht sein, dass Trump (und Putin, China u.a.) auch deshalb so gefährlich sind, weil sie KI und Bots als hocheffiziente Werkzeuge nutzen, um (unsere) Demokratie – etwa durch massenhafte Deepfakes, KI-gesteuerte Desinformations-Netzwerke oder psychologisches Microtargeting zur Manipulation – von innen heraus zu destabilisieren und anzugreifen?Burkart hat geschrieben : Öhm, ja, und daran ist also die heutige KI Schuld...? [...] Trump (und Putin, China u.a.)
Und: Es gibt natürlich auch Player hier im Land, die das sehr massiv tun!
Ja, es wird an vielen Fronten gekämpft, zuletzt vermutlich von Putin mit der Behauptung, dass seine Resisdenz von ukrainischen Drohnen angegriffen worden ist, damit Trump sich wieder sehr auf seine Seite stellt.
Und ja, leider wird auch viel im Web samt (schwacher) KI dazu missbraucht.
Arme Welt der allermeisten mehr oder weniger normalen Menschen...
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Damit meinte ich die eine, die entsprechend "für Mensch" programmiert wurde und mit einem Mensch gerade kommuniziert, z.B. dass man Ameisen nicht töten soll.Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 12:09Wie kommst du darauf, dass eine KI einen Begriff davon haben könnte, dass etwas einen Wert hat?
Was stört dich an "eine"?
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Die Frage ist doch, wie soll eine KI verstehen, was ein Wert ist?
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Sie soll einfach nur tun und gut heißen, was Mensch möchte; wenn Mensch sagt, "Leben (erhalten) ist Wert", übernimmt sie es (erstmal unreflektiert, wenn sie noch nichts Ähnliches gelernt hat).Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 12:23Die Frage ist doch, wie soll eine KI verstehen, was ein Wert ist?
Ich hoffe, du meintest "Wert" nicht schon philosophisch komplexer? Das würde das Kind u.U. auch nicht.
Es gibt eben viel zu lernen...
...und nun für mich, dass ich mich erstmal auf Silvestervorbereitungen konzentieren muss
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Das Zitat betrifft sowohl die Frage nach der Vernunft als auch die nach Werten.Ethik-Rat hat geschrieben : Menschliche Vernunft ist stets als verleiblichte Vernunft zu begreifen. Praktische Vernunft ist zudem nicht aus einer rein individualistischen Perspektive zu verstehen. Da jeder Mensch Teil einer sozialen Mitwelt und kulturellen Umgebung ist, die sich nachhaltig auf seine Sozialisation auswirken, müssen auch überindividuelle kulturelle Faktoren in die Deutung der praktischen Vernunft einbezogen werden. [Hervorhebung von mir]
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Kinder lernen zwar nicht von Anfang an philosophische Reflexionen über Werte, aber sie lernen z.B. im Spiel am eigenen Leib, was Werte de facto sind. Diese Form des Lernens ist für Wesen ohne phänomenal/intentionales Bewusstsein und daher ohne eigenen Leib (was nicht dasselbe ist wie ein Körper) außerhalb jeglicher Reichweite.
Eine KI kann weder lernen noch begreifen, was Werte sind und auch nicht was vernünftig ist. Das geht nicht, ohne eigenes Erleben.
Diesen Satz "Leben (erhalten) ist Wert" kann keine Maschine begreifen, weil die "Referenten" (Leben, Erhalten, Wert) für sie nicht in Reichweite liegen.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
jpb hat geschrieben :Könnte es nicht sein, dass Trump (und Putin, China u.a.) auch deshalb so gefährlich sind, weil sie KI und Bots als hocheffiziente Werkzeuge nutzen, um (unsere) Demokratie – etwa durch massenhafte Deepfakes, KI-gesteuerte Desinformations-Netzwerke oder psychologisches Microtargeting zur Manipulation – von innen heraus zu destabilisieren und anzugreifen?Burkart hat geschrieben : Öhm, ja, und daran ist also die heutige KI Schuld...? [...] Trump (und Putin, China u.a.)
Und: Es gibt natürlich auch Player hier im Land, die das sehr massiv tun!
In diesem Video gibt es viele Beispiele dazu, zum Beispiel was KI-gesteuertes Microtargeting ist und wie Russland versucht hat, die Wahl in den USA 2016 zu manipulieren.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Ich bin der Ansicht, dass KI auch als Roboter etwas erleben kann. Wenn sie (er) z.B. durch ein Labyrinth geht, kann sie erleben ein Ziel zu erreichen (oder ggf. auch nicht). Sie kann auch erleben zu lernen, wie man gut durch Labyrinthe geht. Der Wert ist das Vermögen des (Können des) erfolgreichen Durchquerens des Labyrinths.Jörn P Budesheim hat geschrieben : ↑Mi 31. Dez 2025, 12:47Kinder lernen zwar nicht von Anfang an philosophische Reflexionen über Werte, aber sie lernen z.B. im Spiel am eigenen Leib, was Werte de facto sind. Diese Form des Lernens ist für Wesen ohne phänomenal/intentionales Bewusstsein und daher ohne eigenen Leib (was nicht dasselbe ist wie ein Körper) außerhalb jeglicher Reichweite.
Eine KI kann weder lernen noch begreifen, was Werte sind und auch nicht was vernünftig ist. Das geht nicht, ohne eigenes Erleben.
Diesen Satz "Leben (erhalten) ist Wert" kann keine Maschine begreifen, weil die "Referenten" (Leben, Erhalten, Wert) für sie nicht in Reichweite liegen.
Das, was bei Menschen seine Gefühle sind, kann bei KI quasi das erfolgreiche Erreichen von Zielen sein (gut/schön/angenehm entspricht "erreicht").
Darauf kann die KI seine "KI-Werte" beruhen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Hallo Burkart, in deinem Labyrinth-Beispiel gibt es zwar eine funktionale Analogie für „Erfolg“, aber für echtes Erleben gibt es bei heutigen KIs keinerlei Indizien. Eine KI, die ein Ziel erreicht, „fühlt“ sich so wohl wie ein Thermostat bei 21 Grad. Derzeit deutet nichts darauf hin, dass KIs wirklich Bewusstsein haben; alles Weitere bleibt reine Spekulation.
Sollte es uns aber dennoch gelingen, fühlende Wesen zu bauen, stünden wir in einer völlig anderen Situation: Was wirklich fühlt, kann kein bloßes Werkzeug (kein Roboter) mehr sein – es wird zu einem Wesen mit eigenem moralischen Status.
Der Unterschied zwischen einem Instrument, das wir einfach nutzen können, und einem empfindungsfähigen Wesen, das wir angemessen achten müssen, lässt sich nicht aufheben. Wenn man aber von fühlenden "Roboter-Wesen" als Dienern träumt, landet man dann nicht unweigerlich beim Thema Sklaverei?
Du schreibst: „Sie soll einfach nur tun und gut heißen, was Mensch möchte“. Das Problem ist: Moral setzt Freiheit voraus. Ein programmiertes Wesen folgt Befehlen; ein moralisches Wesen folgt Einsichten. Wenn man das „Gute“ fest einprogrammiert, eliminiert man damit genau das, was Moral ausmacht – die Möglichkeit, sich frei zu entscheiden.
Zudem müssen wir bedenken, dass die Entwicklung lebender Wesen mit größter Wahrscheinlichkeit nicht einfach nach Wunsch verläuft. Wie viel Leid wir damit bei diesen Lebewesen produzieren, können wir wahrscheinlich nicht ermessen. Und welche Art von Leben wir schaffen werden, können wir nicht garantieren. Ihm dann einfach „Sei lieb“ in den Code zu schreiben, ähnelt dem Versuch, Frankenstein per Firmware zu bändigen.
Sollte es uns aber dennoch gelingen, fühlende Wesen zu bauen, stünden wir in einer völlig anderen Situation: Was wirklich fühlt, kann kein bloßes Werkzeug (kein Roboter) mehr sein – es wird zu einem Wesen mit eigenem moralischen Status.
Der Unterschied zwischen einem Instrument, das wir einfach nutzen können, und einem empfindungsfähigen Wesen, das wir angemessen achten müssen, lässt sich nicht aufheben. Wenn man aber von fühlenden "Roboter-Wesen" als Dienern träumt, landet man dann nicht unweigerlich beim Thema Sklaverei?
Du schreibst: „Sie soll einfach nur tun und gut heißen, was Mensch möchte“. Das Problem ist: Moral setzt Freiheit voraus. Ein programmiertes Wesen folgt Befehlen; ein moralisches Wesen folgt Einsichten. Wenn man das „Gute“ fest einprogrammiert, eliminiert man damit genau das, was Moral ausmacht – die Möglichkeit, sich frei zu entscheiden.
Zudem müssen wir bedenken, dass die Entwicklung lebender Wesen mit größter Wahrscheinlichkeit nicht einfach nach Wunsch verläuft. Wie viel Leid wir damit bei diesen Lebewesen produzieren, können wir wahrscheinlich nicht ermessen. Und welche Art von Leben wir schaffen werden, können wir nicht garantieren. Ihm dann einfach „Sei lieb“ in den Code zu schreiben, ähnelt dem Versuch, Frankenstein per Firmware zu bändigen.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Hallo Jörn,
erstmal ein frohes neues Jahr!
Die Frage ist, was "echtes Erleben" sein soll, ohne dass man es mit "Lebewesen" o.ä. beschreibt. Es auf "Bewusstsein" zurückzuführen führt aus meiner Sicht zu nichts, da ich ja Bewusstsein ansehe als Wahrnehmung und Verarbeitung von Umweltdaten, für KI auch machbar.
So muss man auch "Fühlen" nicht biologisch sehen und kann es auf Wahrnehmung (Sinnesverarbeitung) samt (Weiter-)Verarbeitung zurückführen.
So ist auch die Frage, was ein "empfindungsfähigen Wesen" genau ausmachen soll.
Der Unterschied zwischen Lebewesen und Roboter ist, dass wir letztere entwerfen und herstellen und sie keine biologischen Notwendigkeiten haben, also keine zwingende Bedürfnisse. Damit sind sie keine Subjekte, die man ggf. als Sklaven anzusehen hat. Sie sind nur Maschinen, die wir nach unseren Wünschen als Diener nutzen können, ohne ethische Skrupel; wenn, dann höchstens, ein tolles technisches System kaputt zu machen.
Du meintest: "Ein programmiertes Wesen folgt Befehlen; ein moralisches Wesen folgt Einsichten."
Wenn eine KI sehr umfassend lernt und daraus Schlussfolgerungen zieht, die auch auf gelernten Einsichten von Menschen beruhen ("Ameisen tötet man nicht"), kann KI auch so gelernten Einsichten folgen. Das "freie Entscheiden" besteht dann aus der für die KI richtige Schlussfolgerung; aus meiner Sicht entscheidet ein Mensch auch viel aus seinem Gelernten heraus.
Wie gesagt, da KI kein Lebewesen ist, können wir ihr auch kein entsprechendes Leid zufügen. Klar, ihr Programm-Ablauf kann z.B. in Probleme geraten (das sollte man technisch bedenken, ein anderes Thema...), aber das ist bei Computern heute ja auch mal a la (wohl eher alte) Bluescreens oder dass etwas nicht mehr richtig funktioniert - aber das würden wir ja auch nicht als Computer-Leid ansehen.
erstmal ein frohes neues Jahr!
Die Frage ist, was "echtes Erleben" sein soll, ohne dass man es mit "Lebewesen" o.ä. beschreibt. Es auf "Bewusstsein" zurückzuführen führt aus meiner Sicht zu nichts, da ich ja Bewusstsein ansehe als Wahrnehmung und Verarbeitung von Umweltdaten, für KI auch machbar.
So muss man auch "Fühlen" nicht biologisch sehen und kann es auf Wahrnehmung (Sinnesverarbeitung) samt (Weiter-)Verarbeitung zurückführen.
So ist auch die Frage, was ein "empfindungsfähigen Wesen" genau ausmachen soll.
Der Unterschied zwischen Lebewesen und Roboter ist, dass wir letztere entwerfen und herstellen und sie keine biologischen Notwendigkeiten haben, also keine zwingende Bedürfnisse. Damit sind sie keine Subjekte, die man ggf. als Sklaven anzusehen hat. Sie sind nur Maschinen, die wir nach unseren Wünschen als Diener nutzen können, ohne ethische Skrupel; wenn, dann höchstens, ein tolles technisches System kaputt zu machen.
Du meintest: "Ein programmiertes Wesen folgt Befehlen; ein moralisches Wesen folgt Einsichten."
Wenn eine KI sehr umfassend lernt und daraus Schlussfolgerungen zieht, die auch auf gelernten Einsichten von Menschen beruhen ("Ameisen tötet man nicht"), kann KI auch so gelernten Einsichten folgen. Das "freie Entscheiden" besteht dann aus der für die KI richtige Schlussfolgerung; aus meiner Sicht entscheidet ein Mensch auch viel aus seinem Gelernten heraus.
Wie gesagt, da KI kein Lebewesen ist, können wir ihr auch kein entsprechendes Leid zufügen. Klar, ihr Programm-Ablauf kann z.B. in Probleme geraten (das sollte man technisch bedenken, ein anderes Thema...), aber das ist bei Computern heute ja auch mal a la (wohl eher alte) Bluescreens oder dass etwas nicht mehr richtig funktioniert - aber das würden wir ja auch nicht als Computer-Leid ansehen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Wenn du den Zusammenhang zwischen Erleben und Leben nicht siehst, kann ich zu all dem nichts mehr sagen. Man kann Begriffe nicht einfach nach Belieben definieren. Leben bedeutet nicht nichtleben.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Sprachlich ist der Zusammenhang ja unübersehbar.Jörn P Budesheim hat geschrieben : ↑Do 1. Jan 2026, 11:31Wenn du den Zusammenhang zwischen Erleben und Leben nicht siehst, kann ich zu all dem nichts mehr sagen. Man kann Begriffe nicht einfach nach Belieben definieren. Leben bedeutet nicht nichtleben.
"Erleben" ist für mich das Sein und Mitbekommen in der physischen Welt (und "fühlen" u.a. für Menschen bzw. "abgleichen", "bewerten" u.ä. für KI); wenn du natürlich Leben voraussetzt, macht ein Vergleich Mensch-Maschine keinen Sinn (eine Maschine ist eben nicht lebendig).
Ich versuche Begriffe möglich neutral (z.B. funktional) zu definieren, aber natürlich nicht nach Belieben.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
- Jörn P Budesheim
- Beiträge: 2270
- Registriert: Do 3. Jul 2025, 10:15
- Wohnort: Kassel
- Kontaktdaten:
Wie gesagt, du kannst die Bedeutung von Wörtern nicht einfach nach Belieben festlegen.
Das Thema interessiert dich? Was meinst du dazu? Wir freuen uns auf deine Meinung – melde dich an und diskutiere mit uns.“
Wieso nach Belieben? Belieben wäre, wenn ich einen Apfel eine Banane nenne o.ä., das tue ich aber nicht.Jörn P Budesheim hat geschrieben : ↑Do 1. Jan 2026, 12:57Wie gesagt, du kannst die Bedeutung von Wörtern nicht einfach nach Belieben festlegen.
Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.