Kaffeestübchen

Philosophie Chat: Hier wird geplaudert über Gott und die Welt.
Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 12. Jun 2022, 16:57

Jörn Budesheim hat geschrieben :
So 12. Jun 2022, 16:17
Slavoj Žižek Hegel im verdrahteten Gehirn hat geschrieben : Den heutigen »posthumanen« Wissenschaften geht es nicht mehr um Beherrschung, sondern um Überraschung, um (kontingente, ungeplante) Emergenz. Jean-Pierre Dupuy stellt eine merkwürdige Umkehrung der traditionellen cartesianischen anthropozentrischen Arroganz fest, welche die menschliche Technik begründete, eine Umkehrung, die in der aktuellen Robotik, der Genetik, der Nanotechnologie und der Forschung in den Bereichen Künstliches Leben und Künstliche Intelligenz deutlich erkennbar ist:
Wie können wir die Tatsache erklären, dass die Naturwissenschaft zu einem derartig »riskanten« Unterfangen geworden ist, dass sie nach Ansicht führender Wissenschaftler derzeitig die größte Bedrohung für das Überleben der Menschheit darstellt? Einige Philosophen antworten auf diese Frage, dass Descartes’ Traum – »Beherrscher und Besitzer der Natur zu werden« – sich zum Schlechten gewendet habe und wir dringend zur »Beherrschung der Beherrschung« zurückkehren sollten. Sie haben nichts verstanden. Sie erkennen nicht, dass die Technik, die sich durch die »Konvergenz« aller Disziplinen an unserem Horizont abzeichnet, gerade auf Nichtbeherrschung abzielt. Der Ingenieur von morgen wird kein Zauberlehrling aus Nachlässigkeit oder Unwissenheit sein, sondern weil er es will. Er wird sich komplexe Strukturen oder Organisationen »geben« und versuchen herauszufinden, was sie vermögen, indem er ihre funktionellen Eigenschaften erforscht – ein von unten nach oben verlaufender (Bottom-up) Ansatz. Er wird mindestens ebenso sehr ein Forscher und Experimentator wie ein Realisator sein. Sein Erfolg wird sich eher daran bemessen, inwieweit er von seinen eigenen Schöpfungen überrascht wird, als an der Übereinstimmung seines Werks mit einer Liste vorgefertigter Aufgaben.
[16] Ist diese merkwürdige Tendenz zur Verwirklichung der Selbstvernichtung nicht eine seltsame und unerwartete Form dessen, was Freud den Todestrieb nannte? ...
Sollte man sich das nicht auch schon beim Bau der Atombombe gefragt haben? Vielleicht sogar bei den ersten Eisenbahnen, weil Menschen schnellere Geschwindigkeiten ja nicht aushalten würden...
Sicher kann neue Technik ein Risiko darstellen (auch nicht perfekt beherrscht zu werden), aber das eigentliche Risiko scheint mir der Mensch zu sein, aktuell vor allem Putin.

Ob ich bei der Entwicklung von KI wirklich mal überrascht werde... ich weiß nicht; überrascht wird man von sehr unerwarteten Dingen, das sehe ich hier nicht. Aber gut, für andere Menschen mag KI mal überraschend sein.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jun 2022, 18:19

Zizek spricht in dem Buch an einer Stelle von "blinder Intelligenz" statt künstlicher Intelligenz. Das trifft es etwas besser, finde ich.




Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jun 2022, 18:38

ebenda hat geschrieben : In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen, um »Körper, Gehirne und Geist« zu produzieren, und es wird sich eine riesige Kluft auftun »zwischen denen, die wissen, wie man Körper und Gehirne herstellt, und denen, die keine Ahnung davon haben […]; diejenigen, die im Zug des Fortschritts sitzen, [werden] göttliche Fähigkeiten der Schöpfung und Zerstörung erlangen, während diejenigen, die zurückbleiben, vom Aussterben bedroht sind.«[31] Die Hauptgefahr liegt daher darin, dass
sich eine kleine und privilegierte Elite optimierter Menschen bilden [wird]. Diese Übermenschen werden über unerhörte Fähigkeiten und beispiellose Kreativität verfügen, was sie in die Lage versetzen wird, viele der wichtigsten Entscheidungen auf der Welt zu treffen. […] Die meisten Menschen jedoch werden eine solche »Aufwertung« nicht erleben und folglich zu einer niederen Kaste werden, die von den Computeralgorithmen ebenso beherrscht wird wie von den neuen Übermenschen.
Eine Aufspaltung der Menschheit in biologische Kasten wird die Grundpfeiler der liberalen Ideologie zerstören.[32]
"In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen" Wenn das passiert, dann wird es wirklich ernst.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 12. Jun 2022, 20:08

Jörn Budesheim hat geschrieben :
So 12. Jun 2022, 18:19
Zizek spricht in dem Buch an einer Stelle von "blinder Intelligenz" statt künstlicher Intelligenz. Das trifft es etwas besser, finde ich.
Soll diese "blinde Intelligenz" die übliche "künstliche Intelligenz" sein? Wie ist "blind" zu verstehen, blind in welcher Hinsicht?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 12. Jun 2022, 20:21

Jörn Budesheim hat geschrieben :
So 12. Jun 2022, 18:38
ebenda hat geschrieben : In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen, um »Körper, Gehirne und Geist« zu produzieren, und es wird sich eine riesige Kluft auftun »zwischen denen, die wissen, wie man Körper und Gehirne herstellt, und denen, die keine Ahnung davon haben […]; diejenigen, die im Zug des Fortschritts sitzen, [werden] göttliche Fähigkeiten der Schöpfung und Zerstörung erlangen, während diejenigen, die zurückbleiben, vom Aussterben bedroht sind.«[31] Die Hauptgefahr liegt daher darin, dass
sich eine kleine und privilegierte Elite optimierter Menschen bilden [wird]. Diese Übermenschen werden über unerhörte Fähigkeiten und beispiellose Kreativität verfügen, was sie in die Lage versetzen wird, viele der wichtigsten Entscheidungen auf der Welt zu treffen. […] Die meisten Menschen jedoch werden eine solche »Aufwertung« nicht erleben und folglich zu einer niederen Kaste werden, die von den Computeralgorithmen ebenso beherrscht wird wie von den neuen Übermenschen.
Eine Aufspaltung der Menschheit in biologische Kasten wird die Grundpfeiler der liberalen Ideologie zerstören.[32]
"In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen" Wenn das passiert, dann wird es wirklich ernst.
Das ist eine der Ängste, auch aus Science Fiction bekannt. Für mich ist die Verbindung von Gehirn und Computertechnologie weit weg, aber das ist auch nicht meine Welt im Sinne der KI-Welt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 12. Jun 2022, 21:23

Jörn Budesheim hat geschrieben :
So 12. Jun 2022, 18:38
ebenda hat geschrieben : In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen, um »Körper, Gehirne und Geist« zu produzieren, und es wird sich eine riesige Kluft auftun »zwischen denen, die wissen, wie man Körper und Gehirne herstellt, und denen, die keine Ahnung davon haben […]; diejenigen, die im Zug des Fortschritts sitzen, [werden] göttliche Fähigkeiten der Schöpfung und Zerstörung erlangen, während diejenigen, die zurückbleiben, vom Aussterben bedroht sind.«[31] Die Hauptgefahr liegt daher darin, dass
sich eine kleine und privilegierte Elite optimierter Menschen bilden [wird]. Diese Übermenschen werden über unerhörte Fähigkeiten und beispiellose Kreativität verfügen, was sie in die Lage versetzen wird, viele der wichtigsten Entscheidungen auf der Welt zu treffen. […] Die meisten Menschen jedoch werden eine solche »Aufwertung« nicht erleben und folglich zu einer niederen Kaste werden, die von den Computeralgorithmen ebenso beherrscht wird wie von den neuen Übermenschen.
Eine Aufspaltung der Menschheit in biologische Kasten wird die Grundpfeiler der liberalen Ideologie zerstören.[32]
"In der nahen Zukunft werden die Biotechnologie und Computeralgorithmen ihre Kräfte vereinen" Wenn das passiert, dann wird es wirklich ernst.
Filmtipp an der Stelle : Gattaca.
(Wobei die Übermenschen dort durch Gentechnik entstehen, aber das Prinzip ist das Selbe. Die natürlich Gezeugten werden ausgegrenzt und leben ein Schattendasein)



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 14. Jun 2022, 13:49

derstandard.at hat geschrieben : Streit bei Google um eine KI, die ein eigenes Bewusstsein erlangt haben soll

Blake Lemoine ist der Ansicht, dass "LaMDA" den geistigen Entwicklungsstand eines Kindes erreicht hat. Nach einer Auseinandersetzung hat Google ihn beurlaubt

In den vergangenen Jahren sind gerade bei der Entwicklung im Bereich künstliche Intelligenz einige bedeutende Fortschritte erzielt worden. Neuronale Netzwerke, die auf einfacher Ebene die Funktion eines Gehirns imitieren, und die Auswertung großer Datenmengen sorgen dafür, dass KIs sich immer mehr mögliche Einsatzbereiche erschließen ...

https://www.derstandard.at/story/200013 ... obal-de-DE




Nauplios
Beiträge: 2883
Registriert: Mo 27. Mai 2019, 16:12
Kontaktdaten:

Do 16. Jun 2022, 01:25

Nebenbei ein Hinweis auf eine sehenswerte Dokumentation in 3-Sat über Uwe Tellkamp und "die Buchhändlerin" Susanne Dagen:

Der Fall Tellkamp - Streit um die Meinungsfreiheit




Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 16. Jun 2022, 21:12

Bild
Endlich: So schaffen wir die Energie Wende!




Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Do 16. Jun 2022, 21:58

Nauplios hat geschrieben :
Do 16. Jun 2022, 01:25
Nebenbei ein Hinweis auf eine sehenswerte Dokumentation in 3-Sat über Uwe Tellkamp und "die Buchhändlerin" Susanne Dagen:

Der Fall Tellkamp - Streit um die Meinungsfreiheit
Ich habe noch nicht alles gesehen, aber die ersten 30 Minuten sind sehr sehenswert.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Do 16. Jun 2022, 22:20

NaWennDuMeinst, was sagst du denn zu meiner groben Zielarchitektur, wie vor ein paar Tagen dargestellt?:
Burkart hat geschrieben :
Sa 11. Jun 2022, 09:30
NaWennDuMeinst hat geschrieben :
Sa 11. Jun 2022, 00:33
Burkart hat geschrieben :
Fr 10. Jun 2022, 21:13

Nur weil man ihnen bisher keine grundlegende Ziele als Motivationen verpasst hat.
Wie bringt man einem Computer bei Ziele und Motivationen zu haben?
Erst einmal dank dir für die konkrete, konstruktive Frage.
Und bitte jetzt nicht einfach schreiben "durch Programmierung", sondern erklären, wie man durch Programmierung erreicht, dass ein Computer eigene Ziele und Motivationen hat.
Das erfordert eine grundlegende Programm-Architektur, die nicht (nur bzw. direkt) auf Ausführung von Befehlen aufbaut, sondern auf einer eigenen Zielarchitektur ("Motivationen" ist für mich hier zumindest erst einmal gleichwertig mit "Zielen").

Klassische Architektur:
- Hole Befehl und führe ihn aus, ggf. mit Priorisierung von Befehlen (z.B. timern)

Ziel-Architektur (letztlich die klassische als Grundlage nehmend) grob bzw. als eine Idee, die auch noch dynamischer sein kann:
- Hole wichtigstes Ziel (bzw. anschaulicher auch "Zielschritt") und verfolge es, eine Priorisierung ist damit schon genannt und könnte ungefähr so aussehen:
- Prio 1: Kommunikationanfrage eines Benutzers berücksichtigen
- Prio 2: Aktuell verfolgtes Ziel weiterverfolgen durch nächsten Zielschritt
- Prio 3: Neues Ziel aus gespeicherter Zielliste holen und verfolgen
Die Zielliste ist priorisiert und hierarchisch (ein grobes Ziel mit Unterzielen)

Soweit grob; bei leerer aktueller Zielliste könnte z.B. vielleicht auf alte Ziele (Nachdenken über Vergangenheit, z.B. mit spielerischer Nachverarbeitung) zugegriffen werden oder es mag langfristige und mehr oder weniger statische Ziele geben wie - als menschliches Beispiele - "räume auf", "betreibe Sport/halte dich fit" u.ä. bzw. KI(-Roboter) vielleicht mit "baue neue Kontakte auf", "versuche Unklares zu klären" o.ä.
Grundlegend sind für mich ganz weniger zentrale, feste Ziele (wobei nicht unbedingt eindeutig ist, was beliebig fest programmiert und was schon als Ziel programmiert ist) wie "Verfolge Ziele", "baue ggf. Unterziele auf" (bei Problemen z.B.), "Lerne".
Vielleicht hast du auch noch Anmerkungen zum Rest des Postings, das war dies:
Ist zum Beispiel ein Programm, das aus Anweisungen besteht wie "mache dies, mache das" mit eigenen Zielen und Motivationen vergleichbar?
Nein bzw. nicht direkt, s.o.
Wenn ich dir jetzt sage was Du tun sollst und Du das machst, dann handelst Du doch nicht aus eigenem Antrieb, sondern weil ich es dir befehle.
Ist das das Selbe wie eigene Motivationen und Ziele zu haben?
Richtig, bei Zielen ist zu unterscheiden zwischen "befehlten" und eigenen.
"Eigene" sind die festen grundlegenden und die daraus für aktuelle Ziele abgeleiteten, "befehlte" sind welche z.B. durch Kommunikation der KI gegebene.
Und wie ist das, kannst Du die Ausführung meiner Anweisungen verweigern? Ja, oder?
Und der Computer? Kann der die Befehle die wir ihn in Form eines Programmes geben verweigern?
Jein bzw. bedingt.
Grundlegende Kommunikation kann nicht verweigert werden, sie kann z.B. auch zur Sicherheit dienen wie ein Alarmsignal. Wenn ein Mensch dich anschreit, kannst du diesen Schrei i.a. auch nicht überhören.
Ob du dann auf eine Anweisung annimmst oder verweigerst, hängt von Verschiedenem ab.
Wenn dir eine Anweisung zusagt oder zumindest nicht "gegen den Strich geht", wirst du sie oft annehmen. Sonst aber u.U. eben nicht.

Eine KI sollte gerade am Anfang natürlich Anweisungen möglich immer annehmen "als guter Diener" (was die KI sein sollte).
Wenn die KI aber einiges gelernt hat, kann sie immer mehr gegebene Anweisungen mt ihrem Gelernten abgleichen und die Anweisungen kritisch hinterfragen.
Z.B. "Wirf das Glas auf die Erde" wird sie anfangs befolgen, bis sie gelernt hat, dass ein Glas kaputt gehen kann und Menschen dies i.a. nicht wollen. Dann kann sie z.B. darauf hinweisen und nachfragen, ob sie das Glas wirklich auf die Erde werfen soll.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Stefanie
Beiträge: 7171
Registriert: Mi 19. Jul 2017, 20:09

Fr 24. Jun 2022, 20:59

Der lange Arm von Donald Trump, was zu befürchten war..

Erst das...
Und heute



Das Land, das die Fremden nicht beschützt, geht bald unter.
Goethe

Benutzeravatar
Stefanie
Beiträge: 7171
Registriert: Mi 19. Jul 2017, 20:09

Fr 24. Jun 2022, 21:31

Vor Jahren ging das Photo eines Kleides viral, weil man sich nicht auf die Farbe einigen konnte.

Dieses hier:
Download.jpeg
Download.jpeg (9.25 KiB) 6541 mal betrachtet
Die eine Hälfte sah ein weiß goldenes Kleid, die anderen ein blau schwarzes Kleid.
Einen Wissenschaftler ließ dieser Umstand keine Ruhe und fing an zu forschen.

https://t3n.de/news/dress-meme-neurowis ... source=rss
Nach zwei Jahren Forschung mit mehr als 10.000 Teilnehmer:innen entdeckte Pascal Wallisch ein klares Muster bei seinen Proband:innen: Je mehr Zeit eine Person in künstlichem Licht (das überwiegend Gelb ist) verbringt – typischerweise eine Person, die in Innenräumen oder nachts arbeitet – desto wahrscheinlicher ist es, dass diese Person das Kleid in den Farben Schwarz und Blau sieht. Das liegt daran, dass diese Person auf der Ebene der visuellen Verarbeitung unbewusst annimmt, dass das Kleid künstlich beleuchtet worden ist, und das Gehirn daher das Gelb subtrahiert und die dunkleren, bläulichen Farbtöne zurücklässt. Je mehr Zeit eine Person hingegen natürlichem Licht ausgesetzt ist – beispielsweise also jemand, der tagsüber draußen oder in der Nähe von Fenstern arbeitet – desto wahrscheinlicher ist es, dass diese Person Blau subtrahiert und das Kleid als Weiß und Gold wahrnimmt.
Unabhängig davon, welche Farben die Menschen subjektiv sehen: Das Bild scheint nie mehrdeutig zu sein, da die Menschen bewusst nur die Ergebnisse ihrer Prozesse erleben und die Ergebnisse auf den vorherigen Erfahrungen der Person mit Licht basieren. Wenn die Wahrheit ungewiss ist, löst unser Gehirn diese Ungewissheit also ohne unser Wissen auf, indem es die wahrscheinlichste Realität erschafft, die es sich auf der Grundlage unserer früheren Erfahrungen vorstellen kann.


Das Originalkleid ist übrigens blau schwarz, ich sehe immer noch Gold und Weiß.



Das Land, das die Fremden nicht beschützt, geht bald unter.
Goethe

Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 26. Jun 2022, 15:28

Wissenschaftler:innen des CERN haben jetzt herausgefunden, dass Meinungen kein Schicksal sind. Man kann sie angeblich bilden, dazu haben die Physiker und Physikerinnen das sogenannte Lektüre-Verfahren vorgeschlagen. Die Ergebnisse müssen jedoch noch in weiteren Testreihen bestätigt werden.




Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 26. Jun 2022, 21:32





Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 26. Jun 2022, 21:44

Jürgen Kaube über Robert Brandom:

"Brandom ist Philosoph. Alles findet bei ihm im großen Reich der Gründe und Begründungen statt. Weil aber immer wieder falsche Gründe angegeben werden, irrtümliche Wahrheitsbehauptungen und niederträchtige Handlungen stattfinden, bedarf dieses Reich, soll es nicht zerfallen, normativ zweier Einstellungen: der Fähigkeit zum Eingestehen des Falschen wie der Bereitschaft zur Verzeihung.

Hier kommt das Vertrauen im Titel des Buches ins Spiel. Ohne das Vertrauen darauf, dass Irrtümer, sofern sie gestanden werden, auch verziehen werden, könne keine vernünftige Welt entstehen. „Man muss“, schreibt Brandom, „eine Tradition derart rational rekonstruieren, dass sie sich als expressiv-fortschrittlich herausstellt“, die Geschichte spricht mit anderen Worten nur zu uns, wenn sie verzeihend auf das hin erinnert wird, was sich in ihr als wahr oder bejahbar zeigt. Nicht alles war vergeblich, lautet das Motto einer solchen Bemühung.'




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

So 26. Jun 2022, 22:28

Jörn Budesheim hat geschrieben :
So 26. Jun 2022, 21:32
"War Kant ein Rassist?" finde ich als Frage irgendwie unangemessen, weil Kant damit diskreditiert zu werden scheint, während die Begriff "Rassismus" erst seit gut 100 Jahren existiert und somit auch das Negative an dem Begriff, wie man es heute sieht, früher anders gesehen wurde.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Mo 27. Jun 2022, 00:43

Burkart hat geschrieben :
Do 16. Jun 2022, 22:20
NaWennDuMeinst, was sagst du denn zu meiner groben Zielarchitektur, wie vor ein paar Tagen dargestellt?:
Burkart hat geschrieben :
Sa 11. Jun 2022, 09:30
NaWennDuMeinst hat geschrieben :
Sa 11. Jun 2022, 00:33

Wie bringt man einem Computer bei Ziele und Motivationen zu haben?
Erst einmal dank dir für die konkrete, konstruktive Frage.
Und bitte jetzt nicht einfach schreiben "durch Programmierung", sondern erklären, wie man durch Programmierung erreicht, dass ein Computer eigene Ziele und Motivationen hat.
Das erfordert eine grundlegende Programm-Architektur, die nicht (nur bzw. direkt) auf Ausführung von Befehlen aufbaut, sondern auf einer eigenen Zielarchitektur ("Motivationen" ist für mich hier zumindest erst einmal gleichwertig mit "Zielen").

Klassische Architektur:
- Hole Befehl und führe ihn aus, ggf. mit Priorisierung von Befehlen (z.B. timern)

Ziel-Architektur (letztlich die klassische als Grundlage nehmend) grob bzw. als eine Idee, die auch noch dynamischer sein kann:
- Hole wichtigstes Ziel (bzw. anschaulicher auch "Zielschritt") und verfolge es, eine Priorisierung ist damit schon genannt und könnte ungefähr so aussehen:
- Prio 1: Kommunikationanfrage eines Benutzers berücksichtigen
- Prio 2: Aktuell verfolgtes Ziel weiterverfolgen durch nächsten Zielschritt
- Prio 3: Neues Ziel aus gespeicherter Zielliste holen und verfolgen
Die Zielliste ist priorisiert und hierarchisch (ein grobes Ziel mit Unterzielen)

Soweit grob; bei leerer aktueller Zielliste könnte z.B. vielleicht auf alte Ziele (Nachdenken über Vergangenheit, z.B. mit spielerischer Nachverarbeitung) zugegriffen werden oder es mag langfristige und mehr oder weniger statische Ziele geben wie - als menschliches Beispiele - "räume auf", "betreibe Sport/halte dich fit" u.ä. bzw. KI(-Roboter) vielleicht mit "baue neue Kontakte auf", "versuche Unklares zu klären" o.ä.
Grundlegend sind für mich ganz weniger zentrale, feste Ziele (wobei nicht unbedingt eindeutig ist, was beliebig fest programmiert und was schon als Ziel programmiert ist) wie "Verfolge Ziele", "baue ggf. Unterziele auf" (bei Problemen z.B.), "Lerne".
Wer legt fest was in der/den Zielliste(n) steht?
Doch der Programmierer, oder wer sonst? Die Maschine kann es ja nicht sein. Wo und wie sollte sie sich selbst Ziele herholen?
Wenn ich dir jetzt sage was Du tun sollst und Du das machst, dann handelst Du doch nicht aus eigenem Antrieb, sondern weil ich es dir befehle.
Ist das das Selbe wie eigene Motivationen und Ziele zu haben?
Richtig, bei Zielen ist zu unterscheiden zwischen "befehlten" und eigenen.
"Eigene" sind die festen grundlegenden und die daraus für aktuelle Ziele abgeleiteten, "befehlte" sind welche z.B. durch Kommunikation der KI gegebene.
Woher bekommt die Maschine die "eigenen, festen grundlegenden Ziele"?
Und wie ist das, kannst Du die Ausführung meiner Anweisungen verweigern? Ja, oder?
Und der Computer? Kann der die Befehle die wir ihn in Form eines Programmes geben verweigern?
Jein bzw. bedingt.
Grundlegende Kommunikation kann nicht verweigert werden, sie kann z.B. auch zur Sicherheit dienen wie ein Alarmsignal. Wenn ein Mensch dich anschreit, kannst du diesen Schrei i.a. auch nicht überhören.
Die Frage war nicht, ob eine Maschine oder ein Mensch etwas überhören kann (das hat überhaupt nichts mit meiner Frage zu tun), sondern ob sie sich weigern kann einen Befehl auszuführen. Und wenn sie sich weigern kann, auf welcher Basis kann sie sich weigern?
Wenn wir ihr eingeben, dass sie bestimmte Befehle verweigern kann, dann verweigert sie ja nur das was wir wollen dass sie es verweigert.
Der Witz bei der Fähigkeit zur Weigerung ist ja aber dass man auch das verweigern kann, was andere gerade nicht wollen dass man es verweigert. Das macht ja die Freiheit und Selbstbestimmtheit aus.

Ob du dann auf eine Anweisung annimmst oder verweigerst, hängt von Verschiedenem ab.
Wenn dir eine Anweisung zusagt oder zumindest nicht "gegen den Strich geht", wirst du sie oft annehmen. Sonst aber u.U. eben nicht.

Eine KI sollte gerade am Anfang natürlich Anweisungen möglich immer annehmen "als guter Diener" (was die KI sein sollte).
Wenn die KI aber einiges gelernt hat, kann sie immer mehr gegebene Anweisungen mt ihrem Gelernten abgleichen und die Anweisungen kritisch hinterfragen.
Z.B. "Wirf das Glas auf die Erde" wird sie anfangs befolgen, bis sie gelernt hat, dass ein Glas kaputt gehen kann und Menschen dies i.a. nicht wollen.
Woher weiß sie in einer solchen Situation, dass es wichtiger ist das zu befolgen was Menschen im Allgemeinen wollen und nicht dass was der Mensch vor ihr gerade will?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 27. Jun 2022, 06:16

Burkart hat geschrieben :
So 26. Jun 2022, 22:28
"War Kant ein Rassist?" finde ich als Frage irgendwie unangemessen, weil Kant damit diskreditiert zu werden scheint, während die Begriff "Rassismus" erst seit gut 100 Jahren existiert
Mit anderen Worten, du hast den Film gar nicht angeschaut.

Und hier zwei Quellen zu der Frage, seit wann der Begriff Rassismus existiert. Du kannst deine Quelle ja nachreichen. Im Allgemeinen finde ich es im Übrigen nicht falsch, wenn man solche Behauptungen wie "der Begriff Rassismus existiert erst seit gut 100 Jahren" auch belegt.
Deutschlandfunk Kultur hat geschrieben : Deutschlandfunk Kultur: Wann wurde der Rassismus denn geschaffen oder erfunden, Herr Geulen? Neuzeit, sagten Sie vorhin.

Geulen: Ja, Neuzeit. Also, eins der ersten Phänomene, wo zum ersten Mal überhaupt der Rassenbegriff auf Menschen angewandt wurde – im späten Mittelalter war es im Wesentlichen ein Begriff aus der Pferdezucht –, das war im Kontext der spanischen Reconquista, der Rückeroberung der Iberischen Halbinsel durch katholische Königtümer. Ein langer Prozess, er zog sich, er zieht sich über drei, vier Jahrhunderte. Es ging darum, ein rein katholisches Spanien wiederherzustellen und vor allen Dingen die Mauren, also die Araber, die Muslime aus Spanien zu vertreiben.

[...]

Ich würde aber sagen, dass der Rassismus, mit dem wir es heute zu tun haben, dann doch eher ein Produkt des 18. Jahrhunderts und der Aufklärung ist, der Epoche der Aufklärung. Denn hier hat er zum ersten Mal eine ganz bestimmte Funktion übernommen, die ich für sehr wichtig halte, nämlich Ungleichheit und Ungleichbehandlung vor allem zu begründen gerade im Horizont von Gleichheitsansprüchen, Konzepten einer universalen Menschheit, für die die Aufklärung ja im Wesentlichen zunächst mal bekannt ist. Der Rassenbegriff passte genau da rein, um jetzt zu sagen: Ja, es sind alles Menschen, aber sie haben interne biologische Unterschiede. Es sind verschiedene Arten von Menschen.

[...]

Christian Geulen, Historiker im Interview mit dem Deutschlandfunk
Deutschlandfunk Kultur hat geschrieben : Wenn man es aber ernst meine mit der Aufklärung von Rassismus und dem Stürzen von Denkmälern, müsse man auch solche Geistesgrößen wie den Philosophen Immanuel Kant (1724-1804) in den Blick nehmen. Er habe in seinen anthropologischen Schriften den europäischen Rassismus mitbegründet. Insofern gebe es noch einiges zu tun, sagt [der Historiker] Zeuske.




Benutzeravatar
Jörn Budesheim
Beiträge: 23276
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 27. Jun 2022, 07:19

NaWennDuMeinst hat geschrieben :
Mo 27. Jun 2022, 00:43
Woher weiß sie in einer solchen Situation, dass es wichtiger ist das zu befolgen was Menschen im Allgemeinen wollen und nicht dass was der Mensch vor ihr gerade will?
Wie sollte eine KI überhaupt "wissen", was ein Mensch ist? Und zwar so, dass dieses Wissen in einen tatsächlichen ethischen Entscheidungsprozess einfließen könnte. Das halte ich für ausgeschlossen, solange sie nicht zumindest selbst lebt und aus Fleisch und Blut ist. Sodass sie z. B. aus eigenem Erleben weiß, was Glück und Leid sind.

Das ist so ähnlich wie die Frage, ob wir jemals wissen können, wie es für die Fledermaus ist, mit Ultraschall durch die Nacht zu navigieren. Dazu hilft einfach keine Programmzeile [fühle dich wie eine Fledermaus]. Dazu muss man es selbst erfahren/erleben. Manches Wissen ist eben an diese Perspektive "der ersten Person Singular" gebunden, die es ohne entsprechendes biologisches Korrelat nicht gibt.




Antworten