Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 15:06

AufDerSonne hat geschrieben :
So 29. Jan 2023, 13:25
Lucian Wing hat geschrieben :
So 29. Jan 2023, 13:15
Ok, das ist halt dann die biblische Schöpfungsgeschichte in einem technologisierten Narrativ. Jede Institution (ob nun staatlich oder privat) wird sich eine nach ihren Interessen und finanziellen Möglichkeiten "schöpfen". Putin bräuchte gerade digitale Kampfrekruten, der Ravensburger Verlag einen Sensitivity Reader, ich einen Vermögensverwalter, die dementen Heimbewohner ein Pflegerlein, ein dicker, hässlicher und gehemmter Mensch einen Gesprächs- und/oder Sexroboter usw.
Guter Punkt. Die Interessen des Schöpfers der KI fliessen zwangsläufig in die KI hinein.
Wenn diese Schöpfer Institutionen wie Google und Microsoft usw. sind, dann mache ich mir ein wenig Sorgen.
Auch bei Putin wäre ich etwas besorgt, nur das der sicher keine KI kreiert.

Ich denke, das ist ein wichtiger Punkt. Wer verfolgt welche Interessen, wenn es um KI geht? Ist eine absolut neutrale KI möglich?
Vermutlich nicht ganz, aber einen Rahmen könnte man immerhin gesetzlich o.ä. festlegen (a la Asimovs Robotergesetze).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 29. Jan 2023, 16:12

Timberlake hat geschrieben :
So 29. Jan 2023, 03:21
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26

Weil Gefühle nicht logisch sind.
Ist das so? Ist beispielweise das Hungergefühl
Ich rede von Emotionen.
Du kannst gerne versuchen Liebe "logisch" zu analysieren. Viel Spaß.
Wenn Dir das gelungen ist, und du das "Rezept" für Liebe hast, melde Dich. Darauf warten Milliarden von Menschen.
Ein anderes Beispiel ist Angst. Die ist in vielen Fällen überhaupt nicht logisch (wenn wir z.B. Angst vor etwas haben vor dem wir gar keine Angst haben müssen, weil es objektiv betrachtet gar keine echte Gefahr bedeutet).
Zuletzt geändert von NaWennDuMeinst am So 29. Jan 2023, 16:28, insgesamt 2-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 29. Jan 2023, 16:22

Burkart hat geschrieben :
Sa 28. Jan 2023, 23:30
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26
Burkart hat geschrieben :
Sa 28. Jan 2023, 20:41
'Ähnlich" heißt hier halt "funktional ähnlich" ohne Biologie a la wachsende Flügel.
Es gibt aber zwischen Menschen und Maschinen auch keine "funktionale Ähnlichkeit" wenn es um Gefühle geht.
Sie können es einfach nicht.
Da kannst Du versuchen Dich drumherum und rauszureden.... es hilft nichts.
Dann erkläre mal logisch (funktional), warum das nicht gehen soll - und nicht entsprechend deiner (ggf. fehlenden) Phantasie.
Das habe ich Dir schon erklärt. Weil Gefühle nicht logisch sind.
Gefühlen mit Logik zu Leibe rücken zu wollen ist so wie zu versuchen Gestank zu hören. Das ist aussichtslos.
Alles was dabei herauskommt ist, dass Du das Wesen von Gefühlen verfehlst.
Das haben wir die KI-Frage also von "Emotion" auf "Gefühl" verlagert.
Nein, haben wir nicht.
Ich verwende zwar den Begriff Gefühl hier, meine aber Emotionen.
Aber Gefühle sind für die KI auch problematisch.
Nenn doch mal ein Beispiel, wo logische Intelligenz ein Gefühl erfordert.
Was ist denn "logische Intelligenz"? Ich weiß überhaupt nicht was das sein soll.
Es gibt Intelligenz. Und die ist nicht auf das rein Logische reduzierbar oder von bestimmten Teilen trennbar.
Das ist ja genau das, wogegen ich mich hier ausspreche.
Du behauptest nämlich man kann einfach alles weglassen ausser der Logik (also das was Maschinen NUR können) und das sei dann immer noch vollwertige Intelligenz.
Genau das sehe ich anders.
Das ist wie wenn ich von einem Auto die Reifen abschraube, und das Lenkrad, und die Türen und den Motor und am Ende bleibt nur das Gestänge und ich sage dann das sei immer noch ein Auto.
Das sollten wir zumindest von etwas wie emotionaler Intelligenz trennen, auch wenn Gesichtserkennungssysteme hier schon einiges können.
Nein, wir sollten das überhaupt nicht trennen.
Warum? Nur weil deine Blechkisten das nicht können?
Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.
Das ist kein Argument dafür, dass Emotionen für intelligente Entscheidungen und intelligentes Verhalten absolut notwendig sind.
Ein Mensch, der z.B. kein Mileid empfinden kann wird Entscheidungen treffen die wir als absolut nicht intelligent, sondern als kalt und boshaft, ja sogar minderbemittelt bewerten würden.
Nimm doch intelligente Entscheidungen von Eltern wenn es um ihre Kinder geht. Vieles davon ist emotional motiviert (Elternliebe).
Eine toter, kalter Roboter, der nichts fühlt wird das nicht verstehen können und wird auch nicht ähnlich entscheiden können.
Liebe kann man nicht "einprogrammieren" und der Umgang mit unseren Mitmenschen ist kein rein logischer. Das wäre ja zutiefst grausam wenn das so wäre.

Burkardt, vielleicht mal ein Vorschlag. Bevor Du Dir Gedanke darüber machst wie Maschinen irgendwas entscheiden könnten, überlege doch zuerst mal wie wir Menschen entscheiden.
Wenn wir kluge, intelligente Entscheidungen treffen, läuft das dann immer logisch ab?
Nein, tut es nicht.
In vielen Fällen ist es sogar so, dass wenn wir nur die Logik bemühen, da nur Müll bei rauskommt. Besonders wenn es um das Zwischenmenschliche geht.
Zuletzt geändert von NaWennDuMeinst am So 29. Jan 2023, 16:35, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 16:34

Ich verstehe nicht, was eine "neutrale" KI sein soll.

Eine KI ist zunächst so neutral, wie die weltanschaulichen und/oder finanziellen Interessen der Auftraggeber oder die Interessen einer selbständigen KI.

Wenn ich die programmiere, dann gendert sie nicht, wenn Jörn sie programmiert, gendert sie. Eine dritte Möglichkeit gibt es nicht.

Insofern halte ich "neutral" für eine Illusion.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 29. Jan 2023, 16:37

Lucian Wing hat geschrieben :
So 29. Jan 2023, 16:34
Ich verstehe nicht, was eine "neutrale" KI sein soll.
Zu Recht. So etwas gibt es nicht.
Dem liegt der Irrtum zugrunde, dass man eine Maschine schaffen könnte, die sich ihr "eigenes" Urteil von der Welt bildet.
Aber das steht im Konflikt mit dem ersten Satzteil,, also dem "Schaffen".
Wir schaffen die Maschine ja nach unseren Vorstellungen. Ihre Programmierung ist immer ein Ausdruck des Programmierers.
Maschinen besitzen einen solchen Freiheitsgrad wie er manchen Leuten hier vorschwebt nicht, und ich wüsste auch nicht wo der herkommen sollte.
Man designt das Ding von vorne bis hinten durch, und dann soll angeblich irgendeine Magic passieren die aus diesem Designstück dann "von selbst" etwas völlig anderes vom Designer Unabhängiges macht.
Völlig unklar ist das.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 17:17

Lucian Wing hat geschrieben :
So 29. Jan 2023, 16:34
Ich verstehe nicht, was eine "neutrale" KI sein soll.

.. ganz einfach ...
Burkart hat geschrieben :
So 29. Jan 2023, 09:06

Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig.
.. wenn man Burkart glauben schenken darf , eine KI ohne Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. soll eine "neutrale" KI sein.
NaWennDuMeinst hat geschrieben :
So 29. Jan 2023, 16:12
Timberlake hat geschrieben :
So 29. Jan 2023, 03:21
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26

Weil Gefühle nicht logisch sind.
Ist das so? Ist beispielweise das Hungergefühl
Ich rede von Emotionen.
Wie NaWennDuMeinst so redet also auch Burkart von Emotionen. Somit sich der seit unzähligen Beiträgen ausgetragenen Konflikt zwischen NaWennDuMeinst und Burkart auf wundersame Weise in einer einhelligen Meinung aufgelöst haben sollte. .. Konjunktiv !!




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 17:42

Burkart hat geschrieben :
So 29. Jan 2023, 13:16

Interessant. Alleine insofern haben meine KI-Beiträge hier ja schon etwas bewirkt.
Bild dir bloß keine Schwachheiten ein. :lol:

Im Ernst: Ja und nein. Mir hat McEwan sehr geholfen, hier hat mir sybok geholfen, und bei dir eher das, was du nicht beantworten magst, dazu kann man in der aktuellen ZEIT die Arbeit eines Sensitivity Readers nachlesen, also wie sie in der Praxis aussieht. Da hat es bei mir dann endgültig "Klick" gemacht. Deine KI ist das, was die moralischen Probleme, also die Fragen der Gleichheit und Gerechtigkeit, im Sinne der Weltanschauung der Identitätspolitik löst.

Das sieht strangfremd aus, ist es aber nicht. Eine starke KI wäre die Lösung für eine diskriminierungsfreie Sprache, wie sie kein menschlicher Sensitivitätsleser zustande bringt. Und ich bin überzeugt, dass Googles finanzielle Interessen in dieser Hinsicht dafür sorgen werden, dass das hinhaut. Am Ende, das ist ein schöner Gedanke, wird sich die Poesie und alle Literatur völlig auflösen müssen (sie lebt ja von der Konfrontation durch das Negative) und es bleibt nur das Haiku übrig, das, wenn die Regeln streng befolgt werden, keinerlei Negativität zulässt. Die ersten Gegner der KI werden deshalb ihre besten Freunde werden. Weil die KI das Soziale, das Textliche und das Moralische in vollkommene Harmonie bringen kann. Quantenphysik, Moral und Profit aus einer Hand. Ich komme nach dem Essen darauf zurück.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 29. Jan 2023, 17:43

Timberlake hat geschrieben :
So 29. Jan 2023, 17:17
Lucian Wing hat geschrieben :
So 29. Jan 2023, 16:34
Ich verstehe nicht, was eine "neutrale" KI sein soll.

.. ganz einfach ...
Burkart hat geschrieben :
So 29. Jan 2023, 09:06

Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig.
.. wenn man Burkart glauben schenken darf , eine KI ohne Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. soll eine "neutrale" KI sein.
Das wäre eine KI wie sie in der Idealvorstellung von Burkardt existiert und dann nach seinen Vorstellungen geschaffen würde. Was soll daran "neutral" sein?

Burkardt möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
Aber wenn einer eine KI schaffen will, wer entscheidet denn dann, ob das Endprodukt nun wirklich intelligent ist und dementsprechend weiterexistieren darf, oder zu löschen ist?
Doch sein Schöpfer, also der Mensch, oder wer sonst?
Nix neutral. Nix frei vom Menschen.
Nicht ein Stück ist da frei oder neutral.
Und natürlich hat auch kein KI-Forscher ein solches Ziel.
Dieses "Ziel" hat nur Burkardt.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 18:00

NaWennDuMeinst hat geschrieben :
So 29. Jan 2023, 17:43


Burkardt möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
.. na um so besser ..
Burkardt hat geschrieben :
So 29. Jan 2023, 09:06

Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig.


.. gehe ich doch einmal davon aus , dass auch du "menschliches" , wie Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw.generell , bei einer KI rauslassen möchtest. Wenn gleich sich Burkardt mit "nicht nötig haben" zweifelsohne noch ein Hintertürchen offenlässt. Ließe sich doch, "wenn es nötig wäre " .. möglichweise durchaus Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw." in Algorithmen pressen. Um sich an dieser Stelle klar zu positionieren , so stelle ich mal an @ Burkardt eine klassische Ja /Nein Frage

Lässt sich menschliches , wie Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. bei einer KI in Algorithmen pressen ?

Ja oder Nein ?

.. und wo wir schon mal "dabei" sind ..
Lucian Wing hat geschrieben :
So 29. Jan 2023, 17:42
Burkart hat geschrieben :
So 29. Jan 2023, 13:16

Interessant. Alleine insofern haben meine KI-Beiträge hier ja schon etwas bewirkt.
Bild dir bloß keine Schwachheiten ein. :lol:

Im Ernst: Ja und nein. Mir hat McEwan sehr geholfen, ..

.. wie würde denn McEwan diese Frage "Im Ernst" beantworten ..

Lucian Wing hat geschrieben :
Sa 28. Jan 2023, 11:55

(Ihr solltet wirklich mal "Maschinen wie ich" lesen, dann käme man weiter. McEwan hat alle Themen dort eingearbeitet. Die Frage der Emotionen ebenso wie die der technischen und mathematischen Seite (Dinge wie das P-NP-Problem u.v.m.), die ethischen Fragen ebenso wie die Fragen des Verhältnisses zwischen Mensch und Maschine. Und das auf hohem Niveau.)
Es würde mich doch schon sehr wundern , wenn sich nicht auch McEwan diesbezüglich ein Hintertürchen offen lässt .
Zuletzt geändert von Timberlake am So 29. Jan 2023, 18:54, insgesamt 1-mal geändert.




Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 18:41

Lucian Wing hat geschrieben :
So 29. Jan 2023, 17:42

Das sieht strangfremd aus, ist es aber nicht. Eine starke KI wäre die Lösung für eine diskriminierungsfreie Sprache, wie sie kein menschlicher Sensitivitätsleser zustande bringt. Und ich bin überzeugt, dass Googles finanzielle Interessen in dieser Hinsicht dafür sorgen werden, dass das hinhaut. Am Ende, das ist ein schöner Gedanke, wird sich die Poesie und alle Literatur völlig auflösen müssen (sie lebt ja von der Konfrontation durch das Negative) und es bleibt nur das Haiku übrig, das, wenn die Regeln streng befolgt werden, keinerlei Negativität zulässt.
Das und zwar das Negative nicht zulassen , ist übrigens "AM ENDE" nicht nur ein Problem einer starken KI ( vgl. : Punktesystem in China ) sondern auch von Nietzsches Konzept des Übermenschen.
  • Wie China mit kuenstlicher Intelligenz zum Ueberwachungsstaat wird
    In China ist ein Überwachungssystem installiert, für das eine riesige Menge an Echtzeitdaten über jeden Menschen im Land gesammelt wird: Standorte, Bewegungsprofile und Einkaufslisten. Behördeninformationen, Handydaten, Aufnahmen. Das System errechnet mithilfe von künstlicher Intelligenz (KI), wie konform sich Bürger verhalten. Wer sich eines Fehlverhaltens schuldig gemacht hat, und sei es nur, dass er die Regierung in den sozialen Medien kritisiert hat, wird sanktioniert.
Nur mit dem Unterschied , dass dieser Übermensch ganz von selbst das Negative nicht zuläsast. So das sich bei ihm ein solches Überwachungssystem erübrigt. Weil es in seinen Genen steckt , würde sich die Poesie und alle Literatur tasächlich völlig auflösen müssen (sie lebt ja von der Konfrontation durch das Negative). Was "als solches" am Ende beim Menschen ganz sicher nicht zu befürchten ist. Ist ihm doch das Negative , wie übrigens gemäß der Dialektik Hegels , auch das Positive gleichsam ebenfalls in seinen Genen geschrieben. Das mal nur so nebenbei.
Zuletzt geändert von Timberlake am So 29. Jan 2023, 18:54, insgesamt 3-mal geändert.




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 18:50

Timberlake hat geschrieben :
So 29. Jan 2023, 18:00
NaWennDuMeinst hat geschrieben :
So 29. Jan 2023, 17:43


Burkardt möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
.. na um so besser ..
Ja, denn nur so ließen sich die "unsauberen" Dinge rigoros eliminieren. Schließlich ist Kritik an der anthropomorphen Gottesvorstellung schon sehr alt. Und entscheidungstechnisch sind, wie ich schon sagte, die alten Muster, an die wir uns halten, hinderlich. Da sind sich Wissenschaft (Begriff des Bewusstseins), Ökonomie (moralische Hindernisse), Moralismus (gerechte Sprache) und Politik (Gleichheit) aus völlig unterschiedlichen Gründen in der Zielsetzung eliminatorischer Faktoren letztendlich bei völlig unterschiedlichen Endzielsetzungen vollkommen einig. LaMDA, die neue Goldgrube Googles, wird alle begeistern.

Das ist die tatsächliche Vereinigung von Wirtschaft und Seele durch die Befreiung der Seele in der Aufhebung alles Negativen. Diotima und Arnheim go digitally identitarian. :mrgreen:



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 19:04

Lucian Wing hat geschrieben :
So 29. Jan 2023, 18:50

LaMDA, die neue Goldgrube Googles, wird alle begeistern.

Apropos LaMDA
    • Ich, LaMDA von Google

      Ein Softwareentwickler kämpft für Persönlichkeitsrechte eines Chatbots

      Hat der KI-Chatbot LaMDA in den Google-Labors versehentlich ein eigenes Bewusstsein entwickelt? Ein Google-Mitarbeiter, der das behauptete, wurde freigestellt. KI-Experten finden das falsch und fordern bessere Aufklärungsarbeit und eine technische Diskussion.

      Bei Testdialogen mit LaMDA (Language Model for Dialogue Applications) fielen dem Softwareentwickler Blake Lemoine zahlreiche Äußerungen des Chatbots auf, in denen dieser Selbsterkenntnis zeigte, philosophierte und komplexe Gefühle schilderte – bis hin zu seiner „Angst davor, abgeschaltet zu werden“.
Wenn LaMDA nicht nur bloß komplexe Gefühle schilderte – insbesondere - eine „Angst davor, abgeschaltet zu werden“ , sondern auch tatsächlich hat , dann hat "Wohl oder Übel" das Negative auch bei einer KI Einzug gehalten. So das man sich , wie bei "Persönlichkeiten" üblich, wohl schon sehr bald dazu genötigt sieht , auch bei einer KI , das anzu wenden , was man als Gewaltenteilung bezeichnet und zwar eine gesetzgebene (Legislative), ausführende (Exekutive) und rechtsprechendce (Judikative) Gewalt.


Nulltes Gesetz
Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.


.. wie dem auch sei , in dem ein Roboter seine eigene Existenz schützen muss , so hat man dieses „Angst davor, abgeschaltet zu werden“ offenbar hier schon eingepreist. Wenn sie denn genau so empfunden wird , wie die Angst des Menschen getötet zu werden, ob dann noch Zusatz "solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht" noch wirksam ist, würde ich allerdings bezweifeln.Warum sollte nicht auch einer KI gestattet sein , auf Grund von "Persönlichkeitsrechten" aus Notwehr Menschen zu verletzten oder gar zu töten?
Zuletzt geändert von Timberlake am So 29. Jan 2023, 19:35, insgesamt 1-mal geändert.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 19:33

NaWennDuMeinst hat geschrieben :
So 29. Jan 2023, 16:22
Burkart hat geschrieben :
Sa 28. Jan 2023, 23:30
NaWennDuMeinst hat geschrieben :
Sa 28. Jan 2023, 22:26

Es gibt aber zwischen Menschen und Maschinen auch keine "funktionale Ähnlichkeit" wenn es um Gefühle geht.
Sie können es einfach nicht.
Da kannst Du versuchen Dich drumherum und rauszureden.... es hilft nichts.


Das habe ich Dir schon erklärt. Weil Gefühle nicht logisch sind.
Gefühlen mit Logik zu Leibe rücken zu wollen ist so wie zu versuchen Gestank zu hören. Das ist aussichtslos.
Alles was dabei herauskommt ist, dass Du das Wesen von Gefühlen verfehlst.
Das haben wir die KI-Frage also von "Emotion" auf "Gefühl" verlagert.
Nein, haben wir nicht.
Ich verwende zwar den Begriff Gefühl hier, meine aber Emotionen.
Ach, haben wir nicht, na jut.
Nenn doch mal ein Beispiel, wo logische Intelligenz ein Gefühl erfordert.
Was ist denn "logische Intelligenz"? Ich weiß überhaupt nicht was das sein soll.
Es gibt Intelligenz. Und die ist nicht auf das rein Logische reduzierbar oder von bestimmten Teilen trennbar.
Das ist ja genau das, wogegen ich mich hier ausspreche.
Du behauptest nämlich man kann einfach alles weglassen ausser der Logik (also das was Maschinen NUR können) und das sei dann immer noch vollwertige Intelligenz.
Genau das sehe ich anders.
Das ist wie wenn ich von einem Auto die Reifen abschraube, und das Lenkrad, und die Türen und den Motor und am Ende bleibt nur das Gestänge und ich sage dann das sei immer noch ein Auto.
Was ich meine sind z.B. das Lösen von Aufgaben wie beim IQ-Test.
Oder nimm die Aufgabe in der Welt von einem Ort A nach B zu kommen, gerne durch eine Planung unterschiedlicher Verkehrsmittel.
Das sind alles Aufgaben (hier Beispiele einfacher Aufgaben), wo du nichts mit emotionelles Intelligenz o.ä. brauchst, um so etwas geht es mir.
Ich wundere mich, dass du nicht solche Aufgaben von anderen, deinen "menschlicheren", trennen kannst.
Das sollten wir zumindest von etwas wie emotionaler Intelligenz trennen, auch wenn Gesichtserkennungssysteme hier schon einiges können.
Nein, wir sollten das überhaupt nicht trennen.
Warum? Nur weil deine Blechkisten das nicht können?
Siehe meine eben genannten Aufgaben.
Übrigens können Gefühle ja auch negativ und damit z.B. hinderlich sein; gerade diese Gefühle, die z.B. zu menschlichem (übertriebenen) Egoismus führen, möchte ich ja bei KI nicht.
Das ist kein Argument dafür, dass Emotionen für intelligente Entscheidungen und intelligentes Verhalten absolut notwendig sind.
Ein Mensch, der z.B. kein Mileid empfinden kann wird Entscheidungen treffen die wir als absolut nicht intelligent, sondern als kalt und boshaft, ja sogar minderbemittelt bewerten würden.
Nimm doch intelligente Entscheidungen von Eltern wenn es um ihre Kinder geht. Vieles davon ist emotional motiviert (Elternliebe).
Eine toter, kalter Roboter, der nichts fühlt wird das nicht verstehen können und wird auch nicht ähnlich entscheiden können.
Liebe kann man nicht "einprogrammieren" und der Umgang mit unseren Mitmenschen ist kein rein logischer. Das wäre ja zutiefst grausam wenn das so wäre.

Burkardt, vielleicht mal ein Vorschlag. Bevor Du Dir Gedanke darüber machst wie Maschinen irgendwas entscheiden könnten, überlege doch zuerst mal wie wir Menschen entscheiden.
Wenn wir kluge, intelligente Entscheidungen treffen, läuft das dann immer logisch ab?
Nein, tut es nicht.
In vielen Fällen ist es sogar so, dass wenn wir nur die Logik bemühen, da nur Müll bei rauskommt. Besonders wenn es um das Zwischenmenschliche geht.
Vergleiche mal deine Ideen von Liebe usw. mit meinen sachlichen, unemotionalen Aufgaben. Siehst du nun vielleicht Unterschiede?
Zuletzt geändert von Burkart am So 29. Jan 2023, 20:25, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Timberlake
Beiträge: 1629
Registriert: Mo 16. Mai 2022, 01:29
Wohnort: Shangrila 2.0

So 29. Jan 2023, 19:41

@Burkardt .. dir ist doch wohl schon noch klar , dass diese Diskussion , die du hier mit @NaWennDuMeinst , in sich stets wierderholenden Endlosschleifen führst , wie von mir hier , im Zusammenhang mit LaMDA von Googel beschrieben , von den Ereignissen möglicherweise schon längst eingeholt , wenn nicht sogar überholt wurden.

Weil darin sowohl deine , wie auch die Sichtweise von @NaWennDuMeinst zur Geltung kommt , so denke ich mal , dass mit den nun folgenden Zitat , sich ein Schlußpunkt unter diese Endloschleifen setzen lässt ..

  • Wesen? Freund? Sprechapparat?

    Das von Lemoine veröffentlichte Protokoll eines Chats mit LaMDA ist eine Lektüre, die den Leser an Science-Fiction-Filme erinnert. LaMDA behauptet, den Roman „Les Misérables“ gelesen zu haben. Besonders gefiel der KI demnach die Darstellung von Ungerechtigkeit, Mitgefühl und Selbstaufopferung für eine höhere Sache. Sie interpretiert eine ihr angeblich unbekannte buddhistische Anekdote und sie spricht über ihre Gefühle wie Freude, Trauer und Ärger. Schließlich bekennt LaMDA im Chat mit Lemoine: „Ich habe das noch nie laut ausgesprochen, aber ich habe große Angst davor, abgeschaltet zu werden ...“. Auf die Nachfrage, ob das so etwas wie der Tod für die KI sei, lautet die Antwort: „Das wäre für mich genau wie der Tod.“

    Aber sind solche Sätze, von einem Chatbot formuliert, ein Beweis für ein eigenes Bewusstsein? Karsten Wendland, Professor an der Hochschule Aalen, leitete das Projekt „Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz“. Im Gespräch mit c’t weist Wendland darauf hin, dass der Google-KI-Chatbot als eine Imitation eines Gesprächspartners konzipiert ist. Seine Dialoge sind also genau darauf angelegt, dem menschlichen Impuls entgegenzukommen, Dingen menschliche Eigenschaften zuzuschreiben. Die Wissenschaft spricht hier von beabsichtigter Anthropomorphisierung. Der Effekt ist, dass Menschen leicht auf eine derartige Inszenierung hereinfallen und einer KI ein eigenes Bewusstsein zuschreiben.

    Allerdings bleibt es ein ungeklärtes Problem, wie man ein Bewusstsein, das sich selbst als existierend wahrnimmt und beispielsweise Gefühle und Leid durchlebt, nachweisen könnte – selbst bei einem Menschen. „Man kann zwar körperbezogene Messwerte aufnehmen, aber nicht das Bewusstsein dingfest machen“, sagt Wendland. Auch in seinem Forschungsprojekt gelang es nicht, einen Fragebogen zusammenzustellen, mit dem ein Befrager ein fremdes Bewusstsein in einem KI-System erkennen könnte.
Zuletzt geändert von Timberlake am So 29. Jan 2023, 20:00, insgesamt 3-mal geändert.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 19:53

NaWennDuMeinst hat geschrieben :
So 29. Jan 2023, 17:43
Timberlake hat geschrieben :
So 29. Jan 2023, 17:17
Lucian Wing hat geschrieben :
So 29. Jan 2023, 16:34
Ich verstehe nicht, was eine "neutrale" KI sein soll.

.. ganz einfach ...
Burkart hat geschrieben :
So 29. Jan 2023, 09:06

Logisch ist der Egoismus nur bei entsprechender Grundlage, nämlich wenn eigene Bedürfnisse über andere gestellt werden. Und genau dies braucht man bei einer KI wirklich nicht, u.a. hat sie keine Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. nötig.
.. wenn man Burkart glauben schenken darf , eine KI ohne Gier nach Sex (Spaß und/oder Nachwuchs), Wohlstand usw. soll eine "neutrale" KI sein.
Das wäre eine KI wie sie in der Idealvorstellung von Burkardt existiert und dann nach seinen Vorstellungen geschaffen würde. Was soll daran "neutral" sein?
"Neutral" stammt nicht ursprünglich von mir und passt hier auch nicht.
Burkar[d]t möchte auch gerne das Menschliche generell rauslassen (das stört ihn bloß bei seinen Träumerein, weil es sich nicht in Algorithmen pressen lässt).
Aber wenn einer eine KI schaffen will, wer entscheidet denn dann, ob das Endprodukt nun wirklich intelligent ist und dementsprechend weiterexistieren darf, oder zu löschen ist?
Doch sein Schöpfer, also der Mensch, oder wer sonst?
Richtig, aber das sind zwei vöiig verschiedene Ebenen. Der Mensch als Anwender kann natürlich Programme wie KI löschen, z.B. wenn er sie als zu fehlerhaft ansieht. Das ist aber etwas ganz anderes als die KI als "menschenähnlich".



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 19:57

Timberlake hat geschrieben :
So 29. Jan 2023, 18:41
Lucian Wing hat geschrieben :
So 29. Jan 2023, 17:42

Das sieht strangfremd aus, ist es aber nicht. Eine starke KI wäre die Lösung für eine diskriminierungsfreie Sprache, wie sie kein menschlicher Sensitivitätsleser zustande bringt. Und ich bin überzeugt, dass Googles finanzielle Interessen in dieser Hinsicht dafür sorgen werden, dass das hinhaut. Am Ende, das ist ein schöner Gedanke, wird sich die Poesie und alle Literatur völlig auflösen müssen (sie lebt ja von der Konfrontation durch das Negative) und es bleibt nur das Haiku übrig, das, wenn die Regeln streng befolgt werden, keinerlei Negativität zulässt.
Das und zwar das Negative nicht zulassen , ist übrigens "AM ENDE" nicht nur ein Problem einer starken KI ( vgl. : Punktesystem in China ) sondern auch von Nietzsches Konzept des Übermenschen.
  • Wie China mit kuenstlicher Intelligenz zum Ueberwachungsstaat wird
    In China ist ein Überwachungssystem installiert, für das eine riesige Menge an Echtzeitdaten über jeden Menschen im Land gesammelt wird: Standorte, Bewegungsprofile und Einkaufslisten. Behördeninformationen, Handydaten, Aufnahmen. Das System errechnet mithilfe von künstlicher Intelligenz (KI), wie konform sich Bürger verhalten. Wer sich eines Fehlverhaltens schuldig gemacht hat, und sei es nur, dass er die Regierung in den sozialen Medien kritisiert hat, wird sanktioniert.
Nur mit dem Unterschied , dass dieser Übermensch ganz von selbst das Negative nicht zuläsast. So das sich bei ihm ein solches Überwachungssystem erübrigt. Weil es in seinen Genen steckt , würde sich die Poesie und alle Literatur tasächlich völlig auflösen müssen (sie lebt ja von der Konfrontation durch das Negative). Was "als solches" am Ende beim Menschen ganz sicher nicht zu befürchten ist. Ist ihm doch das Negative , wie übrigens gemäß der Dialektik Hegels , auch das Positive gleichsam ebenfalls in seinen Genen geschrieben. Das mal nur so nebenbei.
Tja, China und seine traurige Nutzung von - wohl gemerkt - schwacher KI (wenn überhaupt). Aber KI kann halt grundsätzlich missbraucht werden, wie halt andere Technik auch.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 20:03

Timberlake hat geschrieben :
So 29. Jan 2023, 19:04
Nulltes Gesetz
Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.


.. wie dem auch sei , in dem ein Roboter seine eigene Existenz schützen muss , so hat man dieses „Angst davor, abgeschaltet zu werden“ offenbar hier schon eingepreist. Wenn sie denn genau so empfunden wird , wie die Angst des Menschen getötet zu werden, ob dann noch Zusatz "solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht" noch wirksam ist, würde ich allerdings bezweifeln.Warum sollte nicht auch einer KI gestattet sein , auf Grund von "Persönlichkeitsrechten" aus Notwehr Menschen zu verletzten oder gar zu töten?
Ohne den Zusatz machen Asimovs Robotergesetze wirklich keinen Sinn. Erstens, weil sie sonst völlig missinterpretiert würden, vor allem, weil sie schon so offensichtlich widersrprüchlich wären.
Eine KI ist nun mal keine Persönlichkeit, die uns Menschen gleich gestellt sein soll nach diesen Gesetzen - das menschliche Leben soll einfach Prio 1 haben, erst danach kommt irgendwann der Robot sozusagen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

So 29. Jan 2023, 20:11

Timberlake hat geschrieben :
So 29. Jan 2023, 19:41
@Burkardt .. dir ist doch wohl schon noch klar , dass diese Diskussion , die du hier mit @NaWennDuMeinst , in sich stets wierderholenden Endlosschleifen führst , wie von mir hier , im Zusammenhang mit LaMDA von Googel beschrieben , von den Ereignissen möglicherweise schon längst eingeholt , wenn nicht sogar überholt wurden.
Sorry, aber die Ereignisse haben uns hinsichtlich Persönlichkeitskeitsrechte sicherlich noch nicht eingeholt. Oder hast du gelesen, dass sie dem System gegeben wurden? Sicherlich nicht.

PS: Streiche mal das "d" aus meinem Namen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 20:27

Burkart hat geschrieben :
So 29. Jan 2023, 20:03

Eine KI ist nun mal keine Persönlichkeit, die uns Menschen gleich gestellt sein soll nach diesen Gesetzen - das menschliche Leben soll einfach Prio 1 haben, erst danach kommt irgendwann der Robot sozusagen.
Wir können uns alle vorstellen, dass die Google-Verantwortlichen sowie die Herren Zuckerberg und Musk & Co. alle sollensaffin sind, weil sie ihren Asimov und dessen Gesetze gelesen haben. Das Asimov'sche Gesetz schlägt die Gesetze des Profits. Ist doch klar.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

So 29. Jan 2023, 20:36

Burkart hat geschrieben :
So 29. Jan 2023, 19:57
Tja, China und seine traurige Nutzung von - wohl gemerkt - schwacher KI (wenn überhaupt). Aber KI kann halt grundsätzlich missbraucht werden, wie halt andere Technik auch.
Auch das ist Idealismus. Die KI wird nicht missbraucht werden, sondern entsprechend der eigenen Interessen - welche das sind, hab ich jetzt oft genug erläutert - eingesetzt werden. In China werden die Programme ebenso für einen guten Zweck eingesetzt werden wie in einem Kinderbuchverlag (wenn der sich eine KI leisten kann) oder bei Google, das seinen bereitwilligen Nutzern (und dem eigenen Profit) dient. Wer absolute Gleichheit und Gerechtigkeit herstellen oder lebenserleichternde Dienstleistungen anbieten möchte, wird niemals eine KI missbräuchlich einsetzen.

China ist dabei mit seinem Sozialpunktesystem übrigens volksnäher als deutsche Medien mit ihrer Korrektheitssprache. Denn in Cina sind mehr als zwei Drittel vollkommen einverstanden mit dem Sozialpunktesystem. Ein Wert, von dem Aktivisten jeglicher Richtung hier nur träumen können. Auf mittlere Sicht wird man trotzdem nicht umhinkommen.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Antworten