Künstliche Intelligenz

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Fr 3. Feb 2023, 11:46

sybok hat geschrieben :
Di 31. Jan 2023, 22:31

Da wäre ich glaube ich nahe. Was wären deiner Meinung nach die drängendsten praktischen ethischen Fragen?
Abgesehen davon, dass sie so zahlreich sind, dass ich gar nicht wüsste, wo anzufangen, ist es auch ziemlich aussichtslos. Unsere Ethik basiert auf lauter "Dingen", die in der Natur gar nicht vorkommen, total vorurteilsgeneriert sind (wie auch anders?). Ein Programmierer kann somit bestenfalls im Sinne einer ausgefeilten semantischen Theorie wie Brandoms Inferentialismus eine Theorie der Normativität aus der Analyse sprachlicher Beziehungen herausfiltern und den KIs einprogrammieren. Ich nehme an, das könnte man offen programmieren, sodass sich die Änderungen, ablesbar an den Bedeutungsverschiebungen in der Kommunikation, in Echtzeit abbilden ließen. Zwei Dinge bleiben dann immer noch offen:

1. In sprachlichen normativen Strukturen stecken unsere Machtbeziehungen. Die Zulässigkeit, die Berechtigung zur Äußerung eines normativen Satzes, die sich aus seinen semantischen Beziehungen ergibt, impliziert auch immer bestimmte Machtverhältnisse. Die geltende Moral ist diejenige, die sich durchgesetzt hat. Außerhalb der Ebene des Rechts , wo es um in der Gesellschaft geltende Werte geht, gibt es unterschiedliche Ansichten darüber, wie weitreichend etwas gelten soll. Welche Position muss eine KI einnehmen in dieser gesellschaftlichen Diskussion?

2. Eine offen programmierte KI könnte transhumane, für Menschen nicht mehr verstehbare Dinge entwickeln. Was dann? Das Asimov'sche Gesetz ist doch völliger Blödsinn - als westliche Kulturen Amerika entdeckten, hätte kein Gesetz dieser Welt sie bremsen können, ihre aus ihren Möglichkeiten resultierende Überlegenheit zu nutzen.

Ich glaube, dass KIs eben ethische Fragen nicht wie Menschen auf der Basis von Mustern sondern von Probabilitäten entscheiden werden, wenn sie gegenüber intransparenten, vorurteilsschweren und immer stärker emotionalitätsgeladenen Entscheidungen bessere treffen sollen. Unsere Fehlerhaftigkeit, unsere moralischen Vorurteile zu eliminieren hieße aber letztlich tatsächlich, die Menschheit zu eliminieren. Denn entweder die KIs sind genau so fehlerhaft wie Menschen, oder sie sind besser als er. Dann aber braucht es Menschen nicht oder sie passen sich an die Vorgaben der KIs an.

Mich würde es interessieren. Ich käme in 100 Jahren gerne mal für ein paar Tage vorbei, um mir anzuschauen, was aus der Sache geworden ist.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 23560
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Fr 3. Feb 2023, 15:31

Take care: Your thoughts are now owned by OpenAI




Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 09:06

NaWennDuMeinst hat geschrieben :
Di 31. Jan 2023, 07:17
Jörn Budesheim hat geschrieben :
Di 31. Jan 2023, 06:56
Burkart hat geschrieben :
Mo 30. Jan 2023, 22:49
Indem sie es verstandesmäßig lernt, wann Menschen (Lebewesen) Schmerzen haben und dass sie sie nicht mögen (haben wollen)
Wie soll das gehen, wenn sie nicht weiß, was Schmerz ist und keine Vorstellung davon hat, worum es geht und warum sie es nicht mögen. (wenn sie nicht mal weiß, was mögen bedeutet ...)
Empfindungsfähige Wesen lernen das Schmerz unangenehm ist in dem Moment wo sie Schmerzen haben.
Dieser Weg ist der Maschine verschlossen.

Natürlich könnte man der Maschine beibringen, dass es bei Menschen etwas gibt, dass sie Schmerzen nennen, und man könnte ihr auch erklären, dass Menschen Schmerzen idR zu vermeiden versuchen.
Man könnte ihr sogar erklären, dass Schmerzen ein Weg sind Menschen zu manipulieren (z.B. durch Folter). Man kann ihr erklären was bei Menschen Schmerzen auslöst usw....
Also im Prinzip das was über Schmerzen in Büchern steht.
Genau, und nicht nur in den Büchern, sondern auch vom Menschen direkt. Es gibt doch bestimmt schon recht gute Gesichtserkennungssysteme hinsichtlich "was sie aussagen", also ob Freude, Trauer, Schmerz usw. Darüber kann eine KI leicht lernen, wann ein Mensch etwas als schmerzhaft empfindet.
Aber was es bedeutet Schmerzen zu haben, wird die Maschine nie verstehen.
Im menschlichen Sinne nicht, aber das muss sie halt auch nicht. Sie soll ja "nur" verstehen, wann ein Mensch Schmerz empfindet und vielleicht noch etwas Warum - halt so, dass sie auf uns gut eingehen kann.
Kompliziert wird es dann auch wenn wir von seelischem Schmerz reden. Anders als bei der Maschine kann beim Menschen nicht nur der Körper verletzt werden.
Dass man das aus Büchern (also ohne eigene Erfahrung in dem Bereich) lernen kann, wage ich zu bezweifeln.
Klar, nicht direkt seelisch. Vielleicht kann eine KI aber auch "bessere" oder "schlechtere" Gedanken mal insofern haben, als dass sie einzelne Aufgaben "besser" oder "schlechter" löst (z.B. sie schneller, effizienter löst oder eben schlechter, wenn sie zur Lösung nur schwer und mit vielen Umwegen o.ä. gekommen ist).



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 4. Feb 2023, 09:10

Burkart hat geschrieben :
Sa 4. Feb 2023, 09:06
NaWennDuMeinst hat geschrieben :
Di 31. Jan 2023, 07:17
Jörn Budesheim hat geschrieben :
Di 31. Jan 2023, 06:56


Wie soll das gehen, wenn sie nicht weiß, was Schmerz ist und keine Vorstellung davon hat, worum es geht und warum sie es nicht mögen. (wenn sie nicht mal weiß, was mögen bedeutet ...)
Empfindungsfähige Wesen lernen das Schmerz unangenehm ist in dem Moment wo sie Schmerzen haben.
Dieser Weg ist der Maschine verschlossen.

Natürlich könnte man der Maschine beibringen, dass es bei Menschen etwas gibt, dass sie Schmerzen nennen, und man könnte ihr auch erklären, dass Menschen Schmerzen idR zu vermeiden versuchen.
Man könnte ihr sogar erklären, dass Schmerzen ein Weg sind Menschen zu manipulieren (z.B. durch Folter). Man kann ihr erklären was bei Menschen Schmerzen auslöst usw....
Also im Prinzip das was über Schmerzen in Büchern steht.
Genau, und nicht nur in den Büchern, sondern auch vom Menschen direkt. Es gibt doch bestimmt schon recht gute Gesichtserkennungssysteme hinsichtlich "was sie aussagen", also ob Freude, Trauer, Schmerz usw. Darüber kann eine KI leicht lernen, wann ein Mensch etwas als schmerzhaft empfindet.
Sie kann aber nicht lernen was das bedeutet, denn dazu müsste sie selbst Schmerzen empfinden können.
Oder anders gesagt: Ihr fehlt die Fähigkeit sich in uns hineinzuversetzen (Empathie).



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 11:24

NaWennDuMeinst hat geschrieben :
Sa 4. Feb 2023, 09:10
Burkart hat geschrieben :
Sa 4. Feb 2023, 09:06
NaWennDuMeinst hat geschrieben :
Di 31. Jan 2023, 07:17

Empfindungsfähige Wesen lernen das Schmerz unangenehm ist in dem Moment wo sie Schmerzen haben.
Dieser Weg ist der Maschine verschlossen.

Natürlich könnte man der Maschine beibringen, dass es bei Menschen etwas gibt, dass sie Schmerzen nennen, und man könnte ihr auch erklären, dass Menschen Schmerzen idR zu vermeiden versuchen.
Man könnte ihr sogar erklären, dass Schmerzen ein Weg sind Menschen zu manipulieren (z.B. durch Folter). Man kann ihr erklären was bei Menschen Schmerzen auslöst usw....
Also im Prinzip das was über Schmerzen in Büchern steht.
Genau, und nicht nur in den Büchern, sondern auch vom Menschen direkt. Es gibt doch bestimmt schon recht gute Gesichtserkennungssysteme hinsichtlich "was sie aussagen", also ob Freude, Trauer, Schmerz usw. Darüber kann eine KI leicht lernen, wann ein Mensch etwas als schmerzhaft empfindet.
Sie kann aber nicht lernen was das bedeutet, denn dazu müsste sie selbst Schmerzen empfinden können.
Oder anders gesagt: Ihr fehlt die Fähigkeit sich in uns hineinzuversetzen (Empathie).
Richtig, nur muss sie das auch nicht.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 4. Feb 2023, 12:08

Burkart hat geschrieben :
Sa 4. Feb 2023, 11:24
NaWennDuMeinst hat geschrieben :
Sa 4. Feb 2023, 09:10
Burkart hat geschrieben :
Sa 4. Feb 2023, 09:06

Genau, und nicht nur in den Büchern, sondern auch vom Menschen direkt. Es gibt doch bestimmt schon recht gute Gesichtserkennungssysteme hinsichtlich "was sie aussagen", also ob Freude, Trauer, Schmerz usw. Darüber kann eine KI leicht lernen, wann ein Mensch etwas als schmerzhaft empfindet.
Sie kann aber nicht lernen was das bedeutet, denn dazu müsste sie selbst Schmerzen empfinden können.
Oder anders gesagt: Ihr fehlt die Fähigkeit sich in uns hineinzuversetzen (Empathie).
Richtig, nur muss sie das auch nicht.
Doch. Wenn sie in der Frage der Intelligenz mit uns mithalten können soll muss sie das.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 12:29

NaWennDuMeinst hat geschrieben :
Sa 4. Feb 2023, 12:08
Burkart hat geschrieben :
Sa 4. Feb 2023, 11:24
NaWennDuMeinst hat geschrieben :
Sa 4. Feb 2023, 09:10

Sie kann aber nicht lernen was das bedeutet, denn dazu müsste sie selbst Schmerzen empfinden können.
Oder anders gesagt: Ihr fehlt die Fähigkeit sich in uns hineinzuversetzen (Empathie).
Richtig, nur muss sie das auch nicht.
Doch. Wenn sie in der Frage der Intelligenz mit uns mithalten können soll muss sie das.
KI muss ja nicht genau wie ein Menschen etwas können - und nicht mal unbedingt das gleiche wie er können, wenn sie dafür andere Dinge erheblich besser kann.
Wie gesagt: Wenn sie Schmerzen erkennen und sich darauf beim Menschen einstellen kann, reicht das.

Ich stelle mir z.B. einen Massageroboter vor, der sich auf den Menschen einstellt:
Solange der Mensch "schnurrt", also alles gut heißt, ist alles ok. Dann kann Roboter ggf. mal ein wenig härter massieren (z.B. auf Wunsch des Menschen oder auch aus Erfahrung von früher ggf.); der Mensch wird schon protestieren, wenn es ihm unangenehm wird. (Dass man dem Roboter grundlegend erklärt hat, wo er massieren und wo gar nicht, davon gehe ich mal aus.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 4. Feb 2023, 12:41

Ich glaube, wenn jeder privat einen humanoiden Roboter bestellen dürfte, dann würden 90 % eine Eva und keinen Adam bestellen. Massageroboter. Klasse.

Es wäre vielleicht sinnvoller, syboks Beispiel aufzunehmen, und sich eine KI als Richter vorzustellen. Oder als psychologischen Gutachter. Und nicht nur als Luxusaccesoire für den geplagten Rücken mittel- und ganz alter Herren.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 12:55

Lucian Wing hat geschrieben :
Sa 4. Feb 2023, 12:41
Ich glaube, wenn jeder privat einen humanoiden Roboter bestellen dürfte, dann würden 90 % eine Eva und keinen Adam bestellen. Massageroboter. Klasse.

Es wäre vielleicht sinnvoller, syboks Beispiel aufzunehmen, und sich eine KI als Richter vorzustellen. Oder als psychologischen Gutachter. Und nicht nur als Luxusaccesoire für den geplagten Rücken mittel- und ganz alter Herren.
Wie Herren? Es sind vor allem meine Partnerin und unsere Schwägerin, die sich zu gerne massieren lassen. (Aber ja, ich mag das auch gerne.)

KI bzw. Roboter sind halt vielfältig. So ein Massageroboter halte ich für relativ leicht machbar (auch wenn es dafür nicht unbedingt eines ganzen Roboters bedarf).
Als Richter oder vor allem psychologischen Gutachter wird es sicherlich schwieriger; hier könnte man aber immerhin die KI einem Mensch "nur" als Partner nebenan stellen.
Zuletzt geändert von Burkart am Sa 4. Feb 2023, 13:42, insgesamt 1-mal geändert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 4. Feb 2023, 13:23

Burkart hat geschrieben :
Sa 4. Feb 2023, 12:55

Als Richter oder vor allem psychologischen Gutachter wird es sicherlich schwieriger; hier könnte man aber immerhin die KI einem Mensch "nur" als Partner nebenan stellen.
Man könnte ungeheuer viel, vom Henker über den Soldaten bis zur Prostitution (auch von Kinder-KIs für Pädophile) sind vielfältige Einsatzmöglichkeiten denkbar. Was sybok oben mich gefragt hatte, und was ich mit meiner Einlassung weitergeben wollte, war die Frage der ethischen Programmierung. Ich habe schon versucht, meine Ratlosigkeit in Worte zu fassen. Aber du als Fan könntest ja mal etwas übers Blumige hinausgehen und versuchen, eine denkbare Ethik für die härteren Fragen zu entwerfen. Bisher bist du da wie Götterspeise ;)



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 13:45

Weil ich Ethik nicht gerade für eine wichtige KI-Aufgabe halte, da gibt es noch so viel mehr davor... wie den Massageroboter :D

Was soll denn überhaupt der (Anwendungs-)Sinn von KI mit Ethik sein?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Sa 4. Feb 2023, 13:51

Gefährlich schiene mir - ChatGPT hat mich da glaube ich hellöriger gemacht - dass Jörn Budesheim und NaWennDuMeinst in dem Sinne recht behalten könnten, als wir Expertensysteme auf die Welt loslassen, die mit hinreichender Performancestärke sozusagen dann mit der von Lucian Wing aufgezeigten Möglichkeit quasi eine philosophischen "Rechtfertigung" für ihre Existenz und "Teilnahme" an unserer Gesellschaft hätten.
Gefährlich meiner Ansicht nach, weil wir mMn Statistik nicht im Griff haben.
Frank Schirrmacher hat das schon vor Jahren mal in einem Podcast in einem Nebensatz gesagt, der sich mir eingebrannt hat, sinngemäss:
"Sie werden uns sagen, dass wir lernen müssen, mit Unsicherheiten klarzukommen." - dann werden halt 2% Unschuldige verurteilt, dafür arbeiten die Systeme in den übrigen 98% mit überragender Effizienz.
Und da sähe ich ein drängendes moralisches/ethisches Problem: Wir kennen das ja heute schon, etwa mit "Racial Profiling", selbsterfüllenden Prophezeiungen, statistische Aussagen die ihre Aussagen erst tatsächlich herstellen und "sich selber rechtfertigen". Wenn solche mächtigen Expertensysteme kommen und eingesetzt werden, dann droht diesbezüglich womöglich ein ganz anderes Level.




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 4. Feb 2023, 16:03

Burkart hat geschrieben :
Sa 4. Feb 2023, 13:45
Weil ich Ethik nicht gerade für eine wichtige KI-Aufgabe halte, da gibt es noch so viel mehr davor... wie den Massageroboter :D

Was soll denn überhaupt der (Anwendungs-)Sinn von KI mit Ethik sein?
Im Ernst?
Wenn du im autonomen Auto sitzt und fährst, rechts springt ein Kind auf die Straße, links kommt ein Laster. Rechts also plattes Kind, links Selbstopfer. Nun programmiere. Keine ethische Frage? Du könntest in dieser Situation auch mit den unterschiedlichsten Personen, mit denen du unterschiedlichst enge oder oder weniger enge Beziehungen hast im Auto sitzen, mit einer, mit zwei, mit drei. Die KI müsste wissen, was du willst, wann du lieber ein (oder auch zwei oder drei) Kinder platt fährst oder dich und andere opferst oder bei welchen anderen du dich und sie opferst. Also muss der Programmierer mal hinschauen. Und zwar, nimm's mir nicht übel, hoffentlich ein bisschen sorgfältiger und weniger frivol, wie du hier beim Abbügeln all dessen, was deine eher spießig-hedonistischen Phantasien stört.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 16:20

Lucian Wing hat geschrieben :
Sa 4. Feb 2023, 16:03
Burkart hat geschrieben :
Sa 4. Feb 2023, 13:45
Weil ich Ethik nicht gerade für eine wichtige KI-Aufgabe halte, da gibt es noch so viel mehr davor... wie den Massageroboter :D

Was soll denn überhaupt der (Anwendungs-)Sinn von KI mit Ethik sein?
Im Ernst?
Na klar, ich möchte doch wissen, worum es dir geht.
Wenn du im autonomen Auto sitzt und fährst, rechts springt ein Kind auf die Straße, links kommt ein Laster. Rechts also plattes Kind, links Selbstopfer. Nun programmiere. Keine ethische Frage? Du könntest in dieser Situation auch mit den unterschiedlichsten Personen, mit denen du unterschiedlichst enge oder oder weniger enge Beziehungen hast im Auto sitzen, mit einer, mit zwei, mit drei. Die KI müsste wissen, was du willst, wann du lieber ein (oder auch zwei oder drei) Kinder platt fährst oder dich und andere opferst oder bei welchen anderen du dich und sie opferst. Also muss der Programmie
rer mal hinschauen.
Mal ehrlich: Wenn jemand einen Autounfall auf sich zukommen sieht, wer denkt bitte lange darüber nach, wen er lieber erwischen möchte als jemand anderen? Ich hatte dafür jedenfalls keine Zeit bei meinem mal.
Das autonome Auto sollte einfach so gut wie möglich grundsätzlich versuchen Schaden zu minimieren, so sehe ich das Mensch auch, wenn ich überhaupt groß die Wahl habe.
Das Abwägen zwischen Mensch wertvoller oder nicht so wertvoll halte ich für sehr theoretisch. Dann soll das Auto lieber grundsätzlich darauf achten, dass im Auto alle gut angeschnallt sind u.ä.
Und zwar, nimm's mir nicht übel, hoffentlich ein bisschen sorgfältiger und weniger frivol, wie du hier beim Abbügeln all dessen, was deine eher spießig-hedonistischen Phantasien stört.
Was für spießig-hedonistischen Phantasien?
Falls du den Massageroboter meinst, dann stelle ich noch die geschickte KI an seine Seite zur effektiven Steuererklärung, zur guten Geldanlage, zur Planung meiner (z.B. regelmäßgen) Einkäufe usw.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2802
Registriert: Sa 11. Jul 2020, 09:59

Sa 4. Feb 2023, 16:24

sybok hat geschrieben :
Sa 4. Feb 2023, 13:51
Gefährlich schiene mir - ChatGPT hat mich da glaube ich hellöriger gemacht - dass Jörn Budesheim und NaWennDuMeinst in dem Sinne recht behalten könnten, als wir Expertensysteme auf die Welt loslassen, die mit hinreichender Performancestärke sozusagen dann mit der von Lucian Wing aufgezeigten Möglichkeit quasi eine philosophischen "Rechtfertigung" für ihre Existenz und "Teilnahme" an unserer Gesellschaft hätten.
Gefährlich meiner Ansicht nach, weil wir mMn Statistik nicht im Griff haben.
Frank Schirrmacher hat das schon vor Jahren mal in einem Podcast in einem Nebensatz gesagt, der sich mir eingebrannt hat, sinngemäss:
"Sie werden uns sagen, dass wir lernen müssen, mit Unsicherheiten klarzukommen." - dann werden halt 2% Unschuldige verurteilt, dafür arbeiten die Systeme in den übrigen 98% mit überragender Effizienz.
Und da sähe ich ein drängendes moralisches/ethisches Problem: Wir kennen das ja heute schon, etwa mit "Racial Profiling", selbsterfüllenden Prophezeiungen, statistische Aussagen die ihre Aussagen erst tatsächlich herstellen und "sich selber rechtfertigen". Wenn solche mächtigen Expertensysteme kommen und eingesetzt werden, dann droht diesbezüglich womöglich ein ganz anderes Level.
EIn Grund mehr, dass ich solche KI zumindest erstmal einen menschlichen Partner zur Seite stellen würde.
Interessant ist auch die Frage, wie viele menschliche Fehlurteile es jetzt schon gibt; diese könnte man ggf. mal gegenüber stellen und dann schauen wir weiter. Vielleicht kann die sachliche, unbestechliche, unegoistische KI ja wirklich etwas wie Racial Profiling sogar besser vermeiden als gefühlbetonte Menschen?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 4. Feb 2023, 16:32

Burkart hat geschrieben :
Sa 4. Feb 2023, 16:20

Mal ehrlich: Wenn jemand einen Autounfall auf sich zukommen sieht, wer denkt bitte lange darüber nach, wen er lieber erwischen möchte als jemand anderen?
:evil:

Aus der Vermutung, dass du oder ich nicht nachdenken, ergibt sich nicht die Tatsache, dass ein Programmierer der KI nicht einprogrammieren muss: Immer ausweichen, immer draufhalten. Halt eins von beiden. Das erste bedeutet, sich selbst zu opfern, das zweite, den anderen totzufahren. Wenn du alleine im Auto sitzt. Aber das Auto braucht eine Programmierung, und dazu wird "man" sich Gedanken machen müssen, die erstens das Recht berücksichtigen, und zweitens ethische Aspekte. Der autonome Panzer auf dem Weg zur Front wird auf "alles überrollen" programmiert sein. Dein Auto vielleicht nicht.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

Sa 4. Feb 2023, 17:42

Burkart hat geschrieben :
Sa 4. Feb 2023, 13:45
Weil ich Ethik nicht gerade für eine wichtige KI-Aufgabe halte
Ja, das ist eben deine Immunisierungsstrategie. Du hälst einfach alles, von dem Du weißt dass KI dabei scheitern muss, für keine KI Aufgabe.
Wie billig. :D



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23560
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 4. Feb 2023, 18:04

Bundestag, 2021 hat geschrieben : Künstliche Intelligenz in der Justiz

Die künstliche Intelligenz (KI) gilt als Schlüsseltechnologie mit großem Potenzial. Eine allgemeingültige Definition des KI-Begriffes existiert allerdings (bisher) nicht. Abstrakt wird jedoch unterschieden zwischen einer „starken“ KI, die die gleichen intellektuellen Fertigkeiten wie der Mensch hat oder ihn darin sogar übertreffen kann und der „schwachen“ KI, die sich selbstoptimierend auf die Lösung konkreter Anwendungsprobleme auf Basis der Methoden aus der Mathe-matik und Informatik fokussiert. Nur ein Einsatz von Systemen letzterer Art ist bereits heute technisch möglich beziehungsweise innerhalb der nächsten Jahre realistisch. Anwendungsbeispiele schwacher KI sind etwa Sprach- und Bilderkennung, Software zur Simulation menschlichen Expertenwissens, Musteranalyse (maschinelles Lernen) sowie die Robotik. Derartige Anwendungen lassen sich auch für die Justiz nutzbar machen. Die Anwendung von KI in der Justiz stellt dabei einen Teilbereich des Sammelbegriffes „Legal Tech“ dar, unter dem der allgemeine Einsatz von Informationstechnik im juristischen Bereich verstanden wird.

Neben technischen und praktischen Herausforderungen ergeben sich beim Einsatz von KI in der Justiz auch ethische Spannungsfelder ...




Benutzeravatar
Jörn Budesheim
Beiträge: 23560
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Sa 4. Feb 2023, 19:50



Hier in diesem Vortrag geht es um eine Reihe von Beispielen, wo beim Einsatz künstlicher Intelligenz ethische Probleme auftauchen, angefangen beim Staubsauger. Das Problem ist natürlich allgegenwärtig.

(Wenn ich solche Videos poste, bedeutet das nicht, dass ich mich den Autor:innen in allem anschließe.)




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Sa 4. Feb 2023, 20:37

Burkart hat geschrieben :
Sa 4. Feb 2023, 16:20

Was für spießig-hedonistischen Phantasien?
Dass du KIs lediglich als praktische, der Bequemlichkeit der gutbürgerlichen Klasse dienende Helferlein konstruierst und alle Gedanken, die darüber hinausgehen, immer ignorierst oder abbügelst ins Halb-Frivole.

Ganz davon abgesehen, dass ich auch nie Gedanken von dir lese, wem deine zukunftsvisinären (und bald realen) "Wesen" eigentlich gehören werden? Im Augenblick gehören Tools wie LaMDA oder ChatGPT und alle ähnlichen Entwicklungen zu gut 70 % den USA, 15 % den Chinesen, und die Europäer spielen auf dem Markt keine Rolle. Man will wie die ZEIT meldet, jetzt ein Projekt in Deutschland starten und es mit einem Betrag unterstützen, der ungefähr dem Bau von 50 km Autobahn entspricht.

Es gäbe vieles, worüber man intensiv nachdenken könnte oder auch müsste, aber ich sehe bei dir einfach immer nur Ausweichmanöver, nie mal einen etwas ausgefeilten Inhalt. Sei es nun technisch-mathematischer Art, neurowissenschaftlicher Art, ökonomischer Art, ethischer Art, psychologischer Art, sozialer Art, philosophischer Art. Spätestens wenn der Massageroboter deiner Frau die Brüste massiert, wirst du wissen, wie das mit Ethik und Moral beim Programmieren ist. Entweder, weil es deiner Frau unangenehm ist, oder weil du eifersüchtig bist. Was bedeuten würde, dass du auf ihn wie auf einen Menschen reagierst. Das heißt, du hast moralische Erwartungen an sein Verhalten.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Antworten