Test von ChatGPT

Es gibt heute kaum Bereiche des alltäglichen Lebens, die nicht in irgendeiner Weise mit dem World-Wide-Web zusammenhängen. Das Gleiche gilt für "künstliche Intelligenz". Was hat die Philosophie dazu zu sagen?
sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Mo 16. Jan 2023, 18:15

Jörn Budesheim hat geschrieben :
Mo 16. Jan 2023, 12:44
Auch Teilaspekte können es wert sein, durchdacht zu werden.

Mein Vorschlag war: "Wer jedoch Maschinen zum Schreiben oder Bilderproduzieren nutzt, sollte große Beträge an die GEMA oder ähnliches zahlen müssen, sodass das Geld an die Autor:innen und Künstler zurückfließt. Oder besser noch: sodass sich der Einsatz der Maschinen gar nicht erst lohnt."
Ja natürlich, ist meinem Empfinden nach auch ein interessanter Teilaspekt - ich wollte nur "öffnen". ChatGPT scheint mir hauptsächlich im Kontext von Unterhaltung diskutiert und darauf reduziert zu werden, dabei leistet dieses System meinem Eindruck nach so unglaublich viel mehr.
Aber dein Vorschlag verstehe ich nicht. Beispielsweise: Ich baue nun die oben skizzierte SciFi- Geschichte mithilfe von GPT weiter zu einem Buch aus. Dann soll ich etwas an die GEMA (oder sonst eine staatliche Instanz) zahlen, die das dann umverteilen, so dass an Autoren Geld fliesst, die ohne maschinelle Unterstützung schreiben? Ich glaube nicht, dass sich solche Ideen in der Praxis realisieren lassen.
"...dass sich der Einsatz der Maschine gar nicht erst lohnt." das wäre dann ja schlicht ein Verbot (einer kommerziellen Nutzung(?)) kaschiert durch irgendwelche finanziellen Hebel. Kann man machen, und das System halte ich - aus meiner jetzige Perspektive - für so mächtig, dass man unvoreingenommen über Verbote diskutieren könnte, aber dann käme man wohl in Rechtfertigungsschwierigkeiten und landet bei der alten Frage die Technologie immer begleitet: Nützlich oder schädlich?
Das vordergründigste Problem schiene mir eher, dass private Firmen über solche mächtige Tools verfügen können.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 16. Jan 2023, 18:27

Nur kurz: bei facebook hat mich jemand darauf hingewiesen, dass das im weitesten Sinne der Robotersteuer, die Bill Gates bereits vor Jahren vorgeschlagen hat, entspricht, bzw ihr ähnlich ist.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 16. Jan 2023, 18:33

sybok hat geschrieben :
Mo 16. Jan 2023, 18:15
Aber dein Vorschlag verstehe ich nicht. Beispielsweise: Ich baue nun die oben skizzierte SciFi- Geschichte mithilfe von GPT weiter zu einem Buch aus. Dann soll ich etwas an die GEMA (oder sonst eine staatliche Instanz) zahlen, die das dann umverteilen, so dass an Autoren Geld fliesst, die ohne maschinelle Unterstützung schreiben? Ich glaube nicht, dass sich solche Ideen in der Praxis realisieren lassen.
Der einfache Grundgedanke des Vorschlags ist folgender: die Nutzer der Maschinen profitieren von der Arbeit der Autoren, während diese Nutzung zugleich die Arbeit der Autoren gefährdet. Das heißt, es muss Regelungen geben, die das finanziell ausgleichen. Wer die Maschine nutzt, muss zahlen und die Autoren erhalten das Geld - auf welche Weise auch immer.




sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Mo 16. Jan 2023, 20:29

Kann man natürlich diskutieren. Ich persönlich finde das nicht gut, halte es auch nicht für praktikabel und für vorschnelles hineinpreschen von Regulierungswünschen, die meinem oberflächlichem Eindruck nach ein wenig nach "Protest" riecht.
Ich hab schon Wikis editiert, GPT hat sich das auch reingelutscht, bekomm ich dann auch was? Jeder Blog und jedes Forum?
Und wenn man das Programm in unterschiedlichem Masse nutzt, muss man unterschiedlich zahlen? Wer kann das überhaupt überprüfen, war die Idee in der obigen Geschichte, dass die Menschen eine "alte" Stadt entdecken, von mir oder der Maschine? Bekommt jemand der 100 unspektakuläre und "unbedeutende" Bücher schrieb mehr als ein Literaturnobelpreisträger? Etc.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 16. Jan 2023, 20:41

Ja, sicher es gibt da viele Detailfragen zu klären. Das ändert aber nichts an dem Grundgedanken.




Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Di 17. Jan 2023, 00:17

ahasver hat geschrieben :
Mo 16. Jan 2023, 09:13
Was ist eigentlich z.B. mit LaMDA?
meinst du das hier:

https://www.riffreporter.de/de/technik/ ... bewusstein
Ja, das dort genannte LaMDA meinte ich.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2747
Registriert: Sa 11. Jul 2020, 09:59

Di 17. Jan 2023, 00:22

Jörn Budesheim hat geschrieben :
Mo 16. Jan 2023, 18:27
Nur kurz: bei facebook hat mich jemand darauf hingewiesen, dass das im weitesten Sinne der Robotersteuer, die Bill Gates bereits vor Jahren vorgeschlagen hat, entspricht, bzw ihr ähnlich ist.
Und ähnlich fand ich die Idee mal gut, jede (Massen-)Mail mit einer geringen Steuer zu belegen, damit sich die nervigen massenhaften Spams nicht mehr (so) lohnen.

Zu ChatGPT:
Texte aus dessen Niveau dürften nun inflationär so gut wie kein Geld mehr einbringen können, insofern dürften Texte auf höherem nun besonders wichtig werden. Wie diese zu unterscheiden oder zu klassifizieren sind, müsste man ggf. überlegen (ähnliche Probleme der Unterscheidung hat man ja bei (Spam-?)Mails u.ä.)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 08:43

In einem anderen Strang hat ein User gefragt:

Im Rahmen meiner ersten Hausarbeit im Philosophie Studium soll ich bewerten, inwiefern Descartes methodischer Zweifel aussichtsreich ist. Es geht also nicht um das Ergebnis (Cogito, Gottesbeweise) sondern um die Methodik des Zweifelns. Ich frage mich, ob der Zweifel überhaupt angebracht ist. Schließlich lässt sich sein erkenntnistheoretisches Ziel, Wissen zu erlangen, auch deutlich einfacher erlangen.
Was ist eure Meinung zu dem Thema?

Gibt man das im ChatGPT ein, sagt das Programm:
Descartes' methodischer Zweifel ist ein wichtiger Bestandteil seiner Erkenntnistheorie. Durch den Zweifel an allen Annahmen und Annahmen, die er als unwahr erkannt hat, strebt er danach, eine Grundlage für sicheres Wissen zu schaffen. Diese Methode des Zweifelns ist aus einigen Gründen aussichtsreich.
Erstens, ermöglicht es eine gründliche Überprüfung aller Annahmen und Annahmen, die als wahr angenommen werden, und stellt sicher, dass sie tatsächlich wahr sind.
Zweitens, es ermöglicht eine Trennung zwischen wahrem und falschem Wissen, und führt zu einer größeren Klarheit und Sicherheit in Bezug auf das, was wirklich bekannt ist.
Drittens, es ermöglicht die Identifizierung von Annahmen, die als falsch erkannt werden und die daher verworfen werden können.

Es ist jedoch auch wichtig zu beachten, dass die Methode des methodischen Zweifels auch ihre Grenzen hat und das Erreichen des erkenntnistheoretischen Zieles nicht immer einfach ist. Es kann auch Zeit und Anstrengung erforden, alle Annahmen gründlich zu überprüfen und zu beurteilen.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 09:38

sybok hat geschrieben :
Mo 16. Jan 2023, 18:15
Kann man machen, und das System halte ich - aus meiner jetzige Perspektive - für so mächtig, dass man unvoreingenommen über Verbote diskutieren könnte, aber dann käme man wohl in Rechtfertigungsschwierigkeiten und landet bei der alten Frage die Technologie immer begleitet: Nützlich oder schädlich?
Das vordergründigste Problem schiene mir eher, dass private Firmen über solche mächtige Tools verfügen können.
Das ist ein Gesichtspunkt. Der zweite ist, dass diese Tools dazu führen werden, dass man "Wissen" externalisieren kann (extended mind). Wozu sollen Kinder lernen, was uns irgendein klassischer Autor sagen wollte, wenn es ein solches Tool auf dem Handy hat? Diese Dinge werden die Zukunft sein, in ihnen wird sich, philosophisch gesprochen, auch die Postmoderne vollenden. Der erzählende Affe wird vom erzählenden Tool abgelöst werden.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 10:04

Sapere aude




sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 17. Jan 2023, 11:11

Lucian Wing hat geschrieben :
Di 17. Jan 2023, 09:38
Der zweite ist, dass diese Tools dazu führen werden, dass man "Wissen" externalisieren kann (extended mind). Wozu sollen Kinder lernen, was uns irgendein klassischer Autor sagen wollte, wenn es ein solches Tool auf dem Handy hat? Diese Dinge werden die Zukunft sein, in ihnen wird sich, philosophisch gesprochen, auch die Postmoderne vollenden. Der erzählende Affe wird vom erzählenden Tool abgelöst werden.
Oh ja, genau solche Dinge meinte ich - es ändert einfach alles.
Wenn das Tool mal wirklich richtig gut ist, stellt es womöglich auch "unsere" Kulturleistungen in Frage. Welche Bedeutung und Wertschätzung hat ein literarisches Genie wie etwa Goethe noch, wenn ich Texte in dieser Qualität (und nicht nur in dieser Qualität sondern nach Wunsch sogar gleich auch noch den individuellen Stil von Goethe imitierend) zu jedem beliebigen Thema im Sekundentakt nach meinen individuellen Wünschen generieren kann? Goethe - ein Artefakt aus einer prä-informationstheoretischen Zeit.

Im KI-Thread ist immer mal wieder durchgeschimmert, dass eine allfällige KI uns zwingen könnte, dass wir uns mit uns selber vertiefter auseinandersetzen. Dieses Statistik-Tool reicht womöglich dafür schon aus: Was erwarten wir noch von Bildung, welche Bedeutung hat Wissen und welche Jobs soll unbedingt ein Mensch machen (ein Google-Bot klagt mich an, ein Facebook-Bot verteidigt mich und der Microsoft-Richter-Bot entscheidet über mein Schicksal), darf Politik auch "irrationale" Entscheide fällen, etc.

Andererseits gehe ich davon aus, dass man die Fehler und Schwächen des Tools beheben kann. Es könnte aber natürlich ja auch sein, dass man auf sowas wie eine asymptotische Schranke trifft bezüglich dem durch Statistik und aktuellen Methoden Möglichem und ChatGPT da nun nahe dran ist - also dass es das jetzt mehr oder weniger war.
Lucian Wing hat geschrieben :
Di 17. Jan 2023, 09:38
Diese Dinge werden die Zukunft sein, in ihnen wird sich, philosophisch gesprochen, auch die Postmoderne vollenden.
So ähnliche Gedanken mit Stichwort Postmoderne sind mir auch gekommen, aber unscharf und leider nur gefühlsmässig. Kannst du mir helfen das genauer zu erfassen und ein, zwei Worte sagen, inwiefern sich in ihnen die Postmoderne vollendet? Klingt interessant.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 11:33

sybok hat geschrieben :
Di 17. Jan 2023, 11:11
Statistik-Tool
Mehr ist es doch nicht. Warum sollte es dann Goethe infrage stellen? Das sehe ich nicht.




sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 17. Jan 2023, 12:04

Was spielt das für eine Rolle wie es funktioniert? Ich würde das nicht in die KI-Thread Diskussion "rüberziehen", es geht ja nicht um die Zuordnungen "Intelligenz", "Verstehen", etc. wie im KI-Thread Thema, sondern einzig um die Performance. Schachengines wie lila oder AlphaZero sind auch Statistik-Tools und machen dennoch Analysen von Spitzenspieler letztlich wertlos, wenn es anderer Meinung ist.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 12:16

sybok hat geschrieben :
Di 17. Jan 2023, 12:04
Was spielt das für eine Rolle wie es funktioniert?
Die entscheidende. Ohne Goethe würde die Basis für die Statistik fehlen. In dem "Produkt" spiegelt sich die Leistung Goethes doch wider. Ohne Goethe könnten die Programmierer keine Gedichte im Stile von Goethe nachäffen. Und ohne Menschen, die die Gedichte "aufführen", gäbe es diese Gedichte nicht. Die menschliche Leistung wird nicht infrage gestellt, sondern vorausgesetzt und in Anspruch genommen.




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 12:28

Jörn Budesheim hat geschrieben :
Di 17. Jan 2023, 10:04
Sapere aude
Wozu, wenn alles auf Knopfdruck abrufbar ist? Worin besteht der Sinn, einen Text über Goethe oder Schiller zu produzieren, wenn mein Handy in der Funktion eines externen Wissensspeichers das alles viel besser kann?

(Damit ich nicht falsch verstanden werde: Das ist nicht meine Meinung, sondern meine Vorstellung von den Fragen, die man zukünftig denen, die sie stellen werden, und das wird kommen, beantworten muss.)

sybok hat geschrieben :
Di 17. Jan 2023, 11:11

Andererseits gehe ich davon aus, dass man die Fehler und Schwächen des Tools beheben kann. Es könnte aber natürlich ja auch sein, dass man auf sowas wie eine asymptotische Schranke trifft bezüglich dem durch Statistik und aktuellen Methoden Möglichem und ChatGPT da nun nahe dran ist - also dass es das jetzt mehr oder weniger war.
LaMDA soll schon sehr viel besser sein als dieses, und zu der reinen "Intelligenz" kommt ja noch die Frage des Bewusstseins dazu. In der ZEIT ist ein dreiseitiges Dossier über die Geschichte dieses Tools drinnen, und am Ende hat ja lediglich ein Programmierer gegen einen anderen, weil er weniger religiös geprägt ist, die Frage des Bewusstseins verneint.

Was im KI-Strang hin und her diskutiert wurde, ist auf einmal Thema in der Qualitätspresse. Ich bin mir sicher, dass diese Revolution aus den Programmierbüros rasend schnell um sich greifen wird, viel schneller, als ich mir das noch vor Wochen vorstellen konnte. Sie wird von oben her inszeniert, sich aber von unten her, von den Jungen her, durchsetzen. Und im Prinzip müssten wir tatsächlich mal historisch über unseren Bildungsbegriff, über humanistische Ideale diskutieren. Unser Bildungsbegriff ist ja schon ein Ergebnis der Restaurationszeit, eine quietistische und gleichzeitig klassenabgrenzende Antwort des gehobenen Bürgertums auf die machtpolitische Ohnmacht sowohl in der Metternich-Zeit als auch nach der verlorenen 48er Revolution. Er muss deshalb nicht sinnlos oder falsch sein, aber sein Idealismus mit dem Ergebnis der Hochschätzung der klassischen Bildung gegenüber der praktischen weht noch immer durch die Gesellschaft - durch ein philosophisches Forum zumal.

sybok hat geschrieben :
Di 17. Jan 2023, 11:11
Lucian Wing hat geschrieben :
Di 17. Jan 2023, 09:38
Diese Dinge werden die Zukunft sein, in ihnen wird sich, philosophisch gesprochen, auch die Postmoderne vollenden.
So ähnliche Gedanken mit Stichwort Postmoderne sind mir auch gekommen, aber unscharf und leider nur gefühlsmässig. Kannst du mir helfen das genauer zu erfassen und ein, zwei Worte sagen, inwiefern sich in ihnen die Postmoderne vollendet? Klingt interessant.
Abschied von der Wahrheit, Leben als reine Textgenerierung unter Verwischung der Grenzen zwischen Tatsachen und Erzählungen. Es kommt nicht mehr darauf an, was ist, sondern was erzählt wird. (Etwas sehr grob gesagt). Es ist schade, dass Carl S. nicht hier ist, denn ihn könnte man mal fragen, inwieweit die Theorie seines geliebten Brandom mit seinem Inferentialismus genau auf diese Tools passt.

Nachtrag: Bei dieser reinen Texproduktion braucht alles nur noch geglaubt werden. Alle Wirklichkeit steckt im Text an sich, nicht mehr in einem unabhängig von ihm überprüfbaren Bereich. Die Qualität des Textes misst sich bestenfalls an einer Ästhetik und nicht mehr an wahr oder falsch (mir sind die Adjektive eigentlich lieber als das Substantiv "Wahrheit").



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 17. Jan 2023, 12:50

Oh ja, wir Mensche sind so unglaublich anpassungsfähig:
Vor drei Wochen hab ich mit einem Bekannten über ChatGPT gesprochen und wir haben gewitzelt und gewarnt, wie viele Fehler es macht und es teilweise Fantasie-Fakten präsentiert. Letztes Wochenende haben wir uns wieder getroffen und ich sagte ihm, dass ich bereits Mühe hätte, mir immer bewusst zu bleiben, dass ich alles nochmals überprüfen müsste. Seine Antowort war, er glaube dem Programm eh bereits alles und benutze es eigentlich schon recht intensiv bei der Arbeit (Molekularbiologe bei einem internationalen Pharmakonzern), das war zwar halb im Scherz gesagt - aber eben nur halb.

Bei LaMDA und dieser Bewusstseinsgeschichte bleibe ich noch skeptisch, die können ja behaupten was sie wollen, solange wir nicht Zugang haben.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 13:55

Manche dieser Tools wurden "Trainiert", Bilder „im Stil von“ zu erstellen. Manche Künstler verbringen ihr leben damit, eine eigene unverwechselbare Bildsprache zu entwickeln. Das kommerziell zu imitieren, wäre verwerflich. Die Juristen streiten bereits: "In der EU fechten Juristen die Rechtmäßigkeit der Verwendung urheberrechtlich geschützter Bilder für das Training von KI-Modellen an, aber Großbritannien, das eine führende Rolle in der Branche übernehmen möchte, hat bereits einen Gesetzentwurf vorgelegt, der KI-Training für kommerzielle Zwecke ohne Einschränkung erlaubt." (Freitag)




Benutzeravatar
Lucian Wing
Beiträge: 790
Registriert: Do 7. Jul 2022, 18:40

Di 17. Jan 2023, 14:19

sybok hat geschrieben :
Di 17. Jan 2023, 12:50


Bei LaMDA und dieser Bewusstseinsgeschichte bleibe ich noch skeptisch, die können ja behaupten was sie wollen, solange wir nicht Zugang haben.
Der Autor des Dossiers hat einen interessanten Hinweis auf Nagel gemacht. Wenn Thomas Nagel mit seinem Fledermaus-Aufsatz recht hat, dann stehen wir vor einem Problem. Wissen wir nämlich nicht, wie es sich für die Fledermaus anfühlt, eine solche zu sein, wenn wir also die Qualia, dieses "wie es sich anfühlt, x zu sein" aus der Dritte-Person-Perspektive nicht fassen können, haben wir ein Problem mit einer KI, die behauptet, ein Bewusstsein von sich selbst zu haben, die also sagt, sie, die KI zu sein, fühle sich auf ganz bestimmte Weise an. Sie kann mir ja auch wieder sagen, ich sei ein Zombie.



Als ich vierzehn war, war mein Vater so unwissend. Ich konnte den alten Mann kaum in meiner Nähe ertragen. Aber mit einundzwanzig war ich verblüfft, wieviel er in sieben Jahren dazu gelernt hatte. (Mark Twain)

sybok
Beiträge: 374
Registriert: Mi 7. Sep 2022, 17:36

Di 17. Jan 2023, 15:26

Jörn Budesheim hat geschrieben :
Di 17. Jan 2023, 13:55
Manche dieser Tools wurden "Trainiert", Bilder „im Stil von“ zu erstellen. Manche Künstler verbringen ihr leben damit, eine eigene unverwechselbare Bildsprache zu entwickeln. Das kommerziell zu imitieren, wäre verwerflich. Die Juristen streiten bereits: "In der EU fechten Juristen die Rechtmäßigkeit der Verwendung urheberrechtlich geschützter Bilder für das Training von KI-Modellen an, aber Großbritannien, das eine führende Rolle in der Branche übernehmen möchte, hat bereits einen Gesetzentwurf vorgelegt, der KI-Training für kommerzielle Zwecke ohne Einschränkung erlaubt." (Freitag)
Ist halt so eine Art "race-to-the-bottom", jene die am meisten erlauben und am wenigsten regulieren, werden die mächtigsten Systeme haben - und das wollen alle. Es ist beinahe ein "winner-takes-it-all" Geschäft, ein gutes System ist praktisch bereits bedeutungslos, wenn es ein anderes System gibt, das eine Millisekunde schneller, einen Tick "besser" ist.
Ich wollte das schon mal im KI-Thread ansprechen, als es um "KI = Marketingbegriff" ging: Eine riesige Rolle spielt auch das Militär. Das US Militär hatte das mal - nun schon einige Jahre her - kommuniziert, dass sie bei der Entwicklung von autonomen Systemen kaum eine Wahl hätten als Vollgas Dystopie zu fahren, wenn sie nicht in kürzester Zeit von China und anderen Spielern abgehängt werden wollten, die Entwicklungen bedenkenlos vorantrieben.
Ein spieltheoretisches Dilemma für Alle.
Lucian Wing hat geschrieben :
Di 17. Jan 2023, 14:19
Der Autor des Dossiers hat einen interessanten Hinweis auf Nagel gemacht. Wenn Thomas Nagel mit seinem Fledermaus-Aufsatz recht hat, dann stehen wir vor einem Problem. Wissen wir nämlich nicht, wie es sich für die Fledermaus anfühlt, eine solche zu sein, wenn wir also die Qualia, dieses "wie es sich anfühlt, x zu sein" aus der Dritte-Person-Perspektive nicht fassen können, haben wir ein Problem mit einer KI, die behauptet, ein Bewusstsein von sich selbst zu haben, die also sagt, sie, die KI zu sein, fühle sich auf ganz bestimmte Weise an. Sie kann mir ja auch wieder sagen, ich sei ein Zombie.
Ja! Das war ja auch meine Position im KI-Thread unter dem Stichwort "Phänotyp", wir können letztlich nur Verhalten, nur Output bewerten.




Benutzeravatar
Jörn Budesheim
Beiträge: 23270
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 17. Jan 2023, 18:14

In dieser Woche hat Getty Images vor dem High Court of Justice in London ein Verfahren gegen Stability AI eingeleitet. Laut Getty Images verletze Stability AI die Rechte an geistigem Eigentum, einschließlich des Urheberrechts an Inhalten, die Getty Images gehören oder von Getty Images vertreten werden, verletzt hat. Getty Images vertritt den Standpunkt, dass Stability AI Millionen von urheberrechtlich geschützten Bildern und die dazugehörigen Metadaten, die Getty Images gehören oder von Getty Images vertreten werden, unrechtmäßig kopiert und verarbeitet hat, ohne eine Lizenz zu besitzen, um die kommerziellen Interessen von Stability AI zu fördern und die Urheber der Inhalte zu benachteiligen.

https://stadt-bremerhaven.de/klagen-geg ... betroffen/




Antworten