Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 13. Jul 2020, 19:29

Wie heißt es so schön im Sprichwort: wo kein Wille ist, da ist auch kein Weg :)




Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 13. Jul 2020, 19:36

Wie es der Zufall so will, kaum spricht man über Beweise, schon läuft einem ein Zitat über den Weg :)

DIRK BAECKER: Neurowissenschaftler, die das isolierte Gehirn für seine Leistungen verantwortlich machen, sind Wissenschaftler, die nur bis eins zählen können. Sie beschäftigen sich mit dem System des Gehirns und ignorieren Wissenschaften wie die Biologie, die Psychologie und die Soziologie, die auch von Systemen des Organismus, des Bewusstseins und der Gesellschaft sprechen. Empirische Beweise gibt es für keines dieser Systeme, auch nicht für das Gehirn als System. Aber gerade weil es diese Beweise nicht gibt, sollte man die Hypothese nicht ausschließen, dass bewusste Leistungen sich dem Wechselspiel von mehr als einem System verdanken.

(Aus: Matthias Eckold, Kann sich das Bewusstsein bewusst sein?)




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

Mo 13. Jul 2020, 19:43

Jörn Budesheim hat geschrieben :
Mo 13. Jul 2020, 19:07

Markus Gabriel, der mit Koch und Giulio Tononi der zusammenarbeitet, fasst es prägnant so zusammen: "Unsere Intelligenz entsteht im Spielraum zwischen Tod und Leben. Wo der nicht vorliegt, gibt es keinen Geist, kein Denken, kein Bewusstsein, und zwar prinzipiell nicht."
Vielleicht habe ich zuviel SciFi geguckt, aber ich kann mir einfach nicht erklären, warum es nicht denkbar sein soll, dass es einmal eine lernfähige KI geben wird, die so etwas wie Empfindsamkeit, Sozialverhalten, Selbsteinsicht etc. ausbildet. Und notwendigerweise müsste ein solches System auch sterben können, wie Arnold Schwarzenegger in jenem unvergesslichen Moment seines Untergangs in geschmolzenem Metall. :)



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 13. Jul 2020, 19:55

Ich schaue auch gerne Science-Fiction. Und vielleicht gelingt es uns, irgendwann biologische Systeme zu entwickeln. Dann sehen die Dinge anders aus. In Blade Runner werden solche Dinge gut durchgespielt. Da geht es z.b. auch um die Frage, ab wann man diese Systeme als autonom betrachten muss. Die Fortsetzung gibt folgende Antwort: wenn sie sich selbst biologisch fortpflanzen können!

Aber intelligente Computer, ohne Gefühle, ohne biologische Grundlage - da glaube ich im Leben nicht dran, dass das möglich ist.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mo 13. Jul 2020, 20:05

Hallo Friederike,
Friederike hat geschrieben :
Mo 13. Jul 2020, 16:45
Burkart hat geschrieben :
Mo 13. Jul 2020, 07:22
[...]Computer-(Selbst-)Bewusstsein kann man auch versuchen zu modellieren (wobei die Frage ist, was das genauer sein soll); Gefühle dagegen haben aus meiner Sicht bei KI nichts (unbedingt) zu suchen. [...]
@Jörn hatte oben gemeint, nur Menschen würden Ziele verfolgen und Du würdest Gefühle nicht unbedingt der KI zuordnen. Mich bringt Ihr beide zu der Frage an Dich @Burkart, ob Du meinst, Neugier und Interesse könne man künstlich ... generieren, programmieren?
Ich denke ja.
Ausgangspunkt sind für mich grundlegend programmierte Ziele, neben "diene dem Menschen" auch etwas wie "lerne möglichst viel (Sinnvolles)".
Neugier bzw. Interesse könnte z.B. sein, neue Wörter verstehen zu wollen. Dies würde natürlich ein zumindest grundlegendes, aber ausbaufähiges Sprachverstehen erfordern.
Neugier bzw. Interesse könnte als Roboter daran bestehen, seine Arme und Beine o.ä. sinnvoll zu bewegen lernen, z.B. wenn man ihm vorgibt, dass er sich Richtung eines Ortes bewegen soll.
Neugier bzw. Interesse könnte bei schon einigem bestehenden Wissen darin bestehen, das Wissen durch Variieren von kleinen Dingen zu erweitern. Wenn z.B. eine Löwe als gefährliche Großkatze bekannt ist und ein Tiger als weitere (insofern ähnliche) Großkatze kennengelernt wird, könnte die KI sich fragen, ob die Gefährlichkeit sich auch auf den Tiger bezieht. Und wäre dies bei anderen großen oder kleinen Tieren? U.ä.
Es müssen doch Fragen gestellt werden
Richtig, z.B. wenn bei der Großkatze unklar ist, könnte sie dies erfragen.
Oder wenn eine KI irgendetwas im Normalfalle kann, aber auf einmal eine Situation vorliegt, in der dies nicht mehr geht, könnte sie daraus interessiert lernen.
und Absichten vorliegen, also das, was ich Antrieb nennen würde
Dazu dienen die grundlegenden Ziele.
(Interesse und Neugier - Gefühle sind es sicher nicht, ich weiß keinen Oberbegriff dafür, [engagierte] Haltung vielleicht), damit überhaupt die Situation eintreten kann, ein Ziel erreichen zu wollen, zu einem bestimmten Ergebnis kommen zu wollen.
Dass ein Programm als KI überhaupt irgendwas tut, ist nicht das Problem; die Frage ist vielmehr, dass sie das gewünschte tun (deshalb die Grundziele). Insofern ist es bei Programmen eher das Problem, ein zu erreichendes Ziel zu verstehen als es überhaupt anstreben zu wollen.
Es könnte sein, daß Du dies auch nicht unbedingt zur KI zählst,
Oh doch.
aber wenn das so ist, dann spränge die KI an einer Stelle eines Handlungsvorganges (= Wünsche, Fragen, Interesse, Absichten, Ziele) erst ein. Warum nicht - :lol: nur finde ich das nicht sehr aufregend.
Hm, wieso spränge die KI erst irgendwo ein?



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mo 13. Jul 2020, 20:21

Jörn Budesheim hat geschrieben :
Mo 13. Jul 2020, 18:23
Burkart hat geschrieben :
Mo 13. Jul 2020, 07:22
Kritiker, die Computerdenken ablehnen, gibt es schon lange, sind aber kein Beweis.
Die Ergebnisse der Wissenschaften anzuführen, ist meines Erachtens jedoch ein legitimes argumentatives Verfahren. Das heißt nicht, dass damit irgendetwas bewiesen ist, ich schätze irgendwelche Beweise werden wir hier nicht finden, sondern es geht darum, ein in sich stimmiges argumentatives Gesamtbild zu zeichnen. Und es ist schließlich auch nicht so, dass das eine Nischen-Ansicht von Gelernter ist, sondern das gehört mittlerweile (würde ich fast sagen) zum Gemeingut, ich würde es zum Stichwort "Embodied Cognition" rechnen.
Irgendwie erinnert mich das "Gesamtbild" ein wenig an die Erde als Mittelpunkt des Weltalls und andere Dinge, auf der u.a. die Kirche früher beharrt hat - eben als einen alten, vertrauten Standpunkt, der möglichst nicht erschüttert werden soll.
Ja, heutzutage können sich viele nicht vorstellen, wie allgemeine KI gehen kann. Man dachte früher auch mal, dass Menschen in Eisenbahnen ab einer zu hoher Geschwindigkeit (> 30 km/h!?) zerdrückt würden u.ä. Erst wenn man etwas ausprobiert hat, kann man sich einer Sache sicher(er) sein.

Ein Weg zu prüfen, was gehen kann und was nicht, ist bestimmte Argumente oder Begrifflichkeiten genauer zu analysieren. Z.B. kann ich mir das Bewusstsein des Selbst für eine KI gut vorstellen, in dem die KI erkennt, dass sie durch bestimmte Handlungen/Aktionen die Welt verändert, also direkten Einfluss auf die Welt hat, eben durch sie selbst.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mo 13. Jul 2020, 20:23

Burkart hat geschrieben :
Mo 13. Jul 2020, 20:21
Irgendwie erinnert mich das "Gesamtbild" ein wenig an die Erde als Mittelpunkt des Weltalls und andere Dinge, auf der u.a. die Kirche früher beharrt hat - eben als einen alten, vertrauten Standpunkt, der möglichst nicht erschüttert werden soll.
Das ist ein ad hominem "Argument". Darauf werde ich nicht antworten.




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mo 13. Jul 2020, 20:28

Jörn Budesheim hat geschrieben :
Mo 13. Jul 2020, 19:55
Ich schaue auch gerne Science-Fiction.
Mein (klassischer SF-)Lieblingsautor ist auf jeden Fall Issac Asimov; er schildert (u.a.) die Roboter sehr plausibel und wissenschaftsnah.
Aber intelligente Computer, ohne Gefühle, ohne biologische Grundlage - da glaube ich im Leben nicht dran, dass das möglich ist.
VIelleicht nicht "im Leben", aber vielleicht "mit Technik"? ;)



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mo 13. Jul 2020, 20:39

Jörn Budesheim hat geschrieben :
Mo 13. Jul 2020, 20:23
Burkart hat geschrieben :
Mo 13. Jul 2020, 20:21
Irgendwie erinnert mich das "Gesamtbild" ein wenig an die Erde als Mittelpunkt des Weltalls und andere Dinge, auf der u.a. die Kirche früher beharrt hat - eben als einen alten, vertrauten Standpunkt, der möglichst nicht erschüttert werden soll.
Das ist ein ad hominem "Argument". Darauf werde ich nicht antworten.
I. Asimov hat in einem Roman schön beschrieben, wie Wissenschaftler sich nur noch mit die Ideen früherer Wissenschaftler beschäftigt haben und daraus versuchen ihr Wissen abzuleiten. Das geht für mich ein wenig in die Richtung hier; weil es angeblich nicht sein kann und weil es gerne gesagt wird (z.B. weil es einfacher ist (man muss nicht viel begründen oder gar beweisen) und weil es viele Leute gerne hören, z.B. aus Angst/Respekt vor KI), wird es gerne als Indiz genommen, dass es stimmt - so etwas wie ein Teufelskreis.

Also konkret gefragt: Warum soll Intelligenz (z.B. Zielerreichung, z.B. von einem Ort Z) unbedingt mit Leben zu tun haben? Reiner Glauben daran nützt uns letztlich nichts.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 14. Jul 2020, 06:18

Alethos hat geschrieben :
Mo 13. Jul 2020, 19:43
Vielleicht habe ich zuviel SciFi geguckt, aber ich kann mir einfach nicht erklären, warum es nicht denkbar sein soll, dass es einmal eine lernfähige KI geben wird, die so etwas wie Empfindsamkeit, Sozialverhalten, Selbsteinsicht etc. ausbildet ...
Die These des Threads ist ja nicht, dass es Menschen niemals gelingen könnte, eine Art funktionieren Frankenstein zu bauen. Die These lautet schließlich, dass Computer niemals werden denken können. Bestritten wird, dass es also Computer geben könnte, die selbst Geist haben, fähig sind eigenständig zu handeln und kognitiv-geistige Zustände zu verstehen und zu erleben und nicht nur komplexe und leistungsstarke Werkzeuge sind. So dass man - in der Diktion von John Searle - von einem Unterschied zwischen Syntax und Semantik ausgehen kann! Die Computer wären dann also nicht mehr "syntaktische Maschinen" ...

Wolfgang Wahlster: Ich beschäftige mich seit über 30 Jahren mit dem Thema KI. Wenn man so lange an diesem Thema arbeitet, bekommt man trotz aller Forschungserfolge immer mehr Respekt vor der menschlichen Intelligenz. Trotz aller wissenschaftlichen Durchbrüche der KI, an denen auch deutsche Wissenschaftler maßgeblich beteiligt waren, wie dem Sieg über einen Schachweltmeister, der Dialogübersetzung auf dem Smartphone oder dem selbstfahrenden Auto, ist es Science-Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne ... (und wie im Science-Fiction a la Terminator für uns gefährlich werden könnte z.b.)

Wolfgang Wahlster ist Professor für Informatik und arbeitet am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI GmbH)

Einen entscheidenden Begriff hast du, soweit ich mich entsinne, vor ein paar Beiträgen selbst beigesteuert: Intentionalität. Intentionalität ist jedoch wesentlich verkörperte Intentionalität. Soweit ich mich entsinne haben Christoph Koch und Giulio Tononi eine entsprechende Wende hingelegt. Ich habe den Artikel aber jetzt nicht parat. Während sie früher glaubten, dass jede hinreichend komplexe Struktur letztlich Intentionalität/Bewusstsein haben könne, gehen sie jetzt wohl davon aus, dass dies biologischen Leben vorbehalten ist. Das wäre dann ein empirisches Datum, ob das letztlich standhält, müssen die weiteren Forschungen zeigen. Das ist ein Aspekt, der sich natürlich nicht einfach aus dem Lehnstuhl heraus entscheiden lässt.

Eine andere Frage ist jedoch, was wir unter "Denken" überhaupt sinnvollerweise verstehen. Unsere Begriffs-Wörter sind schließlich keine freischwebenden Entitäten, die wir nach Belieben abändern können, ohne dass sie letztlich etwas anderes bedeuten. Wenn man sich auf die Suche nach etwas macht, ist es nicht schlecht, eine ungefähre Vorstellung davon zu haben, was man da eigentlich sucht :)

Zum Denken gehört meines Erachtens notwendig, dass man Gründe erfassen kann! Dabei geht es natürlich nicht nur um ein nihilistisches Regelbefolgen, sondern um ein Nachvollziehen und Verstehen der Gründe. Dass es z.b. richtig ist, Schmerz zu vermeiden bei sich und bei anderen kann jedoch nur ein Wesen verstehen, das einen Begriff von Schmerz hat. Einen Begriff von vollwertigen Schmerz kann nur haben, wer ihn schon empfunden hat.

Eine Entität, die weder positive noch negative Gefühle kennt, hat wortwörtlich keinen Grund, überhaupt etwas zu tun und zu denken.

In Blade Runner 1 wird das durchgespielt. Die Replikanten kommen zurück, weil sie ein eigenes Ziel haben! Sie wollen mehr Leben. Ein Ziel ist etwas, was man anstrebt, weil es erstrebenswert ist oder, weil man es für erstrebenswert hält. (Man kann sich darüber schließlich täuschen!) Den Wert des Lebens haben sie am eigenen Leib gespürt ... die Replikanten sind auch zu eigenständigen ethischen Erkenntnissen fähig, der Replikant, der von Rutger Hauer gespielt wird, lässt Deckert schließlich am Leben.




Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Di 14. Jul 2020, 09:20

Burkart hat geschrieben :
Mo 13. Jul 2020, 20:39
Asimov hat in einem Roman schön beschrieben, wie Wissenschaftler sich nur noch mit die Ideen früherer Wissenschaftler beschäftigt haben
Asimov ist ein Künstler und Naturwissenschaftler gewesen. Er wurde vor 100 Jahren geboren. Seine wissenschaftlichen und ästhetischen Ansichten sind dementsprechend ungefähr ein halbes Jahrhundert alt, man kann also mit Fug und Recht sagen, dass es sich hier um Ideen eines früheren Wissenschaftlers handelt. Im Gegensatz dazu, sind die Wissenschaftler, die ich in diesem Thread erwähnt habe, keine "früheren Wissenschaftler", es handelt sich dabei jeweils U aktuelle wissenschaftliche Forschungen.

Das heißt natürlich nicht, dass Asimov im (Un)recht ist. Es heißt auch nicht, dass die aktuellen Forscher im (Un)recht sind. Es heißt aber in meinen Augen, dass dein Hinweis "die Ideen früherer Wissenschaftler" "irgendwie seltsam" ist :-)

Oder hast du damit dich selbst gemeint?




Benutzeravatar
Friederike
Beiträge: 4950
Registriert: Mi 19. Jul 2017, 07:48

Di 14. Jul 2020, 13:34

Burkart hat geschrieben :
Mo 13. Jul 2020, 20:05
Hm, wieso spränge die KI erst irgendwo ein?
Meine Bemerkung und Deine Nachfrage zeigen eigentlich schön, in wie unterschiedlichen Welten wir leben. Nein, das tun wir natürlich nicht*, aber wir haben doch unterschiedliche Blickwinkel. Du tüftelst mit Forscherneugier daran herum, wie man einen kleinen Ausschnitt des Menschen, die I, in ein Gerät einprogrammieren kann, damit das Gerät bzw. das Programm darin wie die I eines Menschen arbeitet. Vergleichbar vielleicht der Forschung, die versucht, ein Auge oder ein Ohr künstlich herzustellen, das so funktioniert wie ein menschliches Auge (incl. Anschluß an das Gehirn). Es geht also um einen Ausschnitt, einen Teilbereich, mehr nicht.

Und ich habe bei meiner Bemerkung an die Nachbildung eines ganzen Menschen gedacht (ohne die äußere Erscheinung, ohne Fleisch und Blut). Wozu der weitere Rahmen des Themas hier auch verleitet. Da ich also vorausgesetzt hatte, es ginge zumindest um die Programmierung eines kompletten Handlungsablaufes, habe ich von einem Einspringen an einer Stelle des Handlungsablaufes geschrieben, womit ich mich darauf beziehe, daß KI zu programmieren derzeit nicht mehr bedeutet als Ziele zu setzen und Lösungswege zum Erreichen dieser Ziele zu erarbeiten.


*En passant: Schon wegen der räumlichen Nähe unserer Wohnorte, Du in der "Metropolregion", der neue Raumordnungsbegriff (vermutlich zur Aufwertung der "Kaffs") erdacht, ich in der "Metropole. "




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 14. Jul 2020, 22:06

Friederike hat geschrieben :
Di 14. Jul 2020, 13:34
Burkart hat geschrieben :
Mo 13. Jul 2020, 20:05
Hm, wieso spränge die KI erst irgendwo ein?
Meine Bemerkung und Deine Nachfrage zeigen eigentlich schön, in wie unterschiedlichen Welten wir leben. Nein, das tun wir natürlich nicht*, aber wir haben doch unterschiedliche Blickwinkel. Du tüftelst mit Forscherneugier daran herum, wie man einen kleinen Ausschnitt des Menschen, die I, in ein Gerät einprogrammieren kann, damit das Gerät bzw. das Programm darin wie die I eines Menschen arbeitet. Vergleichbar vielleicht der Forschung, die versucht, ein Auge oder ein Ohr künstlich herzustellen, das so funktioniert wie ein menschliches Auge (incl. Anschluß an das Gehirn). Es geht also um einen Ausschnitt, einen Teilbereich, mehr nicht.

Und ich habe bei meiner Bemerkung an die Nachbildung eines ganzen Menschen gedacht (ohne die äußere Erscheinung, ohne Fleisch und Blut). Wozu der weitere Rahmen des Themas hier auch verleitet. Da ich also vorausgesetzt hatte, es ginge zumindest um die Programmierung eines kompletten Handlungsablaufes, habe ich von einem Einspringen an einer Stelle des Handlungsablaufes geschrieben, womit ich mich darauf beziehe, daß KI zu programmieren derzeit nicht mehr bedeutet als Ziele zu setzen und Lösungswege zum Erreichen dieser Ziele zu erarbeiten.


*En passant: Schon wegen der räumlichen Nähe unserer Wohnorte, Du in der "Metropolregion", der neue Raumordnungsbegriff (vermutlich zur Aufwertung der "Kaffs") erdacht, ich in der "Metropole. "
Das Setzen und Erreichen ist ein zentraler Punkt für (m)eine KI-Vorstellung und insofern vielleicht "ein kleiner Ausschnitt" hinsichtlich Intelligenz. Natürlich gehört noch mehr dazu wie Fähigkeiten zur Abstraktion, Planung, "Intuition", "Kreativität" - letztere Begriffe in "", weil Menschen sie gerne nur auf sich beziehen mögen

Inwiefern denkst du, dass eine "Nachbildung eines ganzen Menschen" mehr ist, wenn wir von Computertechnik gemeinsam als Basis ausgehen?
Was wäre sie ggf. mehr?

Schönen Gruß in meine (Flug-)Hafen Stadt, aktuell etwas diesig, sonst könnte ich den Fernsehturm u.ä. vernünftig sehen von hier...



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 14. Jul 2020, 22:31

Jörn Budesheim hat geschrieben :
Di 14. Jul 2020, 09:20
Burkart hat geschrieben :
Mo 13. Jul 2020, 20:39
Asimov hat in einem Roman schön beschrieben, wie Wissenschaftler sich nur noch mit die Ideen früherer Wissenschaftler beschäftigt haben
Asimov ist ein Künstler und Naturwissenschaftler gewesen. Er wurde vor 100 Jahren geboren. Seine wissenschaftlichen und ästhetischen Ansichten sind dementsprechend ungefähr ein halbes Jahrhundert alt, man kann also mit Fug und Recht sagen, dass es sich hier um Ideen eines früheren Wissenschaftlers handelt. Im Gegensatz dazu, sind die Wissenschaftler, die ich in diesem Thread erwähnt habe, keine "früheren Wissenschaftler", es handelt sich dabei jeweils U aktuelle wissenschaftliche Forschungen.

Das heißt natürlich nicht, dass Asimov im (Un)recht ist. Es heißt auch nicht, dass die aktuellen Forscher im (Un)recht sind. Es heißt aber in meinen Augen, dass dein Hinweis "die Ideen früherer Wissenschaftler" "irgendwie seltsam" ist :-)

Oder hast du damit dich selbst gemeint?
Klar, Asimov ist schon "nur" noch ein gestorbener Klassiker der Science Fiction, ein ähnlicher Visionär hinsichtlich Roboter wie Jule Vernes für lange U-Bootfahren u.a.
Er hat viele Probleme aufzeigt - und nicht nur hinsichtlich Robotern, sondern vor allem hinsichtlich seines Foundation-Zyklus mit dem Untergang seines Galaktischen Imperiums bis hin zur "Rückkehr zur Erde". Hier versucht u.a. ein Historiker die (gut versteckte, weil aus Datenbanken entfernte) Erde zu finden und sucht nach Hinweisen zum Ort der Erde. Dabei trifft er auf andere Wissenschaftler, die z.T. ihre Wissenschaft nur auf der Analyse von Aussagen früherer Wissenschaftlern zu basieren, die noch in einer "besseren", wohl angeblich informierteren Zeit lebten. Dafür war bei ihnen Wissenschaft durch eingene Vorort-Analysen verpönt - man hatte genug mit den Informationen der früheren Wissenschaftlern zu tun.
Darum ging es bei meiner Bemerkung.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Di 14. Jul 2020, 23:14

Jörn Budesheim hat geschrieben :
Di 14. Jul 2020, 06:18
Alethos hat geschrieben :
Mo 13. Jul 2020, 19:43
Vielleicht habe ich zuviel SciFi geguckt, aber ich kann mir einfach nicht erklären, warum es nicht denkbar sein soll, dass es einmal eine lernfähige KI geben wird, die so etwas wie Empfindsamkeit, Sozialverhalten, Selbsteinsicht etc. ausbildet ...
Die These des Threads ist ja nicht, dass es Menschen niemals gelingen könnte, eine Art funktionieren Frankenstein zu bauen. Die These lautet schließlich, dass Computer niemals werden denken können. Bestritten wird, dass es also Computer geben könnte, die selbst Geist haben, fähig sind eigenständig zu handeln und kognitiv-geistige Zustände zu verstehen und zu erleben und nicht nur komplexe und leistungsstarke Werkzeuge sind. So dass man - in der Diktion von John Searle - von einem Unterschied zwischen Syntax und Semantik ausgehen kann! Die Computer wären dann also nicht mehr "syntaktische Maschinen" ...
Wo ist für dich genau die Grenze zwischen Computer oder Roboter/Art von "Frankenstein"?
Darf dein Computer noch "SInne", also Eingaben von der Welt haben wie durch eine Kamera u.ä.? Darf dein Computer etwas in der Welt verändern können, z.B. durch Steuerung eines (Roboter-)Arms? Gibt es also überhaupt eine klare Grenze zwischen Computer und Roboter?
Wolfgang Wahlster: Ich beschäftige mich seit über 30 Jahren mit dem Thema KI. Wenn man so lange an diesem Thema arbeitet, bekommt man trotz aller Forschungserfolge immer mehr Respekt vor der menschlichen Intelligenz. Trotz aller wissenschaftlichen Durchbrüche der KI, an denen auch deutsche Wissenschaftler maßgeblich beteiligt waren, wie dem Sieg über einen Schachweltmeister, der Dialogübersetzung auf dem Smartphone oder dem selbstfahrenden Auto, ist es Science-Fiction, zu behaupten, dass die künstliche Intelligenz sich verselbständigen könne ... (und wie im Science-Fiction a la Terminator für uns gefährlich werden könnte z.b.)
Ich sehe nicht, wo er irgendwie KI als nicht machbar ansieht o.ä. Natürlich die unsere Intelligenz sehr komplex und die bisherigen Erfolge nur ein Anfang, die mit allgemeiner, starker KI noch nicht viel zu tun haben. Und ich sehe es auch so, dass KI sich nicht von sich aus verselbständigen wird - solange sie nicht entsprechend bösartig programmiert wurde. Wir wollen sie doch auch als beherrschbares Werkzeug.
Wolfgang Wahlster ist Professor für Informatik und arbeitet am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI GmbH)
Übrigens beschäftige ich mich auch seit über 30 Jahren mit KI, falls es interessiert, wenn ich mich auch nicht wie ein Professor mit Studenten, Verwaltungsarbeit u.ä. rumschlagen muss (wie mein Dozenten-Bruder), sondern "nur" den Gedanken einer starken KI verfolge (außer z.B. mal mit kleinem Ausflug zum Roboterfußball).
Eine andere Frage ist jedoch, was wir unter "Denken" überhaupt sinnvollerweise verstehen. Unsere Begriffs-Wörter sind schließlich keine freischwebenden Entitäten, die wir nach Belieben abändern können, ohne dass sie letztlich etwas anderes bedeuten. Wenn man sich auf die Suche nach etwas macht, ist es nicht schlecht, eine ungefähre Vorstellung davon zu haben, was man da eigentlich sucht :)
Richtig, Wörter sind insofern faszinierend, alss dass sie eine KI lernen muss zu verstehen, wenn wir wollen, dass sie die/eine Welt versteht. Ich hatte mal ein Programm geschrieben, dass etwas wie "links" u.ä. in einer einfachen Welt lernt; einen groben Text dazu habe ich hier: Die Links-KI
Zum Denken gehört meines Erachtens notwendig, dass man Gründe erfassen kann! Dabei geht es natürlich nicht nur um ein nihilistisches Regelbefolgen, sondern um ein Nachvollziehen und Verstehen der Gründe.
Sicherlich ein guter Aspekt; Actio-Reactio, Ursache-Wirkung u.ä., viel zu "erfassen", genauer zu lernen für jede Intelligenz, soweit möglich.
Dass es z.b. richtig ist, Schmerz zu vermeiden bei sich und bei anderen kann jedoch nur ein Wesen verstehen, das einen Begriff von Schmerz hat. Einen Begriff von vollwertigen Schmerz kann nur haben, wer ihn schon empfunden hat.
Man kann auch rein verstandesgemäß verstehen, dass Schmerz minimierbar sein sollte; z.B. kann ein Mann verstehen, dass eine Frau möglichst wenig Schmerzen bei der Geburt haben möchte, ohne es selbst nachvollziehen zu können. Man(n) muss es halt nicht perfekt nachvollziehen können.
Sehende können Probleme von Blinden nur bedingt nachvollziehen, weil ihnen ihre Probleme nicht alltäglich vertraut sind; trotzdem können sie sich damit befassen und schon teilweise verstehen (lernen ggf.).
Ähnlich kann man einer KI auch gewisse Dinge zu "verstehen" beibringen, auch wenn sie sie nicht direkt nachvollziehen können.
Eine Entität, die weder positive noch negative Gefühle kennt, hat wortwörtlich keinen Grund, überhaupt etwas zu tun und zu denken.
Dass ein Mensch überhaupt etwas denkt, liegt an der neuronalen Struktur seines Gehirn, an den immer mal wieder feuernden Neuronen u.ä.
Bei einem Computer ist im angeschalteten Zustand zumindest immer die CPU/der zentrale Prozessor aktiv, er computer-denkt also irgendetwas ständig.
Ein tieferer Grund wird also nicht benötigt.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 15. Jul 2020, 14:27

Burkart hat geschrieben :
Di 14. Jul 2020, 23:14
Dass ein Mensch überhaupt etwas denkt, liegt an der neuronalen Struktur seines Gehirn, an den immer mal wieder feuernden Neuronen u.ä.
Woher weißt du das? Denis Noble ist zum Beispiel der Ansicht, dass bewusstes Erleben eine Eigenschaft des Körpers als Ganzes ist. Das gilt demnach auch für bewusstes Denken.




Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 15. Jul 2020, 14:33

Burkart hat geschrieben :
Di 14. Jul 2020, 23:14
Sicherlich ein guter Aspekt; Actio-Reactio, Ursache-Wirkung u.ä., viel zu "erfassen", genauer zu lernen für jede Intelligenz, soweit möglich.
An der Stelle ging es ja nicht um Ursachen, sondern um Gründe. Was ich da gemeint habe, hab ich doch auch skizziert.




Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 15. Jul 2020, 15:17

Burkart hat geschrieben :
Di 14. Jul 2020, 23:14
Roboter/Art von "Frankenstein"?
Der Frankenstein ist doch kein Roboter. Frankenstein ist biologisch. Das war ja den damaligen Wissenschaften abgeschaut: Elektrizität und Körperteile, es gab ja wirklich Experimente mit Leichen(teilen).




Burkart
Beiträge: 2748
Registriert: Sa 11. Jul 2020, 09:59

Mi 15. Jul 2020, 19:41

Jörn Budesheim hat geschrieben :
Mi 15. Jul 2020, 14:27
Burkart hat geschrieben :
Di 14. Jul 2020, 23:14
Dass ein Mensch überhaupt etwas denkt, liegt an der neuronalen Struktur seines Gehirn, an den immer mal wieder feuernden Neuronen u.ä.
Woher weißt du das? Denis Noble ist zum Beispiel der Ansicht, dass bewusstes Erleben eine Eigenschaft des Körpers als Ganzes ist. Das gilt demnach auch für bewusstes Denken.
Dann umgekehrt gesagt: Kannst du dir vorstellen, dass ein Mensch ohne Gehirn und seinen neuronalen Strukturen denken kann? Wohl kaum, mehr wollte ich hier nicht gesagt haben.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Jörn Budesheim
Beiträge: 23274
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

Mi 15. Jul 2020, 19:47

Burkart hat geschrieben :
Mi 15. Jul 2020, 19:41
Kannst du dir vorstellen, dass ein Mensch ohne Gehirn und seinen neuronalen Strukturen denken kann? Wohl kaum, mehr wollte ich hier nicht gesagt haben.
Aber du hast mehr gesagt!

"Dass ein Mensch überhaupt etwas denkt, liegt an der neuronalen Struktur seines Gehirn, an den immer mal wieder feuernden Neuronen u.ä. Bei einem Computer ist im angeschalteten Zustand zumindest immer die CPU/der zentrale Prozessor aktiv, er computer-denkt also irgendetwas ständig."

Du hast das Gehirn und die CPU parallelisiert. Dabei wird der Körper als Ganzes gar nicht erwähnt. Beim Computer, weil er nicht vorkommt. Und beim Mensch, weil er sonst die parallele zerstören würde :)




Antworten