Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Burkart
Beiträge: 2797
Registriert: Sa 11. Jul 2020, 09:59

So 13. Sep 2020, 08:25

NaWennDuMeinst hat geschrieben :
Sa 12. Sep 2020, 20:02
Das Problem mit dem Bewusstsein ist, dass wir kein (oder nur ein sehr geringes) Verständnis von seiner Entstehung und Funktion haben.
Ich würde eher sagen, wir haben hier eher nicht genauer überlegt, was Bewusstsein überhaupt ist bzw. sein soll. Sollten wir damit nicht anfangen?
Klar, der Begriff ist schwierig und alles andere als ganz klar, aber gewisse Dinge können wir über es ja schon sagen und sei es annähernd.

Laut wikipedia ist Bewusstsein "im weitesten Sinne das Erleben mentaler Zustände und Prozesse".
Ok, "Leben" bei "Erleben" darf man bei KI (bzw. einer Maschine) natürlich nicht wörtlich nehmen, das macht hier keinen Sinn bzw. kann ggf. weiter in Überlegungen diskutiert werden. Vielleicht können wir "Erleben" hier in erster Annäherung als "(ggf. umfangreiche) Verarbeitung von Daten in einem Kontext in Bezug auf die Subjekt" annehmen. Die mentalen Zustände und Prozesse sind dann bei der KI die, die sie (ähnlich dem Menschen) durch Wahrnehmung ((z.B. visuelle) Dateneingabe mit Verarbeitung) gelernt und weiterverarbeitet hat bzw. dies kann.
Deshalb können wir es auch nicht nachbilden.
Das Argument gilt nur bedingt. Wir haben es auch lange nicht geschafft genau zu verstehen, wie ein Vogel oder Insekt fliegen kann, und konnten trotzdem Flugzeuge zu bauen, also das Fliegen auf eine andere Art realisieren.
Aus dieser Verlegenheit heraus machen wir etwas anderes: Wir versuchen stattdessen das Verhalten von Wesen mit einem Bewusstsein auf den Maschinen zu imitieren.
Wir versuchen genauer gewisse Eigenschaften wie Intelligenz nachzubilden, nicht aber unbedingt/gerade Bewusstsein.
Ziel ist es eine Maschine zu erschaffen, die sich wie ein Wesen mit Bewusstsein verhält.
Richtig, da wir i.a. den Menschen (der Bewusstsein hat) als Vorbild nehmen, was ja meistens der Fall ist.
Entscheidend ist hier "verhält" im Sinne einer Blackbox-Ansicht.
Nehmen wir an, das gelänge. Eine Maschine verhält sich exakt so, wie ein Wesen mit Bewusstsein.
Den Nachweis, dass es sich um ein Bewusstsein handelt, könnten wir ja wieder nur anhand des beobachteten Verhaltens erbringen.
Unglücklicherweise ist das bei unseren Mitmenschen genauso: Ob mein Gegenüber ein Bewusstsein hat, kann ich nur daraus ableiten, wie sich mein Gegenüber verhält.
Dass aber hinter diesem Verhalten ein reales Bewusstsein steckt, und keine Simulation oder Imitation, wissen wir dann noch nicht.
Trotzdem gehen wir ja davon aus, dass das Gegenüber über ein Bewusstsein verfügt, wenn es das erwartete Verhalten zeigt.
Daher kommt dann auch die Annahme: Sobald eine Maschine das erwartete Verhalten zeigt, verfügt sie über ein Bewusstsein.
Wie gesagt, es muss ja nicht Bewusstsein sein und sollte es auch nicht (primär zumindest), da eine KI nicht "Künstliches Bewusstsein" heißt, sondern es geht "nur" um intelligentes Verhalten. Inwieweit das 'euer' Bewusstsein erfordert, hängt von eurer genaueren Nutzung dieses Begriffes ab.
Und jetzt kommt die schwierigste Frage, nämlich welches Verhalten soll ein Indiz für Bewusstsein sein? Wenn es zum Beispiel zum Bewusstsein gehört, emotionale Reaktionen zu zeigen, gekränkt, fröhlich, motiviert oder demotiviert zu sein , rational und irrational sein zu können - wenn es dazu gehört, dass sich dieses Bewusstsein auch eigene Ziele schaffen kann, dass es sich selbst motivieren kann, Träume und Phantasien hat, dann sehe ich schwarz für das Bewusstsein auf Siliziumbasis.
Laut Thema geht es ums Denken, nicht um Emotionen, Träume u.ä., insofern kann man da schon differenzieren.
Wenn ein Mensch ganz pragmatisch, quasi emotionslos handelt, meinst du, dass er deshalb kein Bewusstsein hat? Ich glaube nicht.

Richtig, Ziele sollte er haben, also nicht völlig beliebig agieren. Und er sollte sich natürlich auch eigene Ziele setzen können; wobei diese auf grundlegenderen Zielen beruhen. Geht z.B. ein Mensch sich etwas zu essen kaufen (Ziel "Einkauf"), ist sein grundlegenderes Ziel "satt werden"; ist sein Ziel sein Arbeitort, ist sein grundlegenderes "Geld verdienen" bzw. "für seine materiellen Bedürfnisse sorgen" o.ä.
Die grundlegendsten Ziele sind dem Menschen angeboren, etwas ähnliches müsste einer KI programmiert werden - aber nicht (unbedingt) dieselben Ziele: Eine KI muss z.B. keinen Überlebens- oder gar Vermehrungsziel haben, insbesondere keinen Egoismus ("will mehr haben/besser sein als andere" o.ä.). Als Diener des Menschen sollte ein grundlegendes Ziel halt dem Menschen zu dienen sein, ein weiteres (dazu) möglichst viel (Relevantes) zu lernen.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 12:13

Hallo Burkart,

Ich bezog mich auf den Text in Beitrag Nr. 40328.
Dort geht es um Bewusstsein.
Du zitierst bei der Frage danach was Bewusstsein ist Wikipedia:
Danach ist Bewusstein "im weitesten Sinne das Erleben mentaler Zustände und Prozesse"

Zu diesen Zuständen gehört zumindest beim Menschen auch das Träumen, das Phantasieren und natürlich auch das Fühlen.
Und natürlich haben all diese Dinge auch einen nicht geringen Einfluß darauf wie wir denken und damit dann auch darauf wie wir uns verhalten.
Deshalb glaube ich auch nicht, dass es gelingen kann eine Maschine zu schaffen die so denkt wie ein Mensch (und dann auch das entsprechende Verhalten zeigt), weil wir einer Maschine nicht beibringen können zu fühlen, zu träumen und zu phantasieren.
Laut Thema geht es ums Denken, nicht um Emotionen, Träume u.ä., insofern kann man da schon differenzieren.
Es geht nicht einfach nur ums Denken (denn wie gesagt: Wir wissen ja gar nicht genau was das eigentlich ist), sondern darum eine Maschine zu schaffen die das Verhalten zeigt, das Menschen zeigen.
Wenn es nur ums Denken als Abarbeiten von irgendwelchen Inputs und Algorithmen ginge, dann würden Computer wahrscheinlich heute schon denken. Aber wir stellen ja fest dass ihr "Denken" weit davon entfernt ist mit dem Denken eines Menschen identisch zu sein. Und das liegt mMn vor allem daran, dass ganz wichtige Teile dessen was menschliches Denken ausmacht in der Maschine nicht umgesetzt werden können.
Du glaubst jetzt das sei einfach nur eine Frage der richtigen Programmierung. Ich denke man kann wesentliche Teile, die unser Denken prägen gar nicht programmieren (weil diese Teile so nicht funktionieren).
Wenn ein Mensch ganz pragmatisch, quasi emotionslos handelt, meinst du, dass er deshalb kein Bewusstsein hat? Ich glaube nicht.
Erstens glaube ich nicht, dass menschliches Denken komplett von Emotionen befreit sein kann. Emotionen spielen bei allem was wir machen immer mit.
Zweitens ist genau das ja ein entscheidender Vorteil im Denken des Menschen. Nehmen wir doch nur mal an wir wollten eine Maschine schaffen, die für uns ethische Probleme lösen soll.
Möchtest Du das eine emotionslose Maschine erledigen lassen?
Die grundlegendsten Ziele sind dem Menschen angeboren, etwas ähnliches müsste einer KI programmiert werden - aber nicht (unbedingt) dieselben Ziele: Eine KI muss z.B. keinen Überlebens- oder gar Vermehrungsziel haben, insbesondere keinen Egoismus ("will mehr haben/besser sein als andere" o.ä.). Als Diener des Menschen sollte ein grundlegendes Ziel halt dem Menschen zu dienen sein, ein weiteres (dazu) möglichst viel (Relevantes) zu lernen.
Hier sieht man eben schon ganz deutlich wie Du Dir Menschen vorstellst. Nämlich als Bioroboter. Die sind (genetisch) programmiert und spulen dann ihr Programm ab.
Daher rührt auch Deine Ansicht, dass es nur eine Frage der "richtigen Programmierung" ist um eine Maschine zu schaffen, die sich ganz oder in Teilen wie ein Mensch verhält.
Aber hier liegt eben schon mMn der Fehler. Denn so wie Du da den Menschen beschreibst ist er nicht.
Natürlich hat er eine gewisse genetische Programmierung.
Aber wenn alle grundlegenden Bedürfnisse erfüllt sind, macht der Mensch plötzlich etwas ganz Erstaunliches, was keine Maschine auf der Welt kann (und ich denke auch nie können wird).
Er fängt an sich eigene Ziele zu suchen.
Wo in unserer DNA befindet sich zum Beispiel das "Kultur-Gen"? Wo das Spiritualitäts-Gen?
Menschen motivieren sich selbst zum Beispiel in dem sie von etwas phantasieren oder träumen.
Dabei ist es eben nicht so wie Du es beschreibst. Wir verarbeiten nicht einfach einen Input und leiten dann daraus etwas ab, sondern wir erfinden auch Dinge selbsttätig, Dinge die es in de Welt gar nicht gibt, die auch nicht "wahrnehmbar" sind (z.B. die Vorstellung Gott).
In dem Film "A.I." stösst der kleine Kind-Androide David auf die Geschichte "Pinocchio" und setzt diese (fiktive) Geschichte in ein Verhältnis zu sich selbst. David fängt an nach der "blauen Fee" aus der Geschichte zu suchen, weil er glaubt dass diese ihn zu einem "echten Jungen" machen kann. Ausgelöst wird das dadurch, dass seine "Mutter" sich einen echten Jungen (keinen Roboter) wünscht. David wünscht sich von seiner "Mutter" geliebt zu werden.
Nun könnte man auch sagen unser Bedürfnis geliebt zu werden sei ein genetisches Grundprogramm, aber David macht da etwas, was eigentlich nur Menschen können: Er ignoriert das Gegebene (seine Programmierung, die bestimmt wer er ist) und glaubt daran, dass er ein "echter Junge" werden kann. Daraus zieht er dann seine Motivation. Wenn Du so willst hat David hier seine Programmierung selbsttätig geändert und das in eine unvorhersehbare Richtung.
A.I. ist ein Science-Fiction Film. Das was David da macht können Computer nicht. Menschen können das. Sie können sich selbst motivieren und sich selbsttätig Ziele setzten. Diese Ziele können zum Bespiel ausgelöst sein durch Emotionen, oder auch durch Träume. Beides kommt in Maschinen nicht vor.
Ich halte aber Beides für erforderlich, weil es unser Denken und Bewusstsein prägt und ausmacht.
Das ist meine Vorstellung von "Denken" und "Bewusstsein" und natürlich kann man hier einwenden, dass die Erschaffung menschlichen Bewusstseins und Denkens nicht unbedingt das Ziel ist. Stimmt.
Aber es ist das Ziel Maschinen zu schaffen die Probleme lösen wie wir Menschen. Und dafür wäre eben auch ein Bewusstsein oder Denken nötig, das wie menschliches Denken und Bewusstsein funktioniert.
Und das muss scheitern, weil der Intelligenz auf Siliziumbasis dazu etwas fehlt, was sie aus Prinzip nicht haben kann. Gefühle. Träume. Phantasie.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 12:51

Eine andere Sache, die unser Denken, und auch die Art wie wir Probleme angehen prägt, ist der simple Umstand, dass wir sterblich sind.

Wie soll eine Maschine den Wert des Lebens begreifen? Und wenn Sie diesen Wert nicht begreifen kann, wie soll sie diesen Wert in ihre Überlegungen mit einbeziehen?
Man kann der Maschine natürlich Regeln mitgeben. Aber was diese eigentlich bedeuten, kann sie nicht verstehen (sich bewusst machen), weil sie keine Vorstellung davon entwickeln kann was es bedeutet zu leben (und zu sterben).
Unser Denken und Handeln, und die daraus resultierenden Entscheidungen, sind aber stark von der Vorstellung der eigenen Vergänglichkeit geprägt. Viele dieser Entscheidungen sind ohne diesen Hintergrund gar nicht nachvollziehbar.
Und nun stelle man sich vor, man ließe Medizin-Roboter auf die Menschheit los und ließe diese (anstelle von Menschen) medizinisch-ethische Probleme lösen. Da wird einem ja Angst und Bange.
Will ich, dass eine emotionslose Maschine, die den Wert des Lebens gar nicht nachfühlen kann, sich Gedanken um den Wert des Lebens macht? Ganz sicher nicht.
Da kann das Gerät noch so schlau sein... an der Stelle wird es niemals wie ein lebender, sterblicher Mensch denken und Probleme wie ein Mensch lösen können.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23529
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 13. Sep 2020, 13:14

Ich sehe das ähnlich. Die Frage, ob Computer werden denken können, ist implizit eine Frage nach dem Menschen und dem Bild, was wir uns von uns machen.




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 13:33

Falsch.

Denken als eine alleinige Fähigkeit von Lebewesen darzustellen, ist eine Engführung des Begriffs. Denken kennt keine Grenzen, weder körperliche, zeitliche noch technologische. Das folgt aus der realistischen Ansicht, dass Denken nichts Inneres ist, sondern in der Struktur der Wirklichkeit implizitiert ist.

Zu sagen, dass Maschinen niemals denken können werden wie Menschen, das ist begrifflich wahr. Maschinen sind keine Menschen und sie werden Menschlichkeit immer nur simulieren können. Daraus folgt nicht, dass sie nicht denken können werden wie Maschinen.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 13:52

Alethos hat geschrieben :
So 13. Sep 2020, 13:33
Zu sagen, dass Maschinen niemals denken können werden wie Menschen, das ist begrifflich wahr. Maschinen sind keine Menschen und sie werden Menschlichkeit immer nur simulieren können. Daraus folgt nicht, dass sie nicht denken können werden wie Maschinen.
Dann führst Du aber einen Denkbegriff ein, der vollkommen beliebig ist.
An der Stelle brauche ich dann auch nicht mehr sagen, dass Maschinen mal "denken können werden", sondern ich kann sagen, dass sie schon jetzt denken. Sie denken halt wie Maschinen.
Und Karotten denken eben wie Karotten. Überall wird gedacht.
Denn wenn (irgendein) Denken nichts mehr mit "menschlichem Denken" zu tun haben muss, dann ist der Denkbegriff beliebig auf alles anwendbar.
So ist es ja aber nicht: Wenn wir von "Denken" reden haben wir ja auch eine Vorstellung davon, was Denken eigentlich ist, und welche Bedingungen erfüllt sein müssen, damit überhaupt von echtem Denken die Rede sein kann.
Und natürlich dient dabei das menschliche Denken als Vorbild (und nicht etwa irgendeine beliebige, hypothetische Form des Denkens).

Die Frage ist doch, wieso wir überhaupt eine K.I. schaffen wollen. Was denkst Du ist das Ziel?
Das Ziel ist es eine Intelligenz zu schaffen die für uns Probleme löst. Und das natürlich in der Art wie wir Probleme lösen.
Wie wir Probleme lösen, wie wir denken, hat aber was damit zu tun wer wir sind.
Zuletzt geändert von NaWennDuMeinst am So 13. Sep 2020, 13:57, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 13:57

Jörn Budesheim hat geschrieben :
So 13. Sep 2020, 13:14
Die Frage, ob Computer werden denken können, ist implizit eine Frage nach dem Menschen und dem Bild, was wir uns von uns machen.
Das ist falsch und ein Kategorienfehler.

Wenn wir sagen, dass Maschinen denken können werden, implizieren wir nicht, dass Menschen im Grunde maschinell funktionieren, sodass man ihr Tun grundsätzlich von Maschinen ausführen lassen kann.

Wenn wir sagen, dass Maschinen denken können werden, meinen wir damit, dass Denken eine Fähigkeit ist, die nicht allein vom Bild abhängt, das wir von dieser Fähigkeit haben. Denken von Menschen und Denken von Maschinen sind zwei verschiedene Arten von Denken. Und wenn du sagst, dass die Frage, ob Maschinen denken können werden, implizit eine Frage nach dem Bild des Menschen ist, dann begehst du eben einen Kategorienfehler mit Bezug auf diese zwei Arten von Denken.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 13:59

Kann eine Karotte denken? Wenn ja, warum? Wenn nein, warum nicht?

(Es muss ja irgendeine Vorstellung von "Denken" maßgeblich sein dafür, ob Denken vorliegt oder nicht. Welche wäre das, wenn nicht die menschliche?)



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 14:04

NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 13:52
Alethos hat geschrieben :
So 13. Sep 2020, 13:33
Zu sagen, dass Maschinen niemals denken können werden wie Menschen, das ist begrifflich wahr. Maschinen sind keine Menschen und sie werden Menschlichkeit immer nur simulieren können. Daraus folgt nicht, dass sie nicht denken können werden wie Maschinen.
Dann führst Du aber einen Denkbegriff ein, der vollkommen beliebig ist.
...

Das Ziel ist es eine Intelligenz zu schaffen die für uns Probleme löst. Und das natürlich in der Art wie wir Probleme lösen.
Wie wir Probleme lösen, wie wir denken, hat aber was damit zu tun wer wir sind.
Du gehst von Maschinen aus, die so funktionieren sollen, wie wir. Ich gehe von Maschinen aus, die sich selbst programmieren und nach Massgabe ihrer Lernfähigkeit lernen. Dass diese Maschinen denken, wenn sie lernen, steht für mich ausser Frage. Dass dies kein Denken ist, wie du und ich es praktizieren, auch.

Was an diesem Denkbegriff beliebig sein soll, weiss ich nicht.
Zuletzt geändert von Alethos am So 13. Sep 2020, 14:05, insgesamt 1-mal geändert.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 14:04

Alethos hat geschrieben :
So 13. Sep 2020, 13:57
Wenn wir sagen, dass Maschinen denken können werden, meinen wir damit, dass Denken eine Fähigkeit ist, die nicht allein vom Bild abhängt, das wir von dieser Fähigkeit haben. Denken von Menschen und Denken von Maschinen sind zwei verschiedene Arten von Denken. Und wenn du sagst, dass die Frage, ob Maschinen denken können werden, implizit eine Frage nach dem Bild des Menschen ist, dann begehst du eben einen Kategorienfehler mit Bezug auf diese zwei Arten von Denken.
Um festzustellen ob wir es mit Denken zu tun haben, muss es Kriterien dafür geben, was Denken eigentlich ist. Wie sonst sollten wir Denken von Nicht-Denken unterscheiden.
Wenn Du nun sagst, dass Kriterium "menschliches Denken" kann nicht auf Maschinen angewandt werden, welches Kriterium wird stattdessen angewandt um festzustellen ob Maschinen denken?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 14:06

Alethos hat geschrieben :
So 13. Sep 2020, 14:04
Was an diesem Denkbegriff beliebig sein soll, weiss ich nicht.
Ich will wissen, welchen Denkbegriff Du zugrunde legst. Woran erkennst Du ob Maschinen (oder Steine oder Karotten) denken oder nicht?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 14:11

Alethos hat geschrieben :
So 13. Sep 2020, 14:04
Dass diese Maschinen denken, wenn sie lernen, steht für mich ausser Frage. Dass dies kein Denken ist, wie du und ich es praktizieren, auch.
Lernen. Soso. Wo kommt denn Dein "Lernbegriff" her? Du meinst doch nicht etwa so, wie wir Menschen lernen, oder?



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Burkart
Beiträge: 2797
Registriert: Sa 11. Jul 2020, 09:59

So 13. Sep 2020, 14:16

Hallo NaWennDuMeinst,
NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 12:13
Hallo Burkart,

Ich bezog mich auf den Text in Beitrag Nr. 40328.
Dort geht es um Bewusstsein.
Du zitierst bei der Frage danach was Bewusstsein ist Wikipedia:
Danach ist Bewusstein "im weitesten Sinne das Erleben mentaler Zustände und Prozesse"
Letztlich geht es ja um mehrere Aspekte: "Können Computer denken?" (Thema), Bewusstsein und in dem Zusammenhang sicherlich auch, was Denken überhaupt ist, z.B. ob Denken als Roboter "möglicher" ist als nur der reine Coumputer u.a.
Und mir ist dem Zusammenhang immer wichtig, dass mit KI *nicht* 100%ig der Mensch "nachgeäfft" werden soll, sondern nur, dass sie ähnlich intelligent sein soll.
Zu diesen Zuständen gehört zumindest beim Menschen auch das Träumen, das Phantasieren und natürlich auch das Fühlen.
Und natürlich haben all diese Dinge auch einen nicht geringen Einfluß darauf wie wir denken und damit dann auch darauf wie wir uns verhalten.
Deshalb glaube ich auch nicht, dass es gelingen kann eine Maschine zu schaffen die so denkt wie ein Mensch (und dann auch das entsprechende Verhalten zeigt), weil wir einer Maschine nicht beibringen können zu fühlen, zu träumen und zu phantasieren.
Wie betont: Ich erwarte auch nicht, dass eine KI genauso fühlen und ggr. wirr phantasieren kann wie Menschen.
Sicher haben diese Dinge Einfluss auf das menschliche Denken, aber es ist ja nicht das Ziel, dass die KI genauso wie ein Mensch denkt. Vielmehr hoffe ich, dass sie nicht so egoistisch wie Menschen ist, was wieder mit Gefühlen zusammenhängt.
Das heißt aber nicht, dass die KI nicht auch sensorisch "empfinden" (=Daten quasi intutitiv erfassen durch hohe Geschwindigkeit und effektive Verarbeitung) kann, Gedanken rein deduktiv und ggf. eher zufällig verarbeiten kann (=träumen) und u.U. sinnvoll Phantasie zu entwickeln (quasi Neues aus Bekanntem 'neu' zusammenstellen).
Laut Thema geht es ums Denken, nicht um Emotionen, Träume u.ä., insofern kann man da schon differenzieren.
Es geht nicht einfach nur ums Denken (denn wie gesagt: Wir wissen ja gar nicht genau was das eigentlich ist), sondern darum eine Maschine zu schaffen die das Verhalten zeigt, das Menschen zeigen.
[/quote]
Hinsichtlich Intelligenz u.ä. stimme ich dir zu, aber es ist nicht sinnvoll, Emotionen (künstlich) nachzuahmen - also insgesamt das menschliche Verhalten zu partiell nachzumachen.
Dass wir nicht perfekt definieren können, was Denken ist: Einverstanden. Noch weniger aber können wir definieren, was Bewusstsein ist, oder?
Wenn es nur ums Denken als Abarbeiten von irgendwelchen Inputs und Algorithmen ginge, dann würden Computer wahrscheinlich heute schon denken.
Die Frage ist, ob der Mensch nicht auch (unbewusst) determniert ist und quasi so auch Algorithmen folgt.
Aber wir stellen ja fest dass ihr "Denken" weit davon entfernt ist mit dem Denken eines Menschen identisch zu sein.
Wie gesagt, das sollte auch nicht das Ziel sein.
Und das liegt mMn vor allem daran, dass ganz wichtige Teile dessen was menschliches Denken ausmacht in der Maschine nicht umgesetzt werden können.
Wir sollten unterscheiden zwischen
1.(a) "bisher nicht umsetzbar" bzw. (b) "bisher nicht umgesetzt"
2. "logisch nicht umsetzbar" und
3. "nicht erwünscht umzusetzen".
Bei 2. ""logisch nicht umsetzbar" muss man sehr vorsichtig sein, was warum genau nicht gehen soll; ein schwammiges Bewusstsein zählt dazu sicherlich nicht.
Du glaubst jetzt das sei einfach nur eine Frage der richtigen Programmierung. Ich denke man kann wesentliche Teile, die unser Denken prägen gar nicht programmieren (weil diese Teile so nicht funktionieren).
Wie sagt, wir müssen unterscheiden zwischen 1., 2. und 3.
1. wird irgendwann gehen, 3. wollen wir gar nicht und zu 2. müssen wir genau analysieren.
Eine Basisprogrammierung zu 1 (b) geht auf jeden Fall, man muss sich nur angehen.
Wenn ein Mensch ganz pragmatisch, quasi emotionslos handelt, meinst du, dass er deshalb kein Bewusstsein hat? Ich glaube nicht.
Erstens glaube ich nicht, dass menschliches Denken komplett von Emotionen befreit sein kann. Emotionen spielen bei allem was wir machen immer mit.[/quote]
Mir ging es um erstmal nur um die Frage, ob nicht auch Bewusstsein ohne Emotionen vorstellbar ist. (Oder definiere gerne "Bewusstsein" genauer.)
Ja, Menschen können ihre Emotionen wohl nicht komplett ignorieren, auch wenn dies manchmal sehr hilfreich wäre, z.B. um sich auf etwas perfekt konzentieren zu können. Mir fällt da der Tennis-Kommentator ein, der meinte, dass der (aktuelle) Tennisspieler nun vielleicht doch bald an den Sieg oder die Niederlage denkt, was heißen soll, dass er sich durch den Gedanken ablenken bzw. beeinflussen lässt und so weniger konzentriert ist.
Sind also menschliche Emotionen nicht also auch nachteilig!?
Zweitens ist genau das ja ein entscheidender Vorteil im Denken des Menschen. Nehmen wir doch nur mal an wir wollten eine Maschine schaffen, die für uns ethische Probleme lösen soll.
Ethische Probleme sind ein Spezialfall, meist geht es um praktische oder logische Probleme, und dafür sollte die KI zuerst einmal da sein.
Möchtest Du das eine emotionslose Maschine erledigen lassen?
Ja, gerade! Wenn (nur) Menschen mit Emotionen an solche Probleme rangehen, kommt leicht einseitiger Mist raus, z.B. klare egoistische Übervorteilung.
Dass eine KI aber Emotionen (vernünftig) nachvollziehen lernen soll, dem stimme ich zu, einfach um den Menschen besser zu verstehen.
Natürlich soll eine emotionslose KI nicht einfach über uns Menschen herrschen, aber das hatte ich ja schon an anderer Stelle geschrieben (KI als Diener bzw. hier als Berater).
Die grundlegendsten Ziele sind dem Menschen angeboren, etwas ähnliches müsste einer KI programmiert werden - aber nicht (unbedingt) dieselben Ziele: Eine KI muss z.B. keinen Überlebens- oder gar Vermehrungsziel haben, insbesondere keinen Egoismus ("will mehr haben/besser sein als andere" o.ä.). Als Diener des Menschen sollte ein grundlegendes Ziel halt dem Menschen zu dienen sein, ein weiteres (dazu) möglichst viel (Relevantes) zu lernen.
Hier sieht man eben schon ganz deutlich wie Du Dir Menschen vorstellst. Nämlich als Bioroboter.
Nicht als Roboter, nur als physisches Wesen, ähnlich wie es ein Roboter ist.
Die sind (genetisch) programmiert und spulen dann ihr Programm ab.
Nein, habe ich das oben irgendwie geschrieben? Oder willst du verneinen, dass Grundlegendes beim Menschen angeboren ist?
Daher rührt auch Deine Ansicht, dass es nur eine Frage der "richtigen Programmierung" ist um eine Maschine zu schaffen, die sich ganz oder in Teilen wie ein Mensch verhält.
Nicht "daher", aber natürlich bedarf es einer Programmierung, wie soll es sonst gehen?
Aber hier liegt eben schon mMn der Fehler. Denn so wie Du da den Menschen beschreibst ist er nicht.
Ich beschreibe ihn nicht so, nur du - außer ggf. mit dem grundlegend Angeborenen.
Natürlich hat er eine gewisse genetische Programmierung.
Ah ok.
Aber wenn alle grundlegenden Bedürfnisse erfüllt sind,
Was heißt für dich "grundlegend"? Hast du höhere Bedürfnisse da schon mit einbezogen, siehe z.B. Sicherheit, Soziales bis hin zur Selbstverwirklichung (siehe z.B. die Maslowsche Bedürfnishierarchie)?
macht der Mensch plötzlich etwas ganz Erstaunliches, was keine Maschine auf der Welt kann (und ich denke auch nie können wird).
Er fängt an sich eigene Ziele zu suchen.
Wo kommen deiner Ansicht nach diese menschlichen Ziele her? Aus dem Nichts etwa?
Meiner Ansicht nach kommen viele aus den Bedürfnissen, sind also von ihnen abgeleitet.
Wo in unserer DNA befindet sich zum Beispiel das "Kultur-Gen"? Wo das Spiritualitäts-Gen?
Warum soll es denn sowas geben?
Der Mensch lernt doch sein Leben lang und dass in einer Gemeinschaft, und so entsteht Kultur u.a.
Und ähnlich muss die KI seeehr viel lernen und das idealerweise vom Menschen und in einer Gemeinschaft.
Menschen motivieren sich selbst zum Beispiel in dem sie von etwas phantasieren oder träumen.
EIne KI kann auch deduktiv "träumen" und so ggf. zu neuen Zielen kommen, also feststellen, dass dies oder jenes sinnvoll zu erreichen wäre.
Extra Motivation braucht sich nicht (unbedingt).
Dabei ist es eben nicht so wie Du es beschreibst.
S.o.
Wir verarbeiten nicht einfach einen Input und leiten dann daraus etwas ab, sondern wir erfinden auch Dinge selbsttätig,
Du vermischt zwei völlig verschiedene Ebenen (so wie du Menschen sicher auch nicht durch ihre Atome beschreiben würdest). Natürlich verarbeiten wir Input und leiten daraus etwas ab, aber natürlich nicht nur bzw. "einfach", das sagt ja auch keiner. Etwas zu erfinden spielt sich auf einer ganz anderen Denkebene ab, z.B. in Richtung der Überlegung, ein Ziel besser erfüllen zu können oder wie man das wohl besser hinbekommt.
Dinge die es in de Welt gar nicht gibt, die auch nicht "wahrnehmbar" sind (z.B. die Vorstellung Gott).
Vieles ist nicht wahrnehmbar, z.B. alleine schon die Ziele. Und ein solches Ding ist leicht durch Mischung zweier Gedanken "produzierbar" wie ein rosa Elefant. Klar, dass es bei Gott etwas komplexer zuging.
In dem Film "A.I." stösst der kleine Kind-Androide David auf die Geschichte "Pinocchio" und setzt diese (fiktive) Geschichte in ein Verhältnis zu sich selbst. David fängt an nach der "blauen Fee" aus der Geschichte zu suchen, weil er glaubt dass diese ihn zu einem "echten Jungen" machen kann.
Ja, einer KI Märchen vorzulesen, so dass diese sie als solche begreift, ist schon eine interessante Idee. Auch Kinder müssen die Trennung zwischen Märchen und Wirklichkeit erst lernen, wie wohl (fast) jeder mit dem Weihnachtsmann lernt.
Ausgelöst wird das dadurch, dass seine "Mutter" sich einen echten Jungen (keinen Roboter) wünscht. David wünscht sich von seiner "Mutter" geliebt zu werden.
Ich hoffe, ich zerlege die Geschichte nicht zu sehr für dich...
...aber genau (mindestens) zwei vermischte Ziele (Ideen) spielen hier eine Rolle: Die geliebt zu werden und die der blauen Fee, wodurch eine Phantasie bzw. "nicht wahrnehmbares Objekt" entsteht.
Nun könnte man auch sagen unser Bedürfnis geliebt zu werden sei ein genetisches Grundprogramm, aber David macht da etwas, was eigentlich nur Menschen können: Er ignoriert das Gegebene (seine Programmierung, die bestimmt wer er ist) und glaubt daran, dass er ein "echter Junge" werden kann.
Seine Programmierung völlig zu ignorieren gehört natürlich zu dieser Geschichte und ist halt Phantasie.
Daraus zieht er dann seine Motivation. Wenn Du so willst hat David hier seine Programmierung selbsttätig geändert und das in eine unvorhersehbare Richtung.
A.I. ist ein Science-Fiction Film. Das was David da macht können Computer nicht.
Wie gesagt, es ist eine nette Geschichte.
KI kann und soll ihre Programmierung auch nicht ändern, sondern sie nur ständig ausbauen, ähnlich wie es der Mensch auch quasi tut.
Menschen können das.
Anhand ihrer Bedürfnisse, Ziele u.ä., aber sonst...?
Kannst du dich in einen Fisch oder Vogel verwandeln? Oder einfach als junger Mensch in einen alten oder umgekehrt?
Menschen können nicht einfach sich beliebig ändern, sondern auch nur anpassen, auch wenn es anders natürlich besser klingt, gerade von Motivationstrainern u.ä.
Sie können sich selbst motivieren und sich selbsttätig Ziele setzten. Diese Ziele können zum Bespiel ausgelöst sein durch Emotionen, oder auch durch Träume. Beides kommt in Maschinen nicht vor.
Ziele setzen kann sich eine KI auch, s.o. u.a. Dazu bedarf es keiner menschlichen Träume.
Ich halte aber Beides für erforderlich, weil es unser Denken und Bewusstsein prägt und ausmacht.
Das ist meine Vorstellung von "Denken" und "Bewusstsein" und natürlich kann man hier einwenden, dass die Erschaffung menschlichen Bewusstseins und Denkens nicht unbedingt das Ziel ist. Stimmt.
Eine gute Einschränkung.
Aber es ist das Ziel Maschinen zu schaffen die Probleme lösen wie wir Menschen.
Ähnlich wie er.
Und dafür wäre eben auch ein Bewusstsein oder Denken nötig, das wie menschliches Denken und Bewusstsein funktioniert.
Es ist Denken (o.ä.) nötig, dass ähnlich dem menschlichen funktioniert, nicht identisch; den Fehler sollte man nicht machen.
Und das muss scheitern, weil der Intelligenz auf Siliziumbasis dazu etwas fehlt, was sie aus Prinzip nicht haben kann. Gefühle. Träume. Phantasie.
Das habe ich oben ggf. schon erläutert.



Der Mensch als Philosophierender ist Ausgangspunkt aller Philosophie.
Die Philosophie eines Menschen kann durch Andere fahrlässig missverstanden oder gezielt diskreditiert oder gar ganz ignoriert werden, u.a. um eine eigene Meinung durchsetzen zu wollen.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 14:17

NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 14:04
Um festzustellen ob wir es mit Denken zu tun haben, muss es Kriterien dafür geben, was Denken eigentlich ist. Wie sonst sollten wir Denken von Nicht-Denken unterscheiden.
Wenn Du nun sagst, dass Kriterium "menschliches Denken" kann nicht auf Maschinen angewandt werden, welches Kriterium wird stattdessen angewandt um festzustellen ob Maschinen denken?
Du willst von mir wissen, was Denken ist und ich kann dir Kriterien liefern, die Maschinen erfüllen können. Du wirst aber diese Krtierien nicht gelten lassen, da für dich Denken eine menschliche Fähigkeit allein ist.

Denken heisst, sich Gründe geben. Überlegungen anstellen. Optionen abwägen. Es heisst auch, dies mit dem zu begründen und daraus auf neue Informationen zu schliessen. Das ist nichts, was Maschinen in der Art von Maschinen nicht auch tun könnten.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 14:18

NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 14:11
Alethos hat geschrieben :
So 13. Sep 2020, 14:04
Dass diese Maschinen denken, wenn sie lernen, steht für mich ausser Frage. Dass dies kein Denken ist, wie du und ich es praktizieren, auch.
Lernen. Soso. Wo kommt denn Dein "Lernbegriff" her? Du meinst doch nicht etwa so, wie wir Menschen lernen, oder?
Natürlich nicht. Das zu behaupten, ist deine Paradedisziplin.



-------------------------------
Alle lächeln in derselben Sprache.

Benutzeravatar
Jörn Budesheim
Beiträge: 23529
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 13. Sep 2020, 14:25

Alethos hat geschrieben :
So 13. Sep 2020, 13:33
Das folgt aus der realistischen Ansicht, dass Denken nichts Inneres ist, sondern in der Struktur der Wirklichkeit implizitiert ist.
Der semantische Externalismus, wie ihn Hillary Putnam ausgeführt hat, bedeutet sehr abgekürzt gesagt, in etwa folgendes: "Die Gegenstände von Aussagen bestimmen, wovon die Aussagen handeln" (Markus Gabriel). Das schließt sich sehr gut an das an, was ihr beide Du und NaWennDuMeinst gesagt habt.
NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 13:52
Wenn wir von "Denken" reden haben wir ja auch eine Vorstellung davon, was Denken eigentlich ist, und welche Bedingungen erfüllt sein müssen, damit überhaupt von echtem Denken die Rede sein kann.
Und natürlich dient dabei das menschliche Denken als Vorbild (und nicht etwa irgendeine beliebige, hypothetische Form des Denkens).
Und das heißt aber: Denken ist etwas, was Lebewesen tun.




Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 14:42

Alethos hat geschrieben :
So 13. Sep 2020, 14:17
Du willst von mir wissen, was Denken ist und ich kann dir Kriterien liefern, die Maschinen erfüllen können. Du wirst aber diese Krtierien nicht gelten lassen, da für dich Denken eine menschliche Fähigkeit allein ist.
Das habe ich nicht geschrieben. Ich habe aber geschrieben, dass unser Begriff vom "Denken" einer ist, der sich an unserem eigenen Denken orientiert.
Denken heisst, sich Gründe geben. Überlegungen anstellen. Optionen abwägen. Es heisst auch, dies mit dem zu begründen und daraus auf neue Informationen zu schliessen. Das ist nichts, was Maschinen in der Art von Maschinen nicht auch tun könnten.
Ok. Gründe geben. Optionen abwägen. Auf neue Informationen schliessen. Lernen. Und wo hast Du nun Deine Vorstellungen von all dem her?
(Dein Denk-Begriff orientiert sich letztlich auch an menschlichem Denken. Wir kennen ja auch gar nichts anderes. Und das hast Du bevor Du "Kategorienfehler" gerufen hast, nicht richtig zuende gedacht.).
Zuletzt geändert von NaWennDuMeinst am So 13. Sep 2020, 14:44, insgesamt 1-mal geändert.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
NaWennDuMeinst
Beiträge: 4640
Registriert: Sa 30. Mai 2020, 12:37

So 13. Sep 2020, 14:43

Alethos hat geschrieben :
So 13. Sep 2020, 14:18
NaWennDuMeinst hat geschrieben :
So 13. Sep 2020, 14:11
Alethos hat geschrieben :
So 13. Sep 2020, 14:04
Dass diese Maschinen denken, wenn sie lernen, steht für mich ausser Frage. Dass dies kein Denken ist, wie du und ich es praktizieren, auch.
Lernen. Soso. Wo kommt denn Dein "Lernbegriff" her? Du meinst doch nicht etwa so, wie wir Menschen lernen, oder?
Natürlich nicht. Das zu behaupten, ist deine Paradedisziplin.
Na wo hast Du ihn denn sonst her? Erklär doch mal.



But I, being poor, have only my dreams; I have spread my dreams under your feet;
Tread softly because you tread on my dreams.
(William Butler Yeats)

Benutzeravatar
Jörn Budesheim
Beiträge: 23529
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 13. Sep 2020, 14:49

Das Argument ist aber nicht allein ein semantisches, denn Denken ist immer verkörpertes Denken. Und mit Körper ist das gemeint, was die Phänomenologen Leib nennen. Einen Leib haben, also fühlen und denken, das gehört intrinsisch zusammen. Das ist keine zufällige Zusammenstellung, das ist das, was Denken ausmacht. Der Punkt weiter oben mit dem Bewusstsein vom eigenen Tod spielt hier mit rein. Denken ist immer auch Teil der Selbstsorge und des Gefühls dafür, dass es für uns stets um etwas geht, manchmal Kleineres, manchmal Größeres manchmal auch Alles.




Benutzeravatar
Alethos
Beiträge: 4212
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 13. Sep 2020, 15:55

Jörn Budesheim hat geschrieben :
So 13. Sep 2020, 14:49
Das Argument ist aber nicht allein ein semantisches, denn Denken ist immer verkörpertes Denken. Und mit Körper ist das gemeint, was die Phänomenologen Leib nennen. Einen Leib haben, also fühlen und denken, das gehört intrinsisch zusammen. Das ist keine zufällige Zusammenstellung, das ist das, was Denken ausmacht. Der Punkt weiter oben mit dem Bewusstsein vom eigenen Tod spielt hier mit rein. Denken ist immer auch Teil der Selbstsorge und des Gefühls dafür, dass es für uns stets um etwas geht, manchmal Kleineres, manchmal Größeres manchmal auch Alles.
Du buchstabierst hier lediglich das Argument aus, gegen das ich mich wende.
Denken = verkörpertes Denken. Maschinen haben keine Körper, also können sie nicht denken.

Was ich dagegen vorschlage, ist einen anderen Denkbegriff für das anzuwenden, was Maschinen zu tun in der Lage sein werden, wenn sie selbstlernend mit Welt interagieren. Wenn ihr dem nicht "Denken" sagen wollt, weil dieser Begriff "reserviert" ist für leibliche Wesen, dann finden wir einen anderen. Aber es ist nicht zu leugnen, dass die Entwicklung dieser Vorgänge, die wir unter "Denken" subsumieren, weiter gehen wird. Dafür sollten wir Begriffe finden, die dieses Tun vollwertig erscheinen lassen und nicht bloss als Imitation oder Simulation von etwas anderem darstellen. Das ist nicht Offenheit für die spezifische Wirklichkeit dieser künftigen Technologien.



-------------------------------
Alle lächeln in derselben Sprache.

Antworten