Wissenschaftler: Computer werden niemals denken können

Im Zettelkasten können Zitate und Begriffe hinterlegt werden, auf die du andere Mitglieder des Forums aufmerksam machen möchtest.
Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 09:54

Moin Jörn,

eigentlich hatte ich noch kurz nach 16 Uhr einen Beitrag geschrieben und abgeschickt, aber der ist irgendwie nicht angekommen, und danach musste ich Kirschen pflücken :)
Ich würde es so ähnlich verstehen. Intelligenz ist die Fähigkeit, ein Ziel zu erreichen, bzw Probleme zu lösen. Und weil wir endlich sind, muss das in einem vernünftigen (den Problem angemessenen) Zeitrahmen geschehen. Es hat keinen Sinn, wenn ich im Schach zwar den richtigen Zug finde, dafür aber 3 Jahre brauche, werde ich nur eine Stunde Bedenkzeit zur Verfügung habe :)

Hier ergibt sich eben das erste Problem, wie oben schon angedeutet: Welche Art von Problemen sollte eine Maschine haben?
Jut, mit Zielerreichung und Problemlösung sind wir schon mal auf einer Linie.

Und richtig, die Zeit dafür ist i.a. begrenzt, insbesondere oft bei praktischen Problemen, nicht allerdings unbedingt bei so großen Weiterentwicklungen wie z.B. zu einer allgemeinen KI; auch z.B. bei einem Corona-Impfstoff gibt es keine klare Zeitbegrenzung, auch wenn natürlich möglich schnell geforscht wird. Bei diesen zeitlichen Begrenzung muss dann halt die bis dahin beste Lösung herangezogen werden - oder in bestimmten Fällen klar gemacht werden, dass keine Lösung gefunden wurde. Beim Schach kann man natürlich notfalls irgendwas ziehen, was in extremen Zeitnotphasen schon mal vorgekommen sein soll ;)

Zur Art der Probleme:
Na ja, bei der KI als Werkzeug erst einmal einfach die, die ihr zur Lösung aufgetragen werden (top down gesehen).
Wobei du "Probleme" möglicherweise allgemeiner siehst, das kannst du ja ggf. erläutern.
Ein zu lösendes Problem hat mAn (meiner Ansicht nach) immer ein zu erreichendes Ziel und dies gilt es halt möglichst objektiv zu erreichen, also ohne Gefühlsduselei, nenne ich es mal ;)
I.A. geht es dabei natürlich um sachlich zu lösende Problem, halt z.B. wie die Ermittlung des möglichst besten Schachzuges; klar dass es bei menschlichen Problemen oft nicht mehr einfache objektive Lösungen gibt und es ggf. viel Kenntnisse über Menschen benötigt, aber solche Probleme möchte ich der KI zumindest in absehbarer Zeit nicht stellen.
Das ist aber nicht das Ziel der Maschine, sondern das Ziel der Maschinenbenutzer. Ein Hammer hat ebenso wenig ein Ziel wie Photoshop :)
Das grobe Ziel soll der Mensch bzw. Maschinenbenutzer auch vorgeben, die KI soll ja ein Werkzeug sein.
Aber denk z.B. an selbstfahrende Autos: Das Ziel wird ihm vorgegeben, aber wie es dort hinkommt, bleibt dem Auto weitestgehend überlassen. Dabei wird es Zwischenziele planen, z.B. wird es, um bei mir vor der Haustür in Norderstedt zu dir nach Kassel zu fahren, zuerst das Ziel haben, auf die Autobahn zu fahren.
Insofern hat eine KI es mit vielen Zielen in Form von Zwischenzielen zu tun.
Eine KI ist halt nicht so primitives, unflexibles Werkzeug wie ein Hammer.

Zur Programmierung:
Nein, ich kenne mich damit praktisch gar nicht aus. Ich habe vor Jahren mal ein wenig ActionScript gekonnt, das ist eine Sprache, die es im Moment (glaube ich) gar nicht mehr gibt. Damit konnte man das Animations-Programm Flash steuern.

Das Programm war natürlich ziemlich stupide, das merkte man schon daran, dass nicht mal die allerkleinsten Fehler verziehen wurden, einfach deshalb, weil das Programm zu keinem Moment wusste, worum es jeweils eigentlich ging :)
Ok, ActionScript kenne ich nun nicht, aber solche elementaren Dinge wie "if", Schleifen usw. werden dir davon z.B. vermutlich bekannt sein, stimmt's?
Und richtig, unsere heutigen Programmiersprachen sind leider i.a. so, dass sie kleinste Fehler nicht 'verzeihen'; blöd wird es vor allem dann, wenn man sie nicht einmal sinnvoll erkennen bzw. analysieren (debuggen) kann. Ein Grund mehr, dass wir gerne auch hier mehr maschinelle Intelligenz in die Welt bringen sollten :)
Probleme und Ziele sind stets etwas normatives. In einfachen, aber grundlegenden Fällen geht es darum, Freude anzustreben und Leid zu vermeiden. Diese Gefühle sind vermutlich so eine Art Eingang in die Welt des Normativen. Ohne so etwas kann ein System keine eigenen Ziele haben.
Wenn ich das Ziel habe, nach Kassel zu fahren, hat dieses Ziel doch nichts mit Freude oder Leid zu tun (höchstens indirekt, aber das spielt für das Ziel selbst keine Rolle).
Wenn du speziell *eigene* Ziele meinst: Diese können einfach auf übergeordneten Zielen entstehen, s.o. beim selbstfahrenden Auto: Das Ziel zur Autobahn zu kommen ist dann ein eigenes Ziel.

Zu deiner letzten Antwort (gestern, 17:25):
Dass Sex nun gerade was mit Intelligenz zu tun haben soll, ist wirklich weit hergeholt. Mal ehrlich: Ist jemand weniger intelligent, wenn er keinen hat? (Ok, vielleicht lebensferner, aber ein intelligenter Freund von mir hat mAn keinen.)
Das Zitat ist aus dem Aufsatz "Ohne Körper wäre das Gehirn geistlos".

Am Ende des kurzen Aufsatzes fragt er: "Wenn der Körper und seine Interaktion mit dem Gehirn und der Planung von Handlungen so entscheidend wichtig für den menschlichen Geist ist, wie stehen dann die Chancen, innerhalb des Computers einen intelligenten entkörperlichten [= ohne biologische Grundlage] Geist zu schaffen? [..] Mit anderen Worten wäre es möglich, dass Computer erst dann etwas sinnvolles zustande bringen wenn sie Sex haben können."
"Geist(los)" ist mir ein zu schwammiger Begriff (oder was soll er genau bedeuten)?
Aber ich stimme zu, dass eine KI erst mit Kontakt zu (einer) Welt wirklich verstehen kann, was in ihr vorgeht, und durch deren Komplexität erst wirklich viel lernen und so etwas wie einen komplexen "Geist" entwickeln kann.
Man sollte dabei unterscheiden zwischen
1. dem allgemeinen "Kontakt zur Welt" (das kann z.B. ein Computer sein, der Zugriff auf Kameradaten und einem ggf. fernen Roboterarm hat)
2. einer KI in einem Roboter (das sollte das/ein KI-Ziel sein, wenn sie halbwegs selbständig sein soll; sie hat somit einen Körper und kann die Konsequenzen ihrer eigenen Aktionen in der Welt feststellen)
3. einem biologischen Körper (nicht das Ziel von KI; dieser kann gerne Sex haben)

Ein "eigenes Leben führen": Wollen wir das von einem Werkzeug? Na ja, irgendwie vielleicht mehr oder weniger irgendwann mal...
Aber Intelligenz im Sinne von Lösen von Aufgaben bzw. Erreichen von Zielen benötigt wahrlich kein "eigenes Leben".



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 10:44

Ein Hallo auch von meiner Seite, Burkart ohne h :) Schön, dass du deine Gedanken mit uns teilst.

Nun ist mir nicht ganz klar geworden, ob du der Meinung bist, dass Computer schon heute denken können oder ob du es für grundsätzlich möglich hältst, dass sie einmal denken können werden. Auf die Gefahr hin, mit dir Einverständnis zu zeigen, wo keines ist, behaupte ich, dass ich deiner Meinung bin: Computer werden denken können.

Wobei ich das Problem beim Begriff >Denken< sehe. Mir scheint, dass die meisten Philosophen, die den Computern diese Fähigkeit prinzipiell absprechen (ich denke, Jörn gehört dazu), Denken als ein Tun verstehen, dass nur Menschen vollführen können, wie bspw. Menschsein. Denken als Tätigkeit wird in dieser Lesart als eine genuin biologische verstanden, wie Menschsein überhaupt. Dann wird klar, dass zu denken nur eine Leistung sein kann, die daran geknüpft ist, ein Lebewesen zu sein, eine Erfahrungswelt zu haben, eine Sozialisation zu haben, entsprechend auch genau so konfigurierte Sinne zu haben, ein Nervenkostüm, eine Haut, Sex zu haben etc. Eine solche Denkfähigkeit, die mit Haut und Haar praktiziert werden muss, um Denken zu sein, kann nur von Menschen (genereller: von Lebewesen) praktiziert werden, weil nur sie so gebaut und lebendig sind. So eine Denkfähigkeit kann eine künstliche Intelligenz gar nie erlangen, sie kann sie nur mehr oder weniger gut imitieren, wobei die Nachahmung prinzipiell nicht ans Original herankommen kann. Nicht, weil die technologischen Möglichkeiten es nicht erreichbar machen würden, bspw. eine elektronische Sensorik Sinne kopieren oder ein Prozessor, Probleme kreativ lösen könnte. Die prinzipielle Unmöglichkeit besteht schon durch den Umstand, dass Computer nicht aus der 'Ursuppe' entstanden sind und eine Jahrmillionen alte Geschichte haben. Diesen Umstand kann man kompensieren, imitieren, aber an das Original kann es niemals herankommen, es ist prinzipiell unmöglich, die Zeit so zurückzudrehen, dass Computer und biologische Wesen denselben Ursprung haben, darum ist es prinzipiell unmöglich, dass Computer denken können, wenn Denken als eine genuin menschliche (oder genuin biologische) Fähigkeit verstanden wird.

Darum aber müssen die Argumente für die Ansicht, dass Computer denken können werden, damit anfangen zu zeigen, dass der Begriff >Denken< mehrdeutig ist und nicht zwingend das bedeuten muss, was wir i.d.R. damit meinen.

Nehmen wir an, wir hätten einen Begriff für das Tun des Computers, der sich analog anwenden liesse zum Begriff, der unserer Fähigkeit zu denken nahe kommt, einen Begriff, den wir als "Denken vom Computern" gelten lassen könnten, dann dürften wir wohl viele Hindernisse aus dem Weg geräumt haben, die es einigen für uns undenkbar macht zu meinen, dass Computer denken können.

Stellen wir uns einfach vor, dass Computer - in einer fernen oder vielleicht auch nahen Zukunft - mit allen nötigen Apparaturen ausgestattet sind, um nicht nur die Welt abzutasten, sondern sich selbst zu erkennen und sich in der Welt als Teil von ihr zu erfahren, und stellen wir uns vor, dass sie auf ihre eigenen Informationen ("Gedanken") über sich und die Welt in zweiter Ordnung zugreifen können, diese weiterverarbeiten können: Stellen wir uns weiter vor, dass sie in einem für sie spezifischen Sinn Empfindungen entwickeln und innere Einstellungen ausbilden können: Was würde uns dann noch hindern zu sagen, dass sie "denken"? Nur noch der Begriff des Denkens, den wir für alles Lebendige, sofern es komplexe Struktur hat, vorbehalten.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 11:39

Hallo Alethos,

meine Gedanken teile ich natürlich gerne - wie sollen sich Ideen sonst weiterverbreiten können, wenn nicht durch Austausch?

Wenn ich von "Denken" im Zusammenhang mit Computern/KI spreche, spreche ich nicht vom biologischen Denken, denn dann könnte man das Thema gleich beenden, weil ein Computer nicht biologisch ist. Es macht nur Sinn darüber zu reden, wenn man Denken allgemeiner sieht, so in etwa als eine (letztlich irgendwie intelligente) Informationsverarbeitung eines beliebigen Systems (i.a. halt Mensch oder kommende KI).
Allerdings würde ich "Denken" dann bei einer KI eher in Anführungszeichen schreiben, eben weil der Begriff gerne nur Menschen bzw. biologischen Wesen zugeordnet wird. Insofern verlagere ich mich dann lieber auf Themen wie "Intelligenz" in dem Sinne von "zielorientierter Lösung von Aufgaben" u.ä.

Nochmal kurz: Nein, bei heutigen Computer spreche ich nicht vom "Denken" und bei zukünfiger KI auch nur bedingt; wir können dazu gerne ggf. dein "Denken vom Computern" nehmen.

Ob ein Computer nur imitieren kann, ist auch noch die Frage.
Klar, solange etwas nur simuliert wird, z.B. ein virtuelles Auto von A nach B zu fahren, ist es nicht real.
Aber ist z.B. Informationverarbeitung in einem Computer wirklich etwas grundlegend anderes als die des Menschen? Wenn ja, warum?
Wichtig ist doch letztlich nur, ob die eingehenden Daten zu denselben Ausgabedaten führen.
Wenn man einen Computer also ein schwierige Aufgabe vorlegt und er diese löst, hat er sie genauso gut gelöst wie z.B. ein Mensch - und nicht nur "simuliert gelöst".

Klar, ein Mensch agiert in der Welt, also führt Handlungen in ihr aus, ein Computer i.a. nicht bzw. nur sehr bedingt.
Deshalb ist der Schritt vom Computer zum Roboter auch wichtig, wenn es um das Handeln in der (oder zumindest einer als vereinfachte Vorstufe) Welt geht. KI-historisch ist das der Schritt von der Schachprogrammierung u.ä. zum Roboterfußball u.ä.

Zu deinem Ursuppen-Argument: Vielleicht ist ja die KI einfach die konsequente Entwicklung und der Mensch nur ein Zwischenschritt?
Klar, das wollen wir als Menschen nicht, aber das zählt ja nicht bzw. nur bedingt ;)
Vergleichen wir das Argument mal mit dem Fliegen:
Wieviele Jahrmillionen hat die Evolution gebraucht, bis sie fliegende Lebewesen hervorbringen konnte?
Und nun vergleiche das mal mit dem Bau von unseren Flugzeugen u.ä.
Warum also sollte es bei KI nicht ähnlich gehen?

Was meintest du übrigens mit "Welt in zweiter Ordnung zugreifen können"?



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Jörn Budesheim
Beiträge: 13828
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jul 2020, 11:59

Alethos hat geschrieben :
So 12. Jul 2020, 10:44
Denken als ein Tun verstehen, dass nur Menschen vollführen können...
Viele andere Tiere können auch denken, ich knüpfe Denken nicht an Menschsein und auch nicht an unsere Sprache.



Ohne Wahrheit keine Freiheit

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 12:06

Jörn Budesheim hat geschrieben :
So 12. Jul 2020, 11:59
Alethos hat geschrieben :
So 12. Jul 2020, 10:44
Denken als ein Tun verstehen, dass nur Menschen vollführen können...
Viele andere Tiere können auch denken, ich knüpfe Denken nicht an Menschsein und auch nicht an unsere Sprache.
Darum habe ich ja auch von biologischen Wesen gesprochen: Denken hältst du für rein exklusiv biologischen Wesen vorbehaltenes Vermögen.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 12:22

Jörn Budesheim hat geschrieben :
So 12. Jul 2020, 11:59
Alethos hat geschrieben :
So 12. Jul 2020, 10:44
Denken als ein Tun verstehen, dass nur Menschen vollführen können...
Viele andere Tiere können auch denken, ich knüpfe Denken nicht an Menschsein und auch nicht an unsere Sprache.
Die Frage ist dann: Womit verknüpfst du Denken?
Ich hoffe nicht axiomatisch an Biologie, wie Alethos anscheinend vermutet? Dann sollte man das "Denken von Computern" bzw. kürzer "Computerdenken" als Begriff hier einführen.



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 12:45

Burkart hat geschrieben :
So 12. Jul 2020, 11:39
Allerdings würde ich "Denken" dann bei einer KI eher in Anführungszeichen schreiben, eben weil der Begriff gerne nur Menschen bzw. biologischen Wesen zugeordnet wird. Insofern verlagere ich mich dann lieber auf Themen wie "Intelligenz" in dem Sinne von "zielorientierter Lösung von Aufgaben" u.ä.
Das ist ein instrumentaler Denkbegriff, bei dem man davon ausgeht, dass an den Resultaten abgelesen werden kann, ob es durch Denken zustande kam. Ich meine aber, dass man einem Schachcomputer nicht ansieht, ob es denkt, bloss weil er Züge macht, die so aussehen, als ob sie >jemand< machte.

Ich meine, dass es um zu denken einen denkenden Agens braucht. Denken hat zur Voraussetzung Bewusstsein. Das ist sozusagen meine conditio sine qua non dafür, dass ich von einem System sagen mag, es denke. Ich behaupte nicht, dass es ein zwingendes Argument für diese Ansicht gibt, aber doch ein geneigt machendes empathisches Moment: Wenn wir denken, meinen wir ja damit nicht einfach, dass wir Informationsverarbeitung betreiben, sondern an den Resultaten Intentionalität erkennen. Ein Windhauch, der einen Sandhaufen per Zufall zu einem Gesicht formt, von dem würden wir ja nicht sagen, dass er sich dabei etwas dachte. Am Gesicht im Sandhaufen erkennen wir sein Gedachtwordensein nicht. Aber wenn wir mit etwas interagieren können, ihm zu verstehen geben können, dass es ein Gegenüber hat, wenn es dann auf uns eingehen kann, dann erkennen wir, dass es denkt. Wenn also der Windstoss uns anhört und versteht, dass wir statt eines Gesichts im Sand eine Sandburg wollen, und wenn es das auch wollen kann und ausführt, erst dann können wir an ihm erkennen, dass es denkt. Denken ist vielmehr als ein instrumentales Produkt, ein adaptiv-empathisches Verfahren zur Produktion von Resultaten. Gewollten Resultaten.

Denken hat, für meine Begriffe, zur Voraussetzung, mit der Welt vom Standpunkt eines Subjekts interagieren zu können. D.h. zu wissen, dass man als dieses Man etwas tut und dass man es erreichen will. Subjektivität und Wille, das halte ich für notwendige Voraussetzungen fürs Denken. Einerseits deshalb, weil man als System (biologisches oder elektronisches), wie du es sagst, Probleme lösen können muss - und das grundsätzlichste Problem ist, dass die Problemlage instabil ist :) Wir finden uns vor wechselnde Probleme gestellt, weshalb die Lösungsstrategien angepasst werden müssen. Ein Problemlösungssystem muss auf diese dynamischen Problemstellungen kreativ reagieren können, kreativ im Gegensatz zu einer vorgängig bestimmten und programmierten Art und Weise. Denkende Systeme sind grundsätzlich sich anpassende Systeme und man kann nicht einfach sagen, dass ein Algorithmus denkt, wenn er Schachzüge produziert oder eine mathematische Gleichung löst: Erst, wenn es sich adaptieren kann und auch andersartige Probleme lösen kann, wenn es lernen kann, andere Aufgaben zu lösen als die programmierten, dann hat es die notwendige Flexibilität, um als Denkendes agieren zu können.

Andererseits, und das ist das zweite Merkmal, meine ich, von denkenden Systemen: Dass sie auf etwas reagieren, indem sie agieren. Denkende Systeme wollen etwas erreichen: Menschen wollen überleben, manchmal wollen sie sterben, manchmal wollen sie essen, manchmal wollen sie fasten. Denkende Systeme, insbesondere komplexe denkende Systeme, können zu sich selbst eine Position des Fragenden einnehmen: Was will ich und warum? Du sagtest, Menschen seien Handelnde, das sehe ich auch so, aber um ein Handelndes zu sein, muss man sich selbst und seine Motive reflektieren können, man braucht also einen Willen und ein Bewusstsein davon, dass man dasjenige ist, das diesen Willen hat.

Zu relektieren heisst, nach meinem Dafürhalten, dass man auf sich selbst so gerichtet ist, dass man über sich selbst nachdenkt. Es ist etwas, einen Gedanken zu haben, und etwas anderes, einen Gedanken über diesen Gedanken zu haben. Letzteres nenne ich Gedanken zweiter Ordnung. Selbst-Bewusstsein haben (eine Notwendigkeit, um Handelnder zu sein) ist eine solche zu sich selbst hergestellte Beziehung zweiter Denkordnung. Und ich bestreite nicht, sondern halte es für wahrscheinlich, dass Computer das eines Tages leisten können.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 13:07

Burkart hat geschrieben :
So 12. Jul 2020, 11:39
Zu deinem Ursuppen-Argument: Vielleicht ist ja die KI einfach die konsequente Entwicklung und der Mensch nur ein Zwischenschritt?
Ja, das halte ich sogar für eine plausible und sogar wünschenswerte Entwicklung, wobei ich es mir eher als symbiotische Koexistenz von Mensch und Technologie denke, als ein Ablösen einer Art durch eine gänzlich andere. :)

Das Ursuppen-Argument war im Grunde nur ein Argument für die Unmöglichkeit, den Denkbegriff, wie wir ihn von Lebewesen kennen, auf Maschinen zu übertragen. Maschinen werden nie denken können, wenn wir Denken an einen biologischen Körper knüpfen. Ich finde den von dir ins Spiel gebeachte Begriff des "Computerdenkens" hilfreich.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Jörn Budesheim
Beiträge: 13828
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jul 2020, 13:45

Burkart hat geschrieben :
So 12. Jul 2020, 09:54
Dass Sex nun gerade was mit Intelligenz zu tun haben soll, ist wirklich weit hergeholt. Mal ehrlich: Ist jemand weniger intelligent, wenn er keinen hat?
Dabei geht es nicht explizit um Sex, sondern das Bild ist ein pars pro toto. Es geht darum, die Rolle von Körpern, die begehren, ins Spiel zu bringen. Und auch dieser Begriff ist jetzt weit gefasst: da kann auch einfach Hunger und Durst meinen. In dem Körper leben wollen und Bedürfnisse haben, kommen so etwas wie Ziele überhaupt erst in die Welt. Und diese Ziele sind verwurzelt im leiblichen Spüren.

Insgesamt sind Denken und Handeln nicht einfach abstrakte Operationen, sondern sie betreffen den lebendigen Leib. Wir können ganz sicher fantastische Maschinen bauen mit Armen, Beinen und so weiter, aber warum sollten sie irgendetwas tun? Was wäre ihr Antrieb? Warum sollten sie Ziele haben?

Ich stelle mir dazu eine Maschine vor, mit fantastischem Leistungsmöglichkeiten, die alles bisher gesehene übertreffen. Dann sitzt sie in ihrer Ecke und macht einfach ... nichts. Warum? Weil es für sie nichts zu tun gibt!



Ohne Wahrheit keine Freiheit

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 14:10

Weil nichts von Bedeutung ist.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 14:22

Alethos hat geschrieben :
So 12. Jul 2020, 12:45
Burkart hat geschrieben :
So 12. Jul 2020, 11:39
Allerdings würde ich "Denken" dann bei einer KI eher in Anführungszeichen schreiben, eben weil der Begriff gerne nur Menschen bzw. biologischen Wesen zugeordnet wird. Insofern verlagere ich mich dann lieber auf Themen wie "Intelligenz" in dem Sinne von "zielorientierter Lösung von Aufgaben" u.ä.
Das ist ein instrumentaler Denkbegriff, bei dem man davon ausgeht, dass an den Resultaten abgelesen werden kann, ob es durch Denken zustande kam.
Richtig, diesen instrumentalen Denkbegriff vertrete ich sozusagen. Ich halte z.B. den Turingtest für ein gutes Kriterium, ob ein Computer als intelligent anzusehen ist oder nicht - sofern ich ggf. selbst Tester sein darf :) (Angeblich wurden schon welche entsprechend "durchgewinkt"/anerkennt; die hätte ich gerne mal selbst getestet.)
Ich meine aber, dass man einem Schachcomputer nicht ansieht, ob es denkt, bloss weil er Züge macht, die so aussehen, als ob sie >jemand< machte.
Siehst du jedem Wesen ab, ob es denkt? Oder vielleicht z.B. einfach mit offenen Augen schläft?
Ich meine, dass es um zu denken einen denkenden Agens braucht.
"Agens"... laut Wikipedia ein Verursacher eines Ereignisses, absichtlich Handelnder.
Hm, muss man zum Denken wirklich handeln können? Warum? Können z.B. Babys noch nicht denken, nur weil sie noch nicht handeln können?
Denken hat zur Voraussetzung Bewusstsein.
Hm, sollten wir damit nicht das Problem hinsichtlich des schwammigen Bewusstseins verschieben?
Was ist dann mit un(ter)bewusstem Denken, dass es ja sicherlich gibt?

Das ist sozusagen meine conditio sine qua non dafür, dass ich von einem System sagen mag, es denke. Ich behaupte nicht, dass es ein zwingendes Argument für diese Ansicht gibt, aber doch ein geneigt machendes empathisches Moment: Wenn wir denken, meinen wir ja damit nicht einfach, dass wir Informationsverarbeitung betreiben, sondern an den Resultaten Intentionalität erkennen.
[/quote]
Zur Intentionalität:
Und wenn wir nur einfach so vor uns hindenken? Einfach mal uns Gedanken durch den Kopf gehen lassen, z.B. beim Träumen oder (z.B. bei mir) in der Aufwachphase irgendwelche Gedanken aufkommen? (Halt Un(ter)bewusstes, zumindest so Motiviertes)
Aber wenn wir mit etwas interagieren können, ihm zu verstehen geben können, dass es ein Gegenüber hat, wenn es dann auf uns eingehen kann, dann erkennen wir, dass es denkt.
Also ein (vernünftiges) Computer(programm) insofern :)
Denken ist vielmehr als ein instrumentales Produkt, ein adaptiv-empathisches Verfahren zur Produktion von Resultaten. Gewollten Resultaten.
Von empathisch mal abgesehen passt Computer(-Programm) weiterhin ;)
Denken hat, für meine Begriffe, zur Voraussetzung, mit der Welt vom Standpunkt eines Subjekts interagieren zu können. D.h. zu wissen, dass man als dieses Man etwas tut und dass man es erreichen will. Subjektivität und Wille, das halte ich für notwendige Voraussetzungen fürs Denken. Einerseits deshalb, weil man als System (biologisches oder elektronisches), wie du es sagst, Probleme lösen können muss - und das grundsätzlichste Problem ist, dass die Problemlage instabil ist :)
Instabil? Also wenn ich Schach spiele, ändern sich die Stellung nicht während meinen Überlegungen.
Oder meinst du, dass Probleme sich nicht unbedingt genauso wiederholen? (Ok, dies ist es wohl, folgt weiter unten...)

Subjektivität ergibt sich bei einer KI durch das, was sie gelernt hat/haben wird, worauf sich ihr C(omputer)-Denken stützt.
Zu Wille: Muss ein Baby schon wollen um denken zu können, z.B. sich Gedanken über die Umwelt zu machen?
Wir finden uns vor wechselnde Probleme gestellt, weshalb die Lösungsstrategien angepasst werden müssen. Ein Problemlösungssystem muss auf diese dynamischen Problemstellungen kreativ reagieren können, kreativ im Gegensatz zu einer vorgängig bestimmten und programmierten Art und Weise. Denkende Systeme sind grundsätzlich sich anpassende Systeme und man kann nicht einfach sagen, dass ein Algorithmus denkt, wenn er Schachzüge produziert oder eine mathematische Gleichung löst: Erst, wenn es sich adaptieren kann und auch andersartige Probleme lösen kann, wenn es lernen kann, andere Aufgaben zu lösen als die programmierten, dann hat es die notwendige Flexibilität, um als Denkendes agieren zu können.
Damit sprichst du an, dass eine KI lernen können muss, völlig richtig. Auch muss sie abstrahieren können, damit auch andere Aufgaben bearbeitbar sind, genau. Ansonsten ist es mAn gerade die Zielorientierung (hinsichtlich "Intelligenz"), die (auch) eine KI können muss, u.a. um erkennen, was für eine aktuelle Aufgabe relevant ist.
Andererseits, und das ist das zweite Merkmal, meine ich, von denkenden Systemen: Dass sie auf etwas reagieren, indem sie agieren. Denkende Systeme wollen etwas erreichen: Menschen wollen überleben, manchmal wollen sie sterben, manchmal wollen sie essen, manchmal wollen sie fasten. Denkende Systeme, insbesondere komplexe denkende Systeme, können zu sich selbst eine Position des Fragenden einnehmen: Was will ich und warum? Du sagtest, Menschen seien Handelnde, das sehe ich auch so, aber um ein Handelndes zu sein, muss man sich selbst und seine Motive reflektieren können, man braucht also einen Willen und ein Bewusstsein davon, dass man dasjenige ist, das diesen Willen hat.
Als Handelnder musst du wissen, was du willst; ein Reflektieren der Motive ist nett, aber dafür nicht erforderlich. (Würden sonst so viele Trump wählen? ;) )
Ansonsten stimme ich dir zu, dass (bewusst) denkende Systeme etwas erreichen wollen. Dafür muss eine KI dann sowas wie grundlegende Ziele haben, die die menschlichen Motive ersetzen, z.B. "die menschlichen Befehle auszuführen" u.ä.
Zu relektieren heisst, nach meinem Dafürhalten, dass man auf sich selbst so gerichtet ist, dass man über sich selbst nachdenkt.
Also etwas, von dem man nicht bei allen Menschen den Eindruck hat.
Es ist etwas, einen Gedanken zu haben, und etwas anderes, einen Gedanken über diesen Gedanken zu haben. Letzteres nenne ich Gedanken zweiter Ordnung. Selbst-Bewusstsein haben (eine Notwendigkeit, um Handelnder zu sein) ist eine solche zu sich selbst hergestellte Beziehung zweiter Denkordnung. Und ich bestreite nicht, sondern halte es für wahrscheinlich, dass Computer das eines Tages leisten können.
Wir sind also einer Meinung, dass KI soweit kommen wird. Dann müssen wir sie nur noch entsprechend bauen/entwickeln ;)



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 14:33

Jörn Budesheim hat geschrieben :
So 12. Jul 2020, 13:45
Burkart hat geschrieben :
So 12. Jul 2020, 09:54
Dass Sex nun gerade was mit Intelligenz zu tun haben soll, ist wirklich weit hergeholt. Mal ehrlich: Ist jemand weniger intelligent, wenn er keinen hat?
Dabei geht es nicht explizit um Sex, sondern das Bild ist ein pars pro toto. Es geht darum, die Rolle von Körpern, die begehren, ins Spiel zu bringen. Und auch dieser Begriff ist jetzt weit gefasst: da kann auch einfach Hunger und Durst meinen. In dem Körper leben wollen und Bedürfnisse haben, kommen so etwas wie Ziele überhaupt erst in die Welt. Und diese Ziele sind verwurzelt im leiblichen Spüren.
In seinem Spüren und Denken, würde ich es erweitern, ansonsten stimme ich dir zu.
Deshalb sollte vergleichsweise eine KI eben auch grundlegende Ziele bekommen, z.B. sowas wie "führe menschliche Befehle aus [soweit sinnvoll ggf., was sie natürlich erstmal lernen muss]".
Insgesamt sind Denken und Handeln nicht einfach abstrakte Operationen, sondern sie betreffen den lebendigen Leib. Wir können ganz sicher fantastische Maschinen bauen mit Armen, Beinen und so weiter, aber warum sollten sie irgendetwas tun? Was wäre ihr Antrieb? Warum sollten sie Ziele haben?
Sie haben grundlegende Ziele, weil wir sie ihnen vorgeben. Unsere hat die Natur definiert, die definieren sie für die KI.
Ich stelle mir dazu eine Maschine vor, mit fantastischem Leistungsmöglichkeiten, die alles bisher gesehene übertreffen. Dann sitzt sie in ihrer Ecke und macht einfach ... nichts. Warum? Weil es für sie nichts zu tun gibt!
Mit ihren Zielen gibt es eben doch was zu tun.
Alethos hat geschrieben :
So 12. Jul 2020, 14:10
Weil nichts von Bedeutung ist.
Nur solange man keine definiert notfalls.



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Jörn Budesheim
Beiträge: 13828
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jul 2020, 15:18

Burkart hat geschrieben :
So 12. Jul 2020, 14:33
Sie haben grundlegende Ziele, weil wir sie ihnen vorgeben. Unsere hat die Natur definiert, die definieren sie für die KI.
Wenn man das so sagen kann, dann muss man jedoch auch dem Hammer zugestehen, dass er das Ziel hat, Nägel in die Wand zu hauen :) meines Erachtens ist das bereits in der natürlichen biologischen Welt schwierig, ab wann man davon sprechen kann, dass ein Lebewesen wirklich ein Ziel hat. Hat der Regenwurm wirklich das Ziel, nicht zu ersticken, wenn er bei Regen ins freie kommt? Man hat nicht bereits ein Ziel, wenn man irgendetwas macht, was Wesen wie wir, als Ziel interpretieren könnten.

Mein Toaster auf jeden Fall hat nicht das Ziel, das Brot zu bräunen. Ich weiß nicht, welches die hinreichenden Bedingungen dafür sind, dass man bei einer Entität davon sprechen kann, dass sie selbst Ziele hat oder gar sich Ziele setzt und sie verfolgt. Solange die künstliche Intelligenz nur die Ziele verfolgt, die wir einprogrammieren, würde ich auf keinen Fall davon sprechen, dass sie Ziele hat.



Ohne Wahrheit keine Freiheit

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 15:20

Burkart hat geschrieben :
So 12. Jul 2020, 14:22
Siehst du jedem Wesen ab, ob es denkt? Oder vielleicht z.B. einfach mit offenen Augen schläft?
Natürlich sieht man es nicht an, dann können wir es einfach nicht beurteilen, ob es denkt. Ich meine dennoch, dass man am Output nicht erkennt, ob das Produkt bedacht wurde oder einfach einer Regel folgend produziert wurde. Wenn ich in eine Rechenmaschine Operanden eingebe, die nach einer "Mechanik", nach mathematischen Regeln verfahrend ein Resultat ausspuckt, erkenne ich am Resultat nicht, ob dieses Gerät dachte. So wenig wie ich an der Marmel, die entlang einer geschlängelten Bahn nach unten rollt und unten ankommt, erkennen kann, dass sie dachte (weil sie nicht dachte). Dass sie unten ankommt, das ist zwar toll und ihr beim Runterrollen zuzusehen, das ist hübsch, aber kein Indiz für einen Denkprozess.
"Agens"... laut Wikipedia ein Verursacher eines Ereignisses, absichtlich Handelnder.
Hm, muss man zum Denken wirklich handeln können? Warum? Können z.B. Babys noch nicht denken, nur weil sie noch nicht handeln können?
Doch, Babys sind Agenten einer perfekten Unschuld :) Und sie handeln, ganz gewiss, und denken tun sie auch. Ich würde auch nicht behaupten, Kinder hätten kein Selbstbewusstsein, nur, weil es ihnen nicht bewusst ist.
Und wenn wir nur einfach so vor uns hindenken? Einfach mal uns Gedanken durch den Kopf gehen lassen, z.B. beim Träumen oder (z.B. bei mir) in der Aufwachphase irgendwelche Gedanken aufkommen?
Auch das ist intentional. Intentional muss nicht "absichtsvolles" Denken bedeuten. Alles Denken ist intentional, insofern es einen Gegenstand hat, also auf etwas gerichtet ist, nämlich den Gedanken. Der Gegenstand des Denkens ist der Gedanke. Und der Gedanke ist weiter intentional, weil er ein Gedanke über etwas ist, also selbst einen Gegenstand hat (entweder einen anderen Gedanken oder ein nichtgedankliches Ding).

Aber es bedarf in jedem Fall eines Denkenden, also eines Subjekts, der diesen Gedanken denkt und sein Denken auf den Gedanken richtet, den er denkt. Denken ist nicht das Haben von Gedanken durch niemand, sondern das Denken von Gedanken durch jemanden. Und ich behaupte, dass Computer ein jemand sein müssen, wenn sie denken wollen können :) Und das ist auch nicht ausgeschlossen, dass sie ein jemand werden.
Instabil? Also wenn ich Schach spiele, ändern sich die Stellung nicht während meinen Überlegungen.
Ich meine es vielmehr so, dass ein Schachcomputer entscheiden können müsste, dass er keine Schachprobleme mehr löst, und sich bspw. philosophischen Problemen zuwendet :) Oder einen Limmerick produziert oder eine Bachsymphonie geniesst. Auch das muss ein Denkendes tun wollen können, wenn es das denn will. Dazu muss er aber auch wollen können. Er muss mehr tun können, als wozu er programmiert wurde, respektive müsste die Programmierung eben ermöglichen, dass er mehr tun kann als nur eine Art von Problemen zu lösen.



-------------------------------
Stets freundlich bleiben.

Benutzeravatar
Jörn Budesheim
Beiträge: 13828
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jul 2020, 15:27

Burkart hat geschrieben :
So 12. Jul 2020, 09:54
Ok, ActionScript kenne ich nun nicht, aber solche elementaren Dinge wie "if", Schleifen usw. werden dir davon z.B. vermutlich bekannt sein, stimmt's?
If (x>y)
gotoandplay("start");

Sowas in der Art kam durchaus vor. Doch das längste, was ich je geschrieben habe, war vielleicht eine halbe DIN A4 Seite lang :))



Ohne Wahrheit keine Freiheit

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 15:50

Jörn Budesheim hat geschrieben :
So 12. Jul 2020, 15:18
Burkart hat geschrieben :
So 12. Jul 2020, 14:33
Sie haben grundlegende Ziele, weil wir sie ihnen vorgeben. Unsere hat die Natur definiert, die definieren sie für die KI.
Wenn man das so sagen kann, dann muss man jedoch auch dem Hammer zugestehen, dass er das Ziel hat, Nägel in die Wand zu hauen :)
Nur dass der Hammer sich nicht von selbst bewegen kann und somit nie fähig ist, sein Ziel zu erreichen.
Eine KI als Computerprogramm tut ja grundsätzlich schon etwas (im Gegensatz zum Hammer); dass es das ist, was wir wünschen, müssen wir ihr natürlich noch klar machen.
meines Erachtens ist das bereits in der natürlichen biologischen Welt schwierig, ab wann man davon sprechen kann, dass ein Lebewesen wirklich ein Ziel hat. Hat der Regenwurm wirklich das Ziel, nicht zu ersticken, wenn er bei Regen ins freie kommt? Man hat nicht bereits ein Ziel, wenn man irgendetwas macht, was Wesen wie wir, als Ziel interpretieren könnten.
Ich würde das dem Regenwurm schon einräumen. Klar gibt es Ziele auf sehr verschiedenen Ebenen, von instinktiv über un(ter)bewusst bis zu sehr bewusst (und ggf. reflektiert), aber das macht ja nichts ;)
Mein Toaster auf jeden Fall hat nicht das Ziel, das Brot zu bräunen.
Einverstanden.
Ich weiß nicht, welches die hinreichenden Bedingungen dafür sind, dass man bei einer Entität davon sprechen kann, dass sie selbst Ziele hat oder gar sich Ziele setzt und sie verfolgt. Solange die künstliche Intelligenz nur die Ziele verfolgt, die wir einprogrammieren, würde ich auf keinen Fall davon sprechen, dass sie Ziele hat.
Also wenn du ihr ein Ziel einprogrammierst, hat sie doch schon mal ein Ziel :)
Ok, du meinst vermutlich *eigene* Ziele. Diese müssen sich dann entwickeln, wenn ihr eine Aufgabe vorgelegt wird, die es zu lösen gibt.
Also wenn ein selbstfahrendes Auto von mir aus nach Kassel fahren soll, plant es diese Fahrt und hat als (ggf. ein) erstes Ziel auf die Autobahn von mir aus zu kommen.



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 15:52

Jörn Budesheim hat geschrieben :
So 12. Jul 2020, 15:27
Burkart hat geschrieben :
So 12. Jul 2020, 09:54
Ok, ActionScript kenne ich nun nicht, aber solche elementaren Dinge wie "if", Schleifen usw. werden dir davon z.B. vermutlich bekannt sein, stimmt's?
If (x>y)
gotoandplay("start");

Sowas in der Art kam durchaus vor. Doch das längste, was ich je geschrieben habe, war vielleicht eine halbe DIN A4 Seite lang :))
Hier geht es ja auch nur darum, dass du das Prinzip kennst, also was ein if o.ä. bewirkt.
(Dass ich als Programmierer schon etwas mehr geschrieben habe, macht ja nichts ;) )



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Burkart
Beiträge: 90
Registriert: Sa 11. Jul 2020, 09:59
Wohnort: Norderstedt

So 12. Jul 2020, 17:14

Alethos hat geschrieben :
So 12. Jul 2020, 15:20
Burkart hat geschrieben :
So 12. Jul 2020, 14:22
Siehst du jedem Wesen ab, ob es denkt? Oder vielleicht z.B. einfach mit offenen Augen schläft?
Natürlich sieht man es nicht an, dann können wir es einfach nicht beurteilen, ob es denkt. Ich meine dennoch, dass man am Output nicht erkennt, ob das Produkt bedacht wurde oder einfach einer Regel folgend produziert wurde. Wenn ich in eine Rechenmaschine Operanden eingebe, die nach einer "Mechanik", nach mathematischen Regeln verfahrend ein Resultat ausspuckt, erkenne ich am Resultat nicht, ob dieses Gerät dachte. So wenig wie ich an der Marmel, die entlang einer geschlängelten Bahn nach unten rollt und unten ankommt, erkennen kann, dass sie dachte (weil sie nicht dachte). Dass sie unten ankommt, das ist zwar toll und ihr beim Runterrollen zuzusehen, das ist hübsch, aber kein Indiz für einen Denkprozess.
Die Frage ist: Wann ist es wichtig zu erkennen, ob etwas wirklich bedacht wurde oder "nur" einer Regel folgt? Ist nicht letztlich das Resultat entscheidend? Wenn man eine Wunderbox hätte oder sagen wir eine Fee zur Verfügung stände, die alles wirklich beliebig oft könnte, wäre es nicht egal, warum sie es könnte (solange man ihr wirklich vertrauen kann, was natürlich nicht selbstverständlich ist)?
Insofern muss man das ausführende Teil natürlich ausgiebig auf "Herz und Nieren" testen können (so wie ich beim Turingtest es tun würde).
"Agens"... laut Wikipedia ein Verursacher eines Ereignisses, absichtlich Handelnder.
Hm, muss man zum Denken wirklich handeln können? Warum? Können z.B. Babys noch nicht denken, nur weil sie noch nicht handeln können?
Doch, Babys sind Agenten einer perfekten Unschuld :)
Also wie eine "neugeborene" (nur grundlegend programmierte) KI :)
Und sie handeln, ganz gewiss, und denken tun sie auch. Ich würde auch nicht behaupten, Kinder hätten kein Selbstbewusstsein, nur, weil es ihnen nicht bewusst ist.
...womit ich keinen prinzipiellen Unterschied zu einer möglichen KI sehe hinsichtlich intelligenten Denkens.
Instabil? Also wenn ich Schach spiele, ändern sich die Stellung nicht während meinen Überlegungen.
Ich meine es vielmehr so, dass ein Schachcomputer entscheiden können müsste, dass er keine Schachprobleme mehr löst, und sich bspw. philosophischen Problemen zuwendet :) Oder einen Limmerick produziert oder eine Bachsymphonie geniesst. Auch das muss ein Denkendes tun wollen können, wenn es das denn will. Dazu muss er aber auch wollen können. Er muss mehr tun können, als wozu er programmiert wurde, respektive müsste die Programmierung eben ermöglichen, dass er mehr tun kann als nur eine Art von Problemen zu lösen.
Bei "als nur eine Art von Problemen zu lösen" stimme ich dir zu.
Ansonsten: Kannst du dich entscheiden nicht mehr Mensch zu sein, sondern lieber ein Vogel und in der Gegend herumzufliegen? Oder entsprechend ein Fisch und im Meer ausschließlich zu leben?
Jedes Wesen ist geprägt durch seine "Grundprogrammierung", der Mensch durch seine DNS u.ä.
Ok, die KI-Programmierung natürlich so flexibel sein, dass sie möglichst viel kann - und das müssen wir ihr beibringen, wie einem Kind etwas beigebracht wird. Die KI parallel auch noch zu spielen und sich zusätzlich entwickeln zu lassen, darf natürlich ein weiterer Aspekt sein, stelle ich mir aber nicht so einfach vor, als wenn man ihr direkt etwas beibringt.



Allgemeine, starke KI wird kommen - die Frage ist nur, wann... und was man darunter genau versteht...

Benutzeravatar
Jörn Budesheim
Beiträge: 13828
Registriert: Mi 19. Jul 2017, 09:24
Wohnort: Kassel
Kontaktdaten:

So 12. Jul 2020, 17:20

Das Gedicht von der künstlichen Intelligenz:

Alle Wissenschaftler:innen taten sich zusammen.
Es sollte die großartigste Maschine von allen werden.
Ihre Glieder waren elegant, ihre Beschichtung hinreißend.
Myriaden über Myriaden Rechenoperationen pro Millisekunde ...
Prozessierten unablässig in ihrem starken Rechner-Herz.
Die Energieversorgung war für viele Jahre gesichert.
Als man sie endlich in die Unabhängigkeit entließ,
warteten alle gebannt, was passieren würde …
Doch die Maschine tat einfach: nichts!
"Warum macht sie nichts?"
"Sie weiß nicht, was!"



Ohne Wahrheit keine Freiheit

Benutzeravatar
Alethos
Beiträge: 3208
Registriert: Do 17. Aug 2017, 15:35
Wohnort: Schweiz

So 12. Jul 2020, 18:27

:mrgreen:



-------------------------------
Stets freundlich bleiben.

Antworten