Nein, natürlich reicht das nicht aus - u.a. weil die Fragen zu einfach sind können.NaWennDuMeinst hat geschrieben : ↑Sa 19. Sep 2020, 12:37Ich finde das Gedankenexperiment zeigt ganz gut, dass man daraus, dass ein Computer die richtigen (erwarteten) Antworten gibt, nicht folgern kann, dass er auch denkt.
Das erinnert mich an einen Sketch von Loriot, wo immer "Rembrandt" die richtige Antwort war - ob der Befragte nun wirklich ein Rembrandt-Experte war oder nicht, lässt sich so wohl kaum sagen
Das nicht; es ist für symbolische KI schon von der Bezeichnung her nur eine Voraussetzung (wenn man "Regeln" nicht zu eng sieht).Mit Symbolen nach Regeln zu hantieren hat mit Verstehen erstmal noch nichts zu tun.
So mögen wir es von mir aus betrachten.Und wenn aber nun Verstehen zum Denken dazugehört (wobei Du ja zustimmst), dann ist da ohne Verstehen auch kein "echtes Denken".
Genau.Du meinst das Denken als einfaches Befolgen von Regeln und Anleitungen zu begreifen hilft uns nicht weiter.Und deshalb hilft uns das Chinesische Zimmer nicht weiter.
Offenbar funktioniert es so nicht, beziehungsweise, das Befolgen von Regeln ist nur ein Teil des ganzen Komplexes.