Das Problem mit dem Chinese Room

Warum unser Gehirn auch nur ein Token-Predictor ist

9. Juni 2025
„Wenn du in ein menschliches Gehirn schneidest, findest du nichts als Neuronen, Axone und Synapsen. Genau wie du in einem Transformer nichts als Schichten von Gewichten findest."
— Daniel Miessler

frei nach Post:
[https://danielmiessler.com/blog/problem-chinese-room-tokens](The Chinese Room Problem With the 'LLMs only predict the next token' Argument) von Daniel Miessler

Das grundlegende Problem

Ein häufiges Argument gegen die Fähigkeit von KI-Systemen zu denken lautet:

LLMs sind nur Token-Predictor – sie sagen nur das nächste Token vorher.

Das Problem mit diesem Argument ist, dass es genauso auf das menschliche Gehirn zutrifft. Auch unser Gehirn ist nichts anderes als eine Sammlung von Neuronen, die Muster erkennt und Ausgaben generiert.

Der Chinese Room und sein grundlegender Fehler

Das Chinese Room Gedankenexperiment von John Searle argumentiert, dass Computer nie wirklich denken können, weil sie nicht wirklich verstehen, was sie tun. Der grundlegende Fehler in diesem Argument ist jedoch:

Das Gehirn eines Chinesisch sprechenden Menschen ist selbst ein "Chinese Room". Wenn Chinesisch in die Ohren oder Augen eines Chinesisch sprechenden Menschen gelangt, kommt Verständnis heraus – aber der Sprecher hat keine Ahnung, wie das passiert.

Substrat vs. Ausgabe

Wenn wir in ein menschliches Gehirn schneiden, finden wir:

  • Neuronen
  • Axone
  • Synapsen

In einem Transformer finden wir:

  • Schichten von Gewichten
  • Verbindungen
  • Aktivierungen

Zwei verschiedene Substrate, aber letztendlich eine Architektur aus Verbindungen und Aktivierungen. In beiden Fällen haben wir einen völlig undurchsichtigen, nicht-deterministischen und höchst mysteriösen Prozess, der Ausgaben generiert.

Wie können wir dann überhaupt wissen, ob etwas denken kann?

Miessler schlägt vor, dass der einzige Weg, um festzustellen, ob etwas denken kann, folgender ist:

  1. Eine Definition von Denken festlegen
  2. Probleme stellen, die Denken erfordern
  3. Prüfen, ob sie gelöst werden können

Alles andere ist in gewisser Weise unehrlich. Die meisten Versuche enden in No-True-Scotsman-Argumenten, die im Grunde sagen:

Es ist wirklich Denken, wenn und nur wenn es denkt, wie ich denke, dass Menschen denken.

Fazit

Die Debatte um künstliche Intelligenz und Bewusstsein wird oft von falschen Annahmen über die Natur unseres eigenen Denkens geprägt. Wir neigen dazu, unser Gehirn als etwas Besonderes zu betrachten, während wir gleichzeitig die Ähnlichkeiten zu KI-Systemen ignorieren.

Die Wahrheit ist: Sowohl unser Gehirn als auch moderne KI-Systeme sind Blackboxen, die durch ein riesiges Netzwerk kleiner Knotenpunkte wunderbare Ausgaben produzieren. Wer behauptet, dass wir fundamental anders sind als Transformer, hat noch viel Arbeit vor sich – denn wir verstehen weder, wie Menschen noch wie Transformer es schaffen, zu denken und zu verstehen.