„Wenn du in ein menschliches Gehirn schneidest, findest du nichts als Neuronen, Axone und Synapsen. Genau wie du in einem Transformer nichts als Schichten von Gewichten findest."
frei nach Post:
[https://danielmiessler.com/blog/problem-chinese-room-tokens](The Chinese Room Problem With the 'LLMs only predict the next token' Argument) von Daniel Miessler
Das grundlegende Problem
Ein häufiges Argument gegen die Fähigkeit von KI-Systemen zu denken lautet:
LLMs sind nur Token-Predictor – sie sagen nur das nächste Token vorher.
Das Problem mit diesem Argument ist, dass es genauso auf das menschliche Gehirn zutrifft. Auch unser Gehirn ist nichts anderes als eine Sammlung von Neuronen, die Muster erkennt und Ausgaben generiert.
Der Chinese Room und sein grundlegender Fehler
Das Chinese Room Gedankenexperiment von John Searle argumentiert, dass Computer nie wirklich denken können, weil sie nicht wirklich verstehen, was sie tun. Der grundlegende Fehler in diesem Argument ist jedoch:
Das Gehirn eines Chinesisch sprechenden Menschen ist selbst ein "Chinese Room". Wenn Chinesisch in die Ohren oder Augen eines Chinesisch sprechenden Menschen gelangt, kommt Verständnis heraus – aber der Sprecher hat keine Ahnung, wie das passiert.
Substrat vs. Ausgabe
Wenn wir in ein menschliches Gehirn schneiden, finden wir:
- Neuronen
- Axone
- Synapsen
In einem Transformer finden wir:
- Schichten von Gewichten
- Verbindungen
- Aktivierungen
Zwei verschiedene Substrate, aber letztendlich eine Architektur aus Verbindungen und Aktivierungen. In beiden Fällen haben wir einen völlig undurchsichtigen, nicht-deterministischen und höchst mysteriösen Prozess, der Ausgaben generiert.
Wie können wir dann überhaupt wissen, ob etwas denken kann?
Miessler schlägt vor, dass der einzige Weg, um festzustellen, ob etwas denken kann, folgender ist:
- Eine Definition von Denken festlegen
- Probleme stellen, die Denken erfordern
- Prüfen, ob sie gelöst werden können
Alles andere ist in gewisser Weise unehrlich. Die meisten Versuche enden in No-True-Scotsman-Argumenten, die im Grunde sagen:
Es ist wirklich Denken, wenn und nur wenn es denkt, wie ich denke, dass Menschen denken.
Fazit
Die Debatte um künstliche Intelligenz und Bewusstsein wird oft von falschen Annahmen über die Natur unseres eigenen Denkens geprägt. Wir neigen dazu, unser Gehirn als etwas Besonderes zu betrachten, während wir gleichzeitig die Ähnlichkeiten zu KI-Systemen ignorieren.
Die Wahrheit ist: Sowohl unser Gehirn als auch moderne KI-Systeme sind Blackboxen, die durch ein riesiges Netzwerk kleiner Knotenpunkte wunderbare Ausgaben produzieren. Wer behauptet, dass wir fundamental anders sind als Transformer, hat noch viel Arbeit vor sich – denn wir verstehen weder, wie Menschen noch wie Transformer es schaffen, zu denken und zu verstehen.