Du bewirbst dich 2025 als Software-Engineer. Du bekommst eine Testaufgabe. Du erledigst sie selbst, schickst sie ab – und wirst abgelehnt. Warum? Weil es wie KI aussah.
Niki Tonsky hat in einem satirischen Artikel die "Red Flags" dokumentiert, die in Testaufgaben vermieden werden sollten, wenn man nicht wie KI aussehen will. Die Liste ist verblüffend – und zeigt ein fundamentales Problem auf.
Die "Red Flags" – Was gute Code-Qualität ausmacht
Tonskys Liste der vermeintlichen "AI-Giveaways" liest sich wie eine Checkliste für professionelle Softwareentwicklung:
- Die Aufgabe wurde vollständig gelesen und verstanden
- Alle Teile sind implementiert
- Industry-standard Tools und Frameworks werden verwendet
- Der Code ist in kleine, lesbare Funktionen aufgeteilt
- Variablen haben beschreibende Namen
- Komplexe Teile haben Kommentare
- Fehler werden behandelt, Fehlermeldungen sind verständlich
- Quelldateien sind sinnvoll organisiert
- Die Web-Oberfläche sieht gut aus
- Es gibt Tests
Das Paradoxon: Gute Qualität = Verdächtig?
Was Tonsky hier aufzeigt, ist ein fundamentales Paradoxon:
Alles, was wir als gute Code-Qualität betrachten, wird plötzlich als verdächtig angesehen.
Das Problem ist nicht, dass KI schlechten Code produziert – im Gegenteil. KI-Tools wie GitHub Copilot, ChatGPT oder Claude produzieren oft Code, der genau diese Qualitätsmerkmale erfüllt.
Das Ergebnis: Guter Code sieht jetzt aus wie KI-generierter Code – weil KI darauf trainiert wurde, guten Code zu produzieren.