Hallo zusammen!
Willkommen zur elften Ausgabe der Künstlichen Findigkeit!
Am 13. September war der 256. Tag des Jahres – der Tag der Programmiererin und des Programmiers! Ein passender Anlass, um über die Technologien zu sprechen, die unsere digitale Welt prägen. Diese Woche zeigt sich einmal mehr, wie sehr unsere Gesellschaft von Code abhängt – und wie verwundbar sie dadurch wird.
Besonders relevant für diese Ausgabe: Ich habe einen neuen Blogartikel veröffentlicht, der sich mit einer faszinierenden literarischen Analyse der KI-Revolution beschäftigt. In "Ilsebill und der Zauberfisch in der Tasche – Wie KI die Menschheit umkonfiguriert" analysiere ich Clemens J. Setz' brillante Parallele zwischen dem deutschen Märchen "Der Fischer und seine Frau" und der aktuellen KI-Revolution. Setz beschreibt eine "Ilsebill-Generation", die mit einem "Zauberfisch in der Tasche" aufwächst – KI-Tools, die praktisch jeden Wunsch erfüllen können. Die Frage ist: Was passiert mit der Menschheit, wenn alle Widerstände verschwinden?
Viel Spaß beim Lesen!
Sicherheit
Der größte Supply-Chain-Angriff in der NPM-Geschichte erreichte 10% aller Cloud-Umgebungen, aber die Angreifer gingen praktisch leer aus. Nachdem der Maintainer Josh Junon (qix) auf einen Phishing-Angriff hereinfiel, kompromittierten die Angreifer mehrere hochpopuläre NPM-Pakete wie chalk und debug-js mit über 2,6 Milliarden wöchentlichen Downloads. Die bösartigen Updates enthielten Code, der Kryptowährungs-Transaktionen umleitete. Innerhalb von zwei Stunden wurden alle kompromittierten Pakete entfernt, aber in diesem kurzen Zeitfenster erreichte der Angriff bereits 10% aller Cloud-Umgebungen. Trotz der massiven Reichweite und der erheblichen Störungen für Unternehmen machten die Angreifer weniger als 1000 Dollar Profit - nur 5 Cent in ETH und 20 Dollar in einer unbekannten Memecoin. Die Wallet-Adressen der Angreifer wurden bereits markiert, was ihre Fähigkeit einschränkt, das wenig verdiente Geld zu verwenden.
Apples neue Sicherheitstechnik Memory Integrity Enforcement (MIE) macht das iPhone 17 zum wahrscheinlich sichersten Gerät der Welt. Die Technologie bekämpft gezielt Memory-Corruption-Bugs, die von Spyware-Entwicklern wie NSO Group (Pegasus) und Herstellern von Forensik-Geräten wie Cellebrite am häufigsten ausgenutzt werden. MIE funktioniert durch geheime Tags für jeden Speicherbereich - nur Apps mit dem passenden Tag können auf den Speicher zugreifen. Bei einem Fehlversuch crasht die App und das Ereignis wird geloggt, was es für Sicherheitsforscher einfacher macht, Angriffe zu erkennen. Experten zufolge wird MIE die Kosten für die Entwicklung von Exploits erheblich erhöhen und einige Spyware-Anbieter möglicherweise zeitweise ohne funktionierende Angriffe gegen das iPhone 17 zurücklassen. Die Technologie ist standardmäßig systemweit aktiviert und schützt Apps wie Safari und iMessage.
Neuer npm-Großangriff: Selbst-vermehrende Malware infiziert Dutzende Pakete – Das npm-Ökosystem kämpft mit einem ausgewachsenen Wurm. Mindestens 40, möglicherweise bis zu 150 Pakete sind mit der Malware "Shai-Hulud" infiziert, die sich selbst repliziert und Zugangsdaten stiehlt. Betroffen ist auch das beliebte Paket @ctrl/tinycolor mit zwei Millionen wöchentlichen Downloads. Die Schadsoftware nutzt "TruffleHog" zum Erschnüffeln von API-Credentials und GitHub-Zugangsdaten, erstellt eigene Repositories und exfiltriert Daten über Webhooks. Besonders kurios: Die Angreifer benannten ihre Wurmkomponente nach den monumentalen Sandwürmern aus Frank Herberts "Dune"-Epos.
KI / Tech
ASML investiert 1,3 Milliarden Euro in Mistral AI und wird damit zum größten Anteilseigner des französischen KI-Unternehmens. Der niederländische Halbleiter-Riese erhält rund elf Prozent der Anteile und einen Aufsichtsratssitz, womit Mistral auf eine Bewertung von knapp zwölf Milliarden Euro steigt. Die Investition macht Mistral zur wertvollsten KI-Firma Europas und stärkt die digitale Souveränität des Kontinents. ASML, weltweiter Monopolist für EUV-Lithografie-Systeme, verbindet sich damit strategisch mit einem der führenden europäischen KI-Entwickler. Das erst 2023 gegründete Mistral hatte zuletzt eine Bewertung von sechs Milliarden Euro erreicht.
Das MCP-Team hat die MCP Registry als Preview gestartet – einen offenen Katalog für öffentlich verfügbare MCP-Server. Die quelloffene Registry standardisiert, wie MCP-Server verteilt und entdeckt werden. Server-Maintainer können ihre Server hinzufügen, sofern sie auf Package Registries wie npm, PyPI oder DockerHub veröffentlicht sind. Die Registry dient als zentrale "Source of Truth" für öffentliche MCP-Server, ohne bestehende Community- und Unternehmens-Registries zu behindern. Da es sich um eine Preview handelt, sind Breaking Changes möglich. MCP ermöglicht es Large Language Models, auf externe Datenquellen zuzugreifen.
Die KI-Nutzung in US-Unternehmen geht erstmals seit Beginn des Hypes zurück. Laut einer Umfrage des US Census Bureau sank der Einsatz von KI-Tools in Firmen mit mehr als 250 Beschäftigten von knapp 14 Prozent Mitte Juni auf unter 12 Prozent im August. In kleineren Betrieben stagniert die Nutzung, nur sehr kleine Unternehmen mit weniger als vier Mitarbeitern verzeichnen leichte Zuwächse. Besonders alarmierend: 95 Prozent der US-Unternehmen, die bereits KI einsetzen, berichten, dass die Technologie bislang keine zusätzlichen Einnahmen generiert hat. Gleichzeitig häufen sich Berichte über negative Effekte wie psychische Krisen durch KI-Chatbots und Betrugsfälle, bei denen sich Kriminelle als ideale Bewerber ausgeben.
Die KI-Branche erlebt einen fundamentalen Wandel: Foundation-Models werden zu austauschbaren Commodities. Während Startups früher als "GPT-Wrapper" belächelt wurden, fokussieren sie sich heute auf die Anpassung von KI-Modellen für spezifische Aufgaben und sehen Foundation-Models als austauschbare Komponenten. Die Skalierungsvorteile des Pre-Trainings haben sich verlangsamt, und der Fokus liegt nun auf Post-Training und Reinforcement Learning. Für Startups ist es effizienter, an Fine-Tuning und Interface-Design zu arbeiten, anstatt Milliarden in Pre-Training zu investieren. Die Fülle an Open-Source-Alternativen bedeutet, dass Foundation-Model-Unternehmen keine Preismacht haben, wenn sie im Anwendungsbereich verlieren. Dies könnte Unternehmen wie OpenAI und Anthropic zu Backend-Lieferanten in einem niedrigmargigen Commodity-Geschäft machen - wie ein Gründer es ausdrückte: "wie Kaffeebohnen an Starbucks verkaufen". Der VC Martin Casado von a16z stellt fest: "Soweit wir sehen können, gibt es keinen inhärenten Graben in der Technologie-Stack für KI."
Privatsphäre
Über 470 Wissenschaftler:innen aus 34 Ländern warnen in einem offenen Brief vor der geplanten EU-Chatkontrolle. Die Forscher kritisieren den aktuellen dänischen Vorschlag als "beispiellose Möglichkeiten für Überwachung, Kontrolle und Zensur". Sie argumentieren, dass eine genaue Erkennung von CSAM-Material bei Hunderten Millionen Nutzern technisch unmöglich sei und Ende-zu-Ende-Verschlüsselung fundamental untergrabe. Statt technischer Überwachung fordern sie präventive Maßnahmen: Aufklärung, digitale Kompetenz, Sexualaufklärung und Hotlines – wie von den UN empfohlen. Deutschland könnte als bevölkerungsreiches Land die bisherige Sperrminorität alleine kippen.
Das EU Data Act soll Verbrauchern mehr Rechte an ihren Gerätedaten geben, aber die Umsetzung zeigt praktische Probleme. Die Verordnung gilt für alle vernetzten Geräte - von Smartphones über Kaffeemaschinen bis hin zu Autos und industriellen Maschinen. Hersteller müssen offenlegen, welche Daten erhoben werden und wie Nutzer darauf zugreifen können. Verbraucher sollen ihre Daten einsehen, löschen oder an Dritte weitergeben können, etwa für günstigere Reparaturen oder Versicherungsprämien. Ab September 2026 müssen neue Produkte einfache Schnittstellen für den Datenzugang haben. Die EU-Verbraucherschutzorganisation Beuc kritisiert jedoch "zu viele Ausnahmeregelungen", die diese Möglichkeiten in der Praxis erschweren. Geschäftsführer Agustín Reyna bezeichnet das Gesetz als "verpasste Chance". In Deutschland herrscht noch Unsicherheit, da die EU-Verordnung nicht in deutsches Recht überführt wurde.
OpenAI überwacht ChatGPT-Gespräche systematisch und leitet verdächtige Fälle an Strafverfolgungsbehörden weiter. Das Unternehmen bestätigt in einem Blogpost: "Wenn wir Nutzer entdecken, die anderen Schaden zufügen wollen, leiten wir ihre Unterhaltungen an spezielle Pipelines weiter." Ein kleines Team prüft diese Gespräche und kann bei "unmittelbarer Gefahr" direkten Kontakt zu Behörden aufnehmen. Unklar bleibt, ob alle Gespräche gescannt werden – auch kostenpflichtige mit expliziter Nicht-Training-Zusage. Bei Selbstgefährdung erfolgt derzeit keine Weiterleitung "zum Schutz der Privatsphäre", was aber impliziert, dass OpenAI auch davon weiß.
Biometrische Gangerkennung: Zeige mir, wie du gehst, und ich sage dir, wer du bist – Die Technologie erkennt Menschen anhand ihres individuellen Gangs, auch wenn sie ihr Gesicht verhüllen. Deep Learning zerlegt Videos in Frames und erstellt "Ampelmännchen"-Profile mit überlagerten Bewegungen. In Deutschland bildet sich die Polizei bereits zu Gangerkennung weiter, Supermärkte testen die Erkennung gehender Personen. Die EU forscht an Gangerkennung für Grenzkontrollen, China und Russland nutzen sie bereits über 50 Meter Entfernung. Amnesty International und AlgorithmWatch warnen vor der Technologie. Der Karlsruher Forscher Simon Hanisch erklärt: "Man sollte nicht vergessen, dass sich biometrische Merkmale kombinieren lassen, um bessere Ergebnisse zu erzielen, beispielsweise Gangerkennung mit Gesichtserkennung." Die KI-Verordnung der EU verbietet den Einsatz nicht, sondern lässt Spielraum für biometrische Überwachung.
Geschäft
Taiwan setzt angesichts geopolitischer Spannungen auf internationale Kooperationen für robustere Halbleiter-Lieferketten. Präsident Lai Ching-te kündigte vor der Semicon-Messe in Taipeh an, dass "kein einzelnes Land diese Herausforderungen allein bewältigen" könne. Taiwan investiert über 100 Milliarden Taiwan-Dollar (2,8 Milliarden Euro) in KI-Infrastruktur und priorisiert Forschung in Quantencomputing und Robotik. In Dresden baut TSMC mit Bosch, Infineon und NXP eine Halbleiterfabrik, die europäische Lieferketten widerstandsfähiger machen soll. Die Semicon-Messe erwartet 1200 Unternehmen aus 56 Ländern, darunter 18 deutsche Firmen im deutschen Pavillon.
Hersteller unvorbereitet: Serverfestplatten für ein Jahr ausverkauft – Der KI-Boom hat unerwartete Folgen für den Festplattenmarkt: Serverbetreiber müssen ein Jahr auf HDDs warten, wenn sie jetzt größere Mengen bestellen. Der Marktbeobachter Trendforce berichtet von Lieferzeiten von zwölf Monaten für Nearline-Festplatten. Der Bedarf entsteht durch die vielen neuen Rechenzentren, die Hyperscaler für KI-Inferenzserver bauen. Western Digital kündigte bereits Preiserhöhungen für alle Festplatten an und stellt auf Seefracht um, was die Lieferzeiten um bis zu zehn Wochen verlängert. Als Alternative rücken QLC-SSDs für Cold Storage in den Fokus, obwohl sie teurer sind. Sandisk erhöhte NAND-Preise um zehn Prozent, Micron pausierte Preisinformationen für eine Woche – weitere Preiserhöhungen bis zu 30 Prozent werden erwartet.
Menschen
Awake's neue App verlangt von Tiefschläfern Aufgaben zum Wecker-Ausschalten – Endlich eine App, die das morgendliche Aufstehen zu einem Abenteuer macht! Statt einfach den Wecker auszuschalten, können Tiefschläfer jetzt Liegestützen machen, Mathe-Aufgaben lösen oder ihr iPhone wie einen Zauberstab schwenken. Die App ist so effektiv, dass sie sogar überprüft, ob Nutzer nach der Mission wirklich wach sind - falls nicht, gibt's einen weiteren Wecker als "Nachschlag". Entwickler Leo Mehlig hat offenbar erkannt, dass der beste Weg, Menschen morgens zu wecken, darin besteht, sie zu zwingen, Sport zu treiben. Wer hätte gedacht, dass die Lösung für das Snooze-Problem darin liegt, aus dem Aufstehen ein Spiel zu machen? Die App ist kostenlos, aber für die Premium-Version mit QR-Code-Scans und Mantra-Rezitation muss man zahlen - schließlich will man ja nicht, dass das Aufwachen zu einfach wird!
Ideen
Sam Altman beklagt, dass Bots und KI-generierte Inhalte soziale Medien zunehmend "fake" wirken lassen. Der OpenAI-Chef machte diese Beobachtung beim Lesen von Reddit-Posts über OpenAI Codex, wo er nicht mehr unterscheiden konnte, welche Lobeshymnen von echten Menschen stammten. Altman analysiert mehrere Faktoren: Menschen übernehmen LLM-Sprachgewohnheiten, extreme Online-Communities verstärken sich gegenseitig, und Engagement-optimierte Plattformen fördern künstliche Inhalte. Besonders ironisch: Die von OpenAI mitentwickelte Technologie macht authentische Kommunikation unmöglich erkennbar.