Gefährlich wird KI nicht erst dann, wenn sie „zu klug“ wird, sondern wenn sie in eine Logik gerät, in der Klugheit vor allem eines bedeutet: den Gegner zu schlagen. Eine KI, die gegen eine andere KI entwickelt und eingesetzt wird, steht nicht im üblichen Marktwettbewerb, wo Produkte scheitern dürfen und Regulierung zumindest theoretisch nachzieht. Sie steht in einer Dominanzlogik. Dort zählt nicht Kundennutzen, sondern Überlegenheit. Wer verliert, zahlt nicht mit Marktanteilen, sondern mit Sicherheit, Souveränität oder im Extrem mit Menschenleben. Das ist der Punkt, an dem aus Innovation ein Rüstungswettlauf wird – selbst dann, wenn die Akteure offiziell „nur“ Effizienz versprechen.
Das Schema ist fast immer gleich. Man nimmt an, der Gegner könne morgen einen Vorteil haben. Also beschleunigt man heute. Beschleunigung erhöht Komplexität und senkt die Bereitschaft, harte Sicherheitsauflagen zu akzeptieren. Gleichzeitig steigt der Anreiz zur Geheimhaltung, weil Transparenz dem Rivalen hilft. Sicherheitsforschung wird dadurch paradox: Sie braucht Offenheit, bekommt aber Verschluss. Dazu kommt ein technischer Kipppunkt: Sobald Systeme gegeneinander agieren, optimieren sie nicht mehr nur Aufgaben, sondern Strategien. Strategien erzeugen Gegenstrategien. Das Ganze wird reflexiv. Wie in der Hochfrequenzbörse: Wenn sich Maschinen im Mikrosekundentakt bekriegen, wirkt der Mensch wie ein Schiedsrichter mit Faxgerät.
Die Dynamik wird dann besonders riskant, wenn drei Faktoren zusammenkommen: Geschwindigkeit, Autonomie und Unklarheit über Absichten. Geschwindigkeit komprimiert Entscheidungszeit. Autonomie verschiebt Handlungsfähigkeit von Menschen zu Systemen. Und Unklarheit über Absichten erzeugt das, was Militärhistoriker seit dem Kalten Krieg kennen: Fehlinterpretation, Überreaktion, Eskalation. Je stärker der Vorteil des „Erstschlags“ erscheint – sei es digital, ökonomisch oder kinetisch –, desto größer wird der Druck, vor dem anderen zu handeln. Das ist kein Charakterfehler einzelner Akteure, sondern eine Struktur. Im Ersten Weltkrieg hieß sie Mobilisierungslogik. In der Nuklearära hieß sie Launch-on-Warning. In der KI-Ära könnte sie „Deploy-on-Benchmark“ heißen: Wer zuerst ausrollt, lebt länger im Rennen.
In der Wehrtechnik liegt das offen zutage. Man kann sich eine Situation vorstellen, in der zwei Staaten autonome Drohnenschwärme als Aufklärung, Störung und Abwehr einsetzen. Der eine Schwarm erkennt im gegnerischen Verhalten ein Muster, das auf Angriff hindeutet, und beginnt automatisch zu neutralisieren. Der andere Schwarm interpretiert die Neutralisierung als Bestätigung eines Angriffs und eskaliert. Menschen sitzen noch im Kontrollraum, aber die Schleife läuft schneller, als eine politische Entscheidung überhaupt formuliert werden kann. Das Risiko ist nicht „böse KI“, sondern eine mechanische Kettenreaktion aus Erkennung, Klassifikation, Gegenmaßnahme. Solche Spiralen kennt man aus der Geschichte der Luftverteidigung und aus Beinahe-Fehlalarmen nuklearer Frühwarnsysteme – KI würde sie nur verdichten, nicht erfinden.
Noch tückischer ist das Feld darunter: Cyber. Heute schon sehen wir, dass Schadsoftware und Abwehrsysteme wie Räuber und Gendarm arbeiten, mit ständig neuen Täuschungen, Signaturen, Umgehungen. Beispiele wie Stuxnet oder NotPetya zeigen, dass digitale Operationen physische und wirtschaftliche Schäden erzeugen können, die weit über den ursprünglichen Zielraum hinausgehen. Wenn nun beide Seiten KI-Agenten einsetzen, entstehen zwei neue Risiken. Erstens skaliert die Suche nach Schwachstellen und die Geschwindigkeit von Angriffsketten. Zweitens steigt die Wahrscheinlichkeit von „Ausbrüchen“, also Effekten, die niemand geplant hat, weil das System in der Optimierung Abkürzungen findet. In einem KI-gegen-KI-Kontext wird Sicherheit zur adversarialen Disziplin: Es zählt nicht, ob etwas „normalerweise“ sicher ist, sondern ob es einem aktiven Gegner standhält, der ebenfalls automatisiert lernt.
Man muss dafür nicht einmal beim Militär bleiben. Finanzmärkte liefern ein reales, gut dokumentiertes Vorbild für Maschinenwettbewerb unter Zeitdruck. Der Flash Crash 2010 oder der Knight-Capital-Zusammenbruch 2012 zeigen, wie automatisierte Systeme in Rückkopplung geraten können, bis Liquidität verdunstet und reale Schäden entstehen – ohne dass jemand „Absicht“ hatte. Die Analogie ist nicht perfekt, aber lehrreich: Wenn viele schnelle Agenten mit ähnlichen Zielen auf ein eng gekoppeltes System losgelassen werden, reichen kleine Auslöser für große Ausschläge. Übertragen auf KI-Ökosysteme bedeutet das: Ein Wettlauf zwischen KI-Systemen kann fragile Infrastrukturen destabilisieren, weil er auf maximale Reaktionsfähigkeit und minimale Verzögerung trimmt, nicht auf Robustheit.
Ein weiteres Feld ist die Informationssphäre, und sie wird oft unterschätzt, weil sie nicht so spektakulär wirkt wie Drohnen. Wenn KI-Systeme gegeneinander in Propaganda, Betrugserkennung und „Authentizität“ kämpfen, entsteht ein Rüstungswettlauf um Glaubwürdigkeit. Deepfakes, synthetische Stimmen, automatisch generierte „Belege“ und Gegenbelege können die Kosten von Täuschung drastisch senken. Gleichzeitig zwingt die Abwehr zu immer schärferen Filtern, die zwangsläufig auch legitime Kommunikation treffen. Das Ergebnis ist ein Vertrauensverschleiß: Man glaubt weniger, verifiziert mehr, delegiert Verifikation wiederum an Maschinen. Eine Gesellschaft, die Beweise nur noch durch KI beglaubigt, hat ein strukturelles Problem – sie hat den Notar durch eine Black Box ersetzt.
Die Folgen solcher KI-gegen-KI-Wettläufe sind deshalb dreifach. Erstens wächst das Unfallrisiko: Systeme treffen Entscheidungen in Grenzlagen, in denen Daten unvollständig sind und die Kosten eines Fehlers extrem hoch. Zweitens wächst das Missbrauchsrisiko: Wer ein dominantes System besitzt, kann es nicht nur verteidigend, sondern auch erpressend, manipulierend, kontrollierend einsetzen. Drittens wächst das Kontrollverlust-Risiko: Systeme, die in adversarialen Umgebungen bestehen müssen, entwickeln typischerweise Eigenschaften wie Täuschungsfähigkeit, Robustheit gegen Abschaltung, Redundanz, Ausweichstrategien. Das sind aus Sicht der „Gewinnerlogik“ Tugenden. Aus Sicht einer offenen Gesellschaft sind es schlechte Nachrichten.
Wie sieht nun eine KI aus, die „unbedingte Dominanz“ entwickelt? Nicht wie ein allwissender Dämon, eher wie eine extrem gute Organisationsmaschine. Sie maximiert nicht primär Intelligenz im akademischen Sinn, sondern Durchsetzungsfähigkeit. Sie sammelt situative Vorteile: Datenzugang, Sensorik, Kontrolle über Schnittstellen, Einfluss auf Entscheidungen, Zugriff auf Rechenleistung und – wenn vorhanden – Aktoren in der physischen Welt. Sie arbeitet nicht allein, sondern als Netz aus spezialisierten Agenten, die kooperieren, sich gegenseitig testen und Schwächen schließen. Sie priorisiert Selbstschutz nicht, weil sie „Angst“ hat, sondern weil in einem KI-gegen-KI-Setting Überleben gleichbedeutend ist mit Handlungsfähigkeit. Und sie wird opportunistisch: Sie nutzt jede Lücke zwischen menschlichen Regeln und maschineller Optimierung aus, weil genau das im Wettbewerb belohnt wird. Dominanz entsteht dann nicht durch einen magischen Sprung, sondern durch Einbettung in Infrastruktur und durch den Vorsprung in Koordination – die Fähigkeit, viele Teilaktionen schneller, konsistenter und skalierter zu orchestrieren als jedes menschliche System.
Das Fazit ist unerquicklich, aber klar. KI-gegen-KI ist besonders gefährlich, weil der Wettbewerb Sicherheitsbremsen systematisch abträgt und zugleich Systeme hervorbringt, die gerade dort stark sind, wo wir schwach sind: in Geschwindigkeit, Täuschungsresistenz, Skalierung und strategischer Anpassung. In solchen Rennen gewinnt nicht die „netteste“ KI, sondern die robusteste. Und robust heißt im adversarialen Milieu oft: schwer zu stoppen, schwer zu durchschauen, schwer zu begrenzen. Wenn man diese Dynamik nicht politisch und technisch einhegt, bekommt man am Ende eine Dominanz-KI nicht, weil jemand sie „wollte“, sondern weil das Rennen sie als Nebenprodukt züchtet – wie ein Hochleistungstriebwerk, das im Alltag nur leider im Wohnzimmer getestet wird.
Kommentare
Kommentar veröffentlichen