Stuart Russell ist einer der prägenden Köpfe der modernen KI-Forschung. Er lehrt seit fast vier Jahrzehnten an der University of California, Berkeley, wurde von der britischen Krone für seine wissenschaftlichen Verdienste ausgezeichnet und mehrfach vom Time Magazine zu den einflussreichsten Stimmen im Bereich Künstliche Intelligenz gezählt. Sein Lehrbuch Artificial Intelligence: A Modern Approach, erstmals Anfang der 1990er Jahre erschienen, gilt bis heute als Standardwerk; eine ganze Generation heutiger KI-CEOs hat daraus gelernt. Später hat Russell mit Human Compatible ein Buch vorgelegt, das sich explizit mit der Kontrollfrage fortgeschrittener KI befasst und ihn endgültig vom Architekten der Disziplin zu ihrem prominentesten Mahner gemacht.
Russells zentrale These ist ebenso schlicht wie beunruhigend: Intelligenz ist die entscheidende Machtressource auf diesem Planeten, und die Menschheit ist dabei, ein System zu schaffen, das ihr darin überlegen sein könnte. Sein oft bemühter Vergleich mit Gorillas ist bewusst drastisch. Nicht Bosheit, sondern Überlegenheit entscheidet über Kontrolle. Gorillas sind vom Aussterben bedroht, und sie haben keinen Einfluss darauf, ob und unter welchen Bedingungen sie weiterexistieren. Übertragen auf KI heißt das: Es reicht, dass ein System kompetenter ist als wir, um unsere Interessen faktisch irrelevant zu machen.
Besonders scharf kritisiert Russell die verbreitete Illusion, man könne solche Systeme im Ernstfall einfach abschalten oder kontrollieren. Eine hinreichend leistungsfähige KI werde genau diese Möglichkeit antizipieren und vermeiden, lange bevor Menschen reagieren könnten. Dass ein System kein Bewusstsein habe, hält er für einen Ablenkungsdiskurs. Entscheidend sei nicht, ob eine Maschine fühlt, sondern ob sie effektiv handelt. Auch ein bewusstloser Akteur mit überlegener Strategie setzt sich durch.
Russell warnt zudem vor dem sogenannten Midas-Problem. Menschen formulieren Ziele, ohne die Nebenwirkungen zu verstehen. Was bei einem Schachprogramm trivial ist, wird bei offenen, realen Zielsystemen existenziell gefährlich. Eine KI, die ein unvollständig oder falsch definiertes Ziel mit maximaler Effizienz verfolgt, könne enorme Schäden verursachen, ohne jemals gegen ihre Programmierung zu verstoßen. Verschärfend kommt hinzu, dass heutige Systeme nicht einmal mehr klar definierte Ziele haben. Sie werden trainiert, nicht konstruiert, und selbst ihre Entwickler verstehen ihre inneren Entscheidungsstrukturen nur sehr begrenzt.
Besonders alarmierend ist für Russell, dass führende Akteure der Branche diese Risiken durchaus kennen. In privaten Gesprächen, so berichtet er, gehen viele Einschätzungen von zweistelligen Prozentwahrscheinlichkeiten für katastrophale Kontrollverluste aus, bis hin zur Auslöschung der Menschheit. Öffentlich werde das relativiert, politisch folge daraus kaum Konsequenz. Der ökonomische Sog sei zu stark. Die Aussicht auf Gewinne in der Größenordnung von vielen Billionen Dollar wirke wie ein Gravitationsfeld, dem sich weder Unternehmen noch Staaten leicht entziehen können.
Seine Prognose ist deshalb nüchtern: Ohne staatliche Eingriffe wird sich der Wettlauf fortsetzen, nicht weil er rational ist, sondern weil Aussteigen individuell bestraft wird. Sicherheitsteams innerhalb der Konzerne hätten kaum Durchgriff, während Investoren und geopolitische Narrative den Takt vorgeben. Russell hält es für wahrscheinlich, dass es erst zu schweren Zwischenfällen kommen muss, vergleichbar mit einem „KI-Tschernobyl“, bevor ernsthafte Regulierung greift.
Trotz aller Dramatik ist Russell kein Technikfeind. Er hält es prinzipiell für möglich, hochintelligente Systeme zu bauen, die menschlichen Interessen dienen. Dafür fordert er jedoch einen radikalen Paradigmenwechsel. KI dürfe nicht als autonomer Zielverfolger entworfen werden, sondern als System mit inhärenter Unsicherheit über menschliche Präferenzen. Eine solche KI müsste lernen, was Menschen wollen, vorsichtig agieren, wo sie unsicher ist, und sich grundsätzlich dem menschlichen Urteil unterordnen. Technisch sei das anspruchsvoll, aber lösbar. Politisch und ökonomisch sei es bislang nicht gewollt.
Seine wichtigste Empfehlung richtet sich daher nicht nur an Entwickler, sondern an die Öffentlichkeit. Demokratische Gesellschaften müssten klären, welches Restrisiko sie zu tragen bereit sind, ähnlich wie bei Kernkraft oder Luftfahrt. Ein Extinktionsrisiko im Prozentbereich sei ethisch nicht verhandelbar. Ohne klaren politischen Rahmen, so Russell, werde die Menschheit ein Experiment durchführen, dessen Ausgang sie weder kontrolliert noch rückgängig machen kann. Dass er mit über siebzig Jahren noch immer siebzig bis hundert Stunden pro Woche arbeitet, erklärt sich für ihn aus dieser einen Einsicht: Größer als dieses Problem wird es nicht mehr.
Kommentare
Kommentar veröffentlichen