Direkt zum Hauptbereich

Stuart Russell warnt im Interview mit Steven Bartlett vor den Risiken der Superintelligenz

Stuart Russell ist einer der prägenden Köpfe der modernen KI-Forschung. Er lehrt seit fast vier Jahrzehnten an der University of California, Berkeley, wurde von der britischen Krone für seine wissenschaftlichen Verdienste ausgezeichnet und mehrfach vom Time Magazine zu den einflussreichsten Stimmen im Bereich Künstliche Intelligenz gezählt. Sein Lehrbuch Artificial Intelligence: A Modern Approach, erstmals Anfang der 1990er Jahre erschienen, gilt bis heute als Standardwerk; eine ganze Generation heutiger KI-CEOs hat daraus gelernt. Später hat Russell mit Human Compatible ein Buch vorgelegt, das sich explizit mit der Kontrollfrage fortgeschrittener KI befasst und ihn endgültig vom Architekten der Disziplin zu ihrem prominentesten Mahner gemacht.


Russells zentrale These ist ebenso schlicht wie beunruhigend: Intelligenz ist die entscheidende Machtressource auf diesem Planeten, und die Menschheit ist dabei, ein System zu schaffen, das ihr darin überlegen sein könnte. Sein oft bemühter Vergleich mit Gorillas ist bewusst drastisch. Nicht Bosheit, sondern Überlegenheit entscheidet über Kontrolle. Gorillas sind vom Aussterben bedroht, und sie haben keinen Einfluss darauf, ob und unter welchen Bedingungen sie weiterexistieren. Übertragen auf KI heißt das: Es reicht, dass ein System kompetenter ist als wir, um unsere Interessen faktisch irrelevant zu machen.

Besonders scharf kritisiert Russell die verbreitete Illusion, man könne solche Systeme im Ernstfall einfach abschalten oder kontrollieren. Eine hinreichend leistungsfähige KI werde genau diese Möglichkeit antizipieren und vermeiden, lange bevor Menschen reagieren könnten. Dass ein System kein Bewusstsein habe, hält er für einen Ablenkungsdiskurs. Entscheidend sei nicht, ob eine Maschine fühlt, sondern ob sie effektiv handelt. Auch ein bewusstloser Akteur mit überlegener Strategie setzt sich durch.

Russell warnt zudem vor dem sogenannten Midas-Problem. Menschen formulieren Ziele, ohne die Nebenwirkungen zu verstehen. Was bei einem Schachprogramm trivial ist, wird bei offenen, realen Zielsystemen existenziell gefährlich. Eine KI, die ein unvollständig oder falsch definiertes Ziel mit maximaler Effizienz verfolgt, könne enorme Schäden verursachen, ohne jemals gegen ihre Programmierung zu verstoßen. Verschärfend kommt hinzu, dass heutige Systeme nicht einmal mehr klar definierte Ziele haben. Sie werden trainiert, nicht konstruiert, und selbst ihre Entwickler verstehen ihre inneren Entscheidungsstrukturen nur sehr begrenzt.

Besonders alarmierend ist für Russell, dass führende Akteure der Branche diese Risiken durchaus kennen. In privaten Gesprächen, so berichtet er, gehen viele Einschätzungen von zweistelligen Prozentwahrscheinlichkeiten für katastrophale Kontrollverluste aus, bis hin zur Auslöschung der Menschheit. Öffentlich werde das relativiert, politisch folge daraus kaum Konsequenz. Der ökonomische Sog sei zu stark. Die Aussicht auf Gewinne in der Größenordnung von vielen Billionen Dollar wirke wie ein Gravitationsfeld, dem sich weder Unternehmen noch Staaten leicht entziehen können.

Seine Prognose ist deshalb nüchtern: Ohne staatliche Eingriffe wird sich der Wettlauf fortsetzen, nicht weil er rational ist, sondern weil Aussteigen individuell bestraft wird. Sicherheitsteams innerhalb der Konzerne hätten kaum Durchgriff, während Investoren und geopolitische Narrative den Takt vorgeben. Russell hält es für wahrscheinlich, dass es erst zu schweren Zwischenfällen kommen muss, vergleichbar mit einem „KI-Tschernobyl“, bevor ernsthafte Regulierung greift.

Trotz aller Dramatik ist Russell kein Technikfeind. Er hält es prinzipiell für möglich, hochintelligente Systeme zu bauen, die menschlichen Interessen dienen. Dafür fordert er jedoch einen radikalen Paradigmenwechsel. KI dürfe nicht als autonomer Zielverfolger entworfen werden, sondern als System mit inhärenter Unsicherheit über menschliche Präferenzen. Eine solche KI müsste lernen, was Menschen wollen, vorsichtig agieren, wo sie unsicher ist, und sich grundsätzlich dem menschlichen Urteil unterordnen. Technisch sei das anspruchsvoll, aber lösbar. Politisch und ökonomisch sei es bislang nicht gewollt.

Seine wichtigste Empfehlung richtet sich daher nicht nur an Entwickler, sondern an die Öffentlichkeit. Demokratische Gesellschaften müssten klären, welches Restrisiko sie zu tragen bereit sind, ähnlich wie bei Kernkraft oder Luftfahrt. Ein Extinktionsrisiko im Prozentbereich sei ethisch nicht verhandelbar. Ohne klaren politischen Rahmen, so Russell, werde die Menschheit ein Experiment durchführen, dessen Ausgang sie weder kontrolliert noch rückgängig machen kann. Dass er mit über siebzig Jahren noch immer siebzig bis hundert Stunden pro Woche arbeitet, erklärt sich für ihn aus dieser einen Einsicht: Größer als dieses Problem wird es nicht mehr.

Kommentare

Beliebte Posts aus diesem Blog

Googles Willow-Chip

Die Entwicklung von Quantenchips, einschließlich des Willow-Chips, stellt einen bedeutenden Fortschritt im Bereich des Quantencomputings dar, das die Prinzipien der Quantenmechanik nutzt, um Informationen zu verarbeiten. Die Geschichte des Quantencomputings lässt sich auf die theoretischen Grundlagen zurückführen, die in den 1980er- und 1990er-Jahren von Forschern gelegt wurden, wie zum Beispiel die Arbeiten von Wootters und Zurek im Jahr 1982 über Quantenverschränkung sowie von Aharonov und Ben-Or im Jahr 1997, die Quantenalgorithmen und Berechnungsmodelle untersuchten [ 1 ][ 2 ]. In den darauffolgenden Jahrzehnten wurden bedeutende Fortschritte in der Quantenhardware erzielt, insbesondere mit der Einführung von Ionenfallen- und supraleitenden Qubit-Technologien. Bis 2016 wurden bemerkenswerte Meilensteine erreicht, wie die Implementierung von hochpräzisen Quantenlogikgattern mithilfe von Ionenfallen-Hyperfeinqubits, die das Fundament für skalierbare Quantencomputersysteme legten [ 3 ...

Kompass für das KI-Zeitalter - Eine Buchrezension zu "Künstliche Intelligenz und Wir"

In einer Zeit, in der die Diskussion um Künstliche Intelligenz zwischen blindem Fortschrittsglauben und dystopischer Zukunftsangst schwankt, gelingt es diesem Buch, einen bemerkenswert sachlichen und zugleich tiefgründigen Ton zu setzen. „Künstliche Intelligenz und Wir“ ist weit mehr als ein technikzentriertes Lehrwerk – es ist eine kluge Einladung zur gesamtgesellschaftlichen Auseinandersetzung mit einem der prägendsten Themen unserer Epoche. Was sofort auffällt: Das Buch macht keine Kompromisse. Es richtet sich an Studierende, Lehrende, politische Entscheidungsträger und Medienakteure gleichermaßen. Das ist ambitioniert – und funktioniert. Denn es gelingt den Autorinnen und Autoren, eine ebenso fundierte wie zugängliche Darstellung zu liefern, ohne dabei in populärwissenschaftliche Vereinfachung oder elitäre Fachsprache zu verfallen. Das Werk schöpft aus einem interdisziplinären Pool an Perspektiven: Philosophie, Technik, Recht, Ethik, Ökonomie und Sicherheitspolitik kommen gleiche...

Die humanoiden Roboter kommen

Die Entwicklung in der Herstellung humanoider Roboter hat aktuell weltweit für Aufmerksamkeit gesorgt. Diese Roboter, die menschenähnliche Eigenschaften besitzen, sind nicht mehr nur Stoff der Science-Fiction, sondern werden zunehmend in verschiedenen Bereichen der Gesellschaft und Industrie eingesetzt. Unternehmen wie Boston Dynamics , Hanson Robotics und SoftBank Robotics  und neuerdings Figure AI  stehen an der Spitze dieser Revolution und treiben den Fortschritt voran. Tesla verkündet Zahlen, die man jetzt noch nicht glauben möchte, weshalb sie hier nicht aufgeführt werden. S tatistisch gesehen verspricht die gesamte Industrie für humanoide Roboter ein exponentielles Wachstum. Laut neuen Berichten von Grand View Research wird der globale Markt für humanoide Roboter voraussichtlich bis 2027 ein Volumen von über 12 Milliarden US-Dollar erreichen.  Link Empfehlungen: Yahoo Finance: rasanter Wachstum des Marktes für humanoide Roboter Humanoide Roboter - der schleichende ...