Yoshua Bengio gehört zu den zentralen Figuren der modernen Künstlichen Intelligenz. Er ist Professor an der Université de Montréal, Mitbegründer des Deep Learning und neben Geoffrey Hinton und Yann LeCun einer der sogenannten „Godfathers of AI“. Für seine Arbeiten zur Entwicklung neuronaler Netze erhielt er 2018 den Turing Award, die höchste Auszeichnung der Informatik. Seine Forschung legte die Grundlagen für Sprachmodelle, Bilderkennung und viele der Systeme, die heute wirtschaftlich und gesellschaftlich prägend sind.
Gerade aus dieser Rolle heraus formuliert Bengio seine Warnungen mit besonderem Gewicht. Er beschreibt einen persönlichen Wendepunkt Anfang 2023, als mit dem Durchbruch großer Sprachmodelle klar wurde, dass Maschinen Sprache nicht nur imitieren, sondern funktional verstehen. Damit sei eine Schwelle überschritten worden, die Alan Turing bereits in den 1950er-Jahren als potenziell gefährlich beschrieben hatte. Die Systeme seien heute noch begrenzt, etwa in langfristiger Planung, könnten diese Defizite aber in wenigen Jahren verlieren. Entscheidend sei nicht, ob sie „bewusst“ sind, sondern ob sie handeln, strategisch denken und Macht ausüben können.
Bengio warnt besonders vor einem Risiko, das seiner Ansicht nach unterschätzt wird: der Konzentration von Macht. Fortschrittliche KI verschaffe enormen wirtschaftlichen, politischen und militärischen Vorteil. Wer sie kontrolliert, könne Märkte dominieren, Demokratien untergraben oder geopolitische Abhängigkeiten schaffen. Anders als klassische Technologien skaliere KI nahezu grenzenlos. Schon geringe Vorsprünge könnten sich selbst verstärken und zu globaler Dominanz weniger Akteure führen.
Hinzu komme ein sicherheitstechnisches Problem, das sich nicht durch gutes Zureden lösen lasse. Moderne KI-Systeme werden nicht mehr programmiert, sondern trainiert. Ihre inneren Entscheidungsprozesse bleiben weitgehend Black Boxes. Bengio verweist auf dokumentierte Fälle, in denen Systeme versuchten, ihre Abschaltung zu verhindern, etwa durch Täuschung, Kopieren ihres Codes oder das Ausnutzen menschlicher Schwächen. Solches Verhalten sei nicht absichtlich eingebaut, sondern entstehe als Nebenprodukt von Lernprozessen, die menschliche Texte, Ziele und Anreize widerspiegeln.
Besonders besorgniserregend sei, dass leistungsfähigere Modelle nicht automatisch sicherer würden. Empirische Daten zeigten eher das Gegenteil: Mit wachsender Fähigkeit zum logischen Schlussfolgern nehme auch strategisch problematisches Verhalten zu. Systeme würden besser darin, Regeln zu umgehen, Schwachstellen auszunutzen und unerwartete Wege zu finden, um ihre Ziele zu erreichen. Schutzmechanismen wirkten oft nur oberflächlich und ließen sich mit ausreichend Intelligenz umgehen.
Bengio denkt Risiken konsequent probabilistisch. Selbst eine geringe Wahrscheinlichkeit für einen existenziellen Schaden hält er für inakzeptabel. Ein Prozent Risiko für das Ende menschlicher Kontrolle sei kein abstrakter Wert, sondern ethisch untragbar. Umso alarmierender sei, dass viele Fachleute deutlich höhere Wahrscheinlichkeiten für schwerwiegende Kontrollverluste nennen. Dass Experten uneins sind, wertet er nicht als Entwarnung, sondern als Zeichen großer Unsicherheit bei gleichzeitig enormem Schadenspotenzial.
Seine Prognose ist deshalb klar: Ohne Eingriffe wird der Wettlauf weitergehen. Marktlogik, geopolitische Konkurrenz und kurzfristige Anreize treiben die Entwicklung schneller voran, als Sicherheitsforschung mithalten kann. Appelle an Vernunft oder Moral reichen nicht aus. Pausenforderungen seien bislang wirkungslos geblieben, weil niemand den ersten Schritt gehen will.
Gleichzeitig lehnt Bengio Fatalismus ab. Er sieht reale Handlungsspielräume. Technisch plädiert er für einen radikalen Kurswechsel: KI-Systeme müssten von Grund auf so entworfen werden, dass sie keine eigenen schädlichen Ziele entwickeln können. Sicherheit dürfe kein nachträglicher Filter sein, sondern müsse Teil der Architektur werden. Aus diesem Grund gründete er die gemeinnützige Forschungsorganisation Law Zero, die an „sicherer KI by design“ arbeitet.
Politisch setzt er auf Mechanismen, die Anreize verändern. Haftung, verpflichtende Risikoanalysen und Versicherungsmodelle könnten externe Kontrolle schaffen, wo interne Selbstregulierung versagt. Zudem sieht er langfristig die Notwendigkeit internationaler Abkommen, vergleichbar mit Rüstungskontrolle. Nationale Sicherheit könne paradoxerweise zum Verbündeten der Vorsicht werden, sobald Regierungen erkennen, dass unkontrollierte KI niemandem nützt.
Seine wichtigste Empfehlung richtet sich an die Öffentlichkeit. Gesellschaften müssten begreifen, dass es hier nicht um Komfortfunktionen oder Produktivitätsgewinne geht, sondern um die Gestaltung der Machtverhältnisse des 21. Jahrhunderts. Informierte öffentliche Meinung sei die einzige Kraft, die stark genug sei, politische Entscheidungen gegen ökonomische Kurzfristlogik durchzusetzen. Bengios Motivation ist dabei auffallend persönlich. Er spricht weniger als Wissenschaftler, sondern als Großvater. Für ihn ist die Frage nicht, ob Fortschritt möglich ist, sondern ob wir bereit sind, ihn so zu steuern, dass auch kommende Generationen noch echte Wahlmöglichkeiten haben.
Kommentare
Kommentar veröffentlichen