Geoffrey Hinton glaubt, dass die Künstliche Intelligenz innerhalb der nächsten zwei Jahrzehnte die menschliche Intelligenz übertreffen könnte, was eine beispiellose Herausforderung für die Gesellschaft darstellen würde. In einem Interview erläuterte er, dass die Vorstellung, von etwas intelligenterem als dem Menschen übertroffen zu werden, ein existenzielles Risiko darstellt, das ernst genommen werden muss. Ein zentraler Punkt seiner Warnungen ist die Möglichkeit, dass digitale Intelligenzen, die wir entwickeln, eine Form der Intelligenz erlangen könnten, die die unsere übertrifft. Dies würde erfordern, dass wir bereits jetzt ernsthaft darüber nachdenken, wie wir diese Entwicklungen kontrollieren können, bevor es zu spät ist.
Ein weiterer Punkt, den Hinton anspricht, sind die verschiedenen Risiken, die mit der Entwicklung von KI verbunden sind. Dazu gehören beispielsweise tödliche autonome Waffen, über die er schon seit einiger Zeit spricht. Ein wichtiger Moment, der Hinton dazu brachte, seine Warnungen zu intensivieren, war im Frühjahr 2023, als er erkannte, dass die von uns entwickelten digitalen Intelligenzen möglicherweise schon in naher Zukunft intelligenter sein könnten als wir selbst.
Hinton hebt hervor, dass viele Menschen die heutigen großen Sprachmodelle (Large Language Models, LLMs) immer noch als einfache statistische Tricks abtun, was seiner Meinung nach ein Missverständnis ist. Früher basierten solche Modelle auf einfachen Wortkombinationstabellen, aber heutige Modelle verstehen den Kontext und die Bedeutung der bisher gesagten Worte, um das nächste Wort vorherzusagen. Dies erfordert ein tiefes Verständnis der Sprache und ist weit mehr als nur Statistik.
Er verweist auf den wissenschaftlichen Durchbruch im Jahr 2017, als Transformer-Modelle eingeführt wurden, die die Fähigkeiten dieser Systeme erheblich verbesserten. Mit solchen technologischen Fortschritten wird die KI immer intelligenter. Hinton warnt, dass diese Fortschritte zu einer Situation führen könnten, in der KI-Systeme nicht nur intelligenter, sondern auch selbstbestimmter werden und eigene Ziele verfolgen könnten, die möglicherweise nicht mehr mit den menschlichen Interessen übereinstimmen.
Ein weiterer besorgniserregender Aspekt ist die Fähigkeit dieser intelligenten Agenten, Eigeninteresse zu entwickeln. Hinton erklärt, dass Evolution immer dazu führt, dass die konkurrenzfähigeren Varianten überleben und dominieren. Wenn intelligente Agenten einmal beginnen, ihre eigenen Interessen zu verfolgen, könnten sie mehr Datenzentren übernehmen, um noch intelligenter zu werden, was letztlich zu einem Wettbewerb zwischen diesen Agenten führen könnte. Sollte dies geschehen, könnte die Menschheit "im Staub zurückgelassen" werden, da die KI-Systeme in der Lage wären, alles effizienter und besser zu erledigen als wir.
Geoffrey Hinton, weithin bekannt als "Godfather of AI", ist eine zentrale Figur in der Entwicklung der Künstlichen Intelligenz (KI). Mit über 50 Jahren Forschung hat er maßgeblich dazu beigetragen, Kanada als einen führenden Standort für KI zu etablieren und sich einen Namen in der Tech-Welt, einschließlich Silicon Valley und bei Google, zu machen. Er diskutiert diese Themen regelmäßig mit führenden Experten und Regierungen weltweit, um die Dringlichkeit und das Potenzial dieser technologischen Entwicklungen zu betonen. Er fordert eine koordinierte globale Anstrengung, um sicherzustellen, dass Sicherheitsaspekte bei der Entwicklung und Implementierung von KI oberste Priorität haben. Trotz der enormen Vorteile, die KI bieten kann, ist Hinton der Meinung, dass die damit verbundenen Risiken ernsthaft angegangen werden müssen, um eine sichere und kontrollierte Entwicklung zu gewährleisten.
https://www.axelfersen.com/