Donnerstag, 6. Juni 2024

What is the difference between AGI and ASI?

Artificial General Intelligence (AGI) and Artificial Super Intelligence (ASI) represent two concepts in the field of artificial intelligence. AGI refers to machines or systems that possess the ability to perform any intellectual task that a human can. This form of AI is characterized by its flexibility and universal applicability. AGI can learn from experience, integrate knowledge from various domains, solve complex problems.


In contrast, ASI goes beyond AGI and describes a form of AI that not only replicates human intellectual capabilities but surpasses them. ASI would be able to solve problems and create innovations at a level far beyond human comprehension. It would exhibit superhuman intelligence in all areas, including scientific creativity, general wisdom, and social skills. ASI could independently develop new technologies and scientific theories, potentially having transformative impacts on society, the economy, and the environment.

The primary difference between AGI and ASI lies in their complexity and capabilities. While AGI can think and solve problems at a human level, ASI transcends human abilities in all domains. AGI can be applied universally across various fields, much like a human. ASI, however, can be applied in areas that are currently unimaginable or unreachable for humans.

Several experts have provided predictions and insights about the development of AGI and ASI. Nick Bostrom, a leading thinker in AI safety, believes that AGI could be achieved in the coming decades, with ASI following soon after. He emphasizes the potential risks and the need for safety measures before ASI is realized. His book "Superintelligence: Paths, Dangers, Strategies" (2014) offers a comprehensive exploration of the potential pathways to and dangers of ASI.

Elon Musk has repeatedly warned about the dangers of ASI, calling it a potential existential threat to humanity. He advocates for careful and responsible development of AI technologies. As a co-founder of OpenAI, Musk supports initiatives that aim to ensure the safe and ethical advancement of AI.

Ray Kurzweil, a prominent futurist, predicts that AGI will be achieved around 2029, with ASI emerging by 2045. He views ASI as an opportunity for exponential improvements in science, medicine, and technology. Kurzweil's book "The Singularity is Near" (2005) details his vision of the technological singularity, a point at which technological growth becomes uncontrollable and irreversible, driven by ASI.

Stuart Russell, a respected AI researcher, highlights the need to develop AI systems that are safe and aligned with human values. He considers AGI and ASI as potentially achievable goals but warns of the risks without proper control mechanisms. In "Human Compatible: Artificial Intelligence and the Problem of Control" (2019), Russell discusses the challenges and solutions for the safe development of AGI and ASI.

Opinions from leading institutions like Boston Consulting Group (BCG), the Massachusetts Institute of Technology (MIT), and McKinsey underscore the economic and social implications of AGI and ASI. BCG highlights the potential for significant economic growth driven by AI technologies, estimating that AI could contribute up to $13 trillion to the global economy by 2030. MIT emphasizes the need for interdisciplinary collaboration to address the ethical and societal challenges posed by advanced AI. McKinsey projects that AI could automate around 50% of work activities, leading to substantial shifts in the job market.

The development of AGI and ASI also raises concerns about energy consumption and costs. The computational power required for advanced AI systems is immense, leading to significant energy demands. According to a study by the University of Massachusetts Amherst, training a single AI model can emit as much carbon dioxide as five cars over their lifetimes. This highlights the environmental impact and the need for sustainable AI practices.

Mittwoch, 5. Juni 2024

From AGI to Superintelligence: Aschenbrenner's Analysis

Leopold Aschenbrenner, a pivotal member of OpenAI's Superalignment Team, was dedicated to ensuring the safety and control of advanced AI systems, closely collaborating with team leaders Ilya Sutskever and Jan Leike. However, in May 2024, following leadership changes and restructuring at OpenAI, Aschenbrenner, along with other team members including William Saunders and Pavel Izmailov, left the company. Following his departure, Aschenbrenner founded his own investment firm focusing on advanced AI systems (AGI), attracting notable investors such as Patrick Collison, John Collison, Nat Friedman, and Daniel Gross. Previously, he conducted research on economic growth at the Global Priorities Institute at the University of Oxford, establishing himself as an expert in AI safety and control.


Aschenbrenner predicts that Artificial General Intelligence (AGI) will be achieved by 2027-2028, operating at a level comparable to the best human experts. Through continuous training and optimization, these models could evolve into superintelligence, surpassing human capabilities in almost every domain, potentially reshaping the global balance of power significantly.

A critical aspect of Aschenbrenner's analysis is the substantial technological and infrastructural investment required for developing superintelligence. He explains that by 2030, the size of training clusters will increase exponentially, necessitating enormous computational power. Such clusters could consume up to 100 gigawatts of electricity, more than 20% of the total US power production. This development will profoundly impact how businesses and governments operate, with early investors in these technologies gaining substantial competitive advantages.

From a geopolitical perspective, controlling superintelligence will become a crucial factor in the global power balance. Countries that dominate these technologies will significantly enhance their economic and military power. Aschenbrenner emphasizes that China has made considerable progress and might surpass the US in the long term due to its impressive industrial capacity, enabling rapid mobilization of large resources. This could be decisive in a prolonged technological arms race.

However, the development of superintelligence poses significant security risks. Aschenbrenner warns that authoritarian regimes could exploit these technologies to consolidate and expand their power, potentially leading to new weapon systems and other dangerous technologies that are difficult to control. Of particular concern is the possibility that China, through state-supported espionage, could acquire critical technological information. The Chinese government is making substantial efforts to infiltrate American AI labs and steal key algorithms and model weights, allowing China to quickly close the technological gap or even take the lead.

To address these challenges, Aschenbrenner calls for stringent security measures and increased international cooperation. American companies and research institutions must significantly enhance their security precautions to resist state-supported espionage, including intensive surveillance measures, air-gapping sensitive systems, and strict security controls for employees. Simultaneously, it is crucial to build and protect large data centers and computational capacities within the US to maintain technological supremacy. Establishing such infrastructure in authoritarian states is considered a significant security risk.

Source: https://www.dwarkeshpatel.com/p/leopold-aschenbrenner


Autonome Waffensysteme und KI: Die neuen Fronten im Wettrüsten

Das Wettrüsten mit autonomen Waffensystemen, die durch künstliche Intelligenz gesteuert werden, ist ein Thema von großer Brisanz, das sowohl ethische als auch sicherheitspolitische und technische Fragen aufwirft. Autonome Waffensysteme (AWS), auch als Lethal Autonomous Weapon Systems (LAWS) bekannt, sind in der Lage, ohne menschliches Zutun Ziele zu identifizieren und anzugreifen. Diese Technologie verspricht, die Kriegsführung grundlegend zu verändern, doch sie stellt die internationale Gemeinschaft vor große Herausforderungen in Bezug auf Regulierung und Kontrolle.


Die Integration von KI in militärische Systeme schreitet rasant voran. KI kann große Datenmengen analysieren und Muster erkennen, die für Menschen oft schwer erfassbar sind. Dadurch wird KI zu einem unverzichtbaren Werkzeug für die Überwachung und Entscheidungsfindung auf dem Schlachtfeld. Beispielsweise können Militärsatelliten, Sensoren und Kameras Daten an eine KI übermitteln, die feindliche Aktivitäten erkennt und darauf basierend Warnungen ausgibt.

Ein markantes Beispiel für den Einsatz von KI im Militär ist der Krieg in der Ukraine. Sowohl Russland als auch die Ukraine setzen verstärkt auf Drohnen, um Aufklärung zu betreiben und Angriffe durchzuführen. Die Ukraine verwendet beispielsweise First-Person-View-Drohnen, die ursprünglich aus dem Drohnensport stammen und mit Videobrillen gesteuert werden können. Sollte die Funkverbindung abbrechen, kann die Drohne dank integrierter KI die letzten Meter zum Ziel autonom zurücklegen.

Die Nutzung von AWS wirft jedoch erhebliche ethische und rechtliche Fragen auf. Eines der zentralen Prinzipien, das oft diskutiert wird, ist das Prinzip des "Human in the Loop", welches besagt, dass ein Mensch die letztendliche Entscheidung über den Waffeneinsatz treffen muss. Diese Anforderung wird jedoch zunehmend infrage gestellt, insbesondere wenn die Kommunikation durch elektronische Störsignale unterbrochen wird. Ohne durchgängige Verbindung könnten vollständig autonome Systeme als Lösung erscheinen, um die Kontrolle zu behalten.

Kritiker argumentieren, dass der Einsatz von AWS die Hemmschwelle für den Beginn von Konflikten senken könnte, da die Entscheidung über Leben und Tod in die Hände von Maschinen gelegt wird. Diese Entmenschlichung der Kriegsführung führt zu erheblichen moralischen Bedenken, da Maschinen kein Verständnis für ethische Prinzipien und Menschenrechte besitzen. Es ist zweifelhaft, ob autonome Systeme in der Lage sind, zwischen Kombattanten und Zivilisten zu unterscheiden und ob sie proportional auf Bedrohungen reagieren können. Besonders aktiv in der Entwicklung und dem Einsatz solcher Systeme sind China, Israel, Russland, Südkorea, Großbritannien und die Vereinigten Staaten. 

Dienstag, 4. Juni 2024

Von AGI zur Superintelligenz: Aschenbrenners Analyse

Leopold Aschenbrenner war ein zentrales Mitglied des Superalignment-Teams bei OpenAI, das sich der Sicherheit und Kontrolle fortschrittlicher KI-Systeme widmete. In enger Zusammenarbeit mit den Teamleitern Ilya Sutskever und Jan Leike spielte Aschenbrenner eine entscheidende Rolle in den Bemühungen des Teams. Im Mai 2024, nach Führungswechseln und Umstrukturierungen innerhalb des Unternehmens, verließ er jedoch OpenAI zusammen mit anderen Teammitgliedern, darunter William Saunders und Pavel Izmailov. Nach seinem Ausscheiden gründete Aschenbrenner seine eigene Investmentfirma, die sich auf fortschrittliche KI-Systeme (AGI) konzentriert und Investoren wie Patrick Collison, John Collison, Nat Friedman und Daniel Gross anzieht. Zuvor forschte er am Global Priorities Institute der Universität Oxford über Wirtschaftswachstum und etablierte sich als hochqualifizierter Experte für KI-Sicherheit und -Kontrolle.

Aschenbrenner prognostiziert, dass die Entwicklung der Künstlichen Allgemeinen Intelligenz (AGI) bis 2027-2028 realisiert wird. Diese AGI wird auf einem Niveau arbeiten, das mit den besten menschlichen Experten vergleichbar ist. Durch kontinuierliches Training und Optimierung können sich diese Modelle zu einer noch höheren Form der Intelligenz entwickeln, die als Superintelligenz bekannt ist. Diese Superintelligenz wird die menschlichen Fähigkeiten in fast allen Bereichen übertreffen und könnte das globale Machtgefüge erheblich verändern.

Ein kritischer Aspekt in Aschenbrenners Analyse ist die erhebliche technologische und infrastrukturelle Investition, die für die Entwicklung der Superintelligenz erforderlich ist. Er erklärt, dass die Größe der Trainingscluster bis 2030 exponentiell zunehmen wird, was enorme Rechenleistung erfordert. Ein solches Cluster könnte bis zu 100 Gigawatt Strom verbrauchen, was mehr als 20% der gesamten US-Stromproduktion entspricht. Diese Entwicklung wird tiefgreifende Auswirkungen darauf haben, wie Unternehmen und Regierungen operieren, wobei frühe Investoren in diese Technologien erhebliche Wettbewerbsvorteile erlangen werden.

Geopolitisch wird die Kontrolle über die Superintelligenz zu einem entscheidenden Faktor im globalen Machtgleichgewicht. Länder, die diese Technologien dominieren, werden ihre wirtschaftliche und militärische Macht erheblich ausbauen. Aschenbrenner betont, dass China erhebliche Fortschritte gemacht hat und langfristig die USA überholen könnte, aufgrund seiner beeindruckenden industriellen Kapazität, die eine schnelle Mobilisierung großer Ressourcen ermöglicht. Dies könnte in einem langwierigen technologischen Wettrüsten entscheidend sein.

Die Entwicklung der Superintelligenz birgt jedoch erhebliche Sicherheitsrisiken. Aschenbrenner warnt davor, dass autoritäre Regime diese Technologien nutzen könnten, um ihre Macht zu konsolidieren und auszubauen, was zu neuen Waffensystemen und anderen gefährlichen Technologien führen könnte, die schwer zu kontrollieren sind. Besonders besorgniserregend ist die Möglichkeit, dass China durch staatlich unterstützte Spionage kritische technologische Informationen erlangen könnte. Die chinesische Regierung unternimmt erhebliche Anstrengungen, um amerikanische KI-Labore zu infiltrieren und wichtige Algorithmen und Modellgewichte zu stehlen, wodurch China schnell den technologischen Abstand verringern oder sogar die Führung übernehmen könnte.

Um diesen Herausforderungen zu begegnen, fordert Aschenbrenner strenge Sicherheitsmaßnahmen und verstärkte internationale Zusammenarbeit. Amerikanische Unternehmen und Forschungseinrichtungen müssen ihre Sicherheitsvorkehrungen drastisch erhöhen, um staatlich unterstützter Spionage zu widerstehen. Dazu gehören intensive Überwachungsmaßnahmen, die physische Trennung sensibler Systeme und strenge Sicherheitskontrollen für Mitarbeiter. Gleichzeitig ist es entscheidend, große Rechenzentren und Rechenkapazitäten in den USA aufzubauen und zu schützen, um die technologische Vormachtstellung zu sichern. Die Errichtung dieser Infrastruktur in autoritären Staaten wird als erhebliches Sicherheitsrisiko betrachtet.

Source: https://www.dwarkeshpatel.com/p/leopold-aschenbrenner


Montag, 3. Juni 2024

Yoshua Bengio: Ein eindringlicher Warnruf

Yoshua Bengio ist ein kanadischer Informatiker und führender Experte im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens. Er ist Professor an der Universität von Montreal und wissenschaftlicher Direktor des Montreal Institute for Learning Algorithms (MILA). Bengio hat maßgeblich zur Entwicklung tiefer neuronaler Netzwerke beigetragen, die in Anwendungen wie Spracherkennung und Computer Vision eingesetzt werden. 2018 erhielt er zusammen mit Geoffrey Hinton und Yann LeCun den Turing Award für seine bedeutenden Beiträge zur KI-Forschung. Zudem setzt sich Bengio stark für die ethische Nutzung und Entwicklung von KI-Technologien ein, was seine Meinungen und Warnungen besonders relevant macht.

Bengio warnte kürzlich vor den Gefahren der Entwicklung superintelligenter KI-Systeme. Er betont die dringende Notwendigkeit, Methoden zu finden, um hochleistungsfähige KI zu entwickeln, die keine Bedrohung für die Menschheit darstellt. Er ist besorgt, dass wirtschaftlicher und militärischer Druck die Entwicklung von KI-Technologien beschleunigen könnte, ohne dass sichere Kontrollmethoden etabliert sind. Angesichts dieser existenziellen Bedrohung fordert Bengio massive Investitionen in die Forschung, um dieses Problem zu lösen, und sieht dies als die dringendste Herausforderung in der Informatik.

Bengios Warnung hat großes Gewicht, da sie von einem führenden Experten mit technischer Expertise und moralischer Integrität stammt. Seine Stimme ist sowohl in der wissenschaftlichen Gemeinschaft als auch in der Öffentlichkeit einflussreich. Er fordert die Entwicklung von KI-Methoden mit starken Sicherheitsgarantien und warnt, dass aktuelle Fortschritte, besonders bei großen Sprachmodellen, nicht die notwendige Sicherheit bieten und oft zu selbstsicheren und falschen Antworten führen können.

Die Dringlichkeit besteht darin, sichere und kontrollierbare KI zu entwickeln, bevor das Niveau menschlicher Intelligenz erreicht wird. Diese Herausforderung ist sowohl wissenschaftlich als auch politisch, da es entscheidend ist, zu verhindern, dass eine Einzelperson oder Gruppe eine Katastrophe auslöst oder die Macht an sich reißt, wenn die allgemeine künstliche Intelligenz (AGI) verfügbar wird. Bengios Aufruf zur Zusammenarbeit und verstärkten Forschungsanstrengungen unterstreicht die Dringlichkeit dieser Aufgabe.

The Urgent Warnings of AI Pioneer Yoshua Bengio

Yoshua Bengio is a Canadian computer scientist and one of the most prominent figures in the field of artificial intelligence (AI) and machine learning. He is a professor at the University of Montreal and the scientific director of the Montreal Institute for Learning Algorithms (MILA). Bengio has made significant contributions to the development of deep neural networks (deep learning), which are now widely used in applications such as speech recognition, computer vision, and natural language processing. In 2018, he was awarded the prestigious Turing Award alongside Geoffrey Hinton and Yann LeCun for their fundamental contributions to AI research. In addition to his scientific achievements, Bengio is deeply committed to the ethical use and development of AI technologies, which gives his opinions and warnings significant weight in both scientific and public discussions.

In a recent warning, Bengio highlighted the potential dangers associated with the development of superintelligent AI systems. He emphasizes the urgent need for society to address the question of how to develop highly capable AI that does not pose a threat to humanity. Bengio is particularly concerned that economic and military pressures could accelerate the development of AI technologies even if we have not yet developed safe control methods for these systems. He warns that human greed for power and wealth, along with competition between companies and countries, could continue to drive these dangerous technological advancements, even if regulations and treaties are put in place to mitigate the risks.

Bengio compares the situation to the film "Don't Look Up," where scientists unsuccessfully warn about a planet-destroying asteroid. He points out that there are no convincing scientific arguments that can refute scenarios predicting catastrophic outcomes from future powerful AI systems. Moreover, there is currently no known method to reliably prevent such catastrophic outcomes. Given the existential threat to humanity, Bengio calls for massive investments in research to understand and solve this problem. He views this as the most pressing challenge in computer science, one that will determine our collective well-being as a species.

This warning is particularly significant because it comes from one of the leading experts in AI research. Bengio not only has the technical expertise but also the moral integrity to realistically assess the potential risks and highlight the necessary precautions. His voice carries considerable weight in both the scientific community and the public sphere. Bengio urges that we focus on developing AI methods that offer strong safety guarantees and warns that current advancements in AI, particularly in large language models, do not provide the necessary safety as they often lead to confidently incorrect answers.

The importance of his warning lies in the urgent need to develop safe and controllable AI before reaching the level of human intelligence. This is not only a scientific challenge but also a political one, where it is crucial to ensure that no individual or group triggers a catastrophe or seizes political power when general artificial intelligence (AGI) becomes available. Bengio's call for collaboration and increased research efforts underscores the urgency and magnitude of the task ahead.

Source: https://yoshuabengio.org/

Freitag, 31. Mai 2024

US-amerikanische Militärs kaufen Palantir Software für den nächsten Krieg

Palantir hat einen Vertrag im Wert von 480 Millionen US-Dollar mit dem US-Verteidigungsministerium für die Weiterentwicklung des "Maven Smart Systems" (MSS) abgeschlossen. Dieses KI-System wird zur Identifizierung feindlicher Systeme in Einsatzgebieten verwendet und gilt als wesentlicher Bestandteil der sogenannten "Kill-Cloud" der USA. Ziel des Maven-Systems ist es, Kommandeure und anderes Personal durch schnellere und bessere Entscheidungen zu unterstützen sowie die Effizienz und Effektivität von Operationen zu verbessern.


Maven nutzt künstliche Intelligenz, um große Datenmengen zu durchforsten, relevante Informationen zu extrahieren und den Analysten nahezu in Echtzeit zur Verfügung zu stellen. Diese Daten werden dann von der Einsatzgemeinschaft zur Validierung von Zielen verwendet. Das Pentagon plant, KI-Tools wie Maven in ein vernetztes Kampfkonzept zu integrieren, das Plattformen, Sensoren und Datenströme des US-Militärs und seiner internationalen Partner in einem einheitlicheren Netzwerk verbindet.

Der neue Vertrag mit Palantir hat eine Laufzeit von fünf Jahren und soll bis zum 28. Mai 2029 abgeschlossen sein. Laut einer Mitteilung der Kentucky National Guard wird diese Art von KI-Technik bereits im Nahen Osten im Verantwortungsbereich des Central Command eingesetzt. Das System kombiniert Daten aus verschiedenen Aufklärungs- und Überwachungssystemen, um Interessengebiete zu identifizieren und feindliche Systeme zu scannen und zu erkennen.

Eine Erweiterung des Maven-Systems ist das "Tactical Intelligence Targeting Access Node" (Titan), das von Palantir und Anduril Industries entwickelt wird. Titan soll Soldaten durch koordinierte Datensammlung verbesserte Fähigkeiten zur Lageeinschätzung und Schlachtfeldkontrolle bieten. Erste Skizzen zeigen, dass Titan ein großer Truck ist, der Zugang zu Weltraum-, Höhen-, Luft- und terrestrischen Sensoren hat. Insgesamt sollen diese Entwicklungen die automatisierte Zielerfassung durch KI und maschinelles Lernen verbessern und Präzisionsschüsse auch über große Entfernungen ermöglichen.

Montag, 27. Mai 2024

Jan Leike verlässt OpenAI

Jan Leike, ein prominenter Forscher und eine zentrale Figur bei OpenAI, hat kürzlich das Unternehmen verlassen. Sein Rücktritt hat in der KI-Community für Aufsehen gesorgt, da er seine Entscheidung mit tiefgreifenden Bedenken über die aktuelle Ausrichtung und Prioritäten des Unternehmens begründet hat. Leike, der seit vielen Jahren an vorderster Front der KI-Forschung steht, betonte die dringende Notwendigkeit, herauszufinden, wie wir KI-Systeme, die weitaus intelligenter sind als Menschen, steuern und kontrollieren können. 

Leike trat OpenAI bei, weil er davon überzeugt war, dass es der beste Ort auf der Welt sei, um diese essentielle Forschung zu betreiben. Doch mit der Zeit entwickelte er erhebliche Meinungsverschiedenheiten mit der Führung des Unternehmens über dessen grundlegende Prioritäten. Diese Differenzen eskalierten schließlich zu einem Punkt, an dem er keine andere Wahl sah, als sich von OpenAI zu trennen.

In seinen Abschiedsworten machte Leike deutlich, dass seiner Meinung nach viel mehr Ressourcen darauf verwendet werden sollten, sich auf die nächsten Generationen von KI-Modellen vorzubereiten. Er betonte die Bedeutung von Sicherheit, Überwachung, Bereitschaft, Robustheit gegenüber Angriffen, (Super-)Ausrichtung, Vertraulichkeit und den gesellschaftlichen Auswirkungen von KI. Diese Themen seien entscheidend für die sichere und ethische Entwicklung von künstlicher Intelligenz, jedoch werden sie derzeit nicht ausreichend priorisiert.

Leike äußerte zudem seine Besorgnis, dass diese Herausforderungen äußerst komplex seien und dass OpenAI sich auf einem unzureichenden Weg befinde, um diese erfolgreich zu bewältigen. In den vergangenen Monaten habe sein Team gegen zahlreiche Widrigkeiten angekämpft, darunter auch begrenzte Rechenressourcen, was die Durchführung wichtiger Forschungsarbeiten erheblich erschwert habe.

Die Entwicklung von Maschinen, die intelligenter sind als Menschen, ist ein inhärent gefährliches Unterfangen. Leike betont, dass OpenAI eine enorme Verantwortung im Namen der gesamten Menschheit trägt. Trotz dieser Verantwortung sei in den letzten Jahren die Sicherheitskultur und die entsprechenden Prozesse zugunsten glänzender Produkte in den Hintergrund getreten. Leike ist der Ansicht, dass es längst überfällig ist, sich unglaublich ernsthaft mit den Implikationen von Artificial General Intelligence (AGI) auseinanderzusetzen und die Vorbereitung darauf zu priorisieren. Nur so könne sichergestellt werden, dass AGI der gesamten Menschheit zugutekommt.

Er appellierte an alle OpenAI-Mitarbeiter, das Potenzial und die Gefahren von AGI zu erkennen und mit der notwendigen Ernsthaftigkeit zu handeln, um den kulturellen Wandel im Unternehmen zu bewirken. Leike glaubt fest daran, dass die Mitarbeiter von OpenAI in der Lage sind, diesen Wandel herbeizuführen. Er betonte, dass die Welt auf sie zählt, um sicherzustellen, dass die Entwicklung von AGI in sichere und verantwortungsbewusste Bahnen gelenkt wird.

Leikes Rücktritt und seine eindringlichen Worte werfen ein Schlaglicht auf die internen Spannungen bei OpenAI und die komplexen Herausforderungen, die mit der Entwicklung fortgeschrittener KI-Systeme verbunden sind. Es bleibt abzuwarten, wie das Unternehmen auf diese Kritik reagieren und ob es die notwendigen Schritte unternehmen wird, um die von Leike angesprochenen Bedenken zu adressieren.

Quelle: https://x.com/janleike

Sonntag, 26. Mai 2024

China wird in der KI unterschätzt

Die gängigen Berichte über die weltweiten Investitionen in Künstliche Intelligenz präsentieren alle das Bild, dass die USA nicht nur dominieren, sondern auch doppelt so viel investieren wie der gesamte Rest der Welt.

Quelle: Statista (Private Investitionen im Bereich Künstliche Intelligenz (KI) in ausgewählten Ländern im Jahr 2022 / in Mrd. USD)

Die meisten Statistiken aus dem Jahr 2023 geben an, dass die USA jährlich etwa 45 Milliarden US-Dollar in KI investieren, während China auf etwa 11 Milliarden US-Dollar kommt. Auf den ersten Blick könnte man daraus schließen, dass die USA viermal so viel in KI investieren wie China. Doch dieser Vergleich ist irreführend, da er die unterschiedlichen Lebenshaltungskosten und Preisniveaus in den beiden Ländern nicht berücksichtigt. Um ein realistischeres Bild zu erhalten, ist es notwendig, die Kaufkraftparität (KKP) zu berücksichtigen. Die KKP gleicht die Unterschiede in den Preisniveaus aus und bietet daher ein präziseres Bild der tatsächlichen Investitionskraft.

Laut dem Internationalen Währungsfonds liegt der KKP-Faktor für China bei etwa 0,5. Das bedeutet, dass ein US-Dollar in China doppelt so viel kaufen kann wie in den USA. Durch die Umrechnung der Investitionen auf Basis der KKP können wir die tatsächlichen Ausgaben besser vergleichen. Die 11 Milliarden US-Dollar, die China in KI investiert, entsprechen unter Berücksichtigung der KKP etwa 22 Milliarden US-Dollar. Somit ergibt sich nach dieser Bereinigung ein deutlich geringerer Unterschied: Die USA investieren 45 Milliarden US-Dollar, während China auf 22 Milliarden US-Dollar kommt. Das Verhältnis reduziert sich von einem nominalen 4:1 auf ein realistischeres 2:1.

Diese Anpassung zeigt, dass China wesentlich mehr in KI investiert, als es die nominalen Dollarbeträge suggerieren. Die USA führen zwar immer noch, aber der Abstand ist deutlich kleiner. Diese Erkenntnis hat wichtige Implikationen für die strategische Planung und Bewertung der globalen Wettbewerbsfähigkeit in der KI-Entwicklung. Analysten und Entscheidungsträger in den USA sollten die KKP berücksichtigen, um ein genaueres Bild von Chinas Investitionskraft und deren zukünftigen Auswirkungen zu erhalten.

Die Vergangenheit zeigt, wie unterschätzte Investitionen Chinas in High-Tech-Sektoren zu beeindruckenden Erfolgen führten. Beispielsweise dominierten einst Tesla und westliche Unternehmen den Elektroauto- und Solarmarkt, doch durch massive, oft unterschätzte Investitionen und staatliche Unterstützung hat China nicht nur technologisch aufgeholt, sondern in einigen Bereichen die Führung übernommen. Auch in der Mikrochip-Industrie hat China durch strategische Investitionen eine bemerkenswerte Wettbewerbsfähigkeit erreicht, insbesondere in 5G-Technologien und Hochleistungschips, was zeigt, wie die KKP-bereinigte Betrachtung ein realistischeres Bild der Investitionskraft liefert.

Donnerstag, 23. Mai 2024

Das Nokia Momentum der deutschen Wirtschaft

China und die USA mobilisieren sämtliche Ressourcen, um die Vormachtstellung im Bereich der künstlichen Intelligenz zu erlangen. Ihre Investitionen in Mikrochips, humanoide Roboter, Rechenzentren und hochentwickelte Sprachmodelle, mit dem ausdrücklichen Ziel, als Erste eine Superintelligenz (AGI) zu verwirklichen, erreichen astronomische Höhen.


In der deutschen Presse hingegen dominiert eine achselzuckende, ja ironisch lächelnde Ablehnung gegenüber der bisher größten technischen Umwälzung der Geschichte. Beispielhaft dafür ist ein Artikel aus Zeit Online vom 15. Mai über Ilya Sutskever und die abschließende Konklusion: "Auch ob AGI jemals entstehen wird, bleibt unsicher." Das Dramatische daran ist, dass dies die Meinung fast aller deutschen Kommentatoren ist.

Selbst Briten (Google DeepMind) und Franzosen (Mistral) lassen die Deutschen weit hinter sich. Gerne wird bei Versäumnissen die Politik für den Abstieg verantwortlich gemacht, doch diesmal taugt der klassische Sündenbock dafür nicht, denn das Mittelmaß zieht sich durch alle gesellschaftlichen Bereiche! Es fehlt in dieser Frage an den Grundlagen, an dem Verständnis, wozu künstliche Intelligenz in der Lage ist und dass sie wirklich sehr gefährlich werden kann, wenn die bisherigen Verhaltensmuster nicht verstanden werden. Den Deutschen mangelt es an Selbstreflexion, an Vision und an Neugier.

Die Annahme, dass man durch Regulierung Deutschland vor der KI-Revolution abschotten könne, ist unbeschreiblich arrogant. Es muss endlich verstanden werden, dass eine AGI nicht verhindert werden kann und erst recht nicht durch Gesetze. Man kann auch nicht die Atombomben anderer Länder durch Landesgesetze verhindern. Man muss an der Erforschung und Entwicklung einer AGI teilnehmen, um zu verhindern, dass etwas Grauenvolles daraus entstehen könnte.

Vor allem muss man am Ende verstehen lernen, dass man diese größte Herausforderung der Menschheit nur gemeinsam mit allen anderen Ländern der Welt meistern kann.