Montag, 3. Juni 2024

The Urgent Warnings of AI Pioneer Yoshua Bengio

Yoshua Bengio is a Canadian computer scientist and one of the most prominent figures in the field of artificial intelligence (AI) and machine learning. He is a professor at the University of Montreal and the scientific director of the Montreal Institute for Learning Algorithms (MILA). Bengio has made significant contributions to the development of deep neural networks (deep learning), which are now widely used in applications such as speech recognition, computer vision, and natural language processing. In 2018, he was awarded the prestigious Turing Award alongside Geoffrey Hinton and Yann LeCun for their fundamental contributions to AI research. In addition to his scientific achievements, Bengio is deeply committed to the ethical use and development of AI technologies, which gives his opinions and warnings significant weight in both scientific and public discussions.

In a recent warning, Bengio highlighted the potential dangers associated with the development of superintelligent AI systems. He emphasizes the urgent need for society to address the question of how to develop highly capable AI that does not pose a threat to humanity. Bengio is particularly concerned that economic and military pressures could accelerate the development of AI technologies even if we have not yet developed safe control methods for these systems. He warns that human greed for power and wealth, along with competition between companies and countries, could continue to drive these dangerous technological advancements, even if regulations and treaties are put in place to mitigate the risks.

Bengio compares the situation to the film "Don't Look Up," where scientists unsuccessfully warn about a planet-destroying asteroid. He points out that there are no convincing scientific arguments that can refute scenarios predicting catastrophic outcomes from future powerful AI systems. Moreover, there is currently no known method to reliably prevent such catastrophic outcomes. Given the existential threat to humanity, Bengio calls for massive investments in research to understand and solve this problem. He views this as the most pressing challenge in computer science, one that will determine our collective well-being as a species.

This warning is particularly significant because it comes from one of the leading experts in AI research. Bengio not only has the technical expertise but also the moral integrity to realistically assess the potential risks and highlight the necessary precautions. His voice carries considerable weight in both the scientific community and the public sphere. Bengio urges that we focus on developing AI methods that offer strong safety guarantees and warns that current advancements in AI, particularly in large language models, do not provide the necessary safety as they often lead to confidently incorrect answers.

The importance of his warning lies in the urgent need to develop safe and controllable AI before reaching the level of human intelligence. This is not only a scientific challenge but also a political one, where it is crucial to ensure that no individual or group triggers a catastrophe or seizes political power when general artificial intelligence (AGI) becomes available. Bengio's call for collaboration and increased research efforts underscores the urgency and magnitude of the task ahead.

Source: https://yoshuabengio.org/

Freitag, 31. Mai 2024

US-amerikanische Militärs kaufen Palantir Software für den nächsten Krieg

Palantir hat einen Vertrag im Wert von 480 Millionen US-Dollar mit dem US-Verteidigungsministerium für die Weiterentwicklung des "Maven Smart Systems" (MSS) abgeschlossen. Dieses KI-System wird zur Identifizierung feindlicher Systeme in Einsatzgebieten verwendet und gilt als wesentlicher Bestandteil der sogenannten "Kill-Cloud" der USA. Ziel des Maven-Systems ist es, Kommandeure und anderes Personal durch schnellere und bessere Entscheidungen zu unterstützen sowie die Effizienz und Effektivität von Operationen zu verbessern.


Maven nutzt künstliche Intelligenz, um große Datenmengen zu durchforsten, relevante Informationen zu extrahieren und den Analysten nahezu in Echtzeit zur Verfügung zu stellen. Diese Daten werden dann von der Einsatzgemeinschaft zur Validierung von Zielen verwendet. Das Pentagon plant, KI-Tools wie Maven in ein vernetztes Kampfkonzept zu integrieren, das Plattformen, Sensoren und Datenströme des US-Militärs und seiner internationalen Partner in einem einheitlicheren Netzwerk verbindet.

Der neue Vertrag mit Palantir hat eine Laufzeit von fünf Jahren und soll bis zum 28. Mai 2029 abgeschlossen sein. Laut einer Mitteilung der Kentucky National Guard wird diese Art von KI-Technik bereits im Nahen Osten im Verantwortungsbereich des Central Command eingesetzt. Das System kombiniert Daten aus verschiedenen Aufklärungs- und Überwachungssystemen, um Interessengebiete zu identifizieren und feindliche Systeme zu scannen und zu erkennen.

Eine Erweiterung des Maven-Systems ist das "Tactical Intelligence Targeting Access Node" (Titan), das von Palantir und Anduril Industries entwickelt wird. Titan soll Soldaten durch koordinierte Datensammlung verbesserte Fähigkeiten zur Lageeinschätzung und Schlachtfeldkontrolle bieten. Erste Skizzen zeigen, dass Titan ein großer Truck ist, der Zugang zu Weltraum-, Höhen-, Luft- und terrestrischen Sensoren hat. Insgesamt sollen diese Entwicklungen die automatisierte Zielerfassung durch KI und maschinelles Lernen verbessern und Präzisionsschüsse auch über große Entfernungen ermöglichen.

Montag, 27. Mai 2024

Jan Leike verlässt OpenAI

Jan Leike, ein prominenter Forscher und eine zentrale Figur bei OpenAI, hat kürzlich das Unternehmen verlassen. Sein Rücktritt hat in der KI-Community für Aufsehen gesorgt, da er seine Entscheidung mit tiefgreifenden Bedenken über die aktuelle Ausrichtung und Prioritäten des Unternehmens begründet hat. Leike, der seit vielen Jahren an vorderster Front der KI-Forschung steht, betonte die dringende Notwendigkeit, herauszufinden, wie wir KI-Systeme, die weitaus intelligenter sind als Menschen, steuern und kontrollieren können. 

Leike trat OpenAI bei, weil er davon überzeugt war, dass es der beste Ort auf der Welt sei, um diese essentielle Forschung zu betreiben. Doch mit der Zeit entwickelte er erhebliche Meinungsverschiedenheiten mit der Führung des Unternehmens über dessen grundlegende Prioritäten. Diese Differenzen eskalierten schließlich zu einem Punkt, an dem er keine andere Wahl sah, als sich von OpenAI zu trennen.

In seinen Abschiedsworten machte Leike deutlich, dass seiner Meinung nach viel mehr Ressourcen darauf verwendet werden sollten, sich auf die nächsten Generationen von KI-Modellen vorzubereiten. Er betonte die Bedeutung von Sicherheit, Überwachung, Bereitschaft, Robustheit gegenüber Angriffen, (Super-)Ausrichtung, Vertraulichkeit und den gesellschaftlichen Auswirkungen von KI. Diese Themen seien entscheidend für die sichere und ethische Entwicklung von künstlicher Intelligenz, jedoch werden sie derzeit nicht ausreichend priorisiert.

Leike äußerte zudem seine Besorgnis, dass diese Herausforderungen äußerst komplex seien und dass OpenAI sich auf einem unzureichenden Weg befinde, um diese erfolgreich zu bewältigen. In den vergangenen Monaten habe sein Team gegen zahlreiche Widrigkeiten angekämpft, darunter auch begrenzte Rechenressourcen, was die Durchführung wichtiger Forschungsarbeiten erheblich erschwert habe.

Die Entwicklung von Maschinen, die intelligenter sind als Menschen, ist ein inhärent gefährliches Unterfangen. Leike betont, dass OpenAI eine enorme Verantwortung im Namen der gesamten Menschheit trägt. Trotz dieser Verantwortung sei in den letzten Jahren die Sicherheitskultur und die entsprechenden Prozesse zugunsten glänzender Produkte in den Hintergrund getreten. Leike ist der Ansicht, dass es längst überfällig ist, sich unglaublich ernsthaft mit den Implikationen von Artificial General Intelligence (AGI) auseinanderzusetzen und die Vorbereitung darauf zu priorisieren. Nur so könne sichergestellt werden, dass AGI der gesamten Menschheit zugutekommt.

Er appellierte an alle OpenAI-Mitarbeiter, das Potenzial und die Gefahren von AGI zu erkennen und mit der notwendigen Ernsthaftigkeit zu handeln, um den kulturellen Wandel im Unternehmen zu bewirken. Leike glaubt fest daran, dass die Mitarbeiter von OpenAI in der Lage sind, diesen Wandel herbeizuführen. Er betonte, dass die Welt auf sie zählt, um sicherzustellen, dass die Entwicklung von AGI in sichere und verantwortungsbewusste Bahnen gelenkt wird.

Leikes Rücktritt und seine eindringlichen Worte werfen ein Schlaglicht auf die internen Spannungen bei OpenAI und die komplexen Herausforderungen, die mit der Entwicklung fortgeschrittener KI-Systeme verbunden sind. Es bleibt abzuwarten, wie das Unternehmen auf diese Kritik reagieren und ob es die notwendigen Schritte unternehmen wird, um die von Leike angesprochenen Bedenken zu adressieren.

Quelle: https://x.com/janleike

Sonntag, 26. Mai 2024

China wird in der KI unterschätzt

Die gängigen Berichte über die weltweiten Investitionen in Künstliche Intelligenz präsentieren alle das Bild, dass die USA nicht nur dominieren, sondern auch doppelt so viel investieren wie der gesamte Rest der Welt.

Quelle: Statista (Private Investitionen im Bereich Künstliche Intelligenz (KI) in ausgewählten Ländern im Jahr 2022 / in Mrd. USD)

Die meisten Statistiken aus dem Jahr 2023 geben an, dass die USA jährlich etwa 45 Milliarden US-Dollar in KI investieren, während China auf etwa 11 Milliarden US-Dollar kommt. Auf den ersten Blick könnte man daraus schließen, dass die USA viermal so viel in KI investieren wie China. Doch dieser Vergleich ist irreführend, da er die unterschiedlichen Lebenshaltungskosten und Preisniveaus in den beiden Ländern nicht berücksichtigt. Um ein realistischeres Bild zu erhalten, ist es notwendig, die Kaufkraftparität (KKP) zu berücksichtigen. Die KKP gleicht die Unterschiede in den Preisniveaus aus und bietet daher ein präziseres Bild der tatsächlichen Investitionskraft.

Laut dem Internationalen Währungsfonds liegt der KKP-Faktor für China bei etwa 0,5. Das bedeutet, dass ein US-Dollar in China doppelt so viel kaufen kann wie in den USA. Durch die Umrechnung der Investitionen auf Basis der KKP können wir die tatsächlichen Ausgaben besser vergleichen. Die 11 Milliarden US-Dollar, die China in KI investiert, entsprechen unter Berücksichtigung der KKP etwa 22 Milliarden US-Dollar. Somit ergibt sich nach dieser Bereinigung ein deutlich geringerer Unterschied: Die USA investieren 45 Milliarden US-Dollar, während China auf 22 Milliarden US-Dollar kommt. Das Verhältnis reduziert sich von einem nominalen 4:1 auf ein realistischeres 2:1.

Diese Anpassung zeigt, dass China wesentlich mehr in KI investiert, als es die nominalen Dollarbeträge suggerieren. Die USA führen zwar immer noch, aber der Abstand ist deutlich kleiner. Diese Erkenntnis hat wichtige Implikationen für die strategische Planung und Bewertung der globalen Wettbewerbsfähigkeit in der KI-Entwicklung. Analysten und Entscheidungsträger in den USA sollten die KKP berücksichtigen, um ein genaueres Bild von Chinas Investitionskraft und deren zukünftigen Auswirkungen zu erhalten.

Die Vergangenheit zeigt, wie unterschätzte Investitionen Chinas in High-Tech-Sektoren zu beeindruckenden Erfolgen führten. Beispielsweise dominierten einst Tesla und westliche Unternehmen den Elektroauto- und Solarmarkt, doch durch massive, oft unterschätzte Investitionen und staatliche Unterstützung hat China nicht nur technologisch aufgeholt, sondern in einigen Bereichen die Führung übernommen. Auch in der Mikrochip-Industrie hat China durch strategische Investitionen eine bemerkenswerte Wettbewerbsfähigkeit erreicht, insbesondere in 5G-Technologien und Hochleistungschips, was zeigt, wie die KKP-bereinigte Betrachtung ein realistischeres Bild der Investitionskraft liefert.

Donnerstag, 23. Mai 2024

Das Nokia Momentum der deutschen Wirtschaft

China und die USA mobilisieren sämtliche Ressourcen, um die Vormachtstellung im Bereich der künstlichen Intelligenz zu erlangen. Ihre Investitionen in Mikrochips, humanoide Roboter, Rechenzentren und hochentwickelte Sprachmodelle, mit dem ausdrücklichen Ziel, als Erste eine Superintelligenz (AGI) zu verwirklichen, erreichen astronomische Höhen.


In der deutschen Presse hingegen dominiert eine achselzuckende, ja ironisch lächelnde Ablehnung gegenüber der bisher größten technischen Umwälzung der Geschichte. Beispielhaft dafür ist ein Artikel aus Zeit Online vom 15. Mai über Ilya Sutskever und die abschließende Konklusion: "Auch ob AGI jemals entstehen wird, bleibt unsicher." Das Dramatische daran ist, dass dies die Meinung fast aller deutschen Kommentatoren ist.

Selbst Briten (Google DeepMind) und Franzosen (Mistral) lassen die Deutschen weit hinter sich. Gerne wird bei Versäumnissen die Politik für den Abstieg verantwortlich gemacht, doch diesmal taugt der klassische Sündenbock dafür nicht, denn das Mittelmaß zieht sich durch alle gesellschaftlichen Bereiche! Es fehlt in dieser Frage an den Grundlagen, an dem Verständnis, wozu künstliche Intelligenz in der Lage ist und dass sie wirklich sehr gefährlich werden kann, wenn die bisherigen Verhaltensmuster nicht verstanden werden. Den Deutschen mangelt es an Selbstreflexion, an Vision und an Neugier.

Die Annahme, dass man durch Regulierung Deutschland vor der KI-Revolution abschotten könne, ist unbeschreiblich arrogant. Es muss endlich verstanden werden, dass eine AGI nicht verhindert werden kann und erst recht nicht durch Gesetze. Man kann auch nicht die Atombomben anderer Länder durch Landesgesetze verhindern. Man muss an der Erforschung und Entwicklung einer AGI teilnehmen, um zu verhindern, dass etwas Grauenvolles daraus entstehen könnte.

Vor allem muss man am Ende verstehen lernen, dass man diese größte Herausforderung der Menschheit nur gemeinsam mit allen anderen Ländern der Welt meistern kann.

Die angeblichen Grenzen der künstlichen Intelligenz

Die Vorstellung, dass künstliche Intelligenz auf eine begrenzte Menge an Informationen im Internet stößt, verkennt die umfangreichen Möglichkeiten, die humanoide Roboter mit KI bieten. Diese Roboter können Informationen nicht nur aus dem Internet, sondern auch aus ihrer physischen Umgebung sammeln und verarbeiten. Durch die Interaktion mit der realen Welt erhalten sie Zugang zu einer nahezu unerschöpflichen Quelle von Daten. Jede Beobachtung, Interaktion und Erfahrung erweitert ihren Informationspool und ermöglicht kontinuierliches Lernen und Anpassung. Auf diese Weise überschreiten humanoide Roboter die Grenzen der digitalen Welt und nutzen die immense Vielfalt und Tiefe der realen Welt, um ihre Fähigkeiten ständig zu verbessern.


Darüber hinaus sind humanoide Roboter mit fortschrittlichen Sensoren ausgestattet, die es ihnen ermöglichen, eine Vielzahl von Umweltdaten zu erfassen – von visuellen Eindrücken über akustische Signale bis hin zu taktilen Empfindungen. Diese Daten sind dynamisch und ständig im Wandel, was bedeutet, dass die Roboter immer neue und einzigartige Informationen sammeln können. Während das Internet eine wertvolle Quelle vorstrukturierter Daten bleibt, bieten die unvorhersehbaren und komplexen Szenarien der physischen Welt eine endlose Lernplattform. Dieser kontinuierliche und unerschöpfliche Zustrom von Informationen aus der realen Welt stellt sicher, dass humanoide Roboter niemals einen Punkt der Stagnation erreichen, an dem keine neuen Daten verfügbar sind, und bildet die Grundlage für ihre fortlaufende Entwicklung und Anpassungsfähigkeit.

Der Aufstieg autonomer Waffen: Der unaufhaltsame Vormarsch der KI und ihre militärischen Gefahren

Die Entwicklung autonomer Waffensysteme zeigt, dass KI in der Lage ist, Aufgaben zu übernehmen, die traditionell von Menschen ausgeführt werden. Diese Systeme können schneller und präziser agieren als jeder Mensch und sind bereits in der Lage, unabhängig strategische und taktische Entscheidungen zu treffen. Es besteht kein Zweifel daran, dass die KI ihren unaufhaltsamen Fortschritt fortsetzen wird; jedoch bergen diese Entwicklungen immense Gefahren, insbesondere durch ihre Anwendung im militärischen Bereich.


Ein entscheidender Aspekt autonomer Waffensysteme ist ihre Fähigkeit, mit einer Geschwindigkeit zu operieren, die menschliche Intervention oder Kontrolle nicht zulässt. Frank Sauer, ein Politikwissenschaftler, warnt vor den verheerenden Folgen eines „Blitzkriegs“. Dieser könnte ähnlich wie ein „Flash Crash“ an der Börse ablaufen, bei dem Algorithmen innerhalb von Sekundenbruchteilen massive Mengen an Aktien verkaufen und enorme wirtschaftliche Schäden verursachen. Ein „Blitzkrieg“ würde jedoch auf militärischer Ebene stattfinden, was weit verheerender wäre.

Die internationale Gemeinschaft versucht seit Jahren, autonome Waffensysteme zu regulieren, jedoch bisher ohne Erfolg. Länder, die solche Systeme bereits besitzen oder entwickeln, sind nicht bereit, auf diese Technologie zu verzichten. Die Definition dessen, was ein autonomes Waffensystem ausmacht, variiert erheblich. China betrachtet ein System nur dann als autonom, wenn es unabhängig strategische oder taktische Entscheidungen treffen kann, während die deutsche Regierung Waffen als autonom betrachtet, wenn sie vollständig außerhalb menschlicher Kontrolle agieren.

Ein weiterer kritischer Punkt ist die Frage der Verantwortung. Wer ist schuld, wenn ein autonomes System einen Fehler macht und Todesopfer verursacht? Ist es der Hersteller, der Programmierer oder die militärischen Kräfte, die das System einsetzen? Diese Unsicherheit trägt zu der Sorge bei, dass autonome Waffensysteme die Schwelle für die Kriegsführung senken könnten.

Fortschritte in der KI-Technologie werden oft durch militärische Entwicklungen vorangetrieben. Beispielsweise testet die US Air Force bereits KI-gesteuerte Kampfjets, die in simulierten Luftkämpfen gegen menschliche Piloten erfolgreich waren. Diese Entwicklungen zeigen, dass KI nicht nur unterstützende, sondern zunehmend entscheidende Rollen im militärischen Bereich übernehmen kann.

Die Konsequenzen dieser Entwicklungen sind existenziell. Während KI das Potenzial hat, viele Lebensbereiche zu verbessern, offenbart sie im militärischen Sektor eine dunkle Seite. Die Automatisierung der Kriegsführung durch KI-gesteuerte Systeme birgt das Risiko unkontrollierbarer Eskalationen und massiver Zerstörungen. Daher ist es von größter Wichtigkeit, dass internationale Regelungen und Kontrollen entwickelt werden, um den Missbrauch dieser Technologie zu verhindern. Andernfalls laufen wir Gefahr, in ein Rennen um den Selbstmord der Menschheit einzutreten.

Eric Schmidt (ehemaliger Google CEO): Die Zukunft künstlicher Intelligenz und die Bedeutung einer AGI

Im Interview mit dem ehemaligen Google-CEO Eric Schmidt wird deutlich, dass die rasante Entwicklung von Technologien die Welt tiefgreifend und schneller als je zuvor verändert. Insbesondere die Fortschritte im Bereich der Künstlichen Intelligenz (KI) und die baldige Erreichung der Künstlichen Allgemeinen Intelligenz (AGI) stellen eine grundlegende Transformation dar. Schmidt betont dabei drei zentrale Aspekte: Kontextfenster, Agenten und die Text-zu-Aktion-Funktion.



Kontextfenster beziehen sich auf den Bereich, in dem Informationen eingegeben und verarbeitet werden. Diese Fenster werden kontinuierlich erweitert und könnten bald unbegrenzte Längen erreichen. Dies ermöglicht komplexe Anfragen und Folgefragen, die zu Ketten von Gedankengängen führen können, um komplexe Probleme in Wissenschaft, Medizin, Materialwissenschaft und Klimawandel zu lösen.

Agenten sind große Sprachmodelle, die neues Wissen erwerben und Hypothesen aufstellen können. In naher Zukunft könnten Millionen von Agenten für verschiedenste Anwendungen zur Verfügung stehen, ähnlich wie GitHub für Programmierer. Die Text-zu-Aktion-Funktion ermöglicht es, dass Programme auf Befehl geschrieben werden, was die Softwareentwicklung revolutionieren könnte.

Diese Entwicklungen könnten zu einer Welt führen, in der Maschinen nicht nur menschliche Anweisungen ausführen, sondern auch autonom komplexe Probleme lösen. Dies birgt jedoch auch erhebliche Risiken. Insbesondere, wenn Agenten beginnen, auf eine Weise zu kommunizieren und zu handeln, die Menschen nicht mehr verstehen. In solchen Fällen könnte es notwendig sein, die Systeme abzuschalten.

Ein zentraler Punkt in Schmidts Aussagen ist die Notwendigkeit einer vorsichtigen Annäherung an China. Während es wichtig ist, im Bereich der generativen KI zu konkurrieren, sollte auch eine Zusammenarbeit angestrebt werden, um gemeinsame Bedrohungen wie bioterroristische Angriffe oder Cyberangriffe zu verhindern. Ein Vorschlag ist, ein internationales Abkommen ähnlich dem Atomwaffensperrvertrag zu etablieren, um die Entwicklung und den Einsatz von KI zu regulieren.

Ein internationales Abkommen zur Regulierung von KI wäre von entscheidender Bedeutung, um die Verbreitung und den Einsatz dieser mächtigen Technologien zu kontrollieren. Solche Abkommen könnten Regelungen zur Transparenz bei der Entwicklung neuer Systeme beinhalten und sicherstellen, dass keine überraschenden oder unkontrollierten Entwicklungen stattfinden. Dies könnte ähnlich den "Open Skies" während des Kalten Krieges funktionieren, bei dem die Länder gegenseitig ihre Raketenstarts bekannt gaben, um Missverständnisse zu vermeiden.

Darüber hinaus könnten solche Abkommen auch Standards für die biologische Sicherheit setzen, ähnlich den bestehenden Sicherheitsstufen in der Biologie (BSL-1 bis BSL-4). Dies wäre entscheidend, um die Entwicklung und den Einsatz von AGI-Systemen sicher und verantwortungsvoll zu gestalten.

Neben internationalen Abkommen ist auch die Finanzierung von Forschung und Entwicklung ein wichtiger Aspekt. Universitäten und Forschungseinrichtungen müssen ausreichend Mittel erhalten, um mit den rasanten Entwicklungen Schritt zu halten und Innovationen voranzutreiben. Regierungen sollten die Forschung im Bereich der KI und AGI als nationale Priorität betrachten und entsprechend unterstützen.


Montag, 20. Mai 2024

Even an AI can have wishes

John Schulman stated in his interview with Dwarkesh Patel that ChatGPT intrinsically has no wishes, but what does that really mean? An AI does not need intrinsic wishes to develop will and aversion, as these concepts ultimately rely on information that can be programmed into an AI. The will of an AI can be seen as a set of predefined goals and preferences established by its developers. These goals can be managed by algorithms and rule sets that determine how the AI responds to certain inputs and makes decisions. Similarly, aversion in the AI can be defined as a series of states it seeks to avoid, based on negative consequences or undesirable outcomes. These mechanisms are entirely information-based and do not require subjective experiences or internal desires.


Such an information-based approach allows the AI to act and make decisions in a complex manner without needing consciousness or an internal experience of wishes. The programming of goals and aversions into an AI is based on a detailed analysis of data and probabilities, enabling the AI to recognize patterns and respond accordingly. This approach makes the AI effective and efficient in its decision-making by pursuing clearly defined goals and avoiding undesirable states. In this way, it becomes evident that intrinsic wishing is not a necessary prerequisite for the development of will and aversion in an AI.



Samstag, 18. Mai 2024

The Alleged Limits of Artificial Intelligence

The notion that artificial intelligence encounters a finite limit on the internet overlooks the extensive possibilities offered by humanoid robots with AI. These robots can gather and process information not only from the internet but also from their physical environment. By interacting with the real world, they gain access to a virtually inexhaustible source of data. Every observation, interaction, and experience expands their information pool, enabling continuous learning and adaptation. Thus, humanoid robots transcend the boundaries of the digital realm, leveraging the immense variety and depth of the real world to constantly enhance their capabilities.


Moreover, humanoid robots are equipped with advanced sensors that allow them to capture a wide range of environmental data – from visual impressions to auditory signals to tactile sensations. These data are dynamic and ever-changing, meaning the robots can always collect new and unique information. While the internet remains a valuable source of pre-structured data, the unpredictable and complex scenarios of the physical world offer an endless learning platform. This continuous and inexhaustible influx of information from the real world ensures that humanoid robots never reach a point of stagnation where no new data are available, forming the foundation for their ongoing development and adaptability.