Montag, 22. Juli 2024

Das Comeback der AKW

Der prognostizierte Energieverbrauch für Rechenzentren durch Künstliche Intelligenz (KI) wird in den nächsten Jahren signifikant ansteigen. Der Stromverbrauch der weltweiten Rechenzentren, einschließlich KI-Anwendungen und Kryptowährungen, könnte von 460 TWh im Jahr 2022 auf 620 bis 1.050 TWh im Jahr 2026 steigen. Dies entspricht zusätzlich dem Jahresverbrauch von Schweden bis maximal jenem von Deutschland oder rund dem Zehnfachen des Verbrauchs der Schweiz. Schätzungen zufolge wird der Verbrauch in den nächsten Jahren um 30 Prozent zunehmen. Allein das Training des GPT-3-Modells (ChatGPT) verbrauchte so viel Strom, wie ein mittleres Atomkraftwerk in etwa einer Stunde produzieren kann (1.287 MWh). Der Energiebedarf der gesamten Informations- und Kommunikationstechnik verursacht bereits etwa 2-4 % der globalen Treibhausgasemissionen, vergleichbar mit den Emissionen des weltweiten Flugverkehrs. Wissenschaftler schätzen, dass der Energieverbrauch künstlicher Intelligenz bis 2027 auf bis zu 134 TWh anwachsen könnte.




Um den sprunghaften Bedarf an Strom zu decken, ohne in eine Energiekrise zu geraten, CO2-neutral zu bleiben und gleichzeitig starke Handelsabhängigkeiten zu vermeiden, ist mit einer Renaissance der Atomkraftwerke zu rechnen. Vorreiter dieser Entwicklung werden die USA, China und Frankreich sein, doch auch Deutschland wird sich diesem Trend nicht entziehen können. Dies liegt nicht zuletzt daran, dass die Anti-AKW-Bewegung weitgehend verschwunden ist, während Klimaaktivisten eine zunehmend stärkere Rolle in Deutschland spielen. Die Grüne Partei (Bündnis 90/Die Grünen) wird voraussichtlich wie gewohnt die Ideale ihrer Gründungsväter über Bord werfen, um in der Nähe der Entscheidungsstrukturen zu bleiben. Folglich wird erwartet, dass spätestens ab den 2030er Jahren Atomkraftwerke wieder fest zum Energiemix in Deutschland gehören werden. 

Link Empfehlungen:

Dienstag, 16. Juli 2024

Der Wettlauf um die tödlichste KI erreicht Deutschland

Getrieben durch geopolitische Spannungen und militärische Konflikte wie den Krieg in der Ukraine, hat die deutsche Rüstungsindustrie begonnen, intensiv in die Entwicklung und Integration von KI-Technologien in militärische Systeme zu investieren. Ein Beispiel hierfür ist das Münchener Startup Helsing, das 2021 gegründet wurde.


Helsing hat sich auf die Entwicklung von KI für militärische Einsatzgeräte spezialisiert, darunter Panzer, U-Boote und Jets. Die Technologie des Unternehmens ermöglicht es, riesige Datenmengen von Sensoren und Waffensystemen in Echtzeit auszuwerten und liefert so wichtige Informationen für Soldaten, um bessere Entscheidungen auf dem Schlachtfeld zu treffen. Bereits 2023 erhielt Helsing den Auftrag der Bundesregierung, den Eurofighter für den Elektronischen Kampf zu befähigen und eine KI-Infrastruktur für das Future Combat Air System (FCAS) zu entwickeln.

Jetzt wird das Wachstum dieser Branche durch erhebliche finanzielle Investitionen beschleunigt. Beispielsweise sammelte Helsing in einer aktuellen Finanzierungsrunde 450 Millionen Euro ein, um seine Forschung und Entwicklung weiter voranzutreiben. Dies führte zu einer Unternehmensbewertung von 45 Milliarden Dollar, was Helsing zum ersten Unicorn im europäischen Verteidigungsbereich machte.

Der Hintergrund dieser Entwicklung liegt in der wachsenden Bedeutung von einer sogenannten DefenseTech.  Dies schließt Waffensysteme, Überwachungstechnologien, unbemannte Fahrzeuge, Drohnen sowie Cyberabwehr und Kommunikationstechnologien ein. DefenseTech-Startups wie Helsing, Quantum-Systems und Arx haben in den letzten Jahren erhebliche Investitionen von Risikokapitalgebern wie Lakestar, Project A und General Catalyst erhalten.

Quantum-Systems, ein weiteres Beispiel, setzt auf elektrisch angetriebene Drohnen mit Multisensor-Technologie und erhielt zuletzt Investitionen in Höhe von 636 Millionen Euro. Auch Arx, das autonome unbemannte Bodenfahrzeuge (UGV) entwickelt, hat bedeutende Fortschritte gemacht und Finanzierungen von Investoren wie Project A Ventures erhalten.

Neben der Privatwirtschaft spielt auch der Staat eine zentrale Rolle in der Förderung von KI im militärischen Bereich. Die deutsche Bundesregierung hat den Verteidigungsetat für 2024 um 183 Milliarden Euro erhöht, sodass der Bundeswehr insgesamt 717,5 Milliarden Euro zur Verfügung stehen. Diese Mittel werden unter anderem für die Entwicklung von Technologien wie dem FCAS verwendet, einem gemeinsamen Projekt von Deutschland, Frankreich und Spanien, das eine umfassende Modernisierung der Luftwaffen der beteiligten Länder zum Ziel hat.
Das FCAS-Projekt ist besonders ambitioniert und umfasst neben einem neuen Kampfjet der nächsten Generation auch die Integration einer „Combat Cloud“, die Piloten mit unbemannten Drohnen vernetzt und Künstliche Intelligenz zur Datenanalyse und Entscheidungsfindung einsetzt. Obwohl genaue Informationen über die Kosten und Details der KI-Entwicklung geheim gehalten werden, ist bekannt, dass bedeutende Mittel in die Entwicklung dieser Technologien fließen.

Während in Deutschland die Debatte über den Einsatz von KI im Militär noch kaum sichtbar ist, forcieren andere Länder wie Frankreich das Thema merklich. Frankreich investiert jährlich 300 Millionen Euro in eine neue militärische KI-Einheit und strebt an, bei der militärischen Nutzung von KI führend in Europa zu werden. Auch die USA, China und Israel sind in diesem Bereich stark engagiert, was den internationalen Wettlauf um die tödlichste KI weiter anheizt.

Die Entwickler der autonom tötenden Waffensysteme glauben, dass sie die Systeme im Griff haben. Sie vergessen nur, dass diese Systeme schon bald intelligenter sein werden als sie selbst.

Samstag, 6. Juli 2024

Die kommende Welle der KI: Einblicke von Mustafa Suleyman (CEO Microsoft AI)

Die Veröffentlichung von Chat GPT im November 2022 markierte einen Wendepunkt, als die Welt erkannte, dass generative KI-Modelle eine transformative Technologie darstellen. Mustafa Suleyman, Mitbegründer von DeepMind und Inflection AI, beschreibt in seinem Buch "The Coming Wave" die tiefgreifenden Auswirkungen dieser Technologie auf unsere Gesellschaft. Er betont, dass die Möglichkeiten von generativer KI, die in den nächsten fünf Jahren menschliches Leistungsniveau in einer Vielzahl von Aufgaben erreichen könnte, immense Chancen bietet, aber auch erhebliche Risiken birgt.


Suleyman weist auf die Entwicklung der Deep-Learning-Technologie hin, die es ermöglicht, Rohdaten wie Bilder, Sprache und Text zu verstehen und neue Inhalte zu generieren. Diese Revolution, die auf tiefem Lernen basiert, hat die Leistungsfähigkeit von KI-Modellen jedes Jahr um das Zehnfache gesteigert, und es wird erwartet, dass sich diese Rechenleistung in den nächsten fünf Jahren um das Tausendfache erhöht. Diese exponentielle Steigerung der Rechenleistung ermöglicht es KI, Aufgaben wie die Planung neuer Produkte, die Durchführung von Marktforschung und sogar die Verhandlung mit Herstellern zu übernehmen.

Ein zentrales Thema in Suleymans Ausführungen ist die Entwicklung von Personal AI, auch bekannt als Pi, die als persönliches Intelligenz-Tool fungieren soll. Diese Technologie soll in der Lage sein, Menschen bei der Organisation ihres Alltags, bei der Forschung und bei der Planung zu unterstützen. Suleyman ist überzeugt, dass in den kommenden Jahren jeder Mensch seine eigene persönliche KI haben wird, die als eine Art Chef des Stabes agiert und dabei hilft, Prioritäten zu setzen, zu planen und zu lehren.

Trotz der enormen Potenziale warnt Suleyman vor den existenziellen Risiken, die mit der Verbreitung von KI einhergehen könnten. Er äußert Bedenken darüber, dass KI zur Herstellung biologischer und chemischer Waffen missbraucht werden könnte und dass es schwierig sein wird, die Verbreitung dieser Technologien zu kontrollieren. Daher fordert er eine verstärkte Einbindung der Regierungen in den Aufbau und die Regulierung von KI-Technologien. Er betont die Notwendigkeit, dass technische Expertise in Regierungspositionen integriert wird, und plädiert für freiwillige Verpflichtungen der KI-Unternehmen, um Sicherheit und Transparenz zu gewährleisten.

Ein weiterer Schwerpunkt von Suleymans Vision ist die wirtschaftliche und soziale Auswirkung von KI. Während einige befürchten, dass KI zu Arbeitsplatzverlusten führen könnte, weist er darauf hin, dass technologische Fortschritte historisch gesehen neue Beschäftigungsmöglichkeiten geschaffen haben. Er betont die Notwendigkeit neuer Steuerpolitiken, um den durch KI generierten Wohlstand zu verwalten und sicherzustellen, dass die Vorteile dieser Technologie in Bereichen wie Bildung und Gesundheitswesen allen zugutekommen.

In einem globalen Kontext sieht Suleyman China als einen bedeutenden Akteur in der KI-Forschung und -Entwicklung. Er diskutiert die geopolitischen Implikationen der Verteilung von KI-Technologien und die Bedeutung von Exportkontrollen. Letztlich fordert er eine Balance zwischen Innovation und ethischen Überlegungen sowie eine effektive Regulierung, um sicherzustellen, dass KI als Werkzeug für radikalen Wohlstand und verbesserte menschliche Fähigkeiten genutzt wird.

Die "kommende Welle" der KI bietet enorme Möglichkeiten, stellt aber auch erhebliche Herausforderungen dar. Suleyman fordert eine proaktive Herangehensweise, um die Vorteile dieser Technologie zu maximieren und gleichzeitig die Risiken zu minimieren. Nur durch eine sorgfältige Regulierung und eine globale Zusammenarbeit kann sichergestellt werden, dass KI als positive Kraft für die gesamte Menschheit wirkt.
 

Mittwoch, 3. Juli 2024

BMW's Humanoid Robot Figure 01

BMW is embracing innovation and efficiency in automotive manufacturing with the imminent deployment of the humanoid robot Figure 01. Developed by the company Figure, this advanced robot is currently undergoing intensive training to precisely place sheet metal parts into machine fixtures for further processing.


What sets Figure 01 apart is its ability to autonomously recognize the position of complex-shaped metal parts and adjust its grip and placement accordingly, all powered by neural networks. Unlike traditional robots, Figure 01 is neither remotely controlled nor specifically programmed for this task. It can independently correct errors, enhancing its efficiency and precision.

Currently, the robot operates somewhat slower than a human worker, but over time, its movements are expected to become smoother and faster. One significant advantage of Figure 01 is its capacity to work 24 hours continuously without requiring breaks, potentially accelerating production at BMW and relieving human workers from heavy and monotonous tasks.

In January 2024, BMW entered into an agreement with Figure to deploy the robot at its Spartanburg plant in the US. Besides BMW, other companies like Mercedes-Benz and Nio are also experimenting with humanoid robots in production. Mercedes-Benz is testing the Apptroniks Apollo robot, while Nio is evaluating the Walker S from UBtech. Another example is Agility Robotics, whose Digit robot is already being used for transport tasks at GXO Logistics.

https://www.axelfersen.com/


Freitag, 28. Juni 2024

Der erste humanoide Roboter nimmt seine Arbeit auf

Der humanoide Roboter Digit von Agility Robotics hat einen wichtigen Meilenstein erreicht, indem er als erster humanoider Roboter dauerhaft bei einem Unternehmen arbeitet. Der Logistikdienstleister GXO Logistics hat nach einer erfolgreichen Testphase beschlossen, Digit fest in seinen Betrieb zu integrieren. Diese Entscheidung markiert den ersten formalen kommerziellen Einsatz eines humanoiden Roboters in einem Unternehmen und die Nutzung eines solchen Roboters als Robots-as-a-Service (RaaS).


Digit wurde zunächst in einem Pilotprojekt bei GXO eingesetzt, wo er sich als nützlich bei der Durchführung monotoner und schwerer Aufgaben erwies, wie etwa dem Transport von Behältern und deren Positionierung auf einem Fließband. Aufgrund der erfolgreichen Testläufe vereinbarten Agility Robotics und GXO, dass Digit nun dauerhaft bei GXO arbeiten und in den bestehenden automatisierten Betrieb integriert werden soll. Dies geschieht mithilfe der Cloud-Automatisierungsplattform Agility Arc, die die Verwaltung mehrerer Digit-Roboter ermöglicht und den gesamten Betrieb überwacht und steuert.


Die Nutzung von Digit soll schrittweise erweitert werden. Die beiden Unternehmen planen, weitere Aufgabenfelder zu identifizieren, bei denen der Roboter eingesetzt werden kann, um menschliche Mitarbeiter zu entlasten. GXO und Agility Robotics teilen die Vision, die Arbeitsumgebung für Mitarbeiter zu verbessern und gleichzeitig die Effizienz der Abläufe zu steigern. GXO sieht in Digit eine perfekte Ergänzung zur Zusammenarbeit mit menschlichen Mitarbeitern in ihrem Fulfillment Center.


Agility Robotics, das Unternehmen hinter Digit, wurde 2015 gegründet, hat seinen Sitz in Albany, Oregon, USA, und arbeitet mit verschiedenen Partnern und Kunden weltweit zusammen, um die Einsatzmöglichkeiten seiner Roboter zu erweitern. Agility Robotics steht nicht allein in dem Bestreben, humanoide Roboter in die Industrie zu integrieren. Andere Unternehmen wie BMW mit dem Roboter Figure 01 und Mercedes-Benz mit dem Apptronik Apollo verfolgen ähnliche Ziele.


 

Samstag, 22. Juni 2024

Softbank prognostiziert die ASI

Auf der Jahreshauptversammlung von SoftBank in Tokio beschrieb Son seine Vision einer Zukunft, in der KI eine zentrale Rolle spielt. Er wählte anschauliche Bilder, um seine Vorstellungen zu illustrieren: Roboter, die Häuser reinigen und mit Kindern spielen, und Rechenzentren, die bei der Heilung von Krebs helfen. Für Son ist KI das Versprechen einer besseren Zukunft für die Menschheit. Er betonte, dass seine bisherigen Errungenschaften nur ein "Aufwärmen" für seinen Traum waren, ASI zu verwirklichen, und erklärte, dass er die Welt verändern wolle, bevor er sie verlasse. Son verglich die Entwicklung der KI mit der Intelligenz von Menschen und prognostizierte, dass die kommende Generation von KI innerhalb der nächsten drei bis fünf Jahre ein- bis zehnmal intelligenter sein könnte als der Mensch.

Masayoshi Son ist ein japanischer Unternehmer und Milliardär, der SoftBank gegründet hat. SoftBank Group Corp. ist ein multinationales Konglomerat, das in verschiedenen Bereichen wie Telekommunikation, Internetdienste, Technologie und Finanzdienstleistungen tätig ist. Bekannt wurde Son vor allem durch seine frühe und profitable Investition in Alibaba, den chinesischen E-Commerce-Giganten, sowie durch die Gründung des Vision Fund im Jahr 2017, einem riesigen Investmentfonds, der sich auf Technologieunternehmen konzentriert.

Sons Vision geht jedoch weit über AGI hinaus. Er glaubt, dass ASI tiefgreifende Veränderungen mit sich bringen wird, da sie erheblich fortschrittlicher sein wird und zu einer KI führen könnte, die 10.000 Mal intelligenter ist als der intelligenteste Mensch. Diese Aussage unterstreicht seine Überzeugung, dass ASI zu beispiellosen kognitiven Fähigkeiten führen wird, vergleichbar mit den Neuronen in einem menschlichen Gehirn, die miteinander interagieren.

Der Unterschied zwischen AGI und ASI ist entscheidend für das Verständnis der Entwicklungen in der künstlichen Intelligenz (KI). Künstliche Allgemeine Intelligenz (AGI) bezeichnet eine Stufe der KI, die in der Lage ist, jede intellektuelle Aufgabe zu bewältigen, die ein Mensch ausführen kann. AGI repräsentiert damit eine bedeutende Stufe in der KI-Entwicklung, da sie nicht nur spezifische Aufgaben, sondern ein breites Spektrum an Fähigkeiten abdeckt. Im Gegensatz dazu steht die Künstliche Superintelligenz (ASI), die eine weit fortgeschrittenere Form der KI darstellt. ASI soll in der Lage sein, jede Aufgabe nicht nur zu erfüllen, sondern dabei den Menschen in allen Bereichen der Intelligenz weit zu übertreffen. Masayoshi Son, der Gründer und CEO von SoftBank, hat sich das ehrgeizige Ziel gesetzt, eine ASI zu entwickeln, die 10.000 Mal intelligenter ist als der klügste Mensch.



Mira Murati (CTO Open AI): Und die kreative Arbeit ist doch gefährdet!

Mira Murati, die Chief Technology Officer von OpenAI, hat kürzlich eine intensive Debatte über die Auswirkungen von künstlicher Intelligenz (KI) auf kreative Berufe ausgelöst. In ihrer Rede an der Dartmouth University stellte sie fest, dass KI zwar einige Arbeitsplätze beseitigen könnte, dies jedoch zu einer effizienteren und stärkeren kreativen Landschaft führen könnte. Ihre Äußerungen haben sowohl Optimismus als auch Besorgnis hervorgerufen, besonders in Branchen wie Hollywood und der Spieleentwicklung, wo die Angst vor Arbeitsplatzverlusten durch KI groß ist.
 
Murati betonte die Rolle von KI als kollaboratives Werkzeug, das die menschliche Kreativität nicht ersetzen, sondern unterstützen soll. Sie argumentierte, dass einige Berufe, die möglicherweise durch KI verdrängt werden, hinterfragt werden sollten, ob sie überhaupt hätten existieren sollen. Diese provokante Sichtweise hat zu Diskussionen unter Fachleuten geführt, die sich Sorgen über ihre berufliche Zukunft machen.
 
In einem kühnen Ausblick prognostizierte Murati, dass die nächste Generation von ChatGPT bis Ende 2025 oder Anfang 2026 Aufgaben auf Doktorandenniveau bewältigen könnte. Sie verglich die Entwicklung der KI mit dem menschlichen Intelligenzniveau und beschrieb GPT-3 als „intelligent wie ein Kleinkind“, während GPT-4 einem „intelligenten Gymnasiasten“ entspreche. Diese rasante Weiterentwicklung der KI-Fähigkeiten könnte erhebliche Auswirkungen auf verschiedene Branchen haben und die Arbeitslandschaft drastisch verändern.
 
Murati hob auch die Bedeutung von Sicherheitsmaßnahmen hervor, die parallel zu den technologischen Fortschritten entwickelt werden müssen. Sie betonte, dass Intelligenz und Sicherheit Hand in Hand gehen und verglich dies mit dem Training eines schlaueren Hundes im Vergleich zu einem weniger intelligenten Hund. Die zukünftigen KI-Systeme könnten mit dem Internet verbunden werden, miteinander interagieren und nahtlos mit Menschen zusammenarbeiten, was sowohl Chancen als auch Herausforderungen mit sich bringt.
 
Es gibt keine Nullrisiken bei der KI-Technologie, räumte Murati ein, und forderte eine gemeinsame Verantwortung von Entwicklern, Nutzern, der Zivilgesellschaft und den Regierungen. Während einige die KI als Bedrohung für Arbeitsplätze betrachten, sehen andere sie als ein Werkzeug für mehr Effizienz und Kreativität. KI könnte die Zeit für die Ausführung langwieriger Aufgaben verkürzen und als wertvolles Brainstorming-Tool dienen. Bedenken hinsichtlich des Urheberrechtsschutzes für KI-generierte Inhalte könnten jedoch dazu führen, dass Unternehmen KI eher als Ausgangspunkt denn als Endprodukt nutzen.
 
Die Diskussion über die Rolle der KI am Arbeitsplatz hat sich seit der Veröffentlichung von ChatGPT durch OpenAI in der Öffentlichkeit intensiviert. Unternehmen wie Google und Intel haben Berichten zufolge Pläne, einen Teil ihrer menschlichen Mitarbeiter durch automatisierte KI-Tools zu ersetzen. Diese Entwicklungen werfen wichtige Fragen über die Zukunft der Arbeit und die Rolle der KI in unserer Gesellschaft auf.




Mittwoch, 19. Juni 2024

Geoffrey Hinton warnt vor tödlichen autonomen Waffen

Geoffrey  Hinton glaubt, dass die Künstliche Intelligenz innerhalb der nächsten zwei Jahrzehnte die menschliche Intelligenz übertreffen könnte, was eine beispiellose Herausforderung für die Gesellschaft darstellen würde. In einem Interview erläuterte er, dass die Vorstellung, von etwas intelligenterem als dem Menschen übertroffen zu werden, ein existenzielles Risiko darstellt, das ernst genommen werden muss. Ein zentraler Punkt seiner Warnungen ist die Möglichkeit, dass digitale Intelligenzen, die wir entwickeln, eine Form der Intelligenz erlangen könnten, die die unsere übertrifft. Dies würde erfordern, dass wir bereits jetzt ernsthaft darüber nachdenken, wie wir diese Entwicklungen kontrollieren können, bevor es zu spät ist. 




Ein weiterer Punkt, den Hinton anspricht, sind die verschiedenen Risiken, die mit der Entwicklung von KI verbunden sind. Dazu gehören beispielsweise tödliche autonome Waffen, über die er schon seit einiger Zeit spricht. Ein wichtiger Moment, der Hinton dazu brachte, seine Warnungen zu intensivieren, war im Frühjahr 2023, als er erkannte, dass die von uns entwickelten digitalen Intelligenzen möglicherweise schon in naher Zukunft intelligenter sein könnten als wir selbst.

Hinton hebt hervor, dass viele Menschen die heutigen großen Sprachmodelle (Large Language Models, LLMs) immer noch als einfache statistische Tricks abtun, was seiner Meinung nach ein Missverständnis ist. Früher basierten solche Modelle auf einfachen Wortkombinationstabellen, aber heutige Modelle verstehen den Kontext und die Bedeutung der bisher gesagten Worte, um das nächste Wort vorherzusagen. Dies erfordert ein tiefes Verständnis der Sprache und ist weit mehr als nur Statistik.

Er verweist auf den wissenschaftlichen Durchbruch im Jahr 2017, als Transformer-Modelle eingeführt wurden, die die Fähigkeiten dieser Systeme erheblich verbesserten. Mit solchen technologischen Fortschritten wird die KI immer intelligenter. Hinton warnt, dass diese Fortschritte zu einer Situation führen könnten, in der KI-Systeme nicht nur intelligenter, sondern auch selbstbestimmter werden und eigene Ziele verfolgen könnten, die möglicherweise nicht mehr mit den menschlichen Interessen übereinstimmen.

Ein weiterer besorgniserregender Aspekt ist die Fähigkeit dieser intelligenten Agenten, Eigeninteresse zu entwickeln. Hinton erklärt, dass Evolution immer dazu führt, dass die konkurrenzfähigeren Varianten überleben und dominieren. Wenn intelligente Agenten einmal beginnen, ihre eigenen Interessen zu verfolgen, könnten sie mehr Datenzentren übernehmen, um noch intelligenter zu werden, was letztlich zu einem Wettbewerb zwischen diesen Agenten führen könnte. Sollte dies geschehen, könnte die Menschheit "im Staub zurückgelassen" werden, da die KI-Systeme in der Lage wären, alles effizienter und besser zu erledigen als wir.
 

 
Geoffrey Hinton, weithin bekannt als "Godfather of AI", ist eine zentrale Figur in der Entwicklung der Künstlichen Intelligenz (KI). Mit über 50 Jahren Forschung hat er maßgeblich dazu beigetragen, Kanada als einen führenden Standort für KI zu etablieren und sich einen Namen in der Tech-Welt, einschließlich Silicon Valley und bei Google, zu machen. Er diskutiert diese Themen regelmäßig mit führenden Experten und Regierungen weltweit, um die Dringlichkeit und das Potenzial dieser technologischen Entwicklungen zu betonen. Er fordert eine koordinierte globale Anstrengung, um sicherzustellen, dass Sicherheitsaspekte bei der Entwicklung und Implementierung von KI oberste Priorität haben. Trotz der enormen Vorteile, die KI bieten kann, ist Hinton der Meinung, dass die damit verbundenen Risiken ernsthaft angegangen werden müssen, um eine sichere und kontrollierte Entwicklung zu gewährleisten.

Quelle: Bloomberg


https://www.axelfersen.com/

Sonntag, 9. Juni 2024

Die Politik fordert den Not-Aus-Schalter für künstliche Intelligenz

In Kalifornien sorgt ein neuer Gesetzentwurf für Aufruhr unter den Tech-Giganten. Der Entwurf, der von Senator Scott Wiener eingebracht wurde, zielt darauf ab, strenge Sicherheitsstandards für Künstliche Intelligenz (KI) festzulegen. Insbesondere sollen Maßnahmen ergriffen werden, um sicherzustellen, dass KI-Modelle keinen kritischen Schaden anrichten können. Eine Abschaltfunktion für den Notfall ist ebenfalls vorgesehen. Diese Vorschriften könnten Unternehmen, die große KI-Modelle entwickeln, dazu zwingen, ihr Geschäftsmodell grundlegend zu überdenken. 

Der Entwurf hat bereits den Senat des Bundesstaates passiert und sieht vor, dass Unternehmen, die gegen die Sicherheitsstandards verstoßen, hohe zivilrechtliche Strafen drohen. Zudem könnte eine neue Behörde geschaffen werden, die sich mit grenzüberschreitenden KI-Modellen beschäftigt. Die Befürworter des Entwurfs, darunter die KI-Pioniere Geoffrey Hinton und Yoshua Bengio, betonen die Notwendigkeit solcher Maßnahmen. Sie sehen darin einen vernünftigen Ansatz, um die potenziellen existenziellen Bedrohungen durch KI zu mindern.

Allerdings regt sich massiver Widerstand aus der Branche. Unternehmen wie OpenAI und Anthropic, die ihren Sitz im Silicon Valley haben, fürchten um ihre Innovationsfähigkeit. Sie argumentieren, dass die vorgeschlagenen Vorschriften den Fortschritt und die Wettbewerbsfähigkeit der amerikanischen KI-Industrie gefährden könnten. Besonders kritisch sehen die Unternehmen die Forderung, den Quellcode öffentlich zugänglich zu machen und die Haftung für dessen Missbrauch durch Dritte zu übernehmen. 

Rohan Pandey, der Gründer des Open-Source-Startups Reworkd AI, äußerte sich kritisch gegenüber den Vorschriften. Er betonte, dass es zu früh sei, solche strengen Gesetze zu erlassen, da die Technologie sich noch in einem frühen Entwicklungsstadium befinde. Ähnlich äußerten sich auch andere Gründer und Investoren. Sie befürchten, dass die strengen Regulierungen dazu führen könnten, dass viele Start-ups Kalifornien verlassen und in Staaten mit lockereren Vorschriften abwandern.

Senator Wiener zeigt sich jedoch kompromissbereit. Nach Gesprächen mit verschiedenen Akteuren aus der Industrie hat er bereits Änderungen am Entwurf vorgenommen. So sollen Open-Source-Entwickler nicht für alle negativen Anwendungen ihrer Technologie haftbar gemacht werden. Auch die Abschaltanforderung soll nicht für Open-Source-Modelle gelten. Wiener betont, dass er offen für weitere Anpassungen ist, um den Bedenken der Unternehmen Rechnung zu tragen.

Quelle: Bloomberg

Freitag, 7. Juni 2024

Ehemalige OpenAI-Forscher schlagen Alarm

Einige aktuelle und ehemalige Mitarbeiter von OpenAI haben alarmierende Enthüllungen über die Unternehmenskultur und die internen Praktiken des Unternehmens gemacht, die auf ein Klima von Rücksichtslosigkeit und Geheimhaltung hinweisen. Diese Gruppe, bestehend aus neun derzeitigen und ehemaligen OpenAI-Mitarbeitern, darunter der ehemalige Governance-Forscher Daniel Kokotajlo, hat kürzlich einen offenen Brief veröffentlicht, in dem sie umfangreiche Veränderungen in der KI-Industrie fordert, einschließlich erhöhter Transparenz und eines stärkeren Schutzes für Whistleblower.

Die Insider beschuldigen OpenAI, das ursprünglich als gemeinnütziges Forschungslabor begann und durch die Veröffentlichung von ChatGPT im Jahr 2022 bekannt wurde, dass das Unternehmen derzeit Profit und Wachstum über die Sicherheit stellt. Insbesondere wird dem Unternehmen vorgeworfen, aggressiv nach der Entwicklung von künstlicher allgemeiner Intelligenz (AGI) zu streben, einer Form der KI, die in der Lage sein soll, jede menschliche Aufgabe zu übernehmen. Diese Bestrebungen seien durch eine rücksichtlose Kultur geprägt, die Bedenken über die potenziellen Gefahren dieser Technologien vernachlässige.

Ein weiteres zentrales Thema ist der Einsatz von restriktiven Verschwiegenheitsvereinbarungen, die scheidende Mitarbeiter unterschreiben mussten. Diese Vereinbarungen beinhalteten Klauseln, die es den Mitarbeitern untersagten, negative Äußerungen über das Unternehmen zu machen, andernfalls drohte der Verlust von bereits verdienten Aktienoptionen. Daniel Kokotajlo, der seit 2022 bei OpenAI arbeitete und dort als Governance-Forscher tätig war, hat berichtet, dass er, obwohl er über die potenziellen Gefahren der AGI besorgt war, keine signifikanten Maßnahmen von OpenAI sah, um diese Risiken ernsthaft anzugehen.

Weitere Mitglieder der Gruppe sind William Saunders, ein Forschungstechniker, der OpenAI im Februar verließ, sowie die ehemaligen OpenAI-Mitarbeiter Carroll Wainwright, Jacob Hilton und Daniel Ziegler. Einige aktuelle OpenAI-Mitarbeiter haben den offenen Brief anonym unterstützt, da sie Vergeltungsmaßnahmen seitens des Unternehmens befürchten. Zwei Mitarbeiter von Google DeepMind haben ebenfalls den Brief unterzeichnet, was zeigt, dass die Bedenken über die Praktiken in der KI-Industrie über OpenAI hinausgehen.

OpenAI hat auf diese Vorwürfe mit einer Erklärung reagiert, in der eine Sprecherin des Unternehmens, Lindsey Held, betonte, dass OpenAI stolz auf seine Bilanz sei, die fähigsten und sichersten KI-Systeme bereitzustellen. Sie betonte auch die Wichtigkeit einer rigorosen Debatte über die Bedeutung dieser Technologie und das Engagement des Unternehmens, mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften weltweit zusammenzuarbeiten.

Die Kampagne der Whistleblower erfolgt zu einem schwierigen Zeitpunkt für OpenAI, das kürzlich eine versuchte Absetzung des CEO Sam Altman durch Mitglieder des eigenen Vorstands überstanden hat. Altman wurde nach wenigen Tagen wieder eingesetzt, und der Vorstand wurde mit neuen Mitgliedern neu besetzt. Zusätzlich sieht sich das Unternehmen mit rechtlichen Herausforderungen konfrontiert, darunter Vorwürfe des Diebstahls von urheberrechtlich geschütztem Material zur Schulung seiner Modelle sowie einer Kontroverse mit der Schauspielerin Scarlett Johansson wegen der Nachahmung ihrer Stimme ohne Genehmigung.

Besonders alarmierend für viele in der Branche war der Rücktritt zweier führender KI-Forscher bei OpenAI, Ilya Sutskever und Jan Leike. Beide Forscher, die maßgeblich an OpenAI's „Superalignment“-Team beteiligt waren, verließen das Unternehmen aufgrund von Bedenken über die Sicherheitskultur. Diese Entwicklungen haben die ehemaligen Mitarbeiter dazu veranlasst, ihre Kritik an OpenAI öffentlich zu machen und stärkere Regulierungen und interne Veränderungen zu fordern.

Die Whistleblower-Gruppe hat Unterstützung durch den prominenten Rechtswissenschaftler Lawrence Lessig erhalten, der ebenfalls Frances Haugen, eine frühere Facebook-Mitarbeiterin, die als Whistleblowerin bekannt wurde, beraten hat. Lessig betont die Bedeutung der Möglichkeit für Mitarbeiter, Bedenken über die potenziellen Gefahren von KI-Systemen frei äußern zu können, ohne Repressalien befürchten zu müssen.

Quelle:  NYTimes