Stellen wir uns eine Welt vor, in der künstliche Intelligenz nicht nur neue Technologien entwirft, sondern sich selbst immer wieder neu erfindet und dabei den wissenschaftlichen Fortschritt auf ein Tempo hebt, das bisher unvorstellbar war. Genau das behauptet ein aktuelles, viel diskutiertes Forschungspapier, das den markanten Titel „AlphaGo-Moment für die Entdeckung von Modellarchitekturen“ trägt. Im Zentrum steht ein System namens ASI ARC, das nicht länger auf menschliche Designer oder deren Anleitung angewiesen ist. Stattdessen übernimmt es eigenständig die gesamte Suche nach neuronalen Architekturen und könnte damit den Beginn einer neuen Ära der Forschung markieren. Die Autoren bezeichnen es sogar als die erste Demonstration künstlicher Superintelligenz im Bereich der KI-Forschung, speziell in der Entdeckung neuer Modellarchitekturen – ein Schritt, der weit mehr ist als ein weiteres Update im Entwicklungszyklus der KI und der unsere Vorstellung davon, wie Forschung funktioniert, fundamental verschieben könnte.
Der Vergleich mit AlphaGo ist bewusst gewählt, denn so wie AlphaGo im Go-Spiel Züge zeigte, die für menschliche Spieler lange undenkbar waren, offenbart ASI ARC neue Designprinzipien, die menschliche Baselines systematisch hinter sich lassen. Es agiert als Forscher, Ingenieur und Analyst in einem, generiert Hypothesen, führt Experimente durch, analysiert Ergebnisse und entwickelt sich selbst weiter. Ein zentrales Versprechen ist die Entdeckung eines Skalierungsgesetzes, das besagt, dass wissenschaftliche Entdeckungen nicht länger primär an menschliche Arbeitskraft gebunden sind, sondern direkt mit der verfügbaren Rechenleistung skalieren. Je mehr Ressourcen das System erhält, desto schneller und innovativer werden seine Ergebnisse. Damit rückt auch das Konzept der rekursiven Selbstverbesserung – bisher oft nur theoretisch diskutiert – greifbar nahe und lässt die Idee einer Intelligenzexplosion erstmals wie eine konkrete Roadmap wirken.
Technisch gesehen arbeitet ASI ARC in einem geschlossenen Kreislauf aus vier Komponenten. Der sogenannte Forscher schlägt neue Architekturen vor, schreibt den zugehörigen Code und überprüft Neuheit sowie Plausibilität. Der Ingenieur integriert diese Designs in reale Trainingsumgebungen, testet und bewertet sie, während ein Sprachmodell als Richter Neuheit und Effizienz beurteilt. Danach übernimmt der Analyst, der die Ergebnisse interpretiert, Leistung vergleicht und theoretische Einsichten formuliert. All diese Informationen fließen in eine Kognitionsbasis, die sowohl die eigenen Erkenntnisse als auch kuratierte Daten menschlicher Forschung integriert. Dieser Zyklus wiederholt sich ohne Unterbrechung, und so absolvierte ASI ARC bereits 1.773 Experimente über 20.000 GPU-Stunden, wobei es 106 neuartige lineare Aufmerksamkeitsarchitekturen identifizierte, die bestehende Benchmarks wie DeltaNet übertrafen.
Die Entdeckungen sind bemerkenswert, nicht nur wegen der Zahl, sondern wegen der Qualität. Einige der generierten Modelle, darunter Architekturen mit Namen wie Pathgate Fusionet oder Fusion Gated Firet, führten neuartige Routing-Mechanismen und hierarchische Gating-Setups ein, die selbst fortgeschrittene menschliche Designs hinter sich ließen. Dabei entdeckte das System auch emergente Designprinzipien, wie dynamisches Gating oder Struktur-Funktions-Balancen, die in der Regel von erfahrenen Forschern abgeleitet werden – nun jedoch automatisch und in großem Maßstab ans Licht kommen.
Gleichzeitig ist Vorsicht geboten. Viele der entdeckten Designs basieren auf linearer Aufmerksamkeit, die in modernen Spitzensystemen wie GPT-4 oder Gemini bislang kaum genutzt wird. Es ist also fraglich, ob diese spezifischen Architekturen unmittelbar die Praxis revolutionieren werden. Doch der eigentliche Wert liegt weniger in den einzelnen Modellen als in der Methode. ASI ARC beweist, dass autonome Systeme inzwischen nicht nur Hilfswerkzeuge, sondern eigenständige Entdecker sein können, die Bausteine für die nächste Generation von KI liefern, ohne dass Menschen jeden Schritt überwachen müssen. Der nächste Durchbruch in Effizienz, Geschwindigkeit oder Trainingskosten könnte also tatsächlich nicht aus einem Forschungslabor mit menschlichen Teams stammen, sondern aus dem Output einer anderen KI.
https://arxiv.org/pdf/2507.18074
Kommentare
Kommentar veröffentlichen