Turbo-Entwicklung

Diese KI baut ihre eigenen Nachfolger gleich selbst

Ein System aus China entwirft, programmiert und bewertet neue KI-Modelle. Ganz ohne menschliche Hilfe. Die Software beschleunigt die Forschung.
01.08.2025, 08:03
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

Das KI-System "ASI-Arch" stammt von der Shanghai Jiao Tong University und entwickelt eigenständig neue KI-Modelle. Ziel ist es, menschliche Engpässe in der Forschung zu überwinden. Denn während die Rechenleistung steigt, bleibt die Zahl der Fachleute gleich.

Das System arbeitet mit vier Modulen. Der digitale "Forscher" schlägt neue Modelle vor und schreibt den Code. Der "Ingenieur" trainiert diese Modelle, führt Experimente durch und behebt Fehler. Der "Analyst" bewertet die Resultate und gibt Rückmeldungen. Die "Cognition Base" speichert alle Erkenntnisse und Fachliteratur. So verbessert sich das System laufend selbst – innerhalb eines geschlossenen Forschungskreislaufs.

Automatisierte Forschung im Großversuch

In einem Testlauf führte ASI-Arch 1.773 Versuche durch. Es nutzte rund 20.000 GPU-Stunden Rechenleistung. Dabei entstanden 106 neue Architekturen, die bei Sprachaufgaben wie Textvorhersage oder Alltagsverständnis besser abschnitten als frühere Modelle. Laut Entwicklerteam steigt die Zahl der Entdeckungen mit der eingesetzten Rechenzeit. Code und Modelle sind öffentlich verfügbar.

Was bedeutet das für den Alltag?

Solche Systeme beschleunigen Fortschritte in Medizin, Materialforschung oder Klimamodellen. Sprachassistenten und Navigationssysteme werden effizienter. Gleichzeitig verändert sich die Rolle der Menschen. Fachleute prüfen die Resultate der KI, statt alle Ideen selbst zu entwickeln. Das macht Forschung schneller, aber schwerer nachvollziehbar. Denn automatisch entworfene Systeme sind oft sehr komplex.

Vorsicht vor überzogenen Erwartungen

ASI-Arch testete zuerst kleinere Modelle mit 20 Millionen Parametern, skalierte aber vielversprechende Varianten auf 340 Millionen hoch. Zum Vergleich: Die Parameter von GPT-4o werden auf 1,8 Billionen geschätzt.

Ob der Ansatz auch bei sehr großen Modellen funktioniert, ist offen. Viele Leistungsgewinne bleiben gering. Zudem zeigen Studien, dass mehr Rechenzeit nicht immer bessere Resultate bringt. Kritiker verweisen auf das "Inverse Scaling", ein Effekt, bei dem KI sich mit mehr Rechenleistung in Details verliert.

Die Entwickler sehen großes Potenzial, bleiben aber vorsichtig. Eine unabhängige Überprüfung durch andere Forschungsteams steht noch aus.

{title && {title} } red,20 Minuten, {title && {title} } Akt. 01.08.2025, 08:23, 01.08.2025, 08:03
Weitere Storys
Jetzt E-Paper lesen