Stell dir vor, du sagst zu einem Roboter: "Räum die Einkäufe ein" – und er versteht nicht nur den Befehl, sondern auch, wo die Äpfel liegen, wie man sie auspackt und wo der Kühlschrank ist. Genau das ermöglicht Googles neue Gemini-Roboter-KI.
Darum gehts
KI mit Fingerspitzengefühl: Die Modelle Gemini Robotics und Gemini Robotics-ER verknüpfen Sprachverständnis mit räumlicher Intelligenz – Roboter "begreifen" ihre Umgebung erstmals wie Menschen.
Neue Einsatzgebiete für Roboter: Das Partnerunternehmen Apptronik setzt die KI in nächsten Generationen humanoider Roboter ein, die selbst knifflige Handgriffe meistern.
Training in Echtzeit: Diese Technologie könnte in Bereichen wie Pflege und Logistik eingesetzt werden.
Herkömmliche Roboter scheitern oft an unvorhergesehenen Situationen. Die neue Generation nutzt die Multimodalität von Gemini 2.0: Sie kombiniert Kamera-Eingaben, Sprachbefehle und Bewegungssteuerung in einem System. Laut Google lösen Roboter mit der neuen KI dreimal so viele unbekannte Aufgaben – von Origami falten bis Flaschen entkorken.
Die KI lernt in Echtzeit und passt sich an: Bewegt sich die Schüssel, ändert der Roboter automatisch seinen Griff.
Die KI denkt in physikalischen Zusammenhängen. Statt jedes Szenario einzeln zu trainieren, generiert sie Lösungen durch räumliches Schlussfolgern – ähnlich wie Menschen. Partner wie Boston Dynamics testen bereits, wie ihre Roboterhunde mit der Technologie komplexere Einsätze meistern.
Diese Entwicklung markiert einen großen Schritt weg von spezialisierten Industrierobotern hin zu universell einsetzbaren Helfern. Damit könnten Roboter vom Fließband in den Alltag einziehen.
Doch mit den Fähigkeiten wachsen auch die Risiken. Google betont Sicherheitsvorkehrungen wie eine eingebaute "Roboterverfassung", die gefährliche Aktionen blockiert. Bis zum breiten Einsatz dürften aber noch ein paar Jahre vergehen – aktuell wird die Technologie noch bei ausgewählten Partnern wie Apptronik getestet.