30. Januar 2026

Helix 02 im Praxistest: Wie Figure AI humanoide Robotik alltagstauglich macht

Figure AI zeigt Helix 02 im Küchenalltag: Humanoid-Roboter wird alltagstauglicher
Ein humanoider Roboter, der nicht nur greift, sondern gleichzeitig balanciert, läuft, ausweicht und „mitdenkt“ – genau diese Kombination war lange eine der härtesten Nüsse in der Robotik. Figure AI hat jetzt mit Helix 02 ein System präsentiert, das Fortbewegung und Manipulation nicht mehr getrennt behandelt, sondern den gesamten Körper über ein einziges neuronales Netzwerk koordiniert. Und ja: Die gezeigte Küchenszene wirkt wie ein kleiner Blick in eine ziemlich nahe Zukunft.

In einer rund vierminütigen Demonstration entlädt und belädt der Roboter einen Geschirrspüler mit 61 aufeinanderfolgenden Aktionen – ohne menschliches Eingreifen. Spannend ist dabei weniger das reine „Geschirr raus, Geschirr rein“, sondern wie der Roboter die Aufgabe löst: Er schließt eine Schublade mit der Hüfte und hebt die Geschirrspülertür mit dem Fuß an, weil die Hände gerade belegt sind. Solche Improvisationen sind genau das, woran viele klassische Robotik-Ansätze scheitern, weil sie Bewegung und Greifen traditionell als getrennte Teilprobleme behandeln. Wenn sich dann in der Realität etwas minimal anders verhält – Objekt verrutscht, Kontaktpunkt stimmt nicht –, bricht der Ablauf schnell zusammen.

Figure AI will dieses Problem mit einer dreistufigen Architektur angehen. In der untersten Ebene (System 0) arbeitet ein neuronales Netz mit 10 Millionen Parametern, trainiert mit über 1.000 Stunden menschlicher Bewegungsdaten und ausgelegt auf extrem schnelle Korrekturen (1 kHz). Laut Figure AI ersetzt diese Schicht über 100.000 Zeilen handgeschriebenen C++-Code für Balance und Koordination. Darüber liegt System 1, das Sensorik und Gelenke eng koppelt und mit 200 Hz arbeitet. Ganz oben sitzt System 2 für Sprachverständnis und Aufgabenplanung – also für das, was wir landläufig als „Roboter versteht Aufgabe und plant Schritte“ beschreiben würden. Trainiert wurde das Ganze in Simulation mit mehr als 200.000 parallelen Umgebungen, was typisch für Sim-to-Real-Ansätze ist, bei denen ein Modell aus der Simulation auf echte Hardware übertragen wird.

Auch die Hardware-Seite wurde sichtbar aufgerüstet: Handflächenkameras helfen, wenn die Kopfkamera keine Sicht hat, und taktile Sensoren in den Fingerspitzen erkennen Kräfte ab drei Gramm. Das klingt nach Detail, ist aber für feinere Manipulation entscheidend. In zusätzlichen Clips zeigt Figure AI unter anderem das Öffnen eines Flaschenverschlusses, das Herausnehmen einer einzelnen Pille aus einer Medikamentenbox, das Dosieren kleiner Flüssigkeitsmengen per Spritze sowie das Sortieren von Metallteilen aus der eigenen Fertigung.

Natürlich bleiben Fragezeichen: Es gibt keine Angaben zu Fehlerquoten, Wiederholbarkeit oder wie viele Versuche für die gezeigte Aufnahme nötig waren. Unklar ist auch, wie robust das System in einer „normalen“ Küche mit anderen Abständen, anderem Geschirr oder mehr Unordnung wirklich ist – und das gezeigte Geschirr besteht zudem aus Plastik. Trotzdem: Wenn die Demonstration tatsächlich so autonom ablief, wie Figure AI es beschreibt, ist das ein klarer Schritt nach vorn – weg von hübsch choreografierten Demos hin zu längeren, zusammenhängenden Aufgaben.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>