Eine neue Technik der Purdue University könnte den Tastsinn von Robotern auf ein völlig neues Niveau heben.
Wissenschaftler der Purdue University haben eine innovative Methode entwickelt, die es Robotern ermöglicht, taktile Informationen effizienter zu verarbeiten und damit komplexere Aufgaben zu bewältigen. Diese Technik, bekannt als UniT (Unified Tactile Representation), verwendet ein spezielles maschinelles Lernverfahren, um aus einfachen Berührungsdaten vielseitig einsetzbare Repräsentationen zu erstellen.
Im Zentrum von UniT steht der GelSight-Sensor, ein elastisches Gel mit eingebetteten Markern, das sich bei Berührung verformt. Eine Kamera zeichnet die Verformungen auf und liefert detaillierte Informationen über die Form, Position und die Kräfte, die auf das Objekt einwirken. Diese Daten werden anschließend mittels VQVAE (Vector Quantized Variational Autoencoder) komprimiert und gespeichert, was es Robotern ermöglicht, effizient zu lernen und das Gelernte auf verschiedene Aufgaben anzuwenden.
Die Forscher testeten UniT mit einfachen Objekten wie einem Inbusschlüssel oder einer kleinen Kugel und erzielten bemerkenswerte Ergebnisse. Die erlernte Repräsentation konnte auf unbekannte Objekte übertragen werden, was in Experimenten dazu führte, dass der Roboter komplexe Aufgaben ohne zusätzliches Training bewältigte. Beispielsweise konnte die Position eines USB-Steckers erkannt oder zerbrechliche Gegenstände präzise gegriffen werden.
UniT übertrifft dabei frühere Methoden, die sich ausschließlich auf visuelle Informationen stützten oder den Tastsinn wie eine zusätzliche Kamera behandelten. In mehreren robotischen Aufgaben zeigte UniT beeindruckende Ergebnisse, insbesondere bei der 3D-Posenschätzung von USB-Steckern und beim Greifen empfindlicher Objekte. Die Forscher sehen zudem Potenzial für Weiterentwicklungen, etwa durch die Anwendung auf weiche Objekte oder die Integration physikalischer Modelle.