banner
Nachrichtenzentrum
Personalisierte Bestellungen sind immer erwünscht

MIT-Forscher helfen Robotern, ihren gesamten Körper zur Manipulation von Objekten einzusetzen

Jul 19, 2023

Von Brianna Wessling | 29. August 2023

Ein Roboter versucht, mit seinen ganzen Händen einen Eimer um 180° zu drehen. | Quelle: MIT

Ein MIT-Forschungsteam hat eine KI-Technik entwickelt, die es Robotern ermöglicht, Objekte mit der gesamten Hand oder dem gesamten Körper statt nur mit den Fingerspitzen zu manipulieren.

Wenn eine Person eine Kiste aufhebt, hebt sie sie normalerweise mit allen Händen an und hält die Kiste dann mit ihren Unterarmen und ihrer Brust fest, während sie sie woanders hinbewegt. Bei dieser Art der Manipulation handelt es sich um eine Ganzkörpermanipulation, mit der Roboter zu kämpfen haben.

Bei Robotern ist jede Stelle, an der die Box irgendeinen Punkt ihrer Finger, Arme oder ihres Oberkörpers berühren könnte, ein Kontaktereignis, über das der Roboter nachdenken muss. Dadurch sind Roboter mit Milliarden potenzieller Kontaktereignisse konfrontiert, was die Planung von Aufgaben, die den gesamten Körper erfordern, äußerst kompliziert macht. Dieser Prozess, bei dem ein Roboter versucht zu lernen, wie er ein Objekt am besten bewegt, wird als kontaktreiche Manipulationsplanung bezeichnet.

MIT-Forscher haben jedoch einen Weg gefunden, diesen Prozess mithilfe einer KI-Technik namens Glättung und eines vom Team entwickelten Algorithmus zu vereinfachen. Durch die Glättung werden viele Kontaktereignisse in einer kleineren Anzahl von Entscheidungen zusammengefasst, Ereignisse, die für die Aufgabe nicht wichtig sind, eliminiert und die Dinge auf eine kleinere Anzahl von Entscheidungen eingegrenzt. Dadurch kann selbst ein einfacher Algorithmus schnell einen effektiven Manipulationsplan entwickeln.

Viele Roboter lernen den Umgang mit Objekten durch Reinforcement Learning, eine Technik des maschinellen Lernens, bei der ein Agent durch Versuch und Irrtum lernt, wie er eine Aufgabe gegen eine Belohnung erledigt. Durch diese Art des Lernens muss ein System durch Versuch und Irrtum alles über die Welt lernen.

Bei Milliarden von Kontaktpunkten, die es auszuprobieren gilt, kann Reinforcement Learning einen großen Rechenaufwand erfordern, was es nicht zu einer idealen Wahl für die Planung kontaktreicher Manipulationen macht, obwohl es mit genügend Zeit effektiv sein kann.

Reinforcement Learning führt jedoch den Glättungsprozess durch, indem es verschiedene Kontaktpunkte ausprobiert und einen gewichteten Durchschnitt der Ergebnisse berechnet, was dazu beiträgt, dass es beim Unterrichten von Robotern so effektiv ist.

Das MIT-Forschungsteam nutzte dieses Wissen, um ein einfaches Modell zu entwickeln, das diese Art von Forschung durchführt und es dem System ermöglicht, sich auf zentrale Roboter-Objekt-Interaktionen zu konzentrieren und langfristiges Verhalten vorherzusagen.

Anschließend kombinierte das Team sein Modell mit einem Algorithmus, der schnell alle möglichen Entscheidungen durchsuchen kann, die ein Roboter treffen kann. Zwischen dem Glättungsmodell und dem Algorithmus erstellte das Team ein System, das auf einem Standard-Laptop nur etwa eine Minute Rechenzeit benötigte.

Obwohl sich dieses Projekt noch in einem frühen Stadium befindet, könnte diese Methode dazu genutzt werden, Fabriken den Einsatz kleinerer, mobiler Roboter zu ermöglichen, die ihren gesamten Körper zur Manipulation von Objekten einsetzen, anstatt große Roboterarme, die nur mit den Fingerspitzen greifen.

Während das Modell beim Testen in der Simulation vielversprechende Ergebnisse zeigte, kann es sehr dynamische Bewegungen, wie etwa fallende Objekte, nicht verarbeiten. Dies ist eines der Themen, mit denen sich das Team in zukünftigen Forschungen weiterhin befassen möchte.

Die Forschung der Teams wurde teilweise von Amazon, dem MIT Lincoln Laboratory, der National Science Foundation und der Ocado Group finanziert. Zum Team gehörten HJ Terry Suh, ein Doktorand der Elektrotechnik und Informatik (EECS), und Co-Hauptautor des Artikels sowie der Co-Hauptautor Tao Pang Ph.D. '23, Robotiker am Boston Dynamics AI Institute; Lujie Yang, ein EECS-Doktorand; und leitender Autor Russ Tedrake, Toyota-Professor für EECS, Luft- und Raumfahrt sowie Maschinenbau und Mitglied des Computer Science and Artificial Intelligence Laboratory (CSAIL).