Robothanden hanteren 2000 objecten

Fri Apr 26 2024

04 26

Robothanden hanteren 2000 objecten

16/11/2021

Door Ad Spijkers

Een nieuw raamwerk heroriënteert meer dan 2000 verschillende objecten met een robothand, in een stap naar mensachtige manipulatie.


     

Machines kunnen veel meer doen dan alleen objecten oppakken en neerzetten, maar ze kunnen voorwerpen nog niet zo goed oriënteren als mensen. Een baby van een jaar oud is handiger dan een robot.

Het heroriënteren van objecten kan complexe handbewegingen vereisen die voor robots moeilijk zijn. Met een nieuw systeem, ontwikkeld aan het Massachusetts Institute of Technology, kunnen robots leren onbekende objecten te manipuleren en te heroriënteren. Het doel is om objecten doelgericht te kunnen heroriënteren.

Menselijke vaardigheden

Wetenschappers van MIT zoeken continu naar machines om menselijke vaardigheden te herhalen. Hun nieuwe systeem kan meer dan tweeduizend verschillende objecten heroriënteren, met de robothand zowel naar boven als naar beneden gericht. Dit vermogen om alles te manipuleren, van een kopje via een tonijnblikje tot een doos koekjes, kan de hand helpen om snel objecten op specifieke manieren en locaties te kiezen en te plaatsen - en zelfs te generaliseren naar nog onbekende objecten.

Het 'handwerk' van robots is meestal beperkt is tot enkele taken en rechtopstaande posities. Maar meer handigheid kan een aanwinst zijn bij het versnellen van logistiek en productie, helpen bij algemene taken zoals het inpakken van objecten of het hanteren van gereedschappen. Het team gebruikte een gesimuleerde, antropomorfe hand met 24 vrijheidsgraden en toonde aan dat het systeem in de toekomst zou kunnen worden overgedragen naar een echt robotsysteem.

Parallelgrijpers

In de industrie wordt een grijper met parallelle kaken het meest gebruikt, deels vanwege de eenvoud van bediening. Maar dergelijke tools kunnen veel taken in het dagelijks leven fysiek niet aan. Zelfs het gebruik van een tang is moeilijk, omdat een parallelle grijper niet handig een hendel heen en weer kan bewegen. Het nieuwe systeem kan een hand met meerdere vingers in staat stellen om dergelijke gereedschappen behendig te hanteren, wat een nieuw gebied opent voor robotica-toepassingen.

'In de hand' heroriëntatie van objecten is een uitdaging in de robotica. Er is een groot aantal te besturen motoren en een frequente verandering in contactstatus tussen de vingers en de objecten nodig. En met meer dan 2.000 objecten moest het model veel leren. Het probleem wordt nog lastiger als de hand naar beneden wijst. De robot moet niet alleen het object manipuleren, maar ook de zwaartekracht omzeilen zodat het object niet naar beneden valt.

Waardefuncties

Het team ontdekte dat een eenvoudige aanpak complexe problemen kon oplossen. Ze gebruikten een modelvrij leeralgoritme voor versterking (wat betekent dat het systeem waardefuncties moet achterhalen uit interacties met de omgeving) met deep learning, iets dat ook wel een 'leraar-student' trainingsmethode wordt genoemd.

Om dit te laten werken, wordt het 'lerarennetwerk' getraind op informatie over het object en de robot. Die informatie is gemakkelijk beschikbaar in simulatie, maar niet in de echte wereld, zoals de locatie van vingertoppen of objectsnelheid. Om ervoor te zorgen dat de robots buiten de simulatie kunnen werken, wordt de kennis van de 'leraar' gehaald uit observaties die in de echte wereld kunnen worden verkregen. Te denken valt aan dieptebeelden vastgelegd door camera's, objecthouding en de gewrichtsposities van de robot.

De onderzoekers gebruikten ook een 'zwaartekrachtcurriculum', waarbij de robot eerst de vaardigheid leert in een omgeving zonder zwaartekracht, en vervolgens de controller langzaam aanpast aan de normale zwaartekracht. Hoewel schijnbaar contra-intuïtief, kon een enkele controller (het brein van de robot) een groot aantal objecten heroriënteren die het nog nooit eerder had gezien, en zonder kennis van vorm.

Visuele perceptie

De onderzoekers dachten aanvankelijk dat visuele perceptie-algoritmen voor het afleiden van vorm terwijl de robot het object manipuleert, de belangrijkste uitdaging zou zijn. Maar de resultaten laten zien dat een robot robuuste controlestrategieën kan leren die vormonafhankelijk zijn. Dit suggereert dat visuele waarneming misschien veel minder belangrijk is voor manipulatie dan we denken. Wellicht zouden eenvoudigere perceptuele verwerkingsstrategieën kunnen volstaan.

Veel kleine, cirkelvormige objecten (appels, tennisballen, knikkers) hadden een slagingspercentage van bijna 100% wanneer ze opnieuw werden georiënteerd met de hand naar boven en beneden gericht. Niet onverwacht werden de laagste slagingspercentages (rond 30%) gehaald voor complexere objecten, zoals een lepel, een schroevendraaier of schaar.

Volgens de onderzoekers zou het trainen van het model op basis van objectvormen de prestaties van pick & place systemen (zoals robots) kunnen verbeteren.

Foto: MIT Computer Science and Artificial Intelligence Laboratory (CSAIL)