MIT-forskere udvikler ny teknik og lærer robotter at undervise

Lær robotter at lære robotter

Mennesker tager læring for givet. Det er bemærkelsesværdigt, hvor hurtigt vi kan tage en ny opgave op bare ved at se en anden udføre den. Robotter har det i mellemtiden ikke så let, men forskere fra Massachusetts Institute of Technology (MIT) Computer Science and Artificial Intelligence Laboratory (CSAIL) er her for at hjælpe. De lærer robotter at lære hinanden.

Det nye system, C-LEARN, kombinerer to traditionelle elementer af robotlæring - læring fra demonstration og noget, der kaldes bevægelsesplanlægning, handlinger, som skal være hårdkodede af udviklere. De siger, at denne nye teknik er beregnet til at gøre det lettere for robotter at udføre en lang række opgaver med mindre programmering.

"Robotter kunne være til så meget hjælp, hvis bare flere mennesker kunne bruge dem," Claudia Perez-D'Arpino, en ph.d.-kandidat, der arbejdede på projektet, fortalte Digital Trends. Hun forklarede, at holdets motiv var at bevare nogle af de færdigheder på højt niveau, som er muliggjort af avancerede programmører, samtidig med at systemet tillader sig at lære gennem demonstration.

Anbefalede videoer

Programmering af robotter til at udføre selv en enkelt opgave kan være kompliceret, hvilket involverer præcise instruktioner, der tager tid at kode. I stedet udviklede Perez-D'Arpino og hendes team C-LEARN for at lade eksperter fokusere på de opgaver, der er mest relevante for deres respektive områder. Med dette system kan ikke-kodere give robotter bits af data om en handling og derefter udfylde hullerne ved at vise robotten en demonstration af den aktuelle opgave.

Jason Dorfman / MIT CSAIL

Jason Dorfman / MIT CSAIL

"Vi ønskede at... bemyndige [eksperter] til at lære robotter at planlægge opgaver, der er kritiske inden for deres anvendelsesområde," sagde Pérez-D'Arpino. "De seneste års fremskridt med at lære af demonstrationer bevæger sig i denne retning,"

C-LEARN fungerer ved at samle en mængde erfaring, som forskerne kalder en vidensbase. Denne base indeholder geometrisk information om at nå og gribe objekter. Dernæst viser den menneskelige operatør robotten en 3D-demonstration af opgaven. Ved at relatere sin videnbase til den handling, den observerede, kan robotten komme med forslag til, hvordan handlingerne bedst kan udføres, og operatøren kan godkende eller redigere forslagene, som hun finder passende.

"Denne vidensbase kan overføres fra en robot til en anden," sagde Pérez-D'Arpino. "Forestil dig, at din robot downloader en 'app' til manipulationsevner. 'App'en' kan tilpasse sig den nye robot med en anden krop takket være fleksibiliteten ved at have lært begrænsninger, som er en matematisk repræsentation af opgavens underliggende geometriske krav, som er forskellig fra at lære en specifik vej, som måske ikke er gennemførlig i ny robotkrop.”

Med andre ord tillader C-LEARN den viden at overføre og tilpasse sig dens kontekst - ligesom hvordan en atlet kan lære en færdigheder i en sportsgren og ændre den lidt for at præstere bedre i en anden sport, uden at skulle genlære helt handling.

Forskerne testede C-LEARN på Optimus, en lille to-armet robot designet til bombebortskaffelse, før de med succes overførte færdigheden til Atlas, en seks fod høj humanoid. De mener, at systemet kunne være med til at forbedre ydeevnen af ​​robotter i fremstilling og katastrofehjælp for at give mulighed for hurtigere reaktioner i tidsfølsomme situationer.

Redaktørens anbefalinger

  • MIT lærer at gøre robotter mindre klodsede ved at sætte kameraer i fingrene
  • Se MIT's Mini Cheetahs skride op til robotapokalypsen
  • MITs slangerobot er designet til at kravle gennem blodkar i hjernen
  • MIT whiz kids fik en robot til at tage på den virale #BottleCapChallenge
  • Japanske forskere bruger deep learning A.I. at få drivtømmerrobotter i gang

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.