Husker du den scenen i Walt Disneys Bambi hvor den titulære fawn lærer å stå opp og gå av sin egen kraft? Det er en sjarmerende vignett i filmen, som viser en ferdighet som mange babydyr – fra griser til sjiraffer til ja, hjort – fanger opp i løpet av minutter etter fødselen. I løpet av de første timene av livet, foredler disse dyrene raskt sine motoriske ferdigheter til de har full kontroll over sin egen bevegelse. Mennesker, som lærer å stå og holde på ting ved rundt syv måneder og som begynner å gå ved 15 måneder, er håpløst trege til sammenligning.
Innhold
- Positiv forsterkning
- Bygge bedre roboter
Gjett hva den siste oppgaven roboter har slått oss på? I en ny studie utført av forskere ved Google, ingeniører har lært en firedobet Minitaur-robot å gå forbi, vel, egentlig ikke å måtte lære den mye i det hele tatt. Snarere har de brukt en type målrettet kunstig intelligens for å lage en firbeint robot lære å gå fremover, bakover, og sving til venstre og høyre helt på egen hånd. Den var i stand til å lære seg selv å gjøre dette på tre forskjellige terreng, inkludert flatt underlag, en myk madrass og en dørmatte med sprekker.
Anbefalte videoer
"Roboter med ben kan ha stor mobilitet fordi ben er avgjørende for å navigere på uasfalterte veier og steder designet for mennesker," Jie Tan, hovedetterforsker på prosjektet og Googles leder for bevegelsesinnsats, fortalte Digital Trends. "Vi er interessert i å gjøre roboter med ben til å navigere i våre mangfoldige og komplekse miljøer i den virkelige verden, men det er vanskelig å manuelt konstruere robotkontrollere som kan håndtere slikt mangfold og kompleksitet. Derfor er det viktig at roboter kan lære av seg selv. Dette arbeidet er spennende fordi dette er en tidlig demonstrasjon av at med vårt system kan en robot med ben lykkes lære å gå på egenhånd.»
Positiv forsterkning
Lære å gå i den virkelige verden med minimal menneskelig innsats
Teknologien som ligger til grunn for dette spesielle prosjektet er noe som kalles dyp forsterkningslæring, en spesifikk tilnærming til dyp læring som er inspirert av behavioristisk psykologi og prøving og feiling læring. Med beskjed om å maksimere en viss belønning lærer programvareagenter å ta handlinger i et miljø som vil oppnå disse resultatene på en mest mulig presis og effektiv måte. Kraften til forsterkende læring var kjent demonstrert i 2013 da Googles DeepMind ga ut et papir som viste hvordan det hadde trent en A.I. for å spille klassiske Atari-videospill. Dette ble oppnådd uten andre instruksjoner enn poengsummen på skjermen og de omtrent 30 000 piksler som utgjorde hver frame av videospillene den spilte.
Videospill, eller i det minste simuleringer, brukes også ofte av robotforskere. En simulering gir perfekt mening i teorien, siden den lar robotikere trene maskinen sin i en virtuell verden før de går ut i den virkelige. Det sparer roboter fra uunngåelige pratfalls og slitasje som den vil gjennomgå når den lærer å utføre en spesifikk oppgave. Som en analogi, tenk om alle kjøretimene dine ble utført ved hjelp av en kjøresimulator. Argumentet kan fremsettes at du ville lære raskere fordi du ikke trenger å være så forsiktig med å risikere din fysiske sikkerhet eller skade bilen din (eller andres). Du kan også trene raskere uten å måtte vente på tildelte leksjoner eller på at en lisensiert sjåfør er villig til å ta deg ut.
Problemet med dette er at, som alle som noen gang har spilt et kjørevideospill vil vite, er det ganske vanskelig å modellere den virkelige verden på en måte som føles som, vel, den virkelige verden. I stedet begynte Googles forskere å utvikle forbedrede algoritmer som lar roboten deres lære raskere med færre forsøk involvert. Bygger på en tidligere del av Google-undersøkelsen publisert i 2018, var roboten deres i stand til å lære å gå på bare et par timer i denne siste demonstrasjonen.
Den er også i stand til å gjøre dette samtidig som den legger vekt på en mer forsiktig, tryggere tilnærming til læring, som involverer færre fall. Som et resultat minimerer den antallet menneskelige inngrep som må gjøres for å plukke opp roboten og støve den av hver gang den faller.
Bygge bedre roboter
Å lære å gå på to timer er kanskje ikke helt hjortenivåer for å lære å gå effektivitet, men det er langt fra ingeniører som eksplisitt må programmere hvordan en robot vanligvis læres å manøvrere. (Og, som nevnt, det er mye bedre enn menneskelige spedbarn kan klare i den slags tidsramme!)
"Selv om mange uovervåket lærings- eller forsterkende læringsalgoritmer har blitt demonstrert i simulering, å bruke dem på ekte roboter med ben viser seg å være utrolig vanskelig,» Tan forklart. "For det første er forsterkende læring datahungrig, og det er dyrt å samle inn robotdata. Vårt tidligere arbeid har adressert denne utfordringen. For det andre krever opplæring at noen bruker mye tid på å overvåke roboten. Hvis vi trenger en person til å overvåke roboten og manuelt tilbakestille den hver gang den snubler - hundrevis eller tusenvis av ganger - kommer det til å ta mye arbeid og veldig lang tid å trene roboten. Jo lengre tid det tar, desto vanskeligere er det å skalere opp læringen til mange roboter i mange forskjellige miljøer."
En dag kan denne forskningen bidra til å skape mer smidige roboter som raskere kan tilpasse seg en rekke terreng. "De potensielle bruksområdene er mange," sa Tan. Tan understreket imidlertid at dette "fortsatt er tidlige dager, og det er mange utfordringer som vi fortsatt må overvinne."
I tråd med forsterkningslæringstemaet er det absolutt en belønning som er verdt å maksimere!
Redaktørenes anbefalinger
- AI gjorde Breaking Bad til en anime - og det er skremmende
- Hvorfor AI aldri vil styre verden
- Hvordan vil vi vite når en AI faktisk blir sansende?
- Den morsomme formelen: Hvorfor maskingenerert humor er den hellige gral til A.I.
- Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.