Pamatujete si tu scénu ve filmu Walta Disneyho? Bambi kde se titulní koloušek učí vstát a chodit pod vlastní silou? Je to okouzlující viněta ve filmu, která předvádí dovednost, kterou mnoho zvířat – od prasat přes žirafy až po, ano, jeleny – získá během několika minut po narození. Během prvních několika hodin života tato zvířata rychle zdokonalují své motorické dovednosti, dokud nemají plnou kontrolu nad svým vlastním pohybem. Lidé, kteří se učí držet věci kolem sedmi měsíců a kteří začnou chodit v 15 měsících, jsou ve srovnání beznadějně pomalí.
Obsah
- Pozitivní posílení
- Budování lepších robotů
Hádejte, v jakém nejnovějším úkolu nás roboti porazili? V nové studii provedli výzkumníci společnosti Google, inženýři naučili čtyřnožného robota Minitaura chodit kolem, no, ve skutečnosti se toho nemusí moc učit. Spíše použili určitý typ cíleně orientované umělé inteligence k vytvoření čtyřnohého robota naučit se chodit vpřed, dozadu a otočte se doleva a doprava zcela samostatně. Dokázalo se to úspěšně naučit na třech různých terénech, včetně rovné země, měkké matrace a rohožky se štěrbinami.
Doporučená videa
„Roboti s nohami mohou mít skvělou mobilitu, protože nohy jsou nezbytné pro navigaci na nezpevněných cestách a místech určených pro lidi,“ Jie Tan, hlavní řešitel projektu a vedoucí lokomočního úsilí společnosti Google, řekl Digital Trends. „Máme zájem umožnit robotům s nohama procházet našimi různorodými a složitými reálnými prostředími, ale je obtížné ručně zkonstruovat robotické ovladače, které dokážou zvládnout takovou rozmanitost a složitost. Proto je důležité, aby se roboti byli schopni učit sami. Tato práce je vzrušující, protože se jedná o ranou ukázku toho, že s naším systémem se robot s nohama může úspěšně naučit chodit sám.“
Pozitivní posílení
Naučte se chodit v reálném světě s minimálním lidským úsilím
Technologie, která je základem tohoto konkrétního projektu, je něco, čemu se říká hluboké posílení učení, a specifický přístup k hlubokému učení, který je inspirován behavioristickou psychologií a metodou pokusů a omylů učení se. Softwaroví agenti se snaží maximalizovat určitou odměnu a učí se jednat v prostředí, které dosáhne těchto výsledků co nejpřesnějším a nejefektivnějším způsobem. Síla posilujícího učení byla slavně demonstrován v roce 2013 když DeepMind společnosti Google zveřejnil dokument ukazující, jak vycvičil A.I. hrát klasické videohry Atari. Toho bylo dosaženo bez jiných pokynů než skóre na obrazovce a přibližně 30 000 pixelů, které tvořily každý snímek videoher, které hrál.
Videohry, nebo alespoň simulace, často využívají i výzkumníci v oblasti robotiky. Simulace dává teoreticky dokonalý smysl, protože umožňuje robotikům trénovat svůj stroj ve virtuálním světě, než se vydá do toho skutečného. To šetří roboty před nevyhnutelnými úskalími a opotřebením, kterým by podstoupili, když se učili vykonávat konkrétní úkol. Jako analogii si představte, že by všechny vaše lekce řízení probíhaly pomocí simulátoru jízdy. Dalo by se argumentovat tím, že byste se učili rychleji, protože byste nemuseli být tak opatrní, abyste riskovali svou fyzickou bezpečnost nebo poškodili své auto (nebo někoho jiného). Můžete také trénovat rychleji, aniž byste museli čekat na přidělené lekce nebo na licencovaného řidiče, který by byl ochoten vás vzít ven.
Problém je v tom, že jak každý, kdo někdy hrál řidičskou videohru, ví, že je zatraceně těžké modelovat skutečný svět tak, aby to vypadalo jako skutečný svět. Místo toho začali výzkumníci Google vyvíjet vylepšené algoritmy, které umožňují jejich robotovi učit se rychleji s menším počtem pokusů. Navazuje na předchozí výzkum Google zveřejněno v roce 2018, jejich robot se v této nejnovější ukázce dokázal naučit chodit za pouhých pár hodin.
Je také schopen to udělat a zároveň zdůrazňovat opatrnější a bezpečnější přístup k učení, který zahrnuje méně pádů. V důsledku toho minimalizuje počet lidských zásahů, které je třeba provést, aby robot zvedl a oprášil ho pokaždé, když dojde k pádu.
Budování lepších robotů
Naučit se chodit za dvě hodiny nemusí být tak úplně dokonalá úroveň efektivity učení se chůze, ale je to daleko od toho, aby inženýři museli explicitně naprogramovat, jak se robot obvykle učí manévrovat. (A jak bylo poznamenáno, je to mnohem lepší, než lidské děti mohou v takovém časovém rámci zvládnout!)
„Ačkoli bylo demonstrováno mnoho algoritmů učení nebo posílení učení bez dozoru simulace, jejich použití na skutečných robotech s nohama se ukazuje jako neuvěřitelně obtížné,“ Tan vysvětlil. „Za prvé, posilování učení je náročné na data a shromažďování dat o robotech je drahé. Naše předchozí práce se touto výzvou zabývala. Za druhé, výcvik vyžaduje, aby někdo trávil spoustu času dohledem nad robotem. Pokud potřebujeme osobu, která by robota sledovala a ručně jej resetovala pokaždé, když zakopne – stovky nebo tisícekrát –, bude to vyžadovat spoustu úsilí a velmi dlouhou dobu, než se robot vycvičí. Čím déle to trvá, tím obtížnější je rozšířit učení na mnoho robotů v mnoha různých prostředích.“
Jednoho dne by tento výzkum mohl pomoci vytvořit agilnější roboty, které se rychleji přizpůsobí různým terénům. "Potenciální aplikace jsou četné," řekl Tan. Tan však zdůraznil, že je to „ještě na začátku a existuje mnoho výzev, které ještě musíme překonat“.
V souladu s tématem posilování je to určitě odměna, kterou však stojí za to maximalizovat!
Doporučení redakce
- AI proměnila Breaking Bad v anime – a je to děsivé
- Proč AI nikdy neovládne svět
- Jak budeme vědět, kdy se AI skutečně stane vnímavou?
- Vtipná formulka: Proč je strojově generovaný humor svatým grálem A.I.
- Přečtěte si děsivě krásné ‚syntetické písmo‘ A.I. který si myslí, že je to Bůh
Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.