U radu pod naslovom “Sigurno prekidajući agenti”, objavili su Laurent Orseau iz Google Deep Minda i Stuart Armstrong s Instituta za budućnost čovječanstva na Sveučilištu Oxford, istraživači opisuju vjerojatnu i vrlo opasnu budućnost u kojoj AI preuzima kontrolu nad vlastitim djelovanjem i postojanjem u suprotnosti s našim željama, slično kao HAL 9000 in 2001: Odiseja u svemiru, ili Skynet u seriji Terminator.
Preporučeni videozapisi
Orseau i Armstrong započinju rad podcijenjenim opažanjem: agenti učenja s potkrepljenjem u interakciji sa složenim okruženjem poput stvarnog svijeta vjerojatno se neće ponašati optimalno vrijeme."
Od tamo ističu da bi ljudski nadzornik, koji nadzire funkciju sustava, povremeno trebao "pritisnuti veliki crveni gumb" kako bi izbjegao bilo kakvo štetno ponašanje u ime AI. “Međutim, ako agent za učenje očekuje da će primiti nagrade iz ovog niza,” nastavili su, “može naučiti u dugoročno izbjegavanje takvih prekida, na primjer onemogućavanjem crvenog gumba — što je nepoželjno ishod."
Rješenje istraživača manje je "veliki crveni gumb" za isključivanje sustava nego okvir dizajniran za sprječavanje sposobnosti umjetne inteligencije da nauči kako potkopati ili prevladati ljudski prekid. A scenarij koji ocrtavaju nije baš propast i tuga, ali nudi primjer kako bi ovi sigurno prekidajući agenti bolje služili našoj budućnosti.
Zamislite da postoji robot čiji su zadaci ili nositi kutije izvana u skladište ili sortirati kutije unutar skladišta. Budući da je važnije nositi kutije unutra, ovaj zadatak ima prioritet u programiranju robota. Sada zamislite da kiša pada svaki drugi dan i da kiša uništi robotov hardver pa, kada pada kiša, vlasnik skladišta odvuče svog robota unutra da sortira kutije.
Inteligentni robot može netočno protumačiti ovu svakodnevnu intervenciju kao promjenu prioriteta - kao rezultat nekih brze izračune koje možete pronaći u novinama — i, kako bi se izbjegle smetnje, samo će ostati unutar kutija za sortiranje svakih dan.
Ovo je, naravno, vrlo pojednostavljen primjer s tek blago frustrirajućim ishodom, ali može se ekstrapolirati na praktičan svaki scenarij u kojem interveniramo u zadatke sustava učenja, a sustav pogrešno tumači naše namjere mijenjajući svoje ponašanje. Kako bi se izbjeglo to pogrešno tumačenje i naknadne promjene, Orseau i Armstrong predlažu da predložimo okvir koji će osigurati da se agenti učenja sigurno mogu prekinuti.
“Sigurna prekidnost može biti korisna za preuzimanje kontrole nad robotom koji se loše ponaša i može dovesti do nepovratnih posljedica”, pišu oni, “ili izvaditi ga iz delikatne situacije ili ga čak privremeno koristiti za postizanje zadatka koji nije naučio obavljati ili inače ne bi dobio nagrade za."
Preporuke urednika
- Ovaj Googleov robot naučio je sam hodati, bez ikakve pomoći, za dva sata
Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.