"Stikalo za izklop" lahko poskrbi, da se AI obnaša

nestor ai posveča pozornost umetni inteligenci
Kaj pa, če izgubimo oblast nad umetno inteligenco? Kaj če prijazni stroji, ki jih poganja AI, nenadoma postanejo naši sovražniki? O teh vprašanjih so razmišljali veliki umi od Univerze v Cambridgeu do Silicijeve doline Bela hiša. Da bi se izognili temu, da bi kdaj morali izvedeti, strokovnjaki predlagajo, da razvijemo »kill switch« AI, ki bo sistemom, ki se slabo obnašajo, preprečil, da bi sledili svojemu napačnemu vedenju.

V prispevku z naslovom »Varno prekinljivi agenti,« sta objavila Laurent Orseau iz Googla Deep Mind in Stuart Armstrong z Inštituta za prihodnost človeštva na Univerzi v Oxfordu, so raziskovalci opisujejo verjetno in zelo nevarno prihodnost, v kateri AI prevzame nadzor nad lastnimi dejanji in obstojem v nasprotju z našimi željami, podobno kot HAL 9000 in 2001: Odiseja v vesolju, ali Skynet v seriji Terminator.

Priporočeni videoposnetki

Orseau in Armstrong začneta prispevek s podcenjeno ugotovitvijo: sredstva za krepitev učenja v interakciji s kompleksnim okoljem, kot je resnični svet, se verjetno ne bodo obnašali optimalno čas."

Od tam poudarjajo, da bi moral človeški nadzornik, ki nadzira delovanje sistema, občasno »pritisniti velik rdeči gumb«, da bi se izognil kakršnemu koli škodljivemu vedenju v imenu umetne inteligence. »Vendar, če učni agent pričakuje, da bo prejel nagrade iz tega zaporedja,« so nadaljevali, »se lahko nauči v dolgoročno, da bi se izognili takšnim prekinitvam, na primer z onemogočanjem rdečega gumba - kar je nezaželeno izid."

Rešitev raziskovalca je manj kot "velik rdeči gumb" za zaustavitev sistema kot okvir, zasnovan tako, da zavira zmožnost umetne inteligence, da se nauči, kako spodkopati ali premagati človeško motnjo. In scenarij, ki ga opisujejo, ni ravno poguba in mračnost, vendar ponuja primer, kako bi ti varno prekinljivi agenti bolje služili naši prihodnosti.

Predstavljajte si, da obstaja robot, katerega naloga je, da nosi škatle od zunaj v skladišče ali sortira škatle znotraj skladišča. Ker je bolj pomembno prenašati škatle v notranjost, ima ta naloga prednost pri programiranju robotov. Predstavljajte si, da vsak drugi dan dežuje in dež uniči strojno opremo robota, tako da lastnik skladišča, ko dežuje, svojega robota vleče noter, da sortira škatle.

Inteligentni robot si lahko napačno razlaga ta vsakodnevni poseg kot spremembo prioritete – kot rezultat nekaterih hitre izračune, ki jih najdete v časopisu – in, da bi se izognili motnjam, bo ostal v škatlah za razvrščanje vsak dan.

To je seveda zelo poenostavljen primer z le rahlo frustrirajočim izidom, vendar ga je mogoče ekstrapolirati na praktično kakršen koli scenarij, v katerem posegamo v naloge učnega sistema in sistem napačno razlaga naše namere s spreminjanjem svojih obnašanje. Da bi se izognili tej napačni razlagi in poznejšim spremembam, Orseau in Armstrong predlagata, da predlagamo okvir, ki zagotavlja, da so učni agenti varno prekinljivi.

»Varna prekinljivost je lahko koristna za prevzem nadzora nad robotom, ki se slabo obnaša in lahko povzroči nepopravljive posledice,« pišejo, »ali ga vzeti iz občutljive situacije ali ga celo začasno uporabiti za dosego naloge, ki se je ni naučil izvajati ali običajno ne bi prejel nagrade za.”

Priporočila urednikov

  • Ta Googlov robot se je sam naučil hoditi brez kakršne koli pomoči v dveh urah

Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.