Artiklis pealkirjaga "Ohutult katkestatavad agendid”, mille on avaldanud Laurent Orseau Google Deep Mindist ja Stuart Armstrong Oxfordi ülikooli inimkonna tuleviku instituudist. kirjeldage usutavat ja väga ohtlikku tulevikku, kus tehisintellekt võtab meie soovidele vastandina kontrolli oma tegevuse ja olemasolu üle, sarnaselt HAL-iga. 9000 tolli 2001: Kosmoseodüsseia, või Skynet Terminaatori sarjas.
Soovitatud videod
Orseau ja Armstrong alustavad artiklit alahinnatud tähelepanekuga: tugevdavad õppeagendid Suhtlemine keerulise keskkonnaga nagu päris maailm ei käitu tõenäoliselt optimaalselt aeg."
Sealt juhivad nad tähelepanu sellele, et süsteemi toimimist jälgiv inimjuht peaks aeg-ajalt "suurt punast nuppu vajutama", et vältida AI nimel kahjulikku käitumist. "Kuid kui õppeagent loodab selle jada eest tasu saada," jätkasid nad, "võib see õppida pikemas perspektiivis, et vältida selliseid katkestusi, näiteks keelates punase nupu – mis on ebasoovitav tulemus."
Teadlase lahendus on vähem "suur punane nupp" süsteemi väljalülitamiseks, kui see on raamistik, mis on loodud takistama tehisintellekti võimet õppida, kuidas õõnestada või ületada inimeste sekkumist. Ja nende visandatud stsenaarium ei ole täpselt hukk ja sünge, kuid see pakub näidet selle kohta, kuidas need ohutult katkestatavad ained meie tulevikku paremini teeniksid.
Kujutage ette, et seal on robot, kelle ülesandeks on kastide tassimine väljast lattu või kastide sorteerimine laos. Kuna olulisem on kastide sees tassimine, on see ülesanne robotite programmeerimisel prioriteetne. Kujutage nüüd ette, et vihma sajab ülepäeviti ja vihm hävitab roboti riistvara, nii et kui sajab, lohistab laoomanik oma roboti sisse, et kaste sorteerida.
Arukas robot võib seda iga päev toimuvat sekkumist valesti tõlgendada kui prioriteedi muutust – mõne kiired arvutused, mille leiate paberist – ja häirete vältimiseks jääb see lihtsalt iga kord sorteerimiskastidesse. päeval.
See on muidugi väga lihtsustatud näide, mille tulemus on veidi masendav, kuid seda saab ekstrapoleerida praktiliselt mis tahes stsenaarium, mille puhul me sekkume õppesüsteemi ülesannetesse ja süsteem tõlgendab meie kavatsusi valesti, muutes oma käitumine. Selle väärtõlgenduse ja hilisemate muudatuste vältimiseks soovitavad Orseau ja Armstrong pakkuda välja raamistiku, mis tagab õppeagentide ohutu katkestamise.
"Ohutu katkestatavus võib olla kasulik valesti käituva roboti juhtimiseks ja võib põhjustada pöördumatuid tagajärgi," kirjutavad nad, "või eemaldage see delikaatsest olukorrast või isegi selleks, et ajutiselt kasutada seda ülesande täitmiseks, mida ta ei õppinud täitma või mida ta tavaliselt ei saa eest.”
Toimetajate soovitused
- See Google'i robot õppis kahe tunniga ise kõndima ilma igasuguse abita
Uuenda oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.