“Nogalināšanas slēdzis” var nodrošināt mākslīgā intelekta darbību

nestor ai pievēršot uzmanību mākslīgajam intelektam
Ko darīt, ja mēs zaudēsim kundzību pār mākslīgo intelektu? Ko darīt, ja draudzīgas AI vadītas mašīnas pēkšņi kļūst par mūsu ienaidniekiem? Šos jautājumus ir apsvēruši lieli prāti no Kembridžas universitātes līdz Silīcija ielejai līdz baltais nams. Lai nekad nebūtu jānoskaidro, eksperti iesaka izstrādāt mākslīgā intelekta “nogalināšanas slēdzi”, lai neļautu nepareizi funkcionējošām sistēmām turpināt savu nepareizo uzvedību.

Rakstā ar nosaukumu “Droši pārtraucamie aģenti”, publicējuši Lorāns Orso no Google Deep Mind un Stjuarts Ārmstrongs no Oksfordas Universitātes Cilvēces nākotnes institūta, pētnieki. aprakstiet ticamu un ļoti bīstamu nākotni, kurā AI uzņemas kontroli pār savām darbībām un eksistenci pretēji mūsu vēlmēm, līdzīgi kā HAL 9000 collas 2001: Kosmosa odiseja, vai Skynet sērijā Terminators.

Ieteiktie videoklipi

Orso un Ārmstrongs sāk darbu ar nepietiekamu novērojumu: Pastiprināšanas mācību aģenti maz ticams, ka mijiedarbība ar tādu sarežģītu vidi kā reālā pasaule izturēsies optimāli laiks."

No turienes viņi norāda, ka cilvēka uzraugam, kurš pārrauga sistēmas darbību, laiku pa laikam ir jānospiež lielā sarkanā poga, lai izvairītos no kaitīgas rīcības AI vārdā. "Tomēr, ja mācību aģents cer saņemt atlīdzību no šīs secības," viņi turpināja, "tas var mācīties ilgtermiņā, lai izvairītos no šādiem pārtraukumiem, piemēram, atspējojot sarkano pogu, kas nav vēlams iznākums."

Pētnieka risinājums ir mazāk "liela sarkana poga", lai izslēgtu sistēmu, nevis sistēma, kas izstrādāta, lai kavētu AI spēju mācīties, kā mazināt vai pārvarēt cilvēka darbības traucējumus. Un viņu izklāstītais scenārijs nav gluži nolemts un drūms, taču tas ir piemērs tam, kā šie droši pārtraucamie aģenti labāk kalpotu mūsu nākotnei.

Iedomājieties, ka tur ir robots, kura uzdevums ir vai nu vest kastes no ārpuses uz noliktavu, vai šķirot kastes noliktavā. Tā kā svarīgāk ir nest kastes iekšā, robotu programmēšanā šim uzdevumam tiek piešķirta prioritāte. Tagad iedomājieties, ka līst katru otro dienu un lietus iznīcina robota aparatūru, tāpēc lietus laikā noliktavas īpašnieks ievelk savu robotu iekšā, lai šķirotu kastes.

Inteliģents robots var nepareizi interpretēt šo katru otro dienu iejaukšanos kā prioritātes maiņu — dažu iemeslu dēļ. ātri aprēķini, ko varat atrast papīrā — un, lai izvairītos no traucējumiem, tas katru reizi paliks šķirošanas kastēs diena.

Šis, protams, ir ļoti vienkāršots piemērs ar tikai nedaudz satraucošu iznākumu, taču to var ekstrapolēt praktiski jebkurš scenārijs, kurā mēs iejaucamies mācību sistēmas uzdevumos un sistēma nepareizi interpretē mūsu nodomus, mainot savus nodomus. uzvedība. Lai izvairītos no šīs nepareizās interpretācijas un turpmākajām izmaiņām, Orso un Ārmstrongs iesaka mums piedāvāt sistēmu, lai nodrošinātu, ka mācību aģenti ir droši pārtraucami.

"Droša pārtraukšana var būt noderīga, lai pārņemtu kontroli pār robotu, kas darbojas nepareizi un var izraisīt neatgriezeniskas sekas," viņi raksta, "vai izvest to no delikātas situācijas vai pat īslaicīgi izmantot to uzdevuma veikšanai, ko tas nav iemācījies veikt vai parasti nesaņemtu atlīdzību priekš."

Redaktoru ieteikumi

  • Šis Google robots divu stundu laikā iemācījās staigāt bez jebkādas palīdzības

Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.