Straipsnyje pavadinimu „Saugiai pertraukiami agentai“, paskelbė Laurent Orseau iš Google Deep Mind ir Stuartas Armstrongas iš Oksfordo universiteto Žmonijos ateities instituto. apibūdinkite tikėtiną ir labai pavojingą ateitį, kai dirbtinis intelektas perima savo veiksmų ir egzistavimo kontrolę, prieštaraudamas mūsų norams, panašiai kaip HAL 9000 colių 2001: Kosminė odisėja, arba Skynet serijoje Terminatorius.
Rekomenduojami vaizdo įrašai
Orseau ir Armstrongas pradeda darbą su neįvertintu pastebėjimu: mokymosi agentų stiprinimas sąveikaudami su sudėtinga aplinka, tokia kaip realus pasaulis, vargu ar elgsis optimaliai laikas."
Iš ten jie nurodo, kad žmogaus prižiūrėtojui, prižiūrinčiam sistemos funkciją, retkarčiais reikėtų „paspausti didelį raudoną mygtuką“, kad būtų išvengta bet kokio žalingo elgesio dirbtinio intelekto vardu. „Tačiau jei mokymosi agentas tikisi gauti atlygį iš šios sekos“, – tęsė jie, – jis gali išmokti ilgainiui, kad būtų išvengta tokių trikdžių, pavyzdžiui, išjungus raudoną mygtuką – tai nepageidautina rezultatas."
Tyrėjo sprendimas yra ne tik „didelis raudonas mygtukas“, skirtas sistemai išjungti, o sistema, skirta slopinti AI gebėjimą išmokti pakenkti arba įveikti žmogaus trukdžius. Ir jų aprašytas scenarijus nėra visiškai pasmerktas ir niūrus, tačiau jis yra pavyzdys, kaip šie saugiai pertraukiami agentai geriau pasitarnautų mūsų ateičiai.
Įsivaizduokite, kad yra robotas, kurio užduotis yra nešti dėžes iš lauko į sandėlį arba rūšiuoti dėžes sandėlyje. Kadangi svarbiau neštis dėžes viduje, robotų programavime šiai užduočiai teikiama pirmenybė. Dabar įsivaizduokite, kad lyja kas antrą dieną, o lietus sunaikina roboto techninę įrangą, todėl lyjant sandėlio savininkas tempia savo robotą į vidų rūšiuoti dėžes.
Išmanusis robotas gali neteisingai interpretuoti šią kas antrą dieną atliekamą intervenciją kaip prioriteto pasikeitimą – dėl tam tikrų greiti skaičiavimai, kuriuos galite rasti popieriuje – ir, kad būtų išvengta trukdžių, jis kiekvieną kartą liks rūšiavimo dėžėse dieną.
Tai, žinoma, labai supaprastintas pavyzdys, kurio rezultatas tik šiek tiek varginantis, tačiau jį galima ekstrapoliuoti praktiškai bet koks scenarijus, kai mes įsikišame į mokymosi sistemos užduotis, o sistema klaidingai interpretuoja mūsų ketinimus pakeisdama savo elgesį. Siekiant išvengti klaidingo aiškinimo ir vėlesnių pokyčių, Orseau ir Armstrongas siūlo pasiūlyti sistemą, kuri užtikrintų, kad mokymosi agentai būtų saugiai pertraukiami.
„Saugus pertraukimas gali būti naudingas norint valdyti netinkamai besielgiantį robotą ir gali sukelti negrįžtamų pasekmių“, – rašo jie, „arba ištraukti jį iš keblios situacijos arba net laikinai panaudoti jai atlikti užduotį, kurios jis neišmoko atlikti arba kurios paprastai negautų atlygio dėl."
Redaktorių rekomendacijos
- Šis „Google“ robotas išmoko vaikščioti be jokios pagalbos per dvi valandas
Atnaujinkite savo gyvenimo būdąSkaitmeninės tendencijos padeda skaitytojams stebėti sparčiai besivystantį technologijų pasaulį – pateikiamos visos naujausios naujienos, smagios produktų apžvalgos, įžvalgūs vedamieji leidiniai ir unikalūs žvilgsniai.