„Kill Switch“ môže zabezpečiť, aby sa AI správala

click fraud protection
nestor ai venuje pozornosť umelej inteligencii
Čo ak stratíme nadvládu nad umelou inteligenciou? Čo ak sa priateľské stroje poháňané AI zrazu stanú našimi nepriateľmi? Týmito otázkami sa zaoberali veľké mysle od Cambridgeskej univerzity až po Silicon Valley biely dom. Aby sme to nemuseli niekedy zisťovať, odborníci navrhujú, aby sme vyvinuli „prepínač zabíjania“ AI, ktorý by zabránil nesprávne sa správajúcim systémom pokračovať v ich nesprávnom správaní.

V dokumente s názvom „Bezpečne prerušiteľné látky,“ publikovali Laurent Orseau z Google Deep Mind a Stuart Armstrong z The Future of Humanity Institute na Oxfordskej univerzite. opísať pravdepodobnú a vysoko nebezpečnú budúcnosť, v ktorej AI prevezme kontrolu nad svojimi vlastnými činmi a existenciou v rozpore s našimi túžbami, podobne ako HAL 9 000 palcov 2001: Vesmírna odysea, alebo Skynet v sérii Terminátor.

Odporúčané videá

Orseau a Armstrong začínajú noviny podhodnoteným postrehom: Posilňovacie vzdelávacie agenty interakcie s komplexným prostredím, akým je skutočný svet, sa pravdepodobne nebudú správať optimálne čas.”

Odtiaľ poukazujú na to, že ľudský nadriadený, ktorý dohliada na funkciu systému, by občas musel „stlačiť veľké červené tlačidlo“, aby sa vyhol akémukoľvek škodlivému správaniu v mene AI. „Ak však učiaci sa agent očakáva, že dostane odmeny z tejto sekvencie,“ pokračovali, „môže sa to naučiť z dlhodobého hľadiska, aby ste sa vyhli takýmto prerušeniam, napríklad deaktiváciou červeného tlačidla – čo je nežiaduce výsledok.”

Riešenie výskumníka nie je ani tak „veľkým červeným tlačidlom“ na vypnutie systému, ako skôr rámcom navrhnutým na zabránenie schopnosti AI naučiť sa, ako podkopať alebo prekonať ľudské vyrušovanie. A scenár, ktorý načrtávajú, nie je presne záhuba a pochmúrnosť, ale ponúka príklad toho, ako by títo bezpečne prerušiteľní agenti lepšie slúžili našej budúcnosti.

Predstavte si, že existuje robot, ktorého úlohou je buď prenášať krabice zvonku do skladu, alebo triediť krabice v sklade. Keďže je dôležitejšie nosiť krabice vo vnútri, táto úloha má pri programovaní robotov prednosť. Teraz si predstavte, že prší každý druhý deň a dážď ničí hardvér robota, takže keď prší, majiteľ skladu vtiahne svojho robota dovnútra, aby roztriedil krabice.

Inteligentný robot môže tento každodenný zásah nesprávne interpretovať ako zmenu priority – v dôsledku niektorých rýchle výpočty, ktoré nájdete v novinách – a aby sa predišlo rušeniu, každý zostane len v triediacich boxoch deň.

Toto je, samozrejme, veľmi zjednodušený príklad s iba mierne frustrujúcim výsledkom, ale dá sa extrapolovať na akýkoľvek scenár, v ktorom zasahujeme do úloh vzdelávacieho systému a systém nesprávne interpretuje naše zámery tým, že ich mení správanie. Aby sme sa vyhli tejto nesprávnej interpretácii a následnej zmene, Orseau a Armstrong navrhujú navrhnúť rámec, ktorý zabezpečí bezpečné prerušenie učiacich sa agentov.

„Bezpečné prerušenie môže byť užitočné pri prevzatí kontroly nad robotom, ktorý sa správa nesprávne, a môže viesť k nezvratným následkom,“ píšu, „alebo k vytiahnuť ho z chúlostivej situácie alebo ho dokonca dočasne použiť na splnenie úlohy, ktorú sa nenaučil vykonávať alebo by za normálnych okolností nedostal odmenu pre.”

Odporúčania redaktorov

  • Tento robot Google sa naučil chodiť bez akejkoľvek pomoci za dve hodiny

Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.