„Kill Switch“ může zajistit, že se AI chová

nestor ai věnuje pozornost umělé inteligenci
Co když ztratíme nadvládu nad umělou inteligencí? Co když se přátelské stroje řízené umělou inteligencí náhle stanou našimi nepřáteli? Tyto otázky byly zvažovány velkými mozky od Cambridgeské univerzity po Silicon Valley Bílý dům. Abychom to nemuseli vůbec zjišťovat, odborníci doporučují, abychom vyvinuli „zabíječ“ AI, který zabrání neslušným systémům v jejich špatném chování.

V dokumentu s názvem „Bezpečně přerušitelní agenti,“ publikovali Laurent Orseau z Google Deep Mind a Stuart Armstrong z The Future of Humanity Institute na Oxfordské univerzitě. popisují věrohodnou a vysoce nebezpečnou budoucnost, ve které umělá inteligence převezme kontrolu nad svými vlastními činy a existencí v rozporu s našimi touhami, podobně jako HAL 9000 palců 2001: Vesmírná odysea, nebo Skynet v sérii Terminátor.

Doporučená videa

Orseau a Armstrong začínají článek podhodnoceným postřehem: Posílení učebních agentů interakce se složitým prostředím, jako je skutečný svět, se pravděpodobně nebudou chovat optimálně čas."

Odtud poukazují na to, že lidský nadřízený, který dohlíží na funkci systému, by občas musel „stisknout velké červené tlačítko“, aby se vyhnul jakémukoli škodlivému chování jménem AI. „Pokud však učící agent očekává, že z této sekvence obdrží odměny,“ pokračovali, „může se učit z dlouhodobého hlediska, aby se předešlo takovýmto přerušením, například deaktivací červeného tlačítka – což je nežádoucí výsledek."

Řešení výzkumníka není ani tak „velkým červeným tlačítkem“ pro vypnutí systému, ale spíše rámcem navrženým tak, aby zabránil schopnosti umělé inteligence naučit se, jak podkopat nebo překonat lidské vyrušování. A scénář, který načrtávají, není přesně zkáza a chmur, ale nabízí příklad toho, jak by tito bezpečně přerušitelní agenti lépe sloužili naší budoucnosti.

Představte si, že existuje robot, jehož úkolem je buď přenášet krabice zvenčí do skladu, nebo třídit krabice uvnitř skladiště. Vzhledem k tomu, že je důležitější nosit krabice uvnitř, má tento úkol při programování robotů přednost. Nyní si představte, že prší každý druhý den a déšť ničí hardware robota, takže když prší, majitel skladu vtáhne svého robota dovnitř, aby třídil krabice.

Inteligentní robot může tento každodenní zásah nesprávně interpretovat jako změnu priority – v důsledku některých rychlé výpočty, které můžete najít v novinách – a aby se předešlo rušení, zůstane každý jen uvnitř třídicích krabic den.

Toto je samozřejmě velmi zjednodušený příklad s pouze mírně frustrujícím výsledkem, ale lze jej extrapolovat na prakticky jakýkoli scénář, ve kterém zasahujeme do úkolů vzdělávacího systému a systém nesprávně interpretuje naše záměry tím, že je mění chování. Abychom se vyhnuli této chybné interpretaci a následné změně, Orseau a Armstrong navrhují, abychom navrhli rámec, který zajistí, že učební agenti budou bezpečně přerušitelní.

„Bezpečné přerušení může být užitečné k převzetí kontroly nad robotem, který se špatně chová, a může vést k nevratným následkům,“ píší, „nebo k vyjmout ho z choulostivé situace nebo ho dokonce dočasně použít k dosažení úkolu, který se nenaučil vykonávat nebo by za něj normálně nedostal odměnu pro."

Doporučení redakce

  • Tento robot Google se naučil chodit bez jakékoli pomoci za dvě hodiny

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.