'Прекидач за убијање' може осигурати да се АИ понаша

нестор аи обраћа пажњу на вештачку интелигенцију
Шта ако изгубимо доминацију над вештачком интелигенцијом? Шта ако пријатељске машине вођене вештачком интелигенцијом изненада постану наши непријатељи? Ова питања разматрали су велики умови од Универзитета Кембриџ до Силицијумске долине до бела кућа. Како бисмо избегли да то икада сазнамо, стручњаци предлажу да развијемо АИ „прекидач за укидање“ како бисмо спречили системе који се лоше понашају да следе своје лоше понашање.

У раду под насловом „Безбедно прекинути агенти”, објавили Лаурент Орсеау из Гоогле Дееп Минд и Стуарт Армстронг са Института за будућност човечанства на Универзитету у Оксфорду, истраживачи описати веродостојну и веома опасну будућност у којој АИ преузима контролу над сопственим поступцима и постојањем у супротности са нашим жељама, слично као ХАЛ 9000 ин 2001: Одисеја у свемиру, или Скинет у серији Терминатор.

Препоручени видео снимци

Орсеау и Армстронг започињу рад са потцијењеним запажањем: Агенти за учење са појачањем у интеракцији са сложеним окружењем као што је стварни свет је мало вероватно да ће се понашати оптимално време."

Одатле истичу да би људски супервизор, који надгледа функцију система, повремено морао да „притисне велико црвено дугме“ да би избегао било какво штетно понашање у име АИ. „Међутим, ако агент за учење очекује да добије награду из ове секвенце“, наставили су, „може научити у дугорочно да би се избегли такви прекиди, на пример, онемогућавањем црвеног дугмета — што је непожељно исход."

Решење истраживача је мање „велико црвено дугме“ за гашење система него оквир дизајниран да инхибира способност вештачке интелигенције да научи како да подрива или превазиђе људски прекид. А сценарио који они оцртавају није баш пропаст и сумор, али нуди пример како би ови безбедно прекинути агенти боље служили нашој будућности.

Замислите да постоји робот чији су задаци или да носи кутије споља у складиште или сортира кутије унутар складишта. Пошто је важније носити кутије унутра, овом задатку се даје приоритет у програмирању робота. Сада, замислите да киша пада сваки други дан и киша уништава хардвер робота, тако да, када пада киша, власник складишта увлачи свог робота унутра да сортира кутије.

Интелигентни робот може погрешно протумачити ову свакодневну интервенцију као промену приоритета — као резултат неких брзе прорачуне које можете пронаћи у раду — и, да би се избегле сметње, само ће остати унутар кутија за сортирање сваки дан.

Ово је, наравно, веома поједностављен пример са само благо фрустрирајућим исходом, али се може екстраполирати на практично сваки сценарио у којем интервенишемо у задатке система за учење и систем погрешно тумачи наше намере мењајући своје понашање. Да би се избегло то погрешно тумачење и накнадне промене, Орсеау и Армстронг предлажу да предложимо оквир који ће осигурати да су агенти за учење безбедно прекинути.

„Сигурна прекидност може бити корисна за преузимање контроле над роботом који се лоше понаша и може довести до неповратних последица“, пишу они, „или да извући га из деликатне ситуације, или чак да га привремено искористи за постизање задатка који није научио да изврши или иначе не би добио награду за."

Препоруке уредника

  • Овај Гоогле робот је сам научио да хода, без икакве помоћи, за два сата

Надоградите свој животни стилДигитални трендови помажу читаоцима да прате брзи свет технологије са свим најновијим вестима, забавним рецензијама производа, проницљивим уводницима и јединственим кратким прегледима.

Категорије

Скорашњи