„Превключвател за изключване“ може да гарантира, че AI се държи

nestor ai обръща внимание на изкуствения интелект
Ами ако загубим господство над изкуствения интелект? Какво ще стане, ако приятелските машини, управлявани от AI, внезапно станат наши врагове? Тези въпроси са разглеждани от велики умове от университета в Кеймбридж до Силиконовата долина Бялата къща. За да избегнем някога да се налага да разберем, експертите ни предлагат да разработим AI „превключвател за изключване“, за да попречим на неправилно работещи системи да преследват лошото си поведение.

В документ, озаглавен „Безопасно прекъсваеми агенти”, публикуван от Лоран Орсо от Google Deep Mind и Стюарт Армстронг от Института за бъдещето на човечеството към Оксфордския университет, изследователите описват правдоподобно и изключително опасно бъдеще, в което AI поема контрола върху собствените си действия и съществуване в противовес на нашите желания, подобно на HAL 9000 инча 2001: Космическа одисея, или Skynet в поредицата Терминатор.

Препоръчани видеоклипове

Орсо и Армстронг започват статията с подценено наблюдение: агенти за засилване на обучението взаимодействайки със сложна среда като реалния свят, е малко вероятно да се държат оптимално всички време.”

От там те посочват, че човек-надзорник, който наблюдава функцията на системата, понякога ще трябва да „натисне големия червен бутон“, за да избегне вредно поведение от страна на ИИ. „Въпреки това, ако обучаващият агент очаква да получи награди от тази последователност“, продължиха те, „той може да научи в в дългосрочен план, за да избегнете подобни прекъсвания, например чрез деактивиране на червения бутон - което е нежелателно резултат.”

Решението на изследователя е по-малко „голям червен бутон“ за изключване на системата, отколкото рамка, предназначена да попречи на способността на AI да се научи как да подкопава или преодолява човешко прекъсване. И сценарият, който те очертават, не е точно гибел и мрак, но предлага пример за това как тези безопасно прекъсваеми агенти биха служили по-добре на нашето бъдеще.

Представете си, че има робот, чиито задачи са или да пренася кутии отвън в склада, или да сортира кутии вътре в склада. Тъй като е по-важно да носите кутиите вътре, на тази задача се дава приоритет при програмирането на роботите. Сега си представете, че вали през ден и дъждът унищожава хардуера на робота, така че когато вали, собственикът на склада влачи робота си вътре, за да сортира кутиите.

Интелигентен робот може неправилно да интерпретира тази всекидневна намеса като промяна в приоритета - в резултат на някои бързи изчисления, които можете да намерите във вестника - и за да избегнете смущения, той просто ще остава в кутиите за сортиране всеки ден.

Това, разбира се, е силно опростен пример с леко разочароващ резултат, но може да се екстраполира до практически всеки сценарий, при който се намесваме в задачите на учебната система и системата тълкува погрешно нашите намерения, като променя своите поведение. За да се избегне това погрешно тълкуване и последваща промяна, Орсо и Армстронг предлагат да предложим рамка, която да гарантира, че агентите за обучение са безопасно прекъсваеми.

„Безопасното прекъсване може да бъде полезно за поемане на контрол над робот, който се държи неправилно и може да доведе до необратими последици“, пишат те, „или до да го извадите от деликатна ситуация или дори да го използвате временно за постигане на задача, която не се е научил да изпълнява или обикновено не би получил награди за."

Препоръки на редакторите

  • Този робот на Google се научи да ходи без никаква помощ за два часа

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.