Разпознаване на изображения A.I. Има слабост. Това може да го поправи

Вероятно сте запознати с deepfakes, цифрово променената „синтетична медия“, която е в състояние да заблуди хората да видят или чуят неща, които никога не са се случили. Съперническите примери са като deepfakes за разпознаване на изображения A.I. системи – и макар да не ни изглеждат дори малко странни, те са способни да объркат машините.

Съдържание

  • Отблъскване на противникови атаки
  • Предстои още работа

Преди няколко години, изследователи от Лабораторията за компютърни науки и изкуствен интелект (CSAIL) към Масачузетския технологичен институт установиха, че те биха могли да заблудят дори сложни алгоритми за разпознаване на изображения в объркване на обекти, просто като леко променят повърхността им текстура. Това също не бяха дребни обърквания.

Разпознаване на изображение Костенурка, разпозната като пушка

В демонстрацията на изследователите те показаха, че е възможно да се накара авангардна невронна мрежа да гледа 3D отпечатана костенурка и вместо това да вижда пушка. Или да погледнете бейзболна топка и да стигнете до заключението, че е еспресо. Ако подобна зрителна агнозия се прояви в човек, това би бил тип неврологичен казус, който ще намери място в книга като класиката на Оливър Сакс

Мъжът, който обърка жена си с шапка.

Препоръчани видеоклипове

Съперническите примери представляват очарователна уязвимост, когато става въпрос за това как визуалният ИИ. системите гледат на света. Но те също така, както може да се очаква от недостатък, който обърква нова играчка костенурка с пушка, представляват потенциално тревожен. Това е, което изследователите отчаяно измислят как да закърпят.

Сега друга група изследователи от Масачузетския технологичен институт излязоха с нова система, която може да помогне за избягване на „противнически“ входове. В този процес те са си представили откровено ужасяващ случай на използване на състезателни примери, който би могъл, ако бъде приложен от хакери, да бъде използван за смъртоносен ефект.

Сценарият е следният: автономните автомобили стават все по-добри и по-добри във възприемането на света около тях. Но какво ще стане, ако внезапно бордовите камери, базирани на визуален вход в автомобил, или нарочно, или случайно се окажат неспособни да идентифицират какво има пред тях? Грешното категоризиране на обект на пътя - като неуспех при правилно идентифициране и поставяне на пешеходец - може потенциално да завърши много, много зле.

Отблъскване на противникови атаки

„Нашата група работи върху интерфейса на дълбокото обучение, роботиката и теорията за управление от няколко години – включително работа върху използването на задълбочено RL [обучение за укрепване], за да обучите роботи да се движат по социално осъзнат начин около пешеходците,“ Майкъл Еверет, следдокторантски изследовател в Департамента по аеронавтика и астронавтика на MIT, каза пред Digital Trends. „Докато мислехме как да пренесем тези идеи в по-големи и по-бързи превозни средства, въпросите за безопасността и здравината се превърнаха в най-голямото предизвикателство. Видяхме чудесна възможност да проучим този проблем в дълбокото обучение от гледна точка на стабилен контрол и стабилна оптимизация.“

Социално осъзнато планиране на движението с дълбоко подсилващо обучение

Обучението с подсилване е базиран на проба-грешка подход към машинното обучение, който е използван от изследователите за накарайте компютрите да се научат да играят видео игри без да бъде изрично научен как. Новият алгоритъм на екипа за укрепване на обучението и базиран на дълбока невронна мрежа алгоритъм се нарича CARRL, съкращение от Certified Adversarial Robustness for Deep Reinforcement Learning. По същество това е a невронна мрежа с добавена доза скептицизъм, когато става въпрос за това, което вижда.

В една демонстрация на тяхната работа, която беше подкрепена от Ford Motor Company, изследователите изградиха алгоритъм за обучение с подсилване, способен да играе класическата игра Atari Понг. Но за разлика от предишните играчи на RL игра, в тяхната версия те приложиха противникова атака, която отхвърли A.I. оценката на агента за позицията на топката в играта, което го кара да мисли, че е с няколко пиксела по-ниско от действителното беше. Обикновено това би поставило A.I. играч в голямо неизгодно положение, което го кара да губи многократно от компютърния опонент. В този случай обаче агентът на RL мисли за всички места на топката бих могъл бъде и след това поставя греблото някъде, където няма да пропусне, независимо от промяната в позицията.

„Тази нова категория стабилни алгоритми за задълбочено обучение ще бъде от съществено значение за предоставянето на обещаващ ИИ. техники в реалния свят."

Разбира се, игрите са много по-опростени от реалния свят, както Еверет с готовност признава.

„Реалният свят има много повече несигурност от видеоигрите, от несъвършени сензори или състезателни атаки, които могат да бъдат достатъчни, за да подмамят дълбокото обучение системи за вземане на опасни решения - [като] боядисване със спрей на точка на пътя [което може да накара самоуправляваща се кола] да завие в друга лента," той обясни. „Нашата работа представя дълбок RL алгоритъм, който е сертифицирано стабилен до несъвършени измервания. Ключовата иновация е, че вместо да се доверява сляпо на своите измервания, както се прави днес, нашият алгоритъм мисли чрез всички възможни измервания, които биха могли да бъдат направени, и взема решение, което отчита най-лошия случай резултат.”

В друга демонстрация те показаха, че алгоритъмът може, в симулиран контекст на шофиране, да избягва сблъсъци, дори когато неговите сензори са атакувани от противник, който иска агентът да се сблъска. „Тази нова категория стабилни алгоритми за задълбочено обучение ще бъде от съществено значение за предоставянето на обещаващ ИИ. техники в реалния свят“, каза Еверет.

Предстои още работа

Все още е рано за тази работа и има още какво да се направи. Съществува и потенциален проблем, че това може, в някои сценарии, да причини A.I. агентът да се държи твърде консервативно, като по този начин го прави по-малко ефективен. Независимо от това, това е ценно изследване, което може да има дълбоко въздействие в бъдеще.

„[Има други изследователски проекти], които се фокусират върху защита срещу [определени видове] състезателен пример, където работата на невронната мрежа е да класифицирате изображение и то е правилно [или] грешно и историята свършва дотук“, каза Еверет, когато го попитаха за класическата костенурка срещу пушка проблем. „Работата ни се основава на някои от тези идеи, но е фокусирана върху обучението за подсилване, при което агентът трябва да предприеме действия и получава известна награда, ако се справи добре. Така че разглеждаме по-дългосрочен въпрос „Ако кажа, че това е костенурка, какви са бъдещите последици от това решение?“ и тук нашият алгоритъм наистина може да помогне. Нашият алгоритъм би помислил за най-лошия случай на бъдещи последици от избора на костенурка или пушка, които може да бъде важна стъпка към решаването на важни проблеми със сигурността, когато A.I. решенията на агентите са дългосрочни ефект.”

Документ, описващ изследването, е достъпен за четене в електронното хранилище за предпечат arXiv.

Препоръки на редакторите

  • Аналогов AI? Звучи налудничаво, но това може да е бъдещето
  • Ето какво анализира тенденцията A.I. смята, че ще бъде следващото голямо нещо в технологиите
  • Калифорния има проблем със затъмнението. Могат ли батериите с гигантски поток да бъдат решението?
  • Алгоритмична архитектура: Трябва ли да оставим A.I. проектират сгради за нас?
  • Емоционален ИИ е тук и може да бъде на следващото ви интервю за работа