Розпізнавання зображень А.І. Має слабкість. Це може виправити

Ви, мабуть, знайомі deepfakes, цифрово змінений «синтетичний медіа», який здатний обдурити людей, щоб вони побачили або почули те, чого насправді ніколи не було. Змагальні приклади схожі на дипфейки для розпізнавання образів A.I. системи — і хоча вони не виглядають нам навіть трохи дивними, вони здатні збити з пантелику машини.

Зміст

  • Відбиваючись від атак противника
  • Попереду ще багато роботи

Кілька років тому, дослідники з Лабораторії комп’ютерних наук і штучного інтелекту Массачусетського технологічного інституту (CSAIL) виявили, що вони могли ввести в оману навіть складні алгоритми розпізнавання зображень, щоб заплутати об’єкти, просто трохи змінивши їх поверхню текстура. Це також не були дрібні плутанини.

Розпізнавання зображень Черепаху розпізнають як гвинтівку

Під час демонстрації дослідників вони показали, що можна змусити передову нейронну мережу дивитися на надруковану на 3D-принтері черепаху, а замість неї бачити гвинтівку. Або дивитися на бейсбольний м'яч і прийти до висновку, що це еспресо. Якби така зорова агнозія виявилася в людини, це був би неврологічний приклад, який потрапив би в книжку, подібну до класичної книги Олівера Сакса.

Чоловік, який переплутав свою дружину з капелюхом.

Рекомендовані відео

Змагальні приклади представляють захоплюючу вразливість, коли мова йде про те, як візуальний штучний інтелект. системи бачення світу. Але вони також, як і можна було очікувати від недоліку, який плутає нову іграшкову черепаху з гвинтівкою, представляють потенційно тривожний недолік. Дослідники відчайдушно шукали, як її виправити.

Тепер інша група дослідників з Массачусетського технологічного інституту розробила нову систему, яка може допомогти уникнути «змагальних» вводів. У процесі вони уявили відверто жахливий варіант використання змагальних прикладів, який, якщо його запровадять хакери, може бути використаний для смертельних наслідків.

Сценарій такий: автономні автомобілі все краще і краще сприймають навколишній світ. Але що, якби раптом бортові камери в автомобілі на основі візуального введення навмисне або випадково стали нездатними визначити, що перед ними? Неправильна класифікація об’єкта на дорозі — наприклад, неправильне визначення та розміщення пішохода — потенційно може закінчитися дуже й дуже погано.

Відбиваючись від атак противника

«Наша група працює над інтерфейсом глибинного навчання, робототехніки та теорії управління протягом кількох років — у тому числі працювати над використанням глибокого RL [навчання з підкріпленням], щоб навчити роботів соціально свідомо орієнтуватися навколо пішоходів», Майкл Еверетт, докторант Департаменту аеронавтики та астронавтики Массачусетського технологічного інституту, розповів Digital Trends. «Коли ми думали про те, як перенести ці ідеї на більші та швидші транспортні засоби, питання безпеки та надійності стали найбільшою проблемою. Ми побачили чудову можливість вивчити цю проблему в глибокому навчанні з точки зору надійного контролю та надійної оптимізації».

Соціально обізнане планування руху з глибоким підкріпленням

Навчання з підкріпленням – це підхід до машинного навчання на основі проб і помилок, який, як відомо, використовувався дослідниками для отримати комп’ютери, щоб навчитися грати у відеоігри без чіткого пояснення, як. Новий алгоритм навчання з підкріпленням і глибокої нейронної мережі, створений командою, називається CARRL, скорочення від Certified Adversarial Robustness for Deep Reinforcement Learning. По суті, це а нейронна мережа з додатковою дозою скептицизму, коли справа доходить до того, що він бачить.

Під час однієї демонстрації своєї роботи, яку підтримала Ford Motor Company, дослідники створили алгоритм навчання з підкріпленням, здатний грати в класичну гру Atari Понг. Але, на відміну від попередніх гравців гри RL, у своїй версії вони застосували змагальну атаку, яка відкинула ШІ. оцінка агентом позиції м’яча в грі, змушуючи його думати, що він був на кілька пікселів нижче, ніж насправді був. Як правило, це поставило б A.I. гравець у значно невигідному становищі, через що він неодноразово програє комп’ютерному супернику. У цьому випадку, однак, агент RL думає про всі місця м'яча міг би бути, а потім розміщує весло кудись, де воно не промахнеться незалежно від зміни положення.

«Ця нова категорія надійних алгоритмів глибокого навчання буде необхідною для впровадження багатообіцяючого штучного інтелекту. техніки в реальний світ».

Звичайно, ігри набагато спрощені, ніж реальний світ, як Еверетт охоче визнає.

«У реальному світі набагато більше невизначеності, ніж у відеоіграх, через недосконалі датчики чи агресивні атаки, яких може бути достатньо, щоб обдурити глибоке навчання. системи для прийняття небезпечних рішень — [наприклад] малювання крапки на дорозі [що може змусити безпілотний автомобіль] звернути на іншу смугу», — сказав він. пояснив. «Наша робота представляє глибокий алгоритм RL, який сертифіковано стійкий до недосконалих вимірювань. Ключова інновація полягає в тому, що замість того, щоб сліпо довіряти своїм вимірюванням, як це робиться сьогодні, наш алгоритм вважає через усі можливі вимірювання, які могли бути зроблені, і приймає рішення, яке враховує найгірший випадок результат».

В іншій демонстрації вони показали, що алгоритм може у симульованому контексті водіння уникати зіткнень, навіть якщо його датчики атакує супротивник, який хоче, щоб агент зіткнувся. «Ця нова категорія надійних алгоритмів глибокого навчання буде необхідною для впровадження багатообіцяючого штучного інтелекту. техніки в реальний світ», – сказав Еверетт.

Попереду ще багато роботи

Це все ще рано для цієї роботи, і є ще багато, що потрібно зробити. Існує також потенційна проблема, що це може, у деяких сценаріях, спричинити A.I. агент поводитися занадто консервативно, що робить його менш ефективним. Тим не менш, це цінна частина дослідження, яка може мати глибокий вплив на майбутнє.

«[Існують інші дослідницькі проекти], які зосереджені на захисті від [певних типів] змагальності, де робота нейронної мережі полягає в класифікувати зображення, і воно або правильне [або] неправильне, і історія на цьому закінчується», – сказав Еверетт, коли його запитали про класичну боротьбу «черепаха проти гвинтівки». проблема. «Наша робота спирається на деякі з цих ідей, але зосереджена на навчанні з підкріпленням, коли агент повинен вжити заходів і отримати певну винагороду, якщо це вдасться. Отже, ми розглядаємо довгострокове запитання: «Якщо я скажу, що це черепаха, які майбутні наслідки цього рішення?», і тут наш алгоритм може дійсно допомогти. Наш алгоритм думатиме про найгірші майбутні наслідки вибору або черепахи, або гвинтівки, які може стати важливим кроком до вирішення важливих проблем безпеки, коли ШІ. рішення агентів мають довгостроковий характер ефект».

Стаття з описом дослідження є доступний для читання в електронному репозиторії препринтів arXiv.

Рекомендації редакції

  • Аналоговий ШІ? Це звучить божевільно, але це може бути майбутнє
  • Ось що аналізує тенденції A.I. думає, що це буде наступна велика річ у техніці
  • У Каліфорнії проблема з відключенням світла. Чи можуть гігантські батареї бути рішенням?
  • Алгоритмічна архітектура: чи повинні ми дозволити А.І. проектувати будівлі для нас?
  • Чуттєвий А.І. тут, і це може бути під час вашої наступної співбесіди