Препознавање слика А.И. Има слабост. Ово би то могло да поправи

Вероватно сте упознати са деепфакес, дигитално измењени „синтетички медиј“ који је у стању да завара људе да виде или чују ствари које се заправо никада нису ни десиле. Супарнички примери су попут деепфакес-а за А.И. система - и иако нам не изгледају ни мало чудно, они су у стању да збуне машине.

Садржај

  • Одбијање непријатељских напада
  • Још посла треба урадити

Пре неколико година, истраживачи из Лабораторије за рачунарске науке и вештачку интелигенцију Масачусетског института за технологију (ЦСАИЛ) открили су да могли би да преваре чак и софистициране алгоритме за препознавање слика у збуњујуће објекте једноставним незнатним изменама њихове површине текстура. Ни то нису биле мање забуне.

Препознавање слике Корњача препозната као пушка

У демонстрацији истраживача, показали су да је могуће добити најсавременију неуронску мрежу да погледа 3Д штампану корњачу и уместо тога види пушку. Или да се загледате у бејзбол лопту и дођете до закључка да је то еспресо. Да се ​​таква визуелна агносија манифестује код човека, то би била врста неуролошке студије случаја која би се нашла у књизи попут класика Оливера Сакса

Човек који је своју жену заменио за шешир.

Препоручени видео снимци

Примери супротстављања представљају фасцинантну рањивост када је реч о томе како визуелни А.И. системи гледају на свет. Али они такође, као што можете очекивати од грешке која збуњује нову играчку корњачу са пушком, представљају потенцијално алармантну. То је оно што истраживачи очајнички смишљају како да закрпе.

Сада је друга група истраживача са МИТ-а осмислила нови систем који би могао да помогне да се избегну „супарнички“ инпути. У том процесу, они су замислили искрено застрашујући случај употребе супротстављених примера, који би, ако га имплементирају хакери, могли да искористе за смртоносне ефекте.

Сценарио је следећи: аутономни аутомобили постају све бољи и бољи у сагледавању света око себе. Али шта ако изненада, уграђене камере засноване на визуелном улазу у аутомобилу или намерно или случајно не могу да идентификују шта се налази испред њих? Погрешна категоризација објекта на путу – као што је неуспех да се правилно идентификује и постави пешак – може потенцијално да се заврши веома, веома лоше.

Одбијање непријатељских напада

„Наша група ради на интерфејсу дубоког учења, роботике и теорије управљања већ неколико година – укључујући радити на коришћењу дубоког РЛ [учење са појачањем] за обуку робота да се крећу на друштвено свестан начин око пешака,“ Мицхаел Еверетт, постдокторски истраживач на МИТ Одељењу за аеронаутику и астронаутику, рекао је за Дигитал Трендс. „Док смо размишљали о томе како да те идеје пренесемо на већа и бржа возила, питања безбедности и робусности постала су највећи изазов. Видели смо одличну прилику да проучавамо овај проблем у дубоком учењу из перспективе робусне контроле и робусне оптимизације.”

Друштвено свесно планирање покрета са учењем дубоког појачања

Учење са појачањем је приступ машинском учењу заснован на покушајима и грешкама који су, славно, истраживачи користили да набавите рачунаре да научите да играте видео игрице а да није изричито поучен како. Ново учење са појачањем и алгоритам заснован на дубоким неуронским мрежама назива се ЦАРРЛ, скраћено од Цертифиед Адверсариал Робустнесс фор Дееп Реинфорцемент Леарнинг. У суштини, то је а неуронске мреже са додатном дозом скептицизма када је у питању оно што види.

У једној демонстрацији свог рада, коју је подржала Форд Мотор Цомпани, истраживачи су изградили алгоритам за учење појачања који може да игра класичну Атари игру Понг. Али, за разлику од претходних играча РЛ игре, у њиховој верзији, они су применили противнички напад који је одбацио А.И. агентова процена положаја лопте у игри, што га наводи да мисли да је неколико пиксела нижа него што је заправо био. Нормално, ово би ставило А.И. играч у великом недостатку, што га доводи до тога да више пута губи од компјутерског противника. У овом случају, међутим, РЛ агент размишља о свим местима на којима лопта могао бити, а затим поставља весло негде где неће промашити без обзира на промену положаја.

„Ова нова категорија робусних алгоритама дубоког учења биће од суштинског значаја за стварање обећавајуће АИ. технике у стварни свет.”

Наравно, игре су много поједностављене од стварног света, као што Еверет спремно признаје.

„Прави свет има много више несигурности од видео игара, од несавршених сензора или непријатељских напада, што може бити довољно да се превари дубоко учење системе за доношење опасних одлука — [као што је] фарбање тачке на путу [што може довести до тога да аутомобил који се самостално вози] скрене у другу траку“, он објаснио. „Наш рад представља дубоки РЛ алгоритам који је поуздано робустан до несавршених мерења. Кључна иновација је у томе што наш алгоритам, уместо да слепо верује својим мерењима, као што је то данас, мисли кроз сва могућа мерења која су се могла извршити и доноси одлуку која узима у обзир најгори случај исход."

У другој демонстрацији, показали су да алгоритам може, у контексту симулиране вожње, да избегне сударе чак и када су његови сензори нападнути од стране противника који жели да се агент судари. „Ова нова категорија робусних алгоритама дубоког учења биће од суштинског значаја за стварање обећавајуће АИ. технике у стварни свет“, рекао је Еверет.

Још посла треба урадити

Још увек су рани дани за овај посао, а има још тога што треба да се уради. Постоји и потенцијални проблем да би то, у неким сценаријима, могло да изазове А.И. да би се агент понашао превише конзервативно, што га чини мање ефикасним. Без обзира на то, то је драгоцено истраживање које би могло имати дубок утицај у будућности.

„[Постоје и други истраживачки пројекти] који се фокусирају на заштиту од [одређених врста] супарничких примера, где је посао неуронске мреже да класификујте слику и она је или тачна [или] погрешна, и прича се ту завршава“, рекао је Еверет, упитан о класичној корњачи против пушке проблем. „Наш рад се заснива на неким од тих идеја, али је фокусиран на учење са појачањем, где агент мора да предузме акције и добије неку награду ако добро ради. Дакле, гледамо на дугорочно питање „Ако кажем да је ово корњача, које су будуће импликације те одлуке?“ и ту наш алгоритам заиста може помоћи. Наш алгоритам би размишљао о најгорим будућим импликацијама избора или корњаче или пушке, што може бити важан корак ка решавању важних безбедносних питања када А.И. одлуке агената имају дугорочну ефекат.”

Рад који описује истраживање је доступно за читање у електронском спремишту препринта арКсив.

Препоруке уредника

  • Аналогни А.И.? Звучи лудо, али то би могла бити будућност
  • Ево шта АИ анализира трендове. мисли да ће бити следећа велика ствар у техници
  • Цаилифорниа има проблем са замрачењем. Да ли би џиновске батерије могле бити решење?
  • Алгоритамска архитектура: треба ли дозволити А.И. дизајнирати зграде за нас?
  • Осећајући емоције А.И. је овде, и то би могло бити на вашем следећем интервјуу за посао