Rozpoznawanie obrazu AI Ma słabość. To może to naprawić

Prawdopodobnie znasz głębokie podróbki, cyfrowo zmienione „media syntetyczne”, które potrafią oszukać ludzi, aby zobaczyli lub usłyszeli rzeczy, które w rzeczywistości nigdy nie miały miejsca. Kontrowersyjne przykłady są jak deepfakes dla sztucznej inteligencji rozpoznawającej obrazy. systemy — i chociaż nie wydają nam się one ani trochę dziwne, potrafią oszołomić maszyny.

Zawartość

  • Odpieranie ataków przeciwnika
  • Jeszcze więcej pracy do wykonania

Kilka lat temuodkryli, że naukowcy z Laboratorium Informatyki i Sztucznej Inteligencji (CSAIL) Massachusetts Institute of Technology mogliby oszukać nawet wyrafinowane algorytmy rozpoznawania obrazu i wprowadzić w błąd obiekty, po prostu nieznacznie zmieniając ich powierzchnię tekstura. To też nie były drobne pomyłki.

Rozpoznawanie obrazu Żółw rozpoznany jako karabin

Podczas demonstracji naukowcy pokazali, że możliwe jest stworzenie najnowocześniejszej sieci neuronowej, która pozwoli zamiast tego spojrzeć na wydrukowanego w 3D żółwia i zobaczyć karabin. Albo spojrzeć na piłkę baseballową i dojść do wniosku, że to espresso. Gdyby taka agnozja wizualna objawiła się u człowieka, byłby to rodzaj neurologicznego studium przypadku, które znalazłoby się w książce takiej jak klasyk Olivera Sacksa

Mężczyzna, który pomylił swoją żonę z kapeluszem.

Polecane filmy

Kontrowersyjne przykłady ukazują fascynującą słabość, jeśli chodzi o sposób, w jaki wizualna sztuczna inteligencja systemy patrzą na świat. Ale one również, jak można się spodziewać po wadzie, która myli nowatorskiego żółwia z karabinem, są potencjalnie niepokojące. Naukowcy desperacko zastanawiają się, jak załatać ten problem.

Teraz inna grupa badaczy z MIT opracowała nowy system, który może pomóc w uniknięciu „kontradywersyjnych” danych wejściowych. Przy okazji wyobrazili sobie naprawdę przerażający przypadek użycia kontradyktoryjnych przykładów, który, jeśli zostanie wdrożony przez hakerów, może zostać wykorzystany do zabójczych skutków.

Scenariusz jest następujący: samochody autonomiczne coraz lepiej postrzegają otaczający je świat. Ale co by było, gdyby nagle działające w oparciu o dane wizualne kamery pokładowe w samochodzie celowo lub przypadkowo przestały być w stanie zidentyfikować to, co znajdowało się przed nimi? Błędna kategoria obiektu na drodze – na przykład nieprawidłowa identyfikacja i umiejscowienie pieszego – może potencjalnie zakończyć się bardzo, bardzo źle.

Odpieranie ataków przeciwnika

„Nasza grupa od kilku lat pracuje na styku głębokiego uczenia się, robotyki i teorii sterowania – m.in pracować nad wykorzystaniem głębokiego RL [uczenia się przez wzmacnianie] do szkolenia robotów, aby poruszały się w sposób społecznie świadomy wśród pieszych”, Michaela Everetta, badacz ze stopniem doktora na Wydziale Aeronautyki i Astronautyki MIT, powiedział Digital Trends. „Kiedy zastanawialiśmy się, jak przenieść te pomysły na większe i szybsze pojazdy, największym wyzwaniem stały się kwestie bezpieczeństwa i wytrzymałości. Dostrzegliśmy świetną okazję do zbadania tego problemu w głębokim uczeniu się z perspektywy solidnej kontroli i solidnej optymalizacji.

Społecznie świadome planowanie ruchu z głębokim uczeniem się przez wzmacnianie

Uczenie się przez wzmacnianie to podejście do uczenia maszynowego oparte na próbach i błędach, które, jak wiadomo, zostało wykorzystane przez badaczy do aby komputery nauczyły się grać w gry wideo bez wyraźnego pouczenia, jak to zrobić. Nowy algorytm oparty na uczeniu się przez wzmacnianie i głębokiej sieci neuronowej opracowany przez zespół nosi nazwę CARRL, co jest skrótem od Certified Adversarial Robustness for Deep Reinforcement Learning. W istocie jest to A sieć neuronowa z dodatkową dozą sceptycyzmu, jeśli chodzi o to, co widzi.

W ramach jednej demonstracji swojej pracy, wspieranej przez Ford Motor Company, naukowcy zbudowali algorytm uczenia się przez wzmacnianie, dzięki któremu można grać w klasyczną grę Atari Pong. Jednak w przeciwieństwie do poprzednich graczy RL, w ich wersji zastosowali atak kontradyktoryjny, który zrzucił A.I. ocena przez agenta pozycji piłki w grze, sprawiająca wrażenie, że jest ona o kilka pikseli niższa niż w rzeczywistości był. Zwykle oznaczałoby to, że A.I. gracza w bardzo niekorzystnej sytuacji, powodując wielokrotne przegrywanie z komputerowym przeciwnikiem. W tym przypadku jednak agent RL myśli o wszystkich miejscach, w których piłka jest umieszczana mógł być, a następnie umieszcza wiosło w miejscu, w którym nie chybi, niezależnie od zmiany pozycji.

„Ta nowa kategoria solidnych algorytmów głębokiego uczenia się będzie niezbędna do wprowadzenia obiecujących rozwiązań w zakresie sztucznej inteligencji. techniki do realnego świata.”

Oczywiście gry są znacznie bardziej uproszczone niż prawdziwy świat, co Everett chętnie przyznaje.

„Prawdziwy świat charakteryzuje się znacznie większą niepewnością niż gry wideo, wynikającą z niedoskonałych czujników lub ataków kontradyktoryjnych, które mogą wystarczyć, aby oszukać głębokie uczenie się systemy umożliwiające podejmowanie niebezpiecznych decyzji — [takich jak] pomalowanie sprayem kropki na drodze [co może spowodować, że samochód autonomiczny] zjedzie na inny pas” – stwierdził. wyjaśnione. „Nasza praca przedstawia głęboki algorytm RL, który jest z pewnością odporny na niedoskonałe pomiary. Kluczową innowacją jest to, że zamiast ślepo ufać swoim pomiarom, jak ma to miejsce obecnie, nasz algorytm myśli analizuje wszystkie możliwe pomiary, jakie można było przeprowadzić, i podejmuje decyzję, biorąc pod uwagę najgorszy przypadek wynik."

W innej demonstracji wykazano, że algorytm może w kontekście symulowanej jazdy unikać kolizji nawet wtedy, gdy jego czujniki są atakowane przez przeciwnika, który chce, aby agent się zderzył. „Ta nowa kategoria solidnych algorytmów głębokiego uczenia się będzie niezbędna do wprowadzenia obiecujących rozwiązań w zakresie sztucznej inteligencji. technik do prawdziwego świata” – powiedział Everett.

Jeszcze więcej pracy do wykonania

To wciąż początek tej pracy i jest jeszcze wiele do zrobienia. Istnieje również potencjalny problem polegający na tym, że w niektórych scenariuszach może to spowodować, że sztuczna inteligencja zacznie działać. agenta zachowuje się zbyt konserwatywnie, co czyni go mniej skutecznym. Niemniej jednak jest to cenne badanie, które może mieć ogromny wpływ na przyszłość.

„[Istnieją inne projekty badawcze], które koncentrują się na ochronie przed [pewnymi typami] przykładów kontradyktoryjności, gdzie zadaniem sieci neuronowej jest sklasyfikować obraz, a on będzie albo dobry, albo błędny, i na tym historia się zakończy” – powiedział Everett zapytany o klasyczną walkę żółw kontra karabin problem. „Nasza praca opiera się na niektórych z tych pomysłów, ale koncentruje się na uczeniu się przez wzmacnianie, w ramach którego agent musi podjąć działania i otrzymać nagrodę, jeśli dobrze sobie poradzi. Przyglądamy się zatem długoterminowemu pytaniu: „Jeśli powiem, że to żółw, jakie będą przyszłe konsekwencje tej decyzji?” i w tym właśnie przypadku nasz algorytm może naprawdę pomóc. Nasz algorytm wziąłby pod uwagę najgorsze przyszłe konsekwencje wyboru żółwia lub karabinu może być ważnym krokiem w kierunku rozwiązania ważnych problemów związanych z bezpieczeństwem, gdy A.I. decyzje agentów mają charakter długoterminowy efekt."

Artykuł opisujący badania to dostępne do wglądu w elektronicznym repozytorium przedruków arXiv.

Zalecenia redaktorów

  • Analogowa sztuczna inteligencja? Brzmi szalenie, ale może to być przyszłość
  • Oto, co analizująca trendy A.I. uważa, że ​​będzie to kolejna wielka rzecz w technologii
  • Kalifornia ma problem z awarią prądu. Czy gigantyczne baterie przepływowe mogą być rozwiązaniem?
  • Architektura algorytmiczna: czy powinniśmy pozwolić A.I. projektować dla nas budynki?
  • Sztuczna inteligencja wyczuwająca emocje już tu jest i może pojawić się podczas Twojej następnej rozmowy kwalifikacyjnej