Beeldherkenning A.I. Heeft een zwakte. Dit zou het probleem kunnen verhelpen

Je bent er waarschijnlijk bekend mee deepfakes, de digitaal veranderde ‘synthetische media’ die mensen voor de gek kunnen houden zodat ze dingen zien of horen die nooit echt zijn gebeurd. Tegenstrijdige voorbeelden zijn als deepfakes voor A.I. systemen – en ook al zien ze er voor ons niet eens vreemd uit, ze zijn wel in staat om machines voor de gek te houden.

Inhoud

  • Het afweren van vijandige aanvallen
  • Er moet nog meer werk worden verricht

Een aantal jaar geledenDat ontdekten onderzoekers van het Computer Science and Artificial Intelligence Laboratory (CSAIL) van het Massachusetts Institute of Technology ze zouden zelfs geavanceerde beeldherkenningsalgoritmen kunnen misleiden om objecten te verwarren door simpelweg hun oppervlak enigszins te veranderen textuur. Dit waren ook geen kleine verwisselingen.

Beeldherkenning Schildpad herkend als geweer

In de demonstratie van de onderzoekers lieten ze zien dat het mogelijk was om een ​​geavanceerd neuraal netwerk te gebruiken om naar een 3D-geprinte schildpad te kijken en in plaats daarvan een geweer te zien. Of naar een honkbal staren en tot de conclusie komen dat het een espresso is. Als een dergelijke visuele agnosie zich bij een mens zou manifesteren, zou dit het soort neurologische casestudy zijn dat zijn weg zou vinden naar een boek als de klassieker van Oliver Sacks.

De man die zijn vrouw voor een hoed hield.

Aanbevolen video's

Tegenstrijdige voorbeelden vertegenwoordigen een fascinerende kwetsbaarheid als het gaat om hoe visuele A.I. systemen kijken naar de wereld. Maar ze vertegenwoordigen ook, zoals je zou verwachten van een fout die een nieuwe speelgoedschildpad met een geweer verwart, een potentieel alarmerende fout. Het is er een waar onderzoekers wanhopig naar hebben gezocht hoe ze deze kunnen patchen.

Nu heeft een andere groep onderzoekers van MIT een nieuw systeem bedacht dat zou kunnen helpen ‘vijandige’ input te ontwijken. Daarbij hebben ze een ronduit angstaanjagend gebruiksscenario voor vijandige voorbeelden bedacht, een scenario dat, indien geïmplementeerd door hackers, met dodelijke gevolgen zou kunnen worden gebruikt.

Het scenario is als volgt: autonome auto's worden steeds beter in het waarnemen van de wereld om hen heen. Maar wat als de op visuele input gebaseerde camera's in een auto plotseling opzettelijk of per ongeluk niet meer zouden kunnen identificeren wat zich voor hen bevond? Het verkeerd categoriseren van een object op de weg – zoals het niet correct identificeren en plaatsen van een voetganger – kan mogelijk heel, heel slecht aflopen.

Het afweren van vijandige aanvallen

“Onze groep werkt al enkele jaren op het grensvlak van deep learning, robotica en controletheorie werken aan het gebruik van deep RL [reinforcement learning] om robots te trainen om op een sociaal bewuste manier rond voetgangers te navigeren,” Michaël Everett, een postdoctoraal onderzoeker bij het MIT Department of Aeronautics and Astronautics, aan Digital Trends. “Terwijl we erover nadachten hoe we deze ideeën op grotere en snellere voertuigen konden toepassen, werden de vragen over veiligheid en robuustheid de grootste uitdaging. We zagen een geweldige kans om dit probleem bij deep learning te bestuderen vanuit het perspectief van robuuste controle en robuuste optimalisatie.”

Sociaal bewuste bewegingsplanning met diepgaand versterkend leren

Reinforcement learning is een op vallen en opstaan ​​gebaseerde benadering van machinaal leren die, zoals bekend, door onderzoekers is gebruikt om zorg dat computers videogames leren spelen zonder expliciet te leren hoe. Het nieuwe versterkende leren en het op diepe neurale netwerken gebaseerde algoritme van het team heet CARRL, een afkorting van Certified Adversarial Robustness for Deep Reinforcement Learning. In wezen is het een neuraal netwerk met een extra dosis scepsis als het gaat om wat het ziet.

In één demonstratie van hun werk, die werd ondersteund door de Ford Motor Company, bouwden de onderzoekers een versterkend leeralgoritme dat het klassieke Atari-spel kon spelen. Pong. Maar in tegenstelling tot eerdere RL-gamespelers pasten ze in hun versie een vijandige aanval toe die de A.I. de inschatting van de balpositie van het spel door de agent, waardoor hij dacht dat deze een paar pixels lager was dan hij in werkelijkheid was was. Normaal gesproken zou dit de A.I. speler met een groot nadeel, waardoor deze herhaaldelijk verliest van de computertegenstander. In dit geval denkt de RL-agent echter na over alle plaatsen waar de bal ligt zou kunnen zijn, en plaatst de peddel vervolgens ergens waar hij niet kan missen, ongeacht de positieverandering.

“Deze nieuwe categorie van robuuste deep learning-algoritmen zal essentieel zijn om veelbelovende A.I. technieken naar de echte wereld.”

Natuurlijk zijn games veel eenvoudiger dan de echte wereld, zoals Everett grif toegeeft.

“De echte wereld kent veel meer onzekerheid dan videogames, van imperfecte sensoren of vijandige aanvallen, wat genoeg kan zijn om deep learning te misleiden systemen om gevaarlijke beslissingen te nemen – [zoals] het spuiten van een stip op de weg [waardoor een zelfrijdende auto] naar een andere rijstrook kan uitwijken”, zegt hij uitgelegd. “Ons werk presenteert een diep RL-algoritme dat aantoonbaar robuust is voor imperfecte metingen. De belangrijkste innovatie is dat ons algoritme denkt, in plaats van blindelings te vertrouwen op de metingen, zoals vandaag de dag gebeurt door alle mogelijke metingen heen die gedaan hadden kunnen worden, en neemt een beslissing die rekening houdt met het slechtste geval resultaat."

In een andere demonstratie lieten ze zien dat het algoritme, in een gesimuleerde rijcontext, botsingen kan vermijden, zelfs wanneer de sensoren worden aangevallen door een tegenstander die wil dat de agent botst. “Deze nieuwe categorie van robuuste deep learning-algoritmen zal essentieel zijn om veelbelovende A.I. technieken naar de echte wereld,” zei Everett.

Er moet nog meer werk worden verricht

Het is nog te vroeg voor dit werk en er moet nog meer worden gedaan. Er is ook het potentiële probleem dat dit in sommige scenario’s ertoe kan leiden dat de A.I. agent zich te conservatief gedraagt, waardoor deze minder efficiënt wordt. Niettemin is het een waardevol onderzoek dat in de toekomst diepgaande gevolgen kan hebben.

“[Er zijn andere onderzoeksprojecten] die zich richten op bescherming tegen [bepaalde soorten] vijandige voorbeelden, waarbij het de taak van het neurale netwerk is om classificeer een afbeelding en het is goed [of] fout, en het verhaal eindigt daar”, zei Everett, toen hem werd gevraagd naar de klassieke schildpad-tegen-geweer probleem. “Ons werk bouwt voort op een aantal van die ideeën, maar is gericht op versterkend leren, waarbij de agent actie moet ondernemen en een beloning krijgt als hij het goed doet. We kijken dus naar de langere termijnvraag: ‘Als ik zeg dat dit een schildpad is, wat zijn dan de toekomstige implicaties van die beslissing?’ en dat is waar ons algoritme echt kan helpen. Ons algoritme zou nadenken over de toekomstige implicaties in het ergste geval van het kiezen van een schildpad of een geweer zou een belangrijke stap kunnen zijn in de richting van het oplossen van belangrijke veiligheidsproblemen wanneer A.I. De beslissingen van agenten hebben een lange termijn effect."

Er is een artikel waarin het onderzoek wordt beschreven beschikbaar om te lezen op de elektronische preprint-repository arXiv.

Aanbevelingen van de redactie

  • Analoge AI? Het klinkt gek, maar het zou de toekomst kunnen zijn
  • Dit is wat een trendanalyserende A.I. denkt dat dit de volgende grote stap in de technologie zal zijn
  • Cailifornia heeft een black-outprobleem. Zouden gigantische stroombatterijen de oplossing kunnen zijn?
  • Algoritmische architectuur: moeten we A.I. gebouwen voor ons ontwerpen?
  • Emotiegevoelige A.I. is hier, en het zou in je volgende sollicitatiegesprek kunnen zijn