Șapca de baseball cu LED este capabilă să păcălească tehnologia recunoașterii faciale

Zhe Zhou

Zhe Zhou

Există un impuls constant când vine vorba de noile tehnologii legate de securitate. Cercetătorii vor inventa un nou sistem de securitate, doar pentru ca alții să găsească o modalitate de a-l ocoli, înainte ca alții să vină și să găsească o modalitate de a-l consolida și mai mult. Acesta este un cerc vicios și cu siguranță se aplică software-ului de recunoaștere facială, care este acum utilizat pe scară largă în orice, de la securitatea aeroportului până la deblocarea noastră. Telefoane iPhone X.

A proiect nou realizat de cercetători din China amenință să-l submineze, totuși, prin crearea unui LED-studded șapcă de baseball, care este capabilă să păcălească sistemele de recunoaștere facială să creadă că ești o altă persoană în întregime. Hackul inteligent (dar înfricoșător) implică proiectarea unor puncte de lumină în infraroșu pe fața unei persoane, care sunt apoi detectate de camerele de recunoaștere facială și interpretate greșit ca detalii faciale. Într-o demonstrație, cercetătorii au reușit să păcălească camerele de recunoaștere facială făcându-le să creadă că o persoană este altcineva (inclusiv cântăreața Moby) cu o precizie de peste 70 la sută.

pălărie cu recunoaștere facială infraroșu 321434
pălărie cu recunoaștere facială infraroșu 321433
pălărie cu recunoaștere facială infraroșu 321435
pălărie cu recunoaștere facială infraroșu 321432

„Prin lansarea acestui tip de atac, un atacator nu numai că poate eschiva camerele de supraveghere; mai important, el își poate uzurpa identitatea victimei țintă și poate trece sistemul de autentificare a feței, dacă doar fotografia victimei este achiziționată de către atacator”, cercetătorii. scrieți într-o lucrare disponibilă publicului. „... Atacul este total neobservabil de oamenii din apropiere, pentru că nu numai lumina este invizibilă, dar și dispozitivul pe care l-am făcut pentru a lansa atacul este suficient de mic. Potrivit studiului nostru pe un set mare de date, atacatorii au... [o] rată de succes de peste 70 la sută pentru a găsi un astfel de exemplu advers care poate fi implementat prin infraroșu.”

Videoclipuri recomandate

Acesta nu este singurul exemplu similar de așa-numite „obiecte adversare” pe care l-am întâlnit. Am acoperit anterior ochelari adversari care sunt capabili să facă oamenii de nerecunoscut la recunoașterea facială și o modalitate de a modifica texturile pe un obiect tipărit în trei pentru a realiza, de exemplu, sisteme de recunoaștere a imaginii identificați o țestoasă imprimată 3D ca o pușcă.

Deși cel mai recent studiu din China nu a fost revizuit de colegi și, prin urmare, nu putem garanta rezultatele, se pare că tot mai multe exemple evidențiază potențialele slăbiciuni ale recunoașterii computaționale a imaginilor.

Recomandările editorilor

  • Tehnologia de recunoaștere facială pentru urși își propune să mențină oamenii în siguranță
  • Portland interzice utilizarea privată și publică a tehnologiei de recunoaștere facială
  • Amazon interzice poliției să folosească tehnologia de recunoaștere facială Rekognition timp de 1 an
  • Tehnologia de recunoaștere facială a poliției ar putea identifica greșit oamenii la proteste, spun experții
  • Recunoașterea facială a armatei americane ar putea identifica oamenii de la 1 km distanță

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.