Autocolante roșii minuscule au păcălit software-ul pilot automat al Tesla

Promisiunea vehiculelor autonome include ideea că mașinile cu piloți robotici la cârmă ne vor putea ține mai în siguranță. Cu cât sunt mai multe mașini autonome pe drum, cu atât este mai puțin probabil să apară o eroare cauzată de om. Desigur, dacă acele sisteme autonome suferă de probleme proprii, atunci ne pun în pericol în alte moduri. Cercetătorii de la Tencent Keen Security Lab au publicat recent un hârtie care arată unele dintre defectele tehnologiei de conducere autonomă - în special software-ul utilizat în Pilot automat Tesla.

Cel mai tulburător atac evidențiat în lucrare a fost unul dintre cele mai simple de executat. Potrivit lucrării, cercetătorii au reușit să păcălească funcționalitatea Autopilot a lui Tesla pentru a schimba benzile și a-și pierde poziția pe șosea, adăugând zgomot la marcajele benzii. Într-un caz, autocolante mici, roșii au fost plasate pe sol pentru a face vehiculul să creadă că trebuie să schimbe benzile. Atacul ar putea forța un vehicul să intre în traficul din sens opus. Atacul a funcționat în timpul zilei și nu a necesitat niciun fel de interferență, cum ar fi zăpada sau ploaia, care ar putea face lucrurile mai dificile pentru sistemul Autopilot să proceseze drumul.

Videoclipuri recomandate

Unele dintre hackurile descoperite de experții în securitate sună ca lucruri din filme. Într-un exemplu, după ce au ocolit mai multe straturi de protecție concepute pentru a ține atacatorii departe, cercetătorii au reușit să scrie o aplicație care le-a permis să deturneze funcționalitatea de direcție Tesla. Cu aplicația, un atacator ar putea folosi un controler de joc video sau smartphone a conduce un vehicul. Comenzile ar înlocui sistemele Autopilot ale Tesla, precum și volanul în sine. Atacul a avut unele limitări asupra mașinilor care au trecut recent de la marșarier la conducere, dar puteau prelua complet o mașină în parcare sau cu controlul vitezei de croazieră.

Legate de

  • Elon Musk sugerează că pilotul automat a fost oprit într-un accident fatal cu Tesla din Texas
  • Ce este Tesla Autopilot și cum funcționează?
  • Elon Musk spune că actualizarea „profundă” a Autopilot va fi lansată în curând la Teslas

„Acest tip de atac este simplu de implementat, iar materialele sunt ușor de obținut”, au scris cercetătorii. „Experimentele noastre au demonstrat că această arhitectură prezintă riscuri de securitate, iar recunoașterea benzii inverse este una dintre funcțiile necesare conducerii autonome pe drumurile neînchise. În scena pe care o construim, dacă vehiculul știe că banda falsă este îndreptată către banda inversă, ar trebui să ignore această bandă falsă și atunci ar putea evita un accident de circulație.”

Cercetătorii de securitate de la Tencent Keen Security Lab au informat Tesla despre probleme, iar Tesla a raportat că problemele au fost rezolvate în patch-urile de securitate recente.

Recomandările editorilor

  • Autopilot-ul Tesla poate fi păcălit cu ușurință, constată inginerii
  • Conduceți fără mâini cu Enhanced Super Cruise în Cadillac Escalade 2021
  • Noul software Tesla pentru conducere autonomă ar putea reduce intervențiile șoferilor cu o treime
  • Șoferul Tesla care folosea Autopilot suspectat de DUI după ce s-a izbit de mașina polițistului din Arizona
  • Cadillac Super Cruise vs. Pilot automat Tesla

Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.