Drobné červené samolepky podvedly software autopilota Tesly

Příslib autonomních vozidel zahrnuje myšlenku, že auta s robotickými piloty v čele nás budou moci udržet ve větším bezpečí. Čím více samořiditelných aut na silnici, tím menší je pravděpodobnost, že dojde k chybě způsobené člověkem. Samozřejmě, pokud tyto autonomní systémy trpí svými vlastními problémy, pak nás vystavují riziku jiným způsobem. Výzkumníci z Tencent Keen Security Lab nedávno zveřejnili a papír který ukazuje některé nedostatky v technologii automatického řízení – konkrétně softwaru použitého v Autopilot Tesly.

Nejznepokojivější útok zdůrazněný v novinách byl jedním z nejjednodušších k provedení. Podle článku byli vědci schopni oklamat funkci Tesla Autopilot, aby změnila jízdní pruhy a ztratila svou pozici na silnici přidáním hluku do značení jízdních pruhů. V jednom případě byly na zemi umístěny malé červené nálepky, aby vozidlo uvěřilo, že potřebuje změnit jízdní pruh. Útok by mohl přinutit vozidlo vjet do protijedoucího provozu. Útok fungoval za denního světla a nevyžadoval žádné rušení, jako je sníh nebo déšť, které by mohly systému Autopilota ztížit zpracování silnice.

Doporučená videa

Některé hacky, které objevili bezpečnostní experti, znějí jako z filmů. V jednom příkladu, poté, co obešli několik vrstev ochrany navržených tak, aby udrželi útočníky mimo, byli vědci schopni napsat aplikaci, která jim umožnila unést funkci řízení Tesla. Pomocí aplikace by útočník mohl použít ovladač videohry nebo chytrý telefon řídit vozidlo. Příkazy by potlačily systémy autopilota Tesly i samotný volant. Útok měl určitá omezení na auta, která nedávno přeřadila ze zpátečky na jízdu, ale mohla plně ovládnout auto v parku nebo tempomatu.

Příbuzný

  • Elon Musk naznačuje, že při fatální havárii Tesly v Texasu byl vypnutý autopilot
  • Co je Tesla Autopilot a jak funguje?
  • Elon Musk říká, že „hluboká“ aktualizace Autopilota bude brzy zavedena do Tesly

"Tento druh útoku je jednoduchý na nasazení a materiály lze snadno získat," napsali vědci. „Naše experimenty prokázaly, že tato architektura má bezpečnostní rizika a rozpoznávání zpětného pruhu je jednou z nezbytných funkcí pro autonomní jízdu na neuzavřených silnicích. Ve scéně, kterou vytváříme, pokud vozidlo ví, že falešný pruh směřuje do zpětného pruhu, mělo by tento falešný pruh ignorovat a pak by se mohlo vyhnout dopravní nehodě.“

Bezpečnostní výzkumníci z Tencent Keen Security Lab informovali Teslu o problémech a Tesla oznámila, že problémy byly vyřešeny v nedávných bezpečnostních záplatách.

Doporučení redakce

  • Autopilot Tesly lze snadno oklamat, zjistili inženýři
  • Řízení hands-free s vylepšenou Super Cruise v Cadillac Escalade 2021
  • Nový samořídící software Tesly by mohl omezit zásahy řidiče o jednu třetinu
  • Řidič Tesly používající autopilota podezřelý z DUI poté, co narazil do arizonského policejního auta
  • Cadillac Super Cruise vs. Autopilot Tesla

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.