Små røde klistermærker narrede Teslas autopilotsoftware

Løftet om autonome køretøjer inkluderer ideen om, at biler med robotpiloter ved roret vil være i stand til at holde os mere sikre. Jo flere selvkørende biler på vejen, jo mindre sandsynligt er der en menneskeskabt fejl. Selvfølgelig, hvis disse autonome systemer lider af deres egne problemer, så bringer de os bare i fare på andre måder. Forskere ved Tencent Keen Security Lab har for nylig offentliggjort en papir der viser nogle af fejlene i selvkørende teknologi - specifikt den software, der bruges i Teslas autopilot.

Det mest bekymrende angreb, der blev fremhævet i avisen, var et af de enkleste at udføre. Ifølge papiret var forskerne i stand til at narre Teslas Autopilot-funktionalitet til at skifte vognbane og miste sin position på vejen ved at tilføje støj til vognbanemarkeringer. I et tilfælde blev der sat små røde klistermærker på jorden for at få køretøjet til at tro, at det skulle skifte vognbane. Angrebet kan tvinge et køretøj ind i modkørende trafik. Angrebet virkede i dagslys og krævede ikke nogen form for interferens som sne eller regn, der kunne gøre tingene sværere for autopilotsystemet at behandle vejen.

Anbefalede videoer

Nogle af de hacks, sikkerhedseksperterne opdagede, lyder som film. I et eksempel, efter at have omgået flere lag af beskyttelse designet til at holde angribere ude, var forskerne i stand til at skrive en app, der gjorde det muligt for dem at kapre Tesla-styrefunktionaliteten. Med appen kunne en angriber bruge en videospilcontroller eller smartphone at styre et køretøj. Kommandoerne ville tilsidesætte Teslas autopilotsystemer såvel som selve rattet. Angrebet havde nogle begrænsninger på biler, der for nylig skiftede fra bakgear til kørsel, men som fuldt ud kunne overtage en bil i parken eller fartpilot.

Relaterede

  • Elon Musk antyder, at autopiloten var slukket i et fatalt Texas Tesla-ulykke
  • Hvad er Tesla Autopilot, og hvordan virker det?
  • Elon Musk siger, at en 'dyb' autopilotopdatering snart vil rulle ud til Teslas

"Denne form for angreb er let at implementere, og materialerne er nemme at skaffe," skrev forskerne. "Vores eksperimenter viste, at denne arkitektur indebærer sikkerhedsrisici, og omvendt vognbanegenkendelse er en af ​​de nødvendige funktioner til autonom kørsel på ikke-lukkede veje. I den scene, vi bygger, skal køretøjet, hvis køretøjet ved, at den falske vognbane peger mod den modsatte vognbane, ignorere denne falske vognbane, og så kan det undgå en trafikulykke."

Sikkerhedsforskerne ved Tencent Keen Security Lab informerede Tesla om problemerne, og Tesla har rapporteret, at problemerne er blevet behandlet i de seneste sikkerhedsrettelser.

Redaktørernes anbefalinger

  • Teslas autopilot kan nemt snydes, finder ingeniører
  • Kør håndfrit med Enhanced Super Cruise i 2021 Cadillac Escalade
  • Ny Tesla selvkørende software kan reducere førerinterventioner med en tredjedel
  • Tesla-chauffør bruger autopilot mistænkt for DUI efter at have styrtet ind i Arizona politibil
  • Cadillac Super Cruise vs. Tesla Autopilot

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.