Små röda klistermärken lurade Teslas autopilotprogramvara

Löftet om autonoma fordon inkluderar tanken att bilar med robotpiloter vid rodret kommer att kunna hålla oss säkrare. Ju fler självkörande bilar på vägen, desto mindre sannolikt är risken att ett mänskligt orsakat fel inträffar. Naturligtvis, om dessa autonoma system lider av sina egna problem, utsätter de oss bara för risker på andra sätt. Forskare vid Tencent Keen Security Lab publicerade nyligen en papper som visar några av bristerna i självkörande teknik - speciellt programvaran som används i Teslas autopilot.

Den mest oroande attacken som lyftes fram i tidningen var en av de enklaste att utföra. Enligt tidningen kunde forskarna lura Teslas autopilotfunktion att byta körfält och förlora sin position på vägen genom att lägga till buller till körfältsmarkeringarna. I ett fall placerades små, röda klistermärken på marken för att få fordonet att tro att det behövde byta fil. Attacken kan tvinga ett fordon in i mötande trafik. Attacken fungerade i dagsljus och krävde ingen form av störning som snö eller regn som kunde göra det svårare för autopilotsystemet att bearbeta vägen.

Rekommenderade videor

Några av hacken som upptäckts av säkerhetsexperterna låter som filmer. I ett exempel, efter att ha kringgått flera lager av skydd utformade för att hålla angripare utanför, kunde forskarna skriva en app som gjorde det möjligt för dem att kapa Teslas styrfunktion. Med appen kan en angripare använda en spelkontroll eller smartphone att styra ett fordon. Kommandona skulle åsidosätta Teslas autopilotsystem såväl som själva ratten. Attacken hade vissa begränsningar för bilar som nyligen växlade från back till körning, men som helt kunde ta över en bil i park eller farthållare.

Relaterad

  • Elon Musk antyder att autopiloten var avstängd i en dödlig Texas Tesla-krasch
  • Vad är Tesla Autopilot och hur fungerar det?
  • Elon Musk säger att "djupgående" autopilotuppdatering kommer att rullas ut till Teslas snart

"Den här typen av attack är enkel att distribuera, och materialen är lätta att få tag på", skrev forskarna. "Våra experiment visade att den här arkitekturen har säkerhetsrisker och omvänd filigenkänning är en av de nödvändiga funktionerna för autonom körning på icke-stängda vägar. På scenen vi bygger, om fordonet vet att det falska körfältet pekar mot det omvända körfältet, bör det ignorera detta falska körfält och då kan det undvika en trafikolycka.”

Säkerhetsforskarna vid Tencent Keen Security Lab informerade Tesla om problemen och Tesla har rapporterat att problemen har åtgärdats i de senaste säkerhetsuppdateringarna.

Redaktörens rekommendationer

  • Teslas autopilot kan lätt luras, tycker ingenjörer
  • Kör handsfree med Enhanced Super Cruise i 2021 års Cadillac Escalade
  • Ny Tesla självkörande programvara kan minska förarens ingrepp med en tredjedel
  • Tesla-förare använder autopilot misstänkt för DUI efter att ha kraschat in i Arizona polisbil
  • Cadillac Super Cruise vs. Tesla autopilot

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.