Løftet om autonome kjøretøy inkluderer ideen om at biler med robotpiloter ved roret vil kunne holde oss tryggere. Jo flere selvkjørende biler på veien, jo mindre sannsynlig er det at det oppstår en menneskeskapt feil. Selvfølgelig, hvis disse autonome systemene lider av sine egne problemer, setter de oss bare i fare på andre måter. Forskere ved Tencent Keen Security Lab publiserte nylig en papir som viser noen av feilene i selvkjørende teknologi - spesielt programvaren som brukes i Teslas autopilot.
Det mest urovekkende angrepet som ble fremhevet i avisen var et av de enkleste å utføre. I følge papiret var forskerne i stand til å lure Teslas autopilotfunksjonalitet til å bytte kjørefelt og miste sin posisjon på veien ved å legge til støy i kjørefeltmarkeringer. I ett tilfelle ble små, røde klistremerker plassert på bakken for å få kjøretøyet til å tro at det måtte skifte fil. Angrepet kan tvinge et kjøretøy inn i møtende trafikk. Angrepet fungerte i dagslys og krevde ingen form for forstyrrelse som snø eller regn som kan gjøre ting vanskeligere for autopilotsystemet å behandle veien.
Anbefalte videoer
Noen av hackene oppdaget av sikkerhetsekspertene høres ut som filmer. I ett eksempel, etter å ha omgått flere lag med beskyttelse designet for å holde angripere ute, klarte forskerne å skrive en app som tillot dem å kapre Tesla-styringsfunksjonaliteten. Med appen kan en angriper bruke en videospillkontroller eller smarttelefon å styre et kjøretøy. Kommandoene ville overstyre Teslas autopilotsystemer så vel som selve rattet. Angrepet hadde noen begrensninger på biler som nylig skiftet fra revers til kjøring, men som fullt ut kunne overta en bil i park eller cruisekontroll.
I slekt
- Elon Musk antyder at autopiloten var av i en fatal Tesla-ulykke i Texas
- Hva er Tesla Autopilot og hvordan fungerer det?
- Elon Musk sier at en "dyp" autopilotoppdatering vil rulle ut til Teslas snart
"Denne typen angrep er enkel å distribuere, og materialene er enkle å få tak i," skrev forskerne. "Våre eksperimenter viste at denne arkitekturen har sikkerhetsrisikoer, og gjenkjenning av omvendt kjørefelt er en av de nødvendige funksjonene for autonom kjøring på ikke-stengte veier. I scenen vi bygger, hvis kjøretøyet vet at det falske kjørefeltet peker mot motsatt kjørefelt, bør det ignorere dette falske kjørefeltet og da kan det unngå en trafikkulykke.»
Sikkerhetsforskerne ved Tencent Keen Security Lab informerte Tesla om problemene, og Tesla har rapportert at problemene har blitt adressert i de siste sikkerhetsoppdateringene.
Redaktørenes anbefalinger
- Teslas autopilot kan lett lures, finner ingeniører
- Kjør håndfri med Enhanced Super Cruise i 2021 Cadillac Escalade
- Ny Tesla selvkjørende programvare kan redusere sjåførintervensjoner med en tredjedel
- Tesla-sjåfør bruker autopilot mistenkt for DUI etter å ha krasjet inn i politibil i Arizona
- Cadillac Super Cruise vs. Tesla autopilot
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.