McAfee-sikkerhetsforskere klarte å lure Tesla-kjøretøyer til å bryte loven ved å plassere elektrisk tape på fartsgrenseskilt, i en demonstrasjon av en annen sårbarhet for selvkjørende biler.
I funn avslørt av McAfee gjennom sin offisielle blogg, avslørte sikkerhetsselskapet at det lurte 2016-modeller av Teslas Model X og Model S, som brukte kamerasystemer fra Intels Mobileye, til å bryte fartsgrenser med den strategiske plasseringen av elektriske teip.
Anbefalte videoer
Forskere brukte et enkelt stykke svart elektrisk tape for å forlenge midtlinjen i "3" av et 35-mile-per-time fartsgrenseskilt. Dette lurte MobilEye-kameraet til å lese skiltet som 85 miles per time, og tvang Tesla-kjøretøyets cruisekontrollsystem til å akselerere bilen utover den sanne fartsgrensen.
I slekt
- Hva er forskjellen mellom Tesla Autopilot og Full Self-Driving?
- Apples ryktede bil kan koste det samme som en Tesla Model S
- Tesla tilbakekaller 130 000 amerikanske biler på grunn av sikkerhetsproblem med berøringsskjerm
Intel bestrider at trikset var et motstridende angrep, da båndet også kan ha lurt noen menneskelige sjåfører til å tro at det tuklede skiltet sa 85 miles per time.
Tesla sluttet imidlertid å bruke Mobileyes kamerasystemer i 2016, noe som betyr at de nyere Tesla-kjøretøyene er ikke påvirket ved det elektriske tape-trikset. I tillegg ser også andre kjøretøyer som bruker nyere versjoner av Mobileye-teknologi ut til å være motstandsdyktige mot manipulasjonen.
McAfee avslørte funnene sine til Tesla og Mobileye i fjor, hvor begge selskapene uttrykte interesse for forskningen. De har imidlertid ingen planer om å ta tak i problemet, som gjør eldre kjøretøy sårbare for det enkle, men fortsatt ganske usannsynlige angrepet.
Ifølge administrerende direktør for Center for Auto Safety Jason Levine, viser McAfees forskning at "betydelige farer” presentert av overdreven avhengighet av selvkjørende teknologi. "AutoPilot er et misvisende begrep som lett kan skape en fare for de inne i en Tesla. Det denne studien viser er hvor farlig funksjonen kan være for alle på veien," sa Levine til CBS News.
Klistremerker og tape er tydeligvis kryptonitten til Tesla Autopilot, som en annen forskning av Tencent Keen Security Lab fra april i fjor avslørt feil i det selvkjørende systemet ved bruk av samme materiale. I ett tilfelle fikk små røde klistremerker på bakken et Tesla-kjøretøy til å tro at det måtte skifte fil, noe som ville tvinge bilen inn i møtende trafikk.
Redaktørenes anbefalinger
- Er Tesla Full Self-Driving verdt det?
- Tesla tilbakekaller 363 000 av sine kjøretøy på grunn av sikkerhetsproblemer
- Tesla håper full selvkjørende beta vil være ute globalt innen utgangen av 2022
- Elon Musk eyes 2024 for Tesla robotaxi uten ratt, pedaler
- Hvordan en stor blå varebil fra 1986 banet vei for selvkjørende biler
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.