Мале црвене налепнице превариле су Теслин софтвер за аутопилот

Обећање аутономних возила укључује идеју да ће аутомобили са роботским пилотима на челу моћи да нас држе безбеднијим. Што је више самовозећих аутомобила на путу, мања је вероватноћа да дође до грешке изазване људским фактором. Наравно, ако ти аутономни системи пате од сопствених проблема, онда нас само доводе у опасност на друге начине. Истраживачи у Тенцент Кеен Сецурити Лаб недавно су објавили а папир то показује неке од недостатака у технологији самовожње - посебно софтвера који се користи у Теслин аутопилот.

Најзабрињавајући напад истакнут у раду био је један од најједноставнијих за извођење. Према листу, истраживачи су успели да преваре Теслину функционалност аутопилота да промени траку и изгуби своју позицију на путу додавањем буке ознакама траке. У једном случају, мале, црвене налепнице биле су постављене на земљу како би возило веровало да треба да промени траку. Напад би могао да натера возило да уђе у наилазећи саобраћај. Напад је функционисао на дневном светлу и није захтевао никакве сметње попут снега или кише које би могле отежати ствари за систем аутопилота да обради пут.

Препоручени видео снимци

Неки од хакова које су открили стручњаци за безбедност звуче попут филмова. У једном примеру, након што су заобишли неколико слојева заштите дизајнираних да задрже нападаче подаље, истраживачи су успели да напишу апликацију која им је омогућила да отму функционалност Теслиног управљања. Са апликацијом, нападач би могао да користи контролер видео игрице или смартфон да управља возилом. Команде би надјачале Теслине системе аутопилота, као и сам волан. Напад је имао одређена ограничења на аутомобиле који су недавно прешли са вожње уназад на вожњу, али су могли у потпуности да заузму аутомобил у паркирању или у темпомату.

Повезан

  • Елон Муск сугерише да је аутопилот био искључен у фаталној несрећи Тесле у Тексасу
  • Шта је Тесла аутопилот и како функционише?
  • Елон Муск каже да ће „дубоко“ ажурирање аутопилота ускоро бити уведено у Теслас

„Овакав напад је једноставан за имплементацију, а материјале је лако набавити“, написали су истраживачи. „Наши експерименти су доказали да ова архитектура има безбедносне ризике и да је препознавање траке за вожњу уназад једна од неопходних функција за аутономну вожњу на незатвореним путевима. У сцени коју правимо, ако возило зна да лажна трака показује на траку за рикверц, требало би да игнорише ову лажну траку и тада би могло да избегне саобраћајну несрећу."

Истраживачи безбедности у Тенцент Кеен Сецурити Лаб-у обавестили су Теслу о проблемима и Тесла је известио да су проблеми решени у недавним безбедносним закрпама.

Препоруке уредника

  • Теслин аутопилот се лако може преварити, откривају инжењери
  • Вожња без употребе руку уз Енханцед Супер Цруисе у Цадиллац Есцаладеу 2021
  • Нови Теслин софтвер за самовозу могао би смањити интервенције возача за једну трећину
  • Возач Тесле који користи аутопилот осумњичен за ДУИ након што је ударио у полицијски аутомобил из Аризоне
  • Цадиллац Супер Цруисе вс. Тесла аутопилот

Надоградите свој животни стилДигитални трендови помажу читаоцима да прате убрзани свет технологије са свим најновијим вестима, забавним рецензијама производа, проницљивим уводницима и јединственим кратким прегледима.

Категорије

Скорашњи