Обіцянки автономних транспортних засобів включають ідею про те, що автомобілі з роботами-пілотами за кермом зможуть забезпечити нашу безпеку. Чим більше на дорозі безпілотних автомобілів, тим менша ймовірність помилки, спричиненої людиною. Звичайно, якщо ці автономні системи страждають від власних проблем, то вони просто піддають нас ризику іншими способами. Дослідники з Tencent Keen Security Lab нещодавно опублікували папір який показує деякі недоліки в технології автономного водіння, зокрема програмного забезпечення, яке використовується в Автопілот Tesla.
Найбільш тривожна атака, висвітлена в статті, була однією з найпростіших у виконанні. Згідно з документом, дослідники змогли обманом змусити автопілот Tesla змінити смугу руху та втратити своє положення на дорозі, додавши шум до розмітки смуг. В одному випадку маленькі червоні наклейки були розміщені на землі, щоб змусити автомобіль подумати, що йому потрібно змінити смугу. Напад міг змусити автомобіль виїхати на зустрічну дорогу. Атака працювала вдень і не вимагала жодних перешкод, як-от сніг чи дощ, які могли б ускладнити роботу системи автопілота з обробкою дороги.
Рекомендовані відео
Деякі хаки, виявлені експертами з безпеки, схожі на фільми. В одному прикладі, після обходу кількох рівнів захисту, призначених для запобігання зловмисникам, дослідники змогли написати програму, яка дозволила їм викрасти функції рульового управління Tesla. За допомогою програми зловмисник міг використовувати контролер відеоігор або смартфон керувати транспортним засобом. Команди перекриватимуть системи автопілота Tesla, а також саме кермо. Атака мала певні обмеження щодо автомобілів, які нещодавно перейшли з заднього ходу на водіння, але могли повністю заволодіти автомобілем у режимі паркування чи круїз-контролю.
Пов'язані
- Ілон Маск припускає, що під час смертельної аварії Tesla в Техасі автопілот був вимкнений
- Що таке автопілот Tesla і як він працює?
- Ілон Маск каже, що «глибоке» оновлення Autopilot скоро вийде на Teslas
«Таку атаку легко розгорнути, а матеріали легко отримати», — пишуть дослідники. «Наші експерименти довели, що ця архітектура загрожує безпеці, а розпізнавання смуги руху заднім ходом є однією з необхідних функцій для автономного водіння на незакритих дорогах. У сцені, яку ми створюємо, якщо транспортний засіб знає, що фальшива смуга вказує на смугу заднього ходу, він повинен ігнорувати цю фальшиву смугу, і тоді він зможе уникнути дорожньо-транспортної пригоди».
Дослідники безпеки з Tencent Keen Security Lab повідомили Tesla про проблеми, і Tesla повідомила, що проблеми були вирішені в останніх виправленнях безпеки.
Рекомендації редакції
- Інженери виявили, що автопілот Tesla можна легко обдурити
- Керуйте автомобілем без рук із покращеним Super Cruise у Cadillac Escalade 2021 року
- Нове програмне забезпечення Tesla для самостійного керування може зменшити втручання водія на третину
- Водій Tesla використовує автопілот, підозрюваний у стані сильного алкогольного сп’яніння після зіткнення з автомобілем поліції Арізони
- Cadillac Super Cruise проти. Автопілот Tesla
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.