Stiker Merah Kecil Menipu Perangkat Lunak Autopilot Tesla

Janji dari kendaraan otonom mencakup gagasan bahwa mobil dengan pilot robotik akan mampu membuat kita lebih aman. Semakin banyak mobil self-driving di jalan, semakin kecil kemungkinan terjadinya kesalahan yang disebabkan oleh manusia. Tentu saja, jika sistem otonom tersebut mengalami permasalahannya sendiri, maka hal tersebut akan menempatkan kita pada risiko dalam bentuk lain. Para peneliti di Tencent Keen Security Lab baru-baru ini menerbitkan a kertas yang menunjukkan beberapa kelemahan dalam teknologi self-driving — khususnya perangkat lunak yang digunakan Pilot Otomatis Tesla.

Serangan paling meresahkan yang disoroti dalam makalah ini adalah salah satu serangan yang paling sederhana untuk dilakukan. Menurut makalah tersebut, para peneliti mampu mengelabui fungsi Autopilot Tesla agar mengubah jalur dan kehilangan posisinya di jalan dengan menambahkan kebisingan pada penanda jalur. Dalam satu contoh, stiker kecil berwarna merah ditempelkan di tanah untuk membuat kendaraan percaya bahwa ia perlu berpindah jalur. Serangan itu dapat memaksa kendaraan memasuki lalu lintas yang melaju. Serangan itu bekerja di siang hari dan tidak memerlukan gangguan apa pun seperti salju atau hujan yang mungkin mempersulit sistem Autopilot untuk memproses jalan.

Video yang Direkomendasikan

Beberapa peretasan yang ditemukan oleh pakar keamanan terdengar seperti di film. Dalam satu contoh, setelah melewati beberapa lapisan perlindungan yang dirancang untuk mencegah penyerang masuk, para peneliti mampu menulis sebuah aplikasi yang memungkinkan mereka membajak fungsi kemudi Tesla. Dengan aplikasi tersebut, penyerang dapat menggunakan pengontrol video game atau telepon pintar untuk mengemudikan kendaraan. Perintah tersebut akan mengesampingkan sistem Autopilot Tesla serta roda kemudi itu sendiri. Serangan tersebut memiliki beberapa keterbatasan pada mobil yang baru-baru ini berpindah dari posisi mundur ke posisi mengemudi, namun dapat mengambil alih sepenuhnya mobil yang sedang parkir atau berada di kendali jelajah.

Terkait

  • Elon Musk menyarankan Autopilot dimatikan dalam kecelakaan fatal Tesla di Texas
  • Apa itu Tesla Autopilot dan bagaimana cara kerjanya?
  • Elon Musk mengatakan pembaruan Autopilot yang 'mendalam' akan segera diluncurkan ke Tesla

“Serangan semacam ini mudah dilakukan dan bahan-bahannya mudah diperoleh,” tulis para peneliti. “Eksperimen kami membuktikan bahwa arsitektur ini memiliki risiko keamanan dan pengenalan jalur mundur adalah salah satu fungsi yang diperlukan untuk mengemudi secara otonom di jalan yang tidak tertutup. Dalam adegan yang kami buat, jika kendaraan mengetahui bahwa jalur palsu mengarah ke jalur mundur, sebaiknya mengabaikan jalur palsu tersebut agar dapat menghindari kecelakaan lalu lintas.”

Para peneliti keamanan di Tencent Keen Security Lab memberi tahu Tesla tentang masalah ini dan Tesla telah melaporkan bahwa masalah tersebut telah diatasi dalam patch keamanan baru-baru ini.

Rekomendasi Editor

  • Autopilot Tesla dapat dengan mudah diakali, demikian temuan para insinyur
  • Berkendara hands-free dengan Enhanced Super Cruise di Cadillac Escalade 2021
  • Perangkat lunak self-driving Tesla yang baru dapat mengurangi intervensi pengemudi hingga sepertiganya
  • Pengemudi Tesla yang menggunakan Autopilot diduga DUI setelah menabrak mobil polisi Arizona
  • Cadillac Super Cruise vs. Tesla Autopilot

Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terkini, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.