สติกเกอร์สีแดงจิ๋วหลอกซอฟต์แวร์ Autopilot ของ Tesla

คำมั่นสัญญาของยานพาหนะอัตโนมัติรวมถึงแนวคิดที่ว่ารถยนต์ที่มีนักบินหุ่นยนต์เป็นคนขับจะสามารถช่วยให้เราปลอดภัยยิ่งขึ้น ยิ่งมีรถยนต์ที่ขับเคลื่อนด้วยตนเองบนท้องถนนมากขึ้นเท่าใด โอกาสที่จะเกิดข้อผิดพลาดจากมนุษย์ก็น้อยลงเท่านั้น แน่นอนว่า หากระบบอัตโนมัติเหล่านั้นประสบปัญหาของตัวเอง พวกเขาก็จะทำให้เราตกอยู่ในความเสี่ยงในรูปแบบอื่น นักวิจัยจาก Tencent Keen Security Lab เพิ่งเผยแพร่ a กระดาษ ซึ่งแสดงให้เห็นข้อบกพร่องบางประการในเทคโนโลยีไร้คนขับ โดยเฉพาะซอฟต์แวร์ที่ใช้ ระบบอัตโนมัติของ Tesla.

การโจมตีที่น่าหนักใจที่สุดที่เน้นไว้ในรายงานเป็นหนึ่งในการโจมตีที่ง่ายที่สุด ตามรายงาน นักวิจัยสามารถหลอกระบบ Autopilot ของ Tesla ให้เปลี่ยนเลนและสูญเสียตำแหน่งบนถนนโดยการเพิ่มเสียงรบกวนให้กับเครื่องหมายเลน ในกรณีหนึ่ง มีสติกเกอร์สีแดงเล็กๆ ติดไว้บนพื้นเพื่อให้รถเชื่อว่าจำเป็นต้องเปลี่ยนเลน การโจมตีสามารถบังคับให้ยานพาหนะเข้าสู่การจราจรที่กำลังสวนทางได้ การโจมตีเกิดขึ้นในเวลากลางวันและไม่ต้องการการแทรกแซงใดๆ เช่น หิมะหรือฝน ซึ่งอาจทำให้ระบบ Autopilot ประมวลผลถนนได้ยากขึ้น

วิดีโอแนะนำ

แฮ็กบางส่วนที่ค้นพบโดยผู้เชี่ยวชาญด้านความปลอดภัยฟังดูคล้ายกับภาพยนตร์ ในตัวอย่างหนึ่ง หลังจากที่ข้ามการป้องกันหลายชั้นที่ออกแบบมาเพื่อป้องกันผู้โจมตี นักวิจัยก็สามารถเขียนแอปที่อนุญาตให้พวกเขาขโมยฟังก์ชันบังคับเลี้ยวของ Tesla ได้ ด้วยแอปนี้ ผู้โจมตีสามารถใช้ตัวควบคุมวิดีโอเกมหรือ

สมาร์ทโฟน เพื่อควบคุมยานพาหนะ คำสั่งจะแทนที่ระบบ Autopilot ของ Tesla รวมถึงพวงมาลัยด้วย การโจมตีครั้งนี้มีข้อจำกัดบางประการเกี่ยวกับรถยนต์ที่เพิ่งเปลี่ยนจากถอยหลังมาเป็นขับรถ แต่สามารถเข้ายึดรถในที่จอดหรือระบบควบคุมความเร็วคงที่ได้ทั้งหมด

ที่เกี่ยวข้อง

  • Elon Musk ชี้ว่า Autopilot ถูกปิดในอุบัติเหตุรถชน Texas Tesla ที่เสียชีวิต
  • Tesla Autopilot คืออะไรและทำงานอย่างไร
  • Elon Musk กล่าวว่าการอัปเดต Autopilot 'ที่ล้ำลึก' จะเปิดตัวใน Tesla ในไม่ช้า

“การโจมตีประเภทนี้ง่ายต่อการใช้งาน และวัสดุก็หาได้ง่าย” นักวิจัยเขียน “การทดลองของเราพิสูจน์ให้เห็นว่าสถาปัตยกรรมนี้มีความเสี่ยงด้านความปลอดภัย และการจดจำเลนถอยหลังเป็นหนึ่งในฟังก์ชั่นที่จำเป็นสำหรับการขับขี่อัตโนมัติบนถนนที่ไม่ปิด ในฉากที่เราสร้าง หากยานพาหนะรู้ว่าเลนปลอมกำลังชี้ไปที่เลนถอยหลัง ก็ควรเพิกเฉยต่อเลนปลอมนี้ และจากนั้นก็สามารถหลีกเลี่ยงอุบัติเหตุจราจรได้”

นักวิจัยด้านความปลอดภัยที่ Tencent Keen Security Lab แจ้งให้ Tesla ถึงปัญหาดังกล่าว และ Tesla ได้รายงานว่าปัญหาดังกล่าวได้รับการแก้ไขแล้วในแพตช์รักษาความปลอดภัยล่าสุด

คำแนะนำของบรรณาธิการ

  • วิศวกรค้นพบว่าระบบอัตโนมัติของ Tesla สามารถถูกหลอกได้ง่าย
  • ขับรถแบบแฮนด์ฟรีด้วย Enhanced Super Cruise ใน Cadillac Escalade ปี 2021
  • ซอฟต์แวร์ขับเคลื่อนอัตโนมัติของ Tesla ใหม่สามารถลดการแทรกแซงของผู้ขับขี่ได้หนึ่งในสาม
  • คนขับ Tesla ใช้ระบบ Autopilot ต้องสงสัยเมาแล้วขับ หลังชนรถตำรวจในรัฐแอริโซนา
  • คาดิลแลค ซูเปอร์ ครูซ ปะทะ เทสลาออโต้ไพลอต

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

พิกมินเกือบจะดูแตกต่างไปจากตอนนี้มาก

พิกมินเกือบจะดูแตกต่างไปจากตอนนี้มาก

บทสัมภาษณ์บางส่วนของ. พิคมิน4ส นักพัฒนาซอฟต์แวร...

Ryan Coogler จาก Creed จะกำกับภาพยนตร์ Black Panther ของ Marvel

Ryan Coogler จาก Creed จะกำกับภาพยนตร์ Black Panther ของ Marvel

มาร์เวลเมื่อเดือนที่แล้วมีรายงานว่า Marvel Stud...

Shooter ที่เป็นข้อถกเถียง Six Days ใน Fallujah ได้รับการฟื้นฟู

Shooter ที่เป็นข้อถกเถียง Six Days ใน Fallujah ได้รับการฟื้นฟู

ภัยคุกคามใหม่ที่เรียกว่า Archaeans ใน Rainbow S...