สติกเกอร์สีแดงจิ๋วหลอกซอฟต์แวร์ Autopilot ของ Tesla

คำมั่นสัญญาของยานพาหนะอัตโนมัติรวมถึงแนวคิดที่ว่ารถยนต์ที่มีนักบินหุ่นยนต์เป็นคนขับจะสามารถช่วยให้เราปลอดภัยยิ่งขึ้น ยิ่งมีรถยนต์ที่ขับเคลื่อนด้วยตนเองบนท้องถนนมากขึ้นเท่าใด โอกาสที่จะเกิดข้อผิดพลาดจากมนุษย์ก็น้อยลงเท่านั้น แน่นอนว่า หากระบบอัตโนมัติเหล่านั้นประสบปัญหาของตัวเอง พวกเขาก็จะทำให้เราตกอยู่ในความเสี่ยงในรูปแบบอื่น นักวิจัยจาก Tencent Keen Security Lab เพิ่งเผยแพร่ a กระดาษ ซึ่งแสดงให้เห็นข้อบกพร่องบางประการในเทคโนโลยีไร้คนขับ โดยเฉพาะซอฟต์แวร์ที่ใช้ ระบบอัตโนมัติของ Tesla.

การโจมตีที่น่าหนักใจที่สุดที่เน้นไว้ในรายงานเป็นหนึ่งในการโจมตีที่ง่ายที่สุด ตามรายงาน นักวิจัยสามารถหลอกระบบ Autopilot ของ Tesla ให้เปลี่ยนเลนและสูญเสียตำแหน่งบนถนนโดยการเพิ่มเสียงรบกวนให้กับเครื่องหมายเลน ในกรณีหนึ่ง มีสติกเกอร์สีแดงเล็กๆ ติดไว้บนพื้นเพื่อให้รถเชื่อว่าจำเป็นต้องเปลี่ยนเลน การโจมตีสามารถบังคับให้ยานพาหนะเข้าสู่การจราจรที่กำลังสวนทางได้ การโจมตีเกิดขึ้นในเวลากลางวันและไม่ต้องการการแทรกแซงใดๆ เช่น หิมะหรือฝน ซึ่งอาจทำให้ระบบ Autopilot ประมวลผลถนนได้ยากขึ้น

วิดีโอแนะนำ

แฮ็กบางส่วนที่ค้นพบโดยผู้เชี่ยวชาญด้านความปลอดภัยฟังดูคล้ายกับภาพยนตร์ ในตัวอย่างหนึ่ง หลังจากที่ข้ามการป้องกันหลายชั้นที่ออกแบบมาเพื่อป้องกันผู้โจมตี นักวิจัยก็สามารถเขียนแอปที่อนุญาตให้พวกเขาขโมยฟังก์ชันบังคับเลี้ยวของ Tesla ได้ ด้วยแอปนี้ ผู้โจมตีสามารถใช้ตัวควบคุมวิดีโอเกมหรือ

สมาร์ทโฟน เพื่อควบคุมยานพาหนะ คำสั่งจะแทนที่ระบบ Autopilot ของ Tesla รวมถึงพวงมาลัยด้วย การโจมตีครั้งนี้มีข้อจำกัดบางประการเกี่ยวกับรถยนต์ที่เพิ่งเปลี่ยนจากถอยหลังมาเป็นขับรถ แต่สามารถเข้ายึดรถในที่จอดหรือระบบควบคุมความเร็วคงที่ได้ทั้งหมด

ที่เกี่ยวข้อง

  • Elon Musk ชี้ว่า Autopilot ถูกปิดในอุบัติเหตุรถชน Texas Tesla ที่เสียชีวิต
  • Tesla Autopilot คืออะไรและทำงานอย่างไร
  • Elon Musk กล่าวว่าการอัปเดต Autopilot 'ที่ล้ำลึก' จะเปิดตัวใน Tesla ในไม่ช้า

“การโจมตีประเภทนี้ง่ายต่อการใช้งาน และวัสดุก็หาได้ง่าย” นักวิจัยเขียน “การทดลองของเราพิสูจน์ให้เห็นว่าสถาปัตยกรรมนี้มีความเสี่ยงด้านความปลอดภัย และการจดจำเลนถอยหลังเป็นหนึ่งในฟังก์ชั่นที่จำเป็นสำหรับการขับขี่อัตโนมัติบนถนนที่ไม่ปิด ในฉากที่เราสร้าง หากยานพาหนะรู้ว่าเลนปลอมกำลังชี้ไปที่เลนถอยหลัง ก็ควรเพิกเฉยต่อเลนปลอมนี้ และจากนั้นก็สามารถหลีกเลี่ยงอุบัติเหตุจราจรได้”

นักวิจัยด้านความปลอดภัยที่ Tencent Keen Security Lab แจ้งให้ Tesla ถึงปัญหาดังกล่าว และ Tesla ได้รายงานว่าปัญหาดังกล่าวได้รับการแก้ไขแล้วในแพตช์รักษาความปลอดภัยล่าสุด

คำแนะนำของบรรณาธิการ

  • วิศวกรค้นพบว่าระบบอัตโนมัติของ Tesla สามารถถูกหลอกได้ง่าย
  • ขับรถแบบแฮนด์ฟรีด้วย Enhanced Super Cruise ใน Cadillac Escalade ปี 2021
  • ซอฟต์แวร์ขับเคลื่อนอัตโนมัติของ Tesla ใหม่สามารถลดการแทรกแซงของผู้ขับขี่ได้หนึ่งในสาม
  • คนขับ Tesla ใช้ระบบ Autopilot ต้องสงสัยเมาแล้วขับ หลังชนรถตำรวจในรัฐแอริโซนา
  • คาดิลแลค ซูเปอร์ ครูซ ปะทะ เทสลาออโต้ไพลอต

อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร

หมวดหมู่

ล่าสุด

Amazon เตรียมเปิดร้านขายเสื้อผ้าแห่งแรกในแคลิฟอร์เนีย

Amazon เตรียมเปิดร้านขายเสื้อผ้าแห่งแรกในแคลิฟอร์เนีย

Amazon ทำได้ดีมากกับการขายเสื้อผ้าออนไลน์ แต่ร้...

Puma ฟื้นคืนรองเท้าอัจฉริยะปี 1986 มาพร้อมโคนส้นที่น่าเกลียด

Puma ฟื้นคืนรองเท้าอัจฉริยะปี 1986 มาพร้อมโคนส้นที่น่าเกลียด

รองเท้าวิ่งระบบคอมพิวเตอร์เครื่องแรกในปี 1986: ...

Fuell Fluid คือ Ebike ระยะไกลที่ขับเคลื่อนด้วยมรดกของ Harley-Davidson

Fuell Fluid คือ Ebike ระยะไกลที่ขับเคลื่อนด้วยมรดกของ Harley-Davidson

FUELL Fluid: E-bike ที่ใช้คันเหยียบได้ไกลที่สุด...