คำมั่นสัญญาของยานพาหนะอัตโนมัติรวมถึงแนวคิดที่ว่ารถยนต์ที่มีนักบินหุ่นยนต์เป็นคนขับจะสามารถช่วยให้เราปลอดภัยยิ่งขึ้น ยิ่งมีรถยนต์ที่ขับเคลื่อนด้วยตนเองบนท้องถนนมากขึ้นเท่าใด โอกาสที่จะเกิดข้อผิดพลาดจากมนุษย์ก็น้อยลงเท่านั้น แน่นอนว่า หากระบบอัตโนมัติเหล่านั้นประสบปัญหาของตัวเอง พวกเขาก็จะทำให้เราตกอยู่ในความเสี่ยงในรูปแบบอื่น นักวิจัยจาก Tencent Keen Security Lab เพิ่งเผยแพร่ a กระดาษ ซึ่งแสดงให้เห็นข้อบกพร่องบางประการในเทคโนโลยีไร้คนขับ โดยเฉพาะซอฟต์แวร์ที่ใช้ ระบบอัตโนมัติของ Tesla.
การโจมตีที่น่าหนักใจที่สุดที่เน้นไว้ในรายงานเป็นหนึ่งในการโจมตีที่ง่ายที่สุด ตามรายงาน นักวิจัยสามารถหลอกระบบ Autopilot ของ Tesla ให้เปลี่ยนเลนและสูญเสียตำแหน่งบนถนนโดยการเพิ่มเสียงรบกวนให้กับเครื่องหมายเลน ในกรณีหนึ่ง มีสติกเกอร์สีแดงเล็กๆ ติดไว้บนพื้นเพื่อให้รถเชื่อว่าจำเป็นต้องเปลี่ยนเลน การโจมตีสามารถบังคับให้ยานพาหนะเข้าสู่การจราจรที่กำลังสวนทางได้ การโจมตีเกิดขึ้นในเวลากลางวันและไม่ต้องการการแทรกแซงใดๆ เช่น หิมะหรือฝน ซึ่งอาจทำให้ระบบ Autopilot ประมวลผลถนนได้ยากขึ้น
วิดีโอแนะนำ
แฮ็กบางส่วนที่ค้นพบโดยผู้เชี่ยวชาญด้านความปลอดภัยฟังดูคล้ายกับภาพยนตร์ ในตัวอย่างหนึ่ง หลังจากที่ข้ามการป้องกันหลายชั้นที่ออกแบบมาเพื่อป้องกันผู้โจมตี นักวิจัยก็สามารถเขียนแอปที่อนุญาตให้พวกเขาขโมยฟังก์ชันบังคับเลี้ยวของ Tesla ได้ ด้วยแอปนี้ ผู้โจมตีสามารถใช้ตัวควบคุมวิดีโอเกมหรือ
สมาร์ทโฟน เพื่อควบคุมยานพาหนะ คำสั่งจะแทนที่ระบบ Autopilot ของ Tesla รวมถึงพวงมาลัยด้วย การโจมตีครั้งนี้มีข้อจำกัดบางประการเกี่ยวกับรถยนต์ที่เพิ่งเปลี่ยนจากถอยหลังมาเป็นขับรถ แต่สามารถเข้ายึดรถในที่จอดหรือระบบควบคุมความเร็วคงที่ได้ทั้งหมดที่เกี่ยวข้อง
- Elon Musk ชี้ว่า Autopilot ถูกปิดในอุบัติเหตุรถชน Texas Tesla ที่เสียชีวิต
- Tesla Autopilot คืออะไรและทำงานอย่างไร
- Elon Musk กล่าวว่าการอัปเดต Autopilot 'ที่ล้ำลึก' จะเปิดตัวใน Tesla ในไม่ช้า
“การโจมตีประเภทนี้ง่ายต่อการใช้งาน และวัสดุก็หาได้ง่าย” นักวิจัยเขียน “การทดลองของเราพิสูจน์ให้เห็นว่าสถาปัตยกรรมนี้มีความเสี่ยงด้านความปลอดภัย และการจดจำเลนถอยหลังเป็นหนึ่งในฟังก์ชั่นที่จำเป็นสำหรับการขับขี่อัตโนมัติบนถนนที่ไม่ปิด ในฉากที่เราสร้าง หากยานพาหนะรู้ว่าเลนปลอมกำลังชี้ไปที่เลนถอยหลัง ก็ควรเพิกเฉยต่อเลนปลอมนี้ และจากนั้นก็สามารถหลีกเลี่ยงอุบัติเหตุจราจรได้”
นักวิจัยด้านความปลอดภัยที่ Tencent Keen Security Lab แจ้งให้ Tesla ถึงปัญหาดังกล่าว และ Tesla ได้รายงานว่าปัญหาดังกล่าวได้รับการแก้ไขแล้วในแพตช์รักษาความปลอดภัยล่าสุด
คำแนะนำของบรรณาธิการ
- วิศวกรค้นพบว่าระบบอัตโนมัติของ Tesla สามารถถูกหลอกได้ง่าย
- ขับรถแบบแฮนด์ฟรีด้วย Enhanced Super Cruise ใน Cadillac Escalade ปี 2021
- ซอฟต์แวร์ขับเคลื่อนอัตโนมัติของ Tesla ใหม่สามารถลดการแทรกแซงของผู้ขับขี่ได้หนึ่งในสาม
- คนขับ Tesla ใช้ระบบ Autopilot ต้องสงสัยเมาแล้วขับ หลังชนรถตำรวจในรัฐแอริโซนา
- คาดิลแลค ซูเปอร์ ครูซ ปะทะ เทสลาออโต้ไพลอต
อัพเกรดไลฟ์สไตล์ของคุณDigital Trends ช่วยให้ผู้อ่านติดตามโลกแห่งเทคโนโลยีที่เปลี่ยนแปลงไปอย่างรวดเร็วด้วยข่าวสารล่าสุด รีวิวผลิตภัณฑ์สนุกๆ บทบรรณาธิการที่เจาะลึก และการแอบดูที่ไม่ซ้ำใคร