Tesla의 자동 조종 장치 소프트웨어를 속인 작은 빨간 스티커

자율주행 자동차의 약속에는 로봇 조종사가 조종하는 자동차가 우리를 더 안전하게 지켜줄 수 있다는 생각이 포함됩니다. 도로에 자율주행차가 많을수록 인간에 의한 오류가 발생할 가능성은 줄어듭니다. 물론 이러한 자율 시스템이 자체 문제로 어려움을 겪는다면 다른 방식으로 우리를 위험에 빠뜨릴 뿐입니다. Tencent Keen Security Lab의 연구원들은 최근 종이 이는 자율주행 기술, 특히 자동차에 사용되는 소프트웨어의 일부 결함을 보여줍니다. 테슬라의 오토파일럿.

백서에서 강조된 가장 문제가 되는 공격은 실행하기 가장 간단한 공격 중 하나였습니다. 논문에 따르면 연구원들은 차선 표시에 소음을 추가하여 Tesla의 자동 조종 장치 기능을 속여 차선을 변경하고 도로에서의 위치를 ​​잃을 수 있었습니다. 한 사례에서는 차량이 차선을 변경해야 한다고 믿도록 하기 위해 작은 빨간색 스티커를 바닥에 부착했습니다. 공격으로 인해 차량이 다가오는 차량에 강제로 진입할 수 있습니다. 공격은 낮에 이루어졌으며 자동 조종 장치 시스템이 도로를 처리하는 것을 더 어렵게 만들 수 있는 눈이나 비와 같은 어떤 종류의 간섭도 필요하지 않았습니다.

추천 동영상

보안 전문가가 발견한 일부 해킹은 영화에서나 볼 법한 내용처럼 들립니다. 한 예에서 연구원들은 공격자를 차단하도록 설계된 여러 보호 계층을 우회한 후 Tesla 스티어링 기능을 하이재킹할 수 있는 앱을 작성할 수 있었습니다. 공격자는 해당 앱을 사용하여 비디오 게임 컨트롤러나 스마트 폰 차량을 조종하기 위해. 이 명령은 Tesla의 Autopilot 시스템과 스티어링 휠 자체보다 우선합니다. 이 공격은 최근 후진에서 주행으로 전환한 차량에 대해 일부 제한이 있었지만 공원이나 크루즈 컨트롤에 있는 차량을 완전히 장악할 수 있었습니다.

관련된

  • Elon Musk는 치명적인 텍사스 Tesla 충돌 사고에서 Autopilot이 꺼졌다고 제안했습니다.
  • Tesla Autopilot은 무엇이며 어떻게 작동하나요?
  • Elon Musk는 '심각한' Autopilot 업데이트가 Tesla에 곧 출시될 것이라고 말했습니다.

연구원들은 “이런 종류의 공격은 배포가 간단하고 재료를 얻기도 쉽습니다.”라고 썼습니다. “우리의 실험을 통해 이 아키텍처에는 보안 위험이 있으며 후진 차선 인식은 폐쇄되지 않은 도로에서 자율 주행에 필요한 기능 중 하나라는 것이 입증되었습니다. 우리가 구축하는 장면에서 차량이 가짜 차선이 반대 차선을 가리키고 있다는 것을 안다면 이 가짜 차선을 무시해야 교통사고를 피할 수 있습니다.”

Tencent Keen Security Lab의 보안 연구원들은 Tesla에 이 문제를 알렸고 Tesla는 최근 보안 패치에서 문제가 해결되었다고 보고했습니다.

편집자의 추천

  • Tesla의 자동 조종 장치는 쉽게 속일 수 있다고 엔지니어는 밝혔습니다.
  • 2021 Cadillac Escalade의 Enhanced Super Cruise로 핸즈프리 운전하기
  • Tesla의 새로운 자율주행 소프트웨어는 운전자 개입을 1/3까지 줄일 수 있습니다.
  • 애리조나 경찰차에 충돌한 후 오토파일럿을 사용하는 Tesla 운전자가 음주운전 혐의를 받고 있습니다.
  • 캐딜락 슈퍼크루즈 vs. 테슬라 오토파일럿

당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속 확인할 수 있도록 도와줍니다.