Pequeñas pegatinas rojas engañaron al software de piloto automático de Tesla

La promesa de los vehículos autónomos incluye la idea de que los coches con pilotos robóticos al mando podrán mantenernos más seguros. Cuantos más vehículos autónomos haya en la carretera, menos probable será que se produzca un error causado por el hombre. Por supuesto, si esos sistemas autónomos sufren sus propios problemas, entonces simplemente nos pondrán en riesgo de otras maneras. Los investigadores del Tencent Keen Security Lab publicaron recientemente un papel eso muestra algunas de las fallas en la tecnología de conducción autónoma, específicamente el software utilizado en El piloto automático de Tesla.

El ataque más preocupante destacado en el documento fue uno de los más sencillos de ejecutar. Según el artículo, los investigadores pudieron engañar a la funcionalidad del piloto automático de Tesla para que cambiara de carril y perdiera su posición en la carretera añadiendo ruido a las marcas de los carriles. En un caso, se colocaron pequeñas pegatinas rojas en el suelo para hacer creer al vehículo que necesitaba cambiar de carril. El ataque podría obligar a un vehículo a circular en sentido contrario. El ataque funcionó a la luz del día y no requirió ningún tipo de interferencia como nieve o lluvia que pudiera dificultar que el sistema Autopilot procesara la carretera.

Vídeos recomendados

Algunos de los hacks descubiertos por los expertos en seguridad parecen sacados de una película. En un ejemplo, después de eludir varias capas de protección diseñadas para mantener alejados a los atacantes, los investigadores pudieron escribir una aplicación que les permitió secuestrar la funcionalidad de dirección de Tesla. Con la aplicación, un atacante podría usar un controlador de videojuego o teléfono inteligente para conducir un vehículo. Los comandos anularían los sistemas de piloto automático de Tesla, así como el propio volante. El ataque tuvo algunas limitaciones en los autos que recientemente cambiaron de marcha atrás a marcha atrás, pero que podían apoderarse completamente de un auto en estacionamiento o control de crucero.

Relacionado

  • Elon Musk sugiere que el piloto automático estaba apagado en el fatal accidente de un Tesla en Texas
  • ¿Qué es el piloto automático Tesla y cómo funciona?
  • Elon Musk dice que la actualización "profunda" del piloto automático se implementará pronto en los Teslas

"Este tipo de ataque es sencillo de implementar y los materiales son fáciles de obtener", escribieron los investigadores. “Nuestros experimentos demostraron que esta arquitectura presenta riesgos de seguridad y que el reconocimiento del carril inverso es una de las funciones necesarias para la conducción autónoma en carreteras no cerradas. En la escena que construimos, si el vehículo sabe que el carril falso apunta al carril inverso, debe ignorar este carril falso y entonces podría evitar un accidente de tráfico”.

Los investigadores de seguridad de Tencent Keen Security Lab informaron a Tesla sobre los problemas y Tesla informó que los problemas se han solucionado en parches de seguridad recientes.

Recomendaciones de los editores

  • Los ingenieros descubren que el piloto automático de Tesla se puede engañar fácilmente
  • Conducir con manos libres con Enhanced Super Cruise en el Cadillac Escalade 2021
  • El nuevo software de conducción autónoma de Tesla podría reducir las intervenciones del conductor en un tercio
  • Conductor de Tesla usando piloto automático sospechoso de DUI después de chocar contra un coche de policía de Arizona
  • Cadillac Súper Crucero vs. Piloto automático Tesla

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.