De minuscules autocollants rouges ont trompé le logiciel de pilotage automatique de Tesla

La promesse des véhicules autonomes inclut l’idée que les voitures dirigées par des pilotes robotiques seront en mesure d’assurer notre sécurité. Plus il y a de voitures autonomes sur la route, moins il est probable qu’une erreur d’origine humaine se produise. Bien sûr, si ces systèmes autonomes souffrent de leurs propres problèmes, ils nous mettent alors en danger d’une autre manière. Des chercheurs du Tencent Keen Security Lab ont récemment publié un papier qui montre certaines des failles de la technologie de conduite autonome, en particulier le logiciel utilisé dans Le pilote automatique de Tesla.

L’attaque la plus troublante mise en évidence dans le document était l’une des plus simples à exécuter. Selon le document, les chercheurs ont réussi à tromper la fonctionnalité de pilote automatique de Tesla pour qu’elle change de voie et perde sa position sur la route en ajoutant du bruit aux marquages ​​des voies. Dans un cas, de petits autocollants rouges ont été placés au sol pour faire croire au véhicule qu'il devait changer de voie. L'attaque pourrait contraindre un véhicule à s'engager dans la circulation venant en sens inverse. L’attaque a fonctionné de jour et n’a nécessité aucune sorte d’interférence comme de la neige ou de la pluie qui pourrait rendre plus difficile le traitement de la route par le système de pilote automatique.

Vidéos recommandées

Certains des hacks découverts par les experts en sécurité ressemblent à des films. Dans un exemple, après avoir contourné plusieurs couches de protection conçues pour empêcher les attaquants d’entrer, les chercheurs ont pu écrire une application qui leur a permis de détourner la fonctionnalité de pilotage de Tesla. Avec l'application, un attaquant pourrait utiliser une manette de jeu vidéo ou téléphone intelligent pour diriger un véhicule. Les commandes remplaceraient les systèmes de pilote automatique de Tesla ainsi que le volant lui-même. L'attaque a eu certaines limites sur les voitures qui sont récemment passées de la marche arrière à la conduite, mais pourrait complètement prendre le contrôle d'une voiture en stationnement ou en régulateur de vitesse.

En rapport

  • Elon Musk suggère que le pilote automatique était désactivé lors d'un accident mortel avec une Tesla au Texas
  • Qu’est-ce que Tesla Autopilot et comment ça marche?
  • Elon Musk dit que la mise à jour « approfondie » du pilote automatique sera bientôt déployée sur Teslas

"Ce type d'attaque est simple à déployer et les matériaux sont faciles à obtenir", ont écrit les chercheurs. « Nos expériences ont prouvé que cette architecture présente des risques en matière de sécurité et que la reconnaissance de voie inversée est l'une des fonctions nécessaires à la conduite autonome sur des routes non fermées. Dans la scène que nous construisons, si le véhicule sait que la fausse voie pointe vers la voie inverse, il doit ignorer cette fausse voie et ainsi éviter un accident de la route.

Les chercheurs en sécurité du Tencent Keen Security Lab ont informé Tesla des problèmes et Tesla a signalé que les problèmes avaient été résolus dans les récents correctifs de sécurité.

Recommandations des rédacteurs

  • Le pilote automatique de Tesla peut être facilement trompé, selon les ingénieurs
  • Conduire les mains libres avec Enhanced Super Cruise dans le Cadillac Escalade 2021
  • Le nouveau logiciel de conduite autonome Tesla pourrait réduire d’un tiers les interventions du conducteur
  • Un conducteur de Tesla utilisant le pilote automatique soupçonné de conduite en état d'ébriété après avoir percuté une voiture de police en Arizona
  • Cadillac Super Croisière contre. Pilote automatique Tesla

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.