L'Autopilot Tesla, pionnier controversé de la conduite autonome
La course aux véhicules autonomes est devenue le nouveau défi technologique des constructeurs automobiles. Tesla, avec son système Autopilot, s'est positionné comme un leader en introduisant dès 2015 une assistance avancée à la conduite, généralisée à tous ses modèles en 2019. Ce système, conçu pour détecter les obstacles, freiner automatiquement et surveiller les angles morts, a pourtant été impliqué dans plusieurs accidents mortels au fil des années.
Les premiers accidents : des signaux d'alerte ignorés
Le premier incident médiatisé remonte à 2016 en Floride. Un conducteur, malgré les alertes répétées de l'Autopilot l'invitant à garder les mains sur le volant, a ignoré les consignes. Le véhicule a percuté un camion, causant sa mort. Les rapports ont révélé que l'Autopilot était activé pendant la majeure partie du trajet, mais que le conducteur n'a posé les mains sur le volant que pendant 25 secondes seulement. En réponse, Tesla a mis à jour son logiciel pour imposer une réponse aux avertissements sonores.
Des défaillances techniques et humaines
En 2018, en Californie, un Tesla Model X a percuté une barrière de sécurité, déclenchant un incendie après l'impact. Les enquêteurs ont conclu que l'Autopilot avait dirigé le véhicule vers un point de convergence en raison de ses limites techniques. Le conducteur, trop dépendant du système, n'a pas réagi à temps. Par ailleurs, les autorités californiennes ont été pointées du doigt pour ne pas avoir signalé l'état défectueux de la barrière.
En 2021, un autre accident mortel a secoué le Texas : un Tesla Model S, sorti de la route, s'est écrasé contre des arbres, tuant ses deux passagers. L'enquête a révélé que l'Autopilot n'était pas activé au moment du crash, car il nécessite des lignes de marquage au sol pour fonctionner. Le conducteur aurait pu utiliser le Traffic Aware Cruise Control, mais celui-ci n'aurait été efficace qu'à une vitesse inférieure à la limite autorisée sur la route.
Les limites persistantes malgré les améliorations
Malgré les mises à jour régulières, les accidents impliquant l'Autopilot continuent de poser question. Tesla a développé des versions plus avancées, comme le Full Self-Driving (FSD), capable d'effectuer des manœuvres de base comme le braquage ou la navigation sur itinéraire. Pourtant, ces technologies restent dépendantes des conditions environnementales et de la vigilance du conducteur.
« Les accidents mortels liés à l'Autopilot montrent que la conduite autonome n'est pas encore une solution infaillible. Les systèmes doivent être accompagnés d'une surveillance humaine rigoureuse. »
Vers une régulation plus stricte ?
Ces incidents soulèvent des débats sur la nécessité d'une réglementation plus stricte pour les systèmes d'assistance à la conduite. Les constructeurs, dont Tesla, sont sous pression pour garantir la sécurité de leurs technologies avant de les commercialiser à grande échelle. La question reste ouverte : quand la conduite autonome sera-t-elle vraiment sûre ?