au sommaire
« Si vous passez suffisamment de temps sur la route, des accidentsaccidents se produisent, que vous soyez dans une voiture ou dans une voiture autonome. » Ainsi s'exprimait en mai dernier Chris Urmson, le patron du programme de voitures autonomes de GoogleGoogle. À l'époque, il avait dressé un bilan après six ans d'expérimentation : 2,7 millions de kilomètres parcourus et seulement 11 accidents sans gravitégravité dans lesquels aucune voiture Google n'était fautive.
Mais ce bilan immaculé, du point de vue de la responsabilité des « Google cars », ne pouvait durer indéfiniment. Le jour de la Saint-Valentin, une Lexus munie du système de conduite autonome de la firme californienne a provoqué un accident de la circulation. Les circonstances sont décrites dans le rapport transmis par Chris Urmson au DMV (Department of Motor Vehicles).
La voiture autonome circulait en ville sur la voie la plus à droite de la chaussée. Elle s'est retrouvée bloquée par des sacs de sablesable disposés autour d'une bouche d'évacuation d'eaux fluviales. Le véhicule a alors entrepris de s'insérer dans la voie centrale alors qu'un bus municipal approchait. L'accident s'est produit à faible allure (3 km/h pour la voiture, 24 km/h pour le bus) et n'a fait que des dégâts matériels mineurs (voir la vidéo amateur postée sur YouTube).
Le rapport souligne que l'ingénieur-testeur présent à bord de la voiture a lui-même cru que le bus allait ralentir et céder le passage, ce qui laisse entendre qu'il aurait commis la même erreur. Certes, mais un autre conducteur n'aurait peut-être pas eu la même réaction...
Voici ce qui est présenté comme la voiture Google impliquée dans l’accident avec un bus. La voiture autonome a décidé de s’insérer dans une voie de circulation alors qu’un bus arrivait. © Joshua Smith, YouTube
Le risque zéro n’existe pas
Cet évènement marque une étape tout à fait intéressante qui montre que Google est entré dans une phase plus subtile du développement de son pilote automatique. Tous les jours, les automobilistes sont confrontés à ce genre de situation où ils doivent faire appel autant à leur expérience qu'à leur sens du risque qui en conduira certains à faire une manœuvre et d'autres à jouer la prudence.
On peut imaginer que la voiture Google se situe plutôt dans la seconde catégorie. Mais le curseur n'est pas simple à positionner... Sur quel critère l'intelligence artificielle de la voiture s'est-elle basée pour déterminer qu'elle pouvait s'engager malgré le bus en approche ? Comment a-t-elle évalué la probabilité d'une collision ? Les ingénieurs de Google ont d'ores et déjà modifié leurs algorithmes pour prendre en compte cet évènement, mais on peut imaginer que d'autres situations de ce type risquent de se reproduire. Et c'est tant mieux car c'est bel et bien le seul moyen de fiabiliser le système.
En revanche, cet incident, et éventuellement d'autres, pourrait bien venir contrarier les plans de Google pour sa propre voiture autonome. Le géant californien a récemment débattu avec la NHTSA (National Highway Traffic Safety Administration), l'autorité en charge de la sécurité routière aux États-Unis, pour savoir si l’intelligence artificielle qui pilote sa voiture autonome peut être considérée comme un conducteur à part entière. La NHTSA a répondu par l'affirmative, tout en soulignant que la législation définisant ce qu'est une voiture devrait évoluer. En effet, aujourd'hui, une automobileautomobile doit, entre autres, posséder des pédales et un volant.
Or, justement, Google voudrait supprimer ces commandes sur sa voiture dont il assure la conception intégrale. Le géant californien aurait expliqué à la NHTSA que c'est le fait d'ajouter des contrôles manuels à une voiture autonome pour permettre au passager de reprendre la main qui constituerait le véritable danger. Sauf que dans le cas de l'accident de la Saint-Valentin, un chauffeur aurait pu freiner pour empêcher la voiture d'avancer alors que le bus arrivait. Pas sûr que la Google car perde les pédales de sitôt...