Sur les voitures autonomes, des capteurs multiples, divers et complémentaires
⏱ 7 minPour devenir toujours plus autonome, la voiture doit mieux percevoir son environnement. Afin de détecter et interpréter de manière fiable la route, les autres véhicules, les piétons, la signalisation… elle doit se doter d’une panoplie de capteurs complémentaires, reposant sur des technologies ayant chacune leurs avantages et leurs inconvénients.
La voiture strictement autonome est encore loin. En attendant, l’industrie propose toujours plus d’aides à la conduite automobile (en anglais Advanced driver-assistance systems ou Adas), qui font progresser la voiture autonome sur l’échelle à cinq degrés proposée par l’Organisation internationale des constructeurs automobiles (lire l’encadré de l’article « Voiture autonome, un déluge de données à interpréter« ). Les dispositifs permettant d’atteindre le premier niveau, parfois désigné par la formule « eyes on-hands on », qui sous-entend que le conducteur reste prêt à reprendre le contrôle, sont déjà monnaie courante. Ils contrôlent la direction ou la vitesse, mais pas les deux en même temps. Des modèles haut de gamme comportent aujourd’hui des dispositifs de niveau deux (« eyes on-hands off »), qui permettent de déléguer, dans des circonstances précises, le contrôle latéral et longitudinal de la voiture, en la maintenant par exemple sur autoroute ou dans un bouchon dans sa file et à bonne distance du véhicule précédent. On aborde depuis peu le niveau trois (« eyes off-hands off ») : la conduite est automatisée pendant de longues périodes, mais le conducteur doit rester attentif, prêt à reprendre la main dès que le pilote automatique rend son tablier. Par exemple lorsque le marquage horizontal est subitement déficient.
Les caméras ne suffisent pas
Pour aller de l’avant, les constructeurs doivent encore améliorer beaucoup de choses, à commencer par les capacités de perception du véhicule. Il doit « voir », de manière toujours plus fiable, la route, les autres véhicules et les piétons, la signalisation horizontale et verticale. Sans oublier les sangliers, les pneus laissés pour compte et bien d’autres choses. L’effervescence récente à propos de la voiture autonome s’explique essentiellement par les progrès rapides de ces dernières années en vision artificielle. L’émergence de l’apprentissage profond, de ses réseaux de neurones, notamment les réseaux convolutifs CNN (« Convolutional Neural Network » ou « ConvNet ») (voir timeline « Réseaux neuronaux convolutifs » et « Retour en grâce des réseaux neuronaux convolutifs« ), a laissé croire que l’on serait très vite capable de tout voir artificiellement via une simple caméra. Et comme l’industrie produit de nos jours des caméras performantes à des prix très bas…
Mais parce que son intelligence artificielle sera encore longtemps bien inférieure à celle d’un conducteur attentif, le véhicule autonome ne peut se contenter d’un œil ou deux, il doit faire appel à d’autres modes de perception. « Il n’y a pas de capteur universel, affirme Fawzi Nashashibi, responsable de l’équipe-projet RITS (Robotics and Intelligent Transportation Systems) à l’Inria. Nous sommes obligés de faire appel à plusieurs capteurs de natures différentes ayant des qualités complémentaires. Chacun de ces capteurs étant imparfait et susceptible de dysfonctionnement. » Des capteurs multiples et variés, donc, pour voir la route, les autres véhicules, les piétons et lire la signalisation, pour voir loin devant, sur les côtés et surveiller ses arrières.
Où en est-on ? La vision artificielle dernier cri n’est toujours pas irréprochable. En particulier, elle évalue mal les distances. Bien sûr, la vision binoculaire permet, en comparant les images issues de deux caméras assez écartées, d’évaluer les distances. « La vision stéréoscopique permet de mesurer l’éloignement des obstacles, au moins des plus proches, admet Guillaume Bresson, directeur du domaine Véhicules autonomes et connectés à l’institut Vedecom. Mais il lui faut des textures, elle est mise en défaut par les surfaces uniformes, comme une chaussée bien propre. » Le marché semble donc destiner cette technologie à un rôle secondaire. Tout comme l’écholocation par ultrasons : le sonar a trouvé sa place pour donner un coup de main en marche arrière, mais on ne compte pas sur lui en ambiance bruyante, pour rouler à 130 km/h sur autoroute.
Les lidars aussi ont leurs limites
Voilà pourquoi, il y a quinze ans, un nouveau type de capteur a fait son apparition sur le toit des prototypes : le lidar (« LIght Detection And Ranging »). Tout comme le sonar ou le radar, c’est un capteur actif : il émet un faisceau lumineux, souvent une impulsion laser dans l’infrarouge proche (typiquement entre 900 et 1 100 nanomètres), et chronomètre le retour de la lumière réfléchie par les obstacles éventuels. Faites le calcul : si elle revient après une microseconde, c’est qu’elle a rencontré un obstacle situé à 150 mètres. En faisant tourner ce dispositif sur lui-même, on obtient un lidar 2D, qui détecte tous les obstacles à 360° dans un plan. Et pour obtenir une information en 3D, on multiplie verticalement les plans : on parle de nappes, ou de couches. Les lidars ont bel et bien prouvé leurs capacités, par exemple lors des courses de véhicules autonomes organisées par la Darpa (Defense Advanced Research Projects Agency) comme le Grand Challenge en 2004 et 2005, ou l’Urban Challenge en 2007. Ainsi, cinq sur les six finalistes de 2007 arboraient un HDL-64E de Velodyne, ce qui se faisait de mieux à l’époque. Comme son nom l’indique, il ausculte l’environnement à l’aide de 64 nappes.
Depuis, la technologie a progressé. « Le lidar était imparfait et surtout très cher, explique Fawzi Nashashibi, mais aujourd’hui une centaine d’entreprises travaillent à l’améliorer et à en réduire le coût. » Les prix étaient exprimés à l’époque en dizaines de milliers d’euros (environ 80 000 en 2005 pour le HDL-64E de Velodyne), aujourd’hui on parle en milliers d’euros. Plusieurs solutions sont explorées pour les rendre plus compacts et robustes, notamment en éliminant la rotation mécanique des lidars classiques. Des lidars sans pièce mobile (« solid state ») et compacts sont notamment proposés par de jeunes entreprises comme Innoviz Technologies (Israël), Quanergy Systems (Californie), LeddarTech (Canada) ou encore Innovusion (Californie). Et Velodyne est toujours actif, et vient d’annoncer Velobit, le premier lidar qui passerait sous la barre des 100 dollars (pour une fabrication de masse). En Europe, quelques grands équipementiers sont également dans la course, dont l’Allemand Continental et le Français Valeo. Et de nouvelles fonctionnalités apparaissent. « Les meilleurs lidars, précise Fawzi Nashashibi, analysent de plus l’intensité du signal retour, donc la réflectance (le facteur de réflexion) de l’obstacle rencontré, ce qui permet de distinguer certaines catégories d’objets. Comme les lignes de marquage au sol ou les objets verticaux. Mais cela ne suffit pas pour lire un panneau de signalisation. »
Car le lidar a ses limites. « Il est mis en difficulté par la poussière, le brouillard, la pluie, la neige et les vitrages, précise Guillaume Bresson. Et il voit mal certaines peintures très absorbantes pour les infrarouges. » C’est pourquoi, depuis peu, on s’intéresse à ce bon vieux radar, qui fait avec des ondes millimétriques ce que le lidar fait avec la lumière. « Le radar est bien moins affecté par les conditions météorologiques, ajoute Guillaume Bresson, mais il offre une résolution inférieure au lidar. » Quand la résolution angulaire des meilleurs lidars annoncés atteint le dixième de degré, celle des radars est de l’ordre de 1 degré.
Un ensemble de capteurs complémentaires
Le radar a néanmoins un autre avantage. « Comme le lidar, il mesure le temps de vol du signal réfléchi, et donc fournit directement des distances, rappelle Fawzi Nashashibi. Mais en plus, grâce à l’effet Doppler, il fournit une information de vitesse robuste. Par ailleurs, il offre une définition moindre et une plus faible ouverture (angle de vue). Et il peut être victime d’échos et d’interférences qui peuvent engendrer de fausses indications. » Le radar était également encore plus encombrant et cher que le lidar. Mais des dizaines d’équipes ont travaillé à l’adapter aux exigences de l’industrie automobile. Aujourd’hui des start-up proposent ou préparent des modèles compacts, sans pièce en mouvement et peu onéreux, notamment Uhnder (Texas), Arbe Robotics (Israël), Ghostwave (Ohio), Metawave (Californie), Echodyne (Seattle), Oculii (Oregon).
Et la liste des capteurs bons pour le service de la voiture autonome ne s’arrête pas au trio caméra – lidar – radar. « Les caméras infrarouge thermique sont intéressantes, signale Guillaume Bresson, parce qu’elles distinguent ce qui est chaud, donc notamment les humains. Mais elles restent chères et l’interprétation n’est pas si simple. Par exemple, en hiver, les piétons sont bien couverts et sont donc moins visibles en infrarouge. » Plus intrigant, cette technologie sur laquelle travaille la start-up israélienne BrightWay Vision, qu’elle appelle « Active Gated Imaging ». En français, « imagerie active à découpage ». Elle consiste, après avoir illuminé l’environnement à l’aide d’une brève impulsion laser infrarouge, à prendre des clichés très brefs au fur et à mesure que la lumière réfléchie par la scène revient vers le capteur. On obtient ainsi des images qui correspondent à des tranches de distance. Celle correspondant à 100 mètres ne montrera que les obstacles qui se situent environ à cette distance. Mais pas le brouillard, la poussière ou la neige plus proches du véhicule.
Quels capteurs, quelles technologies de perception, dans la voiture du futur ? Les constructeurs eux-mêmes se grattent la tête et sont obligés de faire des paris, et donc des impasses. Tandis que de nouvelles modalités de perception se font jour, les améliorations des anciennes se poursuivent. Par exemple pour résoudre les problèmes de réflexion de l’illumination infrarouge des lidars par la poussière, le brouillard, la pluie, la neige… « En analysant plus subtilement le signal de retour, des modèles récents de lidars sont désormais capables de voir au-delà des échos provoqués par les gouttes d’eau, signale par exemple Dominique Gruyer, directeur de recherche à l’Ifsttar (Université Gustave Eiffel), au sein du laboratoire PICS-L (Perception, Interactions, Comportements & Simulation des usagers de la route et de la rue). » D’autres surprises pourraient venir des radars. « L’utilisation de matrices d’antennes va permettre d’obtenir des images radar proches des données obtenues par le lidar mais sans ses inconvénients, ajoute-t-il. Demain, une analyse toujours plus poussée des signaux de retour pourrait permettre d’aller au-delà de la seule détection de la distance et de la vitesse relative. Par exemple l’analyse de la polarisation permettrait d’obtenir des informations complémentaires sur la nature des matériaux rencontrés. » Pour les constructeurs, l’avalanche de nouvelles solutions rend difficile toute prise de décision.
Pierre Vandeginste
Illustration à la une : le prototype Robert de l’Ifsttar © Ifsttar