Le MIT apprend aux voitures à naviguer à l’aide d’une simple carte et des données visuelles, tout comme les humains.
Le MIT apprend aux voitures à naviguer à l’aide d’une simple carte et des données visuelles, tout comme les humains.

Afin d’apporter un raisonnement plus humain à la navigation autonome des véhicules, les chercheurs du MIT ont créé un système qui permet aux voitures sans conducteur de vérifier une carte simple et d’utiliser des données visuelles pour suivre des routes dans des environnements nouveaux et complexes (Crédit : Chelsea Turner/MIT)
Le MIT travaille sur une nouvelle façon pour les automobilistes de se déplacer dans des endroits peu familiers en imitant la façon dont les conducteurs humains naviguent. Baptisé Variational End-to-End Navigation and Localization, il utilise des cartes de base et des caméras vidéo pour analyser et naviguer dans un nouvel emplacement pour lequel il n’a pas été programmé avec des bases de données détaillées.
Le développement de véhicules autonomes a montré combien il est difficile de développer des capacités d’auto-conduite et a mis en lumière l’immense fossé qui sépare l’intelligence humaine de l’intelligence des machines – non seulement en termes de puissance de calcul, mais aussi en termes de résolution des problèmes de chacun.
Par exemple, les humains trouvent très facile de naviguer dans des endroits étranges et complexes avec à peine plus qu’une carte approximative et leurs yeux pour continuer, tandis que les véhicules autonomes, même dans des endroits familiers, ont tendance à compter sur des réseaux de capteurs très complexes pour générer des cartes et des bases de données détaillées pour la localisation, la cartographie, la détection d’objets, la planification des mouvements et le contrôle du pilotage. Ces cartes peuvent atteindre quatre téraoctets pour une ville de la taille de San Francisco.
Les humains peuvent travailler avec des informations très élémentaires et les appliquer à des situations très complexes. Tout ce dont une personne a besoin, c’est d’une simple carte, comme celle d’un appareil GPS, et il est possible de la relier à ce qu’elle voit autour d’elle. Des données apparemment non pertinentes peuvent également être ignorées ou incorporées dans la navigation selon la situation – comme quelqu’un qui peut marcher de Trafalgar Square à Liverpool Street Station à Londres en remarquant les pubs en chemin.
Selon l’équipe du MIT, la « Variational End-to-End Navigation and Localization » est conçue pour imiter l’approche humaine en apprenant d’un conducteur humain et en utilisant ensuite cette information pour s’adapter à de nouvelles situations avec seulement une simple carte et des caméras vidéo. L’idée est que la machine sera capable de prendre les approximations de la carte et de les corriger, de remplir les détails et de déterminer sa position pour qu’elle puisse corriger son cap vers la destination désirée.
Pour enseigner l’ordinateur, l’équipe a demandé à un conducteur humain de faire fonctionner une Toyota Prius automatisée tandis que plusieurs caméras et un GPS de base recueillaient des données sur les rues de banlieue, leur structure routière et les obstacles. Contrairement à l’approche plus conventionnelle qui repose sur un raisonnement machine et des bases de données très complexes, l’approche MIT apprend à partir de repères visuels. Cela signifie qu’il n’a pas besoin d’instructions détaillées lorsqu’il entre dans une nouvelle zone – il a simplement besoin d’une carte de base.
Dirigée par Daniela Rus, directrice du Laboratoire d’informatique et d’intelligence artificielle (CSAIL), l’équipe du MIT a mis au point un système de navigation de bout en bout qui se distingue en ce que, comme un humain, il est conçu spécifiquement pour rechercher une destination plutôt que pour se concentrer uniquement sur la route. Pour ce faire, il prend en compte ce qu’il a appris du conducteur humain, puis applique une méthode statistique pour prédire une distribution de probabilité complète en tenant compte de toutes les commandes de direction possibles à un moment donné.
Selon le MIT, cette prédiction est basée sur un modèle d’apprentissage machine appelé réseau neuronal convolutionnel (CNN) qui apprend à se diriger en traitant les images recueillies pendant la formation avec le conducteur humain. De cette façon, il sait gérer différents types de routes et de carrefours, y compris les intersections en forme de T.
« Au début, à une intersection en forme de T, il y a plusieurs directions différentes dans lesquelles la voiture peut tourner « , précise Daniela Rus. « Le modèle commence par penser à toutes ces directions, mais comme il voit de plus en plus de données sur ce que les gens font, il verra que certaines personnes tournent à gauche et d’autres à droite, mais personne ne va tout droit. Il est exclu que l’on puisse aller tout droit, et le modèle apprend qu’aux intersections en forme de T, il ne peut se déplacer que vers la gauche ou la droite. »
La « Variational End-to-End Navigation and Localization » permet également à la voiture de tenir compte d’autres indices visuels, comme les panneaux de signalisation, les lignes de route et d’autres repères, pour déterminer sur quel type de route elle se trouve et prévoir les passages à niveau, ainsi que la façon de se diriger dans une situation particulière.
De plus, il peut analyser le tracé des rues pour l’aider à déterminer où il se trouve. Une ligne de haute probabilité correspond à ce qu’il voit et la carte indique une position correcte sur sa position. Ainsi, les cartes de quatre téraoctets pour une ville moyenne peuvent être réduites à une base de données de 40 gigaoctets pour la planète entière.
C’est aussi un système beaucoup plus tolérant en cas d’inadéquation des données, capable de gérer les pannes de capteurs et les entrées bruyantes.
« Notre objectif est d’obtenir une navigation autonome et robuste pour la conduite dans de nouveaux environnements « , explique Daniela Rus. « Par exemple, si nous formons un véhicule autonome à la conduite en milieu urbain, comme dans les rues de Cambridge, le système devrait également être capable de rouler en douceur dans les bois, même si c’est un environnement qu’il n’a jamais vu auparavant ».
http://news.mit.edu/2019/human-reasoning-ai-driverless-car-navigation-0523