Chaque jour, les voitures de Google Street View récoltent des millions d’images pour renforcer la navigation des utilisateurs. La firme de Mountain View a commencé à exploiter des données récupérées par leurs caméras dans le but de renforcer la précision de Google Maps avec un projet made in France.

Jusqu’à aujourd’hui, plus de 80 milliards de clichés en haute définition ont été capturés par les voitures de Google. Le GPS ne pouvant pas toujours positionner un numéro de rue, une rue elle-même, ou un établissement, ces clichés sont donc très importants pour améliorer l’expérience de Google Maps. En travaillant en deep learning sur fond de réseau neuronal, l’algorithme de Google a réussi à être 84,2% précis. Il a été éprouvé sur le challenge des French Street Name Signs ou FSNS.

Google street view

Exemple de clichés intégrés dans la base FSNS correctement transcrits par l’algorithme.

La reconnaissance du texte dans un environnement naturel est un vrai défi pour l’intelligence artificielle ainsi que la vision par ordinateur (computer vision). On est loin de la simplicité du texte récupéré à partir d’un scan. Ici il faut jouer avec la typo, l’angle de la prise de vue, l’environnement, les couleurs de fond, les couleurs du texte, etc.

Ces améliorations devraient offrir beaucoup plus de simplicité à Google et encore plus de précision aux utilisateurs. « Chaque fois qu’une voiture Street View roule sur une nouvelle route, notre système peu analyser des dizaines de milliers d’images pour en extraire le nom des rues ainsi que les numéros, pour créer automatiquement les nouvelles adresses sur Google Maps. »

Source.