DeepMind, une startup Google spécialisée dans l’intelligence artificielle, travaille sur un aspect “social” de l’intelligence artificielle. En d’autres termes,  l’entreprise britannique cherche aujourd’hui à apprendre le travail d’équipe à son intelligence artificielle. Cette avancée serait basée sur le système de récompense, qui encourage l’IA de se concentrer sur sa performance positive.

Jusqu’à présent, la coordination de différentes IA était difficile en l’absence d’une programmation claire. L’aspect social et la motivation étant pris en compte, la performance d’un robot pourrait être améliorée. Cette motivation sociale, qui est en réalité intrinsèque, a été présentée lors de la Conférence Internationale du Machine Learning la semaine dernière.

Toutefois, avant de pouvoir comprendre tout cela, un robot doit passer par une phase d’essais et d’erreurs. Cette méthode s’appelle le “reinforcement learning”. En plus de cette méthode, d’autres expériences ont été effectuées, en intégrant le facteur de l’influence et l’analyse du comportement des autres. Cet exercice a permis à l’IA d’utiliser un raisonnement “what if”, qui est une approche dite contre-factuelle.

Les résultats de ces expériences sont assez surprenants. En fait, les chercheurs ont observé une meilleure performance de leur machine lorsque cette dernière était récompensée pour son influence, dans des situations variées. Les agents de l’IA qui étaient “à l’écoute” obtenaient un meilleur résultat sur les exercices.

Natasha Jaques, qui a participé à ce projet pendant son stage chez DeepMind à Londres, explique que la coordination de l’IA pourra trouver sa place dans plusieurs secteurs, où le robot devra échanger avec un autre robot ou un humain. Par exemple, on pourra retrouver cette technologie dans les voitures autonomes ou encore les robots ménagers.