Intelligence artificielle, machine learning, deep learning : quelles différences ?
Intelligence Artificielle

Intelligence artificielle, machine learning, deep learning : quelles différences ?

On vous explique l'évolution de l'intelligence artificielle et ses modes d'apprentissage. Du machine learning, jusqu'aux GANs, en passant par les réseaux de neurones artificiels.

Si le terme intelligence artificielle est né en 1950 dans un article publié par Alan Turing, son application n’aura jamais été aussi performante que depuis ces dernières années. Néanmoins, l’IA comme domaine scientifique existe depuis 1956 suite à la conférence tenue au Darmouth College, ce qui sonne le début de l’histoire de l’intelligence artificielle. Aujourd’hui, elle vient de pair avec d’autres termes comme algorithme, machine learning, réseau de neurones artificiels, deep learning … Voyons ensemble ce qui hiérarchise tout cela.

Depuis 2012, les composants informatiques sont de plus en plus puissants et de moins en moins chers. Cela permet à des projets de recherche de voir le jour plus facilement. D’autre part, l’engouement pour l’intelligence artificielle a lancé de vastes plans d’optimisations de la collecte des données qu’il s’agisse de dossiers médicaux, d’images, de vidéos, ou des données de cartographies. C’est d’autant plus vrai lorsqu’on constate le faible coût que représente le stockage des données aujourd’hui. Grâce à tout cela, l’IA s’est perfectionnée et elle a trouvée de nouveaux terrains de jeu dans la médecine, dans le traitement des images, dans la programmation informatique, et même dans l’agriculture. C’est alors qu’émergent des termes comme machine learning, réseaux de neurones artificiels, GAN, ou encore deep learning, selon la complexité du travail appliqué à ces programmes.

L’intelligence artificielle faible.

Par définition, l’IA faible est un programme qui n’est pas doté de sens et se concentre uniquement sur la tâche pour laquelle il a été programmé. On la met en opposition à l’IA forte, qui, elle, est dotée de conscience et donc d’une sensibilité particulière. Cependant, l’IA forte reste encore du domaine de la science-fiction. Toutes les intelligences artificielles que nous croisons dans la vraie vie sont faibles.

Dans leur état le plus basique, elles ne sont qu’un algorithme qui n’évolue pas, et qui ne se base pas sur une quantité de données. Ceci en opposition au machine learning ou au deep learning. Ensuite, l’exemple le plus sommaire, d’une IA, c’est le robot contre lequel vous jouez aux échecs, à Warcraft, ou qui anime vos parties de Theme Hospital.

Dès lors que l’exploitation de la donnée entre en jeu, on commence à apprendre aux machines. Ainsi elles évoluent, se perfectionnent continuellement, et c’est dans les années 90 que le machine learning entre en jeu.

L’apprentissage automatique sacré par Deep Blue

Dès lors qu’entre en jeu un concept d’apprentissage, bon nombre de scientifiques rêvent de passer le test de Turing, évoqué en 1950 dans l’ordinateur et l’intelligence. Ce test consiste à engager une conversation masquée entre un humain, une machine, et un autre humain. Si le premier humain n’est pas en mesure de désigner l’interlocuteur qui est une machine, alors cette dernière passe le test de Turing.

La toute première fois qu’on parle de machine learning, c’est en 1959, lorsque Arthur Samuel a présenté pour IBM un programme jouant au jeu de dames. Sa particularité ? Il l’améliorait à chaque partie. L’informaticien a créé un système qui permettait au programme de se souvenir de chaque position qu’il avait déjà vu, avec les opportunités qu’elles offraient. Il l’a également fait jouer contre lui-même comme autre moyen d’apprentissage. Grâce à ces données, Arthur Samuel a fait évoluer son programme et il aurait ainsi été en mesure de battre le 4ème meilleur joueur de dames des États-Unis. Il s’agit également du premier programme informatique à jouer à un jeu de plateau à un niveau avancé.

Le véritable sacre de l’apprentissage automatique survient lorsqu’en 1997 Deep Blue bat Garry Kasparov aux échecs, invaincu jusqu’alors. Le superordinateur créé par IBM inspirera la naissance de Watson, mais aussi de nombreux projets d’apprentissage des intelligences artificielles. Le développement rapide de l’information, du traitement des données, et du cloud nous emmènera jusqu’à AlphaGo développé par DeepMind, rachetée par Google en 2014.

Depuis longtemps, nous, internautes, avons entraînés des systèmes de machine learning. En aidant à Google à identifier un chat, un panneau STOP, ou un feu de signalisation lors d’un CAPTCHA la plupart du temps. Au départ, l’IA fait difficilement la différence entre l’image d’un chat et celle d’un buisson. À force de lui dire « sur cette image il y a un chat, mais pas sur celles-ci » le programme comprend ce qu’est un chat. Seulement, pour progresser, il faut développer le bon algorithme d’apprentissage, et il faut du temps.

Aujourd’hui, le machine learning continue d’être utilisé, mais plus dans le cas de systèmes experts, ou de superordinateurs. Ces techniques ont posé les bases permettant de faire émerger des intelligences artificielles plus complexes, creusant plus profond. C’est le cas des réseaux de neurones artificiels.

Les réseaux de neurones artificiels : un fonctionnement calqué sur nos cerveaux

Si le terme « réseau de neurones » émerge depuis peu dans les médias, c’est qu’il était très difficile à mettre en place jusqu’à récemment. En effet, faire raisonner un programme comme raisonne le cerveau humain nécessite une puissance informatique impressionnante. C’est pour cette raison que les théories étaient fréquentes, mais aucune application ne voyait le jour. Pourtant cette approche est née avec les premières réflexions sur l’intelligence artificielle dans les années 1950.

Pour comprendre le fonctionnement d’un réseau de neurones (artificiel), imaginez plusieurs couches, avec des connexions entre elles. Chaque couche peut correspondre à une tâche, et chaque neurone a une mission bien précise. Dans le cas où l’on veut savoir si une image représente un feu tricolore, on doit dire s’il y a trois ronds pour les lumières, si la forme générale est rectangulaire, si une des lumières est allumée en vert orange ou rouge, si la taille correspond, etc. Chacun de ces attributs est évalué, avec un taux de certitude. En passant chaque couche, et en associant les résultats, le réseau est capable de livrer un taux de certitude. Exemple : à 97% c’est un feu tricolore, à 12% ce sont des LEGO, à 5% on voit des boutons de chemise. À la fin, le réseau est informé s’il a vu juste ou non.

Au départ, le réseau se trompe, beaucoup, vraiment beaucoup. À force de confronter ses résultats avec la réalité, à force de voir différentes images, il apprend. Que le feu de signalisation soit à l’horizontale, que l’image soit en noir et blanc, qu’il y ait une pluie battante, ou qu’il fasse nuit, il l’identifiera de mieux en mieux.

C’est à partir de ce fonctionnement, et grâce, encore une fois, au développement des capacités de calcul des ordinateurs, qu’est né le deep learning.

Plus il y a de couches, plus c’est deep

Dès lors que l’on a compris l’intérêt de créer des structures complexes, avec plus de couches, et plus de données, bon nombre de projets ont vu le jour. Ils ont bien souvent été financés au sein des GAFAM, mais également dans des écoles, ou dans d’autres structures privées. Leurs applications sont nombreuses, mais les plus connus sont dédiés à l’imagerie médicale, le traitement du langage, la reconnaissance vocale, etc. On est loin du feu tricolore.

La première fois que l’on parle de deep learning, c’est grâce à la professeure Rina Dechter en 1986. Ensuite, cette approche est mise en pratique par Yann LeCun en 1989. L’actuel boss de l’IA chez Facebook avait à l’époque utilisé un réseau de neurones artificiel profond afin de reconnaître les codes postaux écrits à la main sur des lettres. Un programme simple aujourd’hui, mais qui avait nécessité trois jours d’apprentissage.

Des recherches et des études sur la structure des réseaux de neurones continueront d’animer la communauté scientifique jusqu’en 2009, année où cette pratique prend son envol. On considère cette année comme le big bang du deep learning. À ce moment-là, Nvidia met ses processeurs graphiques (GPU) à contribution. Pour Andrew Ng, cofondateur de Google Brain, l’exploitation des GPU pourrait créer des systèmes d’apprentissage profond jusqu’à 100 fois plus rapides. L’entraînement des algorithmes passerait de plusieurs semaines à seulement quelques jours.

C’est ainsi que Andrew Ng crée une architecture avec bien plus de couches et de neurones qu’auparavant. Il l’entraîne ensuite avec des contenus provenant de 10 millions de vidéos YouTube afin que son programme puisse identifier et extraire les images avec des chats. Nous sommes en 2012.

C’est à cette date que l’IA explose véritablement. La vaste disponibilité des GPU permet de créer des traitements parallèles pour les programmes et ainsi les rendre plus rapides, moins chers, et même plus puissants. Ajoutons à cela, depuis 2015, la quantité astronomique de données que l’on peut utiliser et stocker, et les intelligences artificielles ont tout pour s’épanouir
.
Aujourd’hui, des IA sont capables de faire des tâches précises bien mieux que l’Homme. Conduire, identifier une tumeur, joueur à un jeu vidéo, recommander un film, etc. Le deep learning a permis aux chercheurs de mettre en place bien des éléments pratiques du machine learning, et ce, pour un meilleur futur.

Un schéma pour tout comprendre sur l’intelligence artificielle

Toutes (ou presque) les théories d’apprentissage, les structures de réseaux de neurones artificiels, les applications de certains traitements ont vu le jour dès les premiers instants de l’intelligence artificielle. Cependant, l’informatique aura été la clé de son épanouissement et de sa mise en pratique. De l’intelligence artificielle basique au deep learning, il aura fallu attendre des décennies.

Différence entre intelligence artificielle, machine learning, réseau de neurones, et deep learning
Crédit : Nvidia

Chaque approche évolue de son côté, et permet de renforcer l’autre dans le cas où l’on va plus profond dans l’apprentissage. Les structures, les fonctionnements, les concepts sont constamment remis en question. C’est le cas d’une technique que Yann LeCun a qualifié d’idée « la plus intéressante des 10 dernières années dans le domaine du Machine Learning. »

Les GANs rendent les IA créatives

Les GANs, ou Generative Adversarial Networks sont utilisés dans le cadre d’un entrainement intensif, mais extrêmement efficace. Deux réseaux de neurones s’opposent. Le premier (générateur) doit créer une image, mettons, un arbre. Il doit ensuite soumettre cette image parmi d’autres vraies images d’arbres. Le second (discriminateur) doit dire quelle image n’est pas celle d’un arbre, et la renvoie. Ainsi, le générateur peut confronter son image avec celles qui ont été validées, pour ensuite en recréer une meilleure, la soumettre, et ainsi de suite. La dernière étape est lorsque le discriminateur n’est plus en mesure d’éliminer une image.

Schéma de fonctionnement d'un GAN.
Schéma de fonctionnement d’un GAN. Crédit : Wintics

Les résultats des GANs sont bluffants. Nvidia a travaillé sur plusieurs cas de figure avec ces réseaux dont la plus impressionnante est la génération de visages que vous pouvez voir ci-dessous. S’ils semblent tous être vrais, ils n’existent pas. Ils ont été réalisés par un programme.

Nvidia a créé une intelligence artificielle capable de générer des visages de personnes qui n'existent pas
Crédit : Nvidia

Une application dans le design industriel fait partie des éléments sur lesquels les GANs vont être mis à contribution.

Des simples robots dans les jeux vidéo, l’intelligence artificielle occupe une place quotidienne dans nos vies aujourd’hui. Nous l’utilisons sans nous en rendre compte sur Google, Spotify, Netflix … Si Hollywood lui prête un destin de domination de l’Homme, elle n’est toujours pas programmée pour ça, et difficile de penser que ce sera le cas. Très performante sur des tâches extrêmement complexes et précises, l’IA n’est toujours pas en mesure d’avoir une intelligence générale, c’est à dire d’apprendre à être intelligente comme nous, d’apprendre le monde comme un bébé ou un enfant peut le faire.

Send this to a friend