Dans le cadre de son intervention au TEDx organisé par l’école de commerce de l’Istec sur la thématique du jeux (Play the Game), j’ai a eu l’occasion d’interviewer Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre et Marie Curie, sur l’intelligence artificielle. Spécialiste de l’IA, ses recherches portent actuellement sur le versant littéraire des humanités numériques, sur la philosophie computationelle et sur l’éthique des technologie de l’information et de la communication. Il a été question des enjeux sociétaux que créait cette technologie, mais surtout dans la veine de son dernier ouvrage (Le mythe de la Singularité) du problème de la démystification de l’IA et de toutes les peurs qu’elle engendrait.

Le mythe de Terminator ou Frankenstein, celui de la créature qui finirait par prendre le dessus sur son créateur est-il possible aujourd’hui avec l’intelligence artificielle ?

C’est une question à laquelle il est difficile de répondre car en tant que scientifique je ne peux me prononcer que sur ce qui est vérifiable. Je pense avant tout qu’il n’y a pas d’impossibilité car on voit bien que la technologie ou la science, peut créer aujourd’hui déjà des difficultés. Il y a des annonces comme celles de Laurent Alexandre ou de Stephen Hawking qui sont fracassantes, elles disent « Ça va arriver très bientôt et on risque de ne pas avoir de prises sur le développement de la technologie qui sera autonome. » Ils donnent même une date qui est 2045. Je trouve que c’est totalement faux et les arguments qu’ils déploient ne sont pas tenables, ils s’appuient sur la loi de Moore qui est exponentielle, que la vitesse, les processeurs, augmentent de plus en plus vite et que fatalement elle dépassera le cerveau humain. Cette loi d’abord elle n’est pas avérée et elle a des limites naturelles. On ne peut pas parier sur une révolution technologique, on n’en sait rien, ce n’est pas parce que les processeurs seront plus rapides qu’ils seront plus intelligents. L’intelligence ce n’est pas la rapidité, c’est aussi le fait d’inventer de nouvelles notions, c’est la capacité d’adaptation, la créativité. C’est aussi le fait de se remettre en cause et d’accoucher de quelque chose qui n’existait pas auparavant.

Avec le Machine Learning on dit que les machines apprennent et donc qu’en apprenant elles se perfectionnent et créent des connaissances. Comme elles créent des connaissances elles pourraient être meilleures que les hommes qui les ont programmé. En réalité elles sont certes plus efficaces que ce que l’on avait imaginé, commeAlphaGo qui a joué mieux que les hommes au jeux de Go. Mais ce n’est parce qu’une machine va être plus efficace sur une tache particulière qu’elle va être capable de réinventer des choses. Dans l’histoire de l’espèce humaine et des sciences on sait très bien qu’à un moment donné il y a eu ce qu’on appelle des ruptures, des systèmes conceptuels qui basculent. À l’image de la théorie de la relativité d’Einstein qui a introduit un changement de paradigme. Et là on se retrouve dans une situation où on ne sait pas comment faire un changement de paradigme, une machine apprend car on lui donne des étiquettes, en lui disant « ça c’est Paul, ça c’est Jean » et cela donne de bon résultats. C’est très bien mais ce n’est pas ça qui qui mettra en danger l’humain.

Vous, vous le savez mais comment vulgariser l’intelligence artificielle pour que cela ne reste pas entre les mains d’un cercle d’initiés et éviter les caricatures à son sujet ?

J’ai écrit un livre qui s’appelle le mythe de la Singularité qui explique et replace dans leurs contextes les différentes déclarations qui ont été faites depuis quelques années. Et de montrer qu’elles étaient fausses, qu’elles échappent à la rationalité et c’est pour ça qu’elles plaisent. Ce qui est d’autant plus intéressant c’est que les grandes sociétés comme Google se font l’écho de ces thèses, elles sont dans une situation de pompier pyromanes où elles se retrouvent à nous mettre en garde contres les machines qu’elles construisent et nous disent qu’elles vont mettre en place des comités « d’éthique » pour essayer de maîtriser les risques ! Je suis entrain d’ailleurs de sortir un deuxième ouvrage qui est dans la même veine, en essayant de répondre aux questions communes que l’on se pose. Comme l’histoire de la taxe pour les robots abordée par Bill Gates par exemple. Avec Internet les rumeurs vont encore plus vite et la particularité sur ce support c’est que chacun écoute ce qui l’intéresse, ce qui rend la prévention encore plus difficile.

Justement à ce propos, pourquoi laisser ce domaine exclusivement aux mains des organismes privés ? Pourquoi ne pas en quelque sorte « nationaliser l’intelligence artificielle » ? Avec la toute puissance des GAFA et des BATX que les états ne peuvent même pas réguler on voit bien qu’il y a un problème de rapport de force.

C’est une question d’ordre politique, mais pour un début d’explication il faudrait remonter à la création d’Internet tel que nous le connaissons. À partir du moment où le Web est mondial, il est extrêmement difficile pour un État de le maîtriser ou de le réguler, à part dans les pays très fermés qui s’y essayent comme la Chine et encore … Le problème c’est qu’en tant que consommateur on bénéficie tous de cette ouverture, mais qu’en tant que citoyen c’est une grande perte car il y a une perte d’espace publique où il y a de vrais débats.

On voit que ces 50 dernières années tout le monde a bénéficié de la mondialisation sauf une classe : la classe moyenne dite « blanche ». On le voit dans les votes de Donald Trump par exemple. Est-ce que l’intelligence artificielle ne vas pas devenir un critère de démarcation de plus entre ceux qui pourront en bénéficier et ceux qui ne le pourront pas ? Ce qui nous ramènerait à la case départ finalement où on verrait la classe moyenne toquer au portillon et réclamer à nouveaux ?

Exactement. C’est un peu tout ça qu’il s’est passé aux USA. On a la même chose en Europe, mais dans une moindre mesure, dans le sens où la « société en sablier » est moins dessinée. Mais cela tiens au fait que les hommes politiques ont une méconnaissance profonde du numérique, de Chirac à Hollande d’ailleurs, et souvent ils réutilisent des anciens schémas. Or, c’est une industrie compliquée qui repose beaucoup sur les retours d’usages avec la démultiplications des données, ce qu’on appelle le Big Data. Les situations monopolistiques classiques ne tiennent plus. Et si l’on part du principe que les même causes amènent les mêmes conséquences c’est une crainte justifiée que de voir la classe moyenne réclamer à nouveaux ce dont elle a encore une fois été privée.

Le Big Data réveille forcément la crainte d’une machine qui utiliserait toutes nos données pour s’en servir contre nous si en plus on le couple avec l’intelligence artificielle…

Tout à fait, vous voyez que le danger n’est pas là où on l’imagine souvent. C’est-à-dire que la peur type « Terminator » est infondée. En revanche il y a un vrai danger lié à la prise de pouvoir de certains acteurs et c’est là qu’il y a un choix politique à faire, à savoir se poser la question de qu’est ce qu’on voudrait faire dans le futur. Il faut que l’on se préoccupe dans les différents pays de ces questions, car pour l’instant chez nous en Europe les gouvernements se sont tous refilés la patate chaude laissant le champs libre à ces entreprises. Entreprises qui, elles, ne sont pas soumises au vote ne l’oublions pas. Elles ont avant tout une logique industrielle et non électoraliste. Ce qui est très déstabilisant quand on les rencontre, car ce ne sont pas des capitalistes au sens 19ème siècle, avec des gros cigares à tirer sur la foule. Ils savent très bien qu’ils ont besoin de l’approbation du plus grand nombre, d’ailleurs Google ne manque pas de le rappeler dès qu’elle le peut avec sa devise « Don’t be evil ».
En fait, je dirais que la technologie doit être comprise comme un outil, que l’on doit enfin comprendre que c’est notre propre renoncement qui est responsable de la plupart de nos situations de dépassement, comme bien souvent d’ailleurs…