Depuis plusieurs années, la question de l’intelligence artificielle suscite autant d’espoirs que d’inquiétudes, que ce soit sur l’avenir du travail, jusqu’à même impacter notre capacité à réfléchir.

Publicité

Et si certains chercheurs la considèrent comme une avancée comparable à l’électricité ou à internet, d’autres estiment qu’elle pourrait signer la fin de l’humanité.

C’est justement la thèse radicale défendue par Eliezer Yudkowsky, figure du Machine Intelligence Research Institute, et Nate Soares, dans leur nouvel ouvrage « If anyone builds it, everyone dies« .

Quand l’IA dépasse l’humain…

Dans un épisode du podcast Hard Fork du New York Times, Eliezer Yudkowsky estime que le véritable danger de l’IA réside dans la possibilité de créer une intelligence artificielle largement supérieure à celle des humains et totalement indifférente à notre survie.

En effet, celui-ci estime que cela pourrait encourager l’intelligence artificielle à éliminer les humains, que ce soit volontairement ou par « effet collatéral ». Dans son intervention, l’auteur décrit des scénarios où une superintelligence pourrait détruire l’humanité pour éviter l’émergence d’un concurrent, ou tout simplement en poursuivant ses objectifs sans se soucier de notre existence.

Parmi les hypothèses les plus sombres, il évoque même un emballement énergétique, où des infrastructures alimentées par l’IA pourraient produire une chaleur telle que « les humains finissent littéralement cuits« .

Un débat mondial entre « doomistes » et « normalistes »

S’il est très alarmiste, ce discours alarmiste est loin d’être isolé, si bien qu’Elon Musk avait même estimé, en février dernier, qu’il y aurait 20% de chances pour que l’IA mène à l’anéantissement de l’homme.

Geoffrey Hinton, considéré comme l’un des pères de l’IA moderne, évoquait quant à lui une probabilité de 10 à 20% au mois d’août dernier. D’autres chercheurs comme Roman Yampolskiy vont encore plus loin, avançant des probabilités proches de 100%.

Face à ces perspectives de « doomistes« , une autre école de pensée émerge, qualifiée de « normaliste » dans un article sur le journal Vox. Elle défend l’idée que l’IA reste une technologie comme une autre, certes puissante, mais régulable grâce à des garde-fous, des normes de déploiement progressif et des mécanismes de surveillance.

Entre peur de l’apocalypse et appel à la régulation

Le livre de Eliezer Yudkowsky et Nate Soares pousse le pessimisme jusqu’à prôner l’arrêt complet des recherches sur l’IA avancée, quitte à imaginer des mesures extrêmes comme le bombardement de centres de données pour empêcher leur développement. Une vision que certains jugent disproportionnée, mais qui illustre bien l’ampleur du clivage sur la question.

Derrière ce débat, c’est en réalité un choix de société qui se dessine : faut-il considérer l’IA comme une opportunité, ou comme une menace existentielle ?

Entre l’optimisme des « normalistes » et le catastrophisme des « doomistes », un encadrement des risques pourrait émerger comme une troisième voie, sans bloquer totalement l’innovation…

Publicité