L’institut for Human-Centered Arificial Intelligence de l’Université de Stanford (Stanford HAI) a publié durant le mois de mars, la version 2022 de son rapport. Pour la cinquième année, celui-ci analyse comment l’intelligence artificielle (IA) et plus précisément les modèles d’apprentissage automatique (machine learning) affectent la recherche et le développement des entreprises et organismes, ainsi que l’économie et la politique des pays à travers le monde.

Entre satisfaction et réticences : les modèles d’IA sont puissants, mais peuvent être dangereux

Le rapport proposé par Stanford HAI se découpe en cinq chapitres : recherche & développement, performances techniques, éthique de l’intelligence artificielle, économie & éducation, politique et gouvernance de l’IA.

Parmi l’une des tendances mises en avant par l’étude, les réseaux de neurones, composante principale des modèles de machine learning, s’agrandissent et développent de plus en plus. Le rapport évoque les modèles de langage, comme GPT-3 d’OpenAI, qui sont formés sur des dizaines de téraoctets (1012 octets) de données et possédant des centaines de milliards de paramètres.

Toxicité modèles IA

Ce graphique montre comment l’augmentation du nombre de paramètres et l’utilisation de données toujours plus nombreuses (symbolisés par very low, low, med et high) augmentent le risque de toxicité du modèle. Capture d’écran : Rae et al. / 2022 AI Index Report.

« Un modèle composé de 280 milliards de paramètres et développé en 2021 peut être jusqu’à 28 % plus dangereux qu’un modèle de 117 millions de paramètres comme il était possible d’en trouver en 2018. Cette augmentation de la dangerosité s’accompagne d’une augmentation large et significative des capacités du modèle » précise le document. Les auteurs ont ajouté qu’il était plus que jamais important de comprendre quelles étaient les lacunes de ces systèmes puisqu’ils tendent à être commercialisés et déployés partout dans le monde.

En parallèle, la recherche sur l’équité et la transparence de l’IA a explosé depuis 2014. Le nombre de publications de chercheurs s’intéressant à l’éthique de l’IA a été multiplié par 5.

Le secteur privé s’intéresse de plus en plus à l’intelligence artificielle

Plus nous avançons dans le temps, plus la formation et l’exécution des modèles de machine learning deviennent abordables. Le coût pour développer et former un modèle permettant de classifier des images selon certaines caractéristiques a diminué de 63,6 %. Cette baisse des prix a permis une augmentation totale des investissements, les entreprises pouvant de plus en plus se permettre de mettre de l’argent pour exploiter l’IA.

Investissements dans l'IA

Ce graphique met en avant les investissements dans l’IA par le secteur privé (bleu) ou le secteur public (vert). En violet foncé, on retrouve les fusions ou acquisitions et en violet clair, des acteurs minoritaires (comme des joint-ventures par exemple). Capture d’écran : NetBase Quid / 2022 AI Index Report.

L’investissement réalisé dans l’IA par l’ensemble des entreprises privées en 2021 est de 93,5 milliards de dollars. Ce résultat a doublé par rapport aux chiffres de 2020. En 2020, seuls 4 tours de table pour des levées de fonds d’une valeur de 500 millions de dollars ou plus avaient été bouclés, contre 15 en 2021.

Parmi elles, on retrouve Waymo, la filiale d’Alphabet spécialisé dans le secteur des véhicules autonomes, qui avait signé une levée de fonds de 2,5 milliards de dollars afin d’améliorer sa technologie et de recruter du personnel supplémentaire. En revanche, le nombre de start-up expressément financé et spécialisé dans le monde l’IA continue de baisser : de 1 051 en 2019, il est passé à 762 en 2020 et à 746 en 2021.

La commercialisation des modèles d’IA est fortement stimulée par la recherche : la Chine est leader mondial en termes d’articles publiés, devant les États-Unis. Malgré les tensions géopolitiques et la rivalité pouvant exister entre ces deux pays, la collaboration États-Unis/Chine est la plus prolifique en termes de publications scientifiques.