Tandis que l’année 2022 prend fin, les spécialistes tentent de savoir ce que l’intelligence artificielle va nous réserver en 2023. Après une année riche en innovation, marquée par l’émergence de nouvelles technologies et de nouveaux outils plus performants, 2023 va sans doute être l’année de la réflexion…

Les outils de génération d’images et d’œuvre d’art en première ligne

Lensa AI, DALL-E 2. Ces deux outils n’ont échappé au regard de personne ou presque. Ces applications d’IA ont la particularité de générer de nouvelles images à partir de la description ou des données fournies par un utilisateur. Ces IA dites génératives étaient même l’une des technologies émergentes de l’année 2022 aux côtés des NFT, du cloud décentralisé et des jumeaux numériques. En quelques secondes, grâce à l’intelligence artificielle, une personne se retrouve avec une nouvelle œuvre d’art ou une nouvelle création artistique.

Un débat est mené depuis le début de la décennie pour savoir si une intelligence artificielle peut détenir un brevet et/ou être considérée comme l’autrice d’une œuvre d’art. C’est notamment le combat de Stéphane Thaler qui est à l’origine de la Creativity Machine qui conçoit des tableaux de peinture. Pour l’instant, dans de nombreux pays dont les États-Unis, une IA ne peut pas breveter une invention.

Un autre sujet fait également parler de lui : l’apparition de biais discriminatoires lors de la génération de ces images. Certes, les développeurs tentent de faire attention à ce point, mais rien ne prouve qu’une personne ne pourra pas à l’avenir, générer une image à caractère raciste ou sexiste. De plus en plus d’outils sont capables de sexualiser des images qui ne se placent pas initialement dans ce contexte-là.

Les entreprises se baseront de plus en plus sur les codes en open source

Parallèlement à cela, les créations d’OpenAI, DALL-E 2, mais aussi ChatGPT, le robot conversationnel basé sur une version améliorée de GPT-3, rendent jaloux certains géants technologiques. C’est le cas de Google qui a décidé de mettre les bouchées doubles pour proposer un chatbot encore plus performant. L’entreprise compte sur celui qu’elle avait déjà conçu, LaMDA, tout en se penchant sur un outil de génération d’images. En 2023, de plus en plus d’outils dans le même genre devraient apparaître sur le marché.

Pour Venture Beat, Moses Guttman, président-directeur général de ClearML, a affirmé que les outils de machine learning en open source devraient prendre une plus grande part de marché. « L’année prochaine, les équipes qui se concentrent sur les opérations, la gestion et la gouvernance du ML devront faire plus avec moins. Pour cette raison, les entreprises adopteront davantage de solutions prêtes à l’emploi, car elles sont moins coûteuses à produire, nécessitent moins de temps de recherche et peuvent être personnalisées pour répondre à la plupart des besoins », précise-t-il.

À la fin de l’année 2021, la Commission européenne avait par ailleurs adopté de nouvelles règles pour favoriser l’innovation grâce à l’open source.

À quoi s’attendre au niveau de la réglementation de l’intelligence artificielle ?

Cette même institution européenne réfléchit, par ailleurs, depuis avril 2021 à la possibilité de mettre en place un cadre législatif sur l’IA. Lors de la présentation de la feuille de route de l’UE autour de l’intelligence artificielle, la commission spéciale du Parlement européen sur l’intelligence artificielle à l’ère numérique (AIDA) avait livré ses conclusions. Elle a estimé que l’UE devait agir au niveau mondial afin de fixer les normes en matière d’intelligence artificielle. Ses objectifs : réduire son retard dans ce secteur et tenter de convaincre les autres marchés d’adopter des règles communes.

Pour la France, l’Artificial Intelligence Act doit être un minimum flexible, notamment pour ce qui est de l’utilisation de cette technologie pour aider les forces de l’ordre. En juin 2022, la Défenseuse des Droits accompagnée d’European Network of Equality Bodies (Equinet) et du réseau européen d’organismes de promotion de l’égalité ont proposé leurs recommandations pour placer la non-discrimination au centre du projet de loi.

Outre-Atlantique, l’Administration Biden a posé la première pierre de son projet de loi régulant le marché de l’IA. Celle-ci sera basée sur cinq points fondamentaux afin que les citoyens américains aient un droit de contrôle sur leurs données personnelles, le droit de refuser une décision prise par un algorithme, le droit d’être tenus hors de portée d’algorithmes dangereux et inefficaces, le droit de savoir si une IA prend une décision à leur sujet, et le droit de ne pas être discriminé par des algorithmes biaisés.

La mise en place d’un tel cadre législatif pour l’Europe peut clairement changer la façon dont les entreprises développent et déploient leurs systèmes d’IA. En cas de consensus en 2023, elles devront se plier à ces nouvelles règles, ce qui bouleversera irrémédiablement le marché européen de l’IA. Toutefois, les discussions pour aboutir à un projet de loi viable sont longues et il est peu probable que les lois européennes et américaines entrent en vigueur avant 2024 ou 2025.