Dans la course à l’intelligence artificielle (IA), Meta met les bouchées doubles. La maison mère de Facebook et Instagram serait en train de travailler sur un nouveau modèle de langage plus puissant que LLaMA 2, son produit pensé pour concurrencer ChatGPT. En parallèle, Meta prépare le futur de cette technologie et prévoit de se détacher, à terme, des grands modèles de langage au profit de « meilleures alternatives ».

La relève de LLaMA 2

Selon les informations du Wall Street Journal, les équipes de Meta développent le remplaçant de LLaMA 2. Selon leurs informations, le modèle de langage serait aussi efficace que GPT-4, la technologie d’OpenAI accessible la plus performante. Celui-ci devrait permettre aux entreprises de créer des services pour écrire des textes, générer des analyses et d’autres résultats plus perfectionnés.

Les personnes informées ont confié au quotidien économique américain que le modèle de langage est conçu par un groupe d’ingénieurs et scientifiques choisis par Mark Zuckerberg. L’objectif est de parvenir à une intelligence artificielle générative capable de produire des émotions proches de l’être humain.

Meta mise toujours sur l’IA

En mettant autant l’accent sur l’intelligence artificielle, Meta cherche à rattraper ses concurrents qui ont pris une longueur d’avance. Si Naila Murray, responsable d’équipe de la région EMEA pour la société californienne, assurait fin juin « être loin d’être en retard », ses principaux rivaux comme Microsoft et OpenAI maintiennent la distance.

Après une année 2022 difficile, le mastodonte espère pouvoir capitaliser sur l’IA pour faire de 2023 son « année de l’efficacité ». Au cours de l’année, Meta a sorti de nombreux projets tournant sur l’intelligence artificielle. L’entreprise a par exemple intégré l’IA générative au sein de ses services publicitaires et se prépare à lancer des agents conversationnels sur Facebook et Instagram.

Pour le futur de l’IA, Meta veut trouver la balance parfaite entre transparence et privatisation. Joëlle Pineau, vice-présidente de Meta AI, déclarait en juin que la société basée à Menlo Park « commence désormais chaque projet avec l’intention de le rendre open source ». Un moyen selon elle de « nous pousser à l’excellence ». Toutefois, cela ne veut pas dire que les travaux du groupe sont accessibles au grand public. La plupart sont réservés aux chercheurs.

Enfin, si l’entraînement du nouveau modèle d’IA doit débuter en 2024, Meta voit déjà plus loin en préparant la suite de l’intelligence artificielle générative. Yann LeCun, son vice-président et directeur scientifique de l’IA, affirmait, en juin, que « dans plusieurs années, nous n’utiliserons plus de modèle de langage, car nous disposerons de meilleures alternatives ». Dans la foulée, il présentait un modèle d’IA reposant sur une architecture prédictive à intégration conjointe (JEPA), la relève de l’IA générative.