Après s’être retrouvée dans l’embarras face à des usagers mécontents, Zoom a décidé de modifier un billet de blog relatif à ses conditions d’utilisation. Le sujet de la discorde : une incompréhension concernant les données utilisées pour former les systèmes d’intelligence artificielle (IA) générative de la plateforme.

Le flou autour du « consentement »

Zoom a récemment mis à jour ses conditions d’utilisation, en spécifiant qu’elle n’exploiterait pas le contenu audio, vidéo ou chat de ses clients pour entraîner ses modèles d’intelligence artificielle sans le consentement de ces derniers. C’est ce dernier point qui a fait grincer les dents de beaucoup, la firme n’ayant pas spécifié comment le consentement était recueilli. Certains ont craint, par exemple, que l’apparition d’une simple fenêtre pop-up lors d’un appel pourrait être considérée comme un consentement pour que leurs données soient utilisées.

Beaucoup ont interprété cette démarche comme un moyen de donner à l’entreprise un large contrôle ainsi que des droits d’auteur sur les données des clients, y compris potentiellement tout ce qu’ils ont montré ou discuté pendant un appel. Zoom exploite des modèles d’IA pour alimenter des fonctions telles que ses résumés de réunion.

Le 11 août dernier, la société a modifié son billet de blog afin de rassurer les utilisateurs. « Zoom n’utilise pas vos données audio, vidéo, chat, partage d’écran, pièces jointes ou autres communications comme le Contenu Client (tels que les résultats des sondages, les tableaux blancs et les réactions) pour entraîner les modèles d’intelligence artificielle de Zoom ou de tierces parties », a-t-elle tenu à préciser.

La formation des IA pose question

Avec le boom de l’IA générative initié par la sortie de ChatGPT en novembre dernier, de plus en plus d’entreprises exploitent la technologie pour améliorer leurs produits, à l’instar de Zoom.

Ces systèmes sont néanmoins formées sur de vastes quantités de données issues d’Internet, et la provenance de ces données pose de plus en plus question. En plus de craintes portant sur les violations de la vie privée, beaucoup s’inquiètent également de possibles enfreintes aux droits d’auteur.

Pour ces différentes raisons, l’Union européenne souhaite forcer les grandes entreprises à préciser d’où viennent les informations utilisées pour entraîner leurs modèles. Il s’agit de l’une des mesures comprises dans l’AI Act, législation qui réglementera l’usage de l’IA au sein du Vieux Continent.