Dans le courant de l’été, Apple a dévoilé deux nouvelles fonctionnalités pour protéger les enfants des contenus pornographiques et pour repérer les contenus pédopornographiques. Rapidement, plusieurs ONG se sont inquiétées des dérives potentielles de ces outils. Depuis quelques jours, MacRumors a constaté qu’Apple avait discrètement supprimé toutes les informations faisant référence à ce projet.

Un outil pour détecter les contenus pédopornographiques sur les appareils Apple ?

C’était un projet très controversé. Les militants pour la vie privée ont rapidement fait connaître leurs inquiétudes à ce sujet. Ces derniers craignaient logiquement une extension des usages de ces nouveaux outils. Si Apple peut détecter les contenus pédopornographiques, Apple peut tout détecter dans nos messages… Les ONG s’inquiétaient notamment de l’extension de l’utilisation de ces fonctionnalités, pour repérer des dissidents politiques ou pour réprimer l’expression sexuelle.

Le principe de cette fonctionnalité était de faire un scan des photos des utilisateurs Apple, afin de repérer d’éventuels contenus pédopornographiques. Cette problématique revient à se poser cette fameuse question : « la fin justifie-t-elle les moyens ? ». En effet, si la mission est évidemment louable, les moyens mis à disposition sont particulièrement controversés. De quoi pousser la marque à la pomme à retirer toutes les mentions sur ce projet de son site web.

La firme de Cupertino fait marche arrière

Avec des fonctionnalités basées sur le machine learning, ces deux outils auraient pu être en mesure de réaliser n’importe quelle analyse depuis les terminaux Apple. Cet été, l’Electronic Frontier Foundation déclarait que : « tout ce qu’il faudrait pour élargir la fine porte dérobée qu’Apple est en train de construire, c’est une expansion des paramètres de machine learning pour rechercher d’autres types de contenu, ou une modification des paramètres de configuration pour analyser, non seulement les comptes des enfants, mais aussi ceux de n’importe qui ».

À la suite de ces nombreuses critiques, Apple a tenté de justifier le retard sur le déploiement des deux fonctionnalités pour protéger les enfants des contenus pornographiques et pour repérer les contenus pédopornographiques, par « l’apport de nouvelles améliorations ». Finalement, la firme de Cupertino semble avoir fait marche arrière. Apple reviendra certainement avec une proposition similaire dans les prochains mois, mais cette fois-ci il faudra des garanties plus solides pour rassurer les militants pour la vie privée et les ONG.