Apple a annoncé, vendredi 3 septembre, sa décision de reporter une mise à jour de ses appareils, qui devait apporter des outils de lutte contre la pédopornographie. Ce retard intervient alors que des défenseurs de la vie privée s’étaient inquiétés du déploiement de ces nouvelles fonctionnalités. Baptisée Child Sexual Abuse Material (CSAM), elles auraient pu, selon eux, créer de véritables risques en ce qui concerne la vie privée et l’utilisation des données personnelles.

L’entreprise américaine devait lancer, via une importante mise à jour, de nouvelles fonctions permettant d’identifier les images à caractères sexuels impliquant des mineurs. Elles concernent tous ses appareils sur iOS et macOS, ainsi que son cloud, uniquement aux États-Unis. Le déploiement était censé intervenir en fin d’année.

Concrètement, avec le CSAM, si le téléchargement de telles images dans iCloud devait être effectué, alors Apple serait averti. Le National Center for Missing and Exploited Children (NCMEC), une ONG américaine de lutte contre les abus sexuels sur mineurs, serait à son tour averti par la marque à la pomme. Il lui revient ensuite la responsabilité d’avertir la police.

Une forte opposition

Cette approche a suscité bon nombre d’inquiétudes chez les défenseurs de la vie privée. Parmi les opposants se trouve le Center for Democracy and Technology (CDT), une association américaine de défense des libertés publiques.

Il a estimé que l’action d’Apple représentait « une rupture significative par rapport aux protocoles de confidentialité établis de longue date ». Le CDT a même affirmé que le système de messagerie chiffré de la marque allait être transformé en « une infrastructure de surveillance et de censure, qui sera vulnérable aux abus et aux dérives ». Des ONG et plusieurs milliers de personnes, dont le lanceur d’alerte Edward Snowden, ont aussi signé une lettre ouverte contre cette mise à jour.

Les détracteurs ont plusieurs craintes. Certains ont peur que le logiciel n’interprète mal certaines photographies privées. D’autres encore s’inquiètent qu’un tel système ne soit potentiellement utilisé par des organisations politiques.

Apple réaffirme son engagement pour le respect de la vie privée

Face à cette levée de boucliers, la firme de Cupertino a défendu son idée et son nouveau programme. Elle a affirmé respecter la vie privée, et renvoie aux pratiques d’autres fournisseurs de cloud. En effet, certains scanneraient l’ensemble des données des utilisateurs. Tandis que, d’après ses dires, Apple utiliserait un moyen de ne regarder que les contenus signalés comme illégaux. Ainsi, si le contenu illégal n’est pas téléchargé dans le cloud, son système ne peut pas le signaler.

L’entreprise est pourtant connue pour sa position très stricte à l’égard de la protection des données. Elle a notamment refusé plusieurs fois de fournir les données personnelles d’utilisateurs aux forces de l’ordre. Les défenseurs de la vie privée et autres experts craignent cependant que l’entreprise n’assouplisse sa politique en la matière.

Dans sa défense, Apple a également affirmé qu’elle ne traitera pas directement les images des utilisateurs. Les photographies seront comparées automatiquement à une base de données du NCMEC. Pour prouver ses dires, le géant de la téléphonie a publié des documents techniques. L’entreprise américaine a aussi affirmé dans un communiqué que « Chez Apple, nous voulons aider à protéger les enfants contre les prédateurs et limiter la diffusion de contenus pédopornographique ».

« Sur la base des remarques des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de rendre publiques ces importantes fonctionnalités sur la protection des enfants », a-t-il aussi indiqué. Aucune date n’a encore été fixée pour le déploiement de cette mise à jour.

Apple avait prévu d’autres nouveautés

Autre aspect de cette mise à jour tant critiquée, la détection d’images à caractères sexuels sur les téléphones des mineurs. Dans ce cas, Apple prévoyait de diffuser un message de prévention tout en floutant l’image en question.

Concrètement, si un compte désigné comme étant celui d’un enfant dans iCloud Family Sharing, reçoit ou envoie une photo à caractères sexuels par la messagerie, la photo apparaîtra floutée. En ce qui concerne les comptes d’enfants de 12 ans et moins, les parents peuvent choisir de recevoir des notifications lorsqu’un tel événement se produit.

Mais ce n’est pas tout. Pour tout utilisateur qui téléchargerait des images à caractères sexuels impliquant des enfants, la firme prévoyait d’envoyer un avertissement informant, par Siri, de l’illégalité de ces images.

Autrefois plus téméraire, Apple semble désormais plus à l’écoute du grand public, des ONG, et de ses partenaires. En 2020 déjà, Apple retardait le déploiement d’une nouvelle fonctionnalité censée renforcer la protection de la vie privée. Il s’agissait de l’App Tracking Transparency, finalement lancée en avril 2021. Elle permet à un utilisateur de choisir s’il veut partager ou non ses données de navigation avec une application, afin qu’elles soient utilisées pour de la publicité ciblée.