L’intelligence artificielle (IA) est utilisée dans de plus en plus de secteurs. Passant par la médecine et la robotique, elle a même rejoint les rangs de la police. Plusieurs services comme Media Sonar, Social Sentinel et Geofeedia utilisent leurs technologies pour aider les policiers à surveiller les réseaux sociaux. Ces entreprises analysent les conversations qui ont lieu sur les plateformes et transmettent les informations.

Ce type de système peut être plutôt invasif. Zencity, une société israélienne d’analyse de données, se présente comme une alternative à ces services. Elle ne propose que des données agrégées et interdit la surveillance ciblée lors de manifestations. Plusieurs postes de police américains se sont laissés séduire par ses services, notamment à Phoenix, à La Nouvelle-Orléans et à Pittsburgh.

L’IA aide la police à lutter contre la désinformation…

Zencity crée des rapports personnalisés pour les forces de l’ordre, mais aussi les responsables municipaux. Grâce à l’apprentissage automatique, des conversations publiques qui ont eu lieu sur les réseaux sociaux sont analysées, mais pas seulement. Des forums, des bulletins d’informations locales et les appels au 311, le numéro américain de police de secours sont également pris en compte.

Ces données permettraient à la police de lutter contre la désinformation. Elles seraient notamment très utiles aux forces de l’ordre locales américaines, leur permettant de mieux faire face à l’augmentation de la criminalité dans les grandes villes.

Par exemple, Zencity a averti Brandon Talsma, un superviseur du comté de Jasper dans l’Iowa, d’une augmentation soudaine des discussions sur les réseaux sociaux à propos du comté. Les faits se sont avérés graves, car un homme noir vivant dans la ville de Grinnell, majoritairement peuplée de blancs, a été retrouvé mort dans un fossé. Au vu de la population de la ville, des rumeurs se sont répandues selon lesquelles l’homme avait été lynché par des habitants ayant des motivations racistes.

Zencity a rapidement remarqué que presque aucune des conversations en ligne ne provenait de l’Iowa, remettant en cause les rumeurs. Brandon Talsma craignait que ces dernières s’amplifient et se transforment en désinformation et provoquent ainsi de la violence. Par la suite, la police a clarifié que le meurtre n’était pas à motivation raciale et quatre suspects ont été inculpés.

…Mais aussi à faire de la surveillance de masse ?

Malgré tout, ce type de système soulève certaines interrogations, tous les agents municipaux n’y adhèrent pas. “Surveiller le public ne signifie pas l’impliquer. C’est le contraire”, affirme Deb Gross, conseillère municipale à Pittsburgh. Dans cette ville, le conseil municipal a entendu parler du produit pour la première fois lors d'une réunion fin mai autorisant son renouvellement. La ville utilisait l'outil depuis un an, mais elle n’avait pas divulgué son achat. Cependant, le renouvellement de l'outil dans le cadre d'un contrat de 30 000 $ nécessitait l’autorisation du conseil. Dans certaines villes, il est utilisé sans processus d’approbation publique, souvent via des essais gratuits.

Donner à la police la possibilité de surveiller si précisément les discussions faites sur les réseaux sociaux, notamment celles critiquant l’ordre public, inquiète également de nombreux groupes de défense de la vie privée. Au fil des années, la police américaine a utilisé divers logiciels pour analyser les plateformes sociales, en scrutant souvent les groupes liés à la réforme de la police et s'opposant à la surveillance.

Par exemple, l'été dernier, la police de Minneapolis a demandé à Google des informations sur les utilisateurs se trouvant dans les environs d'un magasin AutoZone, pillé dans les jours qui ont suivi le meurtre de George Floyd.

"S'ils se réunissent à tel ou tel endroit, ce sont des informations accessibles au public, que tout le monde peut consulter gratuitement", a tenté d’expliquer le shérif Tony Spurlock du comté de Douglas, dans le Colorado. Il indique que le bureau du shérif utilise l'outil depuis environ un an et a signé un contrat de 72 000 dollars début 2021. L'outil fournit des informations globales et ne permet pas, selon lui, d'identifier les utilisateurs individuels.

De l’autre côté de l’Atlantique, la commission des libertés civiles a affirmé le 29 juin que l’utilisation de l’IA par les forces de l’ordre et la justice devrait faire l’objet d’un contrôle humain. Cela implique des algorithmes ouverts et des audits publics pour éviter la surveillance de masse.