Depuis plusieurs mois, les algorithmes se basent sur des données historiques pour évaluer le cas de telle ou telle personne et déterminer si elle doit être emprisonnée ou non. Mais les autorités américaines vont encore plus loin, elles utilisent l’intelligence artificielle pour prédire le risque criminel chez un individu. Des outils notamment utilisés pour éviter la récidive. Parfois, le problème est que les machines n’apprennent pas forcément des erreurs du passé, mais qu’elles les reproduisent et, potentiellement, se trompent dans leur jugement en aggravant les inégalités déjà existantes dans le pays. « Nos sociétés n’ont pas les outils nécessaires pour se défendre face au raisonnement des machines », c’était la conclusion d’un rapport publié dans AI Now réalisé par des chercheurs sur l’intelligence artificielle.

Vous ne le saviez peut-être pas, mais des algorithmes sont utilisés dans le système judiciaire pénale aux États-Unis. Concrètement c’est une machine qui peut décider de la continuité de la vie d’un humain. Et aujourd’hui, l’intelligence artificielle envoie des gens en prison. Comment ça marche ? L’intelligence artificielle apprend des différents jugements rendus et se base sur ces informations pour formuler une décision.

La particularité des États-Unis ? Il s’agit d’un pays qui a une population carcérale très élevée. En décembre 2016, près de 4,5 millions d’adultes étaient enfermés dans des établissements correctionnels. Cela signifie qu’un américain sur 38 était sous surveillance. C’est énorme. C’est justement pour cette raison que le gouvernement américain a fait le choix de se tourner vers des outils automatisés, notamment des algorithmes. La volonté de départ est bonne : traiter le plus équitablement et le plus justement possible des accusés.

Aujourd’hui il existe aussi des outils d’évaluation du risque criminel d’une personne. Des algorithmes capables de dire si une personne emprisonnée dans le passé pourrait récidiver ou non. Les résultats sont ensuite transmis à un juge qui doit décider si les individus en question doivent être incarcérés avant la date de leur procès ou non. Les scores définis par les algorithmes jouent de plus en plus sur les décisions rendues par les juges.

Tout le problème réside donc dans l’appréciation éthique des algorithmes. On peut imaginer que les communautés minoritaires, celles à faible revenu, soient rapidement perçues comme potentiellement récidivistes par les machines. Ces technologies ne vont pas clairement pas aider à vaincre les problèmes liés à l’inégalité des classes sociales.