Insights Intelligence Artificielle Tribunes

Gouvernement algorithmique : vers la fin du politique ?

Par Bertrand Hartemann

Les algorithmes sont devenus l’infrastructure cognitive permettant d’ordonnancer l’information à une échelle jamais connue jusque-là. Ils prolifèrent dans toutes les directions faisant corps avec leur environnement. Les processus d’embauche, d’octroi de crédit bancaire, de ciblage publicitaire ou encore de diagnostic médical intègrent de manière croissante ces outils prédictifs. Avec le développement des techniques dites « d’apprentissage machine » mimant le système neuronal, on en vient même à fantasmer sur une possible mise en équation de l’intelligence humaine. Loin d’être neutre, cette  » numérisation du monde  » est en soit une fiction raisonnée porteuse de valeurs. Elle échappe pourtant encore largement au champ politique et ce alors même qu’elle est potentiellement source de biais sociaux et économiques.

Une vision actuarielle de la société

Les algorithmes décrivent l’enchainement logique des étapes nécessaires à la résolution d’un problème. Cette automatisation des processus de raisonnement a toujours existé. Les premières méthodes de calcul et de résolution d’équation datent des babyloniens, au IIIe siècle avant J.-C. Ces processus analytiques ont ensuite été systématisés par le mathématicien perse Al-Khwarizmi au IXème siècle et par le philosophe andalou Averroès au XII siècle. En 1843, Ada Lovelace, pionnière de l’informatique, réalise la première implémentation d’un algorithme sous forme de programme. Mais la puissance calculatoire et le volume de données collectées changent aujourd’hui d’échelle. L’analyse algorithmique est désormais en mesure de faire surgir des corrélations dans de vastes systèmes stochastiques (dépendant du hasard).

Souvent parés de la vertu d’objectivité des mathématiques, ces artefacts ne sont pourtant pas neutres. Ils constituent une nouvelle forme culturelle organisant un savoir qui leurs est propre. Comme toute modalité de traitement de l’information, ils traduisent des opinions. Aux Etats-Unis, ils sont placés sous la protection du premier amendement de la Constitution, portant sur le droit à la libre d’expression. Leur structure dépend des données entrantes ainsi que de la définition des résultats attendus. A une problématique donnée peut donc correspondre de multiples modèles de résolution.

A la manière d’un enfant qui se « nourrit » des interactions avec son environnement, l’algorithme apprend de la sélection des informations mises à sa disposition. Le risque est alors d’avoir des angles morts, avec des données insuffisantes ou incorrectes. Déduire les évolutions futures à partir des données du passé implique également de mener une analyse critique des sous-jacents sociaux, économiques ou culturels. Aux Etats-Unis, les décisions de justice s’appuient déjà sur des outils actuariels de calcul du risque d’infraction. Les mises en détention provisoires, avant un procès, ou les libertés conditionnelles sont alors décidées en fonction de la note attribuée. Or comme l’a illustré le site d’investigation ProPublica (2016), certains de ces logiciels ont tendance à surévaluer le risque de récidive des populations afro-américaines. Ils ne sont pas en soi racistes mais se fondent sur des données corrélées aux origines sociales, créant ainsi « une boucle de rétroaction de l’injustice » (Virginia Eubanks, 2016). On ne peut dès lors que s’inquiéter du risque de renforcement de la surveillance et des soupçons pesant sur les groupes les plus marginalisés.

L’automatisation de la décision risque par ailleurs de faire disparaître toute subjectivité, tout processus de dialogue. L’individu n’est plus objectivé à travers son discours, ou la manière dont il cherche à se présenter aux autres. Il est profilé par des modèles épidémiologiques de calcul des risques. Le fait pour un individu d’être relié à certains profils statistiques suffit désormais à le classifier, sans jugement sur la singularité de son parcours individuel. Se dessine une économie actuarielle, ou les individus se voient attribuer un score social par leur banque, leur employeur ou leur gouvernement. La Chine travaille déjà à l’implémentation, à grande échelle, d’un système automatisé de notation citoyenne. Dans ce contexte, l’homme n’est plus un « animal autobiographique » qui met en discours sa vie mais un flux statistique catégorisable. Il n’y a plus de place pour la jurisprudence, c’est-à-dire pour les mécanismes de justification de la singularité et de la désobéissance.

Des boites noires algorithmiques insondables

Se détachant du religieux, la modernité a fait émerger la structure étatique comme outil premier de gestion du risque. A travers le « contrat social », l’individu consent à une délégation de souveraineté en échange de sécurité économique et sociale. Avec la numérisation du monde, la gestion de l’incertitude est progressivement déléguée aux algorithmes qui apparaissent comme un nouveau projet de « gouvernementalité » (Foucault).
Le législateur français et européen tente d’encadrer cette automatisation du « contrat social ». Les opérateurs de plateformes numériques sont aujourd’hui soumis à l’obligation de délivrer une information loyale, claire et transparente. Les facteurs influençant le référencement de l’information ou la nature des services en ligne doivent être explicités afin que les utilisateurs puissent les contester. Mais dans la pratique, l’exigence de « redevabilité » des plateformes numériques se heurte à l’obscurité des algorithmiques et à l’absence contre-pouvoir.
Il a fallu attendre le scandale Cambridge Analytica et les révélations sur l’utilisation à des fins politiques des données de 50 millions d’utilisateurs pour que le géant Facebook soit finalement inquiété. En priorisant les contenus viraux, le réseau social a largement contribué à la propagation de fausses nouvelles, de discours haineux, jusqu’à devenir un outil d’ingérence étrangère dans les débats électoraux. Plus généralement, l’ingénierie soutenant la segmentation publicitaire s’est faite au mépris de la protection des données personnelles.

Avec le succès des technologies d’apprentissage machine ou « deep learning« , il devient désormais quasiment impossible de rendre intelligible les processus de traitement. Lorsque la machine bat un joueur d’échec, la combinaison des possibles est infinie mais la règle du jeu est établie. Au contraire, avec l’apprentissage machine il n’y a plus de corpus de règles. L’algorithme est ajusté de manière itérative par un jeu continu d’essais-erreurs, c’est-à-dire sans raisonnement structuré.
L’état, décrit par Hobbes comme un automate artificiel, se voit désormais concurrencer par des formes techniques étrangères au domaine politique. L’exploitation des données comportementales confère aujourd’hui une puissance sans précédent aux entreprises numériques faisant craindre une architecture panoptique augurant d’une société inquisitrice. On ne trouve, pour autant, aucun « Big Brother » central clairement identifié. Dès lors, l’autorité ne revêt plus une forme institutionnalisée mais s’exerce à travers une infrastructure algorithmique décentralisée auquel l’individu consent passivement.

Send this to a friend