En 2018, il avait suffi de 4 000 signatures et d’une douzaine de démissions pour que Google arrête un contrat de quelques millions avec le Département de la Défense. Le projet Maven (reconnaissance d’objets dans des flux vidéo de drones) avait été abandonné, repris par Palantir. Google s’était doté de principes éthiques qui interdisaient toute application de son IA aux armes ou à la surveillance.
De Maven à Gemini, la mue complète
En février 2025, la clause anti-armes a été retirée des principes IA de Google. Demis Hassabis, patron de DeepMind, a justifié le virage par la compétition mondiale pour le leadership en IA.
📩 L’actu digitale évolue vite. Restez à jour.
Recevez la newsletter quotidienne, gratuitement.
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
- En décembre, la plateforme GenAI.mil (propulsée par Gemini) était mise à disposition du personnel de défense américain.
- En mars 2026, des agents Gemini tournaient déjà auprès des trois millions de fonctionnaires du Pentagone, sur des réseaux non classifiés.
L’étape d’après concerne le déploiement sur les réseaux classifiés, ceux qui sont physiquement coupés d’Internet. Une fois Gemini installé, Google perd toute capacité de regard sur ce qui se passe avec son propre modèle.
Faire confiance à la direction ne suffit pas
Les négociations avec le Pentagone porteraient sur une clause toutes utilisations légales. C’est la même formulation qui a conduit Anthropic à refuser le deal et à se faire éjecter des fournisseurs de la Défense. OpenAI avait signé un accord similaire en février, dans un timing que Sam Altman a lui-même qualifié d’opportuniste et bâclé.
Google aurait proposé des sécurités contre la surveillance de masse ainsi que les armes autonomes sans un contrôle humain. Les signataires objectent que ces protections sont inapplicables. En effet, la politique du Pentagone interdit aux fournisseurs extérieurs d’imposer des restrictions sur ses propres systèmes.
Sofia Liguori, chercheuse IA chez DeepMind au Royaume-Uni, a confié à Bloomberg que la direction demande simplement aux employés de lui faire confiance pour négocier de bons contrats. Tout reste très vague, résume-t-elle. Sur l’IA agentique en particulier, elle compare la situation à donner un outil très puissant en abandonnant tout contrôle sur son usage.
600 voix contre des dizaines de milliards
Un tiers des signataires ont demandé l’anonymat par crainte de représailles. Les autres à savoir des directeurs, des VP, des seniors de DeepMind ont choisi de s’exposer. Leur lettre affirme que « des vies humaines sont déjà perdues et des libertés civiles mises en danger du fait de mauvais usages de technologies auxquelles nous contribuons ».
Seulement voilà. En 2018, le contrat Maven pesait quelques millions. Le marché classifié du Pentagone en vaut des dizaines de milliards. Et cette fois, les entreprises qui disent non se font écarter. Google a déjà franchi l’étape précédente sans consulter les équipes qui ont construit Gemini. Il est difficile d’imaginer que 600 signatures suffisent à inverser le courant quand la machine est lancée à cette vitesse.