PandIA

Google signe avec le Pentagone malgré 600 salariés de DeepMind vent debout

Google signe avec le Pentagone malgré 600 salariés de DeepMind vent debout

L’IA qui résume des mails, écrit du code ou répond au grand public se retrouve à la porte des systèmes classifiés du Pentagone. Et cette fois, la contestation ne vient pas d’ONG extérieures, mais de l’intérieur même de Google, jusque chez DeepMind.

Un accord classifié qui rallume une vieille mèche

Selon Axios, le 29 avril 2026, Google et le département américain de la Défense ont signé un nouvel accord permettant un usage plus permissif de ses systèmes d’IA dans des environnements classifiés. Le média américain décrit un cadre plus large que les engagements passés, dans un moment où les grands laboratoires cherchent à sécuriser des positions stratégiques auprès de Washington.

L’information tombe dans un contexte déjà inflammable. Deux jours plus tôt, le Washington Post révélait l’existence d’une lettre signée par plus de 600 salariés de Google, dont des employés de DeepMind, adressée à Sundar Pichai. Leur demande était explicite : refuser cet accord avec le Pentagone.

La séquence est politiquement sensible, technologiquement stratégique et socialement explosive. D’un côté, l’administration américaine accélère l’intégration de l’IA dans le renseignement, l’analyse et les opérations de défense. De l’autre, une partie des salariés du secteur refuse de voir des modèles conçus pour des usages civils basculer vers des missions militaires, a fortiori dans des contextes classifiés où la transparence est, par définition, limitée.

Chez Google, le spectre de Project Maven n’a jamais disparu

Le point de friction ne sort pas de nulle part. Le nom qui revient immédiatement est Project Maven, programme lancé en 2017 par le Pentagone pour utiliser l’IA dans l’analyse d’images de drones. À l’époque, la participation de Google avait provoqué une fronde interne d’ampleur : des milliers de salariés avaient protesté, plusieurs démissions avaient suivi, et l’entreprise avait fini par ne pas renouveler le contrat en 2018.

Cet épisode a laissé une trace profonde dans la culture interne de Google. Il a aussi servi de cas d’école dans toute la Silicon Valley : jusqu’où une entreprise d’IA peut-elle aller dans ses contrats avec la défense sans casser le pacte social avec ses ingénieurs ?

La lettre envoyée à Sundar Pichai s’inscrit directement dans cette mémoire. Selon les éléments rapportés par le Washington Post, les signataires considèrent qu’un accord élargi sur des systèmes d’IA en environnement classifié franchit une ligne rouge. Le fait que des membres de DeepMind aient signé est particulièrement notable : la filiale concentre une part essentielle de l’expertise avancée de Google en matière de modèles, de raisonnement et d’agents.

Ce que disent les opposants

L’argument central des salariés n’est pas seulement moral, il est aussi organisationnel. En environnement classifié, il devient plus difficile pour les équipes de savoir précisément comment leurs outils sont déployés, avec quelles données, dans quelles chaînes de décision, et avec quels garde-fous.

Autrement dit, le problème n’est pas uniquement l’usage militaire de l’IA. C’est l’opacité structurelle associée au secret-défense. Or cette opacité entre en collision avec une autre ligne de force du secteur : la promesse de safety, de tests, de documentation, d’évaluations et de traçabilité.

Pourquoi Google avance malgré la fronde

Si Google prend le risque d’un conflit interne, c’est que l’enjeu dépasse largement un contrat. L’administration américaine est devenue l’un des clients les plus convoités de l’industrie de l’IA. Au-delà du chiffre d’affaires direct, ces accords offrent trois avantages décisifs : un accès privilégié aux besoins stratégiques de l’État, une légitimité institutionnelle et un levier d’influence sur les futurs standards de sécurité et d’intégration.

Selon Axios, Google adopte même une position plus souple que certains de ses rivaux sur ces usages militaires. C’est un signal important. Longtemps, l’entreprise s’est montrée plus prudente publiquement sur l’armement de l’IA, en partie à cause du précédent Maven. Le nouvel accord suggère au contraire une inflexion nette.

Cette évolution s’explique aussi par la pression concurrentielle. OpenAI, Anthropic, Microsoft et Amazon se disputent déjà les budgets publics liés à l’IA, au cloud sécurisé et aux outils d’analyse. Dans cette course, rester à distance du secteur défense revient à laisser un espace stratégique à d’autres.

Une bataille industrielle, pas seulement éthique

Le débat est souvent présenté comme un affrontement entre principes et profits. La réalité est plus complexe. Les contrats défense ne servent pas seulement à monétiser des modèles existants. Ils permettent aussi de financer des infrastructures coûteuses, de tester des systèmes dans des environnements exigeants et de nouer des partenariats durables avec l’appareil d’État.

Pour Google Cloud, c’est un enjeu particulièrement concret. Les environnements classifiés exigent des certifications, des architectures dédiées, des capacités d’isolation et de conformité qui créent des barrières à l’entrée. Une fois la porte ouverte, la relation commerciale peut s’étendre bien au-delà d’un seul usage d’IA.

Le vrai sujet : quand l’IA “générale” glisse vers l’usage militaire

Ce dossier frappe parce qu’il touche un point de bascule du marché : la porosité entre IA grand public, IA d’entreprise et IA de défense. Les mêmes briques — modèles multimodaux, assistants de recherche, synthèse de documents, vision par ordinateur, planification d’actions — peuvent servir à des tâches banales ou à des missions sensibles.

C’est là que la formule “usage dual” prend tout son poids. Une technologie pensée pour assister un analyste financier peut aussi aider un analyste du renseignement. Un outil conçu pour résumer des corpus juridiques peut résumer des communications interceptées. Un modèle de vision entraîné pour l’industrie peut participer à la détection de cibles ou d’anomalies sur imagerie.

Même lorsque les entreprises affirment ne pas autoriser les usages offensifs, la frontière opérationnelle reste difficile à tracer. L’aide à la décision, l’analyse de renseignement, la logistique ou la cybersécurité peuvent avoir des effets directs sur le champ militaire, sans passer par un système d’arme autonome au sens strict.

Une contestation révélatrice des fractures internes de l’IA

Le chiffre de plus de 600 employés est significatif, même à l’échelle de Google. Il montre que la question n’est plus cantonnée à quelques activistes internes. Elle traverse les équipes de recherche, les ingénieurs produit et, visiblement, une partie des talents les plus exposés aux enjeux de frontier AI.

Cette opposition publique révèle aussi un malaise plus large dans le secteur. Depuis deux ans, beaucoup d’entreprises d’IA ont durci leur communication sur la sûreté tout en élargissant discrètement leurs canaux commerciaux vers la défense, la sécurité nationale et les agences gouvernementales. Pour une partie des salariés, cette coexistence devient de moins en moins tenable.

Le cas Google est d’autant plus sensible que l’entreprise a longtemps cherché à se distinguer par des principes d’IA “responsable”. Chaque concession supplémentaire au secret-défense expose donc un écart entre doctrine affichée et pratique contractuelle.

Ce que ce contrat peut changer, très concrètement

À court terme, la première conséquence est interne : ce dossier peut relancer une vague de tensions sociales, de départs ciblés ou de demandes accrues de transparence sur la gouvernance des contrats sensibles. Chez les grands labos, la rétention des chercheurs de pointe reste un actif stratégique ; perdre la confiance d’une fraction des équipes a un coût mesurable.

À moyen terme, l’effet le plus important est sectoriel. Si Google consolide sa présence dans les environnements classifiés, il deviendra plus difficile pour ses concurrents de maintenir des lignes rouges trop strictes sans perdre du terrain commercial et politique à Washington. Le standard du marché risque alors de se déplacer, non vers moins d’usages militaires, mais vers leur normalisation sous des cadres de sûreté plus sophistiqués.

Le prochain jalon sera double. D’abord, la réponse publique — ou l’absence de réponse — de Sundar Pichai et de la direction de Google sur le contenu exact de l’accord. Ensuite, les clarifications attendues du Pentagone sur les cas d’usage autorisés : assistance analytique, renseignement, cybersécurité, planification, ou applications plus proches de la chaîne opérationnelle. C’est sur ce périmètre, bien plus que sur les déclarations de principe, que se mesurera la portée réelle de ce virage.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter