Le 5 mai 2026, Washington obtient un droit de regard sur l’IA avant sa sortie
La frontière la plus sensible de l’IA américaine n’est plus seulement dans les laboratoires. Elle se joue désormais aussi dans les couloirs de Washington, où l’État obtient un droit de regard avant même la sortie des modèles les plus avancés.
Le 5 mai 2026, le département américain du Commerce a annoncé que Google DeepMind, xAI et Microsoft fourniront un accès anticipé à leurs nouveaux modèles à des évaluateurs gouvernementaux avant toute publication. D’après Reuters, OpenAI et Anthropic, déjà engagés dans des dispositifs comparables, ont renégocié leurs accords pour s’aligner sur cette nouvelle doctrine. En clair, l’administration américaine installe un contrôle de sécurité en amont sur la quasi-totalité de la frontière IA du pays.
Washington obtient un siège dans la salle de lancement
Jusqu’ici, les grandes entreprises de l’IA promettaient surtout des engagements volontaires, des tests internes et, parfois, des audits limités avec des partenaires publics. L’annonce du Commerce marque une étape plus structurée : avant diffusion publique, certains modèles devront désormais passer entre les mains d’évaluateurs mandatés par l’État.
L’administration s’appuie sur le programme CAISI, qui a déjà mené plus de 40 évaluations de modèles, y compris sur des systèmes non publiés, selon le Commerce. Le signal est double. D’un côté, Washington affirme qu’il ne se contente plus de chartes de bonne conduite. De l’autre, il institutionnalise une pratique jusqu’ici fragmentée, variable selon les entreprises et les administrations.
La liste des acteurs concernés dit l’essentiel. Google DeepMind, xAI, Microsoft, OpenAI et Anthropic couvrent une grande partie des modèles dits frontier, ces systèmes de pointe qui concentrent les inquiétudes sur la cybersécurité, les usages biologiques, la désinformation ou l’automatisation de capacités sensibles. Autrement dit, l’État ne teste pas des produits marginaux : il veut voir les moteurs les plus puissants avant leur mise en circulation.
D’un engagement volontaire à une quasi-doctrine d’État
L’enjeu n’est pas seulement technique. Il est politique. Depuis 2023, Washington tente de construire un cadre de supervision de l’IA sans législation fédérale globale, en combinant décret présidentiel, engagements volontaires et action des agences. Cette nouvelle phase pousse plus loin la logique : plutôt qu’attendre une loi du Congrès, l’exécutif bâtit une forme de régulation opérationnelle par accords, standards et accès privilégié aux modèles.
Ce que l’administration cherche vraiment à mesurer
Le cœur du dispositif, ce sont les évaluations de sécurité. Elles visent notamment à déterminer si un modèle présente des capacités dangereuses dans des domaines comme :
- l’assistance à des intrusions informatiques ;
- la production d’instructions exploitables en matière biologique ou chimique ;
- la manipulation à grande échelle ;
- l’évasion des garde-fous ou la dissimulation de comportements.
Ces tests ne servent pas seulement à cocher une case. Ils permettent à l’administration de comparer les capacités réelles des modèles avec les affirmations des entreprises. Dans un secteur où les annonces marketing vont souvent plus vite que les preuves publiques, obtenir un accès en amont modifie profondément l’asymétrie d’information.
Ce qui change pour les laboratoires
Pour les entreprises, l’enjeu est plus délicat qu’il n’y paraît. Donner accès à un modèle avant lancement, c’est exposer une partie de sa feuille de route, de ses performances et potentiellement de ses vulnérabilités à une autorité publique. Cela soulève des questions de confidentialité, de propriété intellectuelle et de protection des secrets industriels.
Mais refuser devient politiquement coûteux. Dans le climat actuel, un acteur de premier plan qui s’opposerait à des tests de sécurité fédéraux s’exposerait à un risque réputationnel immédiat et à une pression réglementaire accrue. L’administration n’a peut-être pas besoin d’une interdiction formelle pour obtenir la coopération : la centralité du marché américain, l’accès aux contrats publics et la menace d’un durcissement futur suffisent souvent à discipliner l’écosystème.
OpenAI et Anthropic : les pionniers rattrapés par la normalisation
Le cas d’OpenAI et d’Anthropic est particulièrement révélateur. Selon Reuters, ces deux groupes disposaient déjà de partenariats de ce type avec les autorités américaines. Ils ont toutefois renégocié leurs accords pour se conformer à la nouvelle ligne fixée par l’administration.
Ce point est essentiel : il montre que Washington ne se contente pas d’étendre des arrangements existants, il les uniformise. La logique n’est plus celle d’initiatives bilatérales entre un labo et une agence. Elle devient un cadre commun pour les principaux développeurs de modèles avancés.
Cette normalisation a deux conséquences. D’abord, elle réduit l’avantage politique des acteurs qui s’étaient montrés les plus coopératifs en premier. Ensuite, elle crée un précédent pour les autres laboratoires, y compris ceux qui voudraient se développer plus discrètement. À mesure que le standard se consolide, l’accès anticipé pourrait devenir la condition implicite d’une sortie crédible sur le marché américain.
Un contrôle sans loi-cadre, mais pas sans effets
L’absence d’une grande loi fédérale sur l’IA ne doit pas tromper. Le pouvoir réglementaire existe aussi par la procédure, par les contrats et par les standards techniques. Ce que met en place le Commerce ressemble à un pré-contrôle de sécurité des modèles les plus sensibles, même si la terminologie reste plus souple que celle d’une autorisation administrative au sens strict.
Le précédent pour le reste du monde
Cette séquence américaine sera observée de très près en Europe, au Royaume-Uni et en Asie. L’AI Act européen encadre déjà certains systèmes à haut risque, mais il ne reproduit pas exactement ce modèle d’accès gouvernemental anticipé aux modèles frontier. Les États-Unis, souvent accusés d’être trop permissifs, avancent ici sur un terrain plus intrusif : celui de l’inspection avant lancement.
Cela pourrait produire un effet d’entraînement. Les gouvernements qui peinent à suivre le rythme des laboratoires disposent maintenant d’un précédent simple à défendre politiquement : si Washington teste les modèles avant publication, pourquoi pas eux ? Pour les entreprises mondiales, le risque est évident : voir se multiplier les demandes d’accès anticipé, pays par pays, avec des exigences de sécurité hétérogènes.
Le risque d’une régulation capturée
Reste une question plus inconfortable : qui évalue, selon quelles méthodes, et avec quelle transparence ? Le chiffre de plus de 40 évaluations montre une montée en puissance, mais il ne dit rien, à lui seul, de la qualité des protocoles ni de la capacité à détecter des comportements émergents sur des systèmes de plus en plus opaques.
Il existe aussi un danger de dépendance mutuelle. Si l’État s’appuie étroitement sur les laboratoires pour accéder aux modèles, et si les laboratoires comptent sur l’État pour valider leur prudence, le dispositif peut devenir autant un outil de sécurité qu’un mécanisme de légitimation réciproque. L’efficacité de ce contrôle dépendra donc moins de l’annonce elle-même que de la rigueur des tests, de leur indépendance et des suites réellement données aux résultats.
La nouvelle ligne de front
L’annonce du 5 mai 2026 acte un déplacement majeur : la question n’est plus seulement de savoir comment réguler les usages de l’IA après coup, mais comment surveiller les capacités des modèles avant leur diffusion. C’est une entrée directe de l’État dans la cuisine interne des systèmes les plus avancés.
Pour les grands laboratoires américains, la conséquence est immédiate : les cycles de lancement devront intégrer un passage préalable par les évaluateurs fédéraux. Pour les concurrents étrangers, le message est clair : le marché américain tend vers un standard où la puissance d’un modèle s’accompagne d’un examen de sécurité en amont. Le prochain jalon à surveiller sera la publication de critères plus précis sur les tests menés par CAISI — et, surtout, les premiers cas où un lancement sera retardé, modifié ou conditionné à la suite de ces évaluations. C’est là que se mesurera la portée réelle de cette bascule.