PandIA

DeepSeek sort 1,6 trillion de paramètres, et Nvidia n'est plus au centre du jeu

DeepSeek sort 1,6 trillion de paramètres, et Nvidia n'est plus au centre du jeu

La publication de DeepSeek V4 n’ajoute pas simplement un modèle de plus à une course déjà saturée. Elle envoie un message autrement plus sensible : malgré les restrictions américaines sur les semi-conducteurs, l’IA chinoise continue d’avancer, y compris en dehors de l’orbite de Nvidia.

Le 24 avril 2026, le laboratoire chinois DeepSeek a mis en ligne des versions preview de sa nouvelle génération, dont V4-Pro et V4-Flash. Sur le papier, la fiche technique impressionne. Mais le vrai signal se situe ailleurs : selon Reuters et AP, ce modèle a aussi été adapté pour fonctionner avec des puces Huawei, un détail qui pèse lourd dans le rapport de force technologique du moment.

DeepSeek ne montre pas seulement ses muscles, il teste une autonomie industrielle

La version la plus ambitieuse, V4-Pro, affiche 1,6 trillion de paramètres au total, avec 49 milliards de paramètres actifs au moment de l’inférence. Cette architecture de type mixture-of-experts permet de mobiliser une fraction du modèle à chaque requête, afin de contenir les coûts de calcul tout en conservant une très grande capacité globale.

Autre chiffre marquant : un contexte de 1 million de tokens, soit un niveau qui place DeepSeek dans le cercle des modèles capables de traiter de très longs corpus, des bases documentaires étendues ou des chaînes d’instructions complexes. À ce niveau, l’ambition n’est plus seulement conversationnelle : il s’agit de s’attaquer à des usages d’analyse, de planification et d’automatisation avancée.

DeepSeek met aussi en avant des progrès sur le raisonnement et les tâches dites agentiques, c’est-à-dire des scénarios où le modèle ne se contente pas de répondre, mais orchestre plusieurs étapes, outils ou sous-tâches. C’est le terrain sur lequel les laboratoires américains, d’OpenAI à Anthropic en passant par Google, concentrent une part croissante de leurs efforts. En se comparant directement à des modèles américains, DeepSeek sort du registre défensif : l’objectif affiché n’est plus de rattraper, mais de contester.

Le détail Huawei est politiquement plus important que la taille du modèle

La donnée la plus stratégique n’est donc pas nécessairement le nombre de paramètres. C’est la compatibilité annoncée avec des puces Huawei.

Depuis le durcissement des contrôles américains à l’exportation, l’accès chinois aux GPU les plus avancés de Nvidia est devenu plus incertain, plus coûteux et plus politiquement exposé. Dans ce contexte, chaque démonstration de performance sur une pile technologique locale prend une portée bien plus large qu’une simple optimisation d’ingénierie.

Selon les informations reprises par AP et Investing.com à partir de dépêches Reuters, DeepSeek V4 a été adapté pour fonctionner sur des composants Huawei. Cela renforce un récit désormais central à Pékin : celui d’un écosystème IA chinois capable de progresser même sous contrainte, en combinant modèles, infrastructure et matériels nationaux.

Il faut mesurer ce que cela signifie. L’avance de Nvidia ne tient pas seulement à la puissance brute de ses GPU, mais à tout un empilement logiciel, de CUDA aux outils d’optimisation et aux bibliothèques devenues standards dans l’industrie. Sortir de cette dépendance, même partiellement, demande bien plus qu’un portage technique. Il faut reconstruire des chaînes de compatibilité, former des équipes, absorber des pertes d’efficacité, et accepter une période de friction. Si DeepSeek choisit malgré tout de pousser ce message publiquement, c’est que le gain stratégique vaut désormais l’effort.

Derrière la démonstration technique, la guerre des labos change d’échelle

Le calendrier n’a rien d’anodin. La compétition mondiale entre laboratoires s’est durcie sur trois fronts à la fois : la performance des modèles, leur coût d’exploitation, et la maîtrise de la chaîne matérielle. Jusqu’ici, les acteurs américains semblaient disposer d’un avantage structurel sur les trois dimensions, grâce à l’accès aux meilleurs GPU, à des budgets colossaux et à un écosystème logiciel dominant.

DeepSeek s’est déjà distingué en bousculant cette hiérarchie par le bas, avec des modèles réputés compétitifs et plus efficients que prévu. Avec V4, le laboratoire change de registre. Il ne s’agit plus seulement de prouver qu’un acteur chinois peut produire un très bon modèle open source. Il s’agit de montrer qu’il peut viser le très haut de gamme tout en réduisant sa dépendance aux composants américains.

Cette séquence pèse aussi sur la lecture géopolitique du secteur. Les restrictions américaines avaient pour objectif de freiner l’accès de la Chine aux capacités de calcul les plus avancées. Or la logique de substitution semble gagner en crédibilité : moins d’accès direct aux puces les plus performantes pousse à optimiser les architectures, à diversifier les fournisseurs, et à faire monter en puissance des champions locaux comme Huawei. En d’autres termes, la contrainte n’annule pas la progression ; elle en modifie les trajectoires.

L’open source devient une arme de diffusion autant qu’un choix technique

DeepSeek continue par ailleurs de cultiver un positionnement open source qui a largement contribué à sa visibilité internationale. Ce choix n’est pas anecdotique. Il permet d’accélérer l’adoption par les développeurs, d’alimenter une communauté d’évaluation externe, et de diffuser plus vite dans les entreprises qui souhaitent éviter le verrouillage des API fermées.

Dans le contexte chinois, cette stratégie a une autre vertu : elle permet de bâtir plus rapidement un socle logiciel partagé autour d’architectures locales. Si un modèle performant peut tourner sur du matériel Huawei et être repris, ajusté ou déployé plus largement, l’effet d’écosystème devient tangible.

Cela ne signifie pas que DeepSeek a déjà neutralisé l’avantage américain. Les modèles les plus avancés des laboratoires américains conservent, selon les cas d’usage, un avantage en robustesse, en intégration produit, en outils développeurs ou en qualité globale sur les tâches complexes. Mais la question n’est plus de savoir si la Chine peut publier un modèle crédible. La question devient : à quelle vitesse peut-elle industrialiser une alternative complète.

Ce que V4 dit de l’état réel du marché

Le lancement de V4-Pro et V4-Flash rappelle aussi une vérité plus large : la taille brute d’un modèle ne suffit plus à raconter son importance. 1,6 trillion de paramètres est un chiffre spectaculaire, mais la compétition se joue désormais sur un ensemble plus concret de critères : coût par requête, latence, stabilité, longueur de contexte, capacité à piloter des outils externes, adaptation à des puces disponibles localement, et rapidité de déploiement.

Sur ce terrain, DeepSeek tente de cocher plusieurs cases à la fois. Un très grand modèle pour la démonstration de force. Une variante Flash pour l’efficacité. Un contexte de 1 million de tokens pour les usages lourds. Et une compatibilité Huawei pour l’indépendance stratégique. Pris séparément, ces éléments sont notables. Ensemble, ils composent un signal beaucoup plus structuré.

Le message adressé aux concurrents américains est clair : la frontière ne passe plus seulement entre modèles fermés et modèles ouverts, ni entre meilleurs et moins bons benchmarks. Elle passe aussi entre ceux qui contrôlent réellement leur chaîne de calcul et ceux qui restent exposés à des dépendances géopolitiques.

Le prochain test sera industriel, pas médiatique

La prochaine étape ne se jouera pas dans les annonces, mais dans les déploiements. Si V4 confirme ses performances sur des usages réels, et surtout si son adaptation à l’infrastructure Huawei se traduit par des déploiements stables à grande échelle, la Chine disposera d’un argument mesurable dans la bataille mondiale de l’IA : un modèle de pointe compatible avec une pile matérielle domestique.

C’est là que se situera le vrai jalon. Pas dans le chiffre de paramètres, mais dans la capacité à faire tourner ces systèmes en production, à coût soutenable, sur des puces non américaines. Si ce seuil est franchi dans les prochains mois, la pression montera d’un cran sur les laboratoires américains comme sur Nvidia : la compétition ne portera plus seulement sur la meilleure IA, mais sur la meilleure IA que l’on peut encore construire sous contrainte.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter