Février 2026 marque le moment où la course à l’IA devient explicitement un conflit de souveraineté. Trois dynamiques convergent ce mois-ci : l’accusation par Anthropic de campagnes de distillation industrielle orchestrées depuis la Chine (24 000 faux comptes pour extraire Claude, selon Anthropic), la confrontation directe avec le Pentagone sur l’accès militaire à l’IA civile, qui aboutit à une rupture officielle fin février, et les allégations de Reuters selon lesquelles DeepSeek aurait entraîné ses modèles sur des puces NVIDIA Blackwell en violation des contrôles d’exportation américains. Sur fond de vague de sorties de modèles frontières (Claude Sonnet 5, GPT-5.3-Codex, Gemini 3.1 Pro, Qwen 3.5) et de l’avancement du projet d’infrastructure Stargate (4,5 GW, Oracle), la vitesse d’innovation force à la fois les engagements de sécurité et les structures réglementaires à se reconfigurer. L’IA n’est plus seulement une course technologique : c’est désormais un terrain d’affrontement géopolitique structurel.
Chronologie : Faits vérifiés
MODÈLE · 3 fév.
Claude Sonnet 5 “Fennec” (: 82,1 % sur SWE-Bench, plugins métier
Anthropic lance Claude Sonnet 5 (nom de code “Fennec”). Selon Anthropic, le modèle atteint 82,1 % sur SWE-Bench Verified, premier modèle revendiqué par Anthropic à franchir la barre des 80 % sur ce benchmark de programmation autonome (conditions exactes : subset filtré, , revue indépendante non publiée à la date de rédaction). Anthropic annonce simultanément des plugins métier permettant à Claude d’agir directement dans des outils d’entreprise (Excel, PowerPoint, Google Drive, Gmail).
MODÈLE · 5 fév.
GPT-5.3-Codex (: 64,7 % sur OSWorld
OpenAI lance GPT-5.3-Codex. Score annoncé : 64,7 % , pratiquement le double de son prédécesseur, vitesse améliorée de 25 %. OpenAI revendique que ce modèle est le « premier à avoir participé à sa propre création » : revendication d’OpenAI, non soumise à revue indépendante à la date de publication.
MODÈLE · Mi-fév.
Gemini 3.1 Pro (: 1M tokens, 77,1 % sur ARC-AGI-2
Google lance Gemini 3.1 Pro avec une fenêtre de contexte d’un million de tokens. Score : 77,1 % sur ARC-AGI-2 (benchmark mesurant le raisonnement abstrait, vérifié par ARC Prize). Capacités multimodales complètes : texte, image, audio, vidéo, code.
MODÈLE · Mi-fév.
Qwen 3.5 (: Apache 2.0, 201 langues, architecture MoE
Alibaba publie Qwen 3.5 sous licence Apache 2.0. Architecture MoE (Mixture-of-Experts) sparse, fenêtre de contexte d’un million de tokens, 201 langues supportées. Performances annoncées comme compétitives face aux modèles propriétaires américains de pointe (résultats publiés sur Hugging Face et ModelScope, revue indépendante en cours).
INFRA · Fév.
Stargate + Oracle : avancement de l’accord 4,5 GW
En février 2026, le projet Stargate (OpenAI, Oracle, SoftBank) poursuit l’activation de son accord d’infrastructure conclu en 2025 : 4,5 GW de capacité de data centers IA, investissement sur cinq ans estimé à environ 300 milliards de dollars. Cinq nouveaux sites sont annoncés dont le Michigan. Contexte : les cinq plus grands fournisseurs cloud américains ont collectivement engagé entre 660 et 690 milliards de dollars de capex pour 2026 (Futurum Research). Note : des retards dans le déploiement Stargate poussent OpenAI à chercher des alternatives cloud à court terme.
SÉCURITÉ · 23–24 fév.
Distillation industrielle : Anthropic accuse DeepSeek, Moonshot AI et MiniMax
Anthropic publie un billet officiel le 23 février accusant trois entreprises d’IA chinoises d’avoir utilisé, selon Anthropic, environ 24 000 faux comptes pour extraire plus de 16 millions d’échanges avec Claude dans le cadre de campagnes coordonnées de distillation de modèle. OpenAI formule des accusations similaires envers DeepSeek dans une lettre ouverte aux législateurs américains, évoquant des tentatives via « méthodes nouvelles et obfusquées ». Par ailleurs, selon un haut responsable américain cité par Reuters (24 fév.), DeepSeek aurait entraîné ses modèles récents sur des puces NVIDIA Blackwell en violation des contrôles d’exportation américains, allégation non confirmée officiellement par le gouvernement, NVIDIA ou DeepSeek à la date de rédaction.
GOUVERNANCE · Fin fév.
Pentagon vs Anthropic : rupture officielle après refus d’accès sans restriction
Le Pentagone exige un accès militaire sans restriction à la technologie d’Anthropic. Dario Amodei refuse et maintient les garde-fous. Le secrétaire à la Défense Pete Hegseth fixe un ultimatum. Selon plusieurs sources concordantes (AP, Axios, CNBC, NYT), le Pentagone désigne officiellement Anthropic comme « risque de chaîne d’approvisionnement » et coupe les contrats gouvernementaux fin février. Plus de 300 employés de Google et 60 d’OpenAI signent une lettre ouverte publique soutenant la position d’Anthropic.
Régulation & Gouvernance
Érosion des engagements de sécurité
Anthropic et OpenAI ont tous deux ajusté en février le langage lié à la sécurité dans leurs engagements publics. Anthropic a retiré une promesse d’arrêter l’entraînement de modèles en l’absence de garanties préalablement établies. Ces ajustements reflètent la double pression concurrentielle et politique.
Gouvernance entreprise : le fossé se creuse
Selon Gartner, les dépenses mondiales en gouvernance IA approchent 500 millions de dollars en 2026, avec une projection de dépassement du milliard avant la fin de la décennie. Les agents IA entrent dans les opérations cœur des entreprises avant que les cadres de gouvernance ne , un décalage structurel documenté en février (BizTechReports, 25 fév.).
Contrôles d’exportation : l’efficacité des restrictions matérielles en question
L’allégation Reuters sur DeepSeek et les puces Blackwell illustre une limite structurelle : si la chaîne d’approvisionnement contourne les restrictions, le contrôle sur les capacités des modèles devient difficile à exercer. Le débat au Congrès américain porte désormais sur une éventuelle extension des contrôles aux poids de modèles (model weights) eux-mêmes.
Signal durable vs Bruit marketing
SIGNAL DURABLE
- Distillation industrielle (selon Anthropic + OpenAI) : 24 000 faux comptes, 16 M d’: signal d’une pratique systématique, pas d’un incident isolé
- Rupture Pentagon-Anthropic : premier test structuré et résolu des limites entre IA civile et accès militaire aux États-Unis
- DeepSeek + Blackwell (allégation Reuters) : l’efficacité réelle des contrôles d’exportation matériels est activement remise en question
- Stargate : concentration d’infrastructure : l’infrastructure IA mondiale se structure autour d’un petit nombre d’accords privés massifs
- Qwen 3.5 Apache 2.0 : un modèle open-source chinois compétitif sur les benchmarks publics pousse les standards de l’open-source mondial
BRUIT MARKETING
- GPT-5.3-Codex « premier modèle à participer à sa propre création » : revendication d’OpenAI, non soumise à audit indépendant
- Scores de benchmarks sans déploiements réels documentés à grande échelle
- Valorisations d’infrastructure annoncées sans calendriers de rentabilité vérifiables
Indicateur de maturité – Février 2026
Lecture rapide de l’état de chaque domaine, à titre de repère analytique.
| Domaine | Niveau fév. 2026 | Signal du mois | Évolution vs janv. |
|---|---|---|---|
| LLM (modèles de langage) | Maturité élevée | 4 modèles frontières en 2 semaines | → Stable / accélération |
| Agents IA enterprise | Déploiement accéléré | Claude plugins métier, governance gap | ↑ En hausse |
| IA physique / Robotique | Phase pilote industriel | Continuité Atlas/NVIDIA | → Stable |
| Infrastructure IA | Concentration critique | Stargate Oracle activation 4,5 GW | → Stable |
| Sécurité / Géopolitique | Tension active → Rupture | Distillation, Pentagone, Blackwell | ↑ Escalade significative |
| Régulation | Sous pression | Érosion safety pledges, débat model weights | ↓ Recul observé |
Regard Watshmi
Février 2026 cristallise une transformation de nature : l’IA sort du registre de la course technologique pour entrer dans celui de la souveraineté et de la sécurité nationale. Trois dynamiques l’illustrent simultanément.
La distillation comme nouvelle forme d’extraction systématique. 24 000 faux comptes pour extraire 16 millions d’échanges, selon Anthropic, ce n’est pas un incident isolé, c’est une méthode documentée et coordonnée. Le fait qu’Anthropic et OpenAI formulent simultanément des accusations similaires sur des acteurs distincts signale une pratique de fond. La distinction entre compétition légitime et extraction industrielle ne pourra plus s’opérer au niveau des modèles seuls : elle devra s’opérer au niveau des protocoles d’accès, des audit trails, et des détections comportementales.
Le moment Pentagon-Anthropic a abouti à une rupture, pas un dialogue. Pour la première fois, une entreprise IA civile a refusé une demande d’accès militaire , et le Pentagone a répondu par une désignation formelle de « risque de chaîne d’approvisionnement » et la coupure des contrats. Plus de 360 employés d’entreprises concurrentes ont soutenu Anthropic publiquement. Ce n’est pas simplement un conflit commercial : c’est la première ligne de fracture formelle entre IA civile et usage militaire aux États-Unis. Ses conséquences conditionnent les années à venir.
Stargate concentre l’infrastructure, le risque avec elle. L’activation progressive du projet Stargate (4,5 GW, Oracle) confirme que l’infrastructure IA mondiale se structure autour d’une poignée d’accords privés de très grande échelle. La question de la résilience, de la souveraineté des données et de la concurrence n’est plus une : c’est une question d’infrastructure physique concentrée.
Ligne éditoriale Watshmi : signal structurel > bruit médiatique. Chaque fait est sourcé et attribué. Chaque interprétation est distinguée du fait. Les sources secondaires (blogs, agrégateurs, newsletters) ne sont pas utilisées comme base factuelle.
Sources primaires
Distillation / Sécurité
- Anthropic — Billet officiel distillation industrielle (23 fév. 2026)
- TechCrunch — Anthropic accuse les labs chinois de miner Claude (23 fév.)
- VentureBeat — 24 000 faux comptes : DeepSeek, Moonshot AI, MiniMax
- Fortune — Distillation Claude, sécurité nationale (24 fév.)
Pentagon / Gouvernance
- TechCrunch — Employés Google & OpenAI soutiennent Anthropic face au Pentagone (27 fév.)
- BizTechReports — Governance gap agents IA entreprises (25 fév.)
Infrastructure Stargate
- OpenAI — Stargate : avancement accord Oracle 4,5 GW
- TechCrunch — Infrastructure IA : les milliards engagés (28 fév.)
- Digitimes — Retards Stargate, OpenAI cherche alternatives
