Aller au contenu

News IA — Février 2026 : La fracture géopolitique de l’IA

Février 2026 marque le moment où la course à l’IA devient explicitement un conflit de souveraineté. Trois dynamiques convergent ce mois-ci : l’accusation par Anthropic de campagnes de distillation industrielle orchestrées depuis la Chine (24 000 faux comptes pour extraire Claude, selon Anthropic), la confrontation directe avec le Pentagone sur l’accès militaire à l’IA civile, qui aboutit à une rupture officielle fin février, et les allégations de Reuters selon lesquelles DeepSeek aurait entraîné ses modèles sur des puces NVIDIA Blackwell en violation des contrôles d’exportation américains. Sur fond de vague de sorties de modèles frontières (Claude Sonnet 5, GPT-5.3-Codex, Gemini 3.1 Pro, Qwen 3.5) et de l’avancement du projet d’infrastructure Stargate (4,5 GW, Oracle), la vitesse d’innovation force à la fois les engagements de sécurité et les structures réglementaires à se reconfigurer. L’IA n’est plus seulement une course technologique : c’est désormais un terrain d’affrontement géopolitique structurel.

Chronologie : Faits vérifiés

MODÈLE · 3 fév.

Claude Sonnet 5 “Fennec” (: 82,1 % sur SWE-Bench, plugins métier

Anthropic lance Claude Sonnet 5 (nom de code “Fennec”). Selon Anthropic, le modèle atteint 82,1 % sur SWE-Bench Verified, premier modèle revendiqué par Anthropic à franchir la barre des 80 % sur ce benchmark de programmation autonome (conditions exactes : subset filtré, , revue indépendante non publiée à la date de rédaction). Anthropic annonce simultanément des plugins métier permettant à Claude d’agir directement dans des outils d’entreprise (Excel, PowerPoint, Google Drive, Gmail).

MODÈLE · 5 fév.

GPT-5.3-Codex (: 64,7 % sur OSWorld

OpenAI lance GPT-5.3-Codex. Score annoncé : 64,7 % , pratiquement le double de son prédécesseur, vitesse améliorée de 25 %. OpenAI revendique que ce modèle est le « premier à avoir participé à sa propre création » : revendication d’OpenAI, non soumise à revue indépendante à la date de publication.

MODÈLE · Mi-fév.

Gemini 3.1 Pro (: 1M tokens, 77,1 % sur ARC-AGI-2

Google lance Gemini 3.1 Pro avec une fenêtre de contexte d’un million de tokens. Score : 77,1 % sur ARC-AGI-2 (benchmark mesurant le raisonnement abstrait, vérifié par ARC Prize). Capacités multimodales complètes : texte, image, audio, vidéo, code.

MODÈLE · Mi-fév.

Qwen 3.5 (: Apache 2.0, 201 langues, architecture MoE

Alibaba publie Qwen 3.5 sous licence Apache 2.0. Architecture MoE (Mixture-of-Experts) sparse, fenêtre de contexte d’un million de tokens, 201 langues supportées. Performances annoncées comme compétitives face aux modèles propriétaires américains de pointe (résultats publiés sur Hugging Face et ModelScope, revue indépendante en cours).

INFRA · Fév.

Stargate + Oracle : avancement de l’accord 4,5 GW

En février 2026, le projet Stargate (OpenAI, Oracle, SoftBank) poursuit l’activation de son accord d’infrastructure conclu en 2025 : 4,5 GW de capacité de data centers IA, investissement sur cinq ans estimé à environ 300 milliards de dollars. Cinq nouveaux sites sont annoncés dont le Michigan. Contexte : les cinq plus grands fournisseurs cloud américains ont collectivement engagé entre 660 et 690 milliards de dollars de capex pour 2026 (Futurum Research). Note : des retards dans le déploiement Stargate poussent OpenAI à chercher des alternatives cloud à court terme.

SÉCURITÉ · 23–24 fév.

Distillation industrielle : Anthropic accuse DeepSeek, Moonshot AI et MiniMax

Anthropic publie un billet officiel le 23 février accusant trois entreprises d’IA chinoises d’avoir utilisé, selon Anthropic, environ 24 000 faux comptes pour extraire plus de 16 millions d’échanges avec Claude dans le cadre de campagnes coordonnées de distillation de modèle. OpenAI formule des accusations similaires envers DeepSeek dans une lettre ouverte aux législateurs américains, évoquant des tentatives via « méthodes nouvelles et obfusquées ». Par ailleurs, selon un haut responsable américain cité par Reuters (24 fév.), DeepSeek aurait entraîné ses modèles récents sur des puces NVIDIA Blackwell en violation des contrôles d’exportation américains, allégation non confirmée officiellement par le gouvernement, NVIDIA ou DeepSeek à la date de rédaction.

GOUVERNANCE · Fin fév.

Pentagon vs Anthropic : rupture officielle après refus d’accès sans restriction

Le Pentagone exige un accès militaire sans restriction à la technologie d’Anthropic. Dario Amodei refuse et maintient les garde-fous. Le secrétaire à la Défense Pete Hegseth fixe un ultimatum. Selon plusieurs sources concordantes (AP, Axios, CNBC, NYT), le Pentagone désigne officiellement Anthropic comme « risque de chaîne d’approvisionnement » et coupe les contrats gouvernementaux fin février. Plus de 300 employés de Google et 60 d’OpenAI signent une lettre ouverte publique soutenant la position d’Anthropic.

Régulation & Gouvernance

Érosion des engagements de sécurité

Anthropic et OpenAI ont tous deux ajusté en février le langage lié à la sécurité dans leurs engagements publics. Anthropic a retiré une promesse d’arrêter l’entraînement de modèles en l’absence de garanties préalablement établies. Ces ajustements reflètent la double pression concurrentielle et politique.

Gouvernance entreprise : le fossé se creuse

Selon Gartner, les dépenses mondiales en gouvernance IA approchent 500 millions de dollars en 2026, avec une projection de dépassement du milliard avant la fin de la décennie. Les agents IA entrent dans les opérations cœur des entreprises avant que les cadres de gouvernance ne , un décalage structurel documenté en février (BizTechReports, 25 fév.).

Contrôles d’exportation : l’efficacité des restrictions matérielles en question

L’allégation Reuters sur DeepSeek et les puces Blackwell illustre une limite structurelle : si la chaîne d’approvisionnement contourne les restrictions, le contrôle sur les capacités des modèles devient difficile à exercer. Le débat au Congrès américain porte désormais sur une éventuelle extension des contrôles aux poids de modèles (model weights) eux-mêmes.

Signal durable vs Bruit marketing

SIGNAL DURABLE

  • Distillation industrielle (selon Anthropic + OpenAI) : 24 000 faux comptes, 16 M d’: signal d’une pratique systématique, pas d’un incident isolé
  • Rupture Pentagon-Anthropic : premier test structuré et résolu des limites entre IA civile et accès militaire aux États-Unis
  • DeepSeek + Blackwell (allégation Reuters) : l’efficacité réelle des contrôles d’exportation matériels est activement remise en question
  • Stargate : concentration d’infrastructure : l’infrastructure IA mondiale se structure autour d’un petit nombre d’accords privés massifs
  • Qwen 3.5 Apache 2.0 : un modèle open-source chinois compétitif sur les benchmarks publics pousse les standards de l’open-source mondial

BRUIT MARKETING

  • GPT-5.3-Codex « premier modèle à participer à sa propre création » : revendication d’OpenAI, non soumise à audit indépendant
  • Scores de benchmarks sans déploiements réels documentés à grande échelle
  • Valorisations d’infrastructure annoncées sans calendriers de rentabilité vérifiables

Indicateur de maturité – Février 2026

Lecture rapide de l’état de chaque domaine, à titre de repère analytique.

DomaineNiveau fév. 2026Signal du moisÉvolution vs janv.
LLM (modèles de langage)Maturité élevée4 modèles frontières en 2 semaines→ Stable / accélération
Agents IA enterpriseDéploiement accéléréClaude plugins métier, governance gap↑ En hausse
IA physique / RobotiquePhase pilote industrielContinuité Atlas/NVIDIA→ Stable
Infrastructure IAConcentration critiqueStargate Oracle activation 4,5 GW→ Stable
Sécurité / GéopolitiqueTension active → RuptureDistillation, Pentagone, Blackwell↑ Escalade significative
RégulationSous pressionÉrosion safety pledges, débat model weights↓ Recul observé

Regard Watshmi

Février 2026 cristallise une transformation de nature : l’IA sort du registre de la course technologique pour entrer dans celui de la souveraineté et de la sécurité nationale. Trois dynamiques l’illustrent simultanément.

La distillation comme nouvelle forme d’extraction systématique. 24 000 faux comptes pour extraire 16 millions d’échanges, selon Anthropic, ce n’est pas un incident isolé, c’est une méthode documentée et coordonnée. Le fait qu’Anthropic et OpenAI formulent simultanément des accusations similaires sur des acteurs distincts signale une pratique de fond. La distinction entre compétition légitime et extraction industrielle ne pourra plus s’opérer au niveau des modèles seuls : elle devra s’opérer au niveau des protocoles d’accès, des audit trails, et des détections comportementales.

Le moment Pentagon-Anthropic a abouti à une rupture, pas un dialogue. Pour la première fois, une entreprise IA civile a refusé une demande d’accès militaire , et le Pentagone a répondu par une désignation formelle de « risque de chaîne d’approvisionnement » et la coupure des contrats. Plus de 360 employés d’entreprises concurrentes ont soutenu Anthropic publiquement. Ce n’est pas simplement un conflit commercial : c’est la première ligne de fracture formelle entre IA civile et usage militaire aux États-Unis. Ses conséquences conditionnent les années à venir.

Stargate concentre l’infrastructure, le risque avec elle. L’activation progressive du projet Stargate (4,5 GW, Oracle) confirme que l’infrastructure IA mondiale se structure autour d’une poignée d’accords privés de très grande échelle. La question de la résilience, de la souveraineté des données et de la concurrence n’est plus une : c’est une question d’infrastructure physique concentrée.

Ligne éditoriale Watshmi : signal structurel > bruit médiatique. Chaque fait est sourcé et attribué. Chaque interprétation est distinguée du fait. Les sources secondaires (blogs, agrégateurs, newsletters) ne sont pas utilisées comme base factuelle.

Sources primaires

Distillation / Sécurité

Pentagon / Gouvernance

Infrastructure Stargate

Modèles