2023 est l’année où la course aux modèles de frontier s’intensifie et se diversifie. OpenAI publie : multimodal, capable de passer le barreau américain. Anthropic publie Claude avec une approche Constitutional AI. Google réagit avec Bard. Meta publie LLaMA en semi-open source, déclenchant une vague de modèles dérivés. Le terme “AGI” refait surface. Des personnalités signent une lettre ouverte demandant une pause dans l’entraînement des modèles. La crise OpenAI en novembre cristallise les tensions de gouvernance.
Chronologie 2023
Modèles sortis en 2023
Régulations et débats
AI Act Europe (vote avancé), executive order Biden sur l’IA, droits d’auteur (procès NYT vs OpenAI), lettre pause IA, crise gouvernance OpenAI, hallucinations et fiabilité pour usages professionnels.
Ce que ça a changé
Le marché des LLM devient compétitif. L’open source rivalise avec le propriétaire. Les entreprises commencent à intégrer l’IA dans leurs produits à grande échelle. Les professions intellectuelles commencent à réorganiser leurs pratiques.
Regard Watshmi
La crise OpenAI de novembre 2023 était le signal le plus révélateur de l’année : la gouvernance des organisations développant les modèles les plus puissants était fragile et opaque. La course aux benchmarks contenait , notamment la présentation de Gemini avec une vidéo trompeuse. Signal durable : l’open source était viable à haut niveau, ce qui allait redistribuer le pouvoir dans le secteur.
Ce que ça a changé concrètement pour vous
En 2023, GPT-4 et l’arrivée de Claude, Llama et Mistral ont rendu les modèles multimodaux accessibles. Les professionnels ont dû apprendre à distinguer les usages légitimes des zones grises. L’IA Act européen a imposé aux organisations de cartographier leurs usages IA et d’évaluer les risques. Pour les métiers du droit, de la médecine et de la finance, les questions de responsabilité et de conformité sont devenues centrales. Le « prompt engineering » a émergé comme discipline structurée. La question n’est plus la performance des modèles mais leur gouvernance : qui décide, qui valide, qui répond des résultats produits par l’IA dans un cadre professionnel ?
Pour comprendre le contexte technique de cette période :
Formation IA gratuite → Ressources gratuites →Sources primaires
Sources : OpenAI Blog · Anthropic Research · Meta AI Research · Google DeepMind Blog · ArXiv · MIT Technology Review · Executive Order (White House)
