Aller au contenu

Intelligence Artificielle 2023 — GPT-4, Claude et l’IA Act

  • par
Regard Watshmi

2023 est l’année où la course aux modèles de frontier s’intensifie et se diversifie. OpenAI publie : multimodal, capable de passer le barreau américain. Anthropic publie Claude avec une approche Constitutional AI. Google réagit avec Bard. Meta publie LLaMA en semi-open source, déclenchant une vague de modèles dérivés. Le terme “AGI” refait surface. Des personnalités signent une lettre ouverte demandant une pause dans l’entraînement des modèles. La crise OpenAI en novembre cristallise les tensions de gouvernance.

Chronologie 2023

Janvier Microsoft annonce investissement 10 milliards dans OpenAI, intégration Bing
Février Google lance Bard : démo ratée avec erreur factuelle en direct
Mars GPT-4 lancé : multimodal, performances inédites sur benchmarks
Mars Lettre ouverte “Pause AI 6 mois” signée (Musk, Yoshua Bengio, etc.)
Avril Anthropic publie Claude : Constitutional AI, moins de refus
Mai Meta publie LLaMA : communauté fine-tuning active
Juin Apple annonce Apple Intelligence : WWDC 2023
Juillet Meta publie LLaMA 2 en open source complet
Août Mistral AI (Paris) publie Mistral 7B : meilleur open source de sa taille
Septembre OpenAI ajoute vision et voix à ChatGPT (GPT-4V)
Octobre DALL-E 3 intégré dans ChatGPT
Novembre Crise OpenAI : Sam Altman renvoyé puis réintégré en 5 jours
Décembre Google publie Gemini : annonce controversée

Modèles sortis en 2023

Modèle Organisation Date Particularité
GPT-4 / GPT-4V OpenAI Mars 2023 Multimodal frontier
Claude 1 puis Claude 2 Anthropic 2023 Constitutional AI
LLaMA / LLaMA 2 Meta 2023 Open source
Mistral 7B Mistral AI Août 2023 Open source efficient
Falcon 180B TII 2023 Open source
PaLM 2 / Bard Google 2023 Dialogue
Gemini Google DeepMind Décembre 2023 Ultra, Pro, Nano

Régulations et débats

AI Act Europe (vote avancé), executive order Biden sur l’IA, droits d’auteur (procès NYT vs OpenAI), lettre pause IA, crise gouvernance OpenAI, hallucinations et fiabilité pour usages professionnels.

Ce que ça a changé

Le marché des LLM devient compétitif. L’open source rivalise avec le propriétaire. Les entreprises commencent à intégrer l’IA dans leurs produits à grande échelle. Les professions intellectuelles commencent à réorganiser leurs pratiques.

Regard Watshmi

La crise OpenAI de novembre 2023 était le signal le plus révélateur de l’année : la gouvernance des organisations développant les modèles les plus puissants était fragile et opaque. La course aux benchmarks contenait , notamment la présentation de Gemini avec une vidéo trompeuse. Signal durable : l’open source était viable à haut niveau, ce qui allait redistribuer le pouvoir dans le secteur.

Ce que ça a changé concrètement pour vous

En 2023, GPT-4 et l’arrivée de Claude, Llama et Mistral ont rendu les modèles multimodaux accessibles. Les professionnels ont dû apprendre à distinguer les usages légitimes des zones grises. L’IA Act européen a imposé aux organisations de cartographier leurs usages IA et d’évaluer les risques. Pour les métiers du droit, de la médecine et de la finance, les questions de responsabilité et de conformité sont devenues centrales. Le « prompt engineering » a émergé comme discipline structurée. La question n’est plus la performance des modèles mais leur gouvernance : qui décide, qui valide, qui répond des résultats produits par l’IA dans un cadre professionnel ?

Pour comprendre le contexte technique de cette période :

Formation IA gratuite → Ressources gratuites →

Sources : OpenAI Blog · Anthropic Research · Meta AI Research · Google DeepMind Blog · ArXiv · MIT Technology Review · Executive Order (White House)