Aller au contenu

Intelligence Artificielle 2020 — GPT-3 et le Tournant du Langage

  • par
Regard Watshmi

2020 est l’année où les LLM entrent dans le débat public, portés par GPT-3 d’OpenAI. Le modèle, avec ses 175 milliards de paramètres, dépasse tout ce qui existait. Il génère du texte d’une qualité inédite, suscitant autant d’enthousiasme que d’inquiétude. La pandémie de COVID-19 accélère la digitalisation. DeepMind résout avec AlphaFold 2 un problème de biologie cherché , démontrant que l’IA peut apporter des percées scientifiques réelles au-delà du langage.

Chronologie 2020

Janvier DeepMind publie AlphaFold 2, solution au problème de repliement des protéines
Février OpenAI lève 1 milliard de dollars de Microsoft
Mars Pandémie COVID-19 : accélération de la digitalisation mondiale
Avril Publication du dataset LAION-400M, futur socle de la génération d’images
Mai OpenAI annonce GPT-3 (175B paramètres)
Juin GPT-3 disponible en : premières démos virales
Juillet GitHub Copilot en développement interne (basé sur Codex/GPT-3)
Août Publication de la démo GPT-3 générant du code, articles, dialogues
Septembre Débat public sur les biais de GPT-3 (sexisme, racisme dans les sorties)
Octobre Article de Timnit Gebru et al. sur les risques : tensions chez Google
Novembre DeepMind publie AlphaFold 2 dans Nature
Décembre Licenciement de Timnit Gebru : scandale public sur l’éthique IA

Modèles sortis en 2020

Modèle Organisation Date Particularité
GPT-3 OpenAI Mai 2020 175B paramètres, référence LLM
AlphaFold 2 DeepMind Novembre 2020 Repliement des protéines
T5 Google 2020 Encoder-decoder
DALL-E v1 preview OpenAI Fin 2020 Concept annoncé
Codex early OpenAI Interne Coding

Régulations et débats

Biais et représentations dans les LLM, éthique de la recherche IA, licenciement Timnit Gebru, concentration des capacités IA dans peu d’acteurs, accès inégal aux modèles puissants.

Ce que ça a changé

La génération de texte devient crédible. Les entreprises tech comprennent que le langage naturel est le prochain terrain de compétition. Les chercheurs indépendants commencent à être exclus de la frontier IA.

Regard Watshmi

GPT-3 était un signal fort : le langage naturel allait devenir la principale interface avec l’IA. Le bruit était autour de “l’IA qui pense”, non, GPT-3 ne pensait pas. Il prédisait de façon spectaculairement convaincante. L’affaire Gebru révélait un conflit structurel entre impératifs commerciaux et recherche éthique indépendante. Ce conflit n’a pas été résolu.

Ce que ça a changé concrètement pour vous

En 2020, GPT-3 a démontré pour la première fois qu’un modèle de langage pouvait générer du texte cohérent et utile à grande échelle. Pour les professionnels, cela a ouvert la porte à l’automatisation des tâches répétitives : résumés, brouillons, classification de documents. Les équipes techniques ont commencé à intégrer des APIs de génération dans leurs outils internes. Pour les non-développeurs, la distance technologique restait encore grande. Mais 2020 a planté le décor : l’intelligence artificielle générative allait transformer les métiers du savoir. Comprendre cette année fondatrice permet de mieux lire l’accélération remarquable des années suivantes et d’anticiper les prochaines ruptures.

Pour comprendre le contexte technique de cette période :

Formation IA gratuite → Ressources gratuites →

Sources : OpenAI Blog · DeepMind · Nature · Google Research · ArXiv · The Verge · MIT Technology Review