2020 est l’année où les LLM entrent dans le débat public, portés par GPT-3 d’OpenAI. Le modèle, avec ses 175 milliards de paramètres, dépasse tout ce qui existait. Il génère du texte d’une qualité inédite, suscitant autant d’enthousiasme que d’inquiétude. La pandémie de COVID-19 accélère la digitalisation. DeepMind résout avec AlphaFold 2 un problème de biologie cherché , démontrant que l’IA peut apporter des percées scientifiques réelles au-delà du langage.
Chronologie 2020
Modèles sortis en 2020
Régulations et débats
Biais et représentations dans les LLM, éthique de la recherche IA, licenciement Timnit Gebru, concentration des capacités IA dans peu d’acteurs, accès inégal aux modèles puissants.
Ce que ça a changé
La génération de texte devient crédible. Les entreprises tech comprennent que le langage naturel est le prochain terrain de compétition. Les chercheurs indépendants commencent à être exclus de la frontier IA.
Regard Watshmi
GPT-3 était un signal fort : le langage naturel allait devenir la principale interface avec l’IA. Le bruit était autour de “l’IA qui pense”, non, GPT-3 ne pensait pas. Il prédisait de façon spectaculairement convaincante. L’affaire Gebru révélait un conflit structurel entre impératifs commerciaux et recherche éthique indépendante. Ce conflit n’a pas été résolu.
Ce que ça a changé concrètement pour vous
En 2020, GPT-3 a démontré pour la première fois qu’un modèle de langage pouvait générer du texte cohérent et utile à grande échelle. Pour les professionnels, cela a ouvert la porte à l’automatisation des tâches répétitives : résumés, brouillons, classification de documents. Les équipes techniques ont commencé à intégrer des APIs de génération dans leurs outils internes. Pour les non-développeurs, la distance technologique restait encore grande. Mais 2020 a planté le décor : l’intelligence artificielle générative allait transformer les métiers du savoir. Comprendre cette année fondatrice permet de mieux lire l’accélération remarquable des années suivantes et d’anticiper les prochaines ruptures.
Pour comprendre le contexte technique de cette période :
Formation IA gratuite → Ressources gratuites →Sources primaires
Sources : OpenAI Blog · DeepMind · Nature · Google Research · ArXiv · The Verge · MIT Technology Review
