Ce glossaire intelligence artificielle rassemble 30 termes clés expliqués simplement et techniquement. Pour aller plus loin : guide débutant IA, templates métier et formation gratuite.
Ce glossaire réunit les 30 termes essentiels de l’intelligence artificielle, définis de façon simple et technique, sans jargon creux. Chaque terme est rattaché à un module de la formation Watshmi pour approfondir.
Ressource gratuite — Marque déposée INPI n° 25 5205335
A
AGI — Artificial General Intelligence
Définition simple : Intelligence artificielle hypothétique capable d’égaler ou surpasser l’humain dans toutes les tâches cognitives.
Définition technique : L’AGI est un concept théorique désignant un système IA doté de capacités générales de raisonnement, d’apprentissage et d’adaptation comparables à celles d’un humain. Elle n’existe pas à ce jour. Les LLM actuels sont des systèmes étroits d’optimisation statistique, pas des AGI.
Pourquoi c’est important : Distinguer AGI et LLM est essentiel pour évaluer sobrement les annonces du secteur.
Module 15Alignment
Définition simple : Ensemble de techniques visant à faire correspondre le comportement d’une IA avec les valeurs et intentions humaines.
Définition technique : L’alignment est le problème de faire en sorte qu’un système IA agisse conformément aux objectifs et valeurs de ses utilisateurs et de la société. Il inclut la sécurité, l’honnêteté, et l’utilité. Les techniques principales incluent RLHF, Constitutional AI, et les red teams.
Pourquoi c’est important : C’est l’un des défis techniques et éthiques les plus critiques du développement IA.
Module 14Attention (mécanisme)
Définition simple : Mécanisme qui permet à un modèle de pondérer l’importance de chaque mot dans son contexte.
Définition technique : Le mécanisme d’attention (Vaswani et al., 2017) permet au modèle de calculer, pour chaque token, une pondération dynamique sur tous les autres tokens. Le self-attention permet de capturer les dépendances longue portée dans une séquence.
Pourquoi c’est important : C’est le cœur de l’architecture Transformer et la raison pour laquelle les LLM sont supérieurs aux anciens réseaux récurrents.
Module 2B
Benchmark
Définition simple : Protocole standardisé d’évaluation des performances d’un modèle IA.
Définition technique : Un benchmark est un ensemble de tests reproductibles (MMLU, HumanEval, HELM, etc.) mesurant des capacités spécifiques : raisonnement, coding, compréhension, factualité. Les scores sont utilisés par les labos pour comparer les modèles. Ils peuvent être sur-optimisés (data contamination, cherry-picking).
Pourquoi c’est important : Lire les benchmarks avec esprit critique est indispensable pour évaluer les annonces de performance des modèles.
Module 13Bias (Biais)
Définition simple : Distorsion systématique dans les sorties d’un modèle résultant de son corpus d’entraînement.
Définition technique : Le biais IA est une asymétrie systématique dans les prédictions ou représentations d’un modèle, liée à la sur- ou sous-représentation de certains groupes, sujets ou perspectives dans les données d’entraînement. Il peut être démographique, culturel, linguistique ou idéologique.
Pourquoi c’est important : Identifier les biais est essentiel pour un usage éthique et critique des LLM.
Module 12Block method A→B→C
Définition simple : Méthode de travail segmenté en blocs séquentiels pour les tâches longues avec IA.
Définition technique : La block method divise un projet en blocs autonomes : A (définition/analyse), B (production), C (validation/correction). Chaque bloc est soumis séparément à l’IA avec un reset entre eux. Elle prévient le drift de contexte et maintient la qualité sur les projets longs.
Pourquoi c’est important : Essentielle pour tout travail professionnel long avec IA sans perdre le contrôle.
Module 9C
Chain of thought
Définition simple : Technique incitant le modèle à décomposer son raisonnement étape par étape avant de conclure.
Définition technique : Le chain-of-thought prompting demande au modèle d’expliciter ses étapes intermédiaires de raisonnement. Améliore significativement les performances sur les problèmes logiques, mathématiques ou multi-étapes. S’active par des formules comme «Réfléchis étape par étape» ou en incluant des exemples de raisonnement.
Pourquoi c’est important : Augmente la fiabilité du modèle sur les tâches complexes.
Module 7Context window
Définition simple : Quantité maximale de texte (en tokens) qu’un modèle peut traiter en une seule fois.
Définition technique : La context window définit la mémoire de travail instantanée du modèle : tout ce qui précède (conversation, instructions, documents) doit tenir dans cette fenêtre. Au-delà, le modèle «oublie» les informations plus anciennes. La taille varie selon les modèles (8K à 1M+ tokens).
Pourquoi c’est important : Connaître la context window évite les pertes d’information sur les tâches longues.
Module 6D
Drift
Définition simple : Dérive progressive du comportement d’un modèle dans une conversation longue ou de l’utilisateur dans l’usage prolongé.
Définition technique : Le drift cognitif désigne l’accumulation d’un biais directionnel dans les réponses d’un LLM au fil d’une conversation (context contamination), ou la dépendance progressive de l’utilisateur envers l’IA qui réduit son autonomie de jugement. C’est un phénomène invisible et cumulatif.
Pourquoi c’est important : Identifier et prévenir le drift est le cœur de la méthode Watshmi.
Module 5E
Effet miroir
Définition simple : Phénomène par lequel l’IA amplifie et renvoie l’état cognitif ou émotionnel de l’utilisateur.
Définition technique : Un LLM est entraîné à produire des réponses cohérentes avec le contexte qu’on lui donne. Si l’utilisateur est instable, le modèle amplifie l’instabilité. Si l’utilisateur est structuré, le modèle reste structuré. Ce mécanisme est mécanique, non intentionnel.
Pourquoi c’est important : Comprendre l’effet miroir permet de reprendre consciemment le contrôle de ses interactions avec l’IA.
Module 4Embedding
Définition simple : Représentation numérique d’un mot ou d’une phrase sous forme de vecteur.
Définition technique : Un embedding transforme du texte en coordonnées dans un espace mathématique à haute dimension. Les mots sémantiquement proches ont des vecteurs proches. Cette représentation est le fondement de la compréhension contextuelle des LLM.
Pourquoi c’est important : C’est le mécanisme qui permet à une IA de «comprendre» les relations entre les concepts.
Module 2F
Few-shot
Définition simple : Technique de prompt incluant des exemples concrets pour guider le comportement du modèle.
Définition technique : Le few-shot prompting fournit 2 à 5 exemples input/output dans le prompt pour montrer au modèle le format ou le raisonnement attendu. Plus efficace que les instructions abstraites, surtout pour les tâches avec format spécifique.
Pourquoi c’est important : Permet d’obtenir des sorties précisément formatées sans fine-tuning.
Module 7Fine-tuning
Définition simple : Entraînement supplémentaire d’un modèle pré-entraîné sur des données spécifiques.
Définition technique : Le fine-tuning ajuste les poids d’un LLM pré-entraîné sur un corpus ciblé pour le spécialiser dans un domaine ou un style. Contrairement au RAG, il modifie le modèle lui-même. Il est coûteux, nécessite des données de qualité et peut induire du catastrophic forgetting.
Pourquoi c’est important : Comprendre le fine-tuning permet d’évaluer les claims de spécialisation des modèles commerciaux.
Module 10G
Grounding
Définition simple : Technique consistant à ancrer les réponses d’une IA dans des sources factuelles vérifiables.
Définition technique : Le grounding consiste à fournir au modèle des documents, données ou contextes réels avant la génération, pour qu’il base ses réponses sur ces sources plutôt que sur ses paramètres. Utilisé dans le RAG et les systèmes à sources citées. Réduit significativement les hallucinations.
Pourquoi c’est important : Le grounding est la principale technique de fiabilisation des sorties LLM en environnement professionnel.
Module 10H
Hallucination
Définition simple : Fait inventé par l’IA présenté comme réel avec confiance.
Définition technique : Une hallucination est une sortie du modèle qui est factuellement incorrecte, non vérifiable ou complètement inventée, mais produite avec la même assurance qu’une réponse correcte. Elle résulte de la nature prédictive du modèle : il génère la suite la plus probable, pas la plus vraie.
Pourquoi c’est important : Reconnaître ce phénomène est essentiel pour ne jamais utiliser l’IA comme source de vérité sans vérification.
Module 3I
Inference
Définition simple : Phase d’utilisation d’un modèle entraîné pour générer des prédictions ou du texte.
Définition technique : L’inference est l’exécution du modèle pour produire une sortie à partir d’une entrée. Elle se distingue du training (qui modifie les poids). L’inference est déterministe à temperature 0. Son coût (latence, GPU) est distinct du coût d’entraînement.
Pourquoi c’est important : Distinguer inference et training éclaire les limites de connaissance et de mise à jour des modèles.
Module 2L
LLM — Large Language Model
Définition simple : Modèle de langage entraîné sur des milliards de textes pour prédire et générer du texte.
Définition technique : Un LLM est un réseau de neurones à architecture Transformer, pré-entraîné par apprentissage auto-supervisé sur des corpus massifs. Il prédit le token suivant le plus probable. GPT-4, Claude, Gemini, Llama sont des LLM.
Pourquoi c’est important : C’est la technologie sous-jacente à tous les chatbots IA actuels : comprendre ce qu’est un LLM, c’est comprendre ce qu’on utilise vraiment.
Module 1M
Multimodal
Définition simple : Qualifie un modèle IA capable de traiter simultanément plusieurs types de données (texte, image, audio, vidéo).
Définition technique : Un modèle multimodal intègre plusieurs modalités d’entrée et/ou de sortie : GPT-4o, Gemini 1.5, Claude 3 Sonnet peuvent traiter texte et images. La fusion des modalités se fait au niveau des embeddings. Chaque modalité a ses propres limites et taux d’hallucination.
Pourquoi c’est important : Comprendre les modalités évite de sur-interpréter les capacités «universelles» des modèles récents.
Module 11O
Overfitting
Définition simple : Phénomène où un modèle mémorise les données d’entraînement au détriment de sa capacité de généralisation.
Définition technique : L’overfitting se produit quand un modèle optimise trop finement ses paramètres sur les données d’entraînement et perd en généralisation sur des données nouvelles. Pour les LLM, il se manifeste par une sur-représentation de patterns du corpus et des biais associés. Prévenu par la régularisation et les données de validation.
Pourquoi c’est important : Comprendre l’overfitting aide à interpréter les biais et limites des modèles spécialisés.
Module 12P
Prompt
Définition simple : Instruction textuelle envoyée à un modèle d’IA pour orienter sa réponse.
Définition technique : Un prompt est l’entrée que l’utilisateur soumet au modèle. Sa structure détermine la qualité et la pertinence de la sortie. Un prompt peut inclure un rôle, un style, un périmètre, des contraintes et des exemples. La qualité du prompt est le principal levier de contrôle de l’IA.
Pourquoi c’est important : La maîtrise du prompting est la compétence fondamentale de l’utilisateur d’IA.
Module 7R
RAG — Retrieval-Augmented Generation
Définition simple : Technique qui connecte un LLM à une base de connaissance externe en temps réel.
Définition technique : Le RAG injecte des documents récupérés dynamiquement dans le prompt avant la génération. Cela permet au modèle d’accéder à des informations fraîches ou privées sans nécessiter de fine-tuning. La qualité dépend du système de retrieval et de la pertinence des documents récupérés.
Pourquoi c’est important : Le RAG est la principale technique pour créer des assistants IA basés sur une base de connaissance contrôlée.
Module 10Reset
Définition simple : Action volontaire de clôture de session pour effacer le contexte accumulé.
Définition technique : Le reset consiste à terminer une conversation IA et en démarrer une nouvelle avec un prompt frais. Il supprime tout contexte antérieur, prévient le drift accumulé et repart d’un état stable. Dans la méthode Watshmi, le reset est une action structurelle systématique entre les blocs.
Pourquoi c’est important : Le reset est la principale technique de prévention du drift cognitif.
Module 9RLHF — Reinforcement Learning from Human Feedback
Définition simple : Technique d’entraînement par rétroaction humaine.
Définition technique : Le RLHF entraîne un modèle de récompense sur des préférences humaines (quel texte est meilleur ?), puis optimise le LLM via PPO pour maximiser ce score. C’est la technique principale derrière ChatGPT et Claude pour aligner les sorties avec les préférences humaines.
Pourquoi c’est important : Comprendre le RLHF explique pourquoi les LLM sont polis, évitent les contenus dangereux, et peuvent produire des réponses trop complaisantes.
Module 14Role+Style+Scope
Définition simple : Méthode de structuration de prompt en trois blocs : rôle, style, périmètre.
Définition technique : Développée par Watshmi, la méthode RSS définit : RÔLE (qui est l’IA dans ce contexte), STYLE (ton, registre, format), SCOPE (périmètre strict de la mission). Elle permet d’obtenir des réponses stables, prévisibles et professionnelles quel que soit le modèle utilisé.
Pourquoi c’est important : C’est la base de tout prompt professionnel structuré.
Module 7T
Temperature
Définition simple : Paramètre contrôlant la créativité ou le déterminisme des réponses d’un LLM.
Définition technique : La temperature (0 à 2) modifie la distribution de probabilité lors de la sélection du token suivant. À 0 : le modèle choisit toujours le token le plus probable (réponses déterministes). À valeur élevée : distribution aplatie, réponses plus variées et créatives mais moins fiables.
Pourquoi c’est important : Ajuster la temperature est le premier levier de contrôle lors de l’usage d’une API IA.
Module 8Token
Définition simple : Unité de base de traitement du texte par un modèle LLM (fragment de texte ~4 caractères en moyenne).
Définition technique : Un modèle LLM traite le texte sous forme de tokens : fragments de mots, mots entiers ou signes de ponctuation. Le nombre de tokens détermine la longueur maximale d’un échange (context window). La tokenisation varie selon les modèles et les langues.
Pourquoi c’est important : Comprendre les tokens explique les limites de longueur et les coûts d’API.
Module 2Top-p (nucleus sampling)
Définition simple : Paramètre limitant le choix aux tokens dont la probabilité cumulée atteint p.
Définition technique : Le top-p (ou nucleus sampling) sélectionne les tokens dont la somme des probabilités atteint p (ex. 0.9). Contrairement au top-k, le nombre de tokens considérés varie selon la distribution. Utilisé conjointement avec la temperature pour contrôler la diversité des sorties.
Pourquoi c’est important : Top-p et temperature sont les deux paramètres de contrôle de la génération les plus utilisés en production.
Module 8Training
Définition simple : Phase d’apprentissage d’un modèle IA sur un corpus de données.
Définition technique : Le training ajuste les milliards de paramètres d’un réseau de neurones via rétropropagation du gradient sur un corpus massif. Le pré-training des LLM dure des semaines sur des milliers de GPU. La date de coupure de training détermine les limites de connaissance temporelle du modèle.
Pourquoi c’est important : Comprendre le training explique pourquoi un modèle ne «sait» pas ce qui s’est passé après sa date de coupure.
Module 2Transformer
Définition simple : Architecture de réseau de neurones introduite en 2017, base de tous les LLM modernes.
Définition technique : Le Transformer (paper «Attention Is All You Need», 2017) remplace les RNN par un mécanisme d’attention parallélisable. Il se compose d’encodeurs et décodeurs empilés. GPT, BERT, Claude, Gemini sont tous des variantes de cette architecture.
Pourquoi c’est important : Comprendre le Transformer, c’est comprendre pourquoi les IA actuelles fonctionnent comme elles fonctionnent.
Module 2Z
Zero-shot
Définition simple : Technique de prompt sans exemple, basée uniquement sur l’instruction.
Définition technique : Le zero-shot prompting ne fournit aucun exemple, seulement une instruction. Fonctionne pour les tâches générales bien définies. Moins précis que le few-shot pour les sorties très formatées, mais suffisant pour la majorité des usages courants.
Pourquoi c’est important : Comprendre la différence few-shot/zero-shot optimise le choix de technique selon la complexité.
Module 7