Cette page ne dramatise pas. Elle documente. Comprendre les limites techniques et les risques opérationnels de l’IA permet d’en encadrer l’usage de manière responsable.
Partie I
Limites intrinsèques des modèles
- Nature probabiliste
- Un LLM génère la suite statistiquement la plus probable. Ce n’est pas du raisonnement au sens formel.
- Absence de compréhension sémantique
- Le modèle traite des patterns de tokens. Il n’accède pas au sens comme un humain.
- Pas de vérification automatique des faits
- Un modèle ne sait pas distinguer ce qu’il sait de ce qu’il invente.
- Sensibilité au framing
- La formulation du prompt influence directement la réponse. Un même sujet posé différemment produit des réponses contradictoires.
- Contexte limité
- La cohérence se dégrade sur de très longs documents ou conversations complexes.
- Connaissance figée
- Sans accès web ou RAG, le modèle ignore les événements récents et les évolutions réglementaires.
Partie II
Familles de risques en cas d’usage non encadré
A. Risques techniques
- Hallucinations présentées avec confiance apparente
- Erreurs silencieuses difficiles à détecter
- Mauvaise interprétation de données visuelles ou audio
B. Risques opérationnels
- Automatisation sans supervision humaine
- Mauvaise configuration des périmètres d’usage
- Dépendance fournisseur (lock-in technologique)
C. Risques juridiques
- Violation de données personnelles (RGPD)
- Responsabilité en cas d’erreur non détectée
- Droits d’auteur sur contenus générés
D. Risques sociétaux
- Désinformation à grande échelle
- Deepfakes audio et vidéo
- Biais algorithmiques reproduits et amplifiés
Partie III
Pourquoi la responsabilité doit rester humaine
- L’IA ne porte aucune responsabilité légale.
- Les décisions qu’elle produit peuvent avoir des conséquences irréversibles.
- Les modèles n’ont pas de conscience du cadre réglementaire applicable.
- L’automatisation sans validation multiplie les effets d’erreur à grande échelle.
- La supervision humaine n’est pas une option : c’est la condition d’un usage responsable.
L’IA peut assister la décision. Elle ne doit pas la remplacer sans contrôle humain explicite. Toute utilisation dans un contexte critique nécessite un cadre de validation humaine : c’est le principe fondateur de la méthode HAGL appliquée sur Watshmi.
