IA

LLM : comment ça marche vraiment ?

Publié le5 min de lecture

Comprendre le fonctionnement des LLM sans jargon technique : le principe des textes à trous, pourquoi ça marche, et les limites à connaître (hallucinations, biais, coûts).

Depuis quelques années, impossible d'échapper aux LLM — Large Language Models. ChatGPT, Claude, Gemini : ces noms sont partout. Mais derrière le buzz, comment ça fonctionne réellement ? La réponse est à la fois plus simple et moins magique qu'on ne l'imagine.

Idées reçues vs réalité

Idée reçueRéalité
Les LLM sont intelligentsNon — ils prédisent le mot le plus probable
Ils comprennent ce qu'ils écriventNon — ils identifient des patterns statistiques
Ils inventent des réponsesOui — c'est même leur principal défaut (hallucinations)
Ils vont remplacer les humainsNon — mais ils vont considérablement les accélérer
N'importe qui peut les utiliser efficacementNon — il faut des compétences métier pour évaluer leurs réponses

Le principe : un exercice de textes à trous

Le fonctionnement d'un LLM est conceptuellement très simple. Imaginez un système à qui on a fait lire une quantité astronomique de textes — des milliards de pages web, de livres, d'articles scientifiques, de conversations. À partir de ce corpus, le système a appris à faire une seule chose : remplir des textes à trous. Pour chaque trou, il calcule le mot le plus probable en fonction du contexte qui l'entoure. Quel mot a le plus de chances d'apparaître après "le chat est monté sur le" ? Probablement "toit" ou "canapé", mais certainement pas "algorithme".

En plaçant ce trou à la fin d'une phrase, puis en recommençant avec la phrase ainsi complétée, on génère petit à petit des phrases entières. Puis des paragraphes. Puis des textes complets qui peuvent ressembler à s'y méprendre à ce qu'un humain aurait écrit. C'est exactement ce qui se passe quand vous posez une question à ChatGPT ou à Claude : le système génère sa réponse mot par mot, en choisissant à chaque étape le mot qui a statistiquement le plus de sens dans le contexte donné.


Pourquoi ça marche aussi bien

Si le principe est aussi simple, pourquoi les résultats sont-ils aussi impressionnants ? La réponse tient en deux mots : volume et patterns. Le corpus d'entraînement est tellement vaste que le système a vu pratiquement toutes les manières possibles d'exprimer une idée, de structurer un raisonnement, de répondre à une question. Il a identifié des patterns récurrents dans la manière dont les humains communiquent, argumentent et expliquent.

Quand vous demandez à un LLM de vous expliquer un concept ou de résoudre un problème, il ne "réfléchit" pas au sens où nous l'entendons. Il reconnaît des patterns dans votre question et génère une réponse qui correspond aux patterns les plus fréquemment associés à ce type de question dans son corpus d'entraînement. C'est ce qui rend le terme "intelligence artificielle" fondamentalement trompeur : il n'y a aucune intelligence là-dedans au sens propre, juste une capacité statistique extraordinaire à reproduire des patterns linguistiques. Le système ne comprend pas ce qu'il écrit, il n'a pas d'intention, pas d'objectif, pas de conscience de ce qu'il produit. Il fait exactement ce pour quoi il a été entraîné : prédire le mot suivant.

Mais cette capacité est suffisamment puissante pour produire des résultats utiles dans un nombre impressionnant de situations. Comprendre une base de code qu'on découvre pour la première fois, rédiger un email dans une langue qu'on maîtrise imparfaitement, synthétiser un document de cinquante pages, aider à monter en compétences sur un sujet nouveau — autant de cas où la prédiction de mots, aussi mécanique soit-elle, produit des résultats qui seraient difficiles à obtenir aussi rapidement par d'autres moyens.


Les limites à connaître

Les hallucinations

C'est le défaut le plus connu et le plus dangereux. Un LLM peut générer des informations qui semblent parfaitement crédibles mais qui sont totalement fausses. Il peut inventer des citations, des dates, des faits, avec un aplomb déconcertant. Pourquoi ? Parce que son objectif n'est pas de dire la vérité — il ne sait pas ce qu'est la vérité. Son objectif est de produire le mot le plus probable. Et parfois, le mot le plus probable dans un contexte donné ne correspond à rien de réel. C'est pour cette raison qu'un LLM ne dispense jamais de vérifier ses réponses, surtout sur des sujets factuels ou techniques. Demander à un LLM de vous donner un chiffre précis, une référence juridique ou un fait historique sans vérification, c'est jouer à la roulette russe avec votre crédibilité. C'est aussi pour cette raison que les meilleurs résultats sont obtenus par des personnes qui ont déjà une expertise sur le sujet traité : elles sont capables de repérer immédiatement quand le modèle déraille et de le remettre sur les rails.

Les biais

Un LLM apprend sur les textes produits par des humains. Or, ces textes contiennent des biais — culturels, géographiques, de genre, d'époque. Le modèle reproduit ces biais, parfois de manière amplifiée. Si son corpus contient davantage de textes anglophones, ses réponses seront teintées d'une perspective anglo-saxonne. Si certains sujets sont sous-représentés dans son entraînement, ses réponses sur ces sujets seront plus fragiles. Les éditeurs de LLM travaillent activement à réduire ces biais, mais le problème est structurel : tant que les données d'entraînement reflètent les biais de la société, les modèles les reproduiront. En pratique, cela signifie qu'il faut toujours garder un regard critique sur les réponses d'un LLM, en particulier sur des sujets sensibles ou dans des contextes culturels spécifiques. Un modèle entraîné principalement sur du contenu américain aura naturellement tendance à proposer des solutions qui fonctionnent dans ce contexte mais qui ne sont pas forcément adaptées au marché français.

Les coûts

Faire tourner un LLM coûte cher. Chaque requête consomme de la puissance de calcul, et cette puissance a un prix. Pour une utilisation individuelle, les abonnements mensuels sont accessibles. Mais quand on commence à intégrer des LLM dans des processus d'entreprise à grande échelle — génération automatique de contenu, analyse de documents, support client —, la facture peut monter très vite. C'est un paramètre à prendre en compte dans toute stratégie d'adoption : l'IA n'est pas gratuite, et le retour sur investissement doit être calculé au cas par cas. Les coûts baissent régulièrement — ce qui coûtait 10 dollars il y a un an en coûte souvent 1 aujourd'hui — mais ils restent un facteur à ne pas ignorer quand on passe à l'échelle.


En résumé

Les LLM ne sont ni magiques ni intelligents. Ce sont des systèmes de prédiction de mots, entraînés sur des corpus massifs, qui produisent des résultats impressionnants grâce à leur capacité à identifier et reproduire des patterns linguistiques. Leurs limites — hallucinations, biais, coûts — sont réelles et doivent être intégrées dans toute stratégie d'utilisation. Mais malgré ces limites, ils représentent un bond en avant considérable dans notre capacité à traiter l'information, à comprendre du code et à accélérer des tâches qui prenaient auparavant des heures. L'enjeu pour les entreprises n'est pas de savoir si elles vont les utiliser, mais comment — et avec quelles compétences métier pour en tirer le meilleur parti.