L'illusion du résumé : pourquoi l'IA rend votre lecture superficielle (et comment l'éviter)
J’ai failli abandonner la lecture d’un arrêt de 10 pages pour un prompt de 10 secondes. L’erreur de la semaine.
Les modèles de langage grand public sont de plus en plus performants pour résumer des documents. Sur les dernières offres de Google, par exemple, l’outil NotebookLM permet de mettre jusqu’à 300 documents ! Il est ainsi possible d’obtenir une revue de littérature, un rapport précis ou même des analyses rapides des relations entre chaque document.
Pour celles et ceux qui sont amenés à travailler avec une grande masse de données non structurées, ce genre d’outils peut être une aide considérable pour défricher un sujet.
Alors que la recherche commence à donner des éléments de preuve aux mises en garde sur l’impact cognitif1 de l’utilisation des GML2, il semble urgent d’en discuter l’usage. Ce billet a vocation à participer à cette discussion ouverte.
Résumer du texte : une tâche anodine pour un GML
Tout le monde semble aujourd’hui familier des Chats intelligents. Qu’il s’agisse d’OpenAI (ChatGPT), Anthropic (Claude), Google (Gemini) ou Mistral (Le Chat), le fonctionnement demeure le même : on envoie un “prompt” au modèle qui se présente sous la forme d’une conversation WhatsApp, et le modèle nous répond du texte (ou une image, vidéo, etc.) généré de manière prédictive.
Il est possible, par exemple, d’envoyer un texte et de demander au modèle de le résumer. C’est ce que font par exemple certains modèles intégrés dans nos appareils pour synthétiser des mails, des notifications, etc. De nombreux modules intégrés dans les navigateurs permettent, de la même manière, de résumer des pages web entières.
Le décalage : le résumé face à la compréhension
La tentation serait par conséquent de déléguer une grande partie de ses lectures “ennuyantes” à un GML et de ne consulter que les résumés. L’omniprésence de ces outils, dans chaque application, chaque page web, chaque OS pourrait nous conduire à considérer que, finalement, un rapide coup d’œil suffit pour saisir et comprendre l’information d’un texte.
Si cela fonctionne sans doute bien dans certains cas (mails, notifications, etc.), il en va autrement lorsqu’il s’agit de documents plus longs, plus complexes, plus subtils. Une décision de justice, par exemple, qui met en application des mécanismes contentieux complexes, ou qui illustre une qualification juridique des faits particulièrement subtiles, pourrait manquer au GML et conduire à une interprétation erronée.
Autre exemple : le résumé d’un article de recherche sur un point subtil du droit, qui nécessite une dizaine de pages pour être expliqué, pourrait contenir des raccourcis, des hallucinations invisibles ou même tout simplement manquer de précision.
Bref, vous l’avez compris, le résumé par un GML comporte des risques évidents d’incompréhension d’un texte tout en donnant l’illusion de le comprendre parfaitement.
Pour nous, juristes, le risque est profond : en refusant de lire les décisions, les éléments d’une recherche, on finit par ne devenir que de simples exécutants. La valeur ajoutée de notre tâche est la créativité dont on peut faire preuve dans la construction des arguments, des syllogismes. Celle-ci ne naît que d’une véritable compréhension des enjeux auxquels on fait face.
Quelle solution ?
La conclusion est que le résumé par un GML ne peut et surtout ne doit en aucun cas remplacer la lecture approfondie d’un document. Seule la compréhension personnelle d’un texte permet son assimilation.
Je sais que le conseil est omniprésent dans les guides de travail, mais la lecture active demeure une méthode efficace pour comprendre un document.
Alors dans quel cas le résumé par GML peut-il être mobilisé ?
Il peut servir de base à la création d’une fiche plus personnelle. Ce que j’ai tendance à faire aujourd’hui est, une fois que le document est lu et assimilé, de demander à un GML de produire un résumé des points clés que j’insère en tête d’une fiche de lecture. Je relis ce résumé afin de m’assurer que les points correspondent effectivement à ce que j’ai compris et noté. Ce n’est pas une question de gain de temps : c’est aussi une manière de voir si ma compréhension est bonne.
S’efforcer à vérifier qu’une information est correcte permet de mieux comprendre pourquoi et comment celle-ci pourrait être incorrecte.
On pourrait rapprocher une telle utilisation de la méthode Feynman consistant à apprendre un concept complexe en expliquant de manière simple (à soi ou à quelqu’un d’autre) le contenu de ce que l’on cherche à apprendre.
Demander à un GML de résumer un texte revient finalement à regarder la photo d’un plat sans jamais y goûter vraiment. Pas très fun, n’est-ce pas ? 😉
Conclusion
Loin de moi l’idée selon laquelle le résumé par GML remplace la méthode Feynman. L’idée ici est seulement de proposer un semblant de réflexion sur une pratique devenue courante. Qu’en pensez-vous ?
Alexandre
Pour un aperçu de ces conséquences, v. la très bonne vidéo de Micode. Une étude du MIT publiée en juin 2025 avant le peer-review est citée dans la vidéo et offre un début d’analyse des conséquences de l’utilisation des LLM sur l’apprentissage. ↩︎
J’utilise ici le sigle GML pour Grand Modèle de Langage, qui est l’expression utilisée pour désigner les intelligences artificielles de génération prédictive de texte. Je ne suis pas un spécialiste technique de la question : si vous constatez des erreurs et/ou confusions, n’hésitez pas à me le dire pour correction ! ↩︎