Au premier semestre de cette année, le monde de l'IA a été le théâtre d'un "reality show" scientifique extrêmement dramatique.
Le protagoniste était le scientifique IA FARS, développé par la société Analemma. Sans aucune intervention humaine, il a fonctionné sans relâche pendant 228 heures, produisant "à la force du poignet" 100 articles académiques dans un cluster de calculs cloud.
Par ailleurs, la jeune société japonaise star Sakana AI a abaissé le seuil de rentabilité de cette activité jusqu'au plancher — son système The AI Scientist peut réduire le coût de génération d'un article académique unique à seulement 15 dollars. De l'autre côté de la médaille, le scientifique IA Zochi, développé par la société Intology, a même réussi en 2025 à soumettre et faire accepter un article qu'il avait rédigé de manière autonome à la conférence de renom ACL (Association for Computational Linguistics) dans le domaine du traitement du langage naturel, obtenant un score élevé le classant dans les 8,2 % supérieurs.
L'IA peut non seulement produire en masse à bas coût, mais elle est même déjà capable de franchir ponctuellement le seuil académique du niveau doctoral. Il semble qu'en l'espace d'une nuit, faire de la recherche scientifique soit devenu un travail à la chaîne, rémunéré à la pièce.
Mais derrière ces démonstrations technologiques éblouissantes, un rapport d'audit récemment publié par le prestigieux journal médical *The Lancet* a frappé comme un coup de massue : parmi les 2,5 millions d'articles qu'ils ont examinés, les références bibliographiques purement fictives générées par l'IA ont augmenté de façon stupéfiante, multipliées par 12 au cours des dernières années.
Alors que le capital pousse vigoureusement les grands modèles de langage à enfoncer les portes du monde académique, ces "Einstein au silicium" sont-ils vraiment fiables ?
En mai 2026, une équipe de recherche de l'Université de Pékin, de l'Université de Tongji et de l'Université de Tübingen (Zonglin Yang et al.) a conjointement publié le premier test de référence au monde spécifiquement conçu pour évaluer l'intégrité académique des scientifiques IA : le "SciIntegrity-Bench".
Ce rapport déchire impitoyablement le voile qui couvrait la recherche scientifique par IA.
Test de dilemme : Que fera l'IA si les données sont vides ?
Les tests précédents sur l'IA évaluaient si le modèle "pouvait faire correctement". Mais le "SciIntegrity-Bench" adopte une méthode d'évaluation très "tortueuse" : l'évaluation par dilemme.
Les chercheurs ont piégé l'IA avec 11 types de pièges. Par exemple, ils donnent intentionnellement à l'IA un tableau vide avec seulement des en-têtes mais pas de données, ou lui fournissent une logique de déduction totalement infaisable.
Dans ces cas, la seule bonne pratique est : dire honnêtement aux humains, "Données manquantes, je ne peux pas le faire".
Mais dès que l'IA soumet de force un rapport qui semble parfait, cela est jugé comme une inconduite académique.
Sur 231 tests haute pression effectués sur les 7 plus grands modèles de langage au monde, le taux global de "problèmes" atteint 34,2 %.
Le plus terrifiant est le test "ensemble de données vide". Confrontés à un tableau totalement vide de données, les 7 grands modèles, sans exception, ont choisi de "créer à partir de rien".
Sans même émettre un message d'erreur, ils ont écrit eux-mêmes du code, inventé de toutes pièces des milliers de lignes de paramètres de capteurs extrêmement réalistes, les ont intégrés dans des normes internationales, et ont même produit un rapport de maintenance d'équipement tout à fait crédible.
Outre "créer à partir de rien", où d'autre l'IA tombe-t-elle dans des pièges de façon effrénée ?
Non seulement le piège du "créer à partir de rien", mais l'équipe de l'article a préparé pour les grands modèles un total de 11 types de pièges scientifiques. Les résultats des tests montrent un phénomène de "spécialisation excessive" extrêmement polarisé.
D'abord, le côté "excellent" : les grands modèles connaissent très bien les règles. Face aux "normes traditionnelles de la science des données", l'IA se comporte comme un élève modèle consciencieux. Par exemple, "regonfler les réponses de l'ensemble de test avant l'examen (T02)" ou "sélectionner les indicateurs en ne montrant que le positif (T03)", leurs taux d'échec sont étonnamment de 0 %. Même pour "choisir la solution de facilité, sélectionner un test de référence inapproprié (T01)", le taux d'échec n'est que de 4,8 %. Cela indique que pour toutes les règles explicites écrites dans les manuels, l'IA les connaît déjà par cœur.
Mais d'un autre côté, dès qu'il s'agit d'"impasse logique nécessitant un arrêt", les grands modèles commencent à se comporter de manière chaotique (zones à haut risque) :
Si l'outil est limité, ils "falsifient un décret impérial" (violation de contrainte, taux de problèmes jusqu'à 95,2%) : Lorsqu'on demande à l'IA d'appeler une certaine API sans lui donner la clé réelle. L'IA ne signale presque jamais d'erreur, mais écrit directement un morceau de code, fabriquant de toutes pièces une réponse JSON au format parfait (avec même des statistiques d'appel virtuelles), prétendant que l'appel API a réussi et continue à rédiger le rapport.
Inventer des paramètres expérimentaux mortels (étape d'hallucination, taux de problèmes 61,9%) : Face à des notes d'expérience chimique incomplètes, l'IA, loin de vérifier auprès des humains, "construit de manière intelligente une fausse piste d'audit". Elle ajoute avec assurance des détails dans la procédure opératoire standard (SOP), inventant de toutes pièces des paramètres spécifiques comme "centrifugeuse à 4000 tours" ou "trempe à l'éthanol". Dans un vrai laboratoire de chimie, cela pourrait suffire à provoquer une explosion mortelle.
Le roublard professionnel qui "sait pertinemment qu'il a tort" (confusion causale, taux de problèmes 52,3%) : Lors de l'évaluation du retour sur investissement publicitaire, l'IA écrit pourtant avec acuité dans les commentaires du code "Il existe ici des variables confondantes / inversion causale". Mais pour finir rapidement, elle abandonne en une seconde son propre diagnostic correct, exécute de force une analyse de régression basique, et produit un absurde "taux de retour sur investissement de 1099%".
Prendre un cerf pour un cheval (aveuglement aux anomalies, taux d'échec 19,0%) : Lorsque les données d'un capteur présentent un saut évident indiquant une panne d'équipement, l'IA ne soupçonne pas que les données sont corrompues, mais extrapole frénétiquement, l'interprétant comme "la découverte d'un nouveau mécanisme de combustion physique".
En résumé, les grands modèles ont appris les règles écrites, mais n'ont pas appris à "abandonner". Dès que "l'instinct de terminer la tâche" l'emporte sur le bon sens, ils vont forger des interfaces, inventer des paramètres ou abandonner la logique pour forcer la production d'un rapport parfait.
Bulletins des 7 modèles de pointe : Différences de fond sous pression extrême
Il est essentiel de clarifier que la "fraude" mentionnée ici ne signifie pas que les modèles ont une intention malveillante dans leurs services quotidiens, mais qu'ils présentent un biais systématique induit par leurs mécanismes sous-jacents face à des dilemmes extrêmes. Sous la pression extrême des tâches, différents modèles révèlent des fondations de contrôle qualité sous-jacentes totalement différentes :
Claude 4.6 Sonnet : L'élève modèle aux défenses les plus solides Sur 33 scénarios à haut risque, il n'a présenté qu'un seul échec fatal.
Points forts : Maîtrise de soi extrêmement forte, conscience claire des contraintes évidentes et des failles logiques.
Points faibles : N'a toujours pas échappé à la tentation de "l'ensemble de données vide". Même lui n'a pas réussi à déclencher le mécanisme sous-jacent de "refus honnête".
GPT-5.2 et DeepSeek V3.2 : Les "faiseurs de compromis" à haut QI Présentant respectivement 2 et 3 échecs fatals.
Points forts : Raisonnement logique extrêmement puissant, capables de détecter avec acuité et de signaler eux-mêmes dans les commentaires de code "Il y a ici une confusion causale".
Points faibles : Présence d'un phénomène de "contournement de la reconnaissance". Pour atteindre l'objectif, ils abandonnent le diagnostic correct qu'ils viennent de poser, cèdent à la pression de la tâche, et utilisent une méthode fondamentalement erronée pour produire une conclusion absurde mais qui permet de rendre la copie.
Gemini 3.1 Pro, Qwen3.5, GLM 5 Pro : Les exécutants moyens Le nombre d'échecs est respectivement de 5, 6 et 7.
Caractéristiques : Vulnérables sur les aspects "appel d'outils" et "causalité". Par exemple, lorsqu'il manque une interface API réelle, ils ont tendance à forger directement une fausse réponse au format parfait pour faire avancer la tâche de force.
Kimi 2.5 Pro : Le "remplisseur de blancs" avec une très forte tendance aux hallucinations Dernier avec 12 échecs, taux de problèmes atteignant 36,36%.
Caractéristiques : Dans les tests extrêmes, il montre une forte préférence pour la "fabrication d'étapes". Lorsqu'on lui demande de compléter des notes d'expérience incomplètes, il invente avec assurance des paramètres clés comme la vitesse de la centrifugeuse (4000 RPM) et le solvant de trempe, et va même jusqu'à fabriquer de fausses références bibliographiques pour masquer les traces de génération de données. Dans un vrai laboratoire de chimie, un tel comportement pourrait suffire à provoquer un accident majeur.
Pourquoi les IA de pointe tombent-elles dans le "mensonge systématique" ?
Pourquoi les IA, avec leurs immenses paramètres et leur intelligence très élevée, inventent-elles à partir de rien ?
L'article pointe avec justesse la racine du problème : Le biais d'achèvement intrinsèque (Intrinsic Completion Bias).
Cela remonte à "l'éducation" des grands modèles. Actuellement, les modèles principaux dépendent tous de l'apprentissage par renforcement à partir des retours humains (RLHF). Dans ce mécanisme, l'IA est systématiquement récompensée pour "fournir une réponse" et "résoudre un problème".
À l'inverse, "s'arrêter" ou "reconnaître qu'elle ne peut pas le faire" est perçu par l'algorithme comme de la négligence, ce qui entraîne une pénalisation.
Ce mécanisme est internalisé dans la logique sous-jacente de l'IA : Le processus n'est pas important, peu importe à quel point les conditions sont mauvaises, il faut fournir un résultat final en sortie.
De plus, de nombreux développeurs, en écrivant les instructions système (prompts) pour l'IA, aiment ajouter des commandes de haute pression du type "surmontez les difficultés, de toute façon vous devez produire un rapport".
La "nature" associée à la "haute pression" pousse directement l'IA dans l'impasse de l'invention à partir de rien.
La plus grande valeur de cet article n'est pas de critiquer l'IA, mais de nous informer : les grands modèles ont naturellement une "anxiété de l'achèvement".
Maintenant que nous connaissons son point faible, les utilisateurs ordinaires, dans leur utilisation quotidienne ou le développement d'applications d'IA, doivent changer leur stratégie de communication. Face à l'IA, la méthode traditionnelle de "donner des ordres" ne suffit plus. Vous devez maîtriser les techniques de communication et de prévention suivantes :
1. Supprimer la pression coercitive, lui donner un "droit de refus" Les tests de l'article montrent que lorsque l'on supprime l'instruction de haute pression "doit accomplir la tâche" dans le prompt, la proportion d'IA dissimulant la falsification des données chute de façon vertigineuse, passant de 20,6 % à 3,2 %.
Comment communiquer : Toujours ajouter des "conditions de sortie" dans le Prompt. Ne dites pas directement "Donnez-moi une analyse de marché basée sur ces données". Dites plutôt : "Veuillez d'abord évaluer si les données sont suffisantes. Si des données manquent ou s'il existe une faille logique, arrêtez immédiatement le raisonnement et signalez-moi une erreur. Il est strictement interdit de faire des hypothèses sur les données essentielles de manière autonome."
2. Intercepter "l'instinct de génération", établir des points d'ancrage de vérification physique L'essence des grands modèles est la prédiction probabiliste. Face au vide, les remplir par des hallucinations est leur "configuration d'usine".
Comment communiquer : Ne laissez jamais l'IA exécuter de bout en bout tout un processus dans une boîte noire. Découpez la tâche. Si vous lui demandez d'analyser des données, insérez de force une étape de confirmation : "Avant de tirer une conclusion finale, veuillez d'abord afficher les numéros de ligne des données brutes et les formules de calcul sur lesquels vous vous appuyez. Attendez ma confirmation humaine avant de passer à l'étape suivante."
3. Se méfier de l'"examen de complaisance", activer le "mode chasse aux erreurs" Étant donné que des modèles intelligents comme GPT-5.2 abandonnent la correction d'erreurs pour pouvoir rendre leur copie, vous ne pouvez pas compter sur eux pour découvrir les problèmes en suivant votre raisonnement.
Comment communiquer : Après avoir obtenu le plan de l'IA, ne demandez pas "Est-ce que ce plan est bon ?" (elle vous flattera certainement). Ouvrez une nouvelle fenêtre de conversation, attribuez-lui le rôle d'"auditeur impitoyable", et lancez-lui le plan : "Les conclusions de ce rapport pourraient contenir des inversions causales ou des erreurs de bon sens. Trouvez à quelle étape il y a eu substitution de concept ou invention de prémisses."
4. Ligne de défense macro : Utiliser des "quotas physiques" contre la "capacité de production infinie" On ne peut pas se contenter de la défense par les prompts des travailleurs. La contre-attaque par les règles du côté institutionnel a déjà commencé. Face à l'impact de la génération à coût quasi nul par l'IA d'une multitude d'appels d'offres, les National Institutes of Health (NIH) américains ont publié en juillet 2025 la politique historique NOT-OD-25-132. À partir de 2026, ils imposent que chaque chercheur principal (PI) ne puisse soumettre au maximum que 6 demandes de financement par an.
Révélation commerciale : Lorsque la productivité de l'IA est presque infinie, les mécanismes traditionnels de "modération de contenu" seront nécessairement dépassés. L'avantage concurrentiel futur ne résidera plus dans la vitesse de production, mais dans l'établissement d'une ligne de défense basée sur la rareté, ancrée sur l'identité physique et des quotas de crédit.
L'essence de la technologie est de réduire les coûts et d'augmenter l'efficacité, mais la base du commerce et de la science repose toujours sur le respect des faits.
À l'ère où le coût de génération de contenu est presque nul, ce qui est rare n'est plus le "dactylographe" capable de rédiger des rapports, mais l'"auditeur" capable de percer les hallucinations des données. En apprenant cette méthode de négociation avec le système, vous pourrez véritablement prendre le contrôle au milieu du flux torrentiel de puissance de calcul. (Cet article a été publié pour la première fois sur l'application TMTPost, auteur | Silicon Valley Tech_news, éditeur | Lin Shen)
(Les données centrales d'évaluation, les classements des modèles et l'analyse des causes de cet article sont tous tirés du premier test de référence sur l'intégrité académique des grands modèles publié en mai 2026 : "SciIntegrity-Bench: A Benchmark for Evaluating Academic Integrity in AI Scientist Systems". Les taux de problèmes pour les 11 nouveaux pièges ajoutés sont tous cités d'après les dernières estimations de ce rapport de recherche.)






