|
Une réponse sur deux produite par les assistants numériques contiendrait des erreurs… Ce constat dépasse le champ de l’information : il menace la fiabilité des contenus de formation qui s’appuient — souvent sans le dire — sur les mêmes mécanismes de génération et de synthèse automatique.
Un signal fort pour les responsables formation-RH
L’étude News Integrity in AI Assistants, coordonnée par la BBC et l’Union européenne de radio-télévision (EBU), a testé plus de 3 000 réponses d’assistants numériques — ChatGPT, Microsoft Copilot, Google Gemini, Perplexity… Résultat : dans leur utilisation, 45 % comportent au moins une erreur significative, et 81 % présentent une forme de distorsion de l’information. Certaines réponses inventent des faits, d’autres citent de fausses sources ou réinterprètent des données (Google Gemini atteint jusqu’à 72 % de réponses problématiques selon les chercheurs !). Pour les professionnels de formation, c'est un signal fort : si ces technologies servent à produire ou résumer des contenus pédagogiques, le risque d’erreur se propage à bas bruit dans les dispositifs internes. On parle ici de cours, d’assistants d’apprentissage, de FAQ d’entreprise, de résumés automatiques… Tout un pan du savoir professionnel qui pourrait se voir contaminé par des inexactitudes difficilement détectables.
Quand l’automatisation brouille le savoir
Ce que révèle cette étude, c’est moins la faiblesse des outils que la puissance que revêt, aux yeux de la plupart des utilisateurs, l'illusion de de leur fiabilité. Une illusion potentiellement redoutable dans le champ de la formation : l’entreprise qui confie à un moteur automatisé la synthèse de ses connaissances internes croit gagner du temps — elle perd parfois en vérité. Les biais identifiés par les chercheurs sont qualifiés de “systémiques” : ils se répètent à travers les langues, les cultures, les thématiques, avec un risque d'amplification lorsque les assistants IA sont utilisés à des fins de traduction. Une erreur récurrente devient alors une norme implicite. Pour un dispositif d’apprentissage, c’est la fin de la traçabilité : qui a produit cette phrase, sur quelle base, et avec quel niveau de certitude ? Dans les catalogues digitaux, dans les parcours d’onboarding, dans les supports de formation managériale, cette dilution des sources peut devenir un risque majeur. Car une connaissance mal transmise n’est pas neutre : elle modifie les comportements, influence les décisions, installe des croyances fausses avec le vernis du progrès. Dans le monde renversé, tel que produit par l'IA, la prévision de Guy Debord semble s'actualiser puissamment : le vrai devient un moment du faux.
Les trois angles morts de la formation automatisée
Premier angle mort : la vérification. Dans l’étude, un cinquième des réponses comportait des erreurs de fond — lois mal citées, faits historiques réécrits, chiffres inventés. La formation qui s’appuie sur de tels extraits se fragilise. Deuxième angle mort : la contextualisation. Les outils testés peinent à distinguer faits et opinions, à hiérarchiser les informations, à repérer la nuance. Or c’est justement cette nuance que les formations doivent cultiver. Troisième angle mort : la responsabilité. Quand un module généré par automatisation diffuse une erreur, qui en répond ? L’entreprise, le concepteur, le fournisseur de la technologie ? Dans un contexte de conformité accrue, notamment sur les thématiques sensibles (santé, sécurité, éthique, inclusion), cette question n’est plus académique. Le contenu produit automatiquement n’est pas seulement plus rapide : il est plus risqué. (On notera au passage que diverses temporalités viennent se percuter : l'instantanéité de la production par l'IA, qu'on assimilera à tort à un formidable gain de productivité, et le temps long qui construit les savoirs fondamentaux, dont la connaissance intime des métiers.)
Former à apprendre autrement
Le défi n’est pas de bannir l’automatisation, mais de la dompter. Les responsables formation doivent apprendre à gouverner le savoir numérique, pas seulement à le distribuer. Cela suppose de mettre en place des procédures de validation, des chartes de production, et surtout une culture d’esprit critique. Chaque collaborateur doit être formé non seulement à son métier, mais aussi à la lecture du savoir automatisé : comment une synthèse est-elle produite ? sur quelles sources ? avec quels biais possibles ? L’étude BBC-EBU, par son ampleur et son autorité, rappelle une évidence que l’innovation avait presque fait oublier : apprendre, c’est aussi (plus que jamais) douter. Dans un monde où le savoir se réécrit tout seul, l’esprit critique devient la première compétence à enseigner.
Le rapport complet : News Integrity in AI Assistants
|