Dans les entreprises françaises, l’intelligence artificielle générative avance souvent masquée. Les salariés s’en emparent, mais en dehors de tout cadre officiel. Dans le même temps, le déploiement institutionnel reste minoritaire. Ce décalage, révélé par deux études récentes, expose les organisations à des risques juridiques, éthiques et organisationnels, mais ouvre aussi des perspectives si la formation prend l’initiative d’accompagner le mouvement.
L’IA s’installe par la porte de derrière
Selon l’étude menée par l’Apec en 2025, plus d’un cadre sur trois utilise un outil d’IA générative au moins une fois par semaine, les moins de 35 ans étant les plus nombreux à le faire (42 % contre 35 % pour les 35-54 ans et 26 % pour les 55 ans et plus). L’enquête Ifop x Learnthings révèle par ailleurs qu’un salarié sur deux ayant recours à l’IA ne prévient pas sa hiérarchie. Les usages sont multiples : rédaction de messages professionnels, traduction, recherche d’informations réglementaires, structuration de documents complexes. Dans la majorité des cas, les outils utilisés sont grand public, parfois financés par les collaborateurs eux-mêmes, et choisis pour leur efficacité perçue. Ce développement hors cadre ne tient pas seulement au manque d’outils internes. En effet, beaucoup de salariés craignent le jugement de leur hiérarchie : peur d’être considérés comme incompétents, d’être accusés de « tricher », ou de voir leurs gains de productivité utilisés comme argument contre leurs collègues. Ce climat d’incertitude nourrit une adoption discrète, où les bénéfices sont conservés individuellement et rarement partagés. Effets collatéraux : fragmentation des collectifs de travail entre ceux qui utilisent l’IA et ceux qui ne le font pas, désynchronisation des rythmes de production, voire inversion subtile du rapport hiérarchique, lorsque les collaborateurs acquièrent grâce à l’IA une autonomie technique et opérationnelle qui échappe au contrôle managérial. Sans cadre clair, cette individualisation du travail fragilise la cohésion et brouille la définition de ce que signifie « bien travailler avec l’IA ».
Pendant ce temps, l’entreprise traîne les pieds
Le contraste est marqué : d’après l’étude Ipsos x Greenworking de 2025, seulement une entreprise sur trois a officiellement déployé un outil d’IA, alors que deux salariés sur trois déclarent l’utiliser dans leur activité professionnelle, et que 20 % en font un usage quotidien ! Parmi eux, 72 % affirment ne pas employer d’outil homologué par leur organisation. autrement dit, la majorité des pratiques échappent à toute validation technique ou conformité réglementaire. Les bénéfices ressentis sont pourtant largement documentés : 67 % des utilisateurs réguliers se disent plus productifs, 73 % estiment que l’IA stimule leur créativité et leur capacité à innover, et 71 % jugent qu’elle améliore leur bien-être au travail. Les entreprises qui n’officialisent pas l’usage ne freinent donc pas l’adoption ; elles la déplacent dans l’ombre, là où s’accumulent les risques. Ces risques sont multiples. Sur le plan sécuritaire, l’Inria rappelle qu’un prompt sur douze contient des données sensibles, dont 45 % concernent des clients et 25 % des salariés. Sur le plan réglementaire, l’utilisation d’outils non validés peut exposer à des sanctions en cas de fuite ou de traitement non conforme aux obligations sectorielles. Sur le plan opérationnel, l’IA permet d’accélérer la production de contenu mais, reposant sur des modèles statistiques, elle ne garantit pas la véracité des informations ; elle peut donc introduire des erreurs difficiles à détecter. Enfin, l’écart de vitesse entre les utilisateurs et les non-utilisateurs fragilise la coordination et l’harmonisation des standards de qualité.
La formation comme antidote au double risque
Ce double constat — usage officieux généralisé et retard des déploiements officiels — place le service formation dans un rôle stratégique. L’enjeu n’est pas seulement de former à l’outil, mais de bâtir une gouvernance d’usage ancrée dans la réalité des pratiques. Les études convergent : la première étape consiste à reconnaître officiellement les usages existants et à en discuter avec les métiers. Cette transparence permet de transformer une tolérance implicite en un encadrement assumé. Sur le plan pédagogique, le service formation peut structurer trois axes. D’abord, le développement de compétences techniques : savoir interroger efficacement l’IA (prompting), intégrer les résultats dans les outils métiers, sécuriser les données traitées. Ensuite, la consolidation des compétences critiques : évaluer la fiabilité des contenus, repérer les biais, vérifier la conformité réglementaire. Enfin, l’accompagnement des managers : leur rôle doit évoluer d’un contrôle défensif à une orchestration proactive, afin que la productivité individuelle devienne une ressource collective. Cette action doit s’inscrire dans une trajectoire progressive : cartographier les usages réels, co-construire des règles avec les équipes, valider des outils compatibles avec les systèmes de sécurité de l’entreprise, et instaurer des points réguliers d’ajustement. L’enquête Inria/Datacraft souligne qu’il s’agit moins de définir une fois pour toutes un cadre que de piloter un continu, en adaptant les garde-fous aux évolutions technologiques et aux besoins opérationnels. En agissant ainsi, la formation peut réduire simultanément les risques juridiques, sécuritaires et organisationnels, tout en capitalisant sur les bénéfices prouvés de l’IA. L’adoption cesse alors d’être un mouvement clandestin et fragmenté pour devenir un projet collectif et maîtrisé, où la performance se conjugue avec la conformité et la cohésion.
JLB
|