Dans un secteur en constante mutation, l’intelligence artificielle s’impose comme une réalité incontournable. Pour les organismes de formation (OF) et les centres de formation d’apprentis (CFA), elle n’est plus une simple tendance technique mais un levier structurant, à la fois pédagogique, organisationnel, réglementaire et stratégique. Loin de nous condamner à l’obsolescence, l’IA offre l’opportunité de devenir des structures augmentées, capables de renforcer leur pertinence et leur impact. À condition, bien sûr, de comprendre les enjeux, de s’approprier les outils et d’en encadrer l’usage avec professionnalisme.
Et ce mouvement de fond ne concerne pas seulement quelques pionniers isolés. Le gouvernement lui-même, avec son projet ambitieux d’Académie de l’IA, vise à former 15 millions de professionnels d’ici 2030, y compris dans le champ de la formation continue et de l’apprentissage. Cela marque un tournant : se former à l’IA n’est plus une option, mais une condition de légitimité, de qualité et de pérennité.
Automatiser pour mieux se concentrer sur l’essentiel
L’une des premières applications concrètes de l’IA dans les structures de formation réside dans la simplification des tâches répétitives. Un formateur peut aujourd’hui générer en quelques secondes un plan de séance, une synthèse de cours, ou un quiz adapté à son groupe. Un coordinateur peut utiliser une IA pour classer automatiquement les pièces justificatives des dossiers de financement, détecter les absences ou anomalies, ou encore rédiger une première version du bilan pédagogique et financier (BPF). Un assistant administratif peut pré-rédiger un e-mail de relance CPF ou une fiche de synthèse pour un financeur.
Ces automatismes permettent de gagner un temps précieux et de redonner de la place à ce qui fait le cœur du métier : l’accompagnement, la posture, l’adaptation aux situations réelles. Dans un CFA, par exemple, un référent peut croiser les données des évaluations et des suivis de stage pour proposer un soutien ciblé à un apprenti en difficulté – le tout avec l’aide d’un outil prédictif. L’IA n’enlève pas le discernement professionnel, elle permet de le déployer de manière plus rapide et plus pertinente.
Faire émerger de nouveaux rôles et valoriser les compétences existantes
Contrairement à une idée reçue, l’IA ne remplace pas les métiers : elle les transforme. Un formateur devient aussi un explorateur de ressources intelligentes. Une formatrice en bureautique intègre des IA comme copilotes dans les séquences de formation. Un référent handicap apprend à repérer les limites de certains outils IA pour mieux accompagner les personnes concernées. Un gestionnaire RH au sein d’un organisme certificateur utilise l’IA pour aider à identifier les compétences clés d’un métier émergent.
Ces nouvelles postures ne nécessitent pas un diplôme d’ingénieur, mais une capacité à comprendre les logiques de fonctionnement de l’IA, à dialoguer avec elle de façon efficace (le fameux « prompt »), et à évaluer la qualité des résultats. Dans les équipes, cela suppose aussi une montée en compétence collective, une curiosité partagée, et des temps de mutualisation des usages. Le projet de l’Académie de l’IA pourrait, à terme, structurer ces parcours de montée en compétence à grande échelle, en lien avec les branches professionnelles.
Redéfinir la posture pédagogique dans un environnement hybride
Dans un environnement enrichi par l’IA, les formateurs doivent apprendre à penser différemment leurs séquences. Une animatrice de formation peut désormais proposer à ses apprenants de co-rédiger une fiche métier avec ChatGPT, puis d’en analyser ensemble les limites et les biais. Un formateur en insertion peut utiliser une IA pour générer des simulations d’entretien d’embauche adaptées au profil d’un stagiaire.
Ces nouveaux usages exigent une vigilance pédagogique : il ne suffit pas d’utiliser l’IA, encore faut-il enseigner à s’en servir. Cela suppose de concevoir des temps réflexifs dans les parcours, d’outiller les apprenants pour comprendre les biais, les limites et les responsabilités associées à ces outils. Dans les CFA, l’enjeu est tout aussi important : comment former à l’usage professionnel de l’IA dans les métiers techniques, artisanaux, tertiaires ? Comment encadrer les usages dans les situations d’alternance ou les projets tutorés ? La pédagogie augmentée ne supprime pas la pédagogie classique : elle la rend plus exigeante, plus ouverte, plus ancrée dans les usages du réel.
Organiser l’agilité sans sacrifier la qualité
Du côté des gestionnaires ou des responsables de structure, l’IA permet de mieux analyser les données issues des parcours, d’anticiper les risques de rupture ou d’identifier les tendances émergentes. Dans un OF, une responsable qualité peut par exemple utiliser une IA pour synthétiser les résultats des enquêtes de satisfaction en langage clair, ou pour visualiser l’évolution des abandons sur les six derniers mois. Dans un CFA, un directeur peut obtenir un pré-diagnostic des écarts entre compétences cibles et profils réels des apprenants en formation.
Mais cette agilité a un prix : celui de la vigilance. Une IA ne doit pas prendre seule des décisions sans supervision humaine. Il faut tracer les usages, documenter les choix, et conserver la capacité d’expliquer et de justifier chaque étape. C’est là que se joue la responsabilité professionnelle. Le pilotage augmenté ne doit pas devenir une gouvernance automatisée et aveugle. Et c’est bien à cela que nous prépare, à terme, l’Académie de l’IA : à piloter l’IA, et non l’inverse.
Travailler l’éthique comme levier de professionnalisation
L’intégration de l’IA dans les pratiques pédagogiques et administratives soulève inévitablement des questions éthiques : peut-on générer un contenu pédagogique sans vérification humaine ? Peut-on laisser une IA classer des candidatures ? Peut-on automatiser le traitement des évaluations sans priver l’apprenant d’un retour humain ? Ces questions, les responsables qualité et les référents pédagogiques doivent désormais se les poser régulièrement, dans le cadre de la veille, de la démarche qualité et du dialogue interne.
Dans le cadre de Qualiopi, cette vigilance rejoint directement les exigences liées à la personnalisation des parcours, à la sécurisation des apprentissages et à la régulation des outils numériques. L’éthique de l’IA, ce n’est pas un supplément d’âme : c’est un critère de qualité, une condition de pérennité, et bientôt une exigence de conformité explicite, portée par l’AI Act européen.
L’accessibilité et la fracture numérique à l’ère de l’IA
Pour un formateur accompagnant un public en difficulté linguistique, l’IA peut générer des contenus traduits ou simplifiés. Pour une structure accueillant des stagiaires dyslexiques, elle peut transformer un support texte en version audio. Pour un public sourd, une transcription automatique peut s’afficher en direct. L’IA a donc un potentiel immense d’accessibilité pédagogique.
Mais cette promesse peut aussi virer au mirage si l’accompagnement n’est pas là. Un apprenant peu à l’aise avec le numérique peut se sentir encore plus marginalisé s’il est confronté à une IA qu’il ne comprend pas. Un référent handicap peut devoir expliquer que certaines IA textuelles sont inadaptées pour des troubles spécifiques. Et une direction d’OF doit intégrer ces questions dans le choix des outils, la formation des équipes, et l’évaluation des impacts. Là encore, l’Académie de l’IA pourra jouer un rôle de diffuseur de bonnes pratiques, en lien avec les travaux sur l’inclusion numérique.
Cybersécurité : une condition non négociable
L’IA ne vient pas seule : elle ouvre aussi la porte à des vulnérabilités accrues. Dans un OF, un salarié qui utilise une IA ouverte pour générer un modèle de convention CPF peut sans le savoir exposer des données sensibles. Dans un CFA, un outil de diagnostic métier utilisé sans protection peut se faire détourner par injection de prompt malveillant. Les deepfakes et les courriels IA générés constituent de nouvelles menaces pour les services administratifs.
Face à ces risques, les référents RGPD, les responsables de service et les dirigeants doivent actualiser leurs pratiques : chartes d’usage, protocoles de sécurité, choix de fournisseurs éthiques. Là encore, les personnels ont besoin d’être formés, non pas pour devenir experts en cybersécurité, mais pour agir de manière responsable et avertie. C’est d’ailleurs l’un des objectifs annoncés de l’Académie de l’IA : sensibiliser à la fois aux usages et aux risques.
Protéger les données : IA et RGPD, un duo sous haute surveillance
Dans le monde de la formation professionnelle, la conformité au RGPD n’est pas une option. Avec l’introduction de l’intelligence artificielle dans les outils utilisés au quotidien, les risques en matière de traitement des données personnelles se multiplient. Et ils concernent toutes les fonctions de l’organisme : un formateur qui entre des réponses d’apprenants dans un chatbot IA, un coordinateur qui demande à ChatGPT de reformuler un compte rendu contenant des noms ou des situations individuelles, ou encore une assistante qui colle une convention de formation complète dans une IA pour en vérifier la clarté.
Ces pratiques, pourtant banales, peuvent conduire à une violation du RGPD. La plupart des IA généralistes fonctionnent sur des serveurs étrangers (hors UE), stockent les requêtes, et réutilisent les données saisies pour s’améliorer. Cela signifie que tout ce qui est copié-collé dans une IA non sécurisée risque de sortir du périmètre de contrôle de l’organisme. Cela concerne également les données dites « sensibles », comme la situation de handicap, le statut de bénéficiaire du RSA, l’évaluation d’un comportement, ou les commentaires d’un tuteur.
La CNIL rappelle que l’utilisation de ces outils nécessite une vigilance renforcée. Le recours à une IA en tant que « sous-traitant » doit être encadré par un contrat conforme, hébergé sur des serveurs européens, avec un mécanisme de journalisation et de purge des données. Dans le cadre d’un audit qualité, d’un contrôle OPCO, ou même d’une demande d’accès d’un bénéficiaire, l’organisme doit être capable de prouver qu’il respecte la finalité des traitements, qu’il limite la conservation des données, et qu’il garantit la sécurité des flux.
Il devient donc essentiel, pour les référents RGPD, mais aussi pour les formateurs, les administratifs et les directions, d’être formés spécifiquement à l’usage responsable de l’IA en contexte RGPD. Cela implique de savoir reconnaître les risques, de formaliser des règles internes (notamment dans la charte d’usage numérique), et de choisir les outils en conscience, en privilégiant les solutions conformes au RGPD, open source ou hébergées en France ou en Europe. Là encore, le projet gouvernemental de l’Académie de l’IA pourrait constituer un levier de montée en compétence collective, en intégrant la question de la protection des données dans ses modules de base.
Une obligation légale de formation à l’IA dès maintenant
Depuis le 2 février 2025, l’article 4 de l’AI Act impose à tous les utilisateurs et fournisseurs d’IA – ce qui inclut les OF et CFA utilisant ou diffusant des outils IA – de garantir que leurs personnels ont un niveau de connaissance suffisant. Cela concerne aussi bien le formateur qui intègre ChatGPT à ses séances, que l’assistante qui utilise une IA de transcription, ou le dirigeant qui pilote ses indicateurs avec un outil prédictif.
Aucune certification formelle n’est exigée à ce stade, mais une traçabilité des actions de formation est indispensable. Il s’agit donc d’intégrer l’IA dans le plan de développement des compétences, de proposer des actions concrètes (ateliers, e-learning, temps réflexifs) et d’en conserver les preuves. Ce n’est plus une bonne pratique, c’est une obligation réglementaire, avec un début d’applicabilité contrôlée annoncé pour août 2026.
En conclusion : choisir d’être acteur, et non spectateur
Les organismes de formation et CFA ne sont pas en marge de la révolution IA. Ils sont en première ligne. Parce qu’ils accompagnent les transitions professionnelles, ils doivent eux-mêmes être des exemples de transition maîtrisée. L’intelligence artificielle ne remplace pas l’intelligence pédagogique, mais elle impose de la renforcer. Elle n’efface pas les compétences, elle oblige à les redéfinir, à les renouveler, à les faire vivre autrement.
Avec le soutien de dispositifs comme l’Académie de l’IA, avec une stratégie qualité ancrée, et avec une vigilance éthique partagée, les structures de formation peuvent non seulement s’adapter à l’ère numérique, mais y prendre toute leur place. Non pas comme simples utilisateurs d’outils, mais comme auteurs éclairés de nouveaux parcours d’apprentissage.
