L’intelligence artificielle transforme progressivement le secteur de la formation professionnelle. Personnalisation des parcours, automatisation des tâches répétitives, génération de contenus pédagogiques, accompagnement des apprenants : les usages se multiplient et offrent de nouvelles opportunités aux organismes de formation.
Mais derrière ces avancées se pose une question essentielle : comment continuer à innover tout en respectant le cadre réglementaire européen ?
Depuis août 2024, l’Union européenne a adopté un règlement inédit : l’IA Act, ou Règlement européen sur l’intelligence artificielle. Ce texte encadre les usages de l’IA et impose des obligations strictes, notamment lorsque l’intelligence artificielle est utilisée dans des domaines sensibles comme l’éducation, l’évaluation ou la formation professionnelle.
Pour les organismes de formation, il devient donc indispensable de comprendre les règles applicables, d’anticiper les obligations à venir et de mettre en place des pratiques conformes.
Le Règlement européen sur l’intelligence artificielle, adopté en mars 2024, est le premier cadre légal contraignant au monde destiné à encadrer les usages de l’IA. Il s’applique directement à tous les pays membres, sans besoin de loi nationale supplémentaire. Il entre en vigueur progressivement jusqu’en 2026.
Le principe central est celui du niveau de risque associé à un système d’IA. On distingue quatre catégories :
Dans le secteur de la formation, c’est principalement la catégorie des systèmes à risque élevé qui entre en jeu. Le règlement considère comme “à haut risque” les systèmes d’IA utilisés pour :
Cela inclut donc les LMS adaptatifs, les correcteurs automatisés de quiz, les chatbots pédagogiques, les outils de scoring automatisé ou les recommandations personnalisées d’apprentissage.
Par exemple, si un outil adapte automatiquement les modules proposés à un apprenant selon ses résultats précédents, il entre très probablement dans le champ du risque élevé défini par l’IA Act.
Ces utilisations nécessitent des mesures de supervision humaine, de cybersécurité, de documentation et de transparence rigoureuses.
Le calendrier de mise en application de l’IA Act s’étale sur plusieurs années :
Les sanctions peuvent aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel pour les violations les plus graves.
L’intelligence artificielle permet aujourd’hui de nombreuses automatisations dans les parcours pédagogiques. Toutefois, dès lors qu’un outil influence un parcours de formation, évalue un niveau ou oriente un apprenant, il peut entrer dans le champ du risque élevé.
Pour rester conforme, plusieurs règles essentielles doivent être respectées.
Chaque outil d’IA doit être clairement documenté. L’organisme doit être en mesure d’expliquer :
Par exemple, dans le cadre d’une correction automatique de QCM, il est nécessaire de documenter les critères de notation, les éventuelles marges d’erreur et les mécanismes de contrôle manuel prévus.
L’IA Act impose qu’un humain puisse comprendre, vérifier et corriger ou contester une décision prise par une IA. C’est le principe de la supervision humaine.
Un apprenant évalué automatiquement doit donc pouvoir demander une vérification humaine ou contester un résultat auprès d’un formateur qualifié.
La supervision humaine devient ainsi un élément central de la conformité.
C’est une obligation prévue par l’article 52 du règlement. L’utilisateur – en l’occurrence votre apprenant – doit être informé qu’il interagit avec un système d’intelligence artificielle.
Dans un module e-learning intégrant un chatbot pédagogique, une mention visible doit par exemple préciser qu’il s’agit d’un système d’IA.
Les systèmes d’IA à haut risque doivent garantir la qualité, la sécurité et l’intégrité des données. Cela suppose d’éviter les biais, d’anonymiser les données personnelles, et de respecter les règles RGPD.
Lorsqu’une IA repose sur les résultats des apprenants, les données doivent être pertinentes, sécurisées et utilisées avec le consentement des personnes concernées.
Pour renforcer la conformité et structurer les usages de l’IA, trois bonnes pratiques peuvent être adoptées :
L’utilisation de l’IA dans les formations reste donc possible, mais elle nécessite davantage de rigueur, de transparence et de contrôle.
L’IA Act ne se limite pas à encadrer la technologie : il impose également une obligation de formation et de sensibilisation des équipes.
Sans connaissance suffisante des enjeux, des limites et des risques liés à l’intelligence artificielle, les équipes peuvent mal utiliser les outils ou ne pas détecter certains dysfonctionnements et biais.
La formation des équipes doit être pratique, ciblée et actualisée. Elle ne consiste pas à faire un cours théorique sur l’intelligence artificielle, mais à donner les clés pour maîtriser les outils utilisés et pour comprendre la législation applicable.
Les principaux points à aborder sont :
Concernant sa durée, une formation initiale de 4 à 6 heures est un bon point de départ. Idéalement, elle peut être répartie sur plusieurs sessions afin de faciliter l’appropriation des notions abordées.
Cette formation doit être complétée par des ateliers pratiques réguliers, tous les 3 à 6 mois, permettant de :
Pour aider les organismes de formation à structurer leur démarche, voici un plan d’action concret en six étapes.
Il s’agit de faire un inventaire précis de tous les outils et systèmes basés sur l’intelligence artificielle utilisés dans les formations.
Il est utile d’identifier :
Un tableau de suivi peut être mis en place pour répertorier le nom de l’outil, son usage, les données utilisées et le niveau de risque identifié.
Chaque outil doit faire l’objet d’une analyse rigoureuse pour vérifier :
Dans certains cas, cela peut impliquer des échanges avec les éditeurs pour obtenir des preuves ou des documents techniques.
La supervision humaine doit être clairement structurée.
Il est nécessaire de définir les personnes responsables du contrôle des décisions prises par l’IA et de mettre en place des procédures de validation des résultats automatisés.
Dans certains organismes, un référent IA peut être désigné pour superviser les outils utilisés et valider certaines évaluations.
L’information des apprenants est obligatoire.
Cela peut prendre la forme :
Cette information doit rester visible, claire et facilement accessible.
Des sessions de formation régulières doivent être planifiées afin de maintenir les compétences à jour et diffuser les bonnes pratiques.
Des supports complémentaires comme des guides ou des FAQ peuvent également être mis à disposition des équipes.
Enfin, l’ensemble des démarches mises en place doit être documenté.
Les organismes doivent conserver une trace :
Un audit annuel peut également permettre de vérifier la conformité globale et d’ajuster les pratiques si nécessaire.
L’intelligence artificielle représente une opportunité majeure pour les organismes de formation, à condition d’être utilisée avec prudence et rigueur.
L’IA Act est une évolution majeure qui impose :
Au-delà de la contrainte réglementaire, cette démarche peut également devenir un véritable levier de qualité, de transparence et de confiance pour les apprenants comme pour les organismes de formation.
Prêt à développer votre visibilité et recruter plus d’apprenants ? Créez dès maintenant votre profil sur topformation.fr et découvrez nos services pour atteindre vos objectifs marketing.