- Speaker #0
Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités, mais aussi les défis que l'IA soulève.
- Speaker #1
Bienvenue dans ce nouvel épisode de la saison 2 du podcast Learning Coach, pour lequel j'ai le... de recevoir monsieur Fouzy Fethi. Ensemble nous allons aborder une question majeure dès lors que l'on évoque l'intelligence artificielle, celle de la réglementation et en particulier dans le secteur de la formation. Fouzy, si vous voulez bien commencer par nous en dire plus à votre sujet, vous présentez et présentez vos activités.
- Speaker #2
Je suis Fouzi Fethi, je suis responsable du pôle droit et politique de formation à Centrinfo. Centrinfo est une vieille institution qui a été créée en 1976 et qui va fêter l'année prochaine ses 50 ans. C'est une structure qui a pour mission d'informer, de professionnaliser, d'expertiser sur la formation professionnelle. Donc mon quotidien consiste à gérer des projets... complexe, à animer des réseaux d'acteurs, anticiper les enjeux stratégiques, opérationnels et réglementaires dans le secteur de la formation. Et en parallèle, je partage mon savoir en tant que conseignant et responsable du séminaire « Droits de la formation à l'université » de Sergi Pontoise.
- Speaker #1
Nous vivons actuellement la phase d'adoption de l'intelligence artificielle en contexte pédagogique. Faisons une projection et permettez-moi de vous demander comment. Vous voyez l'évolution des pratiques pédagogiques dans un avenir, à la fois proche et lointain, d'ici 5 ans par exemple.
- Speaker #2
Alors la prédiction est un art difficile, je vais m'y risquer. C'est difficile de prévoir exactement à quoi ressemblera la pédagogie dans 5 ans, dans 6 ans, dans 10 ans avec l'IA. Mais une chose est sûre, elle ne laissera personne indifférent. Comme je dis souvent à mes étudiants, l'IA va bouleverser les pratiques et pour les... pédagogue, c'est la même histoire. Il y aura du bon, du très bon même, mais aussi du moins bon. Parce que, comme toujours, ce ne sont pas les outils qui font la différence, mais la manière dont on les utilise. L'IA va faire gagner du temps. Il va faire gagner un temps fou. Automatiser des tâches chronophages, fastidieuses, proposer des parcours d'apprentissage personnalisés. Elle va offrir des feedbacks en temps réel, générer des contenus en quelques secondes, et elle va donner cette illusion, cette impression que tout le monde peut créer, enseigner, concevoir une séquence pédagogique de qualité. Mais en fait, cette accessibilité va avoir un revers. Beaucoup de ces contenus risquent d'être standardisés, d'être lisses, d'être sans âme, une sorte de pédagogie par défaut. Et c'est là que l'humain restera central. Demain, la vraie différence viendra de celles et ceux qui auront l'art du prompt, l'art de prompter, c'est-à-dire l'art de penser, de raisonner, de formuler des demandes intelligentes, des demandes créatives. Donc ceux qui auront un vrai regard pédagogique, une capacité à contextualiser, à surprendre, à différencier. ceux-là, effectivement, resteront des bons pédagogues, parce que même s'il y a peu de produits en masse, elle ne remplacera jamais la finesse d'un jugement, l'intuition d'un formateur, la sensibilité à une situation personnelle. Foussi,
- Speaker #1
vous êtes enseignant, vous avez donc un terrain d'observation remarquable auprès de vos étudiants. Quel biais et quel risque pédagogique lié à l'intelligence artificielle pouvez-vous y observer ? Et dans ce cas-là, comment ? y remédiez-vous ? Comment faites-vous de la prévention ?
- Speaker #2
Sur les biais ou les risques, moi, je ne suis pas très inquiet, parce que j'ai toujours considéré qu'il est plus facile de réguler les préjugés de l'IA que ceux des êtres humains. L'IA fonctionne avec des données, des algorithmes. Si un biais s'y glisse, il est toujours possible de l'auditer, de le repérer, de le corriger. Et honnêtement, il y a aujourd'hui moins de biais Merci. dans une conversation avec ChatGPT que dans une discussion dans un PMU du coin. Je pense sincèrement, même si l'IA n'est pas parfaite et qu'on doit toujours surveiller son utilisation, elle reste plus neutre et moins biaisée que les êtres humains, que les humains. Il suffit bien évidemment de revoir les données, de réajuster les algorithmes pour rendre l'IA plus juste. On dit que pour l'humain... C'est une autre histoire.
- Speaker #1
Avant de poursuivre et pour conclure cette première partie de notre podcast, pouvez-vous, s'il vous plaît, partager avec nous et avec nos auditeurs, bien sûr, un outil ou une pratique qui, dans vos activités pédagogiques, implique l'intelligence artificielle ?
- Speaker #2
Moi, j'utilise pas mal de solutions juridiques qui intègrent l'IA, mais si on parle d'outils plus grand public au quotidien, je suis plutôt... perplexity que tient GPT. Voilà donc c'est un peu un réflexe de juriste. J'aime bien avoir les sources sous les yeux pour pouvoir vérifier moi-même si l'info tient la route. C'est dire que je ne fais pas encore intégralement confiance à l'IA, mais ça peut peut-être venir demain lorsqu'on aura des produits conformes sur le marché de l'Union européenne. Mais je trouve que c'est vrai que perplexity c'est plutôt pas mal effectivement de citer ses sources et après c'est d'aller effectivement apprécier la fiabilité justement de ces sources.
- Speaker #1
Allons maintenant un peu plus loin dans le sujet de la réglementation de l'intelligence artificielle. Et d'abord, de quoi parlons-nous ? Et puis, disposons-nous d'une réglementation qui pourrait s'appliquer ou qui s'applique déjà à la formation ?
- Speaker #2
Alors, à ce jour, il n'existe pas de loi spécifique en France sur l'usage de l'intelligence artificielle dans la formation. Néanmoins, depuis 2024, l'Union européenne a adopté un cadre réglementaire, ce qu'on appelle l'IA Act. Il s'agit d'un règlement produit, c'est-à-dire c'est un règlement qui se concentre sur le produit, ne crée pas de nouveaux droits, contrairement au RGPD qui lui crée effectivement des droits par rapport à la protection des données, mais qui va réglementer le marché de l'Union européenne. par rapport à ces systèmes d'IA. Il est applicable en France, il concerne bien évidemment tous les acteurs, on verra quels sont les acteurs qui sont concernés, mais les organismes de formation, par exemple, sont concernés puisque ces organismes de formation peuvent soit développer des systèmes IA, et donc là, ils endossent, si j'emploie la sémantique de ce règlement, la casquette de fournisseur, soit ils utilisent, et c'est souvent ce cas-là qu'on va retrouver, ces solutions IA et dans ce cas-là, ils vont endosser une casquette dite de déployeur. En tout cas, qu'ils soient fournisseurs ou déployeurs, selon les termes du règlement, ce règlement va appréhender le sujet, on en a un peu discuté, sous l'ongle des risques. Donc le règlement européen classe les systèmes d'IA selon quatre niveaux de risque. Alors, il y a ce qu'on appelle le risque inacceptable. Si je traduis en formation, ça correspond à des usages interdits. Typiquement, j'ai une IA qui analyse les émotions des apprenants via une webcam et qui va commencer à attribuer des scores comportementaux. Ça, c'est pratique, sans formellement prohibé. Et ça, c'est déjà en vigueur. Il n'est pas possible, effectivement, d'utiliser ce type de produit. Après, on a ce qu'on appelle l'IA à haut risque. donc il y a un risque effectivement élevés, ce sont des IA qui vont influencer directement les parcours des apprenants en matière de formation. Par exemple, l'admission à une formation, l'évaluation lorsque je la confie à une IA, quand je personnalise, je personnalise à partir de quels critères. Alors ces usages, bien évidemment, sont autorisés, mais sont soumis à des obligations strictes sur lesquelles on pourra peut-être revenir mais En tout cas, l'idée c'est de dire que ce n'est pas interdit, vous pouvez effectivement utiliser ces IA, il n'empêche que vous devez respecter un certain nombre d'obligations et ces obligations sont assorties d'un contrôle et surtout de sanctions. Donc ça c'est la deuxième catégorie de risque. La troisième catégorie de risque, ce sont les risques qui sont limités. Toujours dans la formation, c'est par exemple les chatbots conversationnels. oui bien évidemment c'est pas un tardi c'est autorisé mais là qu'est ce qu'on dit on dit bon le risque il est limité mais il faut tout de même quand même informer les utilisateurs bas qu'ils interagissent avec une y a bon alors vous si on le voit bon c'est que c'est mais il n'empêche que quand vous êtes sur un chat par exemple dans une séquence asynchrone vous travaillez un peu tout seul vous pensez que vous avez un formateur qui est là et qui très attentif à vos problématiques C'est-à-dire qu'on se dit formateur, c'est-à-dire une personne humaine, mais non, c'est un robot, un chatbot qui vous répond. Là, la moindre des choses, c'est bien évidemment informer l'apprenant. Et puis enfin, le quatrième risque, et c'est le dernier, c'est ce qu'on appelle le risque minimal. Là, ça regroupe toutes les IA qui n'ont pas d'impact majeur. Je pense notamment à l'organisme de formation qui, lorsqu'il a terminé tous ses modules, passe les séquences à un correcteur orthographique, pour corriger les fautes d'orthographe. Là, il n'y a pas d'obligation spécifique à appliquer dans ce cas précis.
- Speaker #1
Qui dit réglementation, dit forcément sanction si on ne l'applique pas. J'imagine que parmi les sanctions que l'on peut évoquer, il doit y avoir des amendes. Est-ce que c'est le cas ? Est-ce qu'il y a d'autres types de sanctions ?
- Speaker #2
Oui, alors il y a des amendes et puis il y a des choses qui peuvent aussi émaner, je dirais, du pays membre, que la France pourrait par exemple préciser. Quelles sont les amendes concernant l'obligation de formation, qui n'a pas été assortie par des amendes, c'est-à-dire qu'on n'a rien dans le règlement, mais on renvoie aux pays membres, donc concernant l'obligation de formation, pour les étudiants, pour les fournisseurs, enfin quand je dis étudiants, c'est plutôt les déployeurs, donc c'est pas l'usager, donc un organe de formation, donc une entreprise qui souhaite effectivement recourir à l'IA. qui ne respectent pas les obligations énoncées par le règlement et qui ne respectent pas par exemple l'obligation de formation, qui n'a pas formé ses équipes, peut faire l'objet d'une sanction, mais cette sanction n'est pas précisée par le règlement. C'est une sanction qui sera précisée par le pays membre, donc là en l'occurrence par la France. Donc ça peut être un avertissement, on peut aller sur la responsabilité civile, ça peut être une mise en demeure dans un premier temps et puis peut-être une amende après. Donc tout ça, effectivement, reste à préciser.
- Speaker #1
J'ai une question qui peut faire un peu bondir, mais bien sûr, je vais la poser. Est-ce que dans mon organisme de formation, je peux remplacer tout ou partie d'un de mes formateurs par une intelligence artificielle ?
- Speaker #2
Alors c'est d'entendre, mais non. En tout cas, en droit français, si un prestataire se contente de diffuser des contenus créés par l'IA, quand même il a des avatars qui ressemblent beaucoup à des formateurs, il ne fait pas de la formation sans juridique. On va considérer qu'il fournit une prestation de service, qui peut être très intéressante sur le plan pédagogique, ce n'est pas le sujet, mais ce n'est pas la même chose qu'une formation. Il y a donc seul son formateur, en droit en tout cas, ça ne peut s'analyser que comme une mise à disposition d'un support pédagogique. Or, en France, la mise à disposition d'un support pédagogique ne suffit pas. Donc, il faut un encadrement pédagogique et en France, c'est un encadrement humain. Puisque les organismes de formation, d'ailleurs, doivent justifier des titres et qualités de leurs formateurs. Et formateurs, en tout cas pour le législateur, s'entendent par personnes humaines, personnes physiques.
- Speaker #1
On a évoqué la réglementation en... en particulier en nous intéressant à l'IA Act. A-t-on des vues sur l'avenir de cette même réglementation et peut-être même d'une réglementation qui s'appliquerait spécifiquement au secteur de la formation ?
- Speaker #2
Ah oui, alors ça, c'est toujours compliqué. Alors, je n'ai pas de boule de cristal, et c'est ce que je disais tout à l'heure. Donc, la prédiction est un art difficile, toujours difficile, effectivement, de s'y risquer, mais bon, puisque... Vous me posez la question, je peux tenter une réponse. Il pourrait y avoir deux grandes évolutions importantes. D'abord, et ça ne concerne pas que la formation professionnelle, il y a la question de la responsabilité juridique de l'IA. Est-ce que demain, on ira jusqu'à donner une personnalité juridique à l'IA ? Ça, c'est un vrai sujet. Il y a eu une proposition de directive sur la responsabilité civile de l'IA qui a été faite au niveau européen. L'idée, c'était de faciliter l'indemnisation des personnes victimes d'erreurs ou de problèmes causés par une IA. Là, en l'occurrence, on est dans ce qu'on appelle la responsabilité extra-contractuelle. Finalement, cette directive a été abandonnée début 2025, parce que tout simplement, les pays membres n'étaient pas tous d'accord pour aller aussi loin. Donc, on voit bien que la question de la responsabilité, c'est un vrai sujet, parce que... Si je reviens à nos organismes de formation, la question de si les organismes de formation sont responsables de l'usage de l'IA, aujourd'hui, ils sont responsables. Sauf que parfois, c'est difficile d'aller chercher cette responsabilité. Jusqu'où on peut aller chercher cette responsabilité ? Est-ce que c'est la responsabilité du déployeur ? Est-ce que c'est la responsabilité du fournisseur ? Là, aujourd'hui, on considère que... la responsabilité de l'organisme de formation va aussi loin que l'humain l'a laissé faire quoi donc mais simplement pour aller chercher la véritable responsabilité on voit bien qu'il ya quand même des limites c'est vrai L'IA aujourd'hui n'a pas d'état civil, l'IA n'est pas une personne juridique, l'IA n'a pas de compte en banque, pas de capacité à signer un contrat ou à dire je décide en toute conscience. Donc voilà, alors qu'on doit bien évidemment une personne juridique, c'est une entité capable de contracter, d'assumer des obligations, donc ça c'est ce qu'on retrouve. Mais est-ce qu'on ne peut pas imaginer justement une personnalité juridique, je dirais propre à l'IA ? Ça c'est une vraie question. C'est une vraie question. Aujourd'hui, effectivement, on est plutôt dans les obligations par rapport aux produits, puisqu'on dit que ces IA doivent respecter pas mal d'exigences, transparents, gestion des risques, traçabilité. Mais en cas de problème, par exemple, tout à l'heure, on parlait de l'évaluation, par exemple une évaluation biaisée, c'est encore compliqué de savoir qui est vraiment responsable. Est-ce que c'est le développeur, le fournisseur, l'organisme de formation ? Ça, c'est vraiment le premier sujet où forcément on aura... quelque chose qui va émerger puisqu'il va falloir effectivement apporter une réponse juridique. L'autre évolution que je vois, mais là ça sera une évolution qui concerne plutôt le droit français qui, comme je le disais tout à l'heure en matière de formation, est très centré sur l'humain. Il faut, nous dit-on, prouver les titres et qualités des formateurs, leur expérience, puis surtout la cohérence. de ces titres et qualités avec les contenus qui sont enseignés, qui sont dispensés. Mais est-ce que demain, si justement les outils d'IA sont mieux encadrés et plus mûrs, grâce à cette nouvelle réglementation dont on vient de parler, est-ce qu'on ne pourrait pas imaginer justement un basculement ? Est-ce que peut-être on ne pourrait pas demander aux organismes de formation, au lieu de prouver les diplômes de leurs formateurs, mais simplement de fournir ? les certificats de conformité des IA qu'ils utilisent. C'est-à-dire, vous voyez ce que je veux dire, sans aller à cette idée que l'IA remplacera le formateur, mais en tout cas, on voit bien que si effectivement le produit devient un produit de confiance, on pourrait faire peut-être évoluer aussi la réglementation française. En gros, on passerait d'une logique de méfiance, c'est ce qu'on a aujourd'hui, à une logique de confiance, mais… une confiance qui repose sur des garanties solides, certifiées, assurées. Et dans ce cas-là, effectivement, il sera tout à fait envisageable de confier l'information à une IA. Là, je fais un peu de la science-fiction, mais c'est quelque chose qui est très probable au regard des pratiques qui vont se développer. Et je dis toujours, le droit est toujours un peu à la traîne et peut-être qu'un jour, le droit sera mis devant le fait à compte. il devra accepter cette idée-là.
- Speaker #1
Nous sommes tout proches du terme de notre épisode et avant cela, nous avons une tradition à laquelle je ne vais donc pas déroger pour vous laisser, Fouzy, le mot de la fin.
- Speaker #2
Merci beaucoup pour cette invitation. Ce fut un plaisir d'échanger avec vous sur une thématique qui, aujourd'hui, interroge et qui, en même temps, est une superbe opportunité. Et il va falloir, effectivement... à la fois s'y intéresser, mais le faire de façon intelligente, de façon, je dirais, constructive, parce que tout simplement, l'humain, bien évidemment, restera au centre et l'IA sera une superbe assistance. Donc moi, je suis plutôt optimiste par rapport à cette nouveauté dans le monde de la formation professionnelle.
- Speaker #1
Un grand merci à vous, Fouzy, pour votre... précieuse participation au podcast Learning Coach. Merci à vous aussi, chers auditeurs, pour votre fidélité renouvelée. Vous retrouverez cet épisode comme tous ceux qui l'ont précédé, ceux de l'actuelle saison comme de la précédente, sur le site internet trendy.io comme sur l'ensemble des plateformes d'écoute. Encore merci et à très bientôt.
- Speaker #0
Vous souhaitez intégrer l'intelligence artificielle dans vos pratiques pédagogiques ? Visitez le site de Trendy, www.trendy.io, pour découvrir la fresque des IA pédagogiques et nos solutions d'accompagnement.