undefined cover
undefined cover
S02E04 - Amélie RAOUL - Pédagogie, IA & éthique cover
S02E04 - Amélie RAOUL - Pédagogie, IA & éthique cover
Learning Coach

S02E04 - Amélie RAOUL - Pédagogie, IA & éthique

S02E04 - Amélie RAOUL - Pédagogie, IA & éthique

26min |15/04/2025
Play
undefined cover
undefined cover
S02E04 - Amélie RAOUL - Pédagogie, IA & éthique cover
S02E04 - Amélie RAOUL - Pédagogie, IA & éthique cover
Learning Coach

S02E04 - Amélie RAOUL - Pédagogie, IA & éthique

S02E04 - Amélie RAOUL - Pédagogie, IA & éthique

26min |15/04/2025
Play

Description

Amélie Raoul, doctorante en IA générative et formatrice spécialisée, aborde les enjeux éthiques liés à l'intégration de l'IA en pédagogie, notamment les biais algorithmiques, les impacts sociétaux et la relation homme-machine, avec une attention particulière portée aux jeunes générations. Elle envisage l'IA comme un outil puissant pour la personnalisation des apprentissages et l’immersion pédagogique via des scénarios utilisant la réalité augmentée. Selon elle, les enseignants verront leur rôle évoluer vers une médiation critique, intégrant des évaluations basées sur l’analyse des processus cognitifs des élèves. Amélie insiste sur l’importance d’un cadre éthique clair, incluant équité, transparence, protection des données, et propose des pistes concrètes telles que l'élaboration collective d'une charte éthique et la formation approfondie des acteurs pédagogiques pour une utilisation raisonnée et humaine de l’IA.


Retrouvez toutes les ressources gratuites créées par Traindy pour la communauté pédagogique sur www.traindy.io.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités, mais aussi les défis que l'IA soulève.

  • Speaker #1

    Bienvenue dans ce nouvel épisode de la saison 2 de Learning Coach, un épisode au cours duquel nous allons aborder la question cruciale de l'éthique alors que l'intelligence artificielle est de plus en plus utilisée en contexte pédagogique. Et pour cela, nous avons l'invité idéal que nous allons laisser se présenter maintenant.

  • Speaker #2

    Moi, je m'appelle Amélie Raoul et je suis doctorante en intelligence artificielle générative dans le domaine des sciences de l'information et de la communication. Et en fait, ma thèse, le sujet, c'est... les intelligences artificielles génératives et les pratiques informationnelles des jeunes vers un nouveau paradigme d'accès et de production de l'information. Et j'étudie ces questions-là avec un focus sur les enjeux éthiques, sociaux et sociétaux, sur les bialgoritmiques notamment, mais aussi sur la relation homme-machine, ce qu'on appelle l'anthropomorphisation de l'IA, et les impacts que ça peut avoir sur les plus jeunes, et qui seront en fait les futurs adultes de demain. Donc c'est pour ça que c'est important d'étudier la question, pour ensuite mettre en place des bonnes pratiques et bien aussi réfléchir. à comment est-ce qu'eux perçoivent l'IA, l'imaginent et leurs usages au quotidien. En même temps, je suis enseignante en business school, donc tout ce qui est projets digitaux, numériques, intelligence artificielle. Et j'ai aussi ma propre agence de conseil et formation en IA, où j'accompagne les entreprises et les institutions dans le déploiement et l'adoption de solutions d'intelligence artificielle. Et en même temps, je suis formatrice en IA auprès de différentes structures de formation.

  • Speaker #1

    Nous aimons demander à tous nos invités comment ils imaginent l'évolution des pratiques pédagogiques grâce à l'intelligence artificielle, et ce... dans un avenir relativement proche, dans 5 ans par exemple ?

  • Speaker #2

    Je ne me suis pas positionnée réellement sur la question parce que je suis pour et en même temps je suis contre l'usage de l'IA dans la pédagogie. C'est-à-dire que je trouve que c'est un merveilleux levier, un merveilleux outil, mais que si ce n'est pas utilisé correctement, ça fait des ravages. Là où ça me pose question aussi, est-ce qu'il y a une différence dans la manière dont utilise l'IA pour les élèves qui sont âgés de 13 à 18 ans et la manière dont ils l'utilisent quand ils ont 18 à 25 ans ? Donc dans le secondaire et dans le supérieur. C'est pas tout à fait la même chose et je pense qu'il y a un niveau de la construction de notre manière de réfléchir et de la manière dont on apprend, ça va avoir un véritable impact. Donc moi j'arrive pas à me positionner sur la question maintenant comment je l'imagine dans 5 ans. Il y a un pays en Europe qui a déjà mis en place l'intelligence artificielle au sein de l'éducation. Et c'est OpenAI qui a fait un contrat avec eux justement. Mais eux c'est beaucoup dans le second degré, donc collège et lycée. Moi je vois ça vraiment comme plutôt des assistants IA qui seront... très interactifs, plutôt sous forme de chatbots, et plutôt qu'un outil comme ChatGPT qui génère du contenu par rapport à ce qu'on lui demande, on aura des IA qui seront plus capables d'adapter leur discours aux spécificités de chacun, donc de chaque apprenant, en détectant en temps réel leur force, mais aussi leur lacune. Et à ce moment-là, ils pourront probablement proposer des contenus qui sont plus personnalisés, et ajuster surtout le niveau de complexité, en fonction de la progression de l'étudiant. Il y a un monde aussi où je vois des classes hybrides un peu augmentées. où là on aura la possibilité de générer des scénarios pédagogiques plus immersifs, par exemple via la réalité augmentée. Je sais que moi quand j'étais dans le second degré, que j'étais au collège, j'avais acheté un casque de réalité virtuelle, où je faisais des exercices en fait avec mes élèves, où on étudiait l'histoire, on étudiait les formes, on étudiait la peinture, on étudiait beaucoup de choses, et c'était très immersif pour eux, et ça a complètement chamboulé leur manière d'apprendre, et surtout leur motivation scolaire, qui est un élément qui est extrêmement important, et qui est une question qui est toujours compliquée. à répondre parce que qu'est-ce qui fait qu'un élève est motivé pour apprendre, qu'est-ce qui lui donne envie ? Je pense qu'à ce niveau-là, Lydia, elle sera capable de booster un peu leur envie de découvrir les choses et leur envie d'intégrer des savoirs.

  • Speaker #1

    Et pour les professeurs ?

  • Speaker #2

    Maintenant, pour les profs, je pense que ça va aussi beaucoup changer la manière dont ils évaluent les élèves. Parce que là, aujourd'hui, remplir un bulletin de notes ou remplir des évaluations, c'est long, c'est fastidieux, et ça demande de repenser à chaque fois à qui est cet élève, qu'est-ce qu'il a fait, c'est quoi son niveau, pourquoi, comment. Or là, je pense que... on aura une aide supplémentaire et plutôt que d'avoir des examens qui seront ponctuels et figés, on pourra avoir des évaluations qui seront plus continues et basées sur l'apprentissage et l'évolution encore une fois de l'apprenant, surtout dans les tâches qui sont complexes. Et dans ce cas-là, j'imagine, je pense que l'IALE pourra aussi analyser les stratégies de raisonnement de l'étudiant ou de l'apprenant et pas juste les résultats finaux. Nous, quand on est prof, on évalue le résultat final, mais on n'est pas capable d'évaluer en temps réel la réflexion. tout le chemin qu'il y a eu jusqu'au... enfin le raisonnement, quoi, qu'il y a eu jusqu'au résultat. Et là, je pense, j'imagine qu'avec ces outils d'IA, on pourra complètement analyser le raisonnement. Après, c'est une question un peu difficile pour le prof, pour l'enseignant aussi, parce que ça remet un petit peu en question sa posture. qui est-il finalement dans tout ça, qu'est-ce qu'il peut apporter, quel est son rôle final. Moi, je pense qu'il conservera son rôle, mais qu'il deviendra aussi un médiateur. Et que ce sera à lui de guider les étudiants dans l'usage, mais un usage critique, et surtout un usage qui est éthique. Et à ce moment-là, ce ne sera plus juste transmettre un savoir figé, mais ça va être structurer la pensée et aider à exploiter l'IA pour que ça devienne un outil plus d'intelligence collective.

  • Speaker #1

    Et vous ? Amélie, auriez-vous à partager avec nos auditeurs un outil ou une pratique intégrée dans vos pratiques pédagogiques impliquant bien entendu l'intelligence artificielle ?

  • Speaker #2

    Oui, moi je vais donner un outil qui est très simple et que beaucoup utilisent, c'est ChatGPT. Pour moi, c'est un petit peu ma pierre angulaire de ma construction pédagogique parce que ça me sert en fait à personnaliser au maximum mes scénarios pédagogiques. Par exemple, quand je forme des entreprises, je vais donner les informations précises de l'entreprise. et je vais pouvoir générer des cas d'études adaptés directement à l'entreprise. Parce que ce n'est pas forcément facile de rentrer dans une entreprise qu'on ne connaît pas, et ça permet de générer des cas d'études qui vont permettre ensuite de donner en exercice directement à mes formés. Et pareil pour mes étudiants, quand je suis en classe avec eux, j'utilise vraiment comme un outil de co-construction. Pareil, en fonction du profil de l'élève, et de la matière, et du moment où il en est dans les consignes, ça va me permettre d'adapter un petit peu le contenu, et surtout je l'utilise aussi. beaucoup pour mes étudiants, en termes d'exercices surtout. Je les fais challenger l'IA à chaque fois, et donc c'est un outil et pour moi, mais aussi pour mes étudiants.

  • Speaker #1

    Est-ce qu'on peut prendre un exemple et le développer ?

  • Speaker #2

    Là, par exemple, j'ai dû intervenir dans une entreprise qui faisait beaucoup d'administratifs. Moi, je n'ai pas un profil où je suis administrative, je ne suis pas vraiment dans les démarches, les processus comme ça. Et j'avais besoin, pour un exercice de prompt engineering, d'avoir un document généré en amont. sur des procédures administratives en entreprise. Et comme ce n'est pas mon domaine d'expertise, j'ai donné à ChatGPT mes consignes avec un contexte très précis et je lui ai demandé de me générer un exemple concret de document qu'on peut retrouver dans l'administratif, dans cette entreprise en particulier. Et là, il me l'a généré et j'ai pu le réutiliser directement auprès de mes formés pour avoir quelque chose qui leur ressemble, qui soit directement applicable comme un levier.

  • Speaker #1

    Venons-en maintenant au cœur de notre épisode pour parler d'éthique. et il est forcément nécessaire pour bien commencer de se demander ce que l'on peut entendre par éthique dans le cadre de l'usage de l'intelligence artificielle en pédagogie.

  • Speaker #2

    Alors déjà, juste pour rappeler rapidement que ce qu'on entend par éthique, en très gros, c'est de dire qu'est-ce qui est bien, qu'est-ce qui est mal, qu'est-ce qui se fait, qu'est-ce qui ne se fait pas, qu'est-ce qu'on accepte et qu'est-ce qu'on n'accepte pas. Sachant que l'éthique, ce n'est pas universel, chacun a sa propre éthique, en fonction de l'endroit où on a grandi, de notre culture, de nos valeurs. ce qui fait qu'on ne pourra jamais avoir la même éthique que quelqu'un d'autre. C'est impossible. Par contre, on peut établir un cadre éthique, notamment dans l'usage de l'IA en pédagogie. Il y a plusieurs critères qui font qu'une IA peut être considérée comme éthique ou au moins que l'usage qu'on en fait soit éthique. Il y a déjà un point qui est très important, c'est l'équité. On sait que l'IA n'est pas neutre, c'est-à-dire qu'elle est le miroir des propres inégalités de notre société et qu'elle est amplificateur de ces inégalités-là. Et pour s'assurer qu'elles ne reproduisent pas ces inégalités, il faut s'assurer qu'elles soient équitables et qu'elles ne renforcent pas les inégalités d'accès à l'éducation. Au contraire, et qu'elles ne favorisent pas certains groupes au détriment d'autres. Puisque comme tout ça est basé sur un système algorithmique, en fonction des données d'entrée et des données sur lesquelles ça a été entraîné, on peut avoir des résultats parfois qui sont complètement biaisés. Donc c'est important en fait la notion d'équité. En deuxième point, je dirais que l'autonomie des étudiants, c'est un point critique. C'est-à-dire que ça ne doit pas être un substitut à la pensée critique et à l'apprentissage actif, surtout, mais que l'enjeu principal, en fait, c'est de trouver un équilibre entre l'outil comme assistance et l'autonomie. Parce qu'on ne peut pas remplacer entièrement une réflexion par un outil qui va faire le travail à notre place. Et on a aussi la notion de transparence qui va de pair avec l'explicabilité. C'est-à-dire qu'on doit pouvoir expliquer aux étudiants et aux enseignants Comment fonctionne le modèle d'intelligence artificielle ? Quels sont les modèles qui ont été utilisés ? Qu'ils puissent eux-mêmes en fait en évaluer les limites. Qu'ils sachent parfaitement ce à quoi ils sont confrontés. Il ne faut pas que ce soit opaque, il ne faut pas qu'il y ait une boîte noire inexplicable. Un autre enjeu qui est très important et dont on parle énormément, c'est la protection des données. Surtout quand on touche aux mineurs, donc aux élèves, on ne peut pas faire n'importe quoi avec les données. Et le truc avec les IA, c'est qu'elles collectent et qu'elles traitent... énormément de données, dont beaucoup de données personnelles. Ce qui fait que leur utilisation dans le contexte éducatif, ça demande d'être hyper vigilant, pas que sur la confidentialité, mais aussi sur la souveraineté des données. C'est-à-dire que l'endroit où est stocké les données, c'est très important. Il faut que ça reste dans un territoire comme le nôtre par exemple, qui est régi par des règles et des réglementations qui encadrent l'utilisation de ces données personnelles. On a la CNIL en France, il y a le RGPD, il y a l'IA Act, toutes ces réglementations-là font qu'en principe nos données sont censées être protégées. Et enfin, dernier point, par rapport aux méthodes pédagogiques, l'IA ne doit pas imposer une standardisation et une uniformisation excessive des apprentissages et des savoirs, et elle ne doit pas non plus déshumaniser la relation entre l'enseignant et l'apprenant. Il ne faut pas que le prof se sente remplacé par l'IA et il ne faut pas que ça soit un substitut total à la manière dont on transmet nos savoirs. Parce que c'est important qu'on comprenne que l'IA est un outil, mais que l'humain doit être replacé au cœur de ses usages. Et c'est ça aussi l'éthique de l'intelligence artificielle, c'est replacer l'humain au cœur des réflexions et au cœur de nos utilisations. Donc en fait, si je devrais résumer l'éthique de l'IA en pédagogie, ce serait garantir une intégration qui favorise... l'émancipation intellectuelle, mais aussi l'inclusion, et évidemment en limitant les risques liés au bialgorithmique, mais aussi à la dépendance technologique, et évidemment au lien aussi qu'on a dit relation homme-machine, faire attention à ce qu'il n'y ait pas trop de lien émotionnel dans la manière dont on utilise l'IA.

  • Speaker #1

    Quand on parle d'éthique, on pointe souvent du doigt la machine. Elle tiendrait comme dans les films le rôle du méchant. Mais puisqu'elle s'alimente de nos données, ne fait-elle pas que nous renvoyer notre propre reflet, notre propre image ? L'éthique ne s'applique-t-elle pas d'abord à nous-mêmes ?

  • Speaker #2

    Alors, parfait. Ça, c'est une question qui est parfaite, parce que je commence toujours, quand j'explique des choses par rapport à l'IA, en entrant par cette porte-là. Je ne rentre jamais par la porte de l'outil parce que je trouve que ça ne fait aucun sens. Ça ne sert à rien d'utiliser un outil, surtout un outil. Enfin, une IA, si on n'est pas capable de comprendre, déjà qu'on est nous-mêmes à l'initiative, de l'usage qu'on en fait. C'est pas l'IA qui nous contrôle, c'est nous qui contrôlons l'IA. Et ça, on a tendance à l'oublier. C'est pour ça que je disais tout à l'heure... Le pouvoir décisionnel de l'IA, c'est un point qui est important. Il ne faut pas qu'on laisse l'IA prendre des décisions à notre place, mais ce n'est pas l'IA qui nous force à faire quelque chose. C'est nous-mêmes qui sommes maîtres de nos propres décisions. Donc quand on forme des étudiants, des élèves, des adultes, n'importe qui, moi j'estime qu'il ne faut pas rentrer par la porte de l'outil en disant « voilà ce que tu vas pouvoir faire avec l'IA, voilà ça c'est de la révolution, c'est incroyable, tu pourras faire ci, tu pourras faire ça » . C'est plutôt d'abord rentrer par « qu'est-ce que c'est l'IA ? » Tu es maître de l'IA, c'est toi qui la contrôles. Donc, il y a la notion de responsabilité aussi. Les résultats qui sont donnés par ChatGPT, qui en est responsable ? Est-ce que c'est les concepteurs ? Est-ce que c'est l'IA en elle-même ? Est-ce que c'est moi, l'usager, qui récupère les réponses ? Parce que c'est moi qui ai formulé le prompt aussi. En fait, je pense que quand on forme les gens, c'est important de toujours rentrer par l'éthique. Mais pas par l'éthique pure, comme je l'ai évoqué tout à l'heure, mais vraiment sur s'interroger sur qu'est-ce qu'on fait avec. Et ben... Est-ce qu'on l'utilise correctement ? Et rappelez que c'est un outil en fait, c'est nous-mêmes qui sommes maîtres.

  • Speaker #1

    J'aimerais pour compléter notre propos qu'on s'attarde encore un petit moment sur le sujet de la protection des données. On utilise la plupart des intelligences artificielles en rédigeant des promptes textuelles, donc les intelligences artificielles savent lire, mais elles savent écouter, et elles savent voir. N'est-ce pas un peu vain d'évoquer la protection des données, alors que finalement il semblerait que toutes les digues aient cédé ?

  • Speaker #2

    En fait, la réflexion que vous avez faite au début est très bonne. C'est-à-dire que là, vous dites, je suis capable de lui montrer des images, je suis capable de lui parler, je lui partage beaucoup d'informations personnelles. Il y a un truc que je trouve extrêmement, soit inconscient, soit hypocrite, mais quand on a un smartphone qui est arrivé déjà depuis plusieurs années, et qu'on a inscrit sur un site, un réseau social, qu'on a WhatsApp, qu'on a Messenger, qu'on a Essie et ça, ça revient exactement... au même, c'est à dire que Meta, il a accès à nos... enfin le groupe Meta a accès à nos conversations sur Messenger, à nos photos, et d'ailleurs la plupart des sites quand on se connecte dessus ou de l'application, ils nous demandent l'accès à nos photos et à nos vidéos. Bah finalement est-ce que ça reviendrait pas au même ? Parce que là on s'inquiète beaucoup de... je donne des informations à l'IA, ok mais quand je remplis mon genre, mon âge, ma taille, mon poids, que j'ai une montre connectée qui calcule mon rythme cardiaque et qui sait exactement où je vais, mon GPS qui sait que chez moi c'est ici... et que je vais au travail là-bas, et que j'y vais à 8h05 et que je rentre à 17h30, en fait finalement c'est un petit peu la même chose. L'avantage qu'on a avec l'IA par contre, c'est qu'on peut contrôler ce qu'on montre. Si je ne veux pas partager telle info, je ne le fais pas. Par contre mon GPS, lui, il est obligé, il sait où je suis. Vu qu'on en parle beaucoup, en fait, on a tendance à oublier que ça existait déjà. Et comme je disais, là on a l'avantage de pouvoir choisir ce qu'on dit et de choisir ce qu'on montre. Maintenant la différence, d'un point de vue opérationnel, c'est-à-dire nous en tant qu'usagers, Si je pose la question à ChatGPT, peux-tu analyser mon profil psychologique ? Il va me sortir une analyse psychologique hyper précise par rapport à tout ce qu'il a enregistré sur moi. Mais parce que j'y ai accès, je vois que ChatGPT peut me répondre. Et je vois que ChatGPT peut m'analyser. Mais les entreprises tierces qui ont mes données personnelles, elles l'ont fait aussi ce travail-là, sauf que je ne l'ai pas vu. Donc en fait, ça revient un petit peu à la même chose. Donc est-ce qu'il y a un moyen d'assurer une meilleure transparence de tout ça ? Je pense que ça commence déjà par nos propres usages. C'est moi-même qui décide de ce que je partage. Alors certes, c'est un outil qui est super, il y en a que ça dérange, il y en a que ça ne dérange pas. Il y en a qui s'en fichent de partager leurs données, d'autres, c'est fondamental de protéger tout ça et que ce ne soit pas trop intrusif. pour la transparence, il faut qu'on sache où sont stockées les données, il faut qu'on sache ce qu'en fait l'entreprise, est-ce que c'est à but commercial, est-ce que c'est pour la publicité, je ne sais pas, quel est leur but derrière tout ça, que ce soit affiché clairement, surtout. Parce que là, les petites lignes écrites en tout petit, quand on télécharge une application qu'on n'arrive pas à lire parce que ça fait 4 km de long, ça n'arrange personne. Par contre, si c'est écrit noir sur blanc en deux phrases, vos données sont enregistrées et elles vont ici, à usage précis, là déjà, je sais un petit peu plus.

  • Speaker #1

    Revenons aux apprentissages. Comment s'assurer que l'intelligence artificielle favorise la personnalisation de ces derniers plutôt que de les standardiser ? Et par voie de conséquence, comment prévenir et corriger des biais algorithmiques dans les parcours d'apprentissage ?

  • Speaker #2

    C'est très intéressant parce que par rapport à la standardisation et l'uniformisation, il y a un point dont on ne parle pas très souvent mais qui commence à apparaître, c'est que là on produit beaucoup de contenu avec l'intelligence artificielle. Sauf que l'intelligence artificielle s'entraîne sur nos propres données. Donc ce que nous-mêmes en tant qu'humains on a créé. Sauf qu'au bout d'un moment, si on n'a que des contenus qui sont produits par l'IA, l'IA va s'entraîner avec quoi ? Ses propres données, ses propres créations, entre guillemets. Du coup, il y a un moment donné où ça va poser souci, et c'est là qu'on va se retrouver avec les mêmes choses en boucle, et qu'on n'aura plus cette créativité et cette forme de nouveauté-là. Où là, on réutilise sans cesse les mêmes contenus, et c'est de plus en plus le cas, ce qui risque d'arriver aussi dans les contenus pédagogiques. Si on fait toujours la même chose, au bout d'un moment, on va tourner en rond. Et c'est pour ça, en fait, que, alors je reviens sur la question, comment est-ce qu'on prévient et on corrige les biais algorithmiques dans les parcours d'apprentissage ? Il y a des choses sur lesquelles, nous, en tant qu'individus lambda, formateurs, apprenants, profs, on ne peut pas faire. Par exemple, diversifier les sources d'entraînement des modèles. Nous, on ne conçoit pas le modèle d'IA, donc on ne peut pas le faire. Mais idéalement, les IA génératives, il faudrait qu'elles soient entraînées sur un corpus de données qui soit très varié, avec des sources diverses et variées, et des corpus qui... n'exclut pas toutes les perspectives. Ça, nous, on ne peut pas forcément le faire, la diversification des sources d'entraînement. Par contre, ce qu'on peut faire, nous, c'est introduire des garde-fous humains. C'est-à-dire qu'on sait aujourd'hui qu'un algorithme ne peut pas être totalement corrigé par un autre algorithme. C'est-à-dire que s'il y a des biais dans un algorithme, l'algorithme ne pourra pas le corriger à 100%. C'est pour ça que nous, en tant qu'êtres humains, on est référents, en fait, dans la supervision de tout ça. On est indispensables pour identifier les biais. Et ça, nous, en tant que personnes, on peut le faire. Si je vois une réponse... d'une intelligence artificielle qui est pleine de biais, dans ce cas-là, je peux réagir. Et surtout, encourager la co-construction des savoirs. Pas la construction, mais la co-construction. Plutôt que d'accepter de manière passive les recommandations de l'IA, c'est mieux qu'on soit encouragé à les questionner, à les affiner et à les compléter, et pas la prendre en tant que telle.

  • Speaker #1

    Ces quelques propos nous amènent naturellement à la question suivante. Est-ce possible de concevoir des intelligences artificielles éducatives qui favoriseraient... le développement de la pensée critique ?

  • Speaker #2

    Le mieux, ce serait carrément que l'IA, à la fin, dans sa réponse, nous pose d'autres questions pour ouvrir davantage la réflexion. Maintenant, encore une fois, c'est nous-mêmes qui serons maîtres de ce qui se passe. C'est-à-dire que si je ne veux pas répondre aux questions et que je ne veux pas m'interroger, je ne le fais pas. Maintenant, est-ce qu'on peut concevoir des IA éducatifs qui développent la pensée critique ? Je dirais que oui, mais il faut vraiment que ce soit développé de manière très spécifique. C'est-à-dire qu'on ne doit pas être sur une IA qui transmet juste du savoir, mais que ça doit, comme je l'ai dit, vraiment être un outil de questionnement et d'interaction. comme un être humain, finalement, en tout cas, se rapprocher au mieux. Et pour ça, il faudrait encourager la diversité des points de vue. C'est-à-dire que l'IA ne devrait pas donner juste une réponse unique, mais elle devrait proposer plusieurs interprétations d'un même sujet, plusieurs choses, pour ne pas enfermer l'étudiant, l'apprenant, la personne dans une espèce de bulle cognitive, en fait, où là, on risque, avec cet effet bulle cognitive, de trop enfermer l'apprenant dans un filtre algorithmique dont il n'a pas le contrôle, dont il n'a souvent même pas conscience. Et c'est pour ça qu'explorer des nouvelles idées avec l'IA, c'est très, très, très important. Et ça me ramène à la notion de sérendipité, qui est l'heureux hasard, l'heureuse découverte qu'on peut faire sur une connaissance, un savoir en particulier. Ça se retrouvait beaucoup sur les liens hypertextes. Je clique sur un lien hypertexte, ça me renvoie sur un autre, qui me renvoie sur un autre. Et là, je découvre des choses que je n'imaginais pas possibles. Et l'idéal, ce serait que ce soit pareil avec l'intelligence artificielle, que je puisse basculer d'un savoir à un autre qui sont liés, mais qui n'ont pas forcément d'atomes crochus, mais qui ont une espèce de lien. Et là, à ce moment-là, on favorise la sérendipité et du coup, la curiosité intellectuelle.

  • Speaker #1

    Et ce n'est pas le cas avec l'IA ?

  • Speaker #2

    En général, quand on a des réponses avec les outils d'IA, ça ne nous amène pas à demander une justification ou une réfutation de la part de l'IA. on prend la réponse comme elle est. Mais je pense que le modèle éducatif, lui, il devrait expliquer pourquoi est-ce qu'il a généré cette réponse-là, proposer systématiquement ses sources vérifiées, et pas n'importe lesquelles, et même, le mieux, ce serait qu'il puisse offrir des contre-arguments pour stimuler la réflexion. Pas juste aller dans le même sens, mais pousser la réflexion sur le pour et le contre. Ce qui serait bien aussi sur ces outils-là, c'est que ça stimule un petit peu tout ce qui est interaction et débat. C'est-à-dire que ça doit être comme un élément de discussion. Ce qui fait qu'on apprend souvent, c'est qu'on échange. On est confronté à différents points de vue. Et dans ce cas-là, ce serait intéressant que l'IA soit utilisée pour générer des scénarios ou même des dilemmes éthiques. Parce que comme ça, au moins, l'apprenant n'est pas conforté dans son idée, mais elle est confrontée à son idée. Et ça le pousse à argumenter à pourquoi son idée, il veut la justifier, et pourquoi est-ce qu'il pense que c'est la bonne. Donc, faire un espèce de système de débat avec l'IA, ce serait pas mal. Puis après, bon, bah... Ce qui serait sympa aussi, ce serait de développer des espèces d'outils d'auto-évaluation critique. À la fin du parcours d'apprentissage, l'IA pourrait poser des questions, mais ouvertes, cette fois-ci aux apprenants, et demander d'évaluer la pertinence de leur propre réponse. Plutôt que de donner des corrections comme ça immédiatement sur la réponse, challenger l'apprenant et demander à lui-même d'abord qu'est-ce que tu penses, et en fonction de ça, l'IA à ce moment-là peut l'accompagner dans son parcours d'apprentissage. Donc en fait, plutôt que de voir l'IA comme... Quelque chose qui délivre une vérité, un savoir tout cuit, tout prêt, tout propre, tout beau, faudrait plutôt le voir comme une forme de catalyseur de raisonnement. Une IA qui devrait plutôt pousser à la mise en perspective, et aussi, et c'est essentiel, à la remise en question des informations. Je dis toujours à mes étudiants, doutez ces biens. Essayez toujours et remettez toujours en question ce qu'on vous dit, pas à l'excès, mais en tout cas, questionnez-vous toujours sur ce qu'on vous dit. Est-ce que... Il y a des arguments qui sont valables, est-ce que ça résonne en vous ? Est-ce que ça fait sens ? Est-ce que ça vous paraît étrange ? C'est à ce moment-là que vous allez pousser la réflexion. Donc le doute, c'est important et ça vaut pour tout.

  • Speaker #1

    Comment fait-on maintenant pour passer à l'acte ? Quels principes, quelles bonnes pratiques les formateurs peuvent-ils adopter pour intégrer l'intelligence artificielle de manière éthique en pédagogie ?

  • Speaker #2

    La première chose que je conseille à chaque fois, c'est de se former correctement. Par se former correctement, j'entends ne pas se former que sur la manière dont on utilise l'outil. mais sur tous les points que j'ai abordés précédemment. Donc c'est sur les risques, les biais, les enjeux, mais aussi les opportunités. Ce que je fais souvent, et ce que j'encourage très très très très fortement, c'est de mettre en place une charte éthique de l'usage de l'IA. Pourquoi ? Parce qu'à ce moment-là, on a une réflexion qui est peut-être quelque part individuelle, mais surtout collective, sur la manière dont on va utiliser l'IA, soit une organisation, soit une entreprise, soit une école, soit bref. La manière dont on va utiliser l'IA, cette charte éthique-là, Elle permet de poser un cadre, de savoir qu'est-ce qui se fait, qu'est-ce qui se fait pas, dans quel cadre je peux l'utiliser, dans quel cadre je ne peux pas l'utiliser et pourquoi. Et puis, en fait, comment est-ce que j'encourage cet usage responsable-là ? En fait, une charte éthique, c'est un document qui est quand même assez conséquent, si on veut le faire correctement, qui reprend en fait tout le contexte de notre situation, de notre établissement, de notre entreprise et qui ensuite... fait en fait fabrique ses propres règles. Parce que comme je l'ai dit, l'éthique n'est pas universelle et l'éthique ne s'applique pas de la même manière partout. Donc c'est à nous de rédiger notre propre charte éthique. Maintenant, si j'ai d'autres conseils à donner pour l'usage de l'IA pour les profs, par exemple, de l'utiliser de manière raisonnée, de toujours contextualiser les résultats qu'on a de l'IA. Comme je l'ai dit, ça ne doit jamais être une vérité absolue, mais vraiment juste un levier pour nous aider. Et on doit toujours encourager la vérification des réponses et surtout notre esprit critique.

  • Speaker #1

    Mais une fois que l'intelligence artificielle est présente, C'est pas un peu difficile ?

  • Speaker #2

    En fait, l'intégration, elle, elle doit être progressive. C'est-à-dire que je ne dois pas donner un outil d'IA et dire, maintenant tu l'utilises et puis on voit ce qui se passe. C'est d'abord, on observe, comment est-ce que les apprenants vont réagir avec ce nouvel outil ? Qu'est-ce que ça va amener sur leur engagement et leur réflexion ? Et à ce moment-là, on va un petit peu ajuster en fonction des retours. C'est comme un prof qui fait ça à chaque fois, il donne un exercice ou une consigne. ou il fait une pédagogie alternative innovante, il voit ce que ça donne et puis il adapte en fonction. Mais là, c'est pareil. C'est pour ça, ne pas utiliser l'IA comme un outil de vérité générale ou comme l'outil magique suprême qui va l'aider à tout faire. Je répète encore une fois, on est maître de l'IA. L'IA ne nous contrôle pas, c'est nous qui la contrôlons. Et ça, on peut le faire uniquement si on est pleinement conscient des enjeux sociaux, sociétaux et des biais cognitifs parce que... Bon, je tergiverse un peu, mais... Il y a les biais algorithmiques dans l'IA, mais il y a nos propres biais cognitifs qui se reflètent sur l'algorithme, et l'algorithme qui se reflète sur nous. Donc en fait, c'est un peu un jeu de ping-pong. Il ne faut pas oublier que nous-mêmes, on n'est pas exemptes de biais, et que ça se retrouve forcément dans les réponses de l'IA, de la manière dont on l'interprète. Et ça aussi, c'est important que... les apprenants et les profs et les formateurs soient formés au fait qu'on a nos propres biais cognitifs, et que si on ne les a pas compris, on ne peut pas les maîtriser. Et à ce moment-là, ça va avoir un impact sur la manière dont on les utilise. Donc en fait, ce que je dirais pour conclure, c'est que l'intégration d'une IA éthique ou d'une éthique de l'IA, ce n'est pas uniquement en rapport avec la technologie en elle-même, mais surtout sur la posture pédagogique qu'on va adopter. Et l'objectif, c'est toujours de faire en sorte que... l'outil soit au service de l'humain et du savoir, mais pas que ce soit une finalité en soi.

  • Speaker #1

    Nous avons une tradition dans Learning Coach, c'est de laisser le mot de la fin à nos invités.

  • Speaker #2

    Je dirais finalement que n'oubliez pas qui vous êtes, n'oubliez pas que toute technologie doit être au service de l'être humain et doit être au service de notre propre bien-être et que ce doit être quelque chose qui nous élève et non pas qui nous fait aller en arrière ou qui nous impose des contraintes trop difficiles à accepter et que... Et que oui, c'est nous qui sommes maîtres de l'intelligence artificielle et que pour chaque technologie qui arrive, on doit toujours se questionner. Mais en tout cas, ce qui est sûr, c'est que c'est un outil qui est formidable et bien utilisé, ça fait vraiment des merveilles.

  • Speaker #1

    Un grand merci Amélie pour votre précieuse participation. Merci à vous aussi, chers auditeurs, pour votre écoute et votre fidélité renouvelée. Vous retrouverez cet épisode, comme tous ceux qui l'ont précédé, sur le site internet trendy.io, sur nos réseaux sociaux et sur l'ensemble des plateformes d'écoute. À très bientôt pour un prochain épisode.

  • Speaker #0

    Vous souhaitez intégrer l'intelligence artificielle dans vos pratiques pédagogiques ? Visitez le site de Trendy, www.trendy.io, pour découvrir la fresque des IA pédagogiques et nos solutions d'accompagnement.

Description

Amélie Raoul, doctorante en IA générative et formatrice spécialisée, aborde les enjeux éthiques liés à l'intégration de l'IA en pédagogie, notamment les biais algorithmiques, les impacts sociétaux et la relation homme-machine, avec une attention particulière portée aux jeunes générations. Elle envisage l'IA comme un outil puissant pour la personnalisation des apprentissages et l’immersion pédagogique via des scénarios utilisant la réalité augmentée. Selon elle, les enseignants verront leur rôle évoluer vers une médiation critique, intégrant des évaluations basées sur l’analyse des processus cognitifs des élèves. Amélie insiste sur l’importance d’un cadre éthique clair, incluant équité, transparence, protection des données, et propose des pistes concrètes telles que l'élaboration collective d'une charte éthique et la formation approfondie des acteurs pédagogiques pour une utilisation raisonnée et humaine de l’IA.


Retrouvez toutes les ressources gratuites créées par Traindy pour la communauté pédagogique sur www.traindy.io.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités, mais aussi les défis que l'IA soulève.

  • Speaker #1

    Bienvenue dans ce nouvel épisode de la saison 2 de Learning Coach, un épisode au cours duquel nous allons aborder la question cruciale de l'éthique alors que l'intelligence artificielle est de plus en plus utilisée en contexte pédagogique. Et pour cela, nous avons l'invité idéal que nous allons laisser se présenter maintenant.

  • Speaker #2

    Moi, je m'appelle Amélie Raoul et je suis doctorante en intelligence artificielle générative dans le domaine des sciences de l'information et de la communication. Et en fait, ma thèse, le sujet, c'est... les intelligences artificielles génératives et les pratiques informationnelles des jeunes vers un nouveau paradigme d'accès et de production de l'information. Et j'étudie ces questions-là avec un focus sur les enjeux éthiques, sociaux et sociétaux, sur les bialgoritmiques notamment, mais aussi sur la relation homme-machine, ce qu'on appelle l'anthropomorphisation de l'IA, et les impacts que ça peut avoir sur les plus jeunes, et qui seront en fait les futurs adultes de demain. Donc c'est pour ça que c'est important d'étudier la question, pour ensuite mettre en place des bonnes pratiques et bien aussi réfléchir. à comment est-ce qu'eux perçoivent l'IA, l'imaginent et leurs usages au quotidien. En même temps, je suis enseignante en business school, donc tout ce qui est projets digitaux, numériques, intelligence artificielle. Et j'ai aussi ma propre agence de conseil et formation en IA, où j'accompagne les entreprises et les institutions dans le déploiement et l'adoption de solutions d'intelligence artificielle. Et en même temps, je suis formatrice en IA auprès de différentes structures de formation.

  • Speaker #1

    Nous aimons demander à tous nos invités comment ils imaginent l'évolution des pratiques pédagogiques grâce à l'intelligence artificielle, et ce... dans un avenir relativement proche, dans 5 ans par exemple ?

  • Speaker #2

    Je ne me suis pas positionnée réellement sur la question parce que je suis pour et en même temps je suis contre l'usage de l'IA dans la pédagogie. C'est-à-dire que je trouve que c'est un merveilleux levier, un merveilleux outil, mais que si ce n'est pas utilisé correctement, ça fait des ravages. Là où ça me pose question aussi, est-ce qu'il y a une différence dans la manière dont utilise l'IA pour les élèves qui sont âgés de 13 à 18 ans et la manière dont ils l'utilisent quand ils ont 18 à 25 ans ? Donc dans le secondaire et dans le supérieur. C'est pas tout à fait la même chose et je pense qu'il y a un niveau de la construction de notre manière de réfléchir et de la manière dont on apprend, ça va avoir un véritable impact. Donc moi j'arrive pas à me positionner sur la question maintenant comment je l'imagine dans 5 ans. Il y a un pays en Europe qui a déjà mis en place l'intelligence artificielle au sein de l'éducation. Et c'est OpenAI qui a fait un contrat avec eux justement. Mais eux c'est beaucoup dans le second degré, donc collège et lycée. Moi je vois ça vraiment comme plutôt des assistants IA qui seront... très interactifs, plutôt sous forme de chatbots, et plutôt qu'un outil comme ChatGPT qui génère du contenu par rapport à ce qu'on lui demande, on aura des IA qui seront plus capables d'adapter leur discours aux spécificités de chacun, donc de chaque apprenant, en détectant en temps réel leur force, mais aussi leur lacune. Et à ce moment-là, ils pourront probablement proposer des contenus qui sont plus personnalisés, et ajuster surtout le niveau de complexité, en fonction de la progression de l'étudiant. Il y a un monde aussi où je vois des classes hybrides un peu augmentées. où là on aura la possibilité de générer des scénarios pédagogiques plus immersifs, par exemple via la réalité augmentée. Je sais que moi quand j'étais dans le second degré, que j'étais au collège, j'avais acheté un casque de réalité virtuelle, où je faisais des exercices en fait avec mes élèves, où on étudiait l'histoire, on étudiait les formes, on étudiait la peinture, on étudiait beaucoup de choses, et c'était très immersif pour eux, et ça a complètement chamboulé leur manière d'apprendre, et surtout leur motivation scolaire, qui est un élément qui est extrêmement important, et qui est une question qui est toujours compliquée. à répondre parce que qu'est-ce qui fait qu'un élève est motivé pour apprendre, qu'est-ce qui lui donne envie ? Je pense qu'à ce niveau-là, Lydia, elle sera capable de booster un peu leur envie de découvrir les choses et leur envie d'intégrer des savoirs.

  • Speaker #1

    Et pour les professeurs ?

  • Speaker #2

    Maintenant, pour les profs, je pense que ça va aussi beaucoup changer la manière dont ils évaluent les élèves. Parce que là, aujourd'hui, remplir un bulletin de notes ou remplir des évaluations, c'est long, c'est fastidieux, et ça demande de repenser à chaque fois à qui est cet élève, qu'est-ce qu'il a fait, c'est quoi son niveau, pourquoi, comment. Or là, je pense que... on aura une aide supplémentaire et plutôt que d'avoir des examens qui seront ponctuels et figés, on pourra avoir des évaluations qui seront plus continues et basées sur l'apprentissage et l'évolution encore une fois de l'apprenant, surtout dans les tâches qui sont complexes. Et dans ce cas-là, j'imagine, je pense que l'IALE pourra aussi analyser les stratégies de raisonnement de l'étudiant ou de l'apprenant et pas juste les résultats finaux. Nous, quand on est prof, on évalue le résultat final, mais on n'est pas capable d'évaluer en temps réel la réflexion. tout le chemin qu'il y a eu jusqu'au... enfin le raisonnement, quoi, qu'il y a eu jusqu'au résultat. Et là, je pense, j'imagine qu'avec ces outils d'IA, on pourra complètement analyser le raisonnement. Après, c'est une question un peu difficile pour le prof, pour l'enseignant aussi, parce que ça remet un petit peu en question sa posture. qui est-il finalement dans tout ça, qu'est-ce qu'il peut apporter, quel est son rôle final. Moi, je pense qu'il conservera son rôle, mais qu'il deviendra aussi un médiateur. Et que ce sera à lui de guider les étudiants dans l'usage, mais un usage critique, et surtout un usage qui est éthique. Et à ce moment-là, ce ne sera plus juste transmettre un savoir figé, mais ça va être structurer la pensée et aider à exploiter l'IA pour que ça devienne un outil plus d'intelligence collective.

  • Speaker #1

    Et vous ? Amélie, auriez-vous à partager avec nos auditeurs un outil ou une pratique intégrée dans vos pratiques pédagogiques impliquant bien entendu l'intelligence artificielle ?

  • Speaker #2

    Oui, moi je vais donner un outil qui est très simple et que beaucoup utilisent, c'est ChatGPT. Pour moi, c'est un petit peu ma pierre angulaire de ma construction pédagogique parce que ça me sert en fait à personnaliser au maximum mes scénarios pédagogiques. Par exemple, quand je forme des entreprises, je vais donner les informations précises de l'entreprise. et je vais pouvoir générer des cas d'études adaptés directement à l'entreprise. Parce que ce n'est pas forcément facile de rentrer dans une entreprise qu'on ne connaît pas, et ça permet de générer des cas d'études qui vont permettre ensuite de donner en exercice directement à mes formés. Et pareil pour mes étudiants, quand je suis en classe avec eux, j'utilise vraiment comme un outil de co-construction. Pareil, en fonction du profil de l'élève, et de la matière, et du moment où il en est dans les consignes, ça va me permettre d'adapter un petit peu le contenu, et surtout je l'utilise aussi. beaucoup pour mes étudiants, en termes d'exercices surtout. Je les fais challenger l'IA à chaque fois, et donc c'est un outil et pour moi, mais aussi pour mes étudiants.

  • Speaker #1

    Est-ce qu'on peut prendre un exemple et le développer ?

  • Speaker #2

    Là, par exemple, j'ai dû intervenir dans une entreprise qui faisait beaucoup d'administratifs. Moi, je n'ai pas un profil où je suis administrative, je ne suis pas vraiment dans les démarches, les processus comme ça. Et j'avais besoin, pour un exercice de prompt engineering, d'avoir un document généré en amont. sur des procédures administratives en entreprise. Et comme ce n'est pas mon domaine d'expertise, j'ai donné à ChatGPT mes consignes avec un contexte très précis et je lui ai demandé de me générer un exemple concret de document qu'on peut retrouver dans l'administratif, dans cette entreprise en particulier. Et là, il me l'a généré et j'ai pu le réutiliser directement auprès de mes formés pour avoir quelque chose qui leur ressemble, qui soit directement applicable comme un levier.

  • Speaker #1

    Venons-en maintenant au cœur de notre épisode pour parler d'éthique. et il est forcément nécessaire pour bien commencer de se demander ce que l'on peut entendre par éthique dans le cadre de l'usage de l'intelligence artificielle en pédagogie.

  • Speaker #2

    Alors déjà, juste pour rappeler rapidement que ce qu'on entend par éthique, en très gros, c'est de dire qu'est-ce qui est bien, qu'est-ce qui est mal, qu'est-ce qui se fait, qu'est-ce qui ne se fait pas, qu'est-ce qu'on accepte et qu'est-ce qu'on n'accepte pas. Sachant que l'éthique, ce n'est pas universel, chacun a sa propre éthique, en fonction de l'endroit où on a grandi, de notre culture, de nos valeurs. ce qui fait qu'on ne pourra jamais avoir la même éthique que quelqu'un d'autre. C'est impossible. Par contre, on peut établir un cadre éthique, notamment dans l'usage de l'IA en pédagogie. Il y a plusieurs critères qui font qu'une IA peut être considérée comme éthique ou au moins que l'usage qu'on en fait soit éthique. Il y a déjà un point qui est très important, c'est l'équité. On sait que l'IA n'est pas neutre, c'est-à-dire qu'elle est le miroir des propres inégalités de notre société et qu'elle est amplificateur de ces inégalités-là. Et pour s'assurer qu'elles ne reproduisent pas ces inégalités, il faut s'assurer qu'elles soient équitables et qu'elles ne renforcent pas les inégalités d'accès à l'éducation. Au contraire, et qu'elles ne favorisent pas certains groupes au détriment d'autres. Puisque comme tout ça est basé sur un système algorithmique, en fonction des données d'entrée et des données sur lesquelles ça a été entraîné, on peut avoir des résultats parfois qui sont complètement biaisés. Donc c'est important en fait la notion d'équité. En deuxième point, je dirais que l'autonomie des étudiants, c'est un point critique. C'est-à-dire que ça ne doit pas être un substitut à la pensée critique et à l'apprentissage actif, surtout, mais que l'enjeu principal, en fait, c'est de trouver un équilibre entre l'outil comme assistance et l'autonomie. Parce qu'on ne peut pas remplacer entièrement une réflexion par un outil qui va faire le travail à notre place. Et on a aussi la notion de transparence qui va de pair avec l'explicabilité. C'est-à-dire qu'on doit pouvoir expliquer aux étudiants et aux enseignants Comment fonctionne le modèle d'intelligence artificielle ? Quels sont les modèles qui ont été utilisés ? Qu'ils puissent eux-mêmes en fait en évaluer les limites. Qu'ils sachent parfaitement ce à quoi ils sont confrontés. Il ne faut pas que ce soit opaque, il ne faut pas qu'il y ait une boîte noire inexplicable. Un autre enjeu qui est très important et dont on parle énormément, c'est la protection des données. Surtout quand on touche aux mineurs, donc aux élèves, on ne peut pas faire n'importe quoi avec les données. Et le truc avec les IA, c'est qu'elles collectent et qu'elles traitent... énormément de données, dont beaucoup de données personnelles. Ce qui fait que leur utilisation dans le contexte éducatif, ça demande d'être hyper vigilant, pas que sur la confidentialité, mais aussi sur la souveraineté des données. C'est-à-dire que l'endroit où est stocké les données, c'est très important. Il faut que ça reste dans un territoire comme le nôtre par exemple, qui est régi par des règles et des réglementations qui encadrent l'utilisation de ces données personnelles. On a la CNIL en France, il y a le RGPD, il y a l'IA Act, toutes ces réglementations-là font qu'en principe nos données sont censées être protégées. Et enfin, dernier point, par rapport aux méthodes pédagogiques, l'IA ne doit pas imposer une standardisation et une uniformisation excessive des apprentissages et des savoirs, et elle ne doit pas non plus déshumaniser la relation entre l'enseignant et l'apprenant. Il ne faut pas que le prof se sente remplacé par l'IA et il ne faut pas que ça soit un substitut total à la manière dont on transmet nos savoirs. Parce que c'est important qu'on comprenne que l'IA est un outil, mais que l'humain doit être replacé au cœur de ses usages. Et c'est ça aussi l'éthique de l'intelligence artificielle, c'est replacer l'humain au cœur des réflexions et au cœur de nos utilisations. Donc en fait, si je devrais résumer l'éthique de l'IA en pédagogie, ce serait garantir une intégration qui favorise... l'émancipation intellectuelle, mais aussi l'inclusion, et évidemment en limitant les risques liés au bialgorithmique, mais aussi à la dépendance technologique, et évidemment au lien aussi qu'on a dit relation homme-machine, faire attention à ce qu'il n'y ait pas trop de lien émotionnel dans la manière dont on utilise l'IA.

  • Speaker #1

    Quand on parle d'éthique, on pointe souvent du doigt la machine. Elle tiendrait comme dans les films le rôle du méchant. Mais puisqu'elle s'alimente de nos données, ne fait-elle pas que nous renvoyer notre propre reflet, notre propre image ? L'éthique ne s'applique-t-elle pas d'abord à nous-mêmes ?

  • Speaker #2

    Alors, parfait. Ça, c'est une question qui est parfaite, parce que je commence toujours, quand j'explique des choses par rapport à l'IA, en entrant par cette porte-là. Je ne rentre jamais par la porte de l'outil parce que je trouve que ça ne fait aucun sens. Ça ne sert à rien d'utiliser un outil, surtout un outil. Enfin, une IA, si on n'est pas capable de comprendre, déjà qu'on est nous-mêmes à l'initiative, de l'usage qu'on en fait. C'est pas l'IA qui nous contrôle, c'est nous qui contrôlons l'IA. Et ça, on a tendance à l'oublier. C'est pour ça que je disais tout à l'heure... Le pouvoir décisionnel de l'IA, c'est un point qui est important. Il ne faut pas qu'on laisse l'IA prendre des décisions à notre place, mais ce n'est pas l'IA qui nous force à faire quelque chose. C'est nous-mêmes qui sommes maîtres de nos propres décisions. Donc quand on forme des étudiants, des élèves, des adultes, n'importe qui, moi j'estime qu'il ne faut pas rentrer par la porte de l'outil en disant « voilà ce que tu vas pouvoir faire avec l'IA, voilà ça c'est de la révolution, c'est incroyable, tu pourras faire ci, tu pourras faire ça » . C'est plutôt d'abord rentrer par « qu'est-ce que c'est l'IA ? » Tu es maître de l'IA, c'est toi qui la contrôles. Donc, il y a la notion de responsabilité aussi. Les résultats qui sont donnés par ChatGPT, qui en est responsable ? Est-ce que c'est les concepteurs ? Est-ce que c'est l'IA en elle-même ? Est-ce que c'est moi, l'usager, qui récupère les réponses ? Parce que c'est moi qui ai formulé le prompt aussi. En fait, je pense que quand on forme les gens, c'est important de toujours rentrer par l'éthique. Mais pas par l'éthique pure, comme je l'ai évoqué tout à l'heure, mais vraiment sur s'interroger sur qu'est-ce qu'on fait avec. Et ben... Est-ce qu'on l'utilise correctement ? Et rappelez que c'est un outil en fait, c'est nous-mêmes qui sommes maîtres.

  • Speaker #1

    J'aimerais pour compléter notre propos qu'on s'attarde encore un petit moment sur le sujet de la protection des données. On utilise la plupart des intelligences artificielles en rédigeant des promptes textuelles, donc les intelligences artificielles savent lire, mais elles savent écouter, et elles savent voir. N'est-ce pas un peu vain d'évoquer la protection des données, alors que finalement il semblerait que toutes les digues aient cédé ?

  • Speaker #2

    En fait, la réflexion que vous avez faite au début est très bonne. C'est-à-dire que là, vous dites, je suis capable de lui montrer des images, je suis capable de lui parler, je lui partage beaucoup d'informations personnelles. Il y a un truc que je trouve extrêmement, soit inconscient, soit hypocrite, mais quand on a un smartphone qui est arrivé déjà depuis plusieurs années, et qu'on a inscrit sur un site, un réseau social, qu'on a WhatsApp, qu'on a Messenger, qu'on a Essie et ça, ça revient exactement... au même, c'est à dire que Meta, il a accès à nos... enfin le groupe Meta a accès à nos conversations sur Messenger, à nos photos, et d'ailleurs la plupart des sites quand on se connecte dessus ou de l'application, ils nous demandent l'accès à nos photos et à nos vidéos. Bah finalement est-ce que ça reviendrait pas au même ? Parce que là on s'inquiète beaucoup de... je donne des informations à l'IA, ok mais quand je remplis mon genre, mon âge, ma taille, mon poids, que j'ai une montre connectée qui calcule mon rythme cardiaque et qui sait exactement où je vais, mon GPS qui sait que chez moi c'est ici... et que je vais au travail là-bas, et que j'y vais à 8h05 et que je rentre à 17h30, en fait finalement c'est un petit peu la même chose. L'avantage qu'on a avec l'IA par contre, c'est qu'on peut contrôler ce qu'on montre. Si je ne veux pas partager telle info, je ne le fais pas. Par contre mon GPS, lui, il est obligé, il sait où je suis. Vu qu'on en parle beaucoup, en fait, on a tendance à oublier que ça existait déjà. Et comme je disais, là on a l'avantage de pouvoir choisir ce qu'on dit et de choisir ce qu'on montre. Maintenant la différence, d'un point de vue opérationnel, c'est-à-dire nous en tant qu'usagers, Si je pose la question à ChatGPT, peux-tu analyser mon profil psychologique ? Il va me sortir une analyse psychologique hyper précise par rapport à tout ce qu'il a enregistré sur moi. Mais parce que j'y ai accès, je vois que ChatGPT peut me répondre. Et je vois que ChatGPT peut m'analyser. Mais les entreprises tierces qui ont mes données personnelles, elles l'ont fait aussi ce travail-là, sauf que je ne l'ai pas vu. Donc en fait, ça revient un petit peu à la même chose. Donc est-ce qu'il y a un moyen d'assurer une meilleure transparence de tout ça ? Je pense que ça commence déjà par nos propres usages. C'est moi-même qui décide de ce que je partage. Alors certes, c'est un outil qui est super, il y en a que ça dérange, il y en a que ça ne dérange pas. Il y en a qui s'en fichent de partager leurs données, d'autres, c'est fondamental de protéger tout ça et que ce ne soit pas trop intrusif. pour la transparence, il faut qu'on sache où sont stockées les données, il faut qu'on sache ce qu'en fait l'entreprise, est-ce que c'est à but commercial, est-ce que c'est pour la publicité, je ne sais pas, quel est leur but derrière tout ça, que ce soit affiché clairement, surtout. Parce que là, les petites lignes écrites en tout petit, quand on télécharge une application qu'on n'arrive pas à lire parce que ça fait 4 km de long, ça n'arrange personne. Par contre, si c'est écrit noir sur blanc en deux phrases, vos données sont enregistrées et elles vont ici, à usage précis, là déjà, je sais un petit peu plus.

  • Speaker #1

    Revenons aux apprentissages. Comment s'assurer que l'intelligence artificielle favorise la personnalisation de ces derniers plutôt que de les standardiser ? Et par voie de conséquence, comment prévenir et corriger des biais algorithmiques dans les parcours d'apprentissage ?

  • Speaker #2

    C'est très intéressant parce que par rapport à la standardisation et l'uniformisation, il y a un point dont on ne parle pas très souvent mais qui commence à apparaître, c'est que là on produit beaucoup de contenu avec l'intelligence artificielle. Sauf que l'intelligence artificielle s'entraîne sur nos propres données. Donc ce que nous-mêmes en tant qu'humains on a créé. Sauf qu'au bout d'un moment, si on n'a que des contenus qui sont produits par l'IA, l'IA va s'entraîner avec quoi ? Ses propres données, ses propres créations, entre guillemets. Du coup, il y a un moment donné où ça va poser souci, et c'est là qu'on va se retrouver avec les mêmes choses en boucle, et qu'on n'aura plus cette créativité et cette forme de nouveauté-là. Où là, on réutilise sans cesse les mêmes contenus, et c'est de plus en plus le cas, ce qui risque d'arriver aussi dans les contenus pédagogiques. Si on fait toujours la même chose, au bout d'un moment, on va tourner en rond. Et c'est pour ça, en fait, que, alors je reviens sur la question, comment est-ce qu'on prévient et on corrige les biais algorithmiques dans les parcours d'apprentissage ? Il y a des choses sur lesquelles, nous, en tant qu'individus lambda, formateurs, apprenants, profs, on ne peut pas faire. Par exemple, diversifier les sources d'entraînement des modèles. Nous, on ne conçoit pas le modèle d'IA, donc on ne peut pas le faire. Mais idéalement, les IA génératives, il faudrait qu'elles soient entraînées sur un corpus de données qui soit très varié, avec des sources diverses et variées, et des corpus qui... n'exclut pas toutes les perspectives. Ça, nous, on ne peut pas forcément le faire, la diversification des sources d'entraînement. Par contre, ce qu'on peut faire, nous, c'est introduire des garde-fous humains. C'est-à-dire qu'on sait aujourd'hui qu'un algorithme ne peut pas être totalement corrigé par un autre algorithme. C'est-à-dire que s'il y a des biais dans un algorithme, l'algorithme ne pourra pas le corriger à 100%. C'est pour ça que nous, en tant qu'êtres humains, on est référents, en fait, dans la supervision de tout ça. On est indispensables pour identifier les biais. Et ça, nous, en tant que personnes, on peut le faire. Si je vois une réponse... d'une intelligence artificielle qui est pleine de biais, dans ce cas-là, je peux réagir. Et surtout, encourager la co-construction des savoirs. Pas la construction, mais la co-construction. Plutôt que d'accepter de manière passive les recommandations de l'IA, c'est mieux qu'on soit encouragé à les questionner, à les affiner et à les compléter, et pas la prendre en tant que telle.

  • Speaker #1

    Ces quelques propos nous amènent naturellement à la question suivante. Est-ce possible de concevoir des intelligences artificielles éducatives qui favoriseraient... le développement de la pensée critique ?

  • Speaker #2

    Le mieux, ce serait carrément que l'IA, à la fin, dans sa réponse, nous pose d'autres questions pour ouvrir davantage la réflexion. Maintenant, encore une fois, c'est nous-mêmes qui serons maîtres de ce qui se passe. C'est-à-dire que si je ne veux pas répondre aux questions et que je ne veux pas m'interroger, je ne le fais pas. Maintenant, est-ce qu'on peut concevoir des IA éducatifs qui développent la pensée critique ? Je dirais que oui, mais il faut vraiment que ce soit développé de manière très spécifique. C'est-à-dire qu'on ne doit pas être sur une IA qui transmet juste du savoir, mais que ça doit, comme je l'ai dit, vraiment être un outil de questionnement et d'interaction. comme un être humain, finalement, en tout cas, se rapprocher au mieux. Et pour ça, il faudrait encourager la diversité des points de vue. C'est-à-dire que l'IA ne devrait pas donner juste une réponse unique, mais elle devrait proposer plusieurs interprétations d'un même sujet, plusieurs choses, pour ne pas enfermer l'étudiant, l'apprenant, la personne dans une espèce de bulle cognitive, en fait, où là, on risque, avec cet effet bulle cognitive, de trop enfermer l'apprenant dans un filtre algorithmique dont il n'a pas le contrôle, dont il n'a souvent même pas conscience. Et c'est pour ça qu'explorer des nouvelles idées avec l'IA, c'est très, très, très important. Et ça me ramène à la notion de sérendipité, qui est l'heureux hasard, l'heureuse découverte qu'on peut faire sur une connaissance, un savoir en particulier. Ça se retrouvait beaucoup sur les liens hypertextes. Je clique sur un lien hypertexte, ça me renvoie sur un autre, qui me renvoie sur un autre. Et là, je découvre des choses que je n'imaginais pas possibles. Et l'idéal, ce serait que ce soit pareil avec l'intelligence artificielle, que je puisse basculer d'un savoir à un autre qui sont liés, mais qui n'ont pas forcément d'atomes crochus, mais qui ont une espèce de lien. Et là, à ce moment-là, on favorise la sérendipité et du coup, la curiosité intellectuelle.

  • Speaker #1

    Et ce n'est pas le cas avec l'IA ?

  • Speaker #2

    En général, quand on a des réponses avec les outils d'IA, ça ne nous amène pas à demander une justification ou une réfutation de la part de l'IA. on prend la réponse comme elle est. Mais je pense que le modèle éducatif, lui, il devrait expliquer pourquoi est-ce qu'il a généré cette réponse-là, proposer systématiquement ses sources vérifiées, et pas n'importe lesquelles, et même, le mieux, ce serait qu'il puisse offrir des contre-arguments pour stimuler la réflexion. Pas juste aller dans le même sens, mais pousser la réflexion sur le pour et le contre. Ce qui serait bien aussi sur ces outils-là, c'est que ça stimule un petit peu tout ce qui est interaction et débat. C'est-à-dire que ça doit être comme un élément de discussion. Ce qui fait qu'on apprend souvent, c'est qu'on échange. On est confronté à différents points de vue. Et dans ce cas-là, ce serait intéressant que l'IA soit utilisée pour générer des scénarios ou même des dilemmes éthiques. Parce que comme ça, au moins, l'apprenant n'est pas conforté dans son idée, mais elle est confrontée à son idée. Et ça le pousse à argumenter à pourquoi son idée, il veut la justifier, et pourquoi est-ce qu'il pense que c'est la bonne. Donc, faire un espèce de système de débat avec l'IA, ce serait pas mal. Puis après, bon, bah... Ce qui serait sympa aussi, ce serait de développer des espèces d'outils d'auto-évaluation critique. À la fin du parcours d'apprentissage, l'IA pourrait poser des questions, mais ouvertes, cette fois-ci aux apprenants, et demander d'évaluer la pertinence de leur propre réponse. Plutôt que de donner des corrections comme ça immédiatement sur la réponse, challenger l'apprenant et demander à lui-même d'abord qu'est-ce que tu penses, et en fonction de ça, l'IA à ce moment-là peut l'accompagner dans son parcours d'apprentissage. Donc en fait, plutôt que de voir l'IA comme... Quelque chose qui délivre une vérité, un savoir tout cuit, tout prêt, tout propre, tout beau, faudrait plutôt le voir comme une forme de catalyseur de raisonnement. Une IA qui devrait plutôt pousser à la mise en perspective, et aussi, et c'est essentiel, à la remise en question des informations. Je dis toujours à mes étudiants, doutez ces biens. Essayez toujours et remettez toujours en question ce qu'on vous dit, pas à l'excès, mais en tout cas, questionnez-vous toujours sur ce qu'on vous dit. Est-ce que... Il y a des arguments qui sont valables, est-ce que ça résonne en vous ? Est-ce que ça fait sens ? Est-ce que ça vous paraît étrange ? C'est à ce moment-là que vous allez pousser la réflexion. Donc le doute, c'est important et ça vaut pour tout.

  • Speaker #1

    Comment fait-on maintenant pour passer à l'acte ? Quels principes, quelles bonnes pratiques les formateurs peuvent-ils adopter pour intégrer l'intelligence artificielle de manière éthique en pédagogie ?

  • Speaker #2

    La première chose que je conseille à chaque fois, c'est de se former correctement. Par se former correctement, j'entends ne pas se former que sur la manière dont on utilise l'outil. mais sur tous les points que j'ai abordés précédemment. Donc c'est sur les risques, les biais, les enjeux, mais aussi les opportunités. Ce que je fais souvent, et ce que j'encourage très très très très fortement, c'est de mettre en place une charte éthique de l'usage de l'IA. Pourquoi ? Parce qu'à ce moment-là, on a une réflexion qui est peut-être quelque part individuelle, mais surtout collective, sur la manière dont on va utiliser l'IA, soit une organisation, soit une entreprise, soit une école, soit bref. La manière dont on va utiliser l'IA, cette charte éthique-là, Elle permet de poser un cadre, de savoir qu'est-ce qui se fait, qu'est-ce qui se fait pas, dans quel cadre je peux l'utiliser, dans quel cadre je ne peux pas l'utiliser et pourquoi. Et puis, en fait, comment est-ce que j'encourage cet usage responsable-là ? En fait, une charte éthique, c'est un document qui est quand même assez conséquent, si on veut le faire correctement, qui reprend en fait tout le contexte de notre situation, de notre établissement, de notre entreprise et qui ensuite... fait en fait fabrique ses propres règles. Parce que comme je l'ai dit, l'éthique n'est pas universelle et l'éthique ne s'applique pas de la même manière partout. Donc c'est à nous de rédiger notre propre charte éthique. Maintenant, si j'ai d'autres conseils à donner pour l'usage de l'IA pour les profs, par exemple, de l'utiliser de manière raisonnée, de toujours contextualiser les résultats qu'on a de l'IA. Comme je l'ai dit, ça ne doit jamais être une vérité absolue, mais vraiment juste un levier pour nous aider. Et on doit toujours encourager la vérification des réponses et surtout notre esprit critique.

  • Speaker #1

    Mais une fois que l'intelligence artificielle est présente, C'est pas un peu difficile ?

  • Speaker #2

    En fait, l'intégration, elle, elle doit être progressive. C'est-à-dire que je ne dois pas donner un outil d'IA et dire, maintenant tu l'utilises et puis on voit ce qui se passe. C'est d'abord, on observe, comment est-ce que les apprenants vont réagir avec ce nouvel outil ? Qu'est-ce que ça va amener sur leur engagement et leur réflexion ? Et à ce moment-là, on va un petit peu ajuster en fonction des retours. C'est comme un prof qui fait ça à chaque fois, il donne un exercice ou une consigne. ou il fait une pédagogie alternative innovante, il voit ce que ça donne et puis il adapte en fonction. Mais là, c'est pareil. C'est pour ça, ne pas utiliser l'IA comme un outil de vérité générale ou comme l'outil magique suprême qui va l'aider à tout faire. Je répète encore une fois, on est maître de l'IA. L'IA ne nous contrôle pas, c'est nous qui la contrôlons. Et ça, on peut le faire uniquement si on est pleinement conscient des enjeux sociaux, sociétaux et des biais cognitifs parce que... Bon, je tergiverse un peu, mais... Il y a les biais algorithmiques dans l'IA, mais il y a nos propres biais cognitifs qui se reflètent sur l'algorithme, et l'algorithme qui se reflète sur nous. Donc en fait, c'est un peu un jeu de ping-pong. Il ne faut pas oublier que nous-mêmes, on n'est pas exemptes de biais, et que ça se retrouve forcément dans les réponses de l'IA, de la manière dont on l'interprète. Et ça aussi, c'est important que... les apprenants et les profs et les formateurs soient formés au fait qu'on a nos propres biais cognitifs, et que si on ne les a pas compris, on ne peut pas les maîtriser. Et à ce moment-là, ça va avoir un impact sur la manière dont on les utilise. Donc en fait, ce que je dirais pour conclure, c'est que l'intégration d'une IA éthique ou d'une éthique de l'IA, ce n'est pas uniquement en rapport avec la technologie en elle-même, mais surtout sur la posture pédagogique qu'on va adopter. Et l'objectif, c'est toujours de faire en sorte que... l'outil soit au service de l'humain et du savoir, mais pas que ce soit une finalité en soi.

  • Speaker #1

    Nous avons une tradition dans Learning Coach, c'est de laisser le mot de la fin à nos invités.

  • Speaker #2

    Je dirais finalement que n'oubliez pas qui vous êtes, n'oubliez pas que toute technologie doit être au service de l'être humain et doit être au service de notre propre bien-être et que ce doit être quelque chose qui nous élève et non pas qui nous fait aller en arrière ou qui nous impose des contraintes trop difficiles à accepter et que... Et que oui, c'est nous qui sommes maîtres de l'intelligence artificielle et que pour chaque technologie qui arrive, on doit toujours se questionner. Mais en tout cas, ce qui est sûr, c'est que c'est un outil qui est formidable et bien utilisé, ça fait vraiment des merveilles.

  • Speaker #1

    Un grand merci Amélie pour votre précieuse participation. Merci à vous aussi, chers auditeurs, pour votre écoute et votre fidélité renouvelée. Vous retrouverez cet épisode, comme tous ceux qui l'ont précédé, sur le site internet trendy.io, sur nos réseaux sociaux et sur l'ensemble des plateformes d'écoute. À très bientôt pour un prochain épisode.

  • Speaker #0

    Vous souhaitez intégrer l'intelligence artificielle dans vos pratiques pédagogiques ? Visitez le site de Trendy, www.trendy.io, pour découvrir la fresque des IA pédagogiques et nos solutions d'accompagnement.

Share

Embed

You may also like

Description

Amélie Raoul, doctorante en IA générative et formatrice spécialisée, aborde les enjeux éthiques liés à l'intégration de l'IA en pédagogie, notamment les biais algorithmiques, les impacts sociétaux et la relation homme-machine, avec une attention particulière portée aux jeunes générations. Elle envisage l'IA comme un outil puissant pour la personnalisation des apprentissages et l’immersion pédagogique via des scénarios utilisant la réalité augmentée. Selon elle, les enseignants verront leur rôle évoluer vers une médiation critique, intégrant des évaluations basées sur l’analyse des processus cognitifs des élèves. Amélie insiste sur l’importance d’un cadre éthique clair, incluant équité, transparence, protection des données, et propose des pistes concrètes telles que l'élaboration collective d'une charte éthique et la formation approfondie des acteurs pédagogiques pour une utilisation raisonnée et humaine de l’IA.


Retrouvez toutes les ressources gratuites créées par Traindy pour la communauté pédagogique sur www.traindy.io.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités, mais aussi les défis que l'IA soulève.

  • Speaker #1

    Bienvenue dans ce nouvel épisode de la saison 2 de Learning Coach, un épisode au cours duquel nous allons aborder la question cruciale de l'éthique alors que l'intelligence artificielle est de plus en plus utilisée en contexte pédagogique. Et pour cela, nous avons l'invité idéal que nous allons laisser se présenter maintenant.

  • Speaker #2

    Moi, je m'appelle Amélie Raoul et je suis doctorante en intelligence artificielle générative dans le domaine des sciences de l'information et de la communication. Et en fait, ma thèse, le sujet, c'est... les intelligences artificielles génératives et les pratiques informationnelles des jeunes vers un nouveau paradigme d'accès et de production de l'information. Et j'étudie ces questions-là avec un focus sur les enjeux éthiques, sociaux et sociétaux, sur les bialgoritmiques notamment, mais aussi sur la relation homme-machine, ce qu'on appelle l'anthropomorphisation de l'IA, et les impacts que ça peut avoir sur les plus jeunes, et qui seront en fait les futurs adultes de demain. Donc c'est pour ça que c'est important d'étudier la question, pour ensuite mettre en place des bonnes pratiques et bien aussi réfléchir. à comment est-ce qu'eux perçoivent l'IA, l'imaginent et leurs usages au quotidien. En même temps, je suis enseignante en business school, donc tout ce qui est projets digitaux, numériques, intelligence artificielle. Et j'ai aussi ma propre agence de conseil et formation en IA, où j'accompagne les entreprises et les institutions dans le déploiement et l'adoption de solutions d'intelligence artificielle. Et en même temps, je suis formatrice en IA auprès de différentes structures de formation.

  • Speaker #1

    Nous aimons demander à tous nos invités comment ils imaginent l'évolution des pratiques pédagogiques grâce à l'intelligence artificielle, et ce... dans un avenir relativement proche, dans 5 ans par exemple ?

  • Speaker #2

    Je ne me suis pas positionnée réellement sur la question parce que je suis pour et en même temps je suis contre l'usage de l'IA dans la pédagogie. C'est-à-dire que je trouve que c'est un merveilleux levier, un merveilleux outil, mais que si ce n'est pas utilisé correctement, ça fait des ravages. Là où ça me pose question aussi, est-ce qu'il y a une différence dans la manière dont utilise l'IA pour les élèves qui sont âgés de 13 à 18 ans et la manière dont ils l'utilisent quand ils ont 18 à 25 ans ? Donc dans le secondaire et dans le supérieur. C'est pas tout à fait la même chose et je pense qu'il y a un niveau de la construction de notre manière de réfléchir et de la manière dont on apprend, ça va avoir un véritable impact. Donc moi j'arrive pas à me positionner sur la question maintenant comment je l'imagine dans 5 ans. Il y a un pays en Europe qui a déjà mis en place l'intelligence artificielle au sein de l'éducation. Et c'est OpenAI qui a fait un contrat avec eux justement. Mais eux c'est beaucoup dans le second degré, donc collège et lycée. Moi je vois ça vraiment comme plutôt des assistants IA qui seront... très interactifs, plutôt sous forme de chatbots, et plutôt qu'un outil comme ChatGPT qui génère du contenu par rapport à ce qu'on lui demande, on aura des IA qui seront plus capables d'adapter leur discours aux spécificités de chacun, donc de chaque apprenant, en détectant en temps réel leur force, mais aussi leur lacune. Et à ce moment-là, ils pourront probablement proposer des contenus qui sont plus personnalisés, et ajuster surtout le niveau de complexité, en fonction de la progression de l'étudiant. Il y a un monde aussi où je vois des classes hybrides un peu augmentées. où là on aura la possibilité de générer des scénarios pédagogiques plus immersifs, par exemple via la réalité augmentée. Je sais que moi quand j'étais dans le second degré, que j'étais au collège, j'avais acheté un casque de réalité virtuelle, où je faisais des exercices en fait avec mes élèves, où on étudiait l'histoire, on étudiait les formes, on étudiait la peinture, on étudiait beaucoup de choses, et c'était très immersif pour eux, et ça a complètement chamboulé leur manière d'apprendre, et surtout leur motivation scolaire, qui est un élément qui est extrêmement important, et qui est une question qui est toujours compliquée. à répondre parce que qu'est-ce qui fait qu'un élève est motivé pour apprendre, qu'est-ce qui lui donne envie ? Je pense qu'à ce niveau-là, Lydia, elle sera capable de booster un peu leur envie de découvrir les choses et leur envie d'intégrer des savoirs.

  • Speaker #1

    Et pour les professeurs ?

  • Speaker #2

    Maintenant, pour les profs, je pense que ça va aussi beaucoup changer la manière dont ils évaluent les élèves. Parce que là, aujourd'hui, remplir un bulletin de notes ou remplir des évaluations, c'est long, c'est fastidieux, et ça demande de repenser à chaque fois à qui est cet élève, qu'est-ce qu'il a fait, c'est quoi son niveau, pourquoi, comment. Or là, je pense que... on aura une aide supplémentaire et plutôt que d'avoir des examens qui seront ponctuels et figés, on pourra avoir des évaluations qui seront plus continues et basées sur l'apprentissage et l'évolution encore une fois de l'apprenant, surtout dans les tâches qui sont complexes. Et dans ce cas-là, j'imagine, je pense que l'IALE pourra aussi analyser les stratégies de raisonnement de l'étudiant ou de l'apprenant et pas juste les résultats finaux. Nous, quand on est prof, on évalue le résultat final, mais on n'est pas capable d'évaluer en temps réel la réflexion. tout le chemin qu'il y a eu jusqu'au... enfin le raisonnement, quoi, qu'il y a eu jusqu'au résultat. Et là, je pense, j'imagine qu'avec ces outils d'IA, on pourra complètement analyser le raisonnement. Après, c'est une question un peu difficile pour le prof, pour l'enseignant aussi, parce que ça remet un petit peu en question sa posture. qui est-il finalement dans tout ça, qu'est-ce qu'il peut apporter, quel est son rôle final. Moi, je pense qu'il conservera son rôle, mais qu'il deviendra aussi un médiateur. Et que ce sera à lui de guider les étudiants dans l'usage, mais un usage critique, et surtout un usage qui est éthique. Et à ce moment-là, ce ne sera plus juste transmettre un savoir figé, mais ça va être structurer la pensée et aider à exploiter l'IA pour que ça devienne un outil plus d'intelligence collective.

  • Speaker #1

    Et vous ? Amélie, auriez-vous à partager avec nos auditeurs un outil ou une pratique intégrée dans vos pratiques pédagogiques impliquant bien entendu l'intelligence artificielle ?

  • Speaker #2

    Oui, moi je vais donner un outil qui est très simple et que beaucoup utilisent, c'est ChatGPT. Pour moi, c'est un petit peu ma pierre angulaire de ma construction pédagogique parce que ça me sert en fait à personnaliser au maximum mes scénarios pédagogiques. Par exemple, quand je forme des entreprises, je vais donner les informations précises de l'entreprise. et je vais pouvoir générer des cas d'études adaptés directement à l'entreprise. Parce que ce n'est pas forcément facile de rentrer dans une entreprise qu'on ne connaît pas, et ça permet de générer des cas d'études qui vont permettre ensuite de donner en exercice directement à mes formés. Et pareil pour mes étudiants, quand je suis en classe avec eux, j'utilise vraiment comme un outil de co-construction. Pareil, en fonction du profil de l'élève, et de la matière, et du moment où il en est dans les consignes, ça va me permettre d'adapter un petit peu le contenu, et surtout je l'utilise aussi. beaucoup pour mes étudiants, en termes d'exercices surtout. Je les fais challenger l'IA à chaque fois, et donc c'est un outil et pour moi, mais aussi pour mes étudiants.

  • Speaker #1

    Est-ce qu'on peut prendre un exemple et le développer ?

  • Speaker #2

    Là, par exemple, j'ai dû intervenir dans une entreprise qui faisait beaucoup d'administratifs. Moi, je n'ai pas un profil où je suis administrative, je ne suis pas vraiment dans les démarches, les processus comme ça. Et j'avais besoin, pour un exercice de prompt engineering, d'avoir un document généré en amont. sur des procédures administratives en entreprise. Et comme ce n'est pas mon domaine d'expertise, j'ai donné à ChatGPT mes consignes avec un contexte très précis et je lui ai demandé de me générer un exemple concret de document qu'on peut retrouver dans l'administratif, dans cette entreprise en particulier. Et là, il me l'a généré et j'ai pu le réutiliser directement auprès de mes formés pour avoir quelque chose qui leur ressemble, qui soit directement applicable comme un levier.

  • Speaker #1

    Venons-en maintenant au cœur de notre épisode pour parler d'éthique. et il est forcément nécessaire pour bien commencer de se demander ce que l'on peut entendre par éthique dans le cadre de l'usage de l'intelligence artificielle en pédagogie.

  • Speaker #2

    Alors déjà, juste pour rappeler rapidement que ce qu'on entend par éthique, en très gros, c'est de dire qu'est-ce qui est bien, qu'est-ce qui est mal, qu'est-ce qui se fait, qu'est-ce qui ne se fait pas, qu'est-ce qu'on accepte et qu'est-ce qu'on n'accepte pas. Sachant que l'éthique, ce n'est pas universel, chacun a sa propre éthique, en fonction de l'endroit où on a grandi, de notre culture, de nos valeurs. ce qui fait qu'on ne pourra jamais avoir la même éthique que quelqu'un d'autre. C'est impossible. Par contre, on peut établir un cadre éthique, notamment dans l'usage de l'IA en pédagogie. Il y a plusieurs critères qui font qu'une IA peut être considérée comme éthique ou au moins que l'usage qu'on en fait soit éthique. Il y a déjà un point qui est très important, c'est l'équité. On sait que l'IA n'est pas neutre, c'est-à-dire qu'elle est le miroir des propres inégalités de notre société et qu'elle est amplificateur de ces inégalités-là. Et pour s'assurer qu'elles ne reproduisent pas ces inégalités, il faut s'assurer qu'elles soient équitables et qu'elles ne renforcent pas les inégalités d'accès à l'éducation. Au contraire, et qu'elles ne favorisent pas certains groupes au détriment d'autres. Puisque comme tout ça est basé sur un système algorithmique, en fonction des données d'entrée et des données sur lesquelles ça a été entraîné, on peut avoir des résultats parfois qui sont complètement biaisés. Donc c'est important en fait la notion d'équité. En deuxième point, je dirais que l'autonomie des étudiants, c'est un point critique. C'est-à-dire que ça ne doit pas être un substitut à la pensée critique et à l'apprentissage actif, surtout, mais que l'enjeu principal, en fait, c'est de trouver un équilibre entre l'outil comme assistance et l'autonomie. Parce qu'on ne peut pas remplacer entièrement une réflexion par un outil qui va faire le travail à notre place. Et on a aussi la notion de transparence qui va de pair avec l'explicabilité. C'est-à-dire qu'on doit pouvoir expliquer aux étudiants et aux enseignants Comment fonctionne le modèle d'intelligence artificielle ? Quels sont les modèles qui ont été utilisés ? Qu'ils puissent eux-mêmes en fait en évaluer les limites. Qu'ils sachent parfaitement ce à quoi ils sont confrontés. Il ne faut pas que ce soit opaque, il ne faut pas qu'il y ait une boîte noire inexplicable. Un autre enjeu qui est très important et dont on parle énormément, c'est la protection des données. Surtout quand on touche aux mineurs, donc aux élèves, on ne peut pas faire n'importe quoi avec les données. Et le truc avec les IA, c'est qu'elles collectent et qu'elles traitent... énormément de données, dont beaucoup de données personnelles. Ce qui fait que leur utilisation dans le contexte éducatif, ça demande d'être hyper vigilant, pas que sur la confidentialité, mais aussi sur la souveraineté des données. C'est-à-dire que l'endroit où est stocké les données, c'est très important. Il faut que ça reste dans un territoire comme le nôtre par exemple, qui est régi par des règles et des réglementations qui encadrent l'utilisation de ces données personnelles. On a la CNIL en France, il y a le RGPD, il y a l'IA Act, toutes ces réglementations-là font qu'en principe nos données sont censées être protégées. Et enfin, dernier point, par rapport aux méthodes pédagogiques, l'IA ne doit pas imposer une standardisation et une uniformisation excessive des apprentissages et des savoirs, et elle ne doit pas non plus déshumaniser la relation entre l'enseignant et l'apprenant. Il ne faut pas que le prof se sente remplacé par l'IA et il ne faut pas que ça soit un substitut total à la manière dont on transmet nos savoirs. Parce que c'est important qu'on comprenne que l'IA est un outil, mais que l'humain doit être replacé au cœur de ses usages. Et c'est ça aussi l'éthique de l'intelligence artificielle, c'est replacer l'humain au cœur des réflexions et au cœur de nos utilisations. Donc en fait, si je devrais résumer l'éthique de l'IA en pédagogie, ce serait garantir une intégration qui favorise... l'émancipation intellectuelle, mais aussi l'inclusion, et évidemment en limitant les risques liés au bialgorithmique, mais aussi à la dépendance technologique, et évidemment au lien aussi qu'on a dit relation homme-machine, faire attention à ce qu'il n'y ait pas trop de lien émotionnel dans la manière dont on utilise l'IA.

  • Speaker #1

    Quand on parle d'éthique, on pointe souvent du doigt la machine. Elle tiendrait comme dans les films le rôle du méchant. Mais puisqu'elle s'alimente de nos données, ne fait-elle pas que nous renvoyer notre propre reflet, notre propre image ? L'éthique ne s'applique-t-elle pas d'abord à nous-mêmes ?

  • Speaker #2

    Alors, parfait. Ça, c'est une question qui est parfaite, parce que je commence toujours, quand j'explique des choses par rapport à l'IA, en entrant par cette porte-là. Je ne rentre jamais par la porte de l'outil parce que je trouve que ça ne fait aucun sens. Ça ne sert à rien d'utiliser un outil, surtout un outil. Enfin, une IA, si on n'est pas capable de comprendre, déjà qu'on est nous-mêmes à l'initiative, de l'usage qu'on en fait. C'est pas l'IA qui nous contrôle, c'est nous qui contrôlons l'IA. Et ça, on a tendance à l'oublier. C'est pour ça que je disais tout à l'heure... Le pouvoir décisionnel de l'IA, c'est un point qui est important. Il ne faut pas qu'on laisse l'IA prendre des décisions à notre place, mais ce n'est pas l'IA qui nous force à faire quelque chose. C'est nous-mêmes qui sommes maîtres de nos propres décisions. Donc quand on forme des étudiants, des élèves, des adultes, n'importe qui, moi j'estime qu'il ne faut pas rentrer par la porte de l'outil en disant « voilà ce que tu vas pouvoir faire avec l'IA, voilà ça c'est de la révolution, c'est incroyable, tu pourras faire ci, tu pourras faire ça » . C'est plutôt d'abord rentrer par « qu'est-ce que c'est l'IA ? » Tu es maître de l'IA, c'est toi qui la contrôles. Donc, il y a la notion de responsabilité aussi. Les résultats qui sont donnés par ChatGPT, qui en est responsable ? Est-ce que c'est les concepteurs ? Est-ce que c'est l'IA en elle-même ? Est-ce que c'est moi, l'usager, qui récupère les réponses ? Parce que c'est moi qui ai formulé le prompt aussi. En fait, je pense que quand on forme les gens, c'est important de toujours rentrer par l'éthique. Mais pas par l'éthique pure, comme je l'ai évoqué tout à l'heure, mais vraiment sur s'interroger sur qu'est-ce qu'on fait avec. Et ben... Est-ce qu'on l'utilise correctement ? Et rappelez que c'est un outil en fait, c'est nous-mêmes qui sommes maîtres.

  • Speaker #1

    J'aimerais pour compléter notre propos qu'on s'attarde encore un petit moment sur le sujet de la protection des données. On utilise la plupart des intelligences artificielles en rédigeant des promptes textuelles, donc les intelligences artificielles savent lire, mais elles savent écouter, et elles savent voir. N'est-ce pas un peu vain d'évoquer la protection des données, alors que finalement il semblerait que toutes les digues aient cédé ?

  • Speaker #2

    En fait, la réflexion que vous avez faite au début est très bonne. C'est-à-dire que là, vous dites, je suis capable de lui montrer des images, je suis capable de lui parler, je lui partage beaucoup d'informations personnelles. Il y a un truc que je trouve extrêmement, soit inconscient, soit hypocrite, mais quand on a un smartphone qui est arrivé déjà depuis plusieurs années, et qu'on a inscrit sur un site, un réseau social, qu'on a WhatsApp, qu'on a Messenger, qu'on a Essie et ça, ça revient exactement... au même, c'est à dire que Meta, il a accès à nos... enfin le groupe Meta a accès à nos conversations sur Messenger, à nos photos, et d'ailleurs la plupart des sites quand on se connecte dessus ou de l'application, ils nous demandent l'accès à nos photos et à nos vidéos. Bah finalement est-ce que ça reviendrait pas au même ? Parce que là on s'inquiète beaucoup de... je donne des informations à l'IA, ok mais quand je remplis mon genre, mon âge, ma taille, mon poids, que j'ai une montre connectée qui calcule mon rythme cardiaque et qui sait exactement où je vais, mon GPS qui sait que chez moi c'est ici... et que je vais au travail là-bas, et que j'y vais à 8h05 et que je rentre à 17h30, en fait finalement c'est un petit peu la même chose. L'avantage qu'on a avec l'IA par contre, c'est qu'on peut contrôler ce qu'on montre. Si je ne veux pas partager telle info, je ne le fais pas. Par contre mon GPS, lui, il est obligé, il sait où je suis. Vu qu'on en parle beaucoup, en fait, on a tendance à oublier que ça existait déjà. Et comme je disais, là on a l'avantage de pouvoir choisir ce qu'on dit et de choisir ce qu'on montre. Maintenant la différence, d'un point de vue opérationnel, c'est-à-dire nous en tant qu'usagers, Si je pose la question à ChatGPT, peux-tu analyser mon profil psychologique ? Il va me sortir une analyse psychologique hyper précise par rapport à tout ce qu'il a enregistré sur moi. Mais parce que j'y ai accès, je vois que ChatGPT peut me répondre. Et je vois que ChatGPT peut m'analyser. Mais les entreprises tierces qui ont mes données personnelles, elles l'ont fait aussi ce travail-là, sauf que je ne l'ai pas vu. Donc en fait, ça revient un petit peu à la même chose. Donc est-ce qu'il y a un moyen d'assurer une meilleure transparence de tout ça ? Je pense que ça commence déjà par nos propres usages. C'est moi-même qui décide de ce que je partage. Alors certes, c'est un outil qui est super, il y en a que ça dérange, il y en a que ça ne dérange pas. Il y en a qui s'en fichent de partager leurs données, d'autres, c'est fondamental de protéger tout ça et que ce ne soit pas trop intrusif. pour la transparence, il faut qu'on sache où sont stockées les données, il faut qu'on sache ce qu'en fait l'entreprise, est-ce que c'est à but commercial, est-ce que c'est pour la publicité, je ne sais pas, quel est leur but derrière tout ça, que ce soit affiché clairement, surtout. Parce que là, les petites lignes écrites en tout petit, quand on télécharge une application qu'on n'arrive pas à lire parce que ça fait 4 km de long, ça n'arrange personne. Par contre, si c'est écrit noir sur blanc en deux phrases, vos données sont enregistrées et elles vont ici, à usage précis, là déjà, je sais un petit peu plus.

  • Speaker #1

    Revenons aux apprentissages. Comment s'assurer que l'intelligence artificielle favorise la personnalisation de ces derniers plutôt que de les standardiser ? Et par voie de conséquence, comment prévenir et corriger des biais algorithmiques dans les parcours d'apprentissage ?

  • Speaker #2

    C'est très intéressant parce que par rapport à la standardisation et l'uniformisation, il y a un point dont on ne parle pas très souvent mais qui commence à apparaître, c'est que là on produit beaucoup de contenu avec l'intelligence artificielle. Sauf que l'intelligence artificielle s'entraîne sur nos propres données. Donc ce que nous-mêmes en tant qu'humains on a créé. Sauf qu'au bout d'un moment, si on n'a que des contenus qui sont produits par l'IA, l'IA va s'entraîner avec quoi ? Ses propres données, ses propres créations, entre guillemets. Du coup, il y a un moment donné où ça va poser souci, et c'est là qu'on va se retrouver avec les mêmes choses en boucle, et qu'on n'aura plus cette créativité et cette forme de nouveauté-là. Où là, on réutilise sans cesse les mêmes contenus, et c'est de plus en plus le cas, ce qui risque d'arriver aussi dans les contenus pédagogiques. Si on fait toujours la même chose, au bout d'un moment, on va tourner en rond. Et c'est pour ça, en fait, que, alors je reviens sur la question, comment est-ce qu'on prévient et on corrige les biais algorithmiques dans les parcours d'apprentissage ? Il y a des choses sur lesquelles, nous, en tant qu'individus lambda, formateurs, apprenants, profs, on ne peut pas faire. Par exemple, diversifier les sources d'entraînement des modèles. Nous, on ne conçoit pas le modèle d'IA, donc on ne peut pas le faire. Mais idéalement, les IA génératives, il faudrait qu'elles soient entraînées sur un corpus de données qui soit très varié, avec des sources diverses et variées, et des corpus qui... n'exclut pas toutes les perspectives. Ça, nous, on ne peut pas forcément le faire, la diversification des sources d'entraînement. Par contre, ce qu'on peut faire, nous, c'est introduire des garde-fous humains. C'est-à-dire qu'on sait aujourd'hui qu'un algorithme ne peut pas être totalement corrigé par un autre algorithme. C'est-à-dire que s'il y a des biais dans un algorithme, l'algorithme ne pourra pas le corriger à 100%. C'est pour ça que nous, en tant qu'êtres humains, on est référents, en fait, dans la supervision de tout ça. On est indispensables pour identifier les biais. Et ça, nous, en tant que personnes, on peut le faire. Si je vois une réponse... d'une intelligence artificielle qui est pleine de biais, dans ce cas-là, je peux réagir. Et surtout, encourager la co-construction des savoirs. Pas la construction, mais la co-construction. Plutôt que d'accepter de manière passive les recommandations de l'IA, c'est mieux qu'on soit encouragé à les questionner, à les affiner et à les compléter, et pas la prendre en tant que telle.

  • Speaker #1

    Ces quelques propos nous amènent naturellement à la question suivante. Est-ce possible de concevoir des intelligences artificielles éducatives qui favoriseraient... le développement de la pensée critique ?

  • Speaker #2

    Le mieux, ce serait carrément que l'IA, à la fin, dans sa réponse, nous pose d'autres questions pour ouvrir davantage la réflexion. Maintenant, encore une fois, c'est nous-mêmes qui serons maîtres de ce qui se passe. C'est-à-dire que si je ne veux pas répondre aux questions et que je ne veux pas m'interroger, je ne le fais pas. Maintenant, est-ce qu'on peut concevoir des IA éducatifs qui développent la pensée critique ? Je dirais que oui, mais il faut vraiment que ce soit développé de manière très spécifique. C'est-à-dire qu'on ne doit pas être sur une IA qui transmet juste du savoir, mais que ça doit, comme je l'ai dit, vraiment être un outil de questionnement et d'interaction. comme un être humain, finalement, en tout cas, se rapprocher au mieux. Et pour ça, il faudrait encourager la diversité des points de vue. C'est-à-dire que l'IA ne devrait pas donner juste une réponse unique, mais elle devrait proposer plusieurs interprétations d'un même sujet, plusieurs choses, pour ne pas enfermer l'étudiant, l'apprenant, la personne dans une espèce de bulle cognitive, en fait, où là, on risque, avec cet effet bulle cognitive, de trop enfermer l'apprenant dans un filtre algorithmique dont il n'a pas le contrôle, dont il n'a souvent même pas conscience. Et c'est pour ça qu'explorer des nouvelles idées avec l'IA, c'est très, très, très important. Et ça me ramène à la notion de sérendipité, qui est l'heureux hasard, l'heureuse découverte qu'on peut faire sur une connaissance, un savoir en particulier. Ça se retrouvait beaucoup sur les liens hypertextes. Je clique sur un lien hypertexte, ça me renvoie sur un autre, qui me renvoie sur un autre. Et là, je découvre des choses que je n'imaginais pas possibles. Et l'idéal, ce serait que ce soit pareil avec l'intelligence artificielle, que je puisse basculer d'un savoir à un autre qui sont liés, mais qui n'ont pas forcément d'atomes crochus, mais qui ont une espèce de lien. Et là, à ce moment-là, on favorise la sérendipité et du coup, la curiosité intellectuelle.

  • Speaker #1

    Et ce n'est pas le cas avec l'IA ?

  • Speaker #2

    En général, quand on a des réponses avec les outils d'IA, ça ne nous amène pas à demander une justification ou une réfutation de la part de l'IA. on prend la réponse comme elle est. Mais je pense que le modèle éducatif, lui, il devrait expliquer pourquoi est-ce qu'il a généré cette réponse-là, proposer systématiquement ses sources vérifiées, et pas n'importe lesquelles, et même, le mieux, ce serait qu'il puisse offrir des contre-arguments pour stimuler la réflexion. Pas juste aller dans le même sens, mais pousser la réflexion sur le pour et le contre. Ce qui serait bien aussi sur ces outils-là, c'est que ça stimule un petit peu tout ce qui est interaction et débat. C'est-à-dire que ça doit être comme un élément de discussion. Ce qui fait qu'on apprend souvent, c'est qu'on échange. On est confronté à différents points de vue. Et dans ce cas-là, ce serait intéressant que l'IA soit utilisée pour générer des scénarios ou même des dilemmes éthiques. Parce que comme ça, au moins, l'apprenant n'est pas conforté dans son idée, mais elle est confrontée à son idée. Et ça le pousse à argumenter à pourquoi son idée, il veut la justifier, et pourquoi est-ce qu'il pense que c'est la bonne. Donc, faire un espèce de système de débat avec l'IA, ce serait pas mal. Puis après, bon, bah... Ce qui serait sympa aussi, ce serait de développer des espèces d'outils d'auto-évaluation critique. À la fin du parcours d'apprentissage, l'IA pourrait poser des questions, mais ouvertes, cette fois-ci aux apprenants, et demander d'évaluer la pertinence de leur propre réponse. Plutôt que de donner des corrections comme ça immédiatement sur la réponse, challenger l'apprenant et demander à lui-même d'abord qu'est-ce que tu penses, et en fonction de ça, l'IA à ce moment-là peut l'accompagner dans son parcours d'apprentissage. Donc en fait, plutôt que de voir l'IA comme... Quelque chose qui délivre une vérité, un savoir tout cuit, tout prêt, tout propre, tout beau, faudrait plutôt le voir comme une forme de catalyseur de raisonnement. Une IA qui devrait plutôt pousser à la mise en perspective, et aussi, et c'est essentiel, à la remise en question des informations. Je dis toujours à mes étudiants, doutez ces biens. Essayez toujours et remettez toujours en question ce qu'on vous dit, pas à l'excès, mais en tout cas, questionnez-vous toujours sur ce qu'on vous dit. Est-ce que... Il y a des arguments qui sont valables, est-ce que ça résonne en vous ? Est-ce que ça fait sens ? Est-ce que ça vous paraît étrange ? C'est à ce moment-là que vous allez pousser la réflexion. Donc le doute, c'est important et ça vaut pour tout.

  • Speaker #1

    Comment fait-on maintenant pour passer à l'acte ? Quels principes, quelles bonnes pratiques les formateurs peuvent-ils adopter pour intégrer l'intelligence artificielle de manière éthique en pédagogie ?

  • Speaker #2

    La première chose que je conseille à chaque fois, c'est de se former correctement. Par se former correctement, j'entends ne pas se former que sur la manière dont on utilise l'outil. mais sur tous les points que j'ai abordés précédemment. Donc c'est sur les risques, les biais, les enjeux, mais aussi les opportunités. Ce que je fais souvent, et ce que j'encourage très très très très fortement, c'est de mettre en place une charte éthique de l'usage de l'IA. Pourquoi ? Parce qu'à ce moment-là, on a une réflexion qui est peut-être quelque part individuelle, mais surtout collective, sur la manière dont on va utiliser l'IA, soit une organisation, soit une entreprise, soit une école, soit bref. La manière dont on va utiliser l'IA, cette charte éthique-là, Elle permet de poser un cadre, de savoir qu'est-ce qui se fait, qu'est-ce qui se fait pas, dans quel cadre je peux l'utiliser, dans quel cadre je ne peux pas l'utiliser et pourquoi. Et puis, en fait, comment est-ce que j'encourage cet usage responsable-là ? En fait, une charte éthique, c'est un document qui est quand même assez conséquent, si on veut le faire correctement, qui reprend en fait tout le contexte de notre situation, de notre établissement, de notre entreprise et qui ensuite... fait en fait fabrique ses propres règles. Parce que comme je l'ai dit, l'éthique n'est pas universelle et l'éthique ne s'applique pas de la même manière partout. Donc c'est à nous de rédiger notre propre charte éthique. Maintenant, si j'ai d'autres conseils à donner pour l'usage de l'IA pour les profs, par exemple, de l'utiliser de manière raisonnée, de toujours contextualiser les résultats qu'on a de l'IA. Comme je l'ai dit, ça ne doit jamais être une vérité absolue, mais vraiment juste un levier pour nous aider. Et on doit toujours encourager la vérification des réponses et surtout notre esprit critique.

  • Speaker #1

    Mais une fois que l'intelligence artificielle est présente, C'est pas un peu difficile ?

  • Speaker #2

    En fait, l'intégration, elle, elle doit être progressive. C'est-à-dire que je ne dois pas donner un outil d'IA et dire, maintenant tu l'utilises et puis on voit ce qui se passe. C'est d'abord, on observe, comment est-ce que les apprenants vont réagir avec ce nouvel outil ? Qu'est-ce que ça va amener sur leur engagement et leur réflexion ? Et à ce moment-là, on va un petit peu ajuster en fonction des retours. C'est comme un prof qui fait ça à chaque fois, il donne un exercice ou une consigne. ou il fait une pédagogie alternative innovante, il voit ce que ça donne et puis il adapte en fonction. Mais là, c'est pareil. C'est pour ça, ne pas utiliser l'IA comme un outil de vérité générale ou comme l'outil magique suprême qui va l'aider à tout faire. Je répète encore une fois, on est maître de l'IA. L'IA ne nous contrôle pas, c'est nous qui la contrôlons. Et ça, on peut le faire uniquement si on est pleinement conscient des enjeux sociaux, sociétaux et des biais cognitifs parce que... Bon, je tergiverse un peu, mais... Il y a les biais algorithmiques dans l'IA, mais il y a nos propres biais cognitifs qui se reflètent sur l'algorithme, et l'algorithme qui se reflète sur nous. Donc en fait, c'est un peu un jeu de ping-pong. Il ne faut pas oublier que nous-mêmes, on n'est pas exemptes de biais, et que ça se retrouve forcément dans les réponses de l'IA, de la manière dont on l'interprète. Et ça aussi, c'est important que... les apprenants et les profs et les formateurs soient formés au fait qu'on a nos propres biais cognitifs, et que si on ne les a pas compris, on ne peut pas les maîtriser. Et à ce moment-là, ça va avoir un impact sur la manière dont on les utilise. Donc en fait, ce que je dirais pour conclure, c'est que l'intégration d'une IA éthique ou d'une éthique de l'IA, ce n'est pas uniquement en rapport avec la technologie en elle-même, mais surtout sur la posture pédagogique qu'on va adopter. Et l'objectif, c'est toujours de faire en sorte que... l'outil soit au service de l'humain et du savoir, mais pas que ce soit une finalité en soi.

  • Speaker #1

    Nous avons une tradition dans Learning Coach, c'est de laisser le mot de la fin à nos invités.

  • Speaker #2

    Je dirais finalement que n'oubliez pas qui vous êtes, n'oubliez pas que toute technologie doit être au service de l'être humain et doit être au service de notre propre bien-être et que ce doit être quelque chose qui nous élève et non pas qui nous fait aller en arrière ou qui nous impose des contraintes trop difficiles à accepter et que... Et que oui, c'est nous qui sommes maîtres de l'intelligence artificielle et que pour chaque technologie qui arrive, on doit toujours se questionner. Mais en tout cas, ce qui est sûr, c'est que c'est un outil qui est formidable et bien utilisé, ça fait vraiment des merveilles.

  • Speaker #1

    Un grand merci Amélie pour votre précieuse participation. Merci à vous aussi, chers auditeurs, pour votre écoute et votre fidélité renouvelée. Vous retrouverez cet épisode, comme tous ceux qui l'ont précédé, sur le site internet trendy.io, sur nos réseaux sociaux et sur l'ensemble des plateformes d'écoute. À très bientôt pour un prochain épisode.

  • Speaker #0

    Vous souhaitez intégrer l'intelligence artificielle dans vos pratiques pédagogiques ? Visitez le site de Trendy, www.trendy.io, pour découvrir la fresque des IA pédagogiques et nos solutions d'accompagnement.

Description

Amélie Raoul, doctorante en IA générative et formatrice spécialisée, aborde les enjeux éthiques liés à l'intégration de l'IA en pédagogie, notamment les biais algorithmiques, les impacts sociétaux et la relation homme-machine, avec une attention particulière portée aux jeunes générations. Elle envisage l'IA comme un outil puissant pour la personnalisation des apprentissages et l’immersion pédagogique via des scénarios utilisant la réalité augmentée. Selon elle, les enseignants verront leur rôle évoluer vers une médiation critique, intégrant des évaluations basées sur l’analyse des processus cognitifs des élèves. Amélie insiste sur l’importance d’un cadre éthique clair, incluant équité, transparence, protection des données, et propose des pistes concrètes telles que l'élaboration collective d'une charte éthique et la formation approfondie des acteurs pédagogiques pour une utilisation raisonnée et humaine de l’IA.


Retrouvez toutes les ressources gratuites créées par Traindy pour la communauté pédagogique sur www.traindy.io.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités, mais aussi les défis que l'IA soulève.

  • Speaker #1

    Bienvenue dans ce nouvel épisode de la saison 2 de Learning Coach, un épisode au cours duquel nous allons aborder la question cruciale de l'éthique alors que l'intelligence artificielle est de plus en plus utilisée en contexte pédagogique. Et pour cela, nous avons l'invité idéal que nous allons laisser se présenter maintenant.

  • Speaker #2

    Moi, je m'appelle Amélie Raoul et je suis doctorante en intelligence artificielle générative dans le domaine des sciences de l'information et de la communication. Et en fait, ma thèse, le sujet, c'est... les intelligences artificielles génératives et les pratiques informationnelles des jeunes vers un nouveau paradigme d'accès et de production de l'information. Et j'étudie ces questions-là avec un focus sur les enjeux éthiques, sociaux et sociétaux, sur les bialgoritmiques notamment, mais aussi sur la relation homme-machine, ce qu'on appelle l'anthropomorphisation de l'IA, et les impacts que ça peut avoir sur les plus jeunes, et qui seront en fait les futurs adultes de demain. Donc c'est pour ça que c'est important d'étudier la question, pour ensuite mettre en place des bonnes pratiques et bien aussi réfléchir. à comment est-ce qu'eux perçoivent l'IA, l'imaginent et leurs usages au quotidien. En même temps, je suis enseignante en business school, donc tout ce qui est projets digitaux, numériques, intelligence artificielle. Et j'ai aussi ma propre agence de conseil et formation en IA, où j'accompagne les entreprises et les institutions dans le déploiement et l'adoption de solutions d'intelligence artificielle. Et en même temps, je suis formatrice en IA auprès de différentes structures de formation.

  • Speaker #1

    Nous aimons demander à tous nos invités comment ils imaginent l'évolution des pratiques pédagogiques grâce à l'intelligence artificielle, et ce... dans un avenir relativement proche, dans 5 ans par exemple ?

  • Speaker #2

    Je ne me suis pas positionnée réellement sur la question parce que je suis pour et en même temps je suis contre l'usage de l'IA dans la pédagogie. C'est-à-dire que je trouve que c'est un merveilleux levier, un merveilleux outil, mais que si ce n'est pas utilisé correctement, ça fait des ravages. Là où ça me pose question aussi, est-ce qu'il y a une différence dans la manière dont utilise l'IA pour les élèves qui sont âgés de 13 à 18 ans et la manière dont ils l'utilisent quand ils ont 18 à 25 ans ? Donc dans le secondaire et dans le supérieur. C'est pas tout à fait la même chose et je pense qu'il y a un niveau de la construction de notre manière de réfléchir et de la manière dont on apprend, ça va avoir un véritable impact. Donc moi j'arrive pas à me positionner sur la question maintenant comment je l'imagine dans 5 ans. Il y a un pays en Europe qui a déjà mis en place l'intelligence artificielle au sein de l'éducation. Et c'est OpenAI qui a fait un contrat avec eux justement. Mais eux c'est beaucoup dans le second degré, donc collège et lycée. Moi je vois ça vraiment comme plutôt des assistants IA qui seront... très interactifs, plutôt sous forme de chatbots, et plutôt qu'un outil comme ChatGPT qui génère du contenu par rapport à ce qu'on lui demande, on aura des IA qui seront plus capables d'adapter leur discours aux spécificités de chacun, donc de chaque apprenant, en détectant en temps réel leur force, mais aussi leur lacune. Et à ce moment-là, ils pourront probablement proposer des contenus qui sont plus personnalisés, et ajuster surtout le niveau de complexité, en fonction de la progression de l'étudiant. Il y a un monde aussi où je vois des classes hybrides un peu augmentées. où là on aura la possibilité de générer des scénarios pédagogiques plus immersifs, par exemple via la réalité augmentée. Je sais que moi quand j'étais dans le second degré, que j'étais au collège, j'avais acheté un casque de réalité virtuelle, où je faisais des exercices en fait avec mes élèves, où on étudiait l'histoire, on étudiait les formes, on étudiait la peinture, on étudiait beaucoup de choses, et c'était très immersif pour eux, et ça a complètement chamboulé leur manière d'apprendre, et surtout leur motivation scolaire, qui est un élément qui est extrêmement important, et qui est une question qui est toujours compliquée. à répondre parce que qu'est-ce qui fait qu'un élève est motivé pour apprendre, qu'est-ce qui lui donne envie ? Je pense qu'à ce niveau-là, Lydia, elle sera capable de booster un peu leur envie de découvrir les choses et leur envie d'intégrer des savoirs.

  • Speaker #1

    Et pour les professeurs ?

  • Speaker #2

    Maintenant, pour les profs, je pense que ça va aussi beaucoup changer la manière dont ils évaluent les élèves. Parce que là, aujourd'hui, remplir un bulletin de notes ou remplir des évaluations, c'est long, c'est fastidieux, et ça demande de repenser à chaque fois à qui est cet élève, qu'est-ce qu'il a fait, c'est quoi son niveau, pourquoi, comment. Or là, je pense que... on aura une aide supplémentaire et plutôt que d'avoir des examens qui seront ponctuels et figés, on pourra avoir des évaluations qui seront plus continues et basées sur l'apprentissage et l'évolution encore une fois de l'apprenant, surtout dans les tâches qui sont complexes. Et dans ce cas-là, j'imagine, je pense que l'IALE pourra aussi analyser les stratégies de raisonnement de l'étudiant ou de l'apprenant et pas juste les résultats finaux. Nous, quand on est prof, on évalue le résultat final, mais on n'est pas capable d'évaluer en temps réel la réflexion. tout le chemin qu'il y a eu jusqu'au... enfin le raisonnement, quoi, qu'il y a eu jusqu'au résultat. Et là, je pense, j'imagine qu'avec ces outils d'IA, on pourra complètement analyser le raisonnement. Après, c'est une question un peu difficile pour le prof, pour l'enseignant aussi, parce que ça remet un petit peu en question sa posture. qui est-il finalement dans tout ça, qu'est-ce qu'il peut apporter, quel est son rôle final. Moi, je pense qu'il conservera son rôle, mais qu'il deviendra aussi un médiateur. Et que ce sera à lui de guider les étudiants dans l'usage, mais un usage critique, et surtout un usage qui est éthique. Et à ce moment-là, ce ne sera plus juste transmettre un savoir figé, mais ça va être structurer la pensée et aider à exploiter l'IA pour que ça devienne un outil plus d'intelligence collective.

  • Speaker #1

    Et vous ? Amélie, auriez-vous à partager avec nos auditeurs un outil ou une pratique intégrée dans vos pratiques pédagogiques impliquant bien entendu l'intelligence artificielle ?

  • Speaker #2

    Oui, moi je vais donner un outil qui est très simple et que beaucoup utilisent, c'est ChatGPT. Pour moi, c'est un petit peu ma pierre angulaire de ma construction pédagogique parce que ça me sert en fait à personnaliser au maximum mes scénarios pédagogiques. Par exemple, quand je forme des entreprises, je vais donner les informations précises de l'entreprise. et je vais pouvoir générer des cas d'études adaptés directement à l'entreprise. Parce que ce n'est pas forcément facile de rentrer dans une entreprise qu'on ne connaît pas, et ça permet de générer des cas d'études qui vont permettre ensuite de donner en exercice directement à mes formés. Et pareil pour mes étudiants, quand je suis en classe avec eux, j'utilise vraiment comme un outil de co-construction. Pareil, en fonction du profil de l'élève, et de la matière, et du moment où il en est dans les consignes, ça va me permettre d'adapter un petit peu le contenu, et surtout je l'utilise aussi. beaucoup pour mes étudiants, en termes d'exercices surtout. Je les fais challenger l'IA à chaque fois, et donc c'est un outil et pour moi, mais aussi pour mes étudiants.

  • Speaker #1

    Est-ce qu'on peut prendre un exemple et le développer ?

  • Speaker #2

    Là, par exemple, j'ai dû intervenir dans une entreprise qui faisait beaucoup d'administratifs. Moi, je n'ai pas un profil où je suis administrative, je ne suis pas vraiment dans les démarches, les processus comme ça. Et j'avais besoin, pour un exercice de prompt engineering, d'avoir un document généré en amont. sur des procédures administratives en entreprise. Et comme ce n'est pas mon domaine d'expertise, j'ai donné à ChatGPT mes consignes avec un contexte très précis et je lui ai demandé de me générer un exemple concret de document qu'on peut retrouver dans l'administratif, dans cette entreprise en particulier. Et là, il me l'a généré et j'ai pu le réutiliser directement auprès de mes formés pour avoir quelque chose qui leur ressemble, qui soit directement applicable comme un levier.

  • Speaker #1

    Venons-en maintenant au cœur de notre épisode pour parler d'éthique. et il est forcément nécessaire pour bien commencer de se demander ce que l'on peut entendre par éthique dans le cadre de l'usage de l'intelligence artificielle en pédagogie.

  • Speaker #2

    Alors déjà, juste pour rappeler rapidement que ce qu'on entend par éthique, en très gros, c'est de dire qu'est-ce qui est bien, qu'est-ce qui est mal, qu'est-ce qui se fait, qu'est-ce qui ne se fait pas, qu'est-ce qu'on accepte et qu'est-ce qu'on n'accepte pas. Sachant que l'éthique, ce n'est pas universel, chacun a sa propre éthique, en fonction de l'endroit où on a grandi, de notre culture, de nos valeurs. ce qui fait qu'on ne pourra jamais avoir la même éthique que quelqu'un d'autre. C'est impossible. Par contre, on peut établir un cadre éthique, notamment dans l'usage de l'IA en pédagogie. Il y a plusieurs critères qui font qu'une IA peut être considérée comme éthique ou au moins que l'usage qu'on en fait soit éthique. Il y a déjà un point qui est très important, c'est l'équité. On sait que l'IA n'est pas neutre, c'est-à-dire qu'elle est le miroir des propres inégalités de notre société et qu'elle est amplificateur de ces inégalités-là. Et pour s'assurer qu'elles ne reproduisent pas ces inégalités, il faut s'assurer qu'elles soient équitables et qu'elles ne renforcent pas les inégalités d'accès à l'éducation. Au contraire, et qu'elles ne favorisent pas certains groupes au détriment d'autres. Puisque comme tout ça est basé sur un système algorithmique, en fonction des données d'entrée et des données sur lesquelles ça a été entraîné, on peut avoir des résultats parfois qui sont complètement biaisés. Donc c'est important en fait la notion d'équité. En deuxième point, je dirais que l'autonomie des étudiants, c'est un point critique. C'est-à-dire que ça ne doit pas être un substitut à la pensée critique et à l'apprentissage actif, surtout, mais que l'enjeu principal, en fait, c'est de trouver un équilibre entre l'outil comme assistance et l'autonomie. Parce qu'on ne peut pas remplacer entièrement une réflexion par un outil qui va faire le travail à notre place. Et on a aussi la notion de transparence qui va de pair avec l'explicabilité. C'est-à-dire qu'on doit pouvoir expliquer aux étudiants et aux enseignants Comment fonctionne le modèle d'intelligence artificielle ? Quels sont les modèles qui ont été utilisés ? Qu'ils puissent eux-mêmes en fait en évaluer les limites. Qu'ils sachent parfaitement ce à quoi ils sont confrontés. Il ne faut pas que ce soit opaque, il ne faut pas qu'il y ait une boîte noire inexplicable. Un autre enjeu qui est très important et dont on parle énormément, c'est la protection des données. Surtout quand on touche aux mineurs, donc aux élèves, on ne peut pas faire n'importe quoi avec les données. Et le truc avec les IA, c'est qu'elles collectent et qu'elles traitent... énormément de données, dont beaucoup de données personnelles. Ce qui fait que leur utilisation dans le contexte éducatif, ça demande d'être hyper vigilant, pas que sur la confidentialité, mais aussi sur la souveraineté des données. C'est-à-dire que l'endroit où est stocké les données, c'est très important. Il faut que ça reste dans un territoire comme le nôtre par exemple, qui est régi par des règles et des réglementations qui encadrent l'utilisation de ces données personnelles. On a la CNIL en France, il y a le RGPD, il y a l'IA Act, toutes ces réglementations-là font qu'en principe nos données sont censées être protégées. Et enfin, dernier point, par rapport aux méthodes pédagogiques, l'IA ne doit pas imposer une standardisation et une uniformisation excessive des apprentissages et des savoirs, et elle ne doit pas non plus déshumaniser la relation entre l'enseignant et l'apprenant. Il ne faut pas que le prof se sente remplacé par l'IA et il ne faut pas que ça soit un substitut total à la manière dont on transmet nos savoirs. Parce que c'est important qu'on comprenne que l'IA est un outil, mais que l'humain doit être replacé au cœur de ses usages. Et c'est ça aussi l'éthique de l'intelligence artificielle, c'est replacer l'humain au cœur des réflexions et au cœur de nos utilisations. Donc en fait, si je devrais résumer l'éthique de l'IA en pédagogie, ce serait garantir une intégration qui favorise... l'émancipation intellectuelle, mais aussi l'inclusion, et évidemment en limitant les risques liés au bialgorithmique, mais aussi à la dépendance technologique, et évidemment au lien aussi qu'on a dit relation homme-machine, faire attention à ce qu'il n'y ait pas trop de lien émotionnel dans la manière dont on utilise l'IA.

  • Speaker #1

    Quand on parle d'éthique, on pointe souvent du doigt la machine. Elle tiendrait comme dans les films le rôle du méchant. Mais puisqu'elle s'alimente de nos données, ne fait-elle pas que nous renvoyer notre propre reflet, notre propre image ? L'éthique ne s'applique-t-elle pas d'abord à nous-mêmes ?

  • Speaker #2

    Alors, parfait. Ça, c'est une question qui est parfaite, parce que je commence toujours, quand j'explique des choses par rapport à l'IA, en entrant par cette porte-là. Je ne rentre jamais par la porte de l'outil parce que je trouve que ça ne fait aucun sens. Ça ne sert à rien d'utiliser un outil, surtout un outil. Enfin, une IA, si on n'est pas capable de comprendre, déjà qu'on est nous-mêmes à l'initiative, de l'usage qu'on en fait. C'est pas l'IA qui nous contrôle, c'est nous qui contrôlons l'IA. Et ça, on a tendance à l'oublier. C'est pour ça que je disais tout à l'heure... Le pouvoir décisionnel de l'IA, c'est un point qui est important. Il ne faut pas qu'on laisse l'IA prendre des décisions à notre place, mais ce n'est pas l'IA qui nous force à faire quelque chose. C'est nous-mêmes qui sommes maîtres de nos propres décisions. Donc quand on forme des étudiants, des élèves, des adultes, n'importe qui, moi j'estime qu'il ne faut pas rentrer par la porte de l'outil en disant « voilà ce que tu vas pouvoir faire avec l'IA, voilà ça c'est de la révolution, c'est incroyable, tu pourras faire ci, tu pourras faire ça » . C'est plutôt d'abord rentrer par « qu'est-ce que c'est l'IA ? » Tu es maître de l'IA, c'est toi qui la contrôles. Donc, il y a la notion de responsabilité aussi. Les résultats qui sont donnés par ChatGPT, qui en est responsable ? Est-ce que c'est les concepteurs ? Est-ce que c'est l'IA en elle-même ? Est-ce que c'est moi, l'usager, qui récupère les réponses ? Parce que c'est moi qui ai formulé le prompt aussi. En fait, je pense que quand on forme les gens, c'est important de toujours rentrer par l'éthique. Mais pas par l'éthique pure, comme je l'ai évoqué tout à l'heure, mais vraiment sur s'interroger sur qu'est-ce qu'on fait avec. Et ben... Est-ce qu'on l'utilise correctement ? Et rappelez que c'est un outil en fait, c'est nous-mêmes qui sommes maîtres.

  • Speaker #1

    J'aimerais pour compléter notre propos qu'on s'attarde encore un petit moment sur le sujet de la protection des données. On utilise la plupart des intelligences artificielles en rédigeant des promptes textuelles, donc les intelligences artificielles savent lire, mais elles savent écouter, et elles savent voir. N'est-ce pas un peu vain d'évoquer la protection des données, alors que finalement il semblerait que toutes les digues aient cédé ?

  • Speaker #2

    En fait, la réflexion que vous avez faite au début est très bonne. C'est-à-dire que là, vous dites, je suis capable de lui montrer des images, je suis capable de lui parler, je lui partage beaucoup d'informations personnelles. Il y a un truc que je trouve extrêmement, soit inconscient, soit hypocrite, mais quand on a un smartphone qui est arrivé déjà depuis plusieurs années, et qu'on a inscrit sur un site, un réseau social, qu'on a WhatsApp, qu'on a Messenger, qu'on a Essie et ça, ça revient exactement... au même, c'est à dire que Meta, il a accès à nos... enfin le groupe Meta a accès à nos conversations sur Messenger, à nos photos, et d'ailleurs la plupart des sites quand on se connecte dessus ou de l'application, ils nous demandent l'accès à nos photos et à nos vidéos. Bah finalement est-ce que ça reviendrait pas au même ? Parce que là on s'inquiète beaucoup de... je donne des informations à l'IA, ok mais quand je remplis mon genre, mon âge, ma taille, mon poids, que j'ai une montre connectée qui calcule mon rythme cardiaque et qui sait exactement où je vais, mon GPS qui sait que chez moi c'est ici... et que je vais au travail là-bas, et que j'y vais à 8h05 et que je rentre à 17h30, en fait finalement c'est un petit peu la même chose. L'avantage qu'on a avec l'IA par contre, c'est qu'on peut contrôler ce qu'on montre. Si je ne veux pas partager telle info, je ne le fais pas. Par contre mon GPS, lui, il est obligé, il sait où je suis. Vu qu'on en parle beaucoup, en fait, on a tendance à oublier que ça existait déjà. Et comme je disais, là on a l'avantage de pouvoir choisir ce qu'on dit et de choisir ce qu'on montre. Maintenant la différence, d'un point de vue opérationnel, c'est-à-dire nous en tant qu'usagers, Si je pose la question à ChatGPT, peux-tu analyser mon profil psychologique ? Il va me sortir une analyse psychologique hyper précise par rapport à tout ce qu'il a enregistré sur moi. Mais parce que j'y ai accès, je vois que ChatGPT peut me répondre. Et je vois que ChatGPT peut m'analyser. Mais les entreprises tierces qui ont mes données personnelles, elles l'ont fait aussi ce travail-là, sauf que je ne l'ai pas vu. Donc en fait, ça revient un petit peu à la même chose. Donc est-ce qu'il y a un moyen d'assurer une meilleure transparence de tout ça ? Je pense que ça commence déjà par nos propres usages. C'est moi-même qui décide de ce que je partage. Alors certes, c'est un outil qui est super, il y en a que ça dérange, il y en a que ça ne dérange pas. Il y en a qui s'en fichent de partager leurs données, d'autres, c'est fondamental de protéger tout ça et que ce ne soit pas trop intrusif. pour la transparence, il faut qu'on sache où sont stockées les données, il faut qu'on sache ce qu'en fait l'entreprise, est-ce que c'est à but commercial, est-ce que c'est pour la publicité, je ne sais pas, quel est leur but derrière tout ça, que ce soit affiché clairement, surtout. Parce que là, les petites lignes écrites en tout petit, quand on télécharge une application qu'on n'arrive pas à lire parce que ça fait 4 km de long, ça n'arrange personne. Par contre, si c'est écrit noir sur blanc en deux phrases, vos données sont enregistrées et elles vont ici, à usage précis, là déjà, je sais un petit peu plus.

  • Speaker #1

    Revenons aux apprentissages. Comment s'assurer que l'intelligence artificielle favorise la personnalisation de ces derniers plutôt que de les standardiser ? Et par voie de conséquence, comment prévenir et corriger des biais algorithmiques dans les parcours d'apprentissage ?

  • Speaker #2

    C'est très intéressant parce que par rapport à la standardisation et l'uniformisation, il y a un point dont on ne parle pas très souvent mais qui commence à apparaître, c'est que là on produit beaucoup de contenu avec l'intelligence artificielle. Sauf que l'intelligence artificielle s'entraîne sur nos propres données. Donc ce que nous-mêmes en tant qu'humains on a créé. Sauf qu'au bout d'un moment, si on n'a que des contenus qui sont produits par l'IA, l'IA va s'entraîner avec quoi ? Ses propres données, ses propres créations, entre guillemets. Du coup, il y a un moment donné où ça va poser souci, et c'est là qu'on va se retrouver avec les mêmes choses en boucle, et qu'on n'aura plus cette créativité et cette forme de nouveauté-là. Où là, on réutilise sans cesse les mêmes contenus, et c'est de plus en plus le cas, ce qui risque d'arriver aussi dans les contenus pédagogiques. Si on fait toujours la même chose, au bout d'un moment, on va tourner en rond. Et c'est pour ça, en fait, que, alors je reviens sur la question, comment est-ce qu'on prévient et on corrige les biais algorithmiques dans les parcours d'apprentissage ? Il y a des choses sur lesquelles, nous, en tant qu'individus lambda, formateurs, apprenants, profs, on ne peut pas faire. Par exemple, diversifier les sources d'entraînement des modèles. Nous, on ne conçoit pas le modèle d'IA, donc on ne peut pas le faire. Mais idéalement, les IA génératives, il faudrait qu'elles soient entraînées sur un corpus de données qui soit très varié, avec des sources diverses et variées, et des corpus qui... n'exclut pas toutes les perspectives. Ça, nous, on ne peut pas forcément le faire, la diversification des sources d'entraînement. Par contre, ce qu'on peut faire, nous, c'est introduire des garde-fous humains. C'est-à-dire qu'on sait aujourd'hui qu'un algorithme ne peut pas être totalement corrigé par un autre algorithme. C'est-à-dire que s'il y a des biais dans un algorithme, l'algorithme ne pourra pas le corriger à 100%. C'est pour ça que nous, en tant qu'êtres humains, on est référents, en fait, dans la supervision de tout ça. On est indispensables pour identifier les biais. Et ça, nous, en tant que personnes, on peut le faire. Si je vois une réponse... d'une intelligence artificielle qui est pleine de biais, dans ce cas-là, je peux réagir. Et surtout, encourager la co-construction des savoirs. Pas la construction, mais la co-construction. Plutôt que d'accepter de manière passive les recommandations de l'IA, c'est mieux qu'on soit encouragé à les questionner, à les affiner et à les compléter, et pas la prendre en tant que telle.

  • Speaker #1

    Ces quelques propos nous amènent naturellement à la question suivante. Est-ce possible de concevoir des intelligences artificielles éducatives qui favoriseraient... le développement de la pensée critique ?

  • Speaker #2

    Le mieux, ce serait carrément que l'IA, à la fin, dans sa réponse, nous pose d'autres questions pour ouvrir davantage la réflexion. Maintenant, encore une fois, c'est nous-mêmes qui serons maîtres de ce qui se passe. C'est-à-dire que si je ne veux pas répondre aux questions et que je ne veux pas m'interroger, je ne le fais pas. Maintenant, est-ce qu'on peut concevoir des IA éducatifs qui développent la pensée critique ? Je dirais que oui, mais il faut vraiment que ce soit développé de manière très spécifique. C'est-à-dire qu'on ne doit pas être sur une IA qui transmet juste du savoir, mais que ça doit, comme je l'ai dit, vraiment être un outil de questionnement et d'interaction. comme un être humain, finalement, en tout cas, se rapprocher au mieux. Et pour ça, il faudrait encourager la diversité des points de vue. C'est-à-dire que l'IA ne devrait pas donner juste une réponse unique, mais elle devrait proposer plusieurs interprétations d'un même sujet, plusieurs choses, pour ne pas enfermer l'étudiant, l'apprenant, la personne dans une espèce de bulle cognitive, en fait, où là, on risque, avec cet effet bulle cognitive, de trop enfermer l'apprenant dans un filtre algorithmique dont il n'a pas le contrôle, dont il n'a souvent même pas conscience. Et c'est pour ça qu'explorer des nouvelles idées avec l'IA, c'est très, très, très important. Et ça me ramène à la notion de sérendipité, qui est l'heureux hasard, l'heureuse découverte qu'on peut faire sur une connaissance, un savoir en particulier. Ça se retrouvait beaucoup sur les liens hypertextes. Je clique sur un lien hypertexte, ça me renvoie sur un autre, qui me renvoie sur un autre. Et là, je découvre des choses que je n'imaginais pas possibles. Et l'idéal, ce serait que ce soit pareil avec l'intelligence artificielle, que je puisse basculer d'un savoir à un autre qui sont liés, mais qui n'ont pas forcément d'atomes crochus, mais qui ont une espèce de lien. Et là, à ce moment-là, on favorise la sérendipité et du coup, la curiosité intellectuelle.

  • Speaker #1

    Et ce n'est pas le cas avec l'IA ?

  • Speaker #2

    En général, quand on a des réponses avec les outils d'IA, ça ne nous amène pas à demander une justification ou une réfutation de la part de l'IA. on prend la réponse comme elle est. Mais je pense que le modèle éducatif, lui, il devrait expliquer pourquoi est-ce qu'il a généré cette réponse-là, proposer systématiquement ses sources vérifiées, et pas n'importe lesquelles, et même, le mieux, ce serait qu'il puisse offrir des contre-arguments pour stimuler la réflexion. Pas juste aller dans le même sens, mais pousser la réflexion sur le pour et le contre. Ce qui serait bien aussi sur ces outils-là, c'est que ça stimule un petit peu tout ce qui est interaction et débat. C'est-à-dire que ça doit être comme un élément de discussion. Ce qui fait qu'on apprend souvent, c'est qu'on échange. On est confronté à différents points de vue. Et dans ce cas-là, ce serait intéressant que l'IA soit utilisée pour générer des scénarios ou même des dilemmes éthiques. Parce que comme ça, au moins, l'apprenant n'est pas conforté dans son idée, mais elle est confrontée à son idée. Et ça le pousse à argumenter à pourquoi son idée, il veut la justifier, et pourquoi est-ce qu'il pense que c'est la bonne. Donc, faire un espèce de système de débat avec l'IA, ce serait pas mal. Puis après, bon, bah... Ce qui serait sympa aussi, ce serait de développer des espèces d'outils d'auto-évaluation critique. À la fin du parcours d'apprentissage, l'IA pourrait poser des questions, mais ouvertes, cette fois-ci aux apprenants, et demander d'évaluer la pertinence de leur propre réponse. Plutôt que de donner des corrections comme ça immédiatement sur la réponse, challenger l'apprenant et demander à lui-même d'abord qu'est-ce que tu penses, et en fonction de ça, l'IA à ce moment-là peut l'accompagner dans son parcours d'apprentissage. Donc en fait, plutôt que de voir l'IA comme... Quelque chose qui délivre une vérité, un savoir tout cuit, tout prêt, tout propre, tout beau, faudrait plutôt le voir comme une forme de catalyseur de raisonnement. Une IA qui devrait plutôt pousser à la mise en perspective, et aussi, et c'est essentiel, à la remise en question des informations. Je dis toujours à mes étudiants, doutez ces biens. Essayez toujours et remettez toujours en question ce qu'on vous dit, pas à l'excès, mais en tout cas, questionnez-vous toujours sur ce qu'on vous dit. Est-ce que... Il y a des arguments qui sont valables, est-ce que ça résonne en vous ? Est-ce que ça fait sens ? Est-ce que ça vous paraît étrange ? C'est à ce moment-là que vous allez pousser la réflexion. Donc le doute, c'est important et ça vaut pour tout.

  • Speaker #1

    Comment fait-on maintenant pour passer à l'acte ? Quels principes, quelles bonnes pratiques les formateurs peuvent-ils adopter pour intégrer l'intelligence artificielle de manière éthique en pédagogie ?

  • Speaker #2

    La première chose que je conseille à chaque fois, c'est de se former correctement. Par se former correctement, j'entends ne pas se former que sur la manière dont on utilise l'outil. mais sur tous les points que j'ai abordés précédemment. Donc c'est sur les risques, les biais, les enjeux, mais aussi les opportunités. Ce que je fais souvent, et ce que j'encourage très très très très fortement, c'est de mettre en place une charte éthique de l'usage de l'IA. Pourquoi ? Parce qu'à ce moment-là, on a une réflexion qui est peut-être quelque part individuelle, mais surtout collective, sur la manière dont on va utiliser l'IA, soit une organisation, soit une entreprise, soit une école, soit bref. La manière dont on va utiliser l'IA, cette charte éthique-là, Elle permet de poser un cadre, de savoir qu'est-ce qui se fait, qu'est-ce qui se fait pas, dans quel cadre je peux l'utiliser, dans quel cadre je ne peux pas l'utiliser et pourquoi. Et puis, en fait, comment est-ce que j'encourage cet usage responsable-là ? En fait, une charte éthique, c'est un document qui est quand même assez conséquent, si on veut le faire correctement, qui reprend en fait tout le contexte de notre situation, de notre établissement, de notre entreprise et qui ensuite... fait en fait fabrique ses propres règles. Parce que comme je l'ai dit, l'éthique n'est pas universelle et l'éthique ne s'applique pas de la même manière partout. Donc c'est à nous de rédiger notre propre charte éthique. Maintenant, si j'ai d'autres conseils à donner pour l'usage de l'IA pour les profs, par exemple, de l'utiliser de manière raisonnée, de toujours contextualiser les résultats qu'on a de l'IA. Comme je l'ai dit, ça ne doit jamais être une vérité absolue, mais vraiment juste un levier pour nous aider. Et on doit toujours encourager la vérification des réponses et surtout notre esprit critique.

  • Speaker #1

    Mais une fois que l'intelligence artificielle est présente, C'est pas un peu difficile ?

  • Speaker #2

    En fait, l'intégration, elle, elle doit être progressive. C'est-à-dire que je ne dois pas donner un outil d'IA et dire, maintenant tu l'utilises et puis on voit ce qui se passe. C'est d'abord, on observe, comment est-ce que les apprenants vont réagir avec ce nouvel outil ? Qu'est-ce que ça va amener sur leur engagement et leur réflexion ? Et à ce moment-là, on va un petit peu ajuster en fonction des retours. C'est comme un prof qui fait ça à chaque fois, il donne un exercice ou une consigne. ou il fait une pédagogie alternative innovante, il voit ce que ça donne et puis il adapte en fonction. Mais là, c'est pareil. C'est pour ça, ne pas utiliser l'IA comme un outil de vérité générale ou comme l'outil magique suprême qui va l'aider à tout faire. Je répète encore une fois, on est maître de l'IA. L'IA ne nous contrôle pas, c'est nous qui la contrôlons. Et ça, on peut le faire uniquement si on est pleinement conscient des enjeux sociaux, sociétaux et des biais cognitifs parce que... Bon, je tergiverse un peu, mais... Il y a les biais algorithmiques dans l'IA, mais il y a nos propres biais cognitifs qui se reflètent sur l'algorithme, et l'algorithme qui se reflète sur nous. Donc en fait, c'est un peu un jeu de ping-pong. Il ne faut pas oublier que nous-mêmes, on n'est pas exemptes de biais, et que ça se retrouve forcément dans les réponses de l'IA, de la manière dont on l'interprète. Et ça aussi, c'est important que... les apprenants et les profs et les formateurs soient formés au fait qu'on a nos propres biais cognitifs, et que si on ne les a pas compris, on ne peut pas les maîtriser. Et à ce moment-là, ça va avoir un impact sur la manière dont on les utilise. Donc en fait, ce que je dirais pour conclure, c'est que l'intégration d'une IA éthique ou d'une éthique de l'IA, ce n'est pas uniquement en rapport avec la technologie en elle-même, mais surtout sur la posture pédagogique qu'on va adopter. Et l'objectif, c'est toujours de faire en sorte que... l'outil soit au service de l'humain et du savoir, mais pas que ce soit une finalité en soi.

  • Speaker #1

    Nous avons une tradition dans Learning Coach, c'est de laisser le mot de la fin à nos invités.

  • Speaker #2

    Je dirais finalement que n'oubliez pas qui vous êtes, n'oubliez pas que toute technologie doit être au service de l'être humain et doit être au service de notre propre bien-être et que ce doit être quelque chose qui nous élève et non pas qui nous fait aller en arrière ou qui nous impose des contraintes trop difficiles à accepter et que... Et que oui, c'est nous qui sommes maîtres de l'intelligence artificielle et que pour chaque technologie qui arrive, on doit toujours se questionner. Mais en tout cas, ce qui est sûr, c'est que c'est un outil qui est formidable et bien utilisé, ça fait vraiment des merveilles.

  • Speaker #1

    Un grand merci Amélie pour votre précieuse participation. Merci à vous aussi, chers auditeurs, pour votre écoute et votre fidélité renouvelée. Vous retrouverez cet épisode, comme tous ceux qui l'ont précédé, sur le site internet trendy.io, sur nos réseaux sociaux et sur l'ensemble des plateformes d'écoute. À très bientôt pour un prochain épisode.

  • Speaker #0

    Vous souhaitez intégrer l'intelligence artificielle dans vos pratiques pédagogiques ? Visitez le site de Trendy, www.trendy.io, pour découvrir la fresque des IA pédagogiques et nos solutions d'accompagnement.

Share

Embed

You may also like