- Caroline I
Bienvenue à vous dans ce nouvel épisode de Derrière nos écrans, l'émission qui met l'humain au cœur du numérique. Pour débuter l'année en beauté, l'année 2026, on s'entretient du bouleversement qu'a amené l'IA dans le monde supérieur, avec Ella Saar de l'Université de l'Ontario-Français à Donneteau. Vous êtes enseignant ? à l'Université de l'Ontario français à Toronto et plus qu'enseignante responsable du pôle culture numérique de l'UOF, comme disent les initiés. Est-ce que vous pouvez nous préciser un peu plus le programme que vous chapeautez à l'intérieur de ce pôle ?
- Hela Z
Merci beaucoup déjà Caroline de cette invitation. Effectivement, moi je suis professeure au pôle culture numérique. Et je suis responsable aussi de ce pôle-là. Pourquoi c'est un pôle ? Parce qu'en fait, on a le volet recherche, le volet enseignement et le volet communautaire où on développe des projets avec les partenaires du milieu à Toronto. On a à l'intérieur, au niveau de l'enseignement, un programme qui s'appelle Communication et médias numériques. C'est un baccalauréat. On a quatre micro-certificats en intelligence artificielle et marketing, intelligence artificielle et données. scénarisation pédagogique aussi avec les technologies de pointe comme la réalité virtuelle. Et je suis aussi responsable du Media Lab Culture Numérique à l'Université de l'Ontario français.
- Caroline I
D'accord, très bien. Donc, autant dire que vous baignez dans les médias numériques au quotidien. Donc, on est là aujourd'hui pour que vous nous parliez comment l'IA générative, qui a fait son entrée dans le monde... permontre. trois ans presque maintenant. Comment vous avez commencé à l'intégrer dans votre enseignement, à la fois vous en tant qu'enseignante, mais également vis-à-vis de l'usage que peuvent en faire vos élèves ?
- Hela Z
C'est un sujet très d'actualité, on va dire, l'intégration de l'IA dans le milieu post-secondaire, secondaire et primaire aussi, mais nous on s'attarde. plus ici au niveau de l'éducation postsecondaire parce qu'en fait d'abord c'est un sujet qui divise beaucoup dans le milieu postsecondaire nous on a l'intégrité intellectuelle quelque chose de très très important et dans l'IA l'IA existe depuis longtemps mais quand c'est rentré, les outils sont devenus entre guillemets accessibles il y a une ambivalence entre on peut... on passe d'une IA comme plagiat vers une IA responsable. Et nous, notre travail présentement, c'est d'essayer d'arriver de plus en plus vers une IA responsable dans le milieu postsecondaire.
- Speaker #0
Ok, alors ça, c'est une bonne façon de présenter les choses. Qu'est-ce que vous mettez, du coup, derrière une IA responsable ?
- Speaker #1
En fait, c'est vraiment un petit peu comme… pour toute technologie, c'est d'arriver à une forme de technosubriété, c'est-à-dire qu'on ait une approche, pas au niveau du corps professoral, que les étudiants aient un usage conscient de l'IA, éthique et éthique. Donc ces trois volets pour nous sont extrêmement importants. Puis dans le fond, pour que tu passes, on peut dire, c'est ça, en 2022, lorsque c'est passé, on ne les avait pas encore dans tous les outils. quel que soit l'outil qu'on utilise avec nos étudiants, l'IA existe. Et comme l'infrastructure technologique, on ne la contrôle pas vraiment, on est en train d'utiliser les outils pédagogiques qui sont sur le marché, parce qu'il faut savoir que les universités sont un peu fébriles à des outils alternatifs, de la protection des données, etc. Donc on est quelque part obligé d'utiliser les outils traditionnels. conventionnelles qui sont sur le marché, qui arrivent beaucoup des États-Unis. Mais ça, ça fait qu'il y a une forme de rigidité dans cette utilisation-là. On ne la contrôle pas. On ne sait pas comment elle fonctionne. C'est une boîte noire d'IA. Et nous, progressivement, on veut trouver un équilibre dans nos cours pour passer d'une IA modulaire ou... pas ton travail, tu n'es pas conscient que tu donnes un travail qui manque d'intégrité intellectuelle, vers une utilisation co-responsable avec l'IA.
- Speaker #0
Alors, est-ce que vous pouvez nous donner un ou deux exemples de comment vous faites travailler les étudiants peut-être ? Parce que là, c'est plutôt du côté étudiant, j'imagine.
- Speaker #1
Oui, je te dirais, il y a comme cinq phases. Je parle de notre pôle culture numérique, mais les niveaux sont différents dépendamment des programmes, des autres programmes, puis des autres pôles. Pour nous, c'est très important d'embrasser l'enjeu et le phénomène IA générative. vraiment de façon intensive. Donc, je ne te cache pas, il y a un gros défi de, si on peut dire, au niveau de l'enseignant, il devient vraiment, le rôle de l'enseignant, on se pose des questions, on fait des rencontres, parfois même deux fois par semaine, avec le corps professoral. C'est quoi ton rôle, du coup, maintenant qu'il y a l'IAG, est-ce que tu es accompagnateur seulement, donc tu es juste là à orienter l'étudiant ? Est-ce que tu vas au contraire vraiment être collaborateur dans la classe ? Tu vas le guider dans les exercices que tu fais, tu fais des démonstrations avec l'IA ? Est-ce que tu as une expertise ? Donc là, c'est pour ça que nous, on est en même temps des chercheurs parce qu'on avance dans la recherche sur l'IA, puis on transmet ça dans nos enseignements. Et puis, il y a des formes aussi d'automatisation. Donc, je te dirais, il y a eu beaucoup de modifications. Ça a déjà changé. Quelle formule on met ? Plusieurs mettent dans le plan de cours cette phrase-là que c'est une fraude d'utiliser l'IA. Nous, on est contre ça.
- Speaker #0
D'accord.
- Speaker #1
On préfère encadrer l'utilisation de l'IA dans le plan de cours. Donc déjà, ça, ça a changé.
- Speaker #0
Est-ce que vous pouvez nous donner un exemple précis de ça ? De qu'est-ce que ça veut dire encadrer l'IA dans le cadre d'un cours ? Est-ce que vous avez un exemple concret ? C'est un travail à faire. Vous allez dire aux étudiants, utilisez l'IA, mais de façon responsable.
- Speaker #1
Par exemple, nous, on a fait une modification de programme le printemps dernier en changeant le titre de notre programme de communication immédiate numérique. Et on en a profité parce qu'on est une petite université. C'est ça la beauté de la chose, c'est qu'en étant une petite université, on peut se permettre de faire des modifications assez rapidement. Contrairement à des grosses universités et de grosses... structure. On a intégré l'IA, par exemple, on a un cours cognition et intelligence artificielle, donc c'est vraiment le fonctionnement, vraiment du cerveau, si on peut dire, versus le fonctionnement de l'IA. On a des cours de production et de création de contenu avec l'IA. On a des cours d'automatisation par rapport au parcours client avec l'IA dans le marketing. On a un cours que je donne, par exemple, qui est un séminaire de fin d'études. en janvier sur l'IA. Donc, ce que je vais leur faire, par exemple, le séminaire cet hiver, l'an dernier, les étudiants, je les donnais ce séminaire et avaient honte d'utiliser l'IA devant moi, en classe. C'était vraiment nouveau et ils n'osaient même pas le dire. Puis là, je leur disais, au contraire, c'est le temps, on va expérimenter ensemble, on va faire des essais-erreurs. Qu'est-ce que tu ferais, qu'est-ce que tu ne ferais pas à l'IA ? Puis on a fini le séminaire en dressant comme une liste de tâches ou de projets ou de travaux, comment j'utiliserais l'IA. Donc chaque étudiant m'a adressé comme un code éthique, si on peut dire, d'utilisation de l'IA en publication et en création de contenu. Cette année, les choses ont changé. Partout, on a beaucoup plus d'IA et en plus, nous, on a fait rentrer l'IA dans plusieurs cours. Donc, le séminaire de fin d'études n'est plus « est-ce que tu utiliserais ou tu n'utiliserais pas ? » C'est beaucoup plus « là, on va prendre une agence, chaque étudiant va choisir une agence. » Il va donc faire une analyse de son identité de marque et après ça, ils vont faire quelques visuels avec l'IA. Moi, je vais utiliser Medjourney parce que c'est l'outil de création. complète. On se sent vraiment en co-création avec Midionet et Ideogram. Et donc, l'œuvre, je les mets vraiment en production IA. Mais aussi, dans le processus de travail, ils vont faire aussi leur charte éthique. Qu'est-ce qu'ils feront vraiment avec l'IA ? Qu'est-ce qu'ils ne peuvent pas se permettre de faire avec l'IA pour un client ? C'est des étudiants qui s'en vont en stage, donc je voulais vraiment les mettre en production IA. de définir des balises. C'est ça que je dis, être plus critique dans ton utilisation, être plus responsable dans ton utilisation.
- Speaker #0
D'accord. Est-ce que vous pouvez nous donner juste des éléments concrets de ces fameuses balises ? Qu'est-ce que ça veut dire ? Parce que pour moi, vous savez ce qu'on dit, il y a à inspirer beaucoup de contenu qui appartient à des créateurs et donc forcément on va produire du contenu inspiré de créateurs. Est-ce que par exemple les étudiants ont une position, une posture par rapport à ça ? Est-ce qu'ils s'interdisent, j'imagine, de faire du travail à la manière de Michel-Ange, disons, ou à d'autres ? Est-ce qu'il y a des choses un peu plus précises que vous pouvez nous communiquer sur ces fameuses balises ?
- Speaker #1
En fait, c'est vraiment une série de questions qu'on pose tout au long du processus en même temps qu'on travaille avec l'IA. Ça dépend de quel IA. Par exemple, avec Midionet, ils ont d'ailleurs le plant Imagine. Donc, tu prends, tu lui dis, imagine telle chose. Donc, c'est vraiment un outil d'imagination, de créativité. Donc, c'est sûr, oui, tu peux aller chercher des images, puis la notion de plagiat ou de propriété intellectuelle, etc. Mais ça, tu te poses des questions. Donc, quand on va, par exemple, générer des images, je vais leur poser une série de questions. Est-ce que tu as l'autorisation d'utiliser cette image-là ? Est-ce que tu as consulté l'agence en question ? Tu peux utiliser ces images-là. Donc, il y a un aller-retour de courriel, d'autorisation, avant même de commencer à travailler avec Medjone. Après ça, est-ce que s'il y a des personnes, par exemple, dans cette image-là, que les enjeux de vie privée, de confidentialité, tu les as respectés ? Donc, il y a un aller-retour en fait de… code éthique avec cette agence-là ? Parce qu'une agence ici de communication a son code éthique. Est-ce que tu es en train de le respecter aussi ?
- Speaker #0
D'accord.
- Speaker #1
Au fur et à mesure qu'ils avancent, est-ce que tu es en mesure de vérifier que le contenu que tu génères est vraiment véridique ? Et là, il y a un processus de recherche à faire sur cette agence-là pour que quand tu génères le projet pour cette agence-là, ce n'est pas du contenu haut. au moins c'est ça de la désinformation ou du greenwashing. Donc, est-ce que tu as vraiment vérifié ? Donc, c'est un aller-retour, c'est ça, je les mets vraiment en interaction avec cette agence-là pour qu'ils produisent en même temps en vérifiant l'information. Est-ce que tu as aussi la capacité, qui est un enjeu très important avec l'IA, de reconnaître si tu as créé des biais ? Parce que malheureusement, avec l'IA, il y a énormément de biais. est-ce que ton image, moi je vais les faire travailler beaucoup sur les images, est-ce que ton image reflète une inclusion ? Donc c'est toutes sortes de ces questions-là qui vont faire partie de leur code d'éthique, en fait, mais en même temps, c'est juste le processus de construction de la production avec l'IA devient plus conscient.
- Speaker #0
D'accord. Et est-ce que du coup, l'objectif final et de générer une image grâce à l'IA ou est-ce que c'est que l'IA générative sert d'inspiration et qu'ensuite, ils génèrent eux-mêmes l'image ? Est-ce que dans l'exercice, il y a un impératif comme ça ou c'est ouvert ?
- Speaker #1
La finalité, c'est que les outils sont autour de nous, on n'a pas le choix, mais en même temps, c'est de plus les comprendre et comment les intégrer. Donc moi, c'est... plus ce processus de co-création, parce qu'il y a vraiment une facilité avec l'IA que tu peux générer, puis tu ne retouches pas, tu ne retravailles pas le travail, le produit, si on peut dire. C'est vraiment ça, c'est sur quoi moi je voulais faire travailler, c'est-à-dire que tu es vraiment en processus de co-création comme n'importe quel outil. Un appareil photo, il faut que tu comprennes tous les boutons, pour que tu fasses une belle photo, si on peut dire. C'est pareil avec l'IA. Elle a son code, elle a ses outils. Et ça, c'est ça, il y a une littératie. Il faut comprendre pour pouvoir après ça agir et être en interaction avec cet outil-là.
- Speaker #0
Et est-ce que de votre côté d'enseignante ou de vos élèves, vous avez justement remarqué... des biais ou des limites à certains outils. Alors, soit en vrai, soit j'ai un son d'image, soit on peut parler, j'ai un son de vidéo. Je prends un outil qui est sorti récemment qui fait des… Führer, c'est Sora, je crois, Sora 2. Est-ce que vous avez avancé dans une réflexion sur tel outil à tel biais, donc je sais que je vais avoir ces limites-là ?
- Speaker #1
Oui, puis en fait, on fait même un petit peu l'évolution de l'IA, comment elle a intégré de plus en plus le marché et puis dans quel contexte, pour qu'ils comprennent aussi l'histoire de cette technologie autour de… qui est en train d'intégrer nos pratiques. Et on leur explique beaucoup que d'abord, au niveau de ces dernières années, l'IA est venue vraiment dans un contexte industriel. Quand je leur présente un projet qui a été fait par des chercheurs, et qu'on a les résultats, c'est la portée médiatique de l'IA. Tout est dans la communication. Comment ils ont sorti ça d'un point de vue de communication ? Les étudiants prennent beaucoup conscience que ça a été vraiment médiatisé d'une certaine manière, ça a été développé dans un contexte industriel pour automatiser des tâches, mais en même temps, chacun peut s'approprier sa technologie. Il y a eu vraiment un discours médiatique qui est sorti pour la productivité. pour l'efficacité. Donc, Benjo, quand il parlait, puis quand il s'est associé au début, c'était avec des entreprises privées. Donc, le chercheur qui s'associe avec le privé, c'est vraiment pour l'efficacité, pour la productivité, etc. On n'était pas là du tout et on n'est pas encore rendu du tout dans des outils que nous, dans le milieu postsecondaire, au cours d'une boîte noire, c'est ça, c'est que Merci. Ça a été développé dans un autre contexte.
- Speaker #0
Oui.
- Speaker #1
Puis ça passe dans le milieu de postsecondaire. Oui. Plus total de littératie. C'est pour ça que nous, les profs, on travaille beaucoup en parallèle à nos cours pour arriver en classe avec... Oui. On a beaucoup plus de compétences, de capacités à résister aux étudiants, de pouvoir leur répondre, etc. C'est très complexe. C'est vraiment complexe.
- Speaker #0
Et alors du coup, passons maintenant à vous, dans votre enseignement, à part le fait d'intégrer cette IA générative dans l'enseignement, est-ce que vous, dans votre façon de produire les cours, c'est-à-dire un cours qui n'a rien à voir avec l'IA, mais sur un autre contenu, je ne sais pas si c'était possible maintenant, que tous les cours doivent intégrer l'IA, mais voilà, est-ce que, je ne sais pas moi, pour créer des diapositives ? Est-ce que vous vous mettez à créer maintenant plus de visuels qu'avant ? Est-ce que ça a changé votre façon de faire cours ? Et puis ensuite, ma deuxième question, c'est évidemment la question que tout le monde se pose. Est-ce que ça a changé votre façon d'évaluer ? Parce qu'avant, on évaluait, on avait un travail à faire à la maison, on savait, on voyait un peu les copiers collés sur Internet. Là, aujourd'hui, c'est plus compliqué, un peu plus, même si j'imagine que vous avez un œil exercé. de voir si quelqu'un a produit son travail avec l'IA uniquement. Voilà, c'est un peu deux questions. Comment est-ce que vous avez intégré l'IA dans votre production de cours, pas uniquement sur le sujet, mais sur le mode de délivrance, et deuxièmement dans l'évaluation ?
- Speaker #1
C'est une très bonne question. Je t'avoue, on est en train d'avancer. On a beaucoup, beaucoup cheminé. Dans la production des cours, oui. Parce que nous aussi, on s'applique à une certaine charte éthique, si on peut dire. Donc, on a, par exemple, un agent conversationnel, Chad GPT, Gemini, Copilot, etc. Donc, on génère du texte. On peut interroger Chad GPT par rapport à des idées pour le plan de cours. Mais ce n'est pas ce texte-là qui sera reproduit intégralement dans le plan de cours. Par contre, on regarde un peu, surtout que les résultats, parfois on gagne du temps un petit peu sur certains liens qu'on voit dans les réponses, on va voir le site. Donc, parfois, je ne te gâche pas, on perd du temps parce que le résultat n'est vraiment pas bon dans la requête de bons résultats. Donc, on perd du temps plus qu'autre chose. Puis parfois, on tombe sur des choses intéressantes. Tout est... dépend de la base de données, de l'algorithme. Il est de plus en plus fourni parce qu'en même temps, on l'interroge et du coup, on l'entraîne aussi. Donc, on a de mieux en mieux des résultats intéressants. Mais il reste à dire qu'il y a tellement un travail autour de vérification de ce qu'ils nous donnent, cliquer sur les liens pour vérifier les sources qu'ils nous donnent, etc., que parfois, ça devient beaucoup plus long qu'autre chose. Mais pour moi, je pense que c'est ce que la plupart utilisent. J'ai fait une entrevue parce que j'ai un projet de recherche. sur l'IA et la francophonie minoritaire en ce moment. Puis des personnes m'ont dit carrément, moi je lui demande de me poser des questions. Donc pour résister un petit peu, j'ai un projet d'écriture d'un article ou quoi que ce soit, pose-moi des questions, qu'est-ce que je pourrais mettre dans mon article ? Donc il y a une forme de conversation qui est intéressante. Parfois on est tout seul à essayer de faire... son cours ou son énoncé de devoir, et puis on est tout seul, c'est intéressant cette conversation. Mais je pense que tous les autres éléments, on n'est pas rendu de faire, je ne pense pas qu'on va arriver à faire confiance à l'IA complètement. Donc je pense qu'il y a un code d'éthique qu'il faut tout le temps garder en tête, de vérifier, de reconnaître des biais, vérifier les références. C'est comme... C'est une technologie qui, du coup, t'amène de nouvelles pratiques dans ton enseignement. Que tu faisais, tu dois vérifier les références avant de les mettre dans ton devoir ou dans ton cours. Mais là, c'est ça, tu passes par un outil pour générer ça.
- Speaker #0
Oui, et est-ce qu'en tant que chercheuse, on se surprend à nourrir l'IA avec ses recherches ? pour s'assurer qu'il intègre aussi ces recherches.
- Speaker #1
Exactement, on n'est pas rendu, nous on aimerait au Media Lab d'ailleurs, culture numérique, créer notre propre base de données, en fait, du bol, c'est ça, puis faire un algorithme pour interagir et puis du coup on aura un small LLM, si on peut dire, c'est vraiment une IA propre à notre pôle. C'est vraiment ça qu'on aimerait arriver à faire ça. Là, au moins, c'est fermé. C'est ça qu'on défend, nous, en tant que chercheurs, c'est on peut-tu avoir des IA plus souveraines, des IA plus ancrées localement, plus petites. Ce qui fait peur actuellement, c'est qu'on est en train d'utiliser des IA de la Silicon Valley, etc. Donc, on ne sait pas trop ça va où. les données sont utilisées où, etc. Moi, personnellement, d'un point de vue toujours au niveau de mes pratiques éthiques, par exemple, jamais je ne mettrais un devoir d'étudiant pour demander à chaque GPT évalue-moi le devoir.
- Speaker #0
Ah oui,
- Speaker #1
d'accord.
- Speaker #0
Ça fait partie des lignes rouges, ok.
- Speaker #1
Complètement. Tu ne peux pas transmettre un devoir comme ça. Tu ne peux pas aussi ton article qui va être... publié dans une revue, il ne faut pas qu'il soit visible nulle part que dans cette revue. Donc, jamais je n'irai mettre mon article pour que l'IA me corrige. Je pense que c'est très important. C'est ce code-là de fonctionnement d'une IA, c'est de la comprendre et de développer des pratiques. Parce qu'au bout du compte, c'est l'humain qui doit contrôler cette technologie-là et non pas l'inverse. C'est ça que les étudiants ont. ont tendance à parfois mélanger. Elle m'a donné, moi, certains me disent, et certains me font que ça, à un moment donné, c'est ma vie. Ça me sauve de tout, du temps. Oui, mais je ne suis pas sûre que ça t'aide. À long terme, les résultats de recherche le montrent très bien. Il y a un appauvrissement de la pensée critique. Le cerveau a besoin d'être stimulé. Il a besoin d'être toujours en défi de questionnement, de problématique. Puis là, on est en train d'atrophier quelque part notre réflexion humaine.
- Speaker #0
Ça, c'est une super méta-réflexion sur l'usage de l'IA et comment on le dit. Est-ce qu'il y a des gens qui me disaient « Internet, vous rendez bête » . Mais alors là, l'IA nous rend idiot. En effet, ça c'est vraiment un défi. C'est pour ça que je demandais, et on pourrait le comprendre, que dans certains cours, on dise vraiment clairement, là, dans ce cours-là, on ne veut pas, autant dans d'autres, vous utilisez l'IA pour connaître, pour avoir un esprit critique, pour savoir quel outil utiliser quand vous en aurez besoin après, autant, dans ce cours-là, vous êtes pénalisé. si vous utilisez l'IA. Ça, c'est quelque chose que d'autres enseignants, peut-être à l'UEF, font.
- Speaker #1
Je vous avoue, c'est là qu'on tombe rapidement dans le plagiat. C'est-à-dire que là où le lieu d'apprentissage, c'est l'éducation. C'est-à-dire que si nous, on n'est pas le lieu d'expérimentation et d'éducation, les étudiants vont aller, et puis les élèves, etc., vont aller faire comme je vous ai montré, je vous ai dit l'année dernière, je ne veux même pas. lui montrer que j'utilise l'IA parce que dans leur tête, c'est du plagiat. Parce que cela a été énormément interdit. Moi, mais oui, pour répondre à votre question, il y a encore, jusqu'à maintenant encore, et ça se comprend, je veux dire, chacun jusqu'où il est rendu dans la réflexion et dans la pratique avec l'IA, mais il y a encore beaucoup de profs qui résistent à l'utilisation de l'IA et qui considèrent que c'est du plagiat. et qui pénalisent les étudiants. Moi, personnellement, je ne pense pas que c'est la bonne méthode parce que les étudiants n'ont pas choisi d'utiliser l'IA. Je veux dire, nous, on est dans l'environnement Microsoft, l'IA est partout. Il suffit de cliquer sur un bouton que tu peux avoir un résumé de la rencontre, tu peux enregistrer. Mais par contre, on... Je pense plutôt que si, ça demande beaucoup d'énergie, mais si le ou la professeur faisait de la pratique, chose qu'on fait beaucoup au pôle, on expérimente beaucoup. On fait sortir des modèles de travail avec l'IA. Par quoi je commencerais ? Est-ce que je commence au départ pour le reméminage avec l'IA ? Puis après ça, on demande aux étudiants de bonifier, puis de lire. Donc, de consolider le travail par les sources, par de la lecture. Et après ça, on passe à la pratique. Donc, on essaye de faire des scénarios pédagogiques avec l'IA. Nous, à l'UOF, on a aussi un groupe de travail IA. Ah,
- Speaker #0
d'accord.
- Speaker #1
Oui, avec le conseil principal en technopédagogie. Donc, on est des professeurs avec les technopédagogues. Et on se rencontre, en fait. pour essayer, on a fait un questionnaire aux étudiants, là on passe bientôt à un questionnaire aux professeurs on essaie de donner un cadre institutionnel aussi au niveau de l'IA il y a deux niveaux, il y a l'université qui doit mettre en place un cadre institutionnel dans l'utilisation de l'IA, qui est quand même ouvert pour permettre aussi aux professeurs dans le cadre de cours de pouvoir donc développer des projets avec l'IA
- Speaker #0
Bien sûr, oui. Et je trouvais ça très intéressant, l'idée d'avoir un petit LLM, parce qu'il y a en effet surtout quelqu'un comme vous qui s'intéresse à la francophonie en milieu minoritaire. En effet, si on se borne à utiliser les outils américains, et si on ne s'ouvre pas à Mistral, qui est une IA française, par exemple, il y en a plein d'autres. Il y a Adipsic qui est chez nous. Si on se borne à utiliser ces outils-là, quelque part, non seulement on utilise moins son esprit critique, mais en fait, on est sous la coupe d'une vision du monde américaine. Donc, on se limite énormément.
- Speaker #1
Oui, on va vers la majorité, c'est-à-dire la globalité dans l'utilisation de l'IA fait qu'on devient comme un mouvement. général, tout le monde l'utilise. Est-ce que c'est ça qu'on veut ? Est-ce qu'on ne devrait pas plutôt garder notre diversité culturelle, notre diversité linguistique, notre diversité même dans les pratiques d'enseignement ? C'est pour ça que je trouve ça intéressant, même nous au pôle, dépendamment des profs, on les utilise différemment. Et c'est ça la beauté de la chose, c'est qu'on imagine que l'étudiant rentre en classe puis dans chaque cours, l'utilisation est faite. Mais pareil, c'est monotone. Ça devient standardisé, puis on ne lui donne pas cette variété.
- Speaker #0
360 de « voici comment tu peux travailler avec cet outil-là » . Donc, l'IA est une culture. C'est pour ça que nous, on appelle ça notre pôle culture numérique. C'est-à-dire que c'est vraiment une culture. Ça génère des pratiques, des comportements, etc. Donc, il faut vraiment savoir comment… On n'est pas rendu là, encore moins dans le postsecondaire. En ce moment, moi, ce que je vois dans le milieu culturel… On est influencés par l'Europe, en fait, principalement la France, qui sont quand même en avance dans des règles, dans des lois, dans des normes pour essayer de développer une certaine souveraineté. Donc, il y a de plus en plus de partenariats, tout France-Québec, beaucoup. Donc, ça, ça risque d'ouvrir à quelque chose quand même d'une union peut-être souveraine. Mais moi, je pense surtout ici en Ontario. On vit déjà dans la minorité. On a déjà des défis énormes parce qu'on est dans une ville anglophone. Je pense que c'est très, très important pour nous de garder toujours cette distinction.
- Speaker #1
Oui. C'est intéressant de savoir s'il y a des efforts, vous qui suivez ça, justement, quand vous parlez de la collaboration avec le Québec et la France, la francophonie en général. S'il y a des gouvernements qui cherchent à financer des efforts de LLM francophones, québécois ou souverains, est-ce que ça, c'est quelque chose qui est à l'ordre du jour ou pas particulièrement aujourd'hui ?
- Speaker #0
Ce que je peux dire de ce que je sais avec le programme de recherche qu'on a, c'est que, par exemple, l'équipe de recherche de la chaire IA et numérique francophone vient de revenir d'Europe. Ils ont fait donc tout un long séjour pour voir un peu ce qui a été développé là-bas, ce qui s'est fait, et en même temps présenter l'avancement des recherches de Québec. Puis l'idée, c'est ça, l'idée c'est vraiment de créer de plus en plus de proximité, au moins le milieu francophone, on va dire, que ce soit minoritaire, non minoritaire, avec la France, etc. Mais essayons au moins de développer. en ce moment il y a beaucoup, beaucoup de travaux qui sont en train de se faire entre les deux. Je pense que c'est ça, il faut, si on veut que ça change, là on est en train de faire attention un peu plus à nos pratiques d'IA et les codes d'éthique, etc. Mais comme dans toute technologie, si l'infrastructure ne suit pas, c'est-à-dire je peux faire des pratiques d'IA, je peux avoir une certaine éthique de Merci. d'interroger l'IA en français, d'aller sur Mistral, etc. Mais si toute l'infrastructure vient des États-Unis, ça change pas grand-chose. Donc le gros problème, c'est qu'ici, les pouvoirs publics, le gouvernement, etc. investissent beaucoup plus dans l'infrastructure locale. C'est très important, il faut qu'on reste local dès l'infrastructure. Or maintenant, il n'y a pas encore... beaucoup de travail au niveau de l'infrastructure locale. Il n'y en a pas beaucoup.
- Speaker #1
Oui, le Canada est encore très lié aux États-Unis et pas très indépendant d'un point de vue technique. L'Europe cherche à l'être, mais ce n'est pas facile non plus.
- Speaker #0
Non, ce n'est pas facile. On est toujours obligé, effectivement. Il y a une monopolisation, mais je pense qu'il y a quand même des actions assez intéressantes qui sont en train de se faire. Alors, je pense que ça bouge. Au moins, ça bouge. Moi, je pense que ça bouge au niveau politique, ça bouge au niveau culturel, ça bouge aussi de plus en plus au niveau économique. Il y a certaines entreprises qui commencent à développer leur propre base de données, leur propre algorithme. Il y a des entreprises qui sont en train de se réunir pour développer ça ensemble. Donc, on voit que ça bouge quand même beaucoup. J'ai vraiment espoir qu'on va pouvoir vraiment avoir de plus en plus de projets dans ce sens-là. Il faut que les universités suivent aussi. Et pour ça, si on ne veut pas être dans la norme, il faut qu'on accepte un petit peu des technologies alternatives. Et ça, malheureusement, les universités sont très fébriles en ce sens, pensant que la technologie Microsoft est la plus sécuritaire. Je ne pense pas.
- Speaker #1
pas. Oui, on est d'accord. On est d'accord parce qu'ils sont tellement gros qu'ils sont une cible intéressante. On l'a vu avec Amazon Web Services il y a quelques jours. Il y a une part qui a impacté le monde entier en fait.
- Speaker #0
Exactement. C'est le service parce que c'est des institutions. Ça fait qu'on t'offre le package avec le service, etc. Ça coûte très cher pour l'institution. Les universités, ça coûte très très très cher. Tu vois, j'ai entendu qu'il y a, je ne me rappelle plus, mais je pense que soit c'est l'UDM ou la chaussée qui est sortie de Microsoft. Dernièrement, oui, il y a une semaine ou deux.
- Speaker #1
Oh Oui,
- Speaker #0
c'est ça. Il commence à y avoir donc un mouvement même dans le milieu de l'éducation. Oui, d'ouverture.
- Speaker #1
Oui, c'est ça.
- Speaker #0
Nous, on n'est pas encore rendu là. Pourtant, je pense que c'est comme ça qu'on va donner, parce que sinon, si on apprivoise leurs technologies, on les renforce aussi économiquement.
- Speaker #1
Clairement, et en fait, ça fait penser au… rien à voir, mais comme j'anime aussi l'atelier sur l'environnement qui s'appelle la fresque des climats, je m'intéresse beaucoup à l'agriculture d'aujourd'hui qui est inféodée. aux producteurs d'engrais chimiques et aux machines de plus en plus chères, c'est un petit peu pareil. On leur raconte que c'est la tranquillité d'esprit, etc. Mais à force, au bout d'un moment, ils deviennent de plus en plus chers et ils perdent de leur indépendance. Et en fait, ce n'est même pas bon pour l'agriculture elle-même. C'est-à-dire que les sols sont tellement appauvris par les engrais chimiques et la perte de la diversité de culture qu'il y avait avant. Et c'est exactement pareil, finalement, on pourrait faire la même chose. C'est une perte de diversité culturelle, mais au sens culturel autre, et en fait, qui affaiblit au final. Exactement.
- Speaker #0
Et on ne peut pas se permettre, dans le domaine de l'éducation, dans le domaine de la culture, dans tout domaine, même l'agriculture, etc., on ne peut pas se permettre de produire, de penser toujours productivité, efficacité. de façon industrielle. On a des êtres humains devant nous, c'est eux, la future génération, c'est eux qui plus tard sortent de l'université pour créer des entreprises, donc c'est eux, la future génération de production. Donc l'humain, pour nous, c'est très important. Il faut que, quel que soit, surtout nous en culture numérique, c'est la valeur même qu'on prône. Donc, tu... reste toujours centré sur l'humain. Et donc, même quand tu fais un travail, que ce soit pour le prof et un autre jour pour ton client, il faut que ce soit un travail humanisé avec la technologie, mais l'humain d'abord et avant tout. Donc, tu peux faire attention au biais, à la désinformation, à tout ça. Tous les jours, on a des vidéos qui sortent que je n'aimerais pas le nom de qui, que je n'ai pas envie de nommer. qui sortent des informations avec des vidéos en IA, c'est énorme. On assiste en plus de ça à une pollution informationnelle.
- Speaker #1
Oui, alors ça c'est le problème.
- Speaker #0
De ça, on l'enseigne aussi. Donc c'est vraiment de sensibiliser les étudiants à tout ça pour se donner une certaine crédibilité, une certaine éthique morale. Parce que dans le fond, c'est ça une université, c'est ça l'éducation.
- Speaker #1
Oui,
- Speaker #0
c'est ça. C'est pas vraiment que tu apprennes l'outil, que tu as une pensée, un cadre éthique, une intégrité intellectuelle quand tu travailles.
- Speaker #1
Oui, tout à fait. Et donc pour Claude, est-ce que vous à l'université, vous êtes inquiet ou les jeunes sont inquiets sur… la possibilité d'être remplacé, même si ceux que vous produisez, ils ont une valeur ajoutée, mais est-ce que les employeurs vont le comprendre, ça ? Quelles sont vos réflexions au niveau du grand remplacement des producteurs de visuels, de textes, de médias par des IA ?
- Speaker #0
Ça dépend vraiment de comment on l'a utilisé. C'est-à-dire qu'il y a des agences qui ont introduit l'IA, il n'y a rien qu'à voir. polémique qu'il y a eu à Québec avec l'affiche du Festival d'été, donc une agence qui a utilisé l'IA pour faire cette affiche-là. Et du coup, ça a enlevé un emploi peut-être à un graphiste ou à un concepteur. Mais je pense qu'au bout du compte, ça ne tiendra pas. Peut-être qu'au début, on pense qu'on va pouvoir gagner des ressources avec l'IA, etc. Mais... C'est ça que je dis toujours, c'est que si tu continues de développer ta créativité avec les technologies. Ce qui est important, c'est que les étudiants utilisent les technologies qui sont sur le marché. Les employeurs cherchent des gens qui s'y connaissent vraiment. Donc ça, on leur donne le maximum de ça, mais on leur donne avant tout la démarche de travail, la démarche réflexive, la démarche de production. Les humains-machines, nous, on est très portés vraiment vers la co-création. Ça va transformer des emplois parce qu'effectivement, l'IA pourra nous aider à faire certaines étapes. Mais je ne pense pas que... Ça risque d'enlever des emplois. Oui, il y a la polémique, bien sûr, comme les doubleurs. Mais moi, je le regarde plutôt de dire l'évolution de la société, c'est aussi l'évolution de la technologie. Il faut aussi renouveler ces emplois-là. Il faut aussi se mettre à jour. Mettre à jour ces pratiques et mettre à jour ces emplois-là. Moi, je n'ai pas d'inquiétude. En autant qu'on se met à jour et qu'on... plonge avec ces outils, puis du coup d'autres emplois qui vont se créer. J'ai entendu dernièrement, il y a une personne qui m'a dit « Moi, je rêverais d'avoir quelqu'un si je perds énormément de temps à essayer de choisir quel IA pour quel projet, comment l'utiliser. » Donc, certaines personnes demandent carrément des postes maintenant de gestionnaire d'IA.
- Speaker #1
Et ça,
- Speaker #0
c'est de nouveaux emplois.
- Speaker #1
Ah ça c'est sûr, mais ce ne sont pas forcément les mêmes fonctions, ce n'est pas le design graphique, ce n'est pas la production.
- Speaker #0
Exactement, c'est-à-dire qu'on est comme des concepteurs, directeurs artistiques ou tout autre.
- Speaker #1
C'est ce que j'allais dire.
- Speaker #0
Et là, on est en co-création avec l'IA, ça va transformer des emplois, oui, mais ça ne va pas… éliminé complètement si l'emploi est déduit. Ça, on n'y peut rien. Je veux dire, si on est au 21e siècle et que ça avance tellement rapidement avec les technologies, ça va très vite. Ça se peut qu'il y ait des emplois qui n'existent plus, mais pour ça, il faut que les universités soient tout le temps, un jour.
- Speaker #1
Ça crée révolution.
- Speaker #0
C'est ça.
- Speaker #1
heureusement que vous avez le nom d'un pôle qui est très large,
- Speaker #0
culture numérique ça laisse beaucoup de marge oui c'est ça que je dis aux étudiants je leur dis toujours c'est pas juste pour apprendre la pratique des fois ils nous disent on veut plus plus de pratique mais c'est important aussi un cours de citoyenneté numérique c'est important un cours de droit numérique on a ces cours là nous c'est important Bon. un cours de numérique et écologie et que tu vas faire une production numérique avec l'IA, sois conscient, ton temps de production est énorme en termes de coûts environnementaux, donc peut-être tu peux mettre une minuterie, c'est ce que je compte faire pour mon cours cet hiver. C'est, ok, on va produire avec l'IA, mais peux-tu calculer un peu ton temps ? Oui, c'est vraiment ce genre de choses de responsabiliser. C'est pour ça que je dis qu'on ne doit pas rester dans cette réflexion qui a démarré en 2022-2023. IA égale plagiat dans le poste secondaire. Je pense plus moi, plus IA responsable. Je suis le plus dans cette réflexion-là.
- Speaker #1
De toute façon, en effet, on ne peut pas l'ignorer. Non, mais c'était passionnant. Merci beaucoup. On te reparlera dans un an parce que je sens qu'il y aura encore des choses qui vont évoluer, à la fois à votre niveau individuel dans les IA et au niveau de l'université. Donc, c'est passionnant. Merci beaucoup. Il y aura encore 10 000 questions.
- Speaker #0
Merci beaucoup, Caroline. C'est fini pour cet épisode de Der nos écrans.
- Speaker #1
Retrouvez-nous bientôt pour reparler de l'impact de l'IA. Cette fois sur le métier du journalisme, notamment journalisme presse écrit avec Eric Barbier, journaliste français qui mène un combat depuis que son journal a commencé à remplacer certains rédacteurs par de l'IA. Derrière nos écrans est soutenu par l'organisme impénalocratif Tech for Good Canada que vous pouvez retrouver sur techforgoodcanada.com. Contactez-nous pour toutes questions ou suggestions. Enfin, donnez-nous une bonne note sur Apple Podcasts ou Spotify pour nous aider à être découvert par d'autres. À bientôt !