- Speaker #0
Vous écoutez Learning Coach by Trendy, le podcast qui part à la rencontre de ceux qui ont maîtrisé l'art d'apprendre et de former. Dans cette saison, nous vous invitons à une réflexion sur l'intégration responsable et stratégique de l'intelligence artificielle dans vos pratiques pédagogiques. Au travers des témoignages de nos invités, nous explorerons les opportunités. mais aussi les défis que l'IA soulève.
- Speaker #1
Bienvenue dans ce nouvel épisode de la saison 2 de Learning Coach. Un épisode au cours duquel nous allons aborder la question des modèles économiques de l'intelligence artificielle en formation. Et pour cela, nous avons le plaisir de recevoir une nouvelle invitée que je vais inviter à mon tour à se présenter et qui va répondre à une première question qui est la suivante. Dans 5 ans, comment imaginez-vous l'évolution des pratiques pédagogiques grâce à l'intelligence artificielle.
- Speaker #2
Alors tout d'abord bonjour, merci pour cette invitation. Je suis Gaëlle Féchangarnier, je suis tombée un peu par hasard dans le digital learning il y a 20 ans et je ne l'ai plus quittée, passionnée un petit peu par toutes les questions de l'apprendre, de la pédagogie et de la technopédagogie. Et effectivement j'ai occupé pas mal de postes dans des organismes de formation, que ce soit des postes de direction pédagogique, de direction du développement. Aujourd'hui je suis consultante. Je travaille beaucoup sur les sujets IA et formation. Et cette vague de l'IA générative, on est au début. De toute façon, quand on voit les évolutions qui sont quasi hebdomadaires dans les modèles, dans les fonctionnalités qui sortent, je pense que l'impact d'ici trois ou cinq ans va être énorme pour revisiter ces processus pédagogiques, dans le sens où, certes, on va sans doute gagner du temps, mais on va gagner du temps. Donc, sans doute aussi, les OEF vont gagner de l'argent, gagner en rentabilité, en productivité. Mais à une condition, c'est qu'on ne se laisse pas mettre des étoiles dans les yeux par un outil qui n'est qu'un outil. Je pense que l'évolution, ça va être de pouvoir dégager du temps sur quel que soit votre poste, en fait, dans la chaîne pédagogique, pour aller plus loin, pour comprendre quels sont les bons leviers d'engagement et comment, en fait, dans un workflow maîtrisé, Avec des IA génératives, on peut garder la capacité de réflexion, et je ne dis pas la capacité de penser, parce que penser, c'est un réflexe automatique, on pense tout le temps. Réfléchir face à une IA, ce n'est finalement pas si évident, on peut vite se laisser embarquer dans une réflexion qui n'est plus la nôtre, mais dans un flot de pensée. Et donc, je pense que ça peut être extrêmement positif dans la capacité à réfléchir sur... un process pédagogique, sur des scénarisations pédagogiques, sur tout ce qui fait la richesse d'un déroulé à distance, sur une nouvelle forme de granularisation, parce que demain, quand vous aurez aussi des interactions permanentes avec des chatbots pour pouvoir avoir de l'adaptive learning extrêmement fin, forcément, c'est une autre façon de concevoir un parcours de formation. Et je pense que l'impact va être important, évidemment en termes techno, mais surtout en termes de... conception d'ingénierie pédagogique.
- Speaker #1
Venons-en au sujet principal de ce podcast. Quels sont les modèles économiques dominants des intelligences artificielles en formation ? Comment se lancer ? Comment souscrire à des abonnements ? Comment épuiser les quelques maigres crédits des comptes gratuits ?
- Speaker #2
Alors, en matière de modèles économiques un peu dominants aujourd'hui dans l'IA, il y a trois grandes familles. Il y a trois grandes familles, mais qui aujourd'hui, de plus en plus, les mois passants se combinent entre elles. Elles peuvent se combiner entre elles, justement pour optimiser un petit peu les coûts. Si je prends les trois familles une par une déjà, le premier modèle, c'est le SaaS, c'est l'abonnement. L'outil est accessible en ligne, moyennant, à un prix forfaitaire, mensuel, annuel. Mais généralement, ce modèle-là, il est dominant pourquoi ? Parce qu'il offre une prévisibilité budgétaire. C'est-à-dire qu'on sait... combien on va payer. Après, il y a même une limite, c'est que ce prix ne reflète pas toujours la consommation réelle, c'est-à-dire qu'un formateur qui utilise l'IA dix fois par jour coûte le même prix, si j'ose dire, que celui qui s'en sert une fois tous les trois jours. Le deuxième modèle, c'est une tarification à l'usage. Donc là... le formateur, l'organisme va payer en fonction de ce qu'il consomme. C'est une facturation qui se fait aux tokens, c'est-à-dire les tokens des espèces de morceaux de mots lus. et générer un IA, parce qu'on paye les tokens à l'entrée et à la sortie. Et ça, c'est important, parce qu'on ne s'en rend pas toujours compte. Donc, quand on pose la question, c'est convertir un certain nombre de tokens, et quand on obtient la réponse, c'est aussi un certain nombre de tokens. Et généralement, les tokens de sortie coûtent plus cher que les tokens d'entrée. Ça, c'est pour de l'IA textuelle, et puis après, sur de l'IA audio, c'est souvent à la minute, c'est crédit d'image, voilà. Donc, chaque... Chaque modèle et chaque format de sortie a sa tarification, mais c'est une tarification à l'usage. L'avantage, c'est qu'on paye ce qu'on consomme. Donc contrairement au forfait, vous consommez ou vous ne consommez pas, vous payez quand même. L'inconvénient, c'est que là, la prévisibilité, elle est beaucoup plus compliquée parce que la facture, elle peut être très variable. Et ça peut être d'autant plus vrai si, par exemple, dans un organisme de formation, vous avez une offre qui permet à vos apprenants d'aller solliciter une IA. Et si d'un coup, tout le monde massivement, par exemple un établissement d'enseignement, moment des révisions, si tout le monde se rue et tous les étudiants se ruent, la consommation peut très vite monter, et donc la facture. Donc c'est un modèle, ce modèle de la tarification à l'usage, qui à mon sens est plus souple, mais qui demande quand même une vigilance financière. Le troisième modèle, c'est le modèle qu'on connaît bien, parce qu'il est installé depuis très longtemps, c'est le freemium. Donc j'ai une version gratuite limitée en termes de fonctionnalités pour attirer les utilisateurs, puis je bascule vers un plan freemium payant pour débloquer les vraies fonctionnalités.
- Speaker #1
L'open source est aussi vieux que l'Internet. Le secteur de l'intelligence artificielle connaît-il aussi ce modèle ?
- Speaker #2
L'open source, en fait, grosso modo, dans l'IA, on parle souvent d'open white, plus que d'open source. C'est-à-dire... que typiquement, Mistral, par exemple, va publier, il ne va pas publier son code, il va publier les paramètres d'entraînement de ses modèles. Et effectivement, dans ce cas-là, on peut télécharger le modèle, l'héberger sur ses propres serveurs ou dans le cloud et l'adapter à ses besoins. Alors là, l'avantage, évidemment, c'est 1. la liberté, 2. la souveraineté sur ces données. Ce qui peut être extrêmement intéressant, suivant le secteur de formation dans lequel on est, sur des secteurs un peu sensibles. Si vous formez, par exemple, à la cyber, avec certains clients, ça peut être intéressant.
- Speaker #1
À vous écouter, cela semble être un modèle économique idéal. Il doit bien y avoir quelques réserves à émettre à ce propos.
- Speaker #2
Évidemment que c'est séduisant parce qu'on se dit finalement, le modèle, je le télécharge, j'en fais ce que je veux et après, de toute façon, il n'y a pas de coût supplémentaire. Sauf que c'est un peu illusoire de penser ça, ce n'est pas gratuit parce qu'on déplace le coût. Parce que derrière, il y a une infrastructure et puis il y a surtout des compétences pour maintenir, pour adapter les modèles. J'ai lu récemment dans une étude que pour certains usages, l'open source peut tout à fait remplacer le modèle fermé propriétaire à la open AI. Mais l'investissement dans l'équipe technique... que ce soit internalisé ou externalisé, il est important. Et de toute façon, on s'en doute bien. Quand vous allez intégrer un modèle d'IA générative, il vous faut des compétences techniques et toute l'infrastructure pour héberger ça.
- Speaker #1
On vient de parcourir plusieurs possibilités. Si on fait un bilan, qu'est-ce que cela peut-il donner ?
- Speaker #2
Donc, si je résume un petit peu, pour un formateur, pour un organisme de formation, ça veut dire qu'il y a plusieurs options. Il y a la prévisibilité, et je prends du SAS. La souplesse. et je prends de la tarification à l'usage. L'accessibilité, je prends du freemium pour tester avant de partir sur un modèle payant. Évidemment, il y a l'open source, la liberté, mais la liberté avec un investissement en infrastructures et en compétences. Et puis, de plus en plus, et là, je pense que c'est le modèle, c'est des formules hybrides, un abonnement et l'usage. Donc, chacun des modèles a ses avantages, ses limites. Je vais faire une réponse à Normande. Tous les modèles sont bons, ça dépend de la taille de l'organisme. Évidemment que le formateur individuel ou un très gros organisme de formation, ça ne va pas être le même choix. Des compétences techniques dont on dispose en interne ou qu'on fasse appel à l'externe. De son rapport au risque, c'est est-ce que je suis capable de gérer l'open bar pour tout le monde ? Et évidemment de ses besoins propres et de ses ambitions. en matière d'IA intégrée dans ces process. Donc, pour en revenir à la question, quels sont les modèles dominants ? Tous. Et en réalité, il y a quand même une tendance vers l'hybride abonnement-usage.
- Speaker #1
Nous avons largement abordé la question des coûts. Y a-t-il quand même quelque chose que nous n'ayons pas encore évoqué ?
- Speaker #2
Donc on a parlé beaucoup des coûts de licence, du paiement direct. Ce dont on a moins parlé, même si on en a parlé un peu, c'est les coûts d'intégration technique. Mais surtout, sur les coûts, et notamment les coûts d'intégration technique, il faut voir quel est le projet. C'est-à-dire que brancher une API sur une IA, connecter son LMS, son SMS, etc. Très bien, ça a un coût. parce qu'il faut développer des connecteurs, paramétrer, authentifier, peut-être avec un SSO, créer une base documentaire, etc. Mais si, au-delà de l'API, on veut faire un RAG, c'est-à-dire entraîner, pouvoir dire à l'IA d'aller chercher dans son propre corpus, donc son corpus qui est validé pour alimenter, par exemple, un chatbot pour ses apprenants, déjà, on va passer sur un autre niveau de coût, parce qu'il va falloir créer une base documentaire, la structurer, l'indexer. Il va falloir faire beaucoup de tests pour se rendre compte si l'IA est capable d'aller chercher les bonnes réponses, de faire un ranking correct de ses réponses pour ressortir des choses pertinentes et qu'il soit bien en rapport avec son propre corpus. Et puis après, si vous créez un agent IA, que vous voulez un parcours en adaptive learning formidable où votre IA prédictive sur le LRS va parler avec votre IA générative pour générer des contenus individualisés pour chaque apprenant, c'est encore un autre coût. Donc les coûts d'infrastructures techniques, il faut aussi les mettre en rapport avec le projet et l'ambition.
- Speaker #1
L'IA en formation est-elle avant tout une charge financière ou bien un levier d'optimisation pour les organismes de formation ?
- Speaker #2
Alors évidemment que l'IA, c'est de prime abord, quand on y rentre, effectivement, c'est des postes de coûts parce qu'à un moment, il y a un investissement, qu'il soit petit ou gros, il y a un investissement. Mais effectivement, si on se... on se projette sur un projet d'IA qui est déployé, à ce moment-là, le tableau change un petit peu. C'est que oui, ça peut devenir un vrai levier d'optimisation. Est-ce que c'est mal ? Moi, je ne vois pas pourquoi ce serait mal, du moment qu'on n'y perd pas notre signature pédagogique, notre âme et la qualité de ce qu'on fait. Mais l'IA permet d'automatiser des tâches répétitives qui consomment du temps. Elle peut générer quand même des contenus contextualisés, des contenus, traduire des contenus. Évidemment, sous la supervision d'un humain, mais on va gagner beaucoup, beaucoup de temps là-dessus. C'est quand vous avez un module de formation et que quasiment à la volée, vous allez pouvoir le contextualiser à un niveau, à un secteur d'activité de façon quasi en temps réel. Oui, vous allez gagner du temps, de la productivité, ça va vous faire économiser de l'argent. Est-ce que ça veut dire que du coup, il n'y a plus de concepteurs ? Mais pas du tout, à mon sens. Et si c'est se passer de concepteur, peut-être qu'il y en aura un peu moins, je ne fais pas preuve d'angélisme, mais on ne peut pas se passer ni de concepteur ni d'ingénieur pédagogique, parce que sinon la qualité, elle sera minable. Et qu'à un moment, peut-être pas demain, mais après demain, tout le monde va s'en rendre compte. Donc oui, c'est vraiment un levier, à mon sens, d'optimisation. Mais avant d'avoir ce levier d'optimisation, il y a quand même une étape non négligeable d'investissement. pas tant dans l'outil lui-même que dans la réflexion sur ses workflows internes. C'est-à-dire, qu'est-ce que je délègue vraiment à l'IA ? Quelles sont les étapes ? Quelles sont les phases de validation ? Qui va s'en servir et pourquoi ? Et définir ça, c'est non seulement un gage de respect de la qualité pédagogique, c'est aussi un levier d'optimisation des coûts vis-à-vis de l'IA. Parce que si tout le monde s'en sert n'importe comment, à un moment, notamment sur des gros organismes, ça peut coûter cher. Après, il y a des choses, il y a des moyens d'optimiser encore les cours. Mais oui, je pense que c'est vraiment un levier d'optimisation, mais même un levier d'optimisation de la qualité pédagogique, parce que ça peut transformer complètement le rapport aux apprenants. Et je ne plaide surtout pas pour l'élimination, notamment du tutorat humain, mais c'est comment on revoit la fonction tutorale. C'est que, est-ce que le tuteur, finalement... Avoir un tuteur, par exemple, de très haut niveau, pour quelqu'un qui fait des fondamentaux et qui, de toute façon, n'aura aucun intérêt à parler à un expert très capé. Finalement, avoir une bonne IA qui lui repose les bases, qui va un petit peu plus loin, etc., avant d'avoir accès à ce niveau 2 de tuteur beaucoup plus capé. Je pense que les deux vont y gagner. Et l'apprenant, parce qu'il comprendra ce que lui raconte son tuteur. et le tuteur est un peu qui ne va pas se remettre à répéter X fois les mêmes consifs et les mêmes fondamentaux. C'est une réponse aussi en continu. C'est une réponse au problème, par exemple, de décalage horaire. C'est une réponse aussi à toute la gestion administrative. Mais où est-ce que je trouve le module 32-45 ? Voilà, c'est où est-ce que je trouve ça ? Dans une école, c'est où est-ce que je trouve mon certificat, etc. Donc, je pense qu'il y a un vrai levier d'optimisation de l'IA. Et ça peut être une vraie bouffée d'air. Est-ce que ça tuera la pédagogie ? Je ne pense pas que ça tuera la pédagogie. C'est comme partout. Il y a des gens qui sont très bons en pédagogie présentielle, il y en a d'autres qui sont moins bons. En digital learning, c'est pareil. Il y a des choses qui sont excellentes et des choses qui sont un peu moins bonnes. Quand on aura intégré l'IA, ce sera exactement la même chose. C'est un outil, à condition de le considérer comme tel, comme un outil en fait.
- Speaker #1
Les solutions d'intelligence artificielle open source peuvent-elles rivaliser avec les modèles propriétaires du marché ? Sachant que nous avons des modèles robustes qui sont open source.
- Speaker #2
Alors, sur cette question, effectivement, open source versus modèle propriétaire. D'abord, c'est une question qui est vraiment stratégique, parce que d'abord, ça dépasse largement la technique. Ça touche Ausha de dépendre ou non d'un acteur de marché ou de construire sa propre autonomie. Donc, c'est une question qui est loin d'être neutre. De plus en plus, les modèles open source vont rivaliser. C'est une évidence là. Côté performance, l'écart entre l'open source et le propriétaire, c'est vraiment, ces derniers mois, réduit à... très très grande retail. On a des modèles comme l'AMAR 3.1 de Meta, comme le Mixtral de Mistral. Les deux, que ce soit Meta, Mistral, ils sont très compétitifs sur beaucoup, beaucoup de tâches de production de texte, de raisonnement courant, de génération de code. Ils ont donc tout leur poids, leurs paramètres d'entraînement qui sont publiés. Ça permet à chacun de les déployer, évidemment, modulo, ce que je disais tout à l'heure. avec des compétences et une infrastructure technique. Il y a des benchmarks indépendants qui sont réalisés. Il y a le chatbot Arena, il y a le Helm à Stanford. Et ces benchmarks ont montré que l'open source rivalise très bien sur grosso modo 80% des usages. Et là où évidemment sur les grands modèles fermés opérés, par les leaders des modèles propriétaires, donc évidemment OpenAI, Anthropic, Google DeepMind, là, effectivement, ils peuvent garder une longueur d'avance sur des cas plus exigeants, sur des raisonnements extrêmement complexes, sur une multimodalité aussi. Si je veux, en temps réel, sortir à la fois du texte, de l'image, de l'audio, effectivement, ils peuvent encore garder une longueur d'avance. Mais on voit la vitesse à laquelle les modèles évoluent. C'est assez bluffant. Donc, aujourd'hui, des benchmarks indépendants disent 80% des usages peuvent être traités sur de l'open source, demain, on passera sans doute à 90%. Et puis, est-ce qu'on a besoin ? En fait, c'est aussi toujours ramener à ses propres besoins et à ses propres challenges et à ses propres contentes. C'est à quel moment on a besoin d'un modèle open source, à quel moment on a besoin d'un modèle propriétaire. Sachant que sur des modèles open source ou sur des Mistral, on peut faire tourner des plus petits modèles qui sont moins gourmands, en argent, en énergie. Sur le terrain de l'open source versus le propriétaire, l'open source a rattrapé les géants avec leur modèle propriétaire qui ont encore quelques mètres d'avance, mais ça tend à se réduire. Sur le terrain économique, effectivement, l'open source, ça peut être un atout. On ne paie pas de licence. Par contre, on paie l'inférence. la puissance de calcul à chaque fois que le modèle répond. Et là, il y a des optimisations techniques, il y a des solutions techniques qui permettent de servir plus de requêtes en parallèle. Il y a une technique qui s'appelle, je vais le dire avec mon accent français, la quantisation. On compresse le modèle, il prend moins de mémoire, effectivement, il va perdre un peu en précision. mais ça permet de le faire tourner sur des machines un peu plus modestes. Donc, on a aujourd'hui, selon ces projets en interne, plus intérêt, si on a les compétences, évidemment, toujours la même chose, et le budget pour construire une infrastructure, à prendre de l'open source, à compresser des modèles, à trouver des astuces, parce que des astuces d'optimisation financière sur l'IA, il y en a.
- Speaker #1
Pour en revenir au modèle économique, existe-t-il des alternatives aux modèles traditionnels qui permettraient ? Un accès plus équitable à l'IA en formation.
- Speaker #2
Les alternatives, évidemment, existent, mais il y a un point qu'on n'a pas abordé sur cette question, c'est aujourd'hui les démarches de mutualisation. Parce qu'on voit, et notamment aux États-Unis, ça commence à émerger, il y a des initiatives, il y a le National AI Research Resource. qui est financé par la National Science Foundation aux États-Unis, qui met à disposition des chercheurs, de la communauté éducative, des ressources d'IA qui sont partagées, les données sont partagées, la puissance de calcul, les outils. Donc effectivement, c'est une mutualisation. Il y a des initiatives, notamment d'Harvard, avec OpenAI, et Microsoft, il me semble, qui ont rendu accessibles des millions de livres du domaine public pour entraîner des modèles d'IA. Donc c'est une ressource ouverte. qui peut profiter à toute la communauté. Il y a aussi des consortiums, il me semble. Alors, je cite beaucoup d'exemples aux États-Unis, parce qu'il y a pas mal d'exemples aux États-Unis sur de la mutualisation en termes de ressources et de puissance de calcul. En Europe, je crois qu'il y a l'Estonie qui a lancé un projet sur des lycéens et des enseignants pour qu'ils aient accès gratuitement à des outils d'IA. Il y en a peut-être d'autres, je ne les connais pas. On voit bien que ça émerge. Parce qu'il y a quand même un tel besoin de puissance de calcul qu'à un moment, finalement, plus économique aussi de partager. Donc, si je reprends et j'adapte la phrase que tout le monde connaît de tout seul, on va plus vite, ensemble, on va plus loin, on peut aussi l'appliquer à l'IA.
- Speaker #1
Nous avons une tradition dans Learning Coach, c'est de vous laisser, cher invité, le mot de la fin.
- Speaker #2
Pour conclure, je dirais que l'IA, on en est au début. Quel que soit notre niveau de maîtrise, on voit à peine, je vais parler de cas d'usage, le début des cas d'usage, de ce qu'on peut en faire, et que le pire et le meilleur est à venir. Et je pense qu'il faut, pour avoir le meilleur, il ne faut pas avoir peur de se tromper. C'est-à-dire que oui, on va se tromper, on va faire des choix qui ne seront pas les bons, on va s'en rendre compte, l'important c'est de s'en rendre compte, et puis on va progresser, mais le champ des possibles... Alors j'ai l'impression qu'on dit ça à chaque fois qu'une techno émerge, mais enfin là le champ n'est possible, semble-t-elle, sur la relation à l'apprenant, sur de l'ingénierie, sur de la conception, sur en fait toute la chaîne de valeur de la formation. Voilà, moi je trouve ça assez stimulant, assez excitant, les aïeux qui se préparent, tout en gardant un, son esprit critique, son recul, et la liberté de ne pas l'utiliser. Parce que finalement, en fait, et ce sera peut-être ça mon mot de la fin, c'est on n'est pas obligé. quand on est organisé de formation, d'utiliser l'IA, si on assume ce parti pris là. Par contre, il y a une chose qu'on est obligé de faire aujourd'hui, c'est de se poser la question. Est-ce que je l'utilise ou est-ce que je ne l'utilise pas ? Et si c'est, je l'utilise, savoir pourquoi.
- Speaker #1
Cet épisode est maintenant terminé. Un grand merci Gaël pour votre précieuse participation. Un grand merci à vous aussi, chers auditeurs, pour votre écoute et votre fidélité. Vous retrouverez cet épisode sur le site internet trendy.io sur nos réseaux sociaux comme sur l'ensemble des plateformes d'écoute.
- Speaker #0
À très bientôt pour un prochain épisode.