#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment) cover
#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment) cover
Tout Se Transforme

#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment)

#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment)

50min |07/10/2024
Play
#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment) cover
#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment) cover
Tout Se Transforme

#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment)

#13 - Faut-il avoir peur des IA ? (ft. David Renaudie - Massive Entertainment)

50min |07/10/2024
Play

Description

Dans cet épisode de "Tout Se Transforme", nous plongeons au cœur de l'intelligence artificielle (IA) et de son influence grandissante sur nos vies quotidiennes. JS et David Renaudie, Associate Director, Data Science chez Massive Entertainment (A Ubisoft Studio), nous offrent une perspective unique sur l'évolution de l'IA, en se concentrant particulièrement sur les IA génératives telles que ChatGPT. David, fort de 25 ans d'expérience dans le domaine, partage son parcours fascinant, qui débute dans l'ingénierie informatique et s'étend à une passion profonde pour l'IA. Ensemble, ils analysent les craintes et les préoccupations du grand public face à ces technologies émergentes (79% des adultes ressentent une certaine inquiétude à propos de l'IA).


Au fil de la discussion, JS et David explorent les mythes entourant l'intelligence artificielle. L'idée que les machines pourraient un jour surpasser l'intelligence humaine est scrutée avec rigueur. Ils mettent en lumière l'évolution de l'IA depuis les années 1950, en soulignant les avancées récentes qui ont conduit à une adoption massive de ces technologies dans divers secteurs. En démystifiant l'IA, ils cherchent à offrir une vision équilibrée, illustrant comment ces outils peuvent être intégrés de manière bénéfique dans les entreprises tout en restant conscients des limites et des implications éthiques qui en découlent.


Cet épisode est une invitation à réfléchir sur notre relation avec l'intelligence artificielle. Comment pouvons-nous tirer parti de ces avancées sans tomber dans le piège de la peur irrationnelle ? JS et David apportent des réponses concrètes et éclairantes, en s'appuyant sur des études et des données probantes. Ils encouragent les auditeurs à adopter une approche proactive face à l'IA, en soulignant l'importance de l'éducation et de la sensibilisation pour mieux comprendre ces technologies.


En somme, cet épisode de "Tout Se Transforme" est un incontournable pour quiconque s'intéresse à l'impact de l'intelligence artificielle sur notre société. Que vous soyez un professionnel du secteur, un étudiant ou simplement curieux, cette discussion enrichissante vous fournira des clés pour naviguer dans un monde de plus en plus façonné par l'IA. Ne manquez pas cette occasion d'élargir vos horizons et de démystifier l'IA avec nous !


Cet épisode a été enregistré en août 2024 à Malmö dans les locaux de Massive Entertainment.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • JS

    Vous écoutez Tous Transformes, le podcast qui parle de la transformation des entreprises. Ça ne fait pas tout à fait deux ans que ChatGPT a été ouvert au grand public. Pourtant, on a déjà l'impression que les IA, et notamment les IA génératifs, font partie de notre quotidien. Enfin, pas tout à fait. Selon un baromètre IFOP pour Talon, d'avril 2024, seuls 22% des 35 ans et plus les utilisent. Et 79% se sentent inquiets. En parallèle... pas une semaine ne se passe sans annonce spectaculaire des gens de la tech. Certains n'hésitent d'ailleurs pas à nous promettre une super intelligence pour très bientôt, dotée de capacités cognitives d'un être humain. Pour faire le point, je profite d'une visite à Malmö en Suède pour en parler avec David Renaudie, lead data scientist à Massive, l'un des studios d'Ubisoft. Ça fait 25 ans que David et moi sommes amis, et de mémoire, ça fait 25 ans qu'il me parle d'IA. Il me semblait donc être la bonne personne pour échanger sur le sujet avec une vision scientifique et honnête, loin de la hype et de l'agitation. Salut David, ça va ?

  • David

    Salut JS, ça va très bien et toi ?

  • JS

    Oui, ça va bien, je suis content qu'on soit ici dans les locaux massifs qui sont massifs, impressionnants. On sent la culture jeux vidéo et ça donne envie de venir bosser ici s'il ne faisait pas trop froid l'hiver.

  • David

    Oui, d'ailleurs ici c'est un critère de recrutement, il faut avoir un baromètre de 6 sur 10 en nerdy.

  • JS

    parce qu'il faut le vivre il y a des consoles tous les 10 mètres pour pouvoir jouer à la pause alors que tu travailles déjà sur les jeux vidéo aujourd'hui on ne va pas parler de jeux vidéo on va parler réellement d'IA ce qui m'intéresse c'est effectivement ton parcours parce que tu as bossé toi sur ces sujets depuis très longtemps et l'idée c'est de s'arrêter un petit peu sur les craintes qui existent aujourd'hui d'avoir ta vision pour comprendre de quoi on parle exactement quand on parle notamment des IA génératifs, du boom qu'il y a aujourd'hui et et Quelles sont les vraies raisons d'avoir éventuellement peur et quelles sont celles qui sont un peu fake ? Je te propose qu'on commence par parler de ton parcours, qu'est-ce que tu as fait, d'où tu viens, de manière à ce que derrière ça nous donne aussi un contexte et qu'on comprenne pourquoi tu es légitime à parler de ce sujet.

  • David

    Écoute, moi je viens de l'ingénierie en informatique, donc à la base j'ai fait une école, école d'ingé, je suis allé à l'ENSEMAG à Grenoble, très très bonne école, je suis très content. Et pendant ma scolarité à l'ENSEMAG, donc moi déjà j'étais... toujours très intéressé par ces questions de comment les machines peuvent faire des choses qui sont de plus en plus incroyables. Et j'ai embrassé la possibilité de faire des stages à l'étranger, de faire un parcours plutôt orienté recherche. Et ça m'a amené vers la possibilité de faire un doctorat. Et donc, j'ai passé une thèse dans les années 2000, dans une discipline qui ne s'appelait pas encore la data science, puisque le terme n'avait pas encore été trouvé et généralisé. Mais à l'époque, c'était déjà une thèse en machine learning, parce que ça par contre, le machine learning, ça fait longtemps qu'on en fait.

  • JS

    Donc c'était 99 ?

  • David

    Ouais, je commençais en 2000, c'est ça. 2000, et donc j'ai passé un doctorat dans lequel j'explorais déjà des algos de machine learning qui n'avaient absolument rien à voir avec ce qu'on a aujourd'hui, mais déjà avec l'ambition de... d'analyser des données provenant d'utilisateurs réels et d'en construire des profils pour pouvoir adresser au mieux leurs besoins. Donc, on était déjà dans des thématiques qu'on va retrouver tout au long des années et des décennies qui ont suivi.

  • JS

    Ok. Et par la suite, qu'est-ce que tu as fait ?

  • David

    Par la suite, j'ai rejoint l'industrie parce que j'avais envie d'une expérience hands-on, vraiment très concrète, très appliquée pour voir comment en entreprise les choses fonctionnent. Je n'ai pas pu tout de suite faire du machine learning, de lire l'entreprise. J'ai occupé d'autres postes. Là, je vais passer un petit peu vite. Ce n'est peut-être pas forcément le sujet pour maintenant. Mais en tout cas, ça m'a appris les process en industrie. J'ai vu comment on mène des projets, comment on délivre des choses à des clients, des choses qu'on ne voit pas forcément quand on fait de la recherche en laboratoire. Mais j'ai pu quand même, à un moment donné, rejoindre mes premiers amours. Dès que j'ai pu avoir un job de data scientist dans cette compagnie, Je l'ai fait et la boucle était bouclée. J'ai pu faire de l'IA avec les moyens modernes, donc c'était passé 15 ans quand même entre les deux, et revenir à ces sujets-là. J'ai fait ça pendant quelques années dans cette société et ensuite j'ai pu changer et venir à Massive, un studio d'Ubisoft où j'applique toutes ces méthodes d'IA, de machine learning, aux jeux vidéo, à l'industrie du jeu vidéo.

  • JS

    On voit que début des années 2000, tu commençais à travailler sur le machine learning. Pourtant, à l'époque, on n'entendait pas parler forcément d'IA au niveau des entreprises du grand public. On sait que milieu des années 2010 vers 2015, notamment avec AlphaGo, il y a eu une petite hype autour de l'IA, puis c'est retombé aussi sec. Mais là, depuis trois ans, ça s'enflamme. Alors, qu'est-ce qui nous amène à ça ? Comment ça se fait que d'un coup tout ce soit enflammé, qu'on voit de l'IA partout, même dans des grippes ? Qu'est-ce qui a amené à ça ?

  • David

    C'est réel,

  • JS

    ça a été montré au CES à Las Vegas, un gris pour la viande avec de l'IA dedans. Là, on atteint un certain niveau quand même. Donc, qu'est-ce qui nous a amené à ça ? Et qu'est-ce qui fait qu'aujourd'hui, on est... Enfin, moi, je considère qu'on est réellement sur une phase de transition et qu'on a passé un cap au niveau de l'adoption de ces technologies.

  • David

    C'est intéressant parce que l'IA, en fait, on sait ce que c'est et on la pratique, même pas au niveau où elle est aujourd'hui, on la pratique depuis les années 1950. Donc je vais faire un petit peu l'historique et je vais faire un petit peu le prof là.

  • JS

    Il faudra que je mette un jingle pour le...

  • David

    Jingle prof, tu vois. Tu vois une barbe, un pésostère avec un tableau noir.

  • JS

    On passera en noir et blanc. L'audio en noir et blanc.

  • David

    Ça va être super visuel pour les auditeurs, c'est parfait.

  • JS

    Exactement.

  • David

    Non mais voilà, l'IA, c'est un terme qui a été... On va dire, la paternité, on la donne communément à Marvin Minsky, qui avait défini l'IA dans les années 50, donc ce n'est pas quelque chose de nouveau, comme... l'implémentation sur ordinateur de tâches qui sont communément admises comme mieux réalisées par les humains que par les machines. Donc c'est une définition extrêmement large qui va comprendre aussi bien jouer aux échecs que marcher peut-être dans la rue, que faire une commande de produits, conduire une voiture, bon voilà, c'était extrêmement large. Et il faut savoir qu'à l'époque, et même toutes les années qui ont eu après, on a essayé de faire déjà de l'IA. Alors... Je ne vais pas refaire tout l'historique depuis, mais quand même, il faut savoir que dans les années 2000, ce qui s'est passé, ce qui a été un ennébleur, désolé pour l'anglicisme, mais un ennébleur pour la suite, ça a été la convergence entre des moyens computationnels supérieurs, donc on a eu de la puissance de calcul qu'on n'avait pas avant, des moyens de stockage aussi, on a pu avoir des stockages distribués et donc du volume à un volume très très important de données qu'on n'avait pas avant. Et donc, si on avait ces moyens de stockage, ces moyens de computation et de la donnée aussi...

  • JS

    Tout ce qu'Internet produit.

  • David

    Tout ce qu'Internet produit et qu'avant, on n'avait pas. Donc, on s'est retrouvé dans les années 2000 avec, d'un coup, une masse incroyable de données, des moyens pour faire des tas de calculs et des moyens pour stocker plein de choses un peu partout. Et à la convergence de ces trois-là, en fait, tout ce qui était fait déjà avant, on a pu le faire, mais à l'échelle. Et c'est là. qu'on a pu observer des effets supplémentaires très intéressants. Par exemple, les réseaux de neurones, je pense qu'on va en parler un petit peu parce que Chagipiti, je vais y arriver, mais Chagipiti c'est basé quand même sur des réseaux de neurones profonds, et les réseaux de neurones profonds, avant d'être des réseaux de neurones profonds, c'était des réseaux de neurones tout court.

  • JS

    Si on réexplique ce que sont les réseaux de neurones pour vulgariser un petit peu...

  • David

    Et les réseaux de neurones artificiels, alors on oublie toujours le artificiel, parce qu'on ne parle pas de... neurones biologiques. On fait un petit peu le raccourci là, mais les réseaux de neurones artificiels, on prend l'unité de base d'un neurone, c'est juste une petite unité de calcul qui est une grosse, grosse, grosse approximation d'un neurone biologique, qui n'a en fait pas grand-chose à voir, sauf l'idée que quand on va en mettre plein en parallèle et on va faire transiter des signaux entre eux, comme les signaux synaptiques entre les neurones biologiques, eh bien, il va y avoir quelque chose va se passer quand on passe à l'échelle et... ces réseaux de neurones artificiels vont être capables d'encoder de la connaissance dans leur connexion. Et en gros, c'est ce qui se passe, c'est ce qu'on voit.

  • JS

    Ok, c'est là où il y a un sujet pour le commun des mortels, où on a l'impression qu'il y a quelque chose de magique autour de ça. On entend parler du fait que même ceux qui créent des IA ne savent pas exactement ce qui se passe, et donc c'est très galvanisé, on galvanise les choses autour de ça. En réalité, on ne sait pas exactement ce qui se passe, mais ça ne veut pas dire qu'on ne le maîtrise pas.

  • David

    Non, c'est ça. En fait, il y a beaucoup d'idées reçues sur le fait qu'on ne contrôle pas, on ne connaît pas. Et donc, un jour, la machine va prendre le contrôle. Il faut savoir que derrière ces mécanismes qui permettent à ces réseaux de neurones artificiels d'apprendre, et encore apprendre, c'est aussi un raccourci, il y a beaucoup de mathématiques. Il y a un algorithme qui s'appelle la backpropagation. C'est ce qui permet aux réseaux de neurones d'apprendre, d'enregistrer de la donnée, de la connaissance. Bon, c'est des maths. C'est une formule avec des dérivés partiels. Puis, on l'implimente sur des machines et on fait des calculs. Donc, ça reste du calcul. D'ailleurs, le machine learning, au début, s'appelait du statistical learning. Donc, c'est de l'apprentissage statistique. C'était une méthode de faire parcourir des données à un algorithme statistique et d'avoir en résultat quelque chose qu'on appelle un modèle qu'on peut réutiliser ensuite. Mais donc, ce n'est pas du tout de la magie. Mais je voulais revenir à ce que tu disais tout à l'heure quand tu parlais de... de cette période, année 2000, où d'un coup, il y a eu une explosion. Il faut voir qu'en fait, pour ce que je suis parti sur les réseaux de neurones, c'est que les réseaux de neurones, ça existait aussi depuis les années 60. On avait conçu le perceptron multicouche, du moins dans la théorie. Donc, toutes les briques de base étaient déjà là. La bague propagation, qui est l'inébleur justement pour ces réseaux de neurones, était déjà là. Ce qui nous manquait, c'était les données, la puissance de calcul, le stockage. Et donc, avoir des milliards et des milliards de ces neurones qui vont pouvoir faire des tas de choses. Donc... c'est là qu'il s'est passé quelque chose mais il y a aussi eu quand tu as dit il y a eu une espèce de première explosion dans les années 2010 2015 avec Alphago et puis pareil pour les échecs quand tu dis que c'est vite retombé Ce n'est pas tout à fait vrai parce que ces algos-là, qui sont à base d'apprentissage par renforcement, qui est une des méthodes d'apprentissage, pas forcément des réseaux neuronaux, en fait, on n'en a plus parlé. Pourquoi ? Parce que c'était plié. Parce que le problème de faire jouer au go une machine et battre les meilleurs champions humains, ça a été fait. Et donc, on sait très bien que quelque chose est fait. On n'en parle plus, on passe à autre chose. Mais ça ne veut pas dire que ça n'a pas été, à l'époque, déjà un choc.

  • JS

    Alors, qu'est-ce qui fait que, fin 2022, on a d'un seul coup OpenAI qui ouvre ChatGPT et que d'un seul coup, tout le monde commence à se ruer dessus, voir ChatGPT ? Alors, il y a l'ouverture au grand public, évidemment. Mais est-ce qu'il y a eu des changements aussi dans la façon dont on a programmé ? ces IA sur les algos de machine learning qu'est-ce qui fait que d'un seul coup il y a eu une bascule à ce moment-là alors que ce que tu dis les algorithmes existaient, c'était plié alors évidemment il y avait déjà des produits qu'il a intégrés moi sur tous les projets en e-commerce sur lesquels je bosse évidemment derrière il y a énormément de services qui utilisaient déjà des algorithmes basés sur du machine learning ne serait-ce que pour de la recoproduit on voit toutes les choses qui font du retargeting sur internet utiliser ce type d'algorithme mais qu'est-ce qui fait que d'un coup il y a quand même eu une bascule avec OpenAI fin 2022 ? Il y a eu,

  • David

    je dirais, deux déclencheurs dont le premier en fait tu as déjà parlé, c'est l'usage donc OpenAI a eu l'intelligence de concevoir un produit et pas une technologie et ChatGPT c'est un produit qui est extrêmement bien conçu d'un point de vue expérience utilisateur ce qui fait que monsieur, madame, tout le monde peut l'utiliser et comprend ce qui se passe je rentre des phrases, des mots et j'ai en retour des phrases, des mots donc ça me parle alors que Si on reprend l'exemple du jeu de Go ou des échecs, à part les passionnés du domaine, ce n'est pas très grand public. Donc la première chose, c'est ça. Et la deuxième, c'est d'un point de vue techno, il fallait des briques de base qui ont permis à ces algos de fonctionner et d'avoir des résultats quand même pas dégueux. Aujourd'hui, on utilise le chat GPT ou de manière générale des chatbots à base de LLM. Donc on va en parler. on a quand même quelque chose qui est de l'ordre du oui, du point de vue du diateur, je comprends ce qui se passe Et pour arriver à ce niveau-là de qualité de résultat, même si on va avoir les limites, on va en parler aussi, il a fallu que ces fameux modèles de langage aient accès, on revient à cette explosion technologique, aient accès à déjà des masses de données énormes, avec un volume de textes, on sait que c'est plusieurs milliards. de textes, de pages de textes. Il fallait aussi les bons algos. Il faut oublier que GPT, ça veut dire Generative Pre-trained Transformer. Et Transformer, c'est aussi un film de SF qu'on peut en discuter, ou pas. Mais surtout, les Transformers, c'est une architecture de réseau de neurones, on revient à cela, mais profond. Il y a vraiment énormément de couches qui s'empilent. qui, on s'est aperçu que ça marche extrêmement bien pour traiter des tâches complexes, qu'on ne pouvait pas traiter avant. Et ça, c'est 2017. C'est un papier de Google, donc huit chercheurs de Google, qui ont fait Attention is all you need. Et c'est un peu le fondateur des transformers, qui ont permis les GPT, donc les modèles de langage. Et là, on revient à OpenAI, qui a eu ce génie de dire, bon, les modèles de langage, c'est bien. Donc, pour ton audience, qu'est-ce que c'est un modèle de langage ? C'est un modèle qui va être capable de générer, un modèle génératif, qui va être capable de générer du texte. Donc, c'est un modèle qu'on appelle autoregressif, c'est-à-dire qu'à chaque instant, il génère le mot suivant, je ne vais pas parler de token, mais je ne vais pas rentrer là-dedans, on va imaginer que c'est des mots, il génère le mot suivant à partir de ce qu'il est en train de générer lui-même. Donc, il est sur un mode automatique, sur la base de ce qu'il a déjà généré. C'est très bien, on peut faire des tas de trucs déjà avec, mais ce n'est pas encore un bot, on ne peut pas parler avec lui. Et donc, ils ont rajouté une couche qu'on appelle le Reinforcement Learning, qui est basée sur le Reinforcement Learning Based on Human Feedback, RLHF. Et cette couche-là, c'est la couche géniale qui a permis de contrôler ce que ces LLM génèrent par du feedback humain, c'est-à-dire qu'il y a des humains qui ont revu des tas de conversations de bots, qui les ont labellisés, bien, pas bien, ça c'est pertinent, ça c'est pas pertinent. Et ce qui a permis à ces LLM de se transformer en chatbots. qui pouvait répondre à des questions de manière... Pas mal, quoi. Pas dégueu. Même si, on va le voir, c'est pas encore parfait.

  • JS

    Ok, je pense qu'on a bien compris le contexte. Est-ce que tu as des choses à rajouter ?

  • David

    Pourquoi cette explosion ? On revient à cette explosion de 2022. Pourquoi cette explosion ? Parce que d'un coup, on a ouvert la boîte, on a commencé à regarder tout ce qu'il y avait dedans, très bien, mais du point de vue de monsieur, madame, tout le monde, il y avait d'un coup un outil qui était disponible en ligne, gratuitement, qui permettait d'interagir avec, qui donnait des réponses donc... bien, bien supérieurs à tout ce qu'on avait eu avant. Et ça, le grand public a pu s'en saisir. Et là, on a vu l'explosion des nombres. Donc, c'est depuis novembre 2022, ChatGPT sur le premier qui est sorti, puis après les nouvelles versions qui s'améliorent à chaque fois. Le grand public s'en est emparé.

  • JS

    Alors, moi, je me souviens d'une conversation qu'on a eue quand j'ai mis les mains la première fois dans ChatGPT. Je t'ai envoyé un message en disant, mais c'est complètement dingue ce truc. Et toi ? Tu trouvais ça dingue, mais moins dingue parce que tu connaissais déjà, tu avais déjà touché à ce genre de choses. Et donc, le choc que ça a pu être pour la plupart des gens qui ne sont pas data scientists, finalement, les data scientists, pour vous, c'est... Ouais, OK. En fait, ce qui est intéressant, c'est qu'ils l'ont ouvert au grand public. L'UX du truc est bien fait. Justement, le reinforcement s'est bien fait. Mais pour vous, ça n'avait pas l'effet d'une bombe.

  • David

    Non, parce que d'un point de vue technique, tu sais, quand on sait comment quelque chose marche, On est forcément moins impressionné, c'est comme quand tu vas à un spectacle de magie, que toi-même tu es un petit peu magicien à tes heures perdues. Bon, tu bois quelque chose, c'est impressionnant apparemment, mais tu connais les dessous, tu connais les astuces et tu dis Ok, ce tour il est pas mal, mais c'est pas non plus de la vraie magie, j'ai pas encore vu de cette vraie magie-là. Donc pour moi, et comme pour beaucoup de gens qui connaissent toutes les briques technologiques qui soutiennent ces modèles-là, C'est très bien. Encore une fois, je ne veux pas gâcher dessus, parce que c'est toujours facile, après coup, de dire oui, c'est pas mal. Quand même, ils l'ont fait. Alors qu'avant, personne n'avait fait avant. Donc, il faut quand même reconnaître l'attitude. Mais je ne suis pas non plus impressionné. Je ne sais pas si c'est le moment où je dis pourquoi je ne suis pas impressionné, ou on garde pour plus tard.

  • JS

    Si, on peut en parler.

  • David

    Écoute, moi, je pense que ce n'est pas si impressionnant que ça, parce que quand... La machine qu'il y a derrière, qu'est-ce qui passe quand vous allez sur ChatGPT, vous lui posez une question sur n'importe quel sujet, et vous allez avoir une réponse. Donc, comme je disais, c'est basé sur des modèles de langage dont la seule fonction est de générer mot après mot, basé sur des probabilités, des phrases, qui font sens dans le contexte où elles se trouvent. Donc, en fait, faire sens, c'est, encore une fois, on va dire, ah oui, mais le sens, c'est humain, etc. Non, c'est juste un critère de vraisemblabilité par rapport aux données sur lesquelles ils ont été entraînés. Donc, tout ce que ces modèles essaient de faire, c'est de générer des phrases qui sont vraisemblables par rapport à ce sur quoi ils ont été entraînés, mais ils n'ont aucune idée de ce que c'est la vraisemblabilité.

  • JS

    C'est de la probabilité.

  • David

    C'est de la probabilité, mais de la probabilité très bien faite, qui fait que ça donne une illusion de texte qui est quand même vachement bien, qu'un humain aurait pu produire. Mais en fait, derrière, il n'y a que ces mots qui sont générés l'un après l'autre. Mais vraiment... l'un après l'autre. Alors que nous, pourquoi je suis pas impressionné ? Parce qu'il n'y a pas de pensée derrière, il n'y a pas d'intelligence derrière, il n'y a pas de construction derrière. Nous, humains, quand par exemple tu me poses une question, je ne génère pas un mot après l'autre en jetant une pièce. Je construis une pensée, et après cette pensée est articulée grâce à cet intermédiaire qui est pas mal, qui est le langage, jusqu'à mieux. Peut-être qu'avec Neuralink, on fera autre chose. Mais voilà, on a ça. Et c'est comme ça qu'on fonctionne. Et ça n'a rien à voir avec ce que font ces chatbots, tout aussi impressionnants qu'ils puissent être. Donc, je ne suis pas impressionné, et on le voit bien, et toi aussi, je pense que tu as pu jouer avec tous ces exemples qui montrent les limites, qui ne marchent pas. Tous les jours. Et on voit que le chatbot dit absolument n'importe quoi. Mais pourquoi il dit n'importe quoi ? Je n'aime pas le terme hallucination, je ne sais pas, il hallucine, c'est vraiment... Il dit... Voilà, je n'aime pas utiliser des mots... Voilà, c'est juste qu'en fait, cette machine qui répond n'a aucune idée de ce qu'elle est en train de dire ou de faire.

  • JS

    Elle n'est pas consciente. Elle n'est pas consciente,

  • David

    elle n'a pas d'intelligence.

  • JS

    C'est pour ça que le mot intelligence artificielle est très discuté. Et je me souviens qu'il y a quelques temps, tu m'avais dit, en fait, pour toi, c'est de l'algorithmie, soit de l'algorithmie très poussée, mais ça reste de l'algorithmie. Donc, c'est de la programmation, pas plus.

  • David

    C'est ça. Par exemple, un critère aussi, et là-dessus, tout le monde peut le voir, c'est le critère du bon sens. C'est-à-dire demander à... Je ne sais pas si vous avez fait l'expérience, peut-être qu'ils l'ont réparée, ils ont réussi à l'intercepter dans les dernières versions. Mais je sais que dans les premières versions, j'avais posé la question à Chad Jepiti. Je ne vais pas la faire en détail, mais un truc genre, sachant qu'il faut à une femme humaine neuf mois pour mettre au monde un enfant, combien de temps faut-il à neuf femmes humaines pour donner naissance aussi à un enfant ? Et l'algo, sans problème, va te dire, ce n'est pas un problème, on parallélise. Et donc, ça fait un mois, puisque un mois, on a neuf femmes, neuf mois, boum, c'est fini. Ben voilà, ça te montre bien que l'algo n'a aucune idée de ce qui se passe derrière, n'a aucun bon sens, parce qu'il n'est pas ancré dans la réalité. Peut-être que ce sera une question à laquelle on viendra tout à l'heure.

  • JS

    Pour le futur.

  • David

    On va y revenir. Alors,

  • JS

    on va jouer un jeu et on va essayer de prendre les trois grosses peurs, un top 3 des grosses peurs autour de l'IA que la plupart des gens ont. Et on va essayer de se dire, est-ce qu'elles sont légitimes ? Est-ce qu'on a raison d'avoir peur ? Ou est-ce que finalement, ce n'est pas si dramatique que ça ? Je pense qu'en fait, il y a surtout de la nuance à aller chercher. Numéro 3. L'IA va tuer la créativité donc avec tout ce qu'on voit aujourd'hui de génération d'images de films ou de morceaux de vidéos moi qui fais beaucoup de musique le fait qu'il y ait aujourd'hui des plateformes qui font de la musique complètement, c'est terminé on va plus avoir d'artistes parce que les IA vont tout remplacer alors moi j'ai ma petite idée qui est que ce qu'on va chercher dans l'art c'est plutôt le feeling de l'artiste l'émotion, ce qu'il raconte, son background etc et que ça en fait Une IA ne va pas pouvoir le raconter, même si ce qu'elle produit est parfait techniquement. On a besoin, nous, humains, d'avoir une histoire, mais j'aimerais bien avoir ton feedback.

  • David

    Alors, mon feedback là-dessus, il est très clair, c'est que non, la machine et l'IA, tout aussi puissante qu'elle puisse être aujourd'hui, ne va pas tuer la créativité humaine. Pourquoi ? Eh bien, parce que, encore une fois... On revient à la manière dont ces machines fonctionnent pour générer, par exemple, des images, mais ça s'applique aussi à tous les autres types de médias dont tu as parlé, l'audio, même la 3D, ce que tu veux. Ce sont des algorithmes qui font une espèce de moyenne de toutes les images, de tous les médias sur lesquels ils ont été entraînés et qui vont se servir de ces patterns qui ont été détectés dans les données sur lesquelles ils ont été entraînés pour, encore une fois, générer quelque chose qui est... vraisemblable dans le contexte du prompt qui a été fait. Ça génère des choses fantastiques, très belles, etc. Mais est-ce qu'il y a un processus créatif derrière ? Non. Est-ce qu'il y a une pensée construite derrière ? Non. Est-ce qu'il y a une histoire ? Est-ce qu'il y a une forme d'humanité derrière ? Alors, on pourrait dire que l'humanité était dans le support qui a servi à l'entraînement. Mais de la même manière qu'un artiste aujourd'hui s'inspire des œuvres de ses contemporains et de tous les artistes passés dans son art, l'artiste s'en imprègne et bien sûr qu'il utilise tout ce qui a été fait jusqu'à présent pour produire son propre art. La machine ne fait pas ça. Comme je l'ai expliqué, elle ne fait pas du tout ça. Est-ce qu'il est possible que la machine tue la créativité ? Mais absolument pas. Et d'ailleurs, on le voit souvent quand on demande à des artistes, des professionnels. Ici, il y en a plein à Massif. J'ai la chance d'être entouré par des artistes brillants. Et eux aussi ne sont pas impressionnés dans le sens où ils vont dire Ouais, bon, là, l'image qui m'a sorti, il y a ça et ça et ça qui ne va pas. Ce n'est pas comme ça que je l'aurais fait. Pas de démarche artistique. Donc, c'est bien pour peut-être faire un petit peu d'idéation. Je ne sais pas si c'est très français. C'est bien pour aller chercher des choses, peut-être pour automatiser certaines tâches un petit peu rébarbatives, répétitives, que parfois il faut faire dans l'industrie. Mais alors, est-ce que ça va tuer la créativité ? Je ne crois pas. Le jour où on aura une machine... pensante, etc., qui est sur le même mode de fonctionnement que l'humain, on en reparlera. Mais ce n'est pas aujourd'hui.

  • JS

    J'ai une anecdote à ce sujet aussi sur la façon dont on ressent la créativité. Il y a eu un concours très récemment qui a été fait autour de la génération d'images faites par les IA. C'était la plus belle image générée par IA. Chacun a amené son image générée par IA. Et il y a un gars qui gagne avec une image super belle, etc. Donc on lui remet son prix, au moment où on lui remet son prix, il dit mais en fait c'est une vraie photo que j'ai prise. C'est-à-dire qu'il était photographe et il n'a pas du tout généré l'image avec l'IA, donc on lui a enlevé son prix. Ceci dit, d'un seul coup tout le monde s'est intéressé à son image en se demandant comment il l'avait fait, quelle technique il avait pris, quelle était sa démarche, etc. Alors qu'on ne s'était pas du tout posé cette question sur la génération du prompt autour du NIA. Et on revient sur, en fait ce qui est intéressant dans la création, ce n'est pas seulement le résultat, même si le résultat peut être ultra intéressant, mais on a besoin nous humains, de savoir ce qui s'est passé avant. Alors ça va peut-être tuer les mauvais créatifs ou ceux qui ne font que copier sans avoir réellement une...

  • David

    Alerte provoque ! Oui, oui, oui !

  • JS

    Mais ceux qui sont vraiment artistes et qui ont vraiment une démarche artistique n'ont pas trop de soucis à se faire.

  • David

    C'est comme... Là, je vais citer un grand maître pour moi, et pour nous d'ailleurs, Alexandre Astier, quand on lui avait posé la question sur est-ce que l'IA va tuer la créativité, enfin, va tuer le travail... Il avait dit, s'il le fait, c'est que vous ne faites pas un très bon boulot. C'est aussi un peu provoque. Je sais que ça peut faire peut-être hurler des gens qui vont dire, mais qu'est-ce que c'est, etc. La vérité est qu'effectivement, les IA qui génèrent de l'art, des supports médias comme ça, ne sont pas capables de faire des choses d'une extrême qualité. En tout cas, je sais que ce ne sont pas des choses qui sont prêtes à être utilisées, intégrées directement en prod. Donc, à partir de là, effectivement... Si c'est le cas pour certaines images, certains assets, on va dire que ce ne sont pas des assets de grande qualité. On revient un petit peu sur cette question de qualité. Oui,

  • JS

    mais après, ça va peut-être tuer les banques d'images qu'on utilise aujourd'hui pour mettre dans des présentations, dans des posts sur Internet. Mais de toute façon, ce n'était pas déjà des assets de très grande qualité. Ok, numéro 2. Attention, on attaque le lourd. Je vais perdre mon job et être remplacé par une IA.

  • David

    Un petit peu la même réponse.

  • JS

    Si t'es mauvais, tu vas être remplacé par une IA !

  • David

    Non, c'est pas si t'es mauvais c'est pas une question de bien travailler ou pas la question c'est si tu fais une tâche qui est aisément remplaçable mais pour la totalité du travail ça veut dire que quelqu'un qui est à plein temps sur des tâches qui sont totalement automatisables c'est que effectivement tu fais pas forcément des tâches qui requièrent énormément de cette fameuse créativité et une... spécificité humaine dont on parle. Alors, il y a des jobs comme ça. Qu'ils soient menacés, on peut le comprendre, mais ça, c'est quelque chose qui n'est ni spécifique à notre période, ni spécifique à l'IA. Ça a toujours été le cas. C'est un peu le problème. Mais les temps modernes, souvenez-vous, est-ce qu'il était bon de remplacer cet ouvrier qui faisait le même mouvement 8 heures par jour à la chaîne, sur une chaîne de montage ? Alors, peut-être que oui, peut-être que non. Il a perdu son job. Je ne sais pas. Ça pose d'autres questions qui sont, de toute façon, bon, on peut en parler.

  • JS

    C'est une question sociétale.

  • David

    C'est une question sociétale. Mais si on revient juste là maintenant à la question de l'IA, maintenant de ces outils d'IA dont on parle et de la peur qui est, je pense, qui est légitime. Je peux comprendre cette peur de gens qui disent je vais perdre mon boulot Moi, je pense que... C'est un petit peu la réponse que je donne quand on me demande est-ce que je vais perdre mon job ou pas. Je pense qu'il y aura effectivement deux grandes catégories de salariés ou de candidats à l'embauche bientôt. Il y a ceux qui sauront utiliser ces outils et ceux qui ne sauront pas le faire, soit par principe, soit par manque d'envie ou soit par toutes les raisons imaginables. Mais ce qui est sûr, c'est que le critère de tri se fera là-dessus parce que... Ça se verra vite en termes de productivité, de savoir utiliser les nouvelles technologies et tout. Et là encore, ce n'est pas nouveau. Les gens qui se forment aux nouveaux outils sont des gens qu'on va plus facilement embaucher.

  • JS

    La vraie question, c'est de ça dont je parle souvent, c'est quelle est votre valeur en tant qu'être humain ? Où est votre expertise ? Où est vraiment l'intelligence humaine ? Et à la limite, s'il y a des tâches rébarbatives que vous pouvez faire remplacer par une IA, mais tant mieux, parce que ce n'est pas là où vous avez de la valeur. Sauf qu'effectivement, là, ça pose des questions de qui est où, quel type de travail on va avoir, et des personnes qui ne vont potentiellement pas être sur des métiers où ils vont pouvoir accéder à d'autres choses. Donc, c'est complexe, c'est une question complexe. Toutes les personnes qui se disent j'ai vraiment peur que mon métier soit remplacé c'est faux. C'est-à-dire, mettez les mains dans l'IA, apprennent à l'utiliser, et potentiellement, ça va devenir plus un allié qu'une contrainte.

  • David

    Je reviens à ce bon sens, où être capable de voir ses résultats, de savoir comment faire marcher ses IA, etc. Donc, il y a toujours besoin d'humains dans la boucle. Et tant mieux, c'est une bonne nouvelle.

  • JS

    Ok, top 1, attention.

  • David

    Je suis prêt.

  • JS

    Là, je crois que je vais mettre une musique profonde. Les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète.

  • David

    Est-ce que tu peux mettre une musique du style Qui veut gagner des millions ? avant ça ? C'est un peu le suspense. Tu fais une pause.

  • JS

    Il faut que ça commence In the world Donc, les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète. Donc, on parle des AGI, des super intelligences. La singularité. Sam Altman, qui n'arrête pas de nous annoncer justement les GA pour demain chez OpenAI. Là où on va avoir un Yann Le Cun, pour rappel, Sam Altman, c'est le patron d'OpenAI et Yann Le Cun, c'est le head of

  • David

    AI de Meta.

  • JS

    Qui, au contraire, lui dit, de toute façon, ce n'est pas les LLM. Les LLM, Large Engrange Model, c'est ce qui est utilisé aujourd'hui pour faire tourner la Gen AI, donc l'IA générative. Yann Lequin lui dit que ce n'est pas ces technos-là qui amèneront l'AGI et on en est encore très loin. Donc, il y a des annonces très marketées là-dessus. Quelle est ta vision d'expert sur le sujet, avec toutes les années que tu as derrière de travail sur le sujet de l'IA, sur cette arrivée de l'AGI ? En gardant à l'esprit, est-ce que tu as vraiment toutes les infos et tu es capable de répondre correctement à cette question ?

  • David

    Je ne suis pas dans la tête de Sam Altman ni de Yann Lequin. En revanche, ce que je peux te dire, c'est que... Alors, tu m'as dit, la superintelligence va émerger, etc. Une machine plus intelligente que l'homme. Je renvoie une question, et c'est une question que je pose à tous nos auditeurs. Qu'est-ce que l'intelligence ? Comment on définit l'intelligence ? À partir de quel moment on va pouvoir être sûr qu'on a quelque chose, une entité en face de nous qui est plus... intelligente que nous. Qu'est-ce que ça veut dire ? C'est-à-dire être capable de résoudre un problème de maths ? Ça veut dire être capable de répondre à une question sur comment cuisiner tel plat ? Alors,

  • JS

    je mets une définition. Capable de s'adapter. Une seule IA. Un modèle capable de s'adapter à n'importe quelle situation. Donc, de comprendre un contexte qui soit potentiellement un contexte logique, mais aussi de comprendre un contexte physique, quel que soit ce contexte, et de prendre des décisions qui sont qui donne de meilleurs résultats qu'un être humain.

  • David

    Mais même les humains ne sont pas capables de faire ça. Donc, en fait... Oui, justement. Pourquoi j'allais dans cette question un peu provoque, c'est que les chercheurs se battent depuis des dizaines d'années pour essayer de définir l'intelligence. Donc, on va avoir du mal, là, dans ce podcast, à définir cette intelligence et donc cette superintelligence.

  • JS

    On a dix minutes, on est bon.

  • David

    Heuuu, Douze ? Au-delà de ça déjà il faudrait définir à partir de tu m'as donné quelque chose sur lequel on peut partir je pense que tous on a une idée un peu générale de ce que c'est ce super être qui serait plus intelligent que nous et ça va au-delà de l'adaptabilité c'est l'autonomie c'est la question de la question C'est très large. J'ai beaucoup de difficultés à résumer.

  • JS

    Je pense que ce dont les gens ont peur, c'est d'avoir une machine, et sans parler forcément d'intelligence ou d'adaptabilité, mais une machine qui, à un moment, sorte du contrôle de l'être humain et soit en capacité, par exemple, de prendre le contrôle d'infrastructures, de centrales nucléaires, de choses comme ça. C'est ça dont ils ont peur. C'est une machine qui potentiellement s'autoréplique et soit en capacité de prendre le contrôle d'infrastructures sensibles.

  • David

    Je pense qu'il y a énormément de fantasmes. là-dedans. On a été bercé par Terminator et d'autres films de SF. On est dans le domaine du fantasme. Je vais dire ça, pourquoi ? Parce que l'IA aujourd'hui, avec tous les guillemets, tu sais que je ne suis pas un grand fan de ce terme-là, même si on est obligé de l'utiliser, parce que c'est le terme que tout le monde comprend, mais l'IA aujourd'hui n'est ni intelligente, elle est artificielle, mais ce n'est pas de l'intelligence, ce sont des outils. Donc... qui permettent de résoudre un problème donné, donc très très étroit. Et ces problèmes-là, pour pouvoir les résoudre, nous, humains, donnons l'objectif à la machine pour qu'elle atteigne le niveau de performance qu'on estime être bon pour réaliser cette tâche-là. L'intelligence générale dont on parle, c'est l'espèce de chose un peu nébuleuse qui serait capable de tout faire, mais sans avoir de vrai objectif. On est quand même, nous les humains, qui programmons ces choses-là, on est quand même là pour coder. Tu vois, là je reviens vraiment à l'ingénieur, qu'est-ce qu'on va mettre comme fonction objectif à ce truc-là, pour que d'un coup ça sorte des gonds et ça se mette à se multiplier, et à d'un coup prendre...

  • JS

    Ce que tu veux dire, c'est que, autant nous, les êtres humains, en fait on fait une projection de nous en tant qu'êtres humains, qui avons des objectifs, et quand on voit les plus grands tyrans avaient toujours des objectifs de pouvoir, de etc. Ce que tu es en train de dire, c'est que la machine, en fait, ses objectifs, c'est l'être humain qui lui donne. Donc si on ne lui en donne pas, ça ne va pas émerger naturellement.

  • David

    En tout cas, pas avec ce qu'on a aujourd'hui. Parce que pour arriver à ce que des objectifs et de la conscience émergent, il faudrait arriver à faire des simulations extrêmement avancées sur support logiciel, encore une fois, mais qui n'auraient pas de but en eux-mêmes. Alors, je vais confier ici quelque chose. Quand j'ai commencé mon doctorat dans les années 2000, et les réseaux de neurones n'étaient pas encore aussi utilisés qu'aujourd'hui, j'avais ce fantasme de dire, je vais lancer une simu sur ma machine, sur mon labo. Et je vais lancer mon réseau de neurones. C'était génial. Et le lendemain, quand je vais arriver, mon ordi va me parler. Avec cette singularité qui émergerait. de ces simulations de neurones. Première chose, ce n'est pas arrivé. C'est peut-être en train d'arriver chez Sam Altman, il faudra qu'il nous le dise le jour où ça arrive, mais ce n'est pas le cas. Je vais venir un petit peu dans les courants qui se disputent sur ces questions-là, la vision Sam Altman, la vision Yann Le Cun, et moi je pencherai pour la vision de Yann Le Cun parce que je pense aussi que pour toutes les raisons que j'ai expliquées un peu avant, sur comment fonctionnent ces modèles de langage et ces chatbots basés dessus, ce ne sont pas des modèles qui piochent les mots l'un après l'autre qui vont être capables d'arriver à l'intelligence générale. Encore une fois, parce que nous, nous-mêmes, humains, on ne fonctionne pas comme ça. Donc, partant de ce simple principe, si la base technologique, algorithmique, c'est ça, on n'y arrivera pas. On pourra peut-être y arriver en allant vers d'autres choses, en faisant de la... Peut-être la multimodalité, si on commence à mélanger le texte, la voix, si on commence à mélanger plein de choses, on va peut-être aller vers quelque chose qui donne l'illusion.

  • JS

    C'est un peu ce qu'on voit sur les annonces de... Voilà, 4o,

  • David

    par exemple. Toutes les vidéos de 4o sont super impressionnantes. Pour les auditeurs, c'est ChatGPT 4o. C'est la dernière version au moment où on enregistre, qui n'est pas encore accessible au grand public.

  • JS

    Sur la version voix. Elle est accessible en texte, mais pas sur la version voix.

  • David

    C'est extrêmement impressionnant, mais c'est encore une fois une avancée. technologique, mais ce n'est pas une avancée vers l'intelligence générale qu'on nous promet depuis longtemps. Pour autant, est-ce que c'est complètement hors de portée ? Est-ce que ça n'arrivera jamais ? Honnêtement, je ne sais pas. Je pense que si ça arrive, ça ne sera pas sur ces fondations technologiques-là, ça sera sur autre chose. Yann Le Cun en parle très bien, il dit et je le rejoins là-dessus, que pour qu'une intelligence parvienne - sans nous dépasser déjà - parviennent au niveau d'un enfant d'un an, deux ans, trois ans, je ne sais pas. Ce qui fait que la façon dont nous, humains, fonctionnons, nous sommes ancrés dans le monde, dans un monde physique qui est extrêmement dense en informations. Il faut voir qu'à chaque seconde, nos yeux, nos oreilles, donc perçoivent un flot, si on devait en mettre une taille dessus, ce serait des gigas, des gigas de données. Et un enfant est... parfaitement capable de digérer ça, ce flot de données-là, et ça va influencer les neurones de son cerveau, ses zones perceptives, ses zones motrices, etc. Et on sait que les degrés de développement de l'intelligence humaine suivent les degrés de développement moteur. Ça aussi. Donc, tout est lié dans notre cerveau. Et aujourd'hui, en essayant d'en isoler une partie, qui est le langage, on fait fausse route. C'est-à-dire que un modèle de langage, quel qu'il soit, ne pourra pas avoir cet ancrage dans la physique. tant qu'on ne va pas chercher du côté de la physique.

  • JS

    Et quand on voit Tesla avec leurs robots, et toutes les boîtes qui commencent à faire de la robotique, notamment avec des robots humanoïdes, est-ce qu'ils vont dans ce sens-là ? Est-ce que justement un gars comme Elon Musk est en train d'accompris ça et est en train de travailler sur ces sujets, que ce soit chez Tesla ? Je ne sais pas s'il a compris ça,

  • David

    Je ne sais pas s'il a compris ça...

  • JS

    ...mais ces boîtes-là.Est-ce que c'est ça qu'elles sont en train d'essayer de faire ?

  • David

    En tout cas, les robots qui font de la robotique sont obligés de s'ancrer dans la physique. Parce que les robots, pour qu'ils puissent marcher, monter un escalier sans se casser la gueule, arriver à déambuler dans des espaces un petit peu escarpés et difficiles, sont obligés justement d'être dans cette densité d'informations qui est le temps réel sur des capteurs, des actionneurs, etc. Et ce n'est pas du tout la même densité d'informations que les modèles de langage qui sont token par token.

  • JS

    Donc finalement, Terminator avait raison, ce sera des robots.

  • David

    Peut-être qu'on commencera par les robots. Mais en tout cas, avant de l'avoir des robots conscients, on revient encore une fois. Ce n'est pas pour demain. Je voulais un petit peu débanquer cette idée-là. L'intelligence générale, elle ne sera pas là.

  • JS

    On va avoir des stimulateurs. C'est-à-dire qu'il est très probable qu'un GPT-5... Que des modèles comme ça soient extrêmement performants pour simuler la réalité à un point qui rend les choses vraiment bluffantes. Mais par contre, leur attribuer une conscience va être compliqué. Le risque, et c'est d'ailleurs aujourd'hui un travail qui est fait, notamment sur les derniers papiers sortis par Oponay, sur la version audio justement qu'ils ont présenté et qui n'ont pas encore sorti, le risque c'est un problème psychologique de certaines personnes qui pourraient s'attacher. au modèle parce qu'ils vont être tellement bluffés par les choses qu'ils vont prêter vraiment des sentiments humains. On a vu peur, le film. C'est un peu le risque sur lequel ils sont en train de... En tout cas, Open AI a publié un papier sur le sujet en disant qu'on s'inquiète de ce sujet-là et donc on est en train de travailler là-dessus.

  • David

    C'est un peu pour faire du buzz.

  • JS

    Comme beaucoup de choses sur les annonces d'Open AI.

  • David

    C'est très très buzz. Et je trouve que c'est malin de dire, écoutez, on est en train de faire un truc, c'est tellement bon que nous-mêmes, on en a peur. T'imagines comme c'est bon. Le marketeux que tu es, là, tu dois... C'est génial ! Mais là aussi, on n'a pas attendu ces modèles-là et donc leur version vocale pour grossir les risques d'une technologie donnée et que les gens s'énamourachent. d'un agent qui parle, tu peux avoir la même chose avec des choses très différentes il y a très longtemps. Je ne vois pas quelque chose de très nouveau là. Pour revenir à la question de cette conscience-là, on va peut-être avoir des consciences. Pourquoi essayer de donner à ces machines une conscience ? Pourquoi faire ? C'est la question. Par exemple, comme disait un chercheur qui travaillait dans le laboratoire où j'ai fait ma thèse, qui s'appelait Bernard Ami, qui était vraiment très très bon, il m'avait dit un jour, mais il avait écrit dans un article, les avions n'ont pas... n'ont pas d'ailes, et pourtant, ils volent. Donc, si la fonction qu'il doit remplir, l'outil, c'est de voler, on n'a pas besoin de lui faire battre des ailes comme font les oiseaux. De la même manière, a-t-on besoin de donner une conscience à des machines pour remplir des tâches qui nous aident, nous, humains, comme par exemple répondre à des questions sur Ah, comment je fais pour faire ça ? et Ah, aujourd'hui, ces modèles de langage le font très bon, très bien. Ben non, il n'y a pas besoin.

  • JS

    C'est une question philosophique. Pour l'être humain, c'est la tentation d'être Dieu, d'être le créateur.

  • David

    Oui, et là, on est peut-être encore une fois sur le domaine du fantasme et créer la bête Frankenstein ou je ne sais quoi. Mais si on veut créer des outils qui sont efficaces pour nous aider au quotidien, a-t-on besoin de leur donner une conscience ? Moi, je n'ai pas envie qu'on marteau et des états d'âme et me disent, écoute, je ne le sens pas aujourd'hui.

  • JS

    Ce clou, je le trouve plutôt sympa.

  • David

    Pareil, le frigo ou le grille pain.

  • JS

    On revient à ce qu'il y a. On va reprendre, on va remettre les pieds sur terre. Et histoire de se faire une troisième partie et d'être un peu plus pragmatique, parce que ceux qui écoutent ce podcast, c'est potentiellement des chefs d'entreprise, des managers, des gens qui ont entendu parler de la GenAI, qui doivent ou veulent l'intégrer dans l'entreprise, ne savent pas trop par quelle bout le prendre, parce que c'est un gros morceau. On peur que ça ait un impact sur leurs équipes, on peur que ça déstabilise, mais en même temps, ils se disent qu'ils sont obligés d'y passer. Donc, d'après toi, quelle serait la bonne façon d'intégrer ces outils dans une entreprise ? Aujourd'hui, je vois quand même deux aspects. Il y a d'un côté la verticale métier, c'est-à-dire comment j'intègre de la GenAI dans un service marketing, dans un service com, dans un service achat, etc. où on va plutôt former les gens sur des outils existants pour leur apprendre à les utiliser. accélérer certaines choses dans leur travail, faire un plan pour une présentation, résumer des notes, ce qu'on voit apparaître d'ailleurs dans tous les outils type Teams qui permettent de synthétiser des réunions. Et ensuite, on a une version plus transverse qui fait intervenir l'IT et potentiellement des data scientists pour dire comment est-ce qu'on va utiliser, et là, ce n'est pas que de la GenAI, mais de l'IA de façon générale, pour dire, en fait, on a des données au niveau de l'entreprise, donc là, il y a un vrai travail à faire au niveau de la donnée dans l'entreprise pour venir là. l'agréger, la structurer et derrière se dire, cette donnée, comment est-ce qu'on peut arriver à travailler autour de ça pour produire de la valeur ? Ça déjà, c'est ma vision, mais est-ce que toi, d'un point de vue data science, tu as aussi d'autres conseils à donner sur ce sujet ?

  • David

    Je suis un petit peu biaisé sur cette question, étant donné que j'occupe une position de management et mon rôle, justement, à Massive, est justement de travailler sur ces questions-là. Je vais essayer de rester un petit peu agnostique là et de dire, OK, qu'est-ce que... Qu'est-ce que je pourrais dire à un dirigeant, un manager aujourd'hui qui est tenté d'utiliser de la GenAI dans son entreprise ? Donc la première chose que je lui dirais, c'est mais pourquoi faire ? Parce que si la seule raison c'est de se dire oh ça a l'air cool ou tu sais, je ne sais pas comment on pourrait traduire le FOMO, le fear of missing out. Tout le monde en parle, donc il faut que je le fasse aussi parce que sinon je vais passer pour un ringard.

  • JS

    En fait il y en a beaucoup qui n'ont pas pris le pli sur la... Transfo Digital sur la révolution Internet et qui l'ont subi. par la suite, et donc se disent aujourd'hui je ne peux pas être en retard là-dessus parce que je ne peux pas me permettre une deuxième fois d'être en retard. C'est aussi ça.

  • David

    Donc je dirais vraiment, bon, déjà, il ne faut pas faire les choses dans la précipitation et juste pour le principe, dire ah tiens, je veux le faire parce que c'est cool, même si ça donnerait du boulot à mes collègues data scientists par là, qui sortent des écoles et qui seraient ravis de le faire. Ne vous dites pas, je vais embaucher des data scientists d'une bonne équipe, déjà c'est très cher, data scientists, je précise, et puis ensuite on verra. Il faut vraiment partir, il faut essayer d'identifier quels sont les besoins de l'entreprise, qu'est-ce qui pourrait être couvert éventuellement par ces technos. Et là pour ça, il n'y a pas besoin d'avoir une armée de gens, il faut juste prendre les principaux acteurs dans les domaines clés et les mettre autour d'une table et faire réfléchir ensemble. On en a parlé l'autre jour, on disait mais ce n'est pas une approche top bottom qu'il faut prendre en disant voilà à partir de demain, vous utilisez l'outil pour faire ça et de toute façon, je n'ai aucune idée de ce que vous faites, mais vous le faites comme ça. Ça, ça ne marche pas. En revanche, amener les équipes à se saisir de ces outils-là, ça commence déjà par les dédiaboliser, par déhyper, par revenir sur terre, un petit peu ce qu'on essaie de faire là et je trouve que c'est super ce que tu fais. Donc enlever la hype, enlever tous les mots et les idées reçues, les peurs irrationnelles. et s'approprier les outils tels qu'ils sont, avec leurs avantages, leurs inconvénients. Et à partir de là, en travaillant ensemble avec les équipes, ça émerge naturellement. Donc, quand les équipes...

  • JS

    Prototyper...

  • David

    On veut prendre le train, ce train-là, parce qu'on sait qu'il va apporter de la valeur, et on veut le faire ensemble. Et on arrive à la question de la valeur. Là, je pense que tu peux prendre ça là. C'est crucial toujours d'identifier les potentiels gains de valeur.

  • JS

    Valeur n'étant pas forcément financière, ça peut être une valeur en termes de... humain, c'est-à-dire ça donne du sens au travail de certains.

  • David

    Ça peut être la valeur gagnée du temps sur les tâches répétitives.

  • JS

    La résilience de l'entreprise, ça peut être plein de choses. Beaucoup, beaucoup de choses. Donc, mettre les équipes au travail, enfin en tout cas, moi, mon credo, c'est plutôt de dire il faut faire travailler les personnes avec l'IA de manière à ce qu'on ne crée pas une situation encore plus forte vis-à-vis de la technologie qui pourrait être, pour le coup, dangereuse pour l'entreprise.

  • David

    C'est ça.

  • JS

    Ok. Écoute, on a bien parlé. Là, je vois le compteur qui fait 51 minutes. Donc, on a plutôt bien parlé. On va clore cet épisode. Déjà, où est-ce qu'on peut te retrouver ? Est-ce qu'il y a des choses qu'on peut lire ? Sur quel réseau tu es actif ?

  • David

    Moi, je suis relativement peu actif sur les réseaux. Parce qu'en fait, je bosse ! Et là, tous ceux qui sont sur les réseaux disent "Ça va, moi aussi, je bosse!" Désolé, désolé. Non, je suis principalement sur LinkedIn. On peut me retrouver, David Renaudie sur LinkedIn, qui bosse à Massive en Suède. Il n'y en a pas beaucoup. Contactez-moi sur LinkedIn si vous avez des questions. Je serais ravi d'échanger autour de ces sujets qui me passionnent. Pas que les jeux vidéo, l'IA en général, comme on l'a compris. Avant, je tweetais un petit peu, mais depuis que c'est devenu X, je... Oui, bon. Mais voilà, principalement LinkedIn. Ok.

  • JS

    Et le prochain jeu de Massive qui sort dans quelques jours ?

  • David

    Deux semaines. Dans deux semaines. Deux semaines. On sort Star Wars Outlaws. Donc, un jeu en monde ouvert dans l'univers de Star Wars sans sabre laser. Donc, je précise. Sans sabre laser. C'est un pari. Mais on pense que ça va marcher. On y croit. Et c'est cool. On est super. On est à fond là. OK,

  • JS

    bonne chance pour le lancement !

  • David

    Merci JS !

  • JS

    Voilà, c'est la fin de cet épisode. J'espère que vous avez passé un bon moment et que ça vous a donné matière à réflexion. Avant de nous quitter, quelques petites demandes. Tout d'abord, si ce podcast vous plaît, n'hésitez pas à vous abonner. C'est le meilleur moyen de ne manquer aucun épisode. Ça nous aide beaucoup. Ensuite, si vous avez un moment, laissez une note et un commentaire sur votre plateforme d'écoute. C'est pareil, c'est un retour précieux. qui permettent d'améliorer constamment le contenu. Et enfin, venez échanger avec nous sur LinkedIn, partagez vos réflexions, proposez des idées, des sujets d'invités que vous souhaiteriez voir invités sur le podcast. Ça nous aide vraiment à être visibles, à vous apporter du contenu de qualité. Ce podcast est créé et produit par le collectif Tous Transformes qui accompagne les entreprises sur les sujets de la transformation, que ce soit sur le business, marketing ou la tech. Merci infiniment pour votre écoute et votre soutien. On se retrouve très bientôt pour un nouvel épisode. Salut David.

  • David

    Salut JS.

Chapters

  • Introduction au podcast et contexte de l'IA

    00:00

  • David Renaudie présente son parcours

    01:55

  • Histoire et évolution de l'IA

    05:20

  • Les trois grandes peurs liées à l'IA

    21:02

  • Comment intégrer l'IA dans les entreprises

    43:29

Description

Dans cet épisode de "Tout Se Transforme", nous plongeons au cœur de l'intelligence artificielle (IA) et de son influence grandissante sur nos vies quotidiennes. JS et David Renaudie, Associate Director, Data Science chez Massive Entertainment (A Ubisoft Studio), nous offrent une perspective unique sur l'évolution de l'IA, en se concentrant particulièrement sur les IA génératives telles que ChatGPT. David, fort de 25 ans d'expérience dans le domaine, partage son parcours fascinant, qui débute dans l'ingénierie informatique et s'étend à une passion profonde pour l'IA. Ensemble, ils analysent les craintes et les préoccupations du grand public face à ces technologies émergentes (79% des adultes ressentent une certaine inquiétude à propos de l'IA).


Au fil de la discussion, JS et David explorent les mythes entourant l'intelligence artificielle. L'idée que les machines pourraient un jour surpasser l'intelligence humaine est scrutée avec rigueur. Ils mettent en lumière l'évolution de l'IA depuis les années 1950, en soulignant les avancées récentes qui ont conduit à une adoption massive de ces technologies dans divers secteurs. En démystifiant l'IA, ils cherchent à offrir une vision équilibrée, illustrant comment ces outils peuvent être intégrés de manière bénéfique dans les entreprises tout en restant conscients des limites et des implications éthiques qui en découlent.


Cet épisode est une invitation à réfléchir sur notre relation avec l'intelligence artificielle. Comment pouvons-nous tirer parti de ces avancées sans tomber dans le piège de la peur irrationnelle ? JS et David apportent des réponses concrètes et éclairantes, en s'appuyant sur des études et des données probantes. Ils encouragent les auditeurs à adopter une approche proactive face à l'IA, en soulignant l'importance de l'éducation et de la sensibilisation pour mieux comprendre ces technologies.


En somme, cet épisode de "Tout Se Transforme" est un incontournable pour quiconque s'intéresse à l'impact de l'intelligence artificielle sur notre société. Que vous soyez un professionnel du secteur, un étudiant ou simplement curieux, cette discussion enrichissante vous fournira des clés pour naviguer dans un monde de plus en plus façonné par l'IA. Ne manquez pas cette occasion d'élargir vos horizons et de démystifier l'IA avec nous !


Cet épisode a été enregistré en août 2024 à Malmö dans les locaux de Massive Entertainment.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • JS

    Vous écoutez Tous Transformes, le podcast qui parle de la transformation des entreprises. Ça ne fait pas tout à fait deux ans que ChatGPT a été ouvert au grand public. Pourtant, on a déjà l'impression que les IA, et notamment les IA génératifs, font partie de notre quotidien. Enfin, pas tout à fait. Selon un baromètre IFOP pour Talon, d'avril 2024, seuls 22% des 35 ans et plus les utilisent. Et 79% se sentent inquiets. En parallèle... pas une semaine ne se passe sans annonce spectaculaire des gens de la tech. Certains n'hésitent d'ailleurs pas à nous promettre une super intelligence pour très bientôt, dotée de capacités cognitives d'un être humain. Pour faire le point, je profite d'une visite à Malmö en Suède pour en parler avec David Renaudie, lead data scientist à Massive, l'un des studios d'Ubisoft. Ça fait 25 ans que David et moi sommes amis, et de mémoire, ça fait 25 ans qu'il me parle d'IA. Il me semblait donc être la bonne personne pour échanger sur le sujet avec une vision scientifique et honnête, loin de la hype et de l'agitation. Salut David, ça va ?

  • David

    Salut JS, ça va très bien et toi ?

  • JS

    Oui, ça va bien, je suis content qu'on soit ici dans les locaux massifs qui sont massifs, impressionnants. On sent la culture jeux vidéo et ça donne envie de venir bosser ici s'il ne faisait pas trop froid l'hiver.

  • David

    Oui, d'ailleurs ici c'est un critère de recrutement, il faut avoir un baromètre de 6 sur 10 en nerdy.

  • JS

    parce qu'il faut le vivre il y a des consoles tous les 10 mètres pour pouvoir jouer à la pause alors que tu travailles déjà sur les jeux vidéo aujourd'hui on ne va pas parler de jeux vidéo on va parler réellement d'IA ce qui m'intéresse c'est effectivement ton parcours parce que tu as bossé toi sur ces sujets depuis très longtemps et l'idée c'est de s'arrêter un petit peu sur les craintes qui existent aujourd'hui d'avoir ta vision pour comprendre de quoi on parle exactement quand on parle notamment des IA génératifs, du boom qu'il y a aujourd'hui et et Quelles sont les vraies raisons d'avoir éventuellement peur et quelles sont celles qui sont un peu fake ? Je te propose qu'on commence par parler de ton parcours, qu'est-ce que tu as fait, d'où tu viens, de manière à ce que derrière ça nous donne aussi un contexte et qu'on comprenne pourquoi tu es légitime à parler de ce sujet.

  • David

    Écoute, moi je viens de l'ingénierie en informatique, donc à la base j'ai fait une école, école d'ingé, je suis allé à l'ENSEMAG à Grenoble, très très bonne école, je suis très content. Et pendant ma scolarité à l'ENSEMAG, donc moi déjà j'étais... toujours très intéressé par ces questions de comment les machines peuvent faire des choses qui sont de plus en plus incroyables. Et j'ai embrassé la possibilité de faire des stages à l'étranger, de faire un parcours plutôt orienté recherche. Et ça m'a amené vers la possibilité de faire un doctorat. Et donc, j'ai passé une thèse dans les années 2000, dans une discipline qui ne s'appelait pas encore la data science, puisque le terme n'avait pas encore été trouvé et généralisé. Mais à l'époque, c'était déjà une thèse en machine learning, parce que ça par contre, le machine learning, ça fait longtemps qu'on en fait.

  • JS

    Donc c'était 99 ?

  • David

    Ouais, je commençais en 2000, c'est ça. 2000, et donc j'ai passé un doctorat dans lequel j'explorais déjà des algos de machine learning qui n'avaient absolument rien à voir avec ce qu'on a aujourd'hui, mais déjà avec l'ambition de... d'analyser des données provenant d'utilisateurs réels et d'en construire des profils pour pouvoir adresser au mieux leurs besoins. Donc, on était déjà dans des thématiques qu'on va retrouver tout au long des années et des décennies qui ont suivi.

  • JS

    Ok. Et par la suite, qu'est-ce que tu as fait ?

  • David

    Par la suite, j'ai rejoint l'industrie parce que j'avais envie d'une expérience hands-on, vraiment très concrète, très appliquée pour voir comment en entreprise les choses fonctionnent. Je n'ai pas pu tout de suite faire du machine learning, de lire l'entreprise. J'ai occupé d'autres postes. Là, je vais passer un petit peu vite. Ce n'est peut-être pas forcément le sujet pour maintenant. Mais en tout cas, ça m'a appris les process en industrie. J'ai vu comment on mène des projets, comment on délivre des choses à des clients, des choses qu'on ne voit pas forcément quand on fait de la recherche en laboratoire. Mais j'ai pu quand même, à un moment donné, rejoindre mes premiers amours. Dès que j'ai pu avoir un job de data scientist dans cette compagnie, Je l'ai fait et la boucle était bouclée. J'ai pu faire de l'IA avec les moyens modernes, donc c'était passé 15 ans quand même entre les deux, et revenir à ces sujets-là. J'ai fait ça pendant quelques années dans cette société et ensuite j'ai pu changer et venir à Massive, un studio d'Ubisoft où j'applique toutes ces méthodes d'IA, de machine learning, aux jeux vidéo, à l'industrie du jeu vidéo.

  • JS

    On voit que début des années 2000, tu commençais à travailler sur le machine learning. Pourtant, à l'époque, on n'entendait pas parler forcément d'IA au niveau des entreprises du grand public. On sait que milieu des années 2010 vers 2015, notamment avec AlphaGo, il y a eu une petite hype autour de l'IA, puis c'est retombé aussi sec. Mais là, depuis trois ans, ça s'enflamme. Alors, qu'est-ce qui nous amène à ça ? Comment ça se fait que d'un coup tout ce soit enflammé, qu'on voit de l'IA partout, même dans des grippes ? Qu'est-ce qui a amené à ça ?

  • David

    C'est réel,

  • JS

    ça a été montré au CES à Las Vegas, un gris pour la viande avec de l'IA dedans. Là, on atteint un certain niveau quand même. Donc, qu'est-ce qui nous a amené à ça ? Et qu'est-ce qui fait qu'aujourd'hui, on est... Enfin, moi, je considère qu'on est réellement sur une phase de transition et qu'on a passé un cap au niveau de l'adoption de ces technologies.

  • David

    C'est intéressant parce que l'IA, en fait, on sait ce que c'est et on la pratique, même pas au niveau où elle est aujourd'hui, on la pratique depuis les années 1950. Donc je vais faire un petit peu l'historique et je vais faire un petit peu le prof là.

  • JS

    Il faudra que je mette un jingle pour le...

  • David

    Jingle prof, tu vois. Tu vois une barbe, un pésostère avec un tableau noir.

  • JS

    On passera en noir et blanc. L'audio en noir et blanc.

  • David

    Ça va être super visuel pour les auditeurs, c'est parfait.

  • JS

    Exactement.

  • David

    Non mais voilà, l'IA, c'est un terme qui a été... On va dire, la paternité, on la donne communément à Marvin Minsky, qui avait défini l'IA dans les années 50, donc ce n'est pas quelque chose de nouveau, comme... l'implémentation sur ordinateur de tâches qui sont communément admises comme mieux réalisées par les humains que par les machines. Donc c'est une définition extrêmement large qui va comprendre aussi bien jouer aux échecs que marcher peut-être dans la rue, que faire une commande de produits, conduire une voiture, bon voilà, c'était extrêmement large. Et il faut savoir qu'à l'époque, et même toutes les années qui ont eu après, on a essayé de faire déjà de l'IA. Alors... Je ne vais pas refaire tout l'historique depuis, mais quand même, il faut savoir que dans les années 2000, ce qui s'est passé, ce qui a été un ennébleur, désolé pour l'anglicisme, mais un ennébleur pour la suite, ça a été la convergence entre des moyens computationnels supérieurs, donc on a eu de la puissance de calcul qu'on n'avait pas avant, des moyens de stockage aussi, on a pu avoir des stockages distribués et donc du volume à un volume très très important de données qu'on n'avait pas avant. Et donc, si on avait ces moyens de stockage, ces moyens de computation et de la donnée aussi...

  • JS

    Tout ce qu'Internet produit.

  • David

    Tout ce qu'Internet produit et qu'avant, on n'avait pas. Donc, on s'est retrouvé dans les années 2000 avec, d'un coup, une masse incroyable de données, des moyens pour faire des tas de calculs et des moyens pour stocker plein de choses un peu partout. Et à la convergence de ces trois-là, en fait, tout ce qui était fait déjà avant, on a pu le faire, mais à l'échelle. Et c'est là. qu'on a pu observer des effets supplémentaires très intéressants. Par exemple, les réseaux de neurones, je pense qu'on va en parler un petit peu parce que Chagipiti, je vais y arriver, mais Chagipiti c'est basé quand même sur des réseaux de neurones profonds, et les réseaux de neurones profonds, avant d'être des réseaux de neurones profonds, c'était des réseaux de neurones tout court.

  • JS

    Si on réexplique ce que sont les réseaux de neurones pour vulgariser un petit peu...

  • David

    Et les réseaux de neurones artificiels, alors on oublie toujours le artificiel, parce qu'on ne parle pas de... neurones biologiques. On fait un petit peu le raccourci là, mais les réseaux de neurones artificiels, on prend l'unité de base d'un neurone, c'est juste une petite unité de calcul qui est une grosse, grosse, grosse approximation d'un neurone biologique, qui n'a en fait pas grand-chose à voir, sauf l'idée que quand on va en mettre plein en parallèle et on va faire transiter des signaux entre eux, comme les signaux synaptiques entre les neurones biologiques, eh bien, il va y avoir quelque chose va se passer quand on passe à l'échelle et... ces réseaux de neurones artificiels vont être capables d'encoder de la connaissance dans leur connexion. Et en gros, c'est ce qui se passe, c'est ce qu'on voit.

  • JS

    Ok, c'est là où il y a un sujet pour le commun des mortels, où on a l'impression qu'il y a quelque chose de magique autour de ça. On entend parler du fait que même ceux qui créent des IA ne savent pas exactement ce qui se passe, et donc c'est très galvanisé, on galvanise les choses autour de ça. En réalité, on ne sait pas exactement ce qui se passe, mais ça ne veut pas dire qu'on ne le maîtrise pas.

  • David

    Non, c'est ça. En fait, il y a beaucoup d'idées reçues sur le fait qu'on ne contrôle pas, on ne connaît pas. Et donc, un jour, la machine va prendre le contrôle. Il faut savoir que derrière ces mécanismes qui permettent à ces réseaux de neurones artificiels d'apprendre, et encore apprendre, c'est aussi un raccourci, il y a beaucoup de mathématiques. Il y a un algorithme qui s'appelle la backpropagation. C'est ce qui permet aux réseaux de neurones d'apprendre, d'enregistrer de la donnée, de la connaissance. Bon, c'est des maths. C'est une formule avec des dérivés partiels. Puis, on l'implimente sur des machines et on fait des calculs. Donc, ça reste du calcul. D'ailleurs, le machine learning, au début, s'appelait du statistical learning. Donc, c'est de l'apprentissage statistique. C'était une méthode de faire parcourir des données à un algorithme statistique et d'avoir en résultat quelque chose qu'on appelle un modèle qu'on peut réutiliser ensuite. Mais donc, ce n'est pas du tout de la magie. Mais je voulais revenir à ce que tu disais tout à l'heure quand tu parlais de... de cette période, année 2000, où d'un coup, il y a eu une explosion. Il faut voir qu'en fait, pour ce que je suis parti sur les réseaux de neurones, c'est que les réseaux de neurones, ça existait aussi depuis les années 60. On avait conçu le perceptron multicouche, du moins dans la théorie. Donc, toutes les briques de base étaient déjà là. La bague propagation, qui est l'inébleur justement pour ces réseaux de neurones, était déjà là. Ce qui nous manquait, c'était les données, la puissance de calcul, le stockage. Et donc, avoir des milliards et des milliards de ces neurones qui vont pouvoir faire des tas de choses. Donc... c'est là qu'il s'est passé quelque chose mais il y a aussi eu quand tu as dit il y a eu une espèce de première explosion dans les années 2010 2015 avec Alphago et puis pareil pour les échecs quand tu dis que c'est vite retombé Ce n'est pas tout à fait vrai parce que ces algos-là, qui sont à base d'apprentissage par renforcement, qui est une des méthodes d'apprentissage, pas forcément des réseaux neuronaux, en fait, on n'en a plus parlé. Pourquoi ? Parce que c'était plié. Parce que le problème de faire jouer au go une machine et battre les meilleurs champions humains, ça a été fait. Et donc, on sait très bien que quelque chose est fait. On n'en parle plus, on passe à autre chose. Mais ça ne veut pas dire que ça n'a pas été, à l'époque, déjà un choc.

  • JS

    Alors, qu'est-ce qui fait que, fin 2022, on a d'un seul coup OpenAI qui ouvre ChatGPT et que d'un seul coup, tout le monde commence à se ruer dessus, voir ChatGPT ? Alors, il y a l'ouverture au grand public, évidemment. Mais est-ce qu'il y a eu des changements aussi dans la façon dont on a programmé ? ces IA sur les algos de machine learning qu'est-ce qui fait que d'un seul coup il y a eu une bascule à ce moment-là alors que ce que tu dis les algorithmes existaient, c'était plié alors évidemment il y avait déjà des produits qu'il a intégrés moi sur tous les projets en e-commerce sur lesquels je bosse évidemment derrière il y a énormément de services qui utilisaient déjà des algorithmes basés sur du machine learning ne serait-ce que pour de la recoproduit on voit toutes les choses qui font du retargeting sur internet utiliser ce type d'algorithme mais qu'est-ce qui fait que d'un coup il y a quand même eu une bascule avec OpenAI fin 2022 ? Il y a eu,

  • David

    je dirais, deux déclencheurs dont le premier en fait tu as déjà parlé, c'est l'usage donc OpenAI a eu l'intelligence de concevoir un produit et pas une technologie et ChatGPT c'est un produit qui est extrêmement bien conçu d'un point de vue expérience utilisateur ce qui fait que monsieur, madame, tout le monde peut l'utiliser et comprend ce qui se passe je rentre des phrases, des mots et j'ai en retour des phrases, des mots donc ça me parle alors que Si on reprend l'exemple du jeu de Go ou des échecs, à part les passionnés du domaine, ce n'est pas très grand public. Donc la première chose, c'est ça. Et la deuxième, c'est d'un point de vue techno, il fallait des briques de base qui ont permis à ces algos de fonctionner et d'avoir des résultats quand même pas dégueux. Aujourd'hui, on utilise le chat GPT ou de manière générale des chatbots à base de LLM. Donc on va en parler. on a quand même quelque chose qui est de l'ordre du oui, du point de vue du diateur, je comprends ce qui se passe Et pour arriver à ce niveau-là de qualité de résultat, même si on va avoir les limites, on va en parler aussi, il a fallu que ces fameux modèles de langage aient accès, on revient à cette explosion technologique, aient accès à déjà des masses de données énormes, avec un volume de textes, on sait que c'est plusieurs milliards. de textes, de pages de textes. Il fallait aussi les bons algos. Il faut oublier que GPT, ça veut dire Generative Pre-trained Transformer. Et Transformer, c'est aussi un film de SF qu'on peut en discuter, ou pas. Mais surtout, les Transformers, c'est une architecture de réseau de neurones, on revient à cela, mais profond. Il y a vraiment énormément de couches qui s'empilent. qui, on s'est aperçu que ça marche extrêmement bien pour traiter des tâches complexes, qu'on ne pouvait pas traiter avant. Et ça, c'est 2017. C'est un papier de Google, donc huit chercheurs de Google, qui ont fait Attention is all you need. Et c'est un peu le fondateur des transformers, qui ont permis les GPT, donc les modèles de langage. Et là, on revient à OpenAI, qui a eu ce génie de dire, bon, les modèles de langage, c'est bien. Donc, pour ton audience, qu'est-ce que c'est un modèle de langage ? C'est un modèle qui va être capable de générer, un modèle génératif, qui va être capable de générer du texte. Donc, c'est un modèle qu'on appelle autoregressif, c'est-à-dire qu'à chaque instant, il génère le mot suivant, je ne vais pas parler de token, mais je ne vais pas rentrer là-dedans, on va imaginer que c'est des mots, il génère le mot suivant à partir de ce qu'il est en train de générer lui-même. Donc, il est sur un mode automatique, sur la base de ce qu'il a déjà généré. C'est très bien, on peut faire des tas de trucs déjà avec, mais ce n'est pas encore un bot, on ne peut pas parler avec lui. Et donc, ils ont rajouté une couche qu'on appelle le Reinforcement Learning, qui est basée sur le Reinforcement Learning Based on Human Feedback, RLHF. Et cette couche-là, c'est la couche géniale qui a permis de contrôler ce que ces LLM génèrent par du feedback humain, c'est-à-dire qu'il y a des humains qui ont revu des tas de conversations de bots, qui les ont labellisés, bien, pas bien, ça c'est pertinent, ça c'est pas pertinent. Et ce qui a permis à ces LLM de se transformer en chatbots. qui pouvait répondre à des questions de manière... Pas mal, quoi. Pas dégueu. Même si, on va le voir, c'est pas encore parfait.

  • JS

    Ok, je pense qu'on a bien compris le contexte. Est-ce que tu as des choses à rajouter ?

  • David

    Pourquoi cette explosion ? On revient à cette explosion de 2022. Pourquoi cette explosion ? Parce que d'un coup, on a ouvert la boîte, on a commencé à regarder tout ce qu'il y avait dedans, très bien, mais du point de vue de monsieur, madame, tout le monde, il y avait d'un coup un outil qui était disponible en ligne, gratuitement, qui permettait d'interagir avec, qui donnait des réponses donc... bien, bien supérieurs à tout ce qu'on avait eu avant. Et ça, le grand public a pu s'en saisir. Et là, on a vu l'explosion des nombres. Donc, c'est depuis novembre 2022, ChatGPT sur le premier qui est sorti, puis après les nouvelles versions qui s'améliorent à chaque fois. Le grand public s'en est emparé.

  • JS

    Alors, moi, je me souviens d'une conversation qu'on a eue quand j'ai mis les mains la première fois dans ChatGPT. Je t'ai envoyé un message en disant, mais c'est complètement dingue ce truc. Et toi ? Tu trouvais ça dingue, mais moins dingue parce que tu connaissais déjà, tu avais déjà touché à ce genre de choses. Et donc, le choc que ça a pu être pour la plupart des gens qui ne sont pas data scientists, finalement, les data scientists, pour vous, c'est... Ouais, OK. En fait, ce qui est intéressant, c'est qu'ils l'ont ouvert au grand public. L'UX du truc est bien fait. Justement, le reinforcement s'est bien fait. Mais pour vous, ça n'avait pas l'effet d'une bombe.

  • David

    Non, parce que d'un point de vue technique, tu sais, quand on sait comment quelque chose marche, On est forcément moins impressionné, c'est comme quand tu vas à un spectacle de magie, que toi-même tu es un petit peu magicien à tes heures perdues. Bon, tu bois quelque chose, c'est impressionnant apparemment, mais tu connais les dessous, tu connais les astuces et tu dis Ok, ce tour il est pas mal, mais c'est pas non plus de la vraie magie, j'ai pas encore vu de cette vraie magie-là. Donc pour moi, et comme pour beaucoup de gens qui connaissent toutes les briques technologiques qui soutiennent ces modèles-là, C'est très bien. Encore une fois, je ne veux pas gâcher dessus, parce que c'est toujours facile, après coup, de dire oui, c'est pas mal. Quand même, ils l'ont fait. Alors qu'avant, personne n'avait fait avant. Donc, il faut quand même reconnaître l'attitude. Mais je ne suis pas non plus impressionné. Je ne sais pas si c'est le moment où je dis pourquoi je ne suis pas impressionné, ou on garde pour plus tard.

  • JS

    Si, on peut en parler.

  • David

    Écoute, moi, je pense que ce n'est pas si impressionnant que ça, parce que quand... La machine qu'il y a derrière, qu'est-ce qui passe quand vous allez sur ChatGPT, vous lui posez une question sur n'importe quel sujet, et vous allez avoir une réponse. Donc, comme je disais, c'est basé sur des modèles de langage dont la seule fonction est de générer mot après mot, basé sur des probabilités, des phrases, qui font sens dans le contexte où elles se trouvent. Donc, en fait, faire sens, c'est, encore une fois, on va dire, ah oui, mais le sens, c'est humain, etc. Non, c'est juste un critère de vraisemblabilité par rapport aux données sur lesquelles ils ont été entraînés. Donc, tout ce que ces modèles essaient de faire, c'est de générer des phrases qui sont vraisemblables par rapport à ce sur quoi ils ont été entraînés, mais ils n'ont aucune idée de ce que c'est la vraisemblabilité.

  • JS

    C'est de la probabilité.

  • David

    C'est de la probabilité, mais de la probabilité très bien faite, qui fait que ça donne une illusion de texte qui est quand même vachement bien, qu'un humain aurait pu produire. Mais en fait, derrière, il n'y a que ces mots qui sont générés l'un après l'autre. Mais vraiment... l'un après l'autre. Alors que nous, pourquoi je suis pas impressionné ? Parce qu'il n'y a pas de pensée derrière, il n'y a pas d'intelligence derrière, il n'y a pas de construction derrière. Nous, humains, quand par exemple tu me poses une question, je ne génère pas un mot après l'autre en jetant une pièce. Je construis une pensée, et après cette pensée est articulée grâce à cet intermédiaire qui est pas mal, qui est le langage, jusqu'à mieux. Peut-être qu'avec Neuralink, on fera autre chose. Mais voilà, on a ça. Et c'est comme ça qu'on fonctionne. Et ça n'a rien à voir avec ce que font ces chatbots, tout aussi impressionnants qu'ils puissent être. Donc, je ne suis pas impressionné, et on le voit bien, et toi aussi, je pense que tu as pu jouer avec tous ces exemples qui montrent les limites, qui ne marchent pas. Tous les jours. Et on voit que le chatbot dit absolument n'importe quoi. Mais pourquoi il dit n'importe quoi ? Je n'aime pas le terme hallucination, je ne sais pas, il hallucine, c'est vraiment... Il dit... Voilà, je n'aime pas utiliser des mots... Voilà, c'est juste qu'en fait, cette machine qui répond n'a aucune idée de ce qu'elle est en train de dire ou de faire.

  • JS

    Elle n'est pas consciente. Elle n'est pas consciente,

  • David

    elle n'a pas d'intelligence.

  • JS

    C'est pour ça que le mot intelligence artificielle est très discuté. Et je me souviens qu'il y a quelques temps, tu m'avais dit, en fait, pour toi, c'est de l'algorithmie, soit de l'algorithmie très poussée, mais ça reste de l'algorithmie. Donc, c'est de la programmation, pas plus.

  • David

    C'est ça. Par exemple, un critère aussi, et là-dessus, tout le monde peut le voir, c'est le critère du bon sens. C'est-à-dire demander à... Je ne sais pas si vous avez fait l'expérience, peut-être qu'ils l'ont réparée, ils ont réussi à l'intercepter dans les dernières versions. Mais je sais que dans les premières versions, j'avais posé la question à Chad Jepiti. Je ne vais pas la faire en détail, mais un truc genre, sachant qu'il faut à une femme humaine neuf mois pour mettre au monde un enfant, combien de temps faut-il à neuf femmes humaines pour donner naissance aussi à un enfant ? Et l'algo, sans problème, va te dire, ce n'est pas un problème, on parallélise. Et donc, ça fait un mois, puisque un mois, on a neuf femmes, neuf mois, boum, c'est fini. Ben voilà, ça te montre bien que l'algo n'a aucune idée de ce qui se passe derrière, n'a aucun bon sens, parce qu'il n'est pas ancré dans la réalité. Peut-être que ce sera une question à laquelle on viendra tout à l'heure.

  • JS

    Pour le futur.

  • David

    On va y revenir. Alors,

  • JS

    on va jouer un jeu et on va essayer de prendre les trois grosses peurs, un top 3 des grosses peurs autour de l'IA que la plupart des gens ont. Et on va essayer de se dire, est-ce qu'elles sont légitimes ? Est-ce qu'on a raison d'avoir peur ? Ou est-ce que finalement, ce n'est pas si dramatique que ça ? Je pense qu'en fait, il y a surtout de la nuance à aller chercher. Numéro 3. L'IA va tuer la créativité donc avec tout ce qu'on voit aujourd'hui de génération d'images de films ou de morceaux de vidéos moi qui fais beaucoup de musique le fait qu'il y ait aujourd'hui des plateformes qui font de la musique complètement, c'est terminé on va plus avoir d'artistes parce que les IA vont tout remplacer alors moi j'ai ma petite idée qui est que ce qu'on va chercher dans l'art c'est plutôt le feeling de l'artiste l'émotion, ce qu'il raconte, son background etc et que ça en fait Une IA ne va pas pouvoir le raconter, même si ce qu'elle produit est parfait techniquement. On a besoin, nous, humains, d'avoir une histoire, mais j'aimerais bien avoir ton feedback.

  • David

    Alors, mon feedback là-dessus, il est très clair, c'est que non, la machine et l'IA, tout aussi puissante qu'elle puisse être aujourd'hui, ne va pas tuer la créativité humaine. Pourquoi ? Eh bien, parce que, encore une fois... On revient à la manière dont ces machines fonctionnent pour générer, par exemple, des images, mais ça s'applique aussi à tous les autres types de médias dont tu as parlé, l'audio, même la 3D, ce que tu veux. Ce sont des algorithmes qui font une espèce de moyenne de toutes les images, de tous les médias sur lesquels ils ont été entraînés et qui vont se servir de ces patterns qui ont été détectés dans les données sur lesquelles ils ont été entraînés pour, encore une fois, générer quelque chose qui est... vraisemblable dans le contexte du prompt qui a été fait. Ça génère des choses fantastiques, très belles, etc. Mais est-ce qu'il y a un processus créatif derrière ? Non. Est-ce qu'il y a une pensée construite derrière ? Non. Est-ce qu'il y a une histoire ? Est-ce qu'il y a une forme d'humanité derrière ? Alors, on pourrait dire que l'humanité était dans le support qui a servi à l'entraînement. Mais de la même manière qu'un artiste aujourd'hui s'inspire des œuvres de ses contemporains et de tous les artistes passés dans son art, l'artiste s'en imprègne et bien sûr qu'il utilise tout ce qui a été fait jusqu'à présent pour produire son propre art. La machine ne fait pas ça. Comme je l'ai expliqué, elle ne fait pas du tout ça. Est-ce qu'il est possible que la machine tue la créativité ? Mais absolument pas. Et d'ailleurs, on le voit souvent quand on demande à des artistes, des professionnels. Ici, il y en a plein à Massif. J'ai la chance d'être entouré par des artistes brillants. Et eux aussi ne sont pas impressionnés dans le sens où ils vont dire Ouais, bon, là, l'image qui m'a sorti, il y a ça et ça et ça qui ne va pas. Ce n'est pas comme ça que je l'aurais fait. Pas de démarche artistique. Donc, c'est bien pour peut-être faire un petit peu d'idéation. Je ne sais pas si c'est très français. C'est bien pour aller chercher des choses, peut-être pour automatiser certaines tâches un petit peu rébarbatives, répétitives, que parfois il faut faire dans l'industrie. Mais alors, est-ce que ça va tuer la créativité ? Je ne crois pas. Le jour où on aura une machine... pensante, etc., qui est sur le même mode de fonctionnement que l'humain, on en reparlera. Mais ce n'est pas aujourd'hui.

  • JS

    J'ai une anecdote à ce sujet aussi sur la façon dont on ressent la créativité. Il y a eu un concours très récemment qui a été fait autour de la génération d'images faites par les IA. C'était la plus belle image générée par IA. Chacun a amené son image générée par IA. Et il y a un gars qui gagne avec une image super belle, etc. Donc on lui remet son prix, au moment où on lui remet son prix, il dit mais en fait c'est une vraie photo que j'ai prise. C'est-à-dire qu'il était photographe et il n'a pas du tout généré l'image avec l'IA, donc on lui a enlevé son prix. Ceci dit, d'un seul coup tout le monde s'est intéressé à son image en se demandant comment il l'avait fait, quelle technique il avait pris, quelle était sa démarche, etc. Alors qu'on ne s'était pas du tout posé cette question sur la génération du prompt autour du NIA. Et on revient sur, en fait ce qui est intéressant dans la création, ce n'est pas seulement le résultat, même si le résultat peut être ultra intéressant, mais on a besoin nous humains, de savoir ce qui s'est passé avant. Alors ça va peut-être tuer les mauvais créatifs ou ceux qui ne font que copier sans avoir réellement une...

  • David

    Alerte provoque ! Oui, oui, oui !

  • JS

    Mais ceux qui sont vraiment artistes et qui ont vraiment une démarche artistique n'ont pas trop de soucis à se faire.

  • David

    C'est comme... Là, je vais citer un grand maître pour moi, et pour nous d'ailleurs, Alexandre Astier, quand on lui avait posé la question sur est-ce que l'IA va tuer la créativité, enfin, va tuer le travail... Il avait dit, s'il le fait, c'est que vous ne faites pas un très bon boulot. C'est aussi un peu provoque. Je sais que ça peut faire peut-être hurler des gens qui vont dire, mais qu'est-ce que c'est, etc. La vérité est qu'effectivement, les IA qui génèrent de l'art, des supports médias comme ça, ne sont pas capables de faire des choses d'une extrême qualité. En tout cas, je sais que ce ne sont pas des choses qui sont prêtes à être utilisées, intégrées directement en prod. Donc, à partir de là, effectivement... Si c'est le cas pour certaines images, certains assets, on va dire que ce ne sont pas des assets de grande qualité. On revient un petit peu sur cette question de qualité. Oui,

  • JS

    mais après, ça va peut-être tuer les banques d'images qu'on utilise aujourd'hui pour mettre dans des présentations, dans des posts sur Internet. Mais de toute façon, ce n'était pas déjà des assets de très grande qualité. Ok, numéro 2. Attention, on attaque le lourd. Je vais perdre mon job et être remplacé par une IA.

  • David

    Un petit peu la même réponse.

  • JS

    Si t'es mauvais, tu vas être remplacé par une IA !

  • David

    Non, c'est pas si t'es mauvais c'est pas une question de bien travailler ou pas la question c'est si tu fais une tâche qui est aisément remplaçable mais pour la totalité du travail ça veut dire que quelqu'un qui est à plein temps sur des tâches qui sont totalement automatisables c'est que effectivement tu fais pas forcément des tâches qui requièrent énormément de cette fameuse créativité et une... spécificité humaine dont on parle. Alors, il y a des jobs comme ça. Qu'ils soient menacés, on peut le comprendre, mais ça, c'est quelque chose qui n'est ni spécifique à notre période, ni spécifique à l'IA. Ça a toujours été le cas. C'est un peu le problème. Mais les temps modernes, souvenez-vous, est-ce qu'il était bon de remplacer cet ouvrier qui faisait le même mouvement 8 heures par jour à la chaîne, sur une chaîne de montage ? Alors, peut-être que oui, peut-être que non. Il a perdu son job. Je ne sais pas. Ça pose d'autres questions qui sont, de toute façon, bon, on peut en parler.

  • JS

    C'est une question sociétale.

  • David

    C'est une question sociétale. Mais si on revient juste là maintenant à la question de l'IA, maintenant de ces outils d'IA dont on parle et de la peur qui est, je pense, qui est légitime. Je peux comprendre cette peur de gens qui disent je vais perdre mon boulot Moi, je pense que... C'est un petit peu la réponse que je donne quand on me demande est-ce que je vais perdre mon job ou pas. Je pense qu'il y aura effectivement deux grandes catégories de salariés ou de candidats à l'embauche bientôt. Il y a ceux qui sauront utiliser ces outils et ceux qui ne sauront pas le faire, soit par principe, soit par manque d'envie ou soit par toutes les raisons imaginables. Mais ce qui est sûr, c'est que le critère de tri se fera là-dessus parce que... Ça se verra vite en termes de productivité, de savoir utiliser les nouvelles technologies et tout. Et là encore, ce n'est pas nouveau. Les gens qui se forment aux nouveaux outils sont des gens qu'on va plus facilement embaucher.

  • JS

    La vraie question, c'est de ça dont je parle souvent, c'est quelle est votre valeur en tant qu'être humain ? Où est votre expertise ? Où est vraiment l'intelligence humaine ? Et à la limite, s'il y a des tâches rébarbatives que vous pouvez faire remplacer par une IA, mais tant mieux, parce que ce n'est pas là où vous avez de la valeur. Sauf qu'effectivement, là, ça pose des questions de qui est où, quel type de travail on va avoir, et des personnes qui ne vont potentiellement pas être sur des métiers où ils vont pouvoir accéder à d'autres choses. Donc, c'est complexe, c'est une question complexe. Toutes les personnes qui se disent j'ai vraiment peur que mon métier soit remplacé c'est faux. C'est-à-dire, mettez les mains dans l'IA, apprennent à l'utiliser, et potentiellement, ça va devenir plus un allié qu'une contrainte.

  • David

    Je reviens à ce bon sens, où être capable de voir ses résultats, de savoir comment faire marcher ses IA, etc. Donc, il y a toujours besoin d'humains dans la boucle. Et tant mieux, c'est une bonne nouvelle.

  • JS

    Ok, top 1, attention.

  • David

    Je suis prêt.

  • JS

    Là, je crois que je vais mettre une musique profonde. Les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète.

  • David

    Est-ce que tu peux mettre une musique du style Qui veut gagner des millions ? avant ça ? C'est un peu le suspense. Tu fais une pause.

  • JS

    Il faut que ça commence In the world Donc, les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète. Donc, on parle des AGI, des super intelligences. La singularité. Sam Altman, qui n'arrête pas de nous annoncer justement les GA pour demain chez OpenAI. Là où on va avoir un Yann Le Cun, pour rappel, Sam Altman, c'est le patron d'OpenAI et Yann Le Cun, c'est le head of

  • David

    AI de Meta.

  • JS

    Qui, au contraire, lui dit, de toute façon, ce n'est pas les LLM. Les LLM, Large Engrange Model, c'est ce qui est utilisé aujourd'hui pour faire tourner la Gen AI, donc l'IA générative. Yann Lequin lui dit que ce n'est pas ces technos-là qui amèneront l'AGI et on en est encore très loin. Donc, il y a des annonces très marketées là-dessus. Quelle est ta vision d'expert sur le sujet, avec toutes les années que tu as derrière de travail sur le sujet de l'IA, sur cette arrivée de l'AGI ? En gardant à l'esprit, est-ce que tu as vraiment toutes les infos et tu es capable de répondre correctement à cette question ?

  • David

    Je ne suis pas dans la tête de Sam Altman ni de Yann Lequin. En revanche, ce que je peux te dire, c'est que... Alors, tu m'as dit, la superintelligence va émerger, etc. Une machine plus intelligente que l'homme. Je renvoie une question, et c'est une question que je pose à tous nos auditeurs. Qu'est-ce que l'intelligence ? Comment on définit l'intelligence ? À partir de quel moment on va pouvoir être sûr qu'on a quelque chose, une entité en face de nous qui est plus... intelligente que nous. Qu'est-ce que ça veut dire ? C'est-à-dire être capable de résoudre un problème de maths ? Ça veut dire être capable de répondre à une question sur comment cuisiner tel plat ? Alors,

  • JS

    je mets une définition. Capable de s'adapter. Une seule IA. Un modèle capable de s'adapter à n'importe quelle situation. Donc, de comprendre un contexte qui soit potentiellement un contexte logique, mais aussi de comprendre un contexte physique, quel que soit ce contexte, et de prendre des décisions qui sont qui donne de meilleurs résultats qu'un être humain.

  • David

    Mais même les humains ne sont pas capables de faire ça. Donc, en fait... Oui, justement. Pourquoi j'allais dans cette question un peu provoque, c'est que les chercheurs se battent depuis des dizaines d'années pour essayer de définir l'intelligence. Donc, on va avoir du mal, là, dans ce podcast, à définir cette intelligence et donc cette superintelligence.

  • JS

    On a dix minutes, on est bon.

  • David

    Heuuu, Douze ? Au-delà de ça déjà il faudrait définir à partir de tu m'as donné quelque chose sur lequel on peut partir je pense que tous on a une idée un peu générale de ce que c'est ce super être qui serait plus intelligent que nous et ça va au-delà de l'adaptabilité c'est l'autonomie c'est la question de la question C'est très large. J'ai beaucoup de difficultés à résumer.

  • JS

    Je pense que ce dont les gens ont peur, c'est d'avoir une machine, et sans parler forcément d'intelligence ou d'adaptabilité, mais une machine qui, à un moment, sorte du contrôle de l'être humain et soit en capacité, par exemple, de prendre le contrôle d'infrastructures, de centrales nucléaires, de choses comme ça. C'est ça dont ils ont peur. C'est une machine qui potentiellement s'autoréplique et soit en capacité de prendre le contrôle d'infrastructures sensibles.

  • David

    Je pense qu'il y a énormément de fantasmes. là-dedans. On a été bercé par Terminator et d'autres films de SF. On est dans le domaine du fantasme. Je vais dire ça, pourquoi ? Parce que l'IA aujourd'hui, avec tous les guillemets, tu sais que je ne suis pas un grand fan de ce terme-là, même si on est obligé de l'utiliser, parce que c'est le terme que tout le monde comprend, mais l'IA aujourd'hui n'est ni intelligente, elle est artificielle, mais ce n'est pas de l'intelligence, ce sont des outils. Donc... qui permettent de résoudre un problème donné, donc très très étroit. Et ces problèmes-là, pour pouvoir les résoudre, nous, humains, donnons l'objectif à la machine pour qu'elle atteigne le niveau de performance qu'on estime être bon pour réaliser cette tâche-là. L'intelligence générale dont on parle, c'est l'espèce de chose un peu nébuleuse qui serait capable de tout faire, mais sans avoir de vrai objectif. On est quand même, nous les humains, qui programmons ces choses-là, on est quand même là pour coder. Tu vois, là je reviens vraiment à l'ingénieur, qu'est-ce qu'on va mettre comme fonction objectif à ce truc-là, pour que d'un coup ça sorte des gonds et ça se mette à se multiplier, et à d'un coup prendre...

  • JS

    Ce que tu veux dire, c'est que, autant nous, les êtres humains, en fait on fait une projection de nous en tant qu'êtres humains, qui avons des objectifs, et quand on voit les plus grands tyrans avaient toujours des objectifs de pouvoir, de etc. Ce que tu es en train de dire, c'est que la machine, en fait, ses objectifs, c'est l'être humain qui lui donne. Donc si on ne lui en donne pas, ça ne va pas émerger naturellement.

  • David

    En tout cas, pas avec ce qu'on a aujourd'hui. Parce que pour arriver à ce que des objectifs et de la conscience émergent, il faudrait arriver à faire des simulations extrêmement avancées sur support logiciel, encore une fois, mais qui n'auraient pas de but en eux-mêmes. Alors, je vais confier ici quelque chose. Quand j'ai commencé mon doctorat dans les années 2000, et les réseaux de neurones n'étaient pas encore aussi utilisés qu'aujourd'hui, j'avais ce fantasme de dire, je vais lancer une simu sur ma machine, sur mon labo. Et je vais lancer mon réseau de neurones. C'était génial. Et le lendemain, quand je vais arriver, mon ordi va me parler. Avec cette singularité qui émergerait. de ces simulations de neurones. Première chose, ce n'est pas arrivé. C'est peut-être en train d'arriver chez Sam Altman, il faudra qu'il nous le dise le jour où ça arrive, mais ce n'est pas le cas. Je vais venir un petit peu dans les courants qui se disputent sur ces questions-là, la vision Sam Altman, la vision Yann Le Cun, et moi je pencherai pour la vision de Yann Le Cun parce que je pense aussi que pour toutes les raisons que j'ai expliquées un peu avant, sur comment fonctionnent ces modèles de langage et ces chatbots basés dessus, ce ne sont pas des modèles qui piochent les mots l'un après l'autre qui vont être capables d'arriver à l'intelligence générale. Encore une fois, parce que nous, nous-mêmes, humains, on ne fonctionne pas comme ça. Donc, partant de ce simple principe, si la base technologique, algorithmique, c'est ça, on n'y arrivera pas. On pourra peut-être y arriver en allant vers d'autres choses, en faisant de la... Peut-être la multimodalité, si on commence à mélanger le texte, la voix, si on commence à mélanger plein de choses, on va peut-être aller vers quelque chose qui donne l'illusion.

  • JS

    C'est un peu ce qu'on voit sur les annonces de... Voilà, 4o,

  • David

    par exemple. Toutes les vidéos de 4o sont super impressionnantes. Pour les auditeurs, c'est ChatGPT 4o. C'est la dernière version au moment où on enregistre, qui n'est pas encore accessible au grand public.

  • JS

    Sur la version voix. Elle est accessible en texte, mais pas sur la version voix.

  • David

    C'est extrêmement impressionnant, mais c'est encore une fois une avancée. technologique, mais ce n'est pas une avancée vers l'intelligence générale qu'on nous promet depuis longtemps. Pour autant, est-ce que c'est complètement hors de portée ? Est-ce que ça n'arrivera jamais ? Honnêtement, je ne sais pas. Je pense que si ça arrive, ça ne sera pas sur ces fondations technologiques-là, ça sera sur autre chose. Yann Le Cun en parle très bien, il dit et je le rejoins là-dessus, que pour qu'une intelligence parvienne - sans nous dépasser déjà - parviennent au niveau d'un enfant d'un an, deux ans, trois ans, je ne sais pas. Ce qui fait que la façon dont nous, humains, fonctionnons, nous sommes ancrés dans le monde, dans un monde physique qui est extrêmement dense en informations. Il faut voir qu'à chaque seconde, nos yeux, nos oreilles, donc perçoivent un flot, si on devait en mettre une taille dessus, ce serait des gigas, des gigas de données. Et un enfant est... parfaitement capable de digérer ça, ce flot de données-là, et ça va influencer les neurones de son cerveau, ses zones perceptives, ses zones motrices, etc. Et on sait que les degrés de développement de l'intelligence humaine suivent les degrés de développement moteur. Ça aussi. Donc, tout est lié dans notre cerveau. Et aujourd'hui, en essayant d'en isoler une partie, qui est le langage, on fait fausse route. C'est-à-dire que un modèle de langage, quel qu'il soit, ne pourra pas avoir cet ancrage dans la physique. tant qu'on ne va pas chercher du côté de la physique.

  • JS

    Et quand on voit Tesla avec leurs robots, et toutes les boîtes qui commencent à faire de la robotique, notamment avec des robots humanoïdes, est-ce qu'ils vont dans ce sens-là ? Est-ce que justement un gars comme Elon Musk est en train d'accompris ça et est en train de travailler sur ces sujets, que ce soit chez Tesla ? Je ne sais pas s'il a compris ça,

  • David

    Je ne sais pas s'il a compris ça...

  • JS

    ...mais ces boîtes-là.Est-ce que c'est ça qu'elles sont en train d'essayer de faire ?

  • David

    En tout cas, les robots qui font de la robotique sont obligés de s'ancrer dans la physique. Parce que les robots, pour qu'ils puissent marcher, monter un escalier sans se casser la gueule, arriver à déambuler dans des espaces un petit peu escarpés et difficiles, sont obligés justement d'être dans cette densité d'informations qui est le temps réel sur des capteurs, des actionneurs, etc. Et ce n'est pas du tout la même densité d'informations que les modèles de langage qui sont token par token.

  • JS

    Donc finalement, Terminator avait raison, ce sera des robots.

  • David

    Peut-être qu'on commencera par les robots. Mais en tout cas, avant de l'avoir des robots conscients, on revient encore une fois. Ce n'est pas pour demain. Je voulais un petit peu débanquer cette idée-là. L'intelligence générale, elle ne sera pas là.

  • JS

    On va avoir des stimulateurs. C'est-à-dire qu'il est très probable qu'un GPT-5... Que des modèles comme ça soient extrêmement performants pour simuler la réalité à un point qui rend les choses vraiment bluffantes. Mais par contre, leur attribuer une conscience va être compliqué. Le risque, et c'est d'ailleurs aujourd'hui un travail qui est fait, notamment sur les derniers papiers sortis par Oponay, sur la version audio justement qu'ils ont présenté et qui n'ont pas encore sorti, le risque c'est un problème psychologique de certaines personnes qui pourraient s'attacher. au modèle parce qu'ils vont être tellement bluffés par les choses qu'ils vont prêter vraiment des sentiments humains. On a vu peur, le film. C'est un peu le risque sur lequel ils sont en train de... En tout cas, Open AI a publié un papier sur le sujet en disant qu'on s'inquiète de ce sujet-là et donc on est en train de travailler là-dessus.

  • David

    C'est un peu pour faire du buzz.

  • JS

    Comme beaucoup de choses sur les annonces d'Open AI.

  • David

    C'est très très buzz. Et je trouve que c'est malin de dire, écoutez, on est en train de faire un truc, c'est tellement bon que nous-mêmes, on en a peur. T'imagines comme c'est bon. Le marketeux que tu es, là, tu dois... C'est génial ! Mais là aussi, on n'a pas attendu ces modèles-là et donc leur version vocale pour grossir les risques d'une technologie donnée et que les gens s'énamourachent. d'un agent qui parle, tu peux avoir la même chose avec des choses très différentes il y a très longtemps. Je ne vois pas quelque chose de très nouveau là. Pour revenir à la question de cette conscience-là, on va peut-être avoir des consciences. Pourquoi essayer de donner à ces machines une conscience ? Pourquoi faire ? C'est la question. Par exemple, comme disait un chercheur qui travaillait dans le laboratoire où j'ai fait ma thèse, qui s'appelait Bernard Ami, qui était vraiment très très bon, il m'avait dit un jour, mais il avait écrit dans un article, les avions n'ont pas... n'ont pas d'ailes, et pourtant, ils volent. Donc, si la fonction qu'il doit remplir, l'outil, c'est de voler, on n'a pas besoin de lui faire battre des ailes comme font les oiseaux. De la même manière, a-t-on besoin de donner une conscience à des machines pour remplir des tâches qui nous aident, nous, humains, comme par exemple répondre à des questions sur Ah, comment je fais pour faire ça ? et Ah, aujourd'hui, ces modèles de langage le font très bon, très bien. Ben non, il n'y a pas besoin.

  • JS

    C'est une question philosophique. Pour l'être humain, c'est la tentation d'être Dieu, d'être le créateur.

  • David

    Oui, et là, on est peut-être encore une fois sur le domaine du fantasme et créer la bête Frankenstein ou je ne sais quoi. Mais si on veut créer des outils qui sont efficaces pour nous aider au quotidien, a-t-on besoin de leur donner une conscience ? Moi, je n'ai pas envie qu'on marteau et des états d'âme et me disent, écoute, je ne le sens pas aujourd'hui.

  • JS

    Ce clou, je le trouve plutôt sympa.

  • David

    Pareil, le frigo ou le grille pain.

  • JS

    On revient à ce qu'il y a. On va reprendre, on va remettre les pieds sur terre. Et histoire de se faire une troisième partie et d'être un peu plus pragmatique, parce que ceux qui écoutent ce podcast, c'est potentiellement des chefs d'entreprise, des managers, des gens qui ont entendu parler de la GenAI, qui doivent ou veulent l'intégrer dans l'entreprise, ne savent pas trop par quelle bout le prendre, parce que c'est un gros morceau. On peur que ça ait un impact sur leurs équipes, on peur que ça déstabilise, mais en même temps, ils se disent qu'ils sont obligés d'y passer. Donc, d'après toi, quelle serait la bonne façon d'intégrer ces outils dans une entreprise ? Aujourd'hui, je vois quand même deux aspects. Il y a d'un côté la verticale métier, c'est-à-dire comment j'intègre de la GenAI dans un service marketing, dans un service com, dans un service achat, etc. où on va plutôt former les gens sur des outils existants pour leur apprendre à les utiliser. accélérer certaines choses dans leur travail, faire un plan pour une présentation, résumer des notes, ce qu'on voit apparaître d'ailleurs dans tous les outils type Teams qui permettent de synthétiser des réunions. Et ensuite, on a une version plus transverse qui fait intervenir l'IT et potentiellement des data scientists pour dire comment est-ce qu'on va utiliser, et là, ce n'est pas que de la GenAI, mais de l'IA de façon générale, pour dire, en fait, on a des données au niveau de l'entreprise, donc là, il y a un vrai travail à faire au niveau de la donnée dans l'entreprise pour venir là. l'agréger, la structurer et derrière se dire, cette donnée, comment est-ce qu'on peut arriver à travailler autour de ça pour produire de la valeur ? Ça déjà, c'est ma vision, mais est-ce que toi, d'un point de vue data science, tu as aussi d'autres conseils à donner sur ce sujet ?

  • David

    Je suis un petit peu biaisé sur cette question, étant donné que j'occupe une position de management et mon rôle, justement, à Massive, est justement de travailler sur ces questions-là. Je vais essayer de rester un petit peu agnostique là et de dire, OK, qu'est-ce que... Qu'est-ce que je pourrais dire à un dirigeant, un manager aujourd'hui qui est tenté d'utiliser de la GenAI dans son entreprise ? Donc la première chose que je lui dirais, c'est mais pourquoi faire ? Parce que si la seule raison c'est de se dire oh ça a l'air cool ou tu sais, je ne sais pas comment on pourrait traduire le FOMO, le fear of missing out. Tout le monde en parle, donc il faut que je le fasse aussi parce que sinon je vais passer pour un ringard.

  • JS

    En fait il y en a beaucoup qui n'ont pas pris le pli sur la... Transfo Digital sur la révolution Internet et qui l'ont subi. par la suite, et donc se disent aujourd'hui je ne peux pas être en retard là-dessus parce que je ne peux pas me permettre une deuxième fois d'être en retard. C'est aussi ça.

  • David

    Donc je dirais vraiment, bon, déjà, il ne faut pas faire les choses dans la précipitation et juste pour le principe, dire ah tiens, je veux le faire parce que c'est cool, même si ça donnerait du boulot à mes collègues data scientists par là, qui sortent des écoles et qui seraient ravis de le faire. Ne vous dites pas, je vais embaucher des data scientists d'une bonne équipe, déjà c'est très cher, data scientists, je précise, et puis ensuite on verra. Il faut vraiment partir, il faut essayer d'identifier quels sont les besoins de l'entreprise, qu'est-ce qui pourrait être couvert éventuellement par ces technos. Et là pour ça, il n'y a pas besoin d'avoir une armée de gens, il faut juste prendre les principaux acteurs dans les domaines clés et les mettre autour d'une table et faire réfléchir ensemble. On en a parlé l'autre jour, on disait mais ce n'est pas une approche top bottom qu'il faut prendre en disant voilà à partir de demain, vous utilisez l'outil pour faire ça et de toute façon, je n'ai aucune idée de ce que vous faites, mais vous le faites comme ça. Ça, ça ne marche pas. En revanche, amener les équipes à se saisir de ces outils-là, ça commence déjà par les dédiaboliser, par déhyper, par revenir sur terre, un petit peu ce qu'on essaie de faire là et je trouve que c'est super ce que tu fais. Donc enlever la hype, enlever tous les mots et les idées reçues, les peurs irrationnelles. et s'approprier les outils tels qu'ils sont, avec leurs avantages, leurs inconvénients. Et à partir de là, en travaillant ensemble avec les équipes, ça émerge naturellement. Donc, quand les équipes...

  • JS

    Prototyper...

  • David

    On veut prendre le train, ce train-là, parce qu'on sait qu'il va apporter de la valeur, et on veut le faire ensemble. Et on arrive à la question de la valeur. Là, je pense que tu peux prendre ça là. C'est crucial toujours d'identifier les potentiels gains de valeur.

  • JS

    Valeur n'étant pas forcément financière, ça peut être une valeur en termes de... humain, c'est-à-dire ça donne du sens au travail de certains.

  • David

    Ça peut être la valeur gagnée du temps sur les tâches répétitives.

  • JS

    La résilience de l'entreprise, ça peut être plein de choses. Beaucoup, beaucoup de choses. Donc, mettre les équipes au travail, enfin en tout cas, moi, mon credo, c'est plutôt de dire il faut faire travailler les personnes avec l'IA de manière à ce qu'on ne crée pas une situation encore plus forte vis-à-vis de la technologie qui pourrait être, pour le coup, dangereuse pour l'entreprise.

  • David

    C'est ça.

  • JS

    Ok. Écoute, on a bien parlé. Là, je vois le compteur qui fait 51 minutes. Donc, on a plutôt bien parlé. On va clore cet épisode. Déjà, où est-ce qu'on peut te retrouver ? Est-ce qu'il y a des choses qu'on peut lire ? Sur quel réseau tu es actif ?

  • David

    Moi, je suis relativement peu actif sur les réseaux. Parce qu'en fait, je bosse ! Et là, tous ceux qui sont sur les réseaux disent "Ça va, moi aussi, je bosse!" Désolé, désolé. Non, je suis principalement sur LinkedIn. On peut me retrouver, David Renaudie sur LinkedIn, qui bosse à Massive en Suède. Il n'y en a pas beaucoup. Contactez-moi sur LinkedIn si vous avez des questions. Je serais ravi d'échanger autour de ces sujets qui me passionnent. Pas que les jeux vidéo, l'IA en général, comme on l'a compris. Avant, je tweetais un petit peu, mais depuis que c'est devenu X, je... Oui, bon. Mais voilà, principalement LinkedIn. Ok.

  • JS

    Et le prochain jeu de Massive qui sort dans quelques jours ?

  • David

    Deux semaines. Dans deux semaines. Deux semaines. On sort Star Wars Outlaws. Donc, un jeu en monde ouvert dans l'univers de Star Wars sans sabre laser. Donc, je précise. Sans sabre laser. C'est un pari. Mais on pense que ça va marcher. On y croit. Et c'est cool. On est super. On est à fond là. OK,

  • JS

    bonne chance pour le lancement !

  • David

    Merci JS !

  • JS

    Voilà, c'est la fin de cet épisode. J'espère que vous avez passé un bon moment et que ça vous a donné matière à réflexion. Avant de nous quitter, quelques petites demandes. Tout d'abord, si ce podcast vous plaît, n'hésitez pas à vous abonner. C'est le meilleur moyen de ne manquer aucun épisode. Ça nous aide beaucoup. Ensuite, si vous avez un moment, laissez une note et un commentaire sur votre plateforme d'écoute. C'est pareil, c'est un retour précieux. qui permettent d'améliorer constamment le contenu. Et enfin, venez échanger avec nous sur LinkedIn, partagez vos réflexions, proposez des idées, des sujets d'invités que vous souhaiteriez voir invités sur le podcast. Ça nous aide vraiment à être visibles, à vous apporter du contenu de qualité. Ce podcast est créé et produit par le collectif Tous Transformes qui accompagne les entreprises sur les sujets de la transformation, que ce soit sur le business, marketing ou la tech. Merci infiniment pour votre écoute et votre soutien. On se retrouve très bientôt pour un nouvel épisode. Salut David.

  • David

    Salut JS.

Chapters

  • Introduction au podcast et contexte de l'IA

    00:00

  • David Renaudie présente son parcours

    01:55

  • Histoire et évolution de l'IA

    05:20

  • Les trois grandes peurs liées à l'IA

    21:02

  • Comment intégrer l'IA dans les entreprises

    43:29

Share

Embed

You may also like

Description

Dans cet épisode de "Tout Se Transforme", nous plongeons au cœur de l'intelligence artificielle (IA) et de son influence grandissante sur nos vies quotidiennes. JS et David Renaudie, Associate Director, Data Science chez Massive Entertainment (A Ubisoft Studio), nous offrent une perspective unique sur l'évolution de l'IA, en se concentrant particulièrement sur les IA génératives telles que ChatGPT. David, fort de 25 ans d'expérience dans le domaine, partage son parcours fascinant, qui débute dans l'ingénierie informatique et s'étend à une passion profonde pour l'IA. Ensemble, ils analysent les craintes et les préoccupations du grand public face à ces technologies émergentes (79% des adultes ressentent une certaine inquiétude à propos de l'IA).


Au fil de la discussion, JS et David explorent les mythes entourant l'intelligence artificielle. L'idée que les machines pourraient un jour surpasser l'intelligence humaine est scrutée avec rigueur. Ils mettent en lumière l'évolution de l'IA depuis les années 1950, en soulignant les avancées récentes qui ont conduit à une adoption massive de ces technologies dans divers secteurs. En démystifiant l'IA, ils cherchent à offrir une vision équilibrée, illustrant comment ces outils peuvent être intégrés de manière bénéfique dans les entreprises tout en restant conscients des limites et des implications éthiques qui en découlent.


Cet épisode est une invitation à réfléchir sur notre relation avec l'intelligence artificielle. Comment pouvons-nous tirer parti de ces avancées sans tomber dans le piège de la peur irrationnelle ? JS et David apportent des réponses concrètes et éclairantes, en s'appuyant sur des études et des données probantes. Ils encouragent les auditeurs à adopter une approche proactive face à l'IA, en soulignant l'importance de l'éducation et de la sensibilisation pour mieux comprendre ces technologies.


En somme, cet épisode de "Tout Se Transforme" est un incontournable pour quiconque s'intéresse à l'impact de l'intelligence artificielle sur notre société. Que vous soyez un professionnel du secteur, un étudiant ou simplement curieux, cette discussion enrichissante vous fournira des clés pour naviguer dans un monde de plus en plus façonné par l'IA. Ne manquez pas cette occasion d'élargir vos horizons et de démystifier l'IA avec nous !


Cet épisode a été enregistré en août 2024 à Malmö dans les locaux de Massive Entertainment.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • JS

    Vous écoutez Tous Transformes, le podcast qui parle de la transformation des entreprises. Ça ne fait pas tout à fait deux ans que ChatGPT a été ouvert au grand public. Pourtant, on a déjà l'impression que les IA, et notamment les IA génératifs, font partie de notre quotidien. Enfin, pas tout à fait. Selon un baromètre IFOP pour Talon, d'avril 2024, seuls 22% des 35 ans et plus les utilisent. Et 79% se sentent inquiets. En parallèle... pas une semaine ne se passe sans annonce spectaculaire des gens de la tech. Certains n'hésitent d'ailleurs pas à nous promettre une super intelligence pour très bientôt, dotée de capacités cognitives d'un être humain. Pour faire le point, je profite d'une visite à Malmö en Suède pour en parler avec David Renaudie, lead data scientist à Massive, l'un des studios d'Ubisoft. Ça fait 25 ans que David et moi sommes amis, et de mémoire, ça fait 25 ans qu'il me parle d'IA. Il me semblait donc être la bonne personne pour échanger sur le sujet avec une vision scientifique et honnête, loin de la hype et de l'agitation. Salut David, ça va ?

  • David

    Salut JS, ça va très bien et toi ?

  • JS

    Oui, ça va bien, je suis content qu'on soit ici dans les locaux massifs qui sont massifs, impressionnants. On sent la culture jeux vidéo et ça donne envie de venir bosser ici s'il ne faisait pas trop froid l'hiver.

  • David

    Oui, d'ailleurs ici c'est un critère de recrutement, il faut avoir un baromètre de 6 sur 10 en nerdy.

  • JS

    parce qu'il faut le vivre il y a des consoles tous les 10 mètres pour pouvoir jouer à la pause alors que tu travailles déjà sur les jeux vidéo aujourd'hui on ne va pas parler de jeux vidéo on va parler réellement d'IA ce qui m'intéresse c'est effectivement ton parcours parce que tu as bossé toi sur ces sujets depuis très longtemps et l'idée c'est de s'arrêter un petit peu sur les craintes qui existent aujourd'hui d'avoir ta vision pour comprendre de quoi on parle exactement quand on parle notamment des IA génératifs, du boom qu'il y a aujourd'hui et et Quelles sont les vraies raisons d'avoir éventuellement peur et quelles sont celles qui sont un peu fake ? Je te propose qu'on commence par parler de ton parcours, qu'est-ce que tu as fait, d'où tu viens, de manière à ce que derrière ça nous donne aussi un contexte et qu'on comprenne pourquoi tu es légitime à parler de ce sujet.

  • David

    Écoute, moi je viens de l'ingénierie en informatique, donc à la base j'ai fait une école, école d'ingé, je suis allé à l'ENSEMAG à Grenoble, très très bonne école, je suis très content. Et pendant ma scolarité à l'ENSEMAG, donc moi déjà j'étais... toujours très intéressé par ces questions de comment les machines peuvent faire des choses qui sont de plus en plus incroyables. Et j'ai embrassé la possibilité de faire des stages à l'étranger, de faire un parcours plutôt orienté recherche. Et ça m'a amené vers la possibilité de faire un doctorat. Et donc, j'ai passé une thèse dans les années 2000, dans une discipline qui ne s'appelait pas encore la data science, puisque le terme n'avait pas encore été trouvé et généralisé. Mais à l'époque, c'était déjà une thèse en machine learning, parce que ça par contre, le machine learning, ça fait longtemps qu'on en fait.

  • JS

    Donc c'était 99 ?

  • David

    Ouais, je commençais en 2000, c'est ça. 2000, et donc j'ai passé un doctorat dans lequel j'explorais déjà des algos de machine learning qui n'avaient absolument rien à voir avec ce qu'on a aujourd'hui, mais déjà avec l'ambition de... d'analyser des données provenant d'utilisateurs réels et d'en construire des profils pour pouvoir adresser au mieux leurs besoins. Donc, on était déjà dans des thématiques qu'on va retrouver tout au long des années et des décennies qui ont suivi.

  • JS

    Ok. Et par la suite, qu'est-ce que tu as fait ?

  • David

    Par la suite, j'ai rejoint l'industrie parce que j'avais envie d'une expérience hands-on, vraiment très concrète, très appliquée pour voir comment en entreprise les choses fonctionnent. Je n'ai pas pu tout de suite faire du machine learning, de lire l'entreprise. J'ai occupé d'autres postes. Là, je vais passer un petit peu vite. Ce n'est peut-être pas forcément le sujet pour maintenant. Mais en tout cas, ça m'a appris les process en industrie. J'ai vu comment on mène des projets, comment on délivre des choses à des clients, des choses qu'on ne voit pas forcément quand on fait de la recherche en laboratoire. Mais j'ai pu quand même, à un moment donné, rejoindre mes premiers amours. Dès que j'ai pu avoir un job de data scientist dans cette compagnie, Je l'ai fait et la boucle était bouclée. J'ai pu faire de l'IA avec les moyens modernes, donc c'était passé 15 ans quand même entre les deux, et revenir à ces sujets-là. J'ai fait ça pendant quelques années dans cette société et ensuite j'ai pu changer et venir à Massive, un studio d'Ubisoft où j'applique toutes ces méthodes d'IA, de machine learning, aux jeux vidéo, à l'industrie du jeu vidéo.

  • JS

    On voit que début des années 2000, tu commençais à travailler sur le machine learning. Pourtant, à l'époque, on n'entendait pas parler forcément d'IA au niveau des entreprises du grand public. On sait que milieu des années 2010 vers 2015, notamment avec AlphaGo, il y a eu une petite hype autour de l'IA, puis c'est retombé aussi sec. Mais là, depuis trois ans, ça s'enflamme. Alors, qu'est-ce qui nous amène à ça ? Comment ça se fait que d'un coup tout ce soit enflammé, qu'on voit de l'IA partout, même dans des grippes ? Qu'est-ce qui a amené à ça ?

  • David

    C'est réel,

  • JS

    ça a été montré au CES à Las Vegas, un gris pour la viande avec de l'IA dedans. Là, on atteint un certain niveau quand même. Donc, qu'est-ce qui nous a amené à ça ? Et qu'est-ce qui fait qu'aujourd'hui, on est... Enfin, moi, je considère qu'on est réellement sur une phase de transition et qu'on a passé un cap au niveau de l'adoption de ces technologies.

  • David

    C'est intéressant parce que l'IA, en fait, on sait ce que c'est et on la pratique, même pas au niveau où elle est aujourd'hui, on la pratique depuis les années 1950. Donc je vais faire un petit peu l'historique et je vais faire un petit peu le prof là.

  • JS

    Il faudra que je mette un jingle pour le...

  • David

    Jingle prof, tu vois. Tu vois une barbe, un pésostère avec un tableau noir.

  • JS

    On passera en noir et blanc. L'audio en noir et blanc.

  • David

    Ça va être super visuel pour les auditeurs, c'est parfait.

  • JS

    Exactement.

  • David

    Non mais voilà, l'IA, c'est un terme qui a été... On va dire, la paternité, on la donne communément à Marvin Minsky, qui avait défini l'IA dans les années 50, donc ce n'est pas quelque chose de nouveau, comme... l'implémentation sur ordinateur de tâches qui sont communément admises comme mieux réalisées par les humains que par les machines. Donc c'est une définition extrêmement large qui va comprendre aussi bien jouer aux échecs que marcher peut-être dans la rue, que faire une commande de produits, conduire une voiture, bon voilà, c'était extrêmement large. Et il faut savoir qu'à l'époque, et même toutes les années qui ont eu après, on a essayé de faire déjà de l'IA. Alors... Je ne vais pas refaire tout l'historique depuis, mais quand même, il faut savoir que dans les années 2000, ce qui s'est passé, ce qui a été un ennébleur, désolé pour l'anglicisme, mais un ennébleur pour la suite, ça a été la convergence entre des moyens computationnels supérieurs, donc on a eu de la puissance de calcul qu'on n'avait pas avant, des moyens de stockage aussi, on a pu avoir des stockages distribués et donc du volume à un volume très très important de données qu'on n'avait pas avant. Et donc, si on avait ces moyens de stockage, ces moyens de computation et de la donnée aussi...

  • JS

    Tout ce qu'Internet produit.

  • David

    Tout ce qu'Internet produit et qu'avant, on n'avait pas. Donc, on s'est retrouvé dans les années 2000 avec, d'un coup, une masse incroyable de données, des moyens pour faire des tas de calculs et des moyens pour stocker plein de choses un peu partout. Et à la convergence de ces trois-là, en fait, tout ce qui était fait déjà avant, on a pu le faire, mais à l'échelle. Et c'est là. qu'on a pu observer des effets supplémentaires très intéressants. Par exemple, les réseaux de neurones, je pense qu'on va en parler un petit peu parce que Chagipiti, je vais y arriver, mais Chagipiti c'est basé quand même sur des réseaux de neurones profonds, et les réseaux de neurones profonds, avant d'être des réseaux de neurones profonds, c'était des réseaux de neurones tout court.

  • JS

    Si on réexplique ce que sont les réseaux de neurones pour vulgariser un petit peu...

  • David

    Et les réseaux de neurones artificiels, alors on oublie toujours le artificiel, parce qu'on ne parle pas de... neurones biologiques. On fait un petit peu le raccourci là, mais les réseaux de neurones artificiels, on prend l'unité de base d'un neurone, c'est juste une petite unité de calcul qui est une grosse, grosse, grosse approximation d'un neurone biologique, qui n'a en fait pas grand-chose à voir, sauf l'idée que quand on va en mettre plein en parallèle et on va faire transiter des signaux entre eux, comme les signaux synaptiques entre les neurones biologiques, eh bien, il va y avoir quelque chose va se passer quand on passe à l'échelle et... ces réseaux de neurones artificiels vont être capables d'encoder de la connaissance dans leur connexion. Et en gros, c'est ce qui se passe, c'est ce qu'on voit.

  • JS

    Ok, c'est là où il y a un sujet pour le commun des mortels, où on a l'impression qu'il y a quelque chose de magique autour de ça. On entend parler du fait que même ceux qui créent des IA ne savent pas exactement ce qui se passe, et donc c'est très galvanisé, on galvanise les choses autour de ça. En réalité, on ne sait pas exactement ce qui se passe, mais ça ne veut pas dire qu'on ne le maîtrise pas.

  • David

    Non, c'est ça. En fait, il y a beaucoup d'idées reçues sur le fait qu'on ne contrôle pas, on ne connaît pas. Et donc, un jour, la machine va prendre le contrôle. Il faut savoir que derrière ces mécanismes qui permettent à ces réseaux de neurones artificiels d'apprendre, et encore apprendre, c'est aussi un raccourci, il y a beaucoup de mathématiques. Il y a un algorithme qui s'appelle la backpropagation. C'est ce qui permet aux réseaux de neurones d'apprendre, d'enregistrer de la donnée, de la connaissance. Bon, c'est des maths. C'est une formule avec des dérivés partiels. Puis, on l'implimente sur des machines et on fait des calculs. Donc, ça reste du calcul. D'ailleurs, le machine learning, au début, s'appelait du statistical learning. Donc, c'est de l'apprentissage statistique. C'était une méthode de faire parcourir des données à un algorithme statistique et d'avoir en résultat quelque chose qu'on appelle un modèle qu'on peut réutiliser ensuite. Mais donc, ce n'est pas du tout de la magie. Mais je voulais revenir à ce que tu disais tout à l'heure quand tu parlais de... de cette période, année 2000, où d'un coup, il y a eu une explosion. Il faut voir qu'en fait, pour ce que je suis parti sur les réseaux de neurones, c'est que les réseaux de neurones, ça existait aussi depuis les années 60. On avait conçu le perceptron multicouche, du moins dans la théorie. Donc, toutes les briques de base étaient déjà là. La bague propagation, qui est l'inébleur justement pour ces réseaux de neurones, était déjà là. Ce qui nous manquait, c'était les données, la puissance de calcul, le stockage. Et donc, avoir des milliards et des milliards de ces neurones qui vont pouvoir faire des tas de choses. Donc... c'est là qu'il s'est passé quelque chose mais il y a aussi eu quand tu as dit il y a eu une espèce de première explosion dans les années 2010 2015 avec Alphago et puis pareil pour les échecs quand tu dis que c'est vite retombé Ce n'est pas tout à fait vrai parce que ces algos-là, qui sont à base d'apprentissage par renforcement, qui est une des méthodes d'apprentissage, pas forcément des réseaux neuronaux, en fait, on n'en a plus parlé. Pourquoi ? Parce que c'était plié. Parce que le problème de faire jouer au go une machine et battre les meilleurs champions humains, ça a été fait. Et donc, on sait très bien que quelque chose est fait. On n'en parle plus, on passe à autre chose. Mais ça ne veut pas dire que ça n'a pas été, à l'époque, déjà un choc.

  • JS

    Alors, qu'est-ce qui fait que, fin 2022, on a d'un seul coup OpenAI qui ouvre ChatGPT et que d'un seul coup, tout le monde commence à se ruer dessus, voir ChatGPT ? Alors, il y a l'ouverture au grand public, évidemment. Mais est-ce qu'il y a eu des changements aussi dans la façon dont on a programmé ? ces IA sur les algos de machine learning qu'est-ce qui fait que d'un seul coup il y a eu une bascule à ce moment-là alors que ce que tu dis les algorithmes existaient, c'était plié alors évidemment il y avait déjà des produits qu'il a intégrés moi sur tous les projets en e-commerce sur lesquels je bosse évidemment derrière il y a énormément de services qui utilisaient déjà des algorithmes basés sur du machine learning ne serait-ce que pour de la recoproduit on voit toutes les choses qui font du retargeting sur internet utiliser ce type d'algorithme mais qu'est-ce qui fait que d'un coup il y a quand même eu une bascule avec OpenAI fin 2022 ? Il y a eu,

  • David

    je dirais, deux déclencheurs dont le premier en fait tu as déjà parlé, c'est l'usage donc OpenAI a eu l'intelligence de concevoir un produit et pas une technologie et ChatGPT c'est un produit qui est extrêmement bien conçu d'un point de vue expérience utilisateur ce qui fait que monsieur, madame, tout le monde peut l'utiliser et comprend ce qui se passe je rentre des phrases, des mots et j'ai en retour des phrases, des mots donc ça me parle alors que Si on reprend l'exemple du jeu de Go ou des échecs, à part les passionnés du domaine, ce n'est pas très grand public. Donc la première chose, c'est ça. Et la deuxième, c'est d'un point de vue techno, il fallait des briques de base qui ont permis à ces algos de fonctionner et d'avoir des résultats quand même pas dégueux. Aujourd'hui, on utilise le chat GPT ou de manière générale des chatbots à base de LLM. Donc on va en parler. on a quand même quelque chose qui est de l'ordre du oui, du point de vue du diateur, je comprends ce qui se passe Et pour arriver à ce niveau-là de qualité de résultat, même si on va avoir les limites, on va en parler aussi, il a fallu que ces fameux modèles de langage aient accès, on revient à cette explosion technologique, aient accès à déjà des masses de données énormes, avec un volume de textes, on sait que c'est plusieurs milliards. de textes, de pages de textes. Il fallait aussi les bons algos. Il faut oublier que GPT, ça veut dire Generative Pre-trained Transformer. Et Transformer, c'est aussi un film de SF qu'on peut en discuter, ou pas. Mais surtout, les Transformers, c'est une architecture de réseau de neurones, on revient à cela, mais profond. Il y a vraiment énormément de couches qui s'empilent. qui, on s'est aperçu que ça marche extrêmement bien pour traiter des tâches complexes, qu'on ne pouvait pas traiter avant. Et ça, c'est 2017. C'est un papier de Google, donc huit chercheurs de Google, qui ont fait Attention is all you need. Et c'est un peu le fondateur des transformers, qui ont permis les GPT, donc les modèles de langage. Et là, on revient à OpenAI, qui a eu ce génie de dire, bon, les modèles de langage, c'est bien. Donc, pour ton audience, qu'est-ce que c'est un modèle de langage ? C'est un modèle qui va être capable de générer, un modèle génératif, qui va être capable de générer du texte. Donc, c'est un modèle qu'on appelle autoregressif, c'est-à-dire qu'à chaque instant, il génère le mot suivant, je ne vais pas parler de token, mais je ne vais pas rentrer là-dedans, on va imaginer que c'est des mots, il génère le mot suivant à partir de ce qu'il est en train de générer lui-même. Donc, il est sur un mode automatique, sur la base de ce qu'il a déjà généré. C'est très bien, on peut faire des tas de trucs déjà avec, mais ce n'est pas encore un bot, on ne peut pas parler avec lui. Et donc, ils ont rajouté une couche qu'on appelle le Reinforcement Learning, qui est basée sur le Reinforcement Learning Based on Human Feedback, RLHF. Et cette couche-là, c'est la couche géniale qui a permis de contrôler ce que ces LLM génèrent par du feedback humain, c'est-à-dire qu'il y a des humains qui ont revu des tas de conversations de bots, qui les ont labellisés, bien, pas bien, ça c'est pertinent, ça c'est pas pertinent. Et ce qui a permis à ces LLM de se transformer en chatbots. qui pouvait répondre à des questions de manière... Pas mal, quoi. Pas dégueu. Même si, on va le voir, c'est pas encore parfait.

  • JS

    Ok, je pense qu'on a bien compris le contexte. Est-ce que tu as des choses à rajouter ?

  • David

    Pourquoi cette explosion ? On revient à cette explosion de 2022. Pourquoi cette explosion ? Parce que d'un coup, on a ouvert la boîte, on a commencé à regarder tout ce qu'il y avait dedans, très bien, mais du point de vue de monsieur, madame, tout le monde, il y avait d'un coup un outil qui était disponible en ligne, gratuitement, qui permettait d'interagir avec, qui donnait des réponses donc... bien, bien supérieurs à tout ce qu'on avait eu avant. Et ça, le grand public a pu s'en saisir. Et là, on a vu l'explosion des nombres. Donc, c'est depuis novembre 2022, ChatGPT sur le premier qui est sorti, puis après les nouvelles versions qui s'améliorent à chaque fois. Le grand public s'en est emparé.

  • JS

    Alors, moi, je me souviens d'une conversation qu'on a eue quand j'ai mis les mains la première fois dans ChatGPT. Je t'ai envoyé un message en disant, mais c'est complètement dingue ce truc. Et toi ? Tu trouvais ça dingue, mais moins dingue parce que tu connaissais déjà, tu avais déjà touché à ce genre de choses. Et donc, le choc que ça a pu être pour la plupart des gens qui ne sont pas data scientists, finalement, les data scientists, pour vous, c'est... Ouais, OK. En fait, ce qui est intéressant, c'est qu'ils l'ont ouvert au grand public. L'UX du truc est bien fait. Justement, le reinforcement s'est bien fait. Mais pour vous, ça n'avait pas l'effet d'une bombe.

  • David

    Non, parce que d'un point de vue technique, tu sais, quand on sait comment quelque chose marche, On est forcément moins impressionné, c'est comme quand tu vas à un spectacle de magie, que toi-même tu es un petit peu magicien à tes heures perdues. Bon, tu bois quelque chose, c'est impressionnant apparemment, mais tu connais les dessous, tu connais les astuces et tu dis Ok, ce tour il est pas mal, mais c'est pas non plus de la vraie magie, j'ai pas encore vu de cette vraie magie-là. Donc pour moi, et comme pour beaucoup de gens qui connaissent toutes les briques technologiques qui soutiennent ces modèles-là, C'est très bien. Encore une fois, je ne veux pas gâcher dessus, parce que c'est toujours facile, après coup, de dire oui, c'est pas mal. Quand même, ils l'ont fait. Alors qu'avant, personne n'avait fait avant. Donc, il faut quand même reconnaître l'attitude. Mais je ne suis pas non plus impressionné. Je ne sais pas si c'est le moment où je dis pourquoi je ne suis pas impressionné, ou on garde pour plus tard.

  • JS

    Si, on peut en parler.

  • David

    Écoute, moi, je pense que ce n'est pas si impressionnant que ça, parce que quand... La machine qu'il y a derrière, qu'est-ce qui passe quand vous allez sur ChatGPT, vous lui posez une question sur n'importe quel sujet, et vous allez avoir une réponse. Donc, comme je disais, c'est basé sur des modèles de langage dont la seule fonction est de générer mot après mot, basé sur des probabilités, des phrases, qui font sens dans le contexte où elles se trouvent. Donc, en fait, faire sens, c'est, encore une fois, on va dire, ah oui, mais le sens, c'est humain, etc. Non, c'est juste un critère de vraisemblabilité par rapport aux données sur lesquelles ils ont été entraînés. Donc, tout ce que ces modèles essaient de faire, c'est de générer des phrases qui sont vraisemblables par rapport à ce sur quoi ils ont été entraînés, mais ils n'ont aucune idée de ce que c'est la vraisemblabilité.

  • JS

    C'est de la probabilité.

  • David

    C'est de la probabilité, mais de la probabilité très bien faite, qui fait que ça donne une illusion de texte qui est quand même vachement bien, qu'un humain aurait pu produire. Mais en fait, derrière, il n'y a que ces mots qui sont générés l'un après l'autre. Mais vraiment... l'un après l'autre. Alors que nous, pourquoi je suis pas impressionné ? Parce qu'il n'y a pas de pensée derrière, il n'y a pas d'intelligence derrière, il n'y a pas de construction derrière. Nous, humains, quand par exemple tu me poses une question, je ne génère pas un mot après l'autre en jetant une pièce. Je construis une pensée, et après cette pensée est articulée grâce à cet intermédiaire qui est pas mal, qui est le langage, jusqu'à mieux. Peut-être qu'avec Neuralink, on fera autre chose. Mais voilà, on a ça. Et c'est comme ça qu'on fonctionne. Et ça n'a rien à voir avec ce que font ces chatbots, tout aussi impressionnants qu'ils puissent être. Donc, je ne suis pas impressionné, et on le voit bien, et toi aussi, je pense que tu as pu jouer avec tous ces exemples qui montrent les limites, qui ne marchent pas. Tous les jours. Et on voit que le chatbot dit absolument n'importe quoi. Mais pourquoi il dit n'importe quoi ? Je n'aime pas le terme hallucination, je ne sais pas, il hallucine, c'est vraiment... Il dit... Voilà, je n'aime pas utiliser des mots... Voilà, c'est juste qu'en fait, cette machine qui répond n'a aucune idée de ce qu'elle est en train de dire ou de faire.

  • JS

    Elle n'est pas consciente. Elle n'est pas consciente,

  • David

    elle n'a pas d'intelligence.

  • JS

    C'est pour ça que le mot intelligence artificielle est très discuté. Et je me souviens qu'il y a quelques temps, tu m'avais dit, en fait, pour toi, c'est de l'algorithmie, soit de l'algorithmie très poussée, mais ça reste de l'algorithmie. Donc, c'est de la programmation, pas plus.

  • David

    C'est ça. Par exemple, un critère aussi, et là-dessus, tout le monde peut le voir, c'est le critère du bon sens. C'est-à-dire demander à... Je ne sais pas si vous avez fait l'expérience, peut-être qu'ils l'ont réparée, ils ont réussi à l'intercepter dans les dernières versions. Mais je sais que dans les premières versions, j'avais posé la question à Chad Jepiti. Je ne vais pas la faire en détail, mais un truc genre, sachant qu'il faut à une femme humaine neuf mois pour mettre au monde un enfant, combien de temps faut-il à neuf femmes humaines pour donner naissance aussi à un enfant ? Et l'algo, sans problème, va te dire, ce n'est pas un problème, on parallélise. Et donc, ça fait un mois, puisque un mois, on a neuf femmes, neuf mois, boum, c'est fini. Ben voilà, ça te montre bien que l'algo n'a aucune idée de ce qui se passe derrière, n'a aucun bon sens, parce qu'il n'est pas ancré dans la réalité. Peut-être que ce sera une question à laquelle on viendra tout à l'heure.

  • JS

    Pour le futur.

  • David

    On va y revenir. Alors,

  • JS

    on va jouer un jeu et on va essayer de prendre les trois grosses peurs, un top 3 des grosses peurs autour de l'IA que la plupart des gens ont. Et on va essayer de se dire, est-ce qu'elles sont légitimes ? Est-ce qu'on a raison d'avoir peur ? Ou est-ce que finalement, ce n'est pas si dramatique que ça ? Je pense qu'en fait, il y a surtout de la nuance à aller chercher. Numéro 3. L'IA va tuer la créativité donc avec tout ce qu'on voit aujourd'hui de génération d'images de films ou de morceaux de vidéos moi qui fais beaucoup de musique le fait qu'il y ait aujourd'hui des plateformes qui font de la musique complètement, c'est terminé on va plus avoir d'artistes parce que les IA vont tout remplacer alors moi j'ai ma petite idée qui est que ce qu'on va chercher dans l'art c'est plutôt le feeling de l'artiste l'émotion, ce qu'il raconte, son background etc et que ça en fait Une IA ne va pas pouvoir le raconter, même si ce qu'elle produit est parfait techniquement. On a besoin, nous, humains, d'avoir une histoire, mais j'aimerais bien avoir ton feedback.

  • David

    Alors, mon feedback là-dessus, il est très clair, c'est que non, la machine et l'IA, tout aussi puissante qu'elle puisse être aujourd'hui, ne va pas tuer la créativité humaine. Pourquoi ? Eh bien, parce que, encore une fois... On revient à la manière dont ces machines fonctionnent pour générer, par exemple, des images, mais ça s'applique aussi à tous les autres types de médias dont tu as parlé, l'audio, même la 3D, ce que tu veux. Ce sont des algorithmes qui font une espèce de moyenne de toutes les images, de tous les médias sur lesquels ils ont été entraînés et qui vont se servir de ces patterns qui ont été détectés dans les données sur lesquelles ils ont été entraînés pour, encore une fois, générer quelque chose qui est... vraisemblable dans le contexte du prompt qui a été fait. Ça génère des choses fantastiques, très belles, etc. Mais est-ce qu'il y a un processus créatif derrière ? Non. Est-ce qu'il y a une pensée construite derrière ? Non. Est-ce qu'il y a une histoire ? Est-ce qu'il y a une forme d'humanité derrière ? Alors, on pourrait dire que l'humanité était dans le support qui a servi à l'entraînement. Mais de la même manière qu'un artiste aujourd'hui s'inspire des œuvres de ses contemporains et de tous les artistes passés dans son art, l'artiste s'en imprègne et bien sûr qu'il utilise tout ce qui a été fait jusqu'à présent pour produire son propre art. La machine ne fait pas ça. Comme je l'ai expliqué, elle ne fait pas du tout ça. Est-ce qu'il est possible que la machine tue la créativité ? Mais absolument pas. Et d'ailleurs, on le voit souvent quand on demande à des artistes, des professionnels. Ici, il y en a plein à Massif. J'ai la chance d'être entouré par des artistes brillants. Et eux aussi ne sont pas impressionnés dans le sens où ils vont dire Ouais, bon, là, l'image qui m'a sorti, il y a ça et ça et ça qui ne va pas. Ce n'est pas comme ça que je l'aurais fait. Pas de démarche artistique. Donc, c'est bien pour peut-être faire un petit peu d'idéation. Je ne sais pas si c'est très français. C'est bien pour aller chercher des choses, peut-être pour automatiser certaines tâches un petit peu rébarbatives, répétitives, que parfois il faut faire dans l'industrie. Mais alors, est-ce que ça va tuer la créativité ? Je ne crois pas. Le jour où on aura une machine... pensante, etc., qui est sur le même mode de fonctionnement que l'humain, on en reparlera. Mais ce n'est pas aujourd'hui.

  • JS

    J'ai une anecdote à ce sujet aussi sur la façon dont on ressent la créativité. Il y a eu un concours très récemment qui a été fait autour de la génération d'images faites par les IA. C'était la plus belle image générée par IA. Chacun a amené son image générée par IA. Et il y a un gars qui gagne avec une image super belle, etc. Donc on lui remet son prix, au moment où on lui remet son prix, il dit mais en fait c'est une vraie photo que j'ai prise. C'est-à-dire qu'il était photographe et il n'a pas du tout généré l'image avec l'IA, donc on lui a enlevé son prix. Ceci dit, d'un seul coup tout le monde s'est intéressé à son image en se demandant comment il l'avait fait, quelle technique il avait pris, quelle était sa démarche, etc. Alors qu'on ne s'était pas du tout posé cette question sur la génération du prompt autour du NIA. Et on revient sur, en fait ce qui est intéressant dans la création, ce n'est pas seulement le résultat, même si le résultat peut être ultra intéressant, mais on a besoin nous humains, de savoir ce qui s'est passé avant. Alors ça va peut-être tuer les mauvais créatifs ou ceux qui ne font que copier sans avoir réellement une...

  • David

    Alerte provoque ! Oui, oui, oui !

  • JS

    Mais ceux qui sont vraiment artistes et qui ont vraiment une démarche artistique n'ont pas trop de soucis à se faire.

  • David

    C'est comme... Là, je vais citer un grand maître pour moi, et pour nous d'ailleurs, Alexandre Astier, quand on lui avait posé la question sur est-ce que l'IA va tuer la créativité, enfin, va tuer le travail... Il avait dit, s'il le fait, c'est que vous ne faites pas un très bon boulot. C'est aussi un peu provoque. Je sais que ça peut faire peut-être hurler des gens qui vont dire, mais qu'est-ce que c'est, etc. La vérité est qu'effectivement, les IA qui génèrent de l'art, des supports médias comme ça, ne sont pas capables de faire des choses d'une extrême qualité. En tout cas, je sais que ce ne sont pas des choses qui sont prêtes à être utilisées, intégrées directement en prod. Donc, à partir de là, effectivement... Si c'est le cas pour certaines images, certains assets, on va dire que ce ne sont pas des assets de grande qualité. On revient un petit peu sur cette question de qualité. Oui,

  • JS

    mais après, ça va peut-être tuer les banques d'images qu'on utilise aujourd'hui pour mettre dans des présentations, dans des posts sur Internet. Mais de toute façon, ce n'était pas déjà des assets de très grande qualité. Ok, numéro 2. Attention, on attaque le lourd. Je vais perdre mon job et être remplacé par une IA.

  • David

    Un petit peu la même réponse.

  • JS

    Si t'es mauvais, tu vas être remplacé par une IA !

  • David

    Non, c'est pas si t'es mauvais c'est pas une question de bien travailler ou pas la question c'est si tu fais une tâche qui est aisément remplaçable mais pour la totalité du travail ça veut dire que quelqu'un qui est à plein temps sur des tâches qui sont totalement automatisables c'est que effectivement tu fais pas forcément des tâches qui requièrent énormément de cette fameuse créativité et une... spécificité humaine dont on parle. Alors, il y a des jobs comme ça. Qu'ils soient menacés, on peut le comprendre, mais ça, c'est quelque chose qui n'est ni spécifique à notre période, ni spécifique à l'IA. Ça a toujours été le cas. C'est un peu le problème. Mais les temps modernes, souvenez-vous, est-ce qu'il était bon de remplacer cet ouvrier qui faisait le même mouvement 8 heures par jour à la chaîne, sur une chaîne de montage ? Alors, peut-être que oui, peut-être que non. Il a perdu son job. Je ne sais pas. Ça pose d'autres questions qui sont, de toute façon, bon, on peut en parler.

  • JS

    C'est une question sociétale.

  • David

    C'est une question sociétale. Mais si on revient juste là maintenant à la question de l'IA, maintenant de ces outils d'IA dont on parle et de la peur qui est, je pense, qui est légitime. Je peux comprendre cette peur de gens qui disent je vais perdre mon boulot Moi, je pense que... C'est un petit peu la réponse que je donne quand on me demande est-ce que je vais perdre mon job ou pas. Je pense qu'il y aura effectivement deux grandes catégories de salariés ou de candidats à l'embauche bientôt. Il y a ceux qui sauront utiliser ces outils et ceux qui ne sauront pas le faire, soit par principe, soit par manque d'envie ou soit par toutes les raisons imaginables. Mais ce qui est sûr, c'est que le critère de tri se fera là-dessus parce que... Ça se verra vite en termes de productivité, de savoir utiliser les nouvelles technologies et tout. Et là encore, ce n'est pas nouveau. Les gens qui se forment aux nouveaux outils sont des gens qu'on va plus facilement embaucher.

  • JS

    La vraie question, c'est de ça dont je parle souvent, c'est quelle est votre valeur en tant qu'être humain ? Où est votre expertise ? Où est vraiment l'intelligence humaine ? Et à la limite, s'il y a des tâches rébarbatives que vous pouvez faire remplacer par une IA, mais tant mieux, parce que ce n'est pas là où vous avez de la valeur. Sauf qu'effectivement, là, ça pose des questions de qui est où, quel type de travail on va avoir, et des personnes qui ne vont potentiellement pas être sur des métiers où ils vont pouvoir accéder à d'autres choses. Donc, c'est complexe, c'est une question complexe. Toutes les personnes qui se disent j'ai vraiment peur que mon métier soit remplacé c'est faux. C'est-à-dire, mettez les mains dans l'IA, apprennent à l'utiliser, et potentiellement, ça va devenir plus un allié qu'une contrainte.

  • David

    Je reviens à ce bon sens, où être capable de voir ses résultats, de savoir comment faire marcher ses IA, etc. Donc, il y a toujours besoin d'humains dans la boucle. Et tant mieux, c'est une bonne nouvelle.

  • JS

    Ok, top 1, attention.

  • David

    Je suis prêt.

  • JS

    Là, je crois que je vais mettre une musique profonde. Les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète.

  • David

    Est-ce que tu peux mettre une musique du style Qui veut gagner des millions ? avant ça ? C'est un peu le suspense. Tu fais une pause.

  • JS

    Il faut que ça commence In the world Donc, les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète. Donc, on parle des AGI, des super intelligences. La singularité. Sam Altman, qui n'arrête pas de nous annoncer justement les GA pour demain chez OpenAI. Là où on va avoir un Yann Le Cun, pour rappel, Sam Altman, c'est le patron d'OpenAI et Yann Le Cun, c'est le head of

  • David

    AI de Meta.

  • JS

    Qui, au contraire, lui dit, de toute façon, ce n'est pas les LLM. Les LLM, Large Engrange Model, c'est ce qui est utilisé aujourd'hui pour faire tourner la Gen AI, donc l'IA générative. Yann Lequin lui dit que ce n'est pas ces technos-là qui amèneront l'AGI et on en est encore très loin. Donc, il y a des annonces très marketées là-dessus. Quelle est ta vision d'expert sur le sujet, avec toutes les années que tu as derrière de travail sur le sujet de l'IA, sur cette arrivée de l'AGI ? En gardant à l'esprit, est-ce que tu as vraiment toutes les infos et tu es capable de répondre correctement à cette question ?

  • David

    Je ne suis pas dans la tête de Sam Altman ni de Yann Lequin. En revanche, ce que je peux te dire, c'est que... Alors, tu m'as dit, la superintelligence va émerger, etc. Une machine plus intelligente que l'homme. Je renvoie une question, et c'est une question que je pose à tous nos auditeurs. Qu'est-ce que l'intelligence ? Comment on définit l'intelligence ? À partir de quel moment on va pouvoir être sûr qu'on a quelque chose, une entité en face de nous qui est plus... intelligente que nous. Qu'est-ce que ça veut dire ? C'est-à-dire être capable de résoudre un problème de maths ? Ça veut dire être capable de répondre à une question sur comment cuisiner tel plat ? Alors,

  • JS

    je mets une définition. Capable de s'adapter. Une seule IA. Un modèle capable de s'adapter à n'importe quelle situation. Donc, de comprendre un contexte qui soit potentiellement un contexte logique, mais aussi de comprendre un contexte physique, quel que soit ce contexte, et de prendre des décisions qui sont qui donne de meilleurs résultats qu'un être humain.

  • David

    Mais même les humains ne sont pas capables de faire ça. Donc, en fait... Oui, justement. Pourquoi j'allais dans cette question un peu provoque, c'est que les chercheurs se battent depuis des dizaines d'années pour essayer de définir l'intelligence. Donc, on va avoir du mal, là, dans ce podcast, à définir cette intelligence et donc cette superintelligence.

  • JS

    On a dix minutes, on est bon.

  • David

    Heuuu, Douze ? Au-delà de ça déjà il faudrait définir à partir de tu m'as donné quelque chose sur lequel on peut partir je pense que tous on a une idée un peu générale de ce que c'est ce super être qui serait plus intelligent que nous et ça va au-delà de l'adaptabilité c'est l'autonomie c'est la question de la question C'est très large. J'ai beaucoup de difficultés à résumer.

  • JS

    Je pense que ce dont les gens ont peur, c'est d'avoir une machine, et sans parler forcément d'intelligence ou d'adaptabilité, mais une machine qui, à un moment, sorte du contrôle de l'être humain et soit en capacité, par exemple, de prendre le contrôle d'infrastructures, de centrales nucléaires, de choses comme ça. C'est ça dont ils ont peur. C'est une machine qui potentiellement s'autoréplique et soit en capacité de prendre le contrôle d'infrastructures sensibles.

  • David

    Je pense qu'il y a énormément de fantasmes. là-dedans. On a été bercé par Terminator et d'autres films de SF. On est dans le domaine du fantasme. Je vais dire ça, pourquoi ? Parce que l'IA aujourd'hui, avec tous les guillemets, tu sais que je ne suis pas un grand fan de ce terme-là, même si on est obligé de l'utiliser, parce que c'est le terme que tout le monde comprend, mais l'IA aujourd'hui n'est ni intelligente, elle est artificielle, mais ce n'est pas de l'intelligence, ce sont des outils. Donc... qui permettent de résoudre un problème donné, donc très très étroit. Et ces problèmes-là, pour pouvoir les résoudre, nous, humains, donnons l'objectif à la machine pour qu'elle atteigne le niveau de performance qu'on estime être bon pour réaliser cette tâche-là. L'intelligence générale dont on parle, c'est l'espèce de chose un peu nébuleuse qui serait capable de tout faire, mais sans avoir de vrai objectif. On est quand même, nous les humains, qui programmons ces choses-là, on est quand même là pour coder. Tu vois, là je reviens vraiment à l'ingénieur, qu'est-ce qu'on va mettre comme fonction objectif à ce truc-là, pour que d'un coup ça sorte des gonds et ça se mette à se multiplier, et à d'un coup prendre...

  • JS

    Ce que tu veux dire, c'est que, autant nous, les êtres humains, en fait on fait une projection de nous en tant qu'êtres humains, qui avons des objectifs, et quand on voit les plus grands tyrans avaient toujours des objectifs de pouvoir, de etc. Ce que tu es en train de dire, c'est que la machine, en fait, ses objectifs, c'est l'être humain qui lui donne. Donc si on ne lui en donne pas, ça ne va pas émerger naturellement.

  • David

    En tout cas, pas avec ce qu'on a aujourd'hui. Parce que pour arriver à ce que des objectifs et de la conscience émergent, il faudrait arriver à faire des simulations extrêmement avancées sur support logiciel, encore une fois, mais qui n'auraient pas de but en eux-mêmes. Alors, je vais confier ici quelque chose. Quand j'ai commencé mon doctorat dans les années 2000, et les réseaux de neurones n'étaient pas encore aussi utilisés qu'aujourd'hui, j'avais ce fantasme de dire, je vais lancer une simu sur ma machine, sur mon labo. Et je vais lancer mon réseau de neurones. C'était génial. Et le lendemain, quand je vais arriver, mon ordi va me parler. Avec cette singularité qui émergerait. de ces simulations de neurones. Première chose, ce n'est pas arrivé. C'est peut-être en train d'arriver chez Sam Altman, il faudra qu'il nous le dise le jour où ça arrive, mais ce n'est pas le cas. Je vais venir un petit peu dans les courants qui se disputent sur ces questions-là, la vision Sam Altman, la vision Yann Le Cun, et moi je pencherai pour la vision de Yann Le Cun parce que je pense aussi que pour toutes les raisons que j'ai expliquées un peu avant, sur comment fonctionnent ces modèles de langage et ces chatbots basés dessus, ce ne sont pas des modèles qui piochent les mots l'un après l'autre qui vont être capables d'arriver à l'intelligence générale. Encore une fois, parce que nous, nous-mêmes, humains, on ne fonctionne pas comme ça. Donc, partant de ce simple principe, si la base technologique, algorithmique, c'est ça, on n'y arrivera pas. On pourra peut-être y arriver en allant vers d'autres choses, en faisant de la... Peut-être la multimodalité, si on commence à mélanger le texte, la voix, si on commence à mélanger plein de choses, on va peut-être aller vers quelque chose qui donne l'illusion.

  • JS

    C'est un peu ce qu'on voit sur les annonces de... Voilà, 4o,

  • David

    par exemple. Toutes les vidéos de 4o sont super impressionnantes. Pour les auditeurs, c'est ChatGPT 4o. C'est la dernière version au moment où on enregistre, qui n'est pas encore accessible au grand public.

  • JS

    Sur la version voix. Elle est accessible en texte, mais pas sur la version voix.

  • David

    C'est extrêmement impressionnant, mais c'est encore une fois une avancée. technologique, mais ce n'est pas une avancée vers l'intelligence générale qu'on nous promet depuis longtemps. Pour autant, est-ce que c'est complètement hors de portée ? Est-ce que ça n'arrivera jamais ? Honnêtement, je ne sais pas. Je pense que si ça arrive, ça ne sera pas sur ces fondations technologiques-là, ça sera sur autre chose. Yann Le Cun en parle très bien, il dit et je le rejoins là-dessus, que pour qu'une intelligence parvienne - sans nous dépasser déjà - parviennent au niveau d'un enfant d'un an, deux ans, trois ans, je ne sais pas. Ce qui fait que la façon dont nous, humains, fonctionnons, nous sommes ancrés dans le monde, dans un monde physique qui est extrêmement dense en informations. Il faut voir qu'à chaque seconde, nos yeux, nos oreilles, donc perçoivent un flot, si on devait en mettre une taille dessus, ce serait des gigas, des gigas de données. Et un enfant est... parfaitement capable de digérer ça, ce flot de données-là, et ça va influencer les neurones de son cerveau, ses zones perceptives, ses zones motrices, etc. Et on sait que les degrés de développement de l'intelligence humaine suivent les degrés de développement moteur. Ça aussi. Donc, tout est lié dans notre cerveau. Et aujourd'hui, en essayant d'en isoler une partie, qui est le langage, on fait fausse route. C'est-à-dire que un modèle de langage, quel qu'il soit, ne pourra pas avoir cet ancrage dans la physique. tant qu'on ne va pas chercher du côté de la physique.

  • JS

    Et quand on voit Tesla avec leurs robots, et toutes les boîtes qui commencent à faire de la robotique, notamment avec des robots humanoïdes, est-ce qu'ils vont dans ce sens-là ? Est-ce que justement un gars comme Elon Musk est en train d'accompris ça et est en train de travailler sur ces sujets, que ce soit chez Tesla ? Je ne sais pas s'il a compris ça,

  • David

    Je ne sais pas s'il a compris ça...

  • JS

    ...mais ces boîtes-là.Est-ce que c'est ça qu'elles sont en train d'essayer de faire ?

  • David

    En tout cas, les robots qui font de la robotique sont obligés de s'ancrer dans la physique. Parce que les robots, pour qu'ils puissent marcher, monter un escalier sans se casser la gueule, arriver à déambuler dans des espaces un petit peu escarpés et difficiles, sont obligés justement d'être dans cette densité d'informations qui est le temps réel sur des capteurs, des actionneurs, etc. Et ce n'est pas du tout la même densité d'informations que les modèles de langage qui sont token par token.

  • JS

    Donc finalement, Terminator avait raison, ce sera des robots.

  • David

    Peut-être qu'on commencera par les robots. Mais en tout cas, avant de l'avoir des robots conscients, on revient encore une fois. Ce n'est pas pour demain. Je voulais un petit peu débanquer cette idée-là. L'intelligence générale, elle ne sera pas là.

  • JS

    On va avoir des stimulateurs. C'est-à-dire qu'il est très probable qu'un GPT-5... Que des modèles comme ça soient extrêmement performants pour simuler la réalité à un point qui rend les choses vraiment bluffantes. Mais par contre, leur attribuer une conscience va être compliqué. Le risque, et c'est d'ailleurs aujourd'hui un travail qui est fait, notamment sur les derniers papiers sortis par Oponay, sur la version audio justement qu'ils ont présenté et qui n'ont pas encore sorti, le risque c'est un problème psychologique de certaines personnes qui pourraient s'attacher. au modèle parce qu'ils vont être tellement bluffés par les choses qu'ils vont prêter vraiment des sentiments humains. On a vu peur, le film. C'est un peu le risque sur lequel ils sont en train de... En tout cas, Open AI a publié un papier sur le sujet en disant qu'on s'inquiète de ce sujet-là et donc on est en train de travailler là-dessus.

  • David

    C'est un peu pour faire du buzz.

  • JS

    Comme beaucoup de choses sur les annonces d'Open AI.

  • David

    C'est très très buzz. Et je trouve que c'est malin de dire, écoutez, on est en train de faire un truc, c'est tellement bon que nous-mêmes, on en a peur. T'imagines comme c'est bon. Le marketeux que tu es, là, tu dois... C'est génial ! Mais là aussi, on n'a pas attendu ces modèles-là et donc leur version vocale pour grossir les risques d'une technologie donnée et que les gens s'énamourachent. d'un agent qui parle, tu peux avoir la même chose avec des choses très différentes il y a très longtemps. Je ne vois pas quelque chose de très nouveau là. Pour revenir à la question de cette conscience-là, on va peut-être avoir des consciences. Pourquoi essayer de donner à ces machines une conscience ? Pourquoi faire ? C'est la question. Par exemple, comme disait un chercheur qui travaillait dans le laboratoire où j'ai fait ma thèse, qui s'appelait Bernard Ami, qui était vraiment très très bon, il m'avait dit un jour, mais il avait écrit dans un article, les avions n'ont pas... n'ont pas d'ailes, et pourtant, ils volent. Donc, si la fonction qu'il doit remplir, l'outil, c'est de voler, on n'a pas besoin de lui faire battre des ailes comme font les oiseaux. De la même manière, a-t-on besoin de donner une conscience à des machines pour remplir des tâches qui nous aident, nous, humains, comme par exemple répondre à des questions sur Ah, comment je fais pour faire ça ? et Ah, aujourd'hui, ces modèles de langage le font très bon, très bien. Ben non, il n'y a pas besoin.

  • JS

    C'est une question philosophique. Pour l'être humain, c'est la tentation d'être Dieu, d'être le créateur.

  • David

    Oui, et là, on est peut-être encore une fois sur le domaine du fantasme et créer la bête Frankenstein ou je ne sais quoi. Mais si on veut créer des outils qui sont efficaces pour nous aider au quotidien, a-t-on besoin de leur donner une conscience ? Moi, je n'ai pas envie qu'on marteau et des états d'âme et me disent, écoute, je ne le sens pas aujourd'hui.

  • JS

    Ce clou, je le trouve plutôt sympa.

  • David

    Pareil, le frigo ou le grille pain.

  • JS

    On revient à ce qu'il y a. On va reprendre, on va remettre les pieds sur terre. Et histoire de se faire une troisième partie et d'être un peu plus pragmatique, parce que ceux qui écoutent ce podcast, c'est potentiellement des chefs d'entreprise, des managers, des gens qui ont entendu parler de la GenAI, qui doivent ou veulent l'intégrer dans l'entreprise, ne savent pas trop par quelle bout le prendre, parce que c'est un gros morceau. On peur que ça ait un impact sur leurs équipes, on peur que ça déstabilise, mais en même temps, ils se disent qu'ils sont obligés d'y passer. Donc, d'après toi, quelle serait la bonne façon d'intégrer ces outils dans une entreprise ? Aujourd'hui, je vois quand même deux aspects. Il y a d'un côté la verticale métier, c'est-à-dire comment j'intègre de la GenAI dans un service marketing, dans un service com, dans un service achat, etc. où on va plutôt former les gens sur des outils existants pour leur apprendre à les utiliser. accélérer certaines choses dans leur travail, faire un plan pour une présentation, résumer des notes, ce qu'on voit apparaître d'ailleurs dans tous les outils type Teams qui permettent de synthétiser des réunions. Et ensuite, on a une version plus transverse qui fait intervenir l'IT et potentiellement des data scientists pour dire comment est-ce qu'on va utiliser, et là, ce n'est pas que de la GenAI, mais de l'IA de façon générale, pour dire, en fait, on a des données au niveau de l'entreprise, donc là, il y a un vrai travail à faire au niveau de la donnée dans l'entreprise pour venir là. l'agréger, la structurer et derrière se dire, cette donnée, comment est-ce qu'on peut arriver à travailler autour de ça pour produire de la valeur ? Ça déjà, c'est ma vision, mais est-ce que toi, d'un point de vue data science, tu as aussi d'autres conseils à donner sur ce sujet ?

  • David

    Je suis un petit peu biaisé sur cette question, étant donné que j'occupe une position de management et mon rôle, justement, à Massive, est justement de travailler sur ces questions-là. Je vais essayer de rester un petit peu agnostique là et de dire, OK, qu'est-ce que... Qu'est-ce que je pourrais dire à un dirigeant, un manager aujourd'hui qui est tenté d'utiliser de la GenAI dans son entreprise ? Donc la première chose que je lui dirais, c'est mais pourquoi faire ? Parce que si la seule raison c'est de se dire oh ça a l'air cool ou tu sais, je ne sais pas comment on pourrait traduire le FOMO, le fear of missing out. Tout le monde en parle, donc il faut que je le fasse aussi parce que sinon je vais passer pour un ringard.

  • JS

    En fait il y en a beaucoup qui n'ont pas pris le pli sur la... Transfo Digital sur la révolution Internet et qui l'ont subi. par la suite, et donc se disent aujourd'hui je ne peux pas être en retard là-dessus parce que je ne peux pas me permettre une deuxième fois d'être en retard. C'est aussi ça.

  • David

    Donc je dirais vraiment, bon, déjà, il ne faut pas faire les choses dans la précipitation et juste pour le principe, dire ah tiens, je veux le faire parce que c'est cool, même si ça donnerait du boulot à mes collègues data scientists par là, qui sortent des écoles et qui seraient ravis de le faire. Ne vous dites pas, je vais embaucher des data scientists d'une bonne équipe, déjà c'est très cher, data scientists, je précise, et puis ensuite on verra. Il faut vraiment partir, il faut essayer d'identifier quels sont les besoins de l'entreprise, qu'est-ce qui pourrait être couvert éventuellement par ces technos. Et là pour ça, il n'y a pas besoin d'avoir une armée de gens, il faut juste prendre les principaux acteurs dans les domaines clés et les mettre autour d'une table et faire réfléchir ensemble. On en a parlé l'autre jour, on disait mais ce n'est pas une approche top bottom qu'il faut prendre en disant voilà à partir de demain, vous utilisez l'outil pour faire ça et de toute façon, je n'ai aucune idée de ce que vous faites, mais vous le faites comme ça. Ça, ça ne marche pas. En revanche, amener les équipes à se saisir de ces outils-là, ça commence déjà par les dédiaboliser, par déhyper, par revenir sur terre, un petit peu ce qu'on essaie de faire là et je trouve que c'est super ce que tu fais. Donc enlever la hype, enlever tous les mots et les idées reçues, les peurs irrationnelles. et s'approprier les outils tels qu'ils sont, avec leurs avantages, leurs inconvénients. Et à partir de là, en travaillant ensemble avec les équipes, ça émerge naturellement. Donc, quand les équipes...

  • JS

    Prototyper...

  • David

    On veut prendre le train, ce train-là, parce qu'on sait qu'il va apporter de la valeur, et on veut le faire ensemble. Et on arrive à la question de la valeur. Là, je pense que tu peux prendre ça là. C'est crucial toujours d'identifier les potentiels gains de valeur.

  • JS

    Valeur n'étant pas forcément financière, ça peut être une valeur en termes de... humain, c'est-à-dire ça donne du sens au travail de certains.

  • David

    Ça peut être la valeur gagnée du temps sur les tâches répétitives.

  • JS

    La résilience de l'entreprise, ça peut être plein de choses. Beaucoup, beaucoup de choses. Donc, mettre les équipes au travail, enfin en tout cas, moi, mon credo, c'est plutôt de dire il faut faire travailler les personnes avec l'IA de manière à ce qu'on ne crée pas une situation encore plus forte vis-à-vis de la technologie qui pourrait être, pour le coup, dangereuse pour l'entreprise.

  • David

    C'est ça.

  • JS

    Ok. Écoute, on a bien parlé. Là, je vois le compteur qui fait 51 minutes. Donc, on a plutôt bien parlé. On va clore cet épisode. Déjà, où est-ce qu'on peut te retrouver ? Est-ce qu'il y a des choses qu'on peut lire ? Sur quel réseau tu es actif ?

  • David

    Moi, je suis relativement peu actif sur les réseaux. Parce qu'en fait, je bosse ! Et là, tous ceux qui sont sur les réseaux disent "Ça va, moi aussi, je bosse!" Désolé, désolé. Non, je suis principalement sur LinkedIn. On peut me retrouver, David Renaudie sur LinkedIn, qui bosse à Massive en Suède. Il n'y en a pas beaucoup. Contactez-moi sur LinkedIn si vous avez des questions. Je serais ravi d'échanger autour de ces sujets qui me passionnent. Pas que les jeux vidéo, l'IA en général, comme on l'a compris. Avant, je tweetais un petit peu, mais depuis que c'est devenu X, je... Oui, bon. Mais voilà, principalement LinkedIn. Ok.

  • JS

    Et le prochain jeu de Massive qui sort dans quelques jours ?

  • David

    Deux semaines. Dans deux semaines. Deux semaines. On sort Star Wars Outlaws. Donc, un jeu en monde ouvert dans l'univers de Star Wars sans sabre laser. Donc, je précise. Sans sabre laser. C'est un pari. Mais on pense que ça va marcher. On y croit. Et c'est cool. On est super. On est à fond là. OK,

  • JS

    bonne chance pour le lancement !

  • David

    Merci JS !

  • JS

    Voilà, c'est la fin de cet épisode. J'espère que vous avez passé un bon moment et que ça vous a donné matière à réflexion. Avant de nous quitter, quelques petites demandes. Tout d'abord, si ce podcast vous plaît, n'hésitez pas à vous abonner. C'est le meilleur moyen de ne manquer aucun épisode. Ça nous aide beaucoup. Ensuite, si vous avez un moment, laissez une note et un commentaire sur votre plateforme d'écoute. C'est pareil, c'est un retour précieux. qui permettent d'améliorer constamment le contenu. Et enfin, venez échanger avec nous sur LinkedIn, partagez vos réflexions, proposez des idées, des sujets d'invités que vous souhaiteriez voir invités sur le podcast. Ça nous aide vraiment à être visibles, à vous apporter du contenu de qualité. Ce podcast est créé et produit par le collectif Tous Transformes qui accompagne les entreprises sur les sujets de la transformation, que ce soit sur le business, marketing ou la tech. Merci infiniment pour votre écoute et votre soutien. On se retrouve très bientôt pour un nouvel épisode. Salut David.

  • David

    Salut JS.

Chapters

  • Introduction au podcast et contexte de l'IA

    00:00

  • David Renaudie présente son parcours

    01:55

  • Histoire et évolution de l'IA

    05:20

  • Les trois grandes peurs liées à l'IA

    21:02

  • Comment intégrer l'IA dans les entreprises

    43:29

Description

Dans cet épisode de "Tout Se Transforme", nous plongeons au cœur de l'intelligence artificielle (IA) et de son influence grandissante sur nos vies quotidiennes. JS et David Renaudie, Associate Director, Data Science chez Massive Entertainment (A Ubisoft Studio), nous offrent une perspective unique sur l'évolution de l'IA, en se concentrant particulièrement sur les IA génératives telles que ChatGPT. David, fort de 25 ans d'expérience dans le domaine, partage son parcours fascinant, qui débute dans l'ingénierie informatique et s'étend à une passion profonde pour l'IA. Ensemble, ils analysent les craintes et les préoccupations du grand public face à ces technologies émergentes (79% des adultes ressentent une certaine inquiétude à propos de l'IA).


Au fil de la discussion, JS et David explorent les mythes entourant l'intelligence artificielle. L'idée que les machines pourraient un jour surpasser l'intelligence humaine est scrutée avec rigueur. Ils mettent en lumière l'évolution de l'IA depuis les années 1950, en soulignant les avancées récentes qui ont conduit à une adoption massive de ces technologies dans divers secteurs. En démystifiant l'IA, ils cherchent à offrir une vision équilibrée, illustrant comment ces outils peuvent être intégrés de manière bénéfique dans les entreprises tout en restant conscients des limites et des implications éthiques qui en découlent.


Cet épisode est une invitation à réfléchir sur notre relation avec l'intelligence artificielle. Comment pouvons-nous tirer parti de ces avancées sans tomber dans le piège de la peur irrationnelle ? JS et David apportent des réponses concrètes et éclairantes, en s'appuyant sur des études et des données probantes. Ils encouragent les auditeurs à adopter une approche proactive face à l'IA, en soulignant l'importance de l'éducation et de la sensibilisation pour mieux comprendre ces technologies.


En somme, cet épisode de "Tout Se Transforme" est un incontournable pour quiconque s'intéresse à l'impact de l'intelligence artificielle sur notre société. Que vous soyez un professionnel du secteur, un étudiant ou simplement curieux, cette discussion enrichissante vous fournira des clés pour naviguer dans un monde de plus en plus façonné par l'IA. Ne manquez pas cette occasion d'élargir vos horizons et de démystifier l'IA avec nous !


Cet épisode a été enregistré en août 2024 à Malmö dans les locaux de Massive Entertainment.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • JS

    Vous écoutez Tous Transformes, le podcast qui parle de la transformation des entreprises. Ça ne fait pas tout à fait deux ans que ChatGPT a été ouvert au grand public. Pourtant, on a déjà l'impression que les IA, et notamment les IA génératifs, font partie de notre quotidien. Enfin, pas tout à fait. Selon un baromètre IFOP pour Talon, d'avril 2024, seuls 22% des 35 ans et plus les utilisent. Et 79% se sentent inquiets. En parallèle... pas une semaine ne se passe sans annonce spectaculaire des gens de la tech. Certains n'hésitent d'ailleurs pas à nous promettre une super intelligence pour très bientôt, dotée de capacités cognitives d'un être humain. Pour faire le point, je profite d'une visite à Malmö en Suède pour en parler avec David Renaudie, lead data scientist à Massive, l'un des studios d'Ubisoft. Ça fait 25 ans que David et moi sommes amis, et de mémoire, ça fait 25 ans qu'il me parle d'IA. Il me semblait donc être la bonne personne pour échanger sur le sujet avec une vision scientifique et honnête, loin de la hype et de l'agitation. Salut David, ça va ?

  • David

    Salut JS, ça va très bien et toi ?

  • JS

    Oui, ça va bien, je suis content qu'on soit ici dans les locaux massifs qui sont massifs, impressionnants. On sent la culture jeux vidéo et ça donne envie de venir bosser ici s'il ne faisait pas trop froid l'hiver.

  • David

    Oui, d'ailleurs ici c'est un critère de recrutement, il faut avoir un baromètre de 6 sur 10 en nerdy.

  • JS

    parce qu'il faut le vivre il y a des consoles tous les 10 mètres pour pouvoir jouer à la pause alors que tu travailles déjà sur les jeux vidéo aujourd'hui on ne va pas parler de jeux vidéo on va parler réellement d'IA ce qui m'intéresse c'est effectivement ton parcours parce que tu as bossé toi sur ces sujets depuis très longtemps et l'idée c'est de s'arrêter un petit peu sur les craintes qui existent aujourd'hui d'avoir ta vision pour comprendre de quoi on parle exactement quand on parle notamment des IA génératifs, du boom qu'il y a aujourd'hui et et Quelles sont les vraies raisons d'avoir éventuellement peur et quelles sont celles qui sont un peu fake ? Je te propose qu'on commence par parler de ton parcours, qu'est-ce que tu as fait, d'où tu viens, de manière à ce que derrière ça nous donne aussi un contexte et qu'on comprenne pourquoi tu es légitime à parler de ce sujet.

  • David

    Écoute, moi je viens de l'ingénierie en informatique, donc à la base j'ai fait une école, école d'ingé, je suis allé à l'ENSEMAG à Grenoble, très très bonne école, je suis très content. Et pendant ma scolarité à l'ENSEMAG, donc moi déjà j'étais... toujours très intéressé par ces questions de comment les machines peuvent faire des choses qui sont de plus en plus incroyables. Et j'ai embrassé la possibilité de faire des stages à l'étranger, de faire un parcours plutôt orienté recherche. Et ça m'a amené vers la possibilité de faire un doctorat. Et donc, j'ai passé une thèse dans les années 2000, dans une discipline qui ne s'appelait pas encore la data science, puisque le terme n'avait pas encore été trouvé et généralisé. Mais à l'époque, c'était déjà une thèse en machine learning, parce que ça par contre, le machine learning, ça fait longtemps qu'on en fait.

  • JS

    Donc c'était 99 ?

  • David

    Ouais, je commençais en 2000, c'est ça. 2000, et donc j'ai passé un doctorat dans lequel j'explorais déjà des algos de machine learning qui n'avaient absolument rien à voir avec ce qu'on a aujourd'hui, mais déjà avec l'ambition de... d'analyser des données provenant d'utilisateurs réels et d'en construire des profils pour pouvoir adresser au mieux leurs besoins. Donc, on était déjà dans des thématiques qu'on va retrouver tout au long des années et des décennies qui ont suivi.

  • JS

    Ok. Et par la suite, qu'est-ce que tu as fait ?

  • David

    Par la suite, j'ai rejoint l'industrie parce que j'avais envie d'une expérience hands-on, vraiment très concrète, très appliquée pour voir comment en entreprise les choses fonctionnent. Je n'ai pas pu tout de suite faire du machine learning, de lire l'entreprise. J'ai occupé d'autres postes. Là, je vais passer un petit peu vite. Ce n'est peut-être pas forcément le sujet pour maintenant. Mais en tout cas, ça m'a appris les process en industrie. J'ai vu comment on mène des projets, comment on délivre des choses à des clients, des choses qu'on ne voit pas forcément quand on fait de la recherche en laboratoire. Mais j'ai pu quand même, à un moment donné, rejoindre mes premiers amours. Dès que j'ai pu avoir un job de data scientist dans cette compagnie, Je l'ai fait et la boucle était bouclée. J'ai pu faire de l'IA avec les moyens modernes, donc c'était passé 15 ans quand même entre les deux, et revenir à ces sujets-là. J'ai fait ça pendant quelques années dans cette société et ensuite j'ai pu changer et venir à Massive, un studio d'Ubisoft où j'applique toutes ces méthodes d'IA, de machine learning, aux jeux vidéo, à l'industrie du jeu vidéo.

  • JS

    On voit que début des années 2000, tu commençais à travailler sur le machine learning. Pourtant, à l'époque, on n'entendait pas parler forcément d'IA au niveau des entreprises du grand public. On sait que milieu des années 2010 vers 2015, notamment avec AlphaGo, il y a eu une petite hype autour de l'IA, puis c'est retombé aussi sec. Mais là, depuis trois ans, ça s'enflamme. Alors, qu'est-ce qui nous amène à ça ? Comment ça se fait que d'un coup tout ce soit enflammé, qu'on voit de l'IA partout, même dans des grippes ? Qu'est-ce qui a amené à ça ?

  • David

    C'est réel,

  • JS

    ça a été montré au CES à Las Vegas, un gris pour la viande avec de l'IA dedans. Là, on atteint un certain niveau quand même. Donc, qu'est-ce qui nous a amené à ça ? Et qu'est-ce qui fait qu'aujourd'hui, on est... Enfin, moi, je considère qu'on est réellement sur une phase de transition et qu'on a passé un cap au niveau de l'adoption de ces technologies.

  • David

    C'est intéressant parce que l'IA, en fait, on sait ce que c'est et on la pratique, même pas au niveau où elle est aujourd'hui, on la pratique depuis les années 1950. Donc je vais faire un petit peu l'historique et je vais faire un petit peu le prof là.

  • JS

    Il faudra que je mette un jingle pour le...

  • David

    Jingle prof, tu vois. Tu vois une barbe, un pésostère avec un tableau noir.

  • JS

    On passera en noir et blanc. L'audio en noir et blanc.

  • David

    Ça va être super visuel pour les auditeurs, c'est parfait.

  • JS

    Exactement.

  • David

    Non mais voilà, l'IA, c'est un terme qui a été... On va dire, la paternité, on la donne communément à Marvin Minsky, qui avait défini l'IA dans les années 50, donc ce n'est pas quelque chose de nouveau, comme... l'implémentation sur ordinateur de tâches qui sont communément admises comme mieux réalisées par les humains que par les machines. Donc c'est une définition extrêmement large qui va comprendre aussi bien jouer aux échecs que marcher peut-être dans la rue, que faire une commande de produits, conduire une voiture, bon voilà, c'était extrêmement large. Et il faut savoir qu'à l'époque, et même toutes les années qui ont eu après, on a essayé de faire déjà de l'IA. Alors... Je ne vais pas refaire tout l'historique depuis, mais quand même, il faut savoir que dans les années 2000, ce qui s'est passé, ce qui a été un ennébleur, désolé pour l'anglicisme, mais un ennébleur pour la suite, ça a été la convergence entre des moyens computationnels supérieurs, donc on a eu de la puissance de calcul qu'on n'avait pas avant, des moyens de stockage aussi, on a pu avoir des stockages distribués et donc du volume à un volume très très important de données qu'on n'avait pas avant. Et donc, si on avait ces moyens de stockage, ces moyens de computation et de la donnée aussi...

  • JS

    Tout ce qu'Internet produit.

  • David

    Tout ce qu'Internet produit et qu'avant, on n'avait pas. Donc, on s'est retrouvé dans les années 2000 avec, d'un coup, une masse incroyable de données, des moyens pour faire des tas de calculs et des moyens pour stocker plein de choses un peu partout. Et à la convergence de ces trois-là, en fait, tout ce qui était fait déjà avant, on a pu le faire, mais à l'échelle. Et c'est là. qu'on a pu observer des effets supplémentaires très intéressants. Par exemple, les réseaux de neurones, je pense qu'on va en parler un petit peu parce que Chagipiti, je vais y arriver, mais Chagipiti c'est basé quand même sur des réseaux de neurones profonds, et les réseaux de neurones profonds, avant d'être des réseaux de neurones profonds, c'était des réseaux de neurones tout court.

  • JS

    Si on réexplique ce que sont les réseaux de neurones pour vulgariser un petit peu...

  • David

    Et les réseaux de neurones artificiels, alors on oublie toujours le artificiel, parce qu'on ne parle pas de... neurones biologiques. On fait un petit peu le raccourci là, mais les réseaux de neurones artificiels, on prend l'unité de base d'un neurone, c'est juste une petite unité de calcul qui est une grosse, grosse, grosse approximation d'un neurone biologique, qui n'a en fait pas grand-chose à voir, sauf l'idée que quand on va en mettre plein en parallèle et on va faire transiter des signaux entre eux, comme les signaux synaptiques entre les neurones biologiques, eh bien, il va y avoir quelque chose va se passer quand on passe à l'échelle et... ces réseaux de neurones artificiels vont être capables d'encoder de la connaissance dans leur connexion. Et en gros, c'est ce qui se passe, c'est ce qu'on voit.

  • JS

    Ok, c'est là où il y a un sujet pour le commun des mortels, où on a l'impression qu'il y a quelque chose de magique autour de ça. On entend parler du fait que même ceux qui créent des IA ne savent pas exactement ce qui se passe, et donc c'est très galvanisé, on galvanise les choses autour de ça. En réalité, on ne sait pas exactement ce qui se passe, mais ça ne veut pas dire qu'on ne le maîtrise pas.

  • David

    Non, c'est ça. En fait, il y a beaucoup d'idées reçues sur le fait qu'on ne contrôle pas, on ne connaît pas. Et donc, un jour, la machine va prendre le contrôle. Il faut savoir que derrière ces mécanismes qui permettent à ces réseaux de neurones artificiels d'apprendre, et encore apprendre, c'est aussi un raccourci, il y a beaucoup de mathématiques. Il y a un algorithme qui s'appelle la backpropagation. C'est ce qui permet aux réseaux de neurones d'apprendre, d'enregistrer de la donnée, de la connaissance. Bon, c'est des maths. C'est une formule avec des dérivés partiels. Puis, on l'implimente sur des machines et on fait des calculs. Donc, ça reste du calcul. D'ailleurs, le machine learning, au début, s'appelait du statistical learning. Donc, c'est de l'apprentissage statistique. C'était une méthode de faire parcourir des données à un algorithme statistique et d'avoir en résultat quelque chose qu'on appelle un modèle qu'on peut réutiliser ensuite. Mais donc, ce n'est pas du tout de la magie. Mais je voulais revenir à ce que tu disais tout à l'heure quand tu parlais de... de cette période, année 2000, où d'un coup, il y a eu une explosion. Il faut voir qu'en fait, pour ce que je suis parti sur les réseaux de neurones, c'est que les réseaux de neurones, ça existait aussi depuis les années 60. On avait conçu le perceptron multicouche, du moins dans la théorie. Donc, toutes les briques de base étaient déjà là. La bague propagation, qui est l'inébleur justement pour ces réseaux de neurones, était déjà là. Ce qui nous manquait, c'était les données, la puissance de calcul, le stockage. Et donc, avoir des milliards et des milliards de ces neurones qui vont pouvoir faire des tas de choses. Donc... c'est là qu'il s'est passé quelque chose mais il y a aussi eu quand tu as dit il y a eu une espèce de première explosion dans les années 2010 2015 avec Alphago et puis pareil pour les échecs quand tu dis que c'est vite retombé Ce n'est pas tout à fait vrai parce que ces algos-là, qui sont à base d'apprentissage par renforcement, qui est une des méthodes d'apprentissage, pas forcément des réseaux neuronaux, en fait, on n'en a plus parlé. Pourquoi ? Parce que c'était plié. Parce que le problème de faire jouer au go une machine et battre les meilleurs champions humains, ça a été fait. Et donc, on sait très bien que quelque chose est fait. On n'en parle plus, on passe à autre chose. Mais ça ne veut pas dire que ça n'a pas été, à l'époque, déjà un choc.

  • JS

    Alors, qu'est-ce qui fait que, fin 2022, on a d'un seul coup OpenAI qui ouvre ChatGPT et que d'un seul coup, tout le monde commence à se ruer dessus, voir ChatGPT ? Alors, il y a l'ouverture au grand public, évidemment. Mais est-ce qu'il y a eu des changements aussi dans la façon dont on a programmé ? ces IA sur les algos de machine learning qu'est-ce qui fait que d'un seul coup il y a eu une bascule à ce moment-là alors que ce que tu dis les algorithmes existaient, c'était plié alors évidemment il y avait déjà des produits qu'il a intégrés moi sur tous les projets en e-commerce sur lesquels je bosse évidemment derrière il y a énormément de services qui utilisaient déjà des algorithmes basés sur du machine learning ne serait-ce que pour de la recoproduit on voit toutes les choses qui font du retargeting sur internet utiliser ce type d'algorithme mais qu'est-ce qui fait que d'un coup il y a quand même eu une bascule avec OpenAI fin 2022 ? Il y a eu,

  • David

    je dirais, deux déclencheurs dont le premier en fait tu as déjà parlé, c'est l'usage donc OpenAI a eu l'intelligence de concevoir un produit et pas une technologie et ChatGPT c'est un produit qui est extrêmement bien conçu d'un point de vue expérience utilisateur ce qui fait que monsieur, madame, tout le monde peut l'utiliser et comprend ce qui se passe je rentre des phrases, des mots et j'ai en retour des phrases, des mots donc ça me parle alors que Si on reprend l'exemple du jeu de Go ou des échecs, à part les passionnés du domaine, ce n'est pas très grand public. Donc la première chose, c'est ça. Et la deuxième, c'est d'un point de vue techno, il fallait des briques de base qui ont permis à ces algos de fonctionner et d'avoir des résultats quand même pas dégueux. Aujourd'hui, on utilise le chat GPT ou de manière générale des chatbots à base de LLM. Donc on va en parler. on a quand même quelque chose qui est de l'ordre du oui, du point de vue du diateur, je comprends ce qui se passe Et pour arriver à ce niveau-là de qualité de résultat, même si on va avoir les limites, on va en parler aussi, il a fallu que ces fameux modèles de langage aient accès, on revient à cette explosion technologique, aient accès à déjà des masses de données énormes, avec un volume de textes, on sait que c'est plusieurs milliards. de textes, de pages de textes. Il fallait aussi les bons algos. Il faut oublier que GPT, ça veut dire Generative Pre-trained Transformer. Et Transformer, c'est aussi un film de SF qu'on peut en discuter, ou pas. Mais surtout, les Transformers, c'est une architecture de réseau de neurones, on revient à cela, mais profond. Il y a vraiment énormément de couches qui s'empilent. qui, on s'est aperçu que ça marche extrêmement bien pour traiter des tâches complexes, qu'on ne pouvait pas traiter avant. Et ça, c'est 2017. C'est un papier de Google, donc huit chercheurs de Google, qui ont fait Attention is all you need. Et c'est un peu le fondateur des transformers, qui ont permis les GPT, donc les modèles de langage. Et là, on revient à OpenAI, qui a eu ce génie de dire, bon, les modèles de langage, c'est bien. Donc, pour ton audience, qu'est-ce que c'est un modèle de langage ? C'est un modèle qui va être capable de générer, un modèle génératif, qui va être capable de générer du texte. Donc, c'est un modèle qu'on appelle autoregressif, c'est-à-dire qu'à chaque instant, il génère le mot suivant, je ne vais pas parler de token, mais je ne vais pas rentrer là-dedans, on va imaginer que c'est des mots, il génère le mot suivant à partir de ce qu'il est en train de générer lui-même. Donc, il est sur un mode automatique, sur la base de ce qu'il a déjà généré. C'est très bien, on peut faire des tas de trucs déjà avec, mais ce n'est pas encore un bot, on ne peut pas parler avec lui. Et donc, ils ont rajouté une couche qu'on appelle le Reinforcement Learning, qui est basée sur le Reinforcement Learning Based on Human Feedback, RLHF. Et cette couche-là, c'est la couche géniale qui a permis de contrôler ce que ces LLM génèrent par du feedback humain, c'est-à-dire qu'il y a des humains qui ont revu des tas de conversations de bots, qui les ont labellisés, bien, pas bien, ça c'est pertinent, ça c'est pas pertinent. Et ce qui a permis à ces LLM de se transformer en chatbots. qui pouvait répondre à des questions de manière... Pas mal, quoi. Pas dégueu. Même si, on va le voir, c'est pas encore parfait.

  • JS

    Ok, je pense qu'on a bien compris le contexte. Est-ce que tu as des choses à rajouter ?

  • David

    Pourquoi cette explosion ? On revient à cette explosion de 2022. Pourquoi cette explosion ? Parce que d'un coup, on a ouvert la boîte, on a commencé à regarder tout ce qu'il y avait dedans, très bien, mais du point de vue de monsieur, madame, tout le monde, il y avait d'un coup un outil qui était disponible en ligne, gratuitement, qui permettait d'interagir avec, qui donnait des réponses donc... bien, bien supérieurs à tout ce qu'on avait eu avant. Et ça, le grand public a pu s'en saisir. Et là, on a vu l'explosion des nombres. Donc, c'est depuis novembre 2022, ChatGPT sur le premier qui est sorti, puis après les nouvelles versions qui s'améliorent à chaque fois. Le grand public s'en est emparé.

  • JS

    Alors, moi, je me souviens d'une conversation qu'on a eue quand j'ai mis les mains la première fois dans ChatGPT. Je t'ai envoyé un message en disant, mais c'est complètement dingue ce truc. Et toi ? Tu trouvais ça dingue, mais moins dingue parce que tu connaissais déjà, tu avais déjà touché à ce genre de choses. Et donc, le choc que ça a pu être pour la plupart des gens qui ne sont pas data scientists, finalement, les data scientists, pour vous, c'est... Ouais, OK. En fait, ce qui est intéressant, c'est qu'ils l'ont ouvert au grand public. L'UX du truc est bien fait. Justement, le reinforcement s'est bien fait. Mais pour vous, ça n'avait pas l'effet d'une bombe.

  • David

    Non, parce que d'un point de vue technique, tu sais, quand on sait comment quelque chose marche, On est forcément moins impressionné, c'est comme quand tu vas à un spectacle de magie, que toi-même tu es un petit peu magicien à tes heures perdues. Bon, tu bois quelque chose, c'est impressionnant apparemment, mais tu connais les dessous, tu connais les astuces et tu dis Ok, ce tour il est pas mal, mais c'est pas non plus de la vraie magie, j'ai pas encore vu de cette vraie magie-là. Donc pour moi, et comme pour beaucoup de gens qui connaissent toutes les briques technologiques qui soutiennent ces modèles-là, C'est très bien. Encore une fois, je ne veux pas gâcher dessus, parce que c'est toujours facile, après coup, de dire oui, c'est pas mal. Quand même, ils l'ont fait. Alors qu'avant, personne n'avait fait avant. Donc, il faut quand même reconnaître l'attitude. Mais je ne suis pas non plus impressionné. Je ne sais pas si c'est le moment où je dis pourquoi je ne suis pas impressionné, ou on garde pour plus tard.

  • JS

    Si, on peut en parler.

  • David

    Écoute, moi, je pense que ce n'est pas si impressionnant que ça, parce que quand... La machine qu'il y a derrière, qu'est-ce qui passe quand vous allez sur ChatGPT, vous lui posez une question sur n'importe quel sujet, et vous allez avoir une réponse. Donc, comme je disais, c'est basé sur des modèles de langage dont la seule fonction est de générer mot après mot, basé sur des probabilités, des phrases, qui font sens dans le contexte où elles se trouvent. Donc, en fait, faire sens, c'est, encore une fois, on va dire, ah oui, mais le sens, c'est humain, etc. Non, c'est juste un critère de vraisemblabilité par rapport aux données sur lesquelles ils ont été entraînés. Donc, tout ce que ces modèles essaient de faire, c'est de générer des phrases qui sont vraisemblables par rapport à ce sur quoi ils ont été entraînés, mais ils n'ont aucune idée de ce que c'est la vraisemblabilité.

  • JS

    C'est de la probabilité.

  • David

    C'est de la probabilité, mais de la probabilité très bien faite, qui fait que ça donne une illusion de texte qui est quand même vachement bien, qu'un humain aurait pu produire. Mais en fait, derrière, il n'y a que ces mots qui sont générés l'un après l'autre. Mais vraiment... l'un après l'autre. Alors que nous, pourquoi je suis pas impressionné ? Parce qu'il n'y a pas de pensée derrière, il n'y a pas d'intelligence derrière, il n'y a pas de construction derrière. Nous, humains, quand par exemple tu me poses une question, je ne génère pas un mot après l'autre en jetant une pièce. Je construis une pensée, et après cette pensée est articulée grâce à cet intermédiaire qui est pas mal, qui est le langage, jusqu'à mieux. Peut-être qu'avec Neuralink, on fera autre chose. Mais voilà, on a ça. Et c'est comme ça qu'on fonctionne. Et ça n'a rien à voir avec ce que font ces chatbots, tout aussi impressionnants qu'ils puissent être. Donc, je ne suis pas impressionné, et on le voit bien, et toi aussi, je pense que tu as pu jouer avec tous ces exemples qui montrent les limites, qui ne marchent pas. Tous les jours. Et on voit que le chatbot dit absolument n'importe quoi. Mais pourquoi il dit n'importe quoi ? Je n'aime pas le terme hallucination, je ne sais pas, il hallucine, c'est vraiment... Il dit... Voilà, je n'aime pas utiliser des mots... Voilà, c'est juste qu'en fait, cette machine qui répond n'a aucune idée de ce qu'elle est en train de dire ou de faire.

  • JS

    Elle n'est pas consciente. Elle n'est pas consciente,

  • David

    elle n'a pas d'intelligence.

  • JS

    C'est pour ça que le mot intelligence artificielle est très discuté. Et je me souviens qu'il y a quelques temps, tu m'avais dit, en fait, pour toi, c'est de l'algorithmie, soit de l'algorithmie très poussée, mais ça reste de l'algorithmie. Donc, c'est de la programmation, pas plus.

  • David

    C'est ça. Par exemple, un critère aussi, et là-dessus, tout le monde peut le voir, c'est le critère du bon sens. C'est-à-dire demander à... Je ne sais pas si vous avez fait l'expérience, peut-être qu'ils l'ont réparée, ils ont réussi à l'intercepter dans les dernières versions. Mais je sais que dans les premières versions, j'avais posé la question à Chad Jepiti. Je ne vais pas la faire en détail, mais un truc genre, sachant qu'il faut à une femme humaine neuf mois pour mettre au monde un enfant, combien de temps faut-il à neuf femmes humaines pour donner naissance aussi à un enfant ? Et l'algo, sans problème, va te dire, ce n'est pas un problème, on parallélise. Et donc, ça fait un mois, puisque un mois, on a neuf femmes, neuf mois, boum, c'est fini. Ben voilà, ça te montre bien que l'algo n'a aucune idée de ce qui se passe derrière, n'a aucun bon sens, parce qu'il n'est pas ancré dans la réalité. Peut-être que ce sera une question à laquelle on viendra tout à l'heure.

  • JS

    Pour le futur.

  • David

    On va y revenir. Alors,

  • JS

    on va jouer un jeu et on va essayer de prendre les trois grosses peurs, un top 3 des grosses peurs autour de l'IA que la plupart des gens ont. Et on va essayer de se dire, est-ce qu'elles sont légitimes ? Est-ce qu'on a raison d'avoir peur ? Ou est-ce que finalement, ce n'est pas si dramatique que ça ? Je pense qu'en fait, il y a surtout de la nuance à aller chercher. Numéro 3. L'IA va tuer la créativité donc avec tout ce qu'on voit aujourd'hui de génération d'images de films ou de morceaux de vidéos moi qui fais beaucoup de musique le fait qu'il y ait aujourd'hui des plateformes qui font de la musique complètement, c'est terminé on va plus avoir d'artistes parce que les IA vont tout remplacer alors moi j'ai ma petite idée qui est que ce qu'on va chercher dans l'art c'est plutôt le feeling de l'artiste l'émotion, ce qu'il raconte, son background etc et que ça en fait Une IA ne va pas pouvoir le raconter, même si ce qu'elle produit est parfait techniquement. On a besoin, nous, humains, d'avoir une histoire, mais j'aimerais bien avoir ton feedback.

  • David

    Alors, mon feedback là-dessus, il est très clair, c'est que non, la machine et l'IA, tout aussi puissante qu'elle puisse être aujourd'hui, ne va pas tuer la créativité humaine. Pourquoi ? Eh bien, parce que, encore une fois... On revient à la manière dont ces machines fonctionnent pour générer, par exemple, des images, mais ça s'applique aussi à tous les autres types de médias dont tu as parlé, l'audio, même la 3D, ce que tu veux. Ce sont des algorithmes qui font une espèce de moyenne de toutes les images, de tous les médias sur lesquels ils ont été entraînés et qui vont se servir de ces patterns qui ont été détectés dans les données sur lesquelles ils ont été entraînés pour, encore une fois, générer quelque chose qui est... vraisemblable dans le contexte du prompt qui a été fait. Ça génère des choses fantastiques, très belles, etc. Mais est-ce qu'il y a un processus créatif derrière ? Non. Est-ce qu'il y a une pensée construite derrière ? Non. Est-ce qu'il y a une histoire ? Est-ce qu'il y a une forme d'humanité derrière ? Alors, on pourrait dire que l'humanité était dans le support qui a servi à l'entraînement. Mais de la même manière qu'un artiste aujourd'hui s'inspire des œuvres de ses contemporains et de tous les artistes passés dans son art, l'artiste s'en imprègne et bien sûr qu'il utilise tout ce qui a été fait jusqu'à présent pour produire son propre art. La machine ne fait pas ça. Comme je l'ai expliqué, elle ne fait pas du tout ça. Est-ce qu'il est possible que la machine tue la créativité ? Mais absolument pas. Et d'ailleurs, on le voit souvent quand on demande à des artistes, des professionnels. Ici, il y en a plein à Massif. J'ai la chance d'être entouré par des artistes brillants. Et eux aussi ne sont pas impressionnés dans le sens où ils vont dire Ouais, bon, là, l'image qui m'a sorti, il y a ça et ça et ça qui ne va pas. Ce n'est pas comme ça que je l'aurais fait. Pas de démarche artistique. Donc, c'est bien pour peut-être faire un petit peu d'idéation. Je ne sais pas si c'est très français. C'est bien pour aller chercher des choses, peut-être pour automatiser certaines tâches un petit peu rébarbatives, répétitives, que parfois il faut faire dans l'industrie. Mais alors, est-ce que ça va tuer la créativité ? Je ne crois pas. Le jour où on aura une machine... pensante, etc., qui est sur le même mode de fonctionnement que l'humain, on en reparlera. Mais ce n'est pas aujourd'hui.

  • JS

    J'ai une anecdote à ce sujet aussi sur la façon dont on ressent la créativité. Il y a eu un concours très récemment qui a été fait autour de la génération d'images faites par les IA. C'était la plus belle image générée par IA. Chacun a amené son image générée par IA. Et il y a un gars qui gagne avec une image super belle, etc. Donc on lui remet son prix, au moment où on lui remet son prix, il dit mais en fait c'est une vraie photo que j'ai prise. C'est-à-dire qu'il était photographe et il n'a pas du tout généré l'image avec l'IA, donc on lui a enlevé son prix. Ceci dit, d'un seul coup tout le monde s'est intéressé à son image en se demandant comment il l'avait fait, quelle technique il avait pris, quelle était sa démarche, etc. Alors qu'on ne s'était pas du tout posé cette question sur la génération du prompt autour du NIA. Et on revient sur, en fait ce qui est intéressant dans la création, ce n'est pas seulement le résultat, même si le résultat peut être ultra intéressant, mais on a besoin nous humains, de savoir ce qui s'est passé avant. Alors ça va peut-être tuer les mauvais créatifs ou ceux qui ne font que copier sans avoir réellement une...

  • David

    Alerte provoque ! Oui, oui, oui !

  • JS

    Mais ceux qui sont vraiment artistes et qui ont vraiment une démarche artistique n'ont pas trop de soucis à se faire.

  • David

    C'est comme... Là, je vais citer un grand maître pour moi, et pour nous d'ailleurs, Alexandre Astier, quand on lui avait posé la question sur est-ce que l'IA va tuer la créativité, enfin, va tuer le travail... Il avait dit, s'il le fait, c'est que vous ne faites pas un très bon boulot. C'est aussi un peu provoque. Je sais que ça peut faire peut-être hurler des gens qui vont dire, mais qu'est-ce que c'est, etc. La vérité est qu'effectivement, les IA qui génèrent de l'art, des supports médias comme ça, ne sont pas capables de faire des choses d'une extrême qualité. En tout cas, je sais que ce ne sont pas des choses qui sont prêtes à être utilisées, intégrées directement en prod. Donc, à partir de là, effectivement... Si c'est le cas pour certaines images, certains assets, on va dire que ce ne sont pas des assets de grande qualité. On revient un petit peu sur cette question de qualité. Oui,

  • JS

    mais après, ça va peut-être tuer les banques d'images qu'on utilise aujourd'hui pour mettre dans des présentations, dans des posts sur Internet. Mais de toute façon, ce n'était pas déjà des assets de très grande qualité. Ok, numéro 2. Attention, on attaque le lourd. Je vais perdre mon job et être remplacé par une IA.

  • David

    Un petit peu la même réponse.

  • JS

    Si t'es mauvais, tu vas être remplacé par une IA !

  • David

    Non, c'est pas si t'es mauvais c'est pas une question de bien travailler ou pas la question c'est si tu fais une tâche qui est aisément remplaçable mais pour la totalité du travail ça veut dire que quelqu'un qui est à plein temps sur des tâches qui sont totalement automatisables c'est que effectivement tu fais pas forcément des tâches qui requièrent énormément de cette fameuse créativité et une... spécificité humaine dont on parle. Alors, il y a des jobs comme ça. Qu'ils soient menacés, on peut le comprendre, mais ça, c'est quelque chose qui n'est ni spécifique à notre période, ni spécifique à l'IA. Ça a toujours été le cas. C'est un peu le problème. Mais les temps modernes, souvenez-vous, est-ce qu'il était bon de remplacer cet ouvrier qui faisait le même mouvement 8 heures par jour à la chaîne, sur une chaîne de montage ? Alors, peut-être que oui, peut-être que non. Il a perdu son job. Je ne sais pas. Ça pose d'autres questions qui sont, de toute façon, bon, on peut en parler.

  • JS

    C'est une question sociétale.

  • David

    C'est une question sociétale. Mais si on revient juste là maintenant à la question de l'IA, maintenant de ces outils d'IA dont on parle et de la peur qui est, je pense, qui est légitime. Je peux comprendre cette peur de gens qui disent je vais perdre mon boulot Moi, je pense que... C'est un petit peu la réponse que je donne quand on me demande est-ce que je vais perdre mon job ou pas. Je pense qu'il y aura effectivement deux grandes catégories de salariés ou de candidats à l'embauche bientôt. Il y a ceux qui sauront utiliser ces outils et ceux qui ne sauront pas le faire, soit par principe, soit par manque d'envie ou soit par toutes les raisons imaginables. Mais ce qui est sûr, c'est que le critère de tri se fera là-dessus parce que... Ça se verra vite en termes de productivité, de savoir utiliser les nouvelles technologies et tout. Et là encore, ce n'est pas nouveau. Les gens qui se forment aux nouveaux outils sont des gens qu'on va plus facilement embaucher.

  • JS

    La vraie question, c'est de ça dont je parle souvent, c'est quelle est votre valeur en tant qu'être humain ? Où est votre expertise ? Où est vraiment l'intelligence humaine ? Et à la limite, s'il y a des tâches rébarbatives que vous pouvez faire remplacer par une IA, mais tant mieux, parce que ce n'est pas là où vous avez de la valeur. Sauf qu'effectivement, là, ça pose des questions de qui est où, quel type de travail on va avoir, et des personnes qui ne vont potentiellement pas être sur des métiers où ils vont pouvoir accéder à d'autres choses. Donc, c'est complexe, c'est une question complexe. Toutes les personnes qui se disent j'ai vraiment peur que mon métier soit remplacé c'est faux. C'est-à-dire, mettez les mains dans l'IA, apprennent à l'utiliser, et potentiellement, ça va devenir plus un allié qu'une contrainte.

  • David

    Je reviens à ce bon sens, où être capable de voir ses résultats, de savoir comment faire marcher ses IA, etc. Donc, il y a toujours besoin d'humains dans la boucle. Et tant mieux, c'est une bonne nouvelle.

  • JS

    Ok, top 1, attention.

  • David

    Je suis prêt.

  • JS

    Là, je crois que je vais mettre une musique profonde. Les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète.

  • David

    Est-ce que tu peux mettre une musique du style Qui veut gagner des millions ? avant ça ? C'est un peu le suspense. Tu fais une pause.

  • JS

    Il faut que ça commence In the world Donc, les IA vont devenir plus intelligentes que l'humain et vont prendre le contrôle de la planète. Donc, on parle des AGI, des super intelligences. La singularité. Sam Altman, qui n'arrête pas de nous annoncer justement les GA pour demain chez OpenAI. Là où on va avoir un Yann Le Cun, pour rappel, Sam Altman, c'est le patron d'OpenAI et Yann Le Cun, c'est le head of

  • David

    AI de Meta.

  • JS

    Qui, au contraire, lui dit, de toute façon, ce n'est pas les LLM. Les LLM, Large Engrange Model, c'est ce qui est utilisé aujourd'hui pour faire tourner la Gen AI, donc l'IA générative. Yann Lequin lui dit que ce n'est pas ces technos-là qui amèneront l'AGI et on en est encore très loin. Donc, il y a des annonces très marketées là-dessus. Quelle est ta vision d'expert sur le sujet, avec toutes les années que tu as derrière de travail sur le sujet de l'IA, sur cette arrivée de l'AGI ? En gardant à l'esprit, est-ce que tu as vraiment toutes les infos et tu es capable de répondre correctement à cette question ?

  • David

    Je ne suis pas dans la tête de Sam Altman ni de Yann Lequin. En revanche, ce que je peux te dire, c'est que... Alors, tu m'as dit, la superintelligence va émerger, etc. Une machine plus intelligente que l'homme. Je renvoie une question, et c'est une question que je pose à tous nos auditeurs. Qu'est-ce que l'intelligence ? Comment on définit l'intelligence ? À partir de quel moment on va pouvoir être sûr qu'on a quelque chose, une entité en face de nous qui est plus... intelligente que nous. Qu'est-ce que ça veut dire ? C'est-à-dire être capable de résoudre un problème de maths ? Ça veut dire être capable de répondre à une question sur comment cuisiner tel plat ? Alors,

  • JS

    je mets une définition. Capable de s'adapter. Une seule IA. Un modèle capable de s'adapter à n'importe quelle situation. Donc, de comprendre un contexte qui soit potentiellement un contexte logique, mais aussi de comprendre un contexte physique, quel que soit ce contexte, et de prendre des décisions qui sont qui donne de meilleurs résultats qu'un être humain.

  • David

    Mais même les humains ne sont pas capables de faire ça. Donc, en fait... Oui, justement. Pourquoi j'allais dans cette question un peu provoque, c'est que les chercheurs se battent depuis des dizaines d'années pour essayer de définir l'intelligence. Donc, on va avoir du mal, là, dans ce podcast, à définir cette intelligence et donc cette superintelligence.

  • JS

    On a dix minutes, on est bon.

  • David

    Heuuu, Douze ? Au-delà de ça déjà il faudrait définir à partir de tu m'as donné quelque chose sur lequel on peut partir je pense que tous on a une idée un peu générale de ce que c'est ce super être qui serait plus intelligent que nous et ça va au-delà de l'adaptabilité c'est l'autonomie c'est la question de la question C'est très large. J'ai beaucoup de difficultés à résumer.

  • JS

    Je pense que ce dont les gens ont peur, c'est d'avoir une machine, et sans parler forcément d'intelligence ou d'adaptabilité, mais une machine qui, à un moment, sorte du contrôle de l'être humain et soit en capacité, par exemple, de prendre le contrôle d'infrastructures, de centrales nucléaires, de choses comme ça. C'est ça dont ils ont peur. C'est une machine qui potentiellement s'autoréplique et soit en capacité de prendre le contrôle d'infrastructures sensibles.

  • David

    Je pense qu'il y a énormément de fantasmes. là-dedans. On a été bercé par Terminator et d'autres films de SF. On est dans le domaine du fantasme. Je vais dire ça, pourquoi ? Parce que l'IA aujourd'hui, avec tous les guillemets, tu sais que je ne suis pas un grand fan de ce terme-là, même si on est obligé de l'utiliser, parce que c'est le terme que tout le monde comprend, mais l'IA aujourd'hui n'est ni intelligente, elle est artificielle, mais ce n'est pas de l'intelligence, ce sont des outils. Donc... qui permettent de résoudre un problème donné, donc très très étroit. Et ces problèmes-là, pour pouvoir les résoudre, nous, humains, donnons l'objectif à la machine pour qu'elle atteigne le niveau de performance qu'on estime être bon pour réaliser cette tâche-là. L'intelligence générale dont on parle, c'est l'espèce de chose un peu nébuleuse qui serait capable de tout faire, mais sans avoir de vrai objectif. On est quand même, nous les humains, qui programmons ces choses-là, on est quand même là pour coder. Tu vois, là je reviens vraiment à l'ingénieur, qu'est-ce qu'on va mettre comme fonction objectif à ce truc-là, pour que d'un coup ça sorte des gonds et ça se mette à se multiplier, et à d'un coup prendre...

  • JS

    Ce que tu veux dire, c'est que, autant nous, les êtres humains, en fait on fait une projection de nous en tant qu'êtres humains, qui avons des objectifs, et quand on voit les plus grands tyrans avaient toujours des objectifs de pouvoir, de etc. Ce que tu es en train de dire, c'est que la machine, en fait, ses objectifs, c'est l'être humain qui lui donne. Donc si on ne lui en donne pas, ça ne va pas émerger naturellement.

  • David

    En tout cas, pas avec ce qu'on a aujourd'hui. Parce que pour arriver à ce que des objectifs et de la conscience émergent, il faudrait arriver à faire des simulations extrêmement avancées sur support logiciel, encore une fois, mais qui n'auraient pas de but en eux-mêmes. Alors, je vais confier ici quelque chose. Quand j'ai commencé mon doctorat dans les années 2000, et les réseaux de neurones n'étaient pas encore aussi utilisés qu'aujourd'hui, j'avais ce fantasme de dire, je vais lancer une simu sur ma machine, sur mon labo. Et je vais lancer mon réseau de neurones. C'était génial. Et le lendemain, quand je vais arriver, mon ordi va me parler. Avec cette singularité qui émergerait. de ces simulations de neurones. Première chose, ce n'est pas arrivé. C'est peut-être en train d'arriver chez Sam Altman, il faudra qu'il nous le dise le jour où ça arrive, mais ce n'est pas le cas. Je vais venir un petit peu dans les courants qui se disputent sur ces questions-là, la vision Sam Altman, la vision Yann Le Cun, et moi je pencherai pour la vision de Yann Le Cun parce que je pense aussi que pour toutes les raisons que j'ai expliquées un peu avant, sur comment fonctionnent ces modèles de langage et ces chatbots basés dessus, ce ne sont pas des modèles qui piochent les mots l'un après l'autre qui vont être capables d'arriver à l'intelligence générale. Encore une fois, parce que nous, nous-mêmes, humains, on ne fonctionne pas comme ça. Donc, partant de ce simple principe, si la base technologique, algorithmique, c'est ça, on n'y arrivera pas. On pourra peut-être y arriver en allant vers d'autres choses, en faisant de la... Peut-être la multimodalité, si on commence à mélanger le texte, la voix, si on commence à mélanger plein de choses, on va peut-être aller vers quelque chose qui donne l'illusion.

  • JS

    C'est un peu ce qu'on voit sur les annonces de... Voilà, 4o,

  • David

    par exemple. Toutes les vidéos de 4o sont super impressionnantes. Pour les auditeurs, c'est ChatGPT 4o. C'est la dernière version au moment où on enregistre, qui n'est pas encore accessible au grand public.

  • JS

    Sur la version voix. Elle est accessible en texte, mais pas sur la version voix.

  • David

    C'est extrêmement impressionnant, mais c'est encore une fois une avancée. technologique, mais ce n'est pas une avancée vers l'intelligence générale qu'on nous promet depuis longtemps. Pour autant, est-ce que c'est complètement hors de portée ? Est-ce que ça n'arrivera jamais ? Honnêtement, je ne sais pas. Je pense que si ça arrive, ça ne sera pas sur ces fondations technologiques-là, ça sera sur autre chose. Yann Le Cun en parle très bien, il dit et je le rejoins là-dessus, que pour qu'une intelligence parvienne - sans nous dépasser déjà - parviennent au niveau d'un enfant d'un an, deux ans, trois ans, je ne sais pas. Ce qui fait que la façon dont nous, humains, fonctionnons, nous sommes ancrés dans le monde, dans un monde physique qui est extrêmement dense en informations. Il faut voir qu'à chaque seconde, nos yeux, nos oreilles, donc perçoivent un flot, si on devait en mettre une taille dessus, ce serait des gigas, des gigas de données. Et un enfant est... parfaitement capable de digérer ça, ce flot de données-là, et ça va influencer les neurones de son cerveau, ses zones perceptives, ses zones motrices, etc. Et on sait que les degrés de développement de l'intelligence humaine suivent les degrés de développement moteur. Ça aussi. Donc, tout est lié dans notre cerveau. Et aujourd'hui, en essayant d'en isoler une partie, qui est le langage, on fait fausse route. C'est-à-dire que un modèle de langage, quel qu'il soit, ne pourra pas avoir cet ancrage dans la physique. tant qu'on ne va pas chercher du côté de la physique.

  • JS

    Et quand on voit Tesla avec leurs robots, et toutes les boîtes qui commencent à faire de la robotique, notamment avec des robots humanoïdes, est-ce qu'ils vont dans ce sens-là ? Est-ce que justement un gars comme Elon Musk est en train d'accompris ça et est en train de travailler sur ces sujets, que ce soit chez Tesla ? Je ne sais pas s'il a compris ça,

  • David

    Je ne sais pas s'il a compris ça...

  • JS

    ...mais ces boîtes-là.Est-ce que c'est ça qu'elles sont en train d'essayer de faire ?

  • David

    En tout cas, les robots qui font de la robotique sont obligés de s'ancrer dans la physique. Parce que les robots, pour qu'ils puissent marcher, monter un escalier sans se casser la gueule, arriver à déambuler dans des espaces un petit peu escarpés et difficiles, sont obligés justement d'être dans cette densité d'informations qui est le temps réel sur des capteurs, des actionneurs, etc. Et ce n'est pas du tout la même densité d'informations que les modèles de langage qui sont token par token.

  • JS

    Donc finalement, Terminator avait raison, ce sera des robots.

  • David

    Peut-être qu'on commencera par les robots. Mais en tout cas, avant de l'avoir des robots conscients, on revient encore une fois. Ce n'est pas pour demain. Je voulais un petit peu débanquer cette idée-là. L'intelligence générale, elle ne sera pas là.

  • JS

    On va avoir des stimulateurs. C'est-à-dire qu'il est très probable qu'un GPT-5... Que des modèles comme ça soient extrêmement performants pour simuler la réalité à un point qui rend les choses vraiment bluffantes. Mais par contre, leur attribuer une conscience va être compliqué. Le risque, et c'est d'ailleurs aujourd'hui un travail qui est fait, notamment sur les derniers papiers sortis par Oponay, sur la version audio justement qu'ils ont présenté et qui n'ont pas encore sorti, le risque c'est un problème psychologique de certaines personnes qui pourraient s'attacher. au modèle parce qu'ils vont être tellement bluffés par les choses qu'ils vont prêter vraiment des sentiments humains. On a vu peur, le film. C'est un peu le risque sur lequel ils sont en train de... En tout cas, Open AI a publié un papier sur le sujet en disant qu'on s'inquiète de ce sujet-là et donc on est en train de travailler là-dessus.

  • David

    C'est un peu pour faire du buzz.

  • JS

    Comme beaucoup de choses sur les annonces d'Open AI.

  • David

    C'est très très buzz. Et je trouve que c'est malin de dire, écoutez, on est en train de faire un truc, c'est tellement bon que nous-mêmes, on en a peur. T'imagines comme c'est bon. Le marketeux que tu es, là, tu dois... C'est génial ! Mais là aussi, on n'a pas attendu ces modèles-là et donc leur version vocale pour grossir les risques d'une technologie donnée et que les gens s'énamourachent. d'un agent qui parle, tu peux avoir la même chose avec des choses très différentes il y a très longtemps. Je ne vois pas quelque chose de très nouveau là. Pour revenir à la question de cette conscience-là, on va peut-être avoir des consciences. Pourquoi essayer de donner à ces machines une conscience ? Pourquoi faire ? C'est la question. Par exemple, comme disait un chercheur qui travaillait dans le laboratoire où j'ai fait ma thèse, qui s'appelait Bernard Ami, qui était vraiment très très bon, il m'avait dit un jour, mais il avait écrit dans un article, les avions n'ont pas... n'ont pas d'ailes, et pourtant, ils volent. Donc, si la fonction qu'il doit remplir, l'outil, c'est de voler, on n'a pas besoin de lui faire battre des ailes comme font les oiseaux. De la même manière, a-t-on besoin de donner une conscience à des machines pour remplir des tâches qui nous aident, nous, humains, comme par exemple répondre à des questions sur Ah, comment je fais pour faire ça ? et Ah, aujourd'hui, ces modèles de langage le font très bon, très bien. Ben non, il n'y a pas besoin.

  • JS

    C'est une question philosophique. Pour l'être humain, c'est la tentation d'être Dieu, d'être le créateur.

  • David

    Oui, et là, on est peut-être encore une fois sur le domaine du fantasme et créer la bête Frankenstein ou je ne sais quoi. Mais si on veut créer des outils qui sont efficaces pour nous aider au quotidien, a-t-on besoin de leur donner une conscience ? Moi, je n'ai pas envie qu'on marteau et des états d'âme et me disent, écoute, je ne le sens pas aujourd'hui.

  • JS

    Ce clou, je le trouve plutôt sympa.

  • David

    Pareil, le frigo ou le grille pain.

  • JS

    On revient à ce qu'il y a. On va reprendre, on va remettre les pieds sur terre. Et histoire de se faire une troisième partie et d'être un peu plus pragmatique, parce que ceux qui écoutent ce podcast, c'est potentiellement des chefs d'entreprise, des managers, des gens qui ont entendu parler de la GenAI, qui doivent ou veulent l'intégrer dans l'entreprise, ne savent pas trop par quelle bout le prendre, parce que c'est un gros morceau. On peur que ça ait un impact sur leurs équipes, on peur que ça déstabilise, mais en même temps, ils se disent qu'ils sont obligés d'y passer. Donc, d'après toi, quelle serait la bonne façon d'intégrer ces outils dans une entreprise ? Aujourd'hui, je vois quand même deux aspects. Il y a d'un côté la verticale métier, c'est-à-dire comment j'intègre de la GenAI dans un service marketing, dans un service com, dans un service achat, etc. où on va plutôt former les gens sur des outils existants pour leur apprendre à les utiliser. accélérer certaines choses dans leur travail, faire un plan pour une présentation, résumer des notes, ce qu'on voit apparaître d'ailleurs dans tous les outils type Teams qui permettent de synthétiser des réunions. Et ensuite, on a une version plus transverse qui fait intervenir l'IT et potentiellement des data scientists pour dire comment est-ce qu'on va utiliser, et là, ce n'est pas que de la GenAI, mais de l'IA de façon générale, pour dire, en fait, on a des données au niveau de l'entreprise, donc là, il y a un vrai travail à faire au niveau de la donnée dans l'entreprise pour venir là. l'agréger, la structurer et derrière se dire, cette donnée, comment est-ce qu'on peut arriver à travailler autour de ça pour produire de la valeur ? Ça déjà, c'est ma vision, mais est-ce que toi, d'un point de vue data science, tu as aussi d'autres conseils à donner sur ce sujet ?

  • David

    Je suis un petit peu biaisé sur cette question, étant donné que j'occupe une position de management et mon rôle, justement, à Massive, est justement de travailler sur ces questions-là. Je vais essayer de rester un petit peu agnostique là et de dire, OK, qu'est-ce que... Qu'est-ce que je pourrais dire à un dirigeant, un manager aujourd'hui qui est tenté d'utiliser de la GenAI dans son entreprise ? Donc la première chose que je lui dirais, c'est mais pourquoi faire ? Parce que si la seule raison c'est de se dire oh ça a l'air cool ou tu sais, je ne sais pas comment on pourrait traduire le FOMO, le fear of missing out. Tout le monde en parle, donc il faut que je le fasse aussi parce que sinon je vais passer pour un ringard.

  • JS

    En fait il y en a beaucoup qui n'ont pas pris le pli sur la... Transfo Digital sur la révolution Internet et qui l'ont subi. par la suite, et donc se disent aujourd'hui je ne peux pas être en retard là-dessus parce que je ne peux pas me permettre une deuxième fois d'être en retard. C'est aussi ça.

  • David

    Donc je dirais vraiment, bon, déjà, il ne faut pas faire les choses dans la précipitation et juste pour le principe, dire ah tiens, je veux le faire parce que c'est cool, même si ça donnerait du boulot à mes collègues data scientists par là, qui sortent des écoles et qui seraient ravis de le faire. Ne vous dites pas, je vais embaucher des data scientists d'une bonne équipe, déjà c'est très cher, data scientists, je précise, et puis ensuite on verra. Il faut vraiment partir, il faut essayer d'identifier quels sont les besoins de l'entreprise, qu'est-ce qui pourrait être couvert éventuellement par ces technos. Et là pour ça, il n'y a pas besoin d'avoir une armée de gens, il faut juste prendre les principaux acteurs dans les domaines clés et les mettre autour d'une table et faire réfléchir ensemble. On en a parlé l'autre jour, on disait mais ce n'est pas une approche top bottom qu'il faut prendre en disant voilà à partir de demain, vous utilisez l'outil pour faire ça et de toute façon, je n'ai aucune idée de ce que vous faites, mais vous le faites comme ça. Ça, ça ne marche pas. En revanche, amener les équipes à se saisir de ces outils-là, ça commence déjà par les dédiaboliser, par déhyper, par revenir sur terre, un petit peu ce qu'on essaie de faire là et je trouve que c'est super ce que tu fais. Donc enlever la hype, enlever tous les mots et les idées reçues, les peurs irrationnelles. et s'approprier les outils tels qu'ils sont, avec leurs avantages, leurs inconvénients. Et à partir de là, en travaillant ensemble avec les équipes, ça émerge naturellement. Donc, quand les équipes...

  • JS

    Prototyper...

  • David

    On veut prendre le train, ce train-là, parce qu'on sait qu'il va apporter de la valeur, et on veut le faire ensemble. Et on arrive à la question de la valeur. Là, je pense que tu peux prendre ça là. C'est crucial toujours d'identifier les potentiels gains de valeur.

  • JS

    Valeur n'étant pas forcément financière, ça peut être une valeur en termes de... humain, c'est-à-dire ça donne du sens au travail de certains.

  • David

    Ça peut être la valeur gagnée du temps sur les tâches répétitives.

  • JS

    La résilience de l'entreprise, ça peut être plein de choses. Beaucoup, beaucoup de choses. Donc, mettre les équipes au travail, enfin en tout cas, moi, mon credo, c'est plutôt de dire il faut faire travailler les personnes avec l'IA de manière à ce qu'on ne crée pas une situation encore plus forte vis-à-vis de la technologie qui pourrait être, pour le coup, dangereuse pour l'entreprise.

  • David

    C'est ça.

  • JS

    Ok. Écoute, on a bien parlé. Là, je vois le compteur qui fait 51 minutes. Donc, on a plutôt bien parlé. On va clore cet épisode. Déjà, où est-ce qu'on peut te retrouver ? Est-ce qu'il y a des choses qu'on peut lire ? Sur quel réseau tu es actif ?

  • David

    Moi, je suis relativement peu actif sur les réseaux. Parce qu'en fait, je bosse ! Et là, tous ceux qui sont sur les réseaux disent "Ça va, moi aussi, je bosse!" Désolé, désolé. Non, je suis principalement sur LinkedIn. On peut me retrouver, David Renaudie sur LinkedIn, qui bosse à Massive en Suède. Il n'y en a pas beaucoup. Contactez-moi sur LinkedIn si vous avez des questions. Je serais ravi d'échanger autour de ces sujets qui me passionnent. Pas que les jeux vidéo, l'IA en général, comme on l'a compris. Avant, je tweetais un petit peu, mais depuis que c'est devenu X, je... Oui, bon. Mais voilà, principalement LinkedIn. Ok.

  • JS

    Et le prochain jeu de Massive qui sort dans quelques jours ?

  • David

    Deux semaines. Dans deux semaines. Deux semaines. On sort Star Wars Outlaws. Donc, un jeu en monde ouvert dans l'univers de Star Wars sans sabre laser. Donc, je précise. Sans sabre laser. C'est un pari. Mais on pense que ça va marcher. On y croit. Et c'est cool. On est super. On est à fond là. OK,

  • JS

    bonne chance pour le lancement !

  • David

    Merci JS !

  • JS

    Voilà, c'est la fin de cet épisode. J'espère que vous avez passé un bon moment et que ça vous a donné matière à réflexion. Avant de nous quitter, quelques petites demandes. Tout d'abord, si ce podcast vous plaît, n'hésitez pas à vous abonner. C'est le meilleur moyen de ne manquer aucun épisode. Ça nous aide beaucoup. Ensuite, si vous avez un moment, laissez une note et un commentaire sur votre plateforme d'écoute. C'est pareil, c'est un retour précieux. qui permettent d'améliorer constamment le contenu. Et enfin, venez échanger avec nous sur LinkedIn, partagez vos réflexions, proposez des idées, des sujets d'invités que vous souhaiteriez voir invités sur le podcast. Ça nous aide vraiment à être visibles, à vous apporter du contenu de qualité. Ce podcast est créé et produit par le collectif Tous Transformes qui accompagne les entreprises sur les sujets de la transformation, que ce soit sur le business, marketing ou la tech. Merci infiniment pour votre écoute et votre soutien. On se retrouve très bientôt pour un nouvel épisode. Salut David.

  • David

    Salut JS.

Chapters

  • Introduction au podcast et contexte de l'IA

    00:00

  • David Renaudie présente son parcours

    01:55

  • Histoire et évolution de l'IA

    05:20

  • Les trois grandes peurs liées à l'IA

    21:02

  • Comment intégrer l'IA dans les entreprises

    43:29

Share

Embed

You may also like