- Speaker #0
Bonjour à toutes et à tous et bienvenue dans SAF IA, le podcast qui explore la relation entre l'intelligence artificielle et le droit sous tous les angles, avec clarté et simplicité, mais surtout sans artifice. L'IA est déjà partout, notre quotidien, nos choix, nos métiers et même nos pensées. Mais devons-nous la laisser transformer notre réalité sans nous poser les bonnes questions, sans saisir pleinement ses conséquences sur nos vies ? Je suis Safia Kirbouche. avocate et passionnée par les enjeux du numérique. A chaque épisode, j'ai le plaisir de tendre le micro à un expert d'une discipline différente pour qu'il partage avec nous ses éclairages sur cette révolution technologique. On décrypte ensemble les grands enjeux de l'intelligence artificielle pour comprendre aujourd'hui ce qui dessinera demain. Alors installez-vous confortablement et je vous présente notre invité. Bonjour Alina Krasnobridza. Bonjour. Tu es maître de conférence à l'Université de Paris-Nanterre, CTO dans différentes startups et coautrice de l'ouvrage La Révolution IA, quand l'intelligence artificielle réinvente l'entreprise, en plus de partager ton temps entre la Silicon Valley et la France. Est-ce que j'ai tout dit ?
- Speaker #1
Exactement. C'est bien moi. Bonjour.
- Speaker #0
Bonjour. Alors, si tu es là aujourd'hui, c'est parce qu'on a beaucoup de questions sur l'IA, que tu es donc docteur en mathématiques, c'est bien ça, et tu vas peut-être pouvoir répondre, alors j'ai toujours une question un peu générale au début, sur la question de la souveraineté. Qu'est-ce que l'IA souveraine ?
- Speaker #1
Alors, oui, tu... Tu as tout à fait raison. Je suis un docteur en mathématiques plutôt appliqué. Et c'est d'où mon parcours qui m'a amenée à l'IA, qui je pratique depuis plusieurs années, de façon scientifique et de façon applicative, qui est vraiment aussi si intéressant qu'applicative. Et pour répondre à ta question sur l'IA souveraine, l'IA souveraine, c'est une question très... politique est très large, tout d'abord, parce que aujourd'hui, je pense que l'IA, c'est vrai, il n'existe pas. L'IA, c'est quelque chose qui est très difficile à définir, là on parle plutôt de l'IA génératif, les modèles de type de Tchadjipitik, d'Odintropik, d'Ipsik, etc. Donc ça, c'est les modèles de l'IA génératif qui prend de plus en plus place dans nos vies et qui a beaucoup de gens qui n'ont maintenant l'IA. sachant que l'IA existe, comme on a déjà entendu parler depuis plus de 70 ans. Et l'IA souveraine, donc si on parle à propos de modèle, le concept général, l'IA se comporte de trois parties qu'on ne peut pas séparer. Donc l'IA c'est les données d'entraînement, l'IA c'est les serveurs sur lesquels on héberge les modèles, et l'IA c'est le modèle elle-même, donc ça veut dire que c'est un... Vous pouvez imaginer, c'est un fichier de paramètres numériques qui on garde quelque part. Donc, c'est trois composants qui vont créer un modèle de l'IA. Et si on parle de l'IA Sévrène, je redéfinis que l'IA Sévrène, c'est si les données, l'infrastructure et le modèle, ils vous appartiennent et vous contrôlez ce qu'il y a dedans.
- Speaker #0
Finalement, si on contrôle ce qui entre dedans, comment ça fonctionne et ce qui en sort ?
- Speaker #1
On ne sait pas ce qui en sort parce qu'il reste une boîte noire, bien sûr, mais au moins on sait quelles données sont utilisées pour entraîner les modèles. Donc si on prend l'exemple des grands modèles de langage, qui sont très à la mode actuellement, ces modèles sont entraînés sur les données, large quantité de données. C'est ce qui donne ces modèles, ces capacités génératives, donc générales, plutôt générales, oui, les modèles qui sont capables de générer les textes, faire la samarisation, faire la traduction, etc. Avant, pour chaque tâche comme ça, on a un modèle de l'IA séparé qui était bon dans une seule tâche. Aujourd'hui, cet IA génératif, ils sont bons dans plusieurs tâches, ce qui nous amène dans les notions de AGI, donc on ne va pas se séparer, c'est Artificial General Intelligence, mais on n'est pas sur ces questions maintenant. Donc, ces modèles-là, ils sont entraînés sur les données, large quantité de données. Et ces larges quantités de données, elles sont collectées sur différentes sources, donc les sources Internet, mais aussi les sources privées. Et on ne sait pas trop d'où proviennent ces données. Donc, c'est une grande question. Il y a les données qui ont un IP sur ces données, il y a les données privées. Donc, comme ces modèles appartiennent aux entreprises privées et on a accès à ces modèles juste par le endpoint, par le API, on ne sait pas vraiment ce qu'il y a dedans.
- Speaker #0
Alors, API, API, c'est quoi ?
- Speaker #1
API, c'est juste une interface qui nous permet de communiquer avec un logiciel. C'est comme un connecteur entre front et back-end. C'est une notion technique qu'on utilise dans le développement informatique. Et derrière cette API, il y a le modèle de l'IA qui va interagir via une inférence. Comme on met un prompt, ce prompt rentre dans l'API. Et cette API appelle le modèle qui est situé à back-end quelque part aux États-Unis, qui appartient à OpenAI. et du coup il va nous renvoyer une réponse. Et notre prompt qui était rentré dans cette API, il va appartenir aussi à OpenAI. D'où il y a aussi cette souveraineté, importance de souveraineté de l'infrastructure qu'on utilise pour faire marcher ces liens, ou pour les faire tourner. Donc voilà, le premier point c'est les datas. Les datas elles doivent être souveraines. Il doit être à... accessible à tout le monde si on parle de l'IA souveraine ou du point de vue national on va dire. Donc si on veut créer un l'IA souveraine française, il doit parler la langue française, c'est vrai, et aussi d'autres langues telles que le breton ou d'autres dialectes qui existent aujourd'hui en France, ce qui n'est pas le cas de l'IA générative qui existe aujourd'hui sur le marché. Donc pour ça il faut avoir une base de données française qui représente les valeurs de chaque français, leurs données, leur langage, leur histoire. Après, on peut parler à propos du modèle lui-même qui doit être entraîné. Donc ça, c'est le problème, on va dire, le plus facile d'entraîner un modèle parce qu'il y a beaucoup de gens qui savent bien le faire. Je pense que ce n'est pas ça la question. La question aussi, c'est les data centers. Donc il faut énormément de puissance de calcul pour faire Internet. entraîner ce modèle. Donc, on peut dire que dès maintenant, il faut une quantité colossale d'énergie et les puces qui permettent d'entraîner le modèle de langage, enfin, de grands modèles de langage qu'on parle maintenant. Voilà.
- Speaker #0
Ok, donc il nous faut des données à l'origine qui sont françaises. Là, aujourd'hui, il n'y a aucun LLM qui fonctionne purement sur des données nationales. Elles ont toutes été entraînées sur des données mondiales.
- Speaker #1
Exactement, donc comme on entraîne un LLM global, le plus grand problème c'est d'avoir les quantités de données nécessaires pour entraîner ce modèle. Ils sont très larges parce qu'ils sont entraînés sur le large corpus des données textuelles. Donc on va se limiter juste aux modèles textuels d'un LP, on ne va pas rentrer sur multimodalité. Et pour l'instant, les données qui sont utilisées, c'est les données d'Internet. qui appartient plutôt à la culture de l'Ouest, donc américaine, l'Europe de l'Est, qui est représentée plutôt par les hommes blancs de classes élevées. Et qui sont... Donc il y a les entreprises comme Common Crawls, qui collectent toutes les données disponibles sur Internet depuis 2007. Donc ça fait une quantité de données massive. Plus elle ajoute tous les open sources, toutes les... L'ébranerie est disponible mais c'est plutôt les données anglophones qui représentent la culture saxonne, anglo-saxonne, voilà. Et si on parle à propos de langue française, on ajoute les petites portions des langages du corpus français pour faire un modèle apprendre les logiques de la grammaire et du vocabulaire français pour être suffisant pour répondre à un français mayen, mais bien sûr c'est pas parfait. Et ce modèle qui existe aujourd'hui sur le marché, il pense plutôt comme quelqu'un de la Californie, de la Californie à San Francisco, plutôt que quelqu'un de Paris ou de Bretagne ou d'Aix-en-Provence.
- Speaker #0
Donc, est-ce qu'il est possible, puisque ces LLM ont été testés sur des datas mondiales, est-ce qu'il est possible de les modifier pour qu'elles comprennent la culture ? et les données exclusivement d'un pays.
- Speaker #1
C'est extrêmement compliqué. Je connais une personne qui a pour ambition de faire... en sorte que chaque pays ait son LLM souverain, qui sera bientôt un enjeu. Donc je pense que c'est vraiment une cause très courageuse. Il y a deux choses. D'abord, on peut entraîner les modèles from scratch, à partir de données brutes qu'il y en a. Et deuxième chose, c'est qu'on essaie de fine-tuner les modèles existants en rajoutant plus d'exemples sur les langues d'origine. Et du coup, ce perso, il essaie de le faire pour les langues ukrainiennes. Donc moi, j'ai d'origine ukraine. ukrainienne et comme vous savez il y a un grand conflit entre la Russie et l'Ukraine et on a soumis une désinformation permanente entre par la Russie et langue ukrainienne et russe ils se ressemblent mais c'est pas la même langue et on sait qu'il y a beaucoup d'informations maintenant sur internet elle est créée par les modèles de l'LM donc en ukrainien pour désinformer les populations ukrainiennes mais le langage n'est pas parfait, donc le langage ukrainien n'est pas parfait même s'il a ajouté les quantités d'exemples suffisantes pour pouvoir parler. Donc c'est ce qui va passer avec n'importe quelle langue. Donc peut-être en français il y a un peu plus d'exemples textuels qu'en ukrainien, mais c'est ce qui se va passer. Et on voit déjà, on peut voir ça sur l'exemple par exemple, qui a inventé l'avion ? Si on va demander à Charles Gépetti qui a inventé l'avion, qu'est-ce qu'il va nous dire ? Il va nous dire que c'est les frères Wright. Et après, si on va demander à Jimena, il va nous dire que c'est les Freeride, mais il y a aussi les Clemander qui a volé il y a quelques années plus tard, mais il n'est pas considéré comme quelqu'un qui a inventé l'avion. Pourquoi ? Parce que ce ne sont pas les Américains qui l'ont inventé. Ce sont les Américains qui l'ont inventé, selon les Américains, mais pas selon les Français. Mais chaque Français, il va dire qu'il a inventé l'avion, ce sera Clemander. Donc cette biaise historique, elle est toujours présente. Et c'est vraiment important dans nos métiers parce que dès que ça va... toucher les moments historiques ou les droits, donc qui tu connais mieux que moi, on va voir vraiment les problèmes sur les LLM existants qui ne vont pas pouvoir répondre de façon correcte. Donc non, on ne peut pas juste ajuster les modèles existants, il faut réentraîner les modèles souverains françaises qui vont avoir tous les corpus de connaissances des Français qui vont représenter les valeurs françaises, les droits français. et tout ce qui est associé avec le pays. La culture, l'histoire, les connaissances, les personnalités. Parce qu'il y a beaucoup de points tachis entre l'histoire, entre les États-Unis, la France et tous les autres pays. Donc, je pense que c'est un grand sujet.
- Speaker #0
Finalement, là, c'est vraiment important. C'est qui tient la plume de l'histoire. Parce que si le LLM est entraîné par des Américains qui voudront faire passer les Américains pour les bons de chaque histoire, dans quelques années, on le pensera tous, puisque ce sera les seules réponses que donneront les LLM.
- Speaker #1
Exactement, et on voit déjà qu'on va avoir l'université de pensée, donc les réponses qui sont produites par les chars de petit ou par d'autres modèles de LLM. ils sont à peu près normés. Donc, s'il y a beaucoup, enfin, plus en plus de gens qui vont interagir avec ces modèles, plus ils vont apprendre les enfants et les adolescents qui ne sont pas encore, qui ne connaissent pas avec quels outils ils interagissent, ils peuvent complètement perdre le sens de leur interaction. Donc, du coup, comment un humain est capable de distinguer les vérités, qu'est-ce qui est vrai, qu'est-ce qu'il faut. Donc, on est en train de normaliser les connaissances universelles et on est en train de tendre vers les connaissances. et les vérités qui proviennent de la côte ouest des États-Unis.
- Speaker #0
Donc on aura tous une fausse vérité qui sera celle de la côte ouest des États-Unis.
- Speaker #1
Elle ne sera peut-être pas fausse, mais si on veut préserver l'identité des Français, le langage, la culture, l'identité numérique, c'est très important de s'engager dans la souveraineté et de construire. Donc aujourd'hui, est-ce que tu connais quelles quantités ? de sa vraie unité, donc si on peut le quantifier, appartient à la France. Donc, c'est quoi le pourcentage de sa vraie unité française numérique ?
- Speaker #0
Alors, je n'ai déjà pas l'habitude qu'on me pose les questions dans ce podcast, mais je vais dire par exemple 15%.
- Speaker #1
Moins de 1%.
- Speaker #0
Ah, ok.
- Speaker #1
Donc, on est vraiment... Il y a un grand problème national. pas que la française mais européenne, on est tous dépendants du cloud américain, des produits qui proviennent de Californie donc toutes les stacks de tech proviennent de Californie et toutes les données qui sont hébergées sur le cloud américaine, il appartient aux Américains. Voilà, donc c'est une question cruciale et il faut prendre en sérieux ce problème si on veut garder notre souveraineté digitale au futur.
- Speaker #0
Est-ce que techniquement, c'est encore possible ?
- Speaker #1
Je pense que oui. Une des solutions c'est Open Source. Qu'est-ce que ça veut dire Open Source ? C'est la science ouverte, la présence d'Open existe depuis plusieurs années, donc Open Software. Là on parle à propos de modèles d'open source. Il y a les modèles open source, ça veut dire que les modèles sont disponibles avec ces poids, donc ces paramètres qui sont entraînés, donc le modèle elle-même, les données sur lesquelles il est entraîné et toutes les caractéristiques qui vont avec, donc toute la descriptif du modèle. Donc c'est open, on l'entraîne, on le pose à disposition de tout le monde. Ce qui s'est passé avant dans la science, avant que Chagipiti arrive, et d'ailleurs Chagipiti appartient à OpenAI, qui veut dire open parce qu'il a travaillé sur le bien commun, sur open source, et le modèle était open jusqu'à ChargeGPT 3. Voilà. Et puis, pour des raisons économiques, X, Y, Z, ils ont beaucoup de problèmes eux-mêmes, je ne suis pas là pour les juger, ils ont fermé leur modèle, donc là on a accès juste à cette API qui nous permet de communiquer avec ChargeGPT, mais il existe toujours les modèles open source ou open rate. Donc il y a une autre... notion qui existe aujourd'hui, c'est le modèle Open Weight. Le modèle Open Weight, c'est quand on a accès au poids du modèle. Donc c'est ce modèle lui-même. Qu'est-ce que ça veut dire ? On n'a pas accès aux données, on n'a pas accès à l'infrastructure à laquelle il était entraîné. Par contre, on a accès au fichier qui contient les paramètres. C'est comme le cerveau du modèle. Et l'avantage, c'est qu'on peut prendre ce fichier, on peut l'héberger sur le serveur local, française par exemple et construire notre propre chat gpt et communiquer avec cette modèle d'opens wait est aussi un peu les faire le fight unique donc fight unique c'est un changement légère de paramètres qui nous permet de changer le langage les changer le ton ou changer le ajouter les connaissances par exemple si on veut passer de langage général à langage plus plus technique médical on peut appliquer la technique de fine tuning. Donc c'est assez cher, il faut avoir beaucoup de données pour le faire, pour que le modèle réapprend. Mais fine tuning, il va tuner un peu ses paramètres, donc il va changer, pas complètement, mais un tout petit peu pour s'adapter à ce nouvel langage. Et du coup, il va nous répondre avec le langage un peu plus technique, c'est ce qu'on a appris.
- Speaker #0
D'accord, donc finalement on pourrait avoir accès à ce modèle donc qui est en open source. On ne voit pas sur quelles données il a été entraîné, mais on peut mettre finalement les paramètres, les filtres, et améliorer pour qu'il s'adapte à la culture dans laquelle on l'intègre ?
- Speaker #1
On peut le mettre dans le serveur local. Par exemple, on ne le met pas dans le serveur aux Etats-Unis, on le met dans le serveur même, on peut le connecter. On peut bricoler un peu chez nous et le mettre chez nous si on a deux. Donc, si on a un gros ordinateur, plusieurs GPU, on peut héberger un grand modèle de langage localement ou sur un serveur français, sur OVH ou d'autres providers de cloud qui nous permettent de mettre en place ces choses. Mistral, c'est le modèle OpenWay. Donc, on peut utiliser Mistral. Donc ça c'est une grande solution pour les grandes entreprises qui n'ont souvent pas le droit d'utiliser les clouds américains. Donc ils ont leur serveur, ils achètent leur GPU, ils hébergent leur modèle et l'utilisent pour les Ausha internes. Sachant que le modèle Open-Rate est rarement aussi bon que ChargeGPT. Mais on peut faire beaucoup de choses, on peut protéger nos données, on peut... protéger les données de nos utilisateurs, de nos clients, et héberger tout localement. Donc l'open source, finalement, c'est une des solutions pour gagner cette souveraineté face aux Américains.
- Speaker #0
Ok. Est-ce qu'il y en a d'autres ? Est-ce qu'il y a d'autres techniques ?
- Speaker #1
Il faut construire notre infrastructure, évidemment, parce que pour faire tourner ce modèle, il faut beaucoup de serveurs, il faut beaucoup d'énergie. Aujourd'hui, c'est pas assez développé en Europe. malheureusement mais il ya beaucoup de choses qui se passaient depuis février dernière donc suite à l'ia sam est en train d'investir les milliers d'euros les billets milliards les milliards d'euros dans l'infrastructure donc ce qui à mon avis que c'est avantageux parce que les seules choses qui va changer dans les modèles de l'IA c'est le compute donc comme je dis il y a trois composants et les données le modèle elle-même donc l'architecture ce réseau de neurones comment on met des réseaux de neurones comment les stacks et quel réseau de neurones on utilise donc là ça s'est figé depuis sept ans déjà donc c'est C'est leur... l'architecture de Transformers. Et après, il y a Compute. Compute, c'est un computational power. C'est la puissance du calcul qui est un peu over. Et ces trois paramètres, ils sont liés. Donc, on peut mettre beaucoup de données, mais si on n'a pas suffisamment de compute, on ne peut pas processer toutes les données. Par contre, les données, elles ne sont plus disponibles. On a déjà utilisé toutes les données disponibles sur Web. pour entraîner notre grand modèle de langage. Donc, il n'y a plus de modèle. Et donc, l'architecture, elle ne change plus. Donc, pour l'instant, ils ont trouvé l'architecture de Transformers qui a été découverte par Google et qui marche très bien sur le processus de texte. Donc, ça, ça reste figé. Par contre, la seule chose qui peut accélérer, c'est la quantité de computational power disponible pour processer toutes les liens. Donc, on peut les entraîner plus vite si on met... plus de GPU, on peut l'entraîner plus vite parce que le temps et les quantités du calcul nécessaires pour procéder à un entraînement, on le connaît, on peut le calculer, on le mesure en flops et du coup c'est une unité du calcul nécessaire. Donc si on met beaucoup de calculs, on peut entraîner les modèles de l'IA plus vite ou s'il y en a beaucoup d'utilisateurs qui veulent chatter avec Nestral et l'héberger localement. Si on a l'infrastructure du calcul, on peut aussi soutenir toutes ces demandes de calcul. Donc finalement, c'est aussi un point de souveraineté pour ne pas faire appel à un cloud américain et garder tous nos données locales. Après, on a déjà les acteurs de cloud, n'est-ce pas ? On a Skyway, OVH, etc. Donc pourquoi on n'utilise pas eux ? Pourquoi on est tous sur Azure, AWS ou
- Speaker #0
Google ? Qui sont des Américains ?
- Speaker #1
qui sont les américains donc ces trois solutions qui hébergent peut-être quatre ou dix, je ne sais pas les chiffres exacts mais presque toutes les applications appartiennent au cloud. Pourquoi les solutions françaises sont si peu utilisées ? C'est parce qu'ils n'offrent pas si grand variété de software parce que dans le cloud, dans les calculs, il y a le cloud et il y a le hardware donc c'est les plus de GPU qu'on peut acheter chez Nvidia qui vaut très cher et qui sont pas disponibles mais qu'on peut quand même acheter. Et la deuxième partie, c'est la partie de software, ce qui permet aux utilisateurs, aux développeurs d'une application, de mettre leurs outils, leur IA ou d'autres logiciels sur cette cloud. Et malheureusement, il n'y a pas assez de choix de software pour supporter les demandes de tous les utilisateurs.
- Speaker #0
Oui,
- Speaker #1
le chemin, il existe.
- Speaker #0
Oui, ça c'est positif. Là, tu nous as fait un peu un état des lieux de l'existant et de la question de la souveraineté actuellement. Donc moi, je garde ce fameux 1% de souveraineté pour la France. Quel est l'avenir prévisible du développement de l'IA ? D'abord d'une manière générale, et ensuite en quoi on peut aller rechercher une souveraineté européenne ou nationale par rapport à ces développements futurs prévisibles ?
- Speaker #1
Bien sûr. Donc là, quand je dis qu'on a épuisé toutes les données, ça veut dire qu'avec l'architecture actuelle, même si on va augmenter le nombre de calculs, si on a plus de données disponibles, on peut plus... Quel est nos modèles ? Je ne sais pas si tu suivis un peu mais il existe les modèles de ChatGPT. Ils sont vraiment horribles avec les noms de leurs modèles parce que bon il y a 4, 4.1, 4.0, 4.mini, turbo, 3.5, O1, O3 etc. Donc je pense pour utilisateurs moyens c'est pas très compréhensible mais chaque modèle et il y a un sens derrière et il y a le nombre de paramètres qui suit, les différentes fonctionnalités, etc. Et donc, Chachapiti, il est sorti en 2022, il a commencé par 3.5, qui était disponible à tout le monde, et 4, il était fermé. Et après, là, il y a un modèle qui est sorti, 4.1. qui étaient entraînés sur une quantité de données encore plus grande. Et pourquoi il y a différentes versions de modèles et pourquoi ils sont plus performants ? Parce qu'on met plus de données dedans. Et qu'est-ce qu'ils ont observé ? C'était une observation empirique. C'est le scale law, c'est-à-dire que si on met plus de données, pour la même architecture, notre modèle devient plus capable dans les capacités de langage, etc. Sauf que là, on n'a plus de données. Donc, il n'existe plus. Donc, quel est l'avenir de l'IA si on n'a plus de données ? L'architecture, elle reste pareille pour l'instant. Il n'y a pas de nouveautés d'architecture.
- Speaker #0
Alors, juste pour le redire autrement, toutes les données contenues par la création humaine disponibles sur Internet depuis sa création ont déjà été utilisées par... ChatGTP, par exemple, pour être entraîné. Donc là, il y a... Exact. Ok, voilà.
- Speaker #1
Pas que Internet, mais aussi tous les livres, toutes les données et un libre accès.
- Speaker #0
ou pas, on ne va pas rentrer dans les détails parce qu'on ne connaît pas, mais il n'y a plus de données, on va dire. En gros, il n'y a plus de données disponibles et l'humain, il ne crée pas autant de données nécessaires pour entraîner les modèles encore plus importants. Donc on ne crée pas autant. On essayait d'utiliser les données produites par l'IA, ce qui n'est pas tout à fait idiot, on va dire, mais ça ne marche pas tout à fait bien pour les langages, mais ça marche bien pour d'autres verticales. Donc le développement de l'IA, la prochaine étape, ce sera d'un côté on va faire la verticalisation. Donc là on a un modèle type JGPT 4, O, type clote anthropique sonnette 3.7, 4, etc. Donc il y a ces modèles qui existent, de langage général, qui marchent bien. Maintenant on va passer à vertical et vertical de quoi ? Le premier vertical le plus touché c'est le vertical de création du code. Parce que le code, c'est le langage, le code, c'est comment on parle avec l'ordinateur. Et là, si tu vis un peu ce qui se passe sur le marché depuis un an peut-être, c'est juste quelque chose d'incroyable. On peut créer, et il existe maintenant les applications no code, ça veut dire que les personnes non techniques comme toi, elles peuvent créer leurs propres applications. On peut passer de lignes de zéro code à une MVP, donc Minimal Viable Product, avec un démon qui marche dans moins de 15 minutes. avec un agent IA qui va nous faire quelque chose. C'est quelque chose d'incroyable. Et j'ai testé ça chaque jour. Et les modèles que j'ai utilisées il y a deux mois ne sont pas tout à fait les mêmes que je les utilise maintenant. Bien sûr, il y a les bacs, bien sûr, ils ne sont pas parfaits. Bien sûr, les outils non-code, ils sont perfectibles et ils ne marchent souvent pas. Mais il y a deux ans, ça n'existait pas. Donc, il y a quatre ans, j'ai tapé chaque ligne de code moi-même et ça prenait beaucoup de temps. Là, on peut accélérer vachement notre développement de code et le software devient démocratisé.
- Speaker #1
Alors, juste pour que les auditeurs se fassent une idée, avant on pouvait demander, un MVP c'est un prototype, c'est le Minimum Valuable Product, donc c'est un prototype avec des fonctionnalités de base pour tester un produit sur un marché. Donc ce prototype, il fallait entre aller... on va dire 20 000, 40 000, 60 000 euros pour faire un développement des fonctionnalités de base. Aujourd'hui, avec les OpenAI, on peut créer soi-même, sans faire de code, ce minimum valuable product en 15... Alors, si Alina met 15 minutes, c'est parce qu'elle est mathématicienne. Moi, j'avoue que je passe un peu plus que la soirée pour en développer un. Mais effectivement, on n'a pas besoin d'avoir de connaissances en informatique pour développer un prototype.
- Speaker #0
Exactement. Donc on peut développer, il y a OpenAI, il y a HHGPT, mais il y a aussi les solutions verticales qui existent. Donc Cloud, il est très fort, il y a Cloud Code, il est très fort pour écrire le code parce que ce modèle était construit pour écrire le code. Donc maintenant, chaque modèle, il a quand même ses spécificités. Cloud, il parle de façon Cloud et HHGPT, il parle de façon GPT. Et les données qu'il y en met, je sais qu'en tropique, ils ont fait un grand effort. sur le développement, pour développer le modèle qui écrit mieux le code. Mais il y a aussi d'autres outils comme Cursor, ou Vinsurf, ou Lavable, ou Vercel. Donc c'est le nouvel outil qui n'existait pas il y a deux ans. Et ces outils qu'on peut écrire, c'est ce qu'on appelle maintenant « vibe coding » . Donc on parle à une machine et elle crée le code pour nous et nous on a juste de le contrôler et faire le versioning parce que Quand même, il faut admettre que parfois, elle fait n'importe quoi, elle change les choses dans d'autres répertoires qu'il ne fallait pas changer et toucher. Ok.
- Speaker #1
Tu viens de donner des ressources qui sont très précieuses pour les personnes qui ne les connaissaient pas avant. Effectivement, on peut créer un site web avec un simple prompt. On peut créer une application avec un simple prompt. C'est assez exceptionnel. Et donc... c'est... Quel est, en fait, c'est déjà tellement exceptionnel, qu'est-ce qui reste encore à faire ? C'est quoi la suite ?
- Speaker #0
La suite, il y a beaucoup de suites, il y a beaucoup de verticales déjà, donc il y a chaque métier qui a sa verticale. Donc si on dit la suite pour le coding, je pense que ça va juste s'améliorer. Dans un an, je pense, on va... Le backend, il sera complètement automatisé, donc le backend, tout ce qui est calcul derrière. il va juste vouloir faire un joli UI qui va nous distinguer donc là je pense qu'il y a beaucoup de choses qui vont s'inventer et réinventer parce que l'utilisateur il va changer Donc on va changer notre habitude de parler avec un ordinateur, avec notre téléphone. Donc ça, ça n'a pas bougé depuis 20 ans. Quelque chose qui va arriver dans cet espace, je suis sûre. L'autre verticale, pas verticale, mais c'est les agents. Les agents, ils sont partout. On ne parle que des agents en ce moment. Donc les agents, c'est les logiciels qui utilisent l'IA pour prendre la décision en notre place. Les agents, ce n'est pas nouveau, mais maintenant on remplace les moteurs de décision. par une LLM, donc c'est lui qui est... Donc on peut créer un agent pour recherche de commentaires pour toi, pour ton cas précis dans le domaine de droit où tu exerces. Et tu peux imaginer une workflow qui va faire la recherche, qui va sémériser les documents, qui va les mettre dans le format que tu veux, écrire un rapport et envoyer automatiquement à ton collègue par mail. Donc, ce logiciel, on peut le créer avec les agents.
- Speaker #1
Ok, alors comment ça fonctionne là encore ? Parce que par exemple, pour le LLM, tu nous as bien expliqué, on a les données, on a l'architecture et on a la sortie. Je le dis moins bien que toi, évidemment. Et là, pour les agents, comment ça fonctionne ?
- Speaker #0
Pour les agents, c'est quelque chose qui... qui amène beaucoup de débats sur les définitions des agents. Je ne vais pas rentrer dans les définitions concrètes, qu'est-ce que ça veut dire un agent, mais on va dire que c'est un logiciel qui a plus ou moins d'agences, donc la capacité d'accomplir les tâches par elle-même. Donc on peut avoir juste un enchaînement des actions qui sera dirigé par LLM, c'est-à-dire qu'on va créer un workflow. Donc on va faire la recherche et envoyer le mail, envoie-moi le mail. Donc ça c'est un workflow. et c'est LLM qui va l'exécuter. Donc on va créer un logiciel, donc un programme informatique qui va tenir 70 lignes au maximum, qui va exécuter ce workflow qui nous permet de personnaliser notre recherche et l'envoi de mails pour tes besoins. Donc sachant qu'on peut donner les instructions à nos LLM, donc ils vont faire la recherche des nouvelles sur le sujet d'Olia à Gentic dans le domaine de droit. Donc ça on peut préciser juste comme on fait un prompt, on le précise pour un autre agent et il va exécuter ses tâches pour notre précision. Donc ça c'est quelque chose d'assez défini et assez facile à créer. Et après il y a d'autres agents, les agents un peu plus général, qui vont avoir accès à plusieurs outils. Donc on dit souvent l'agent c'est LLM augmenté par les outils. Donc c'est ce qui est search. aux calculatrices, rédaction de code, les logiciels que vous avez créés, tout ce que vous voulez. C'est un élève avec les bras qui va pouvoir exécuter quelque chose, utiliser d'autres logiciels. Et là, l'agent génératif va avoir accès aux plusieurs outils qu'on peut définir. On va lui donner juste un print. créez-moi un site web de développement, de design d'architecte. Et il va faire lui-même, il va faire les descriptions, trouver les images, construire le back-end, front-end, réserver le domaine, mettre tout ça en ligne, sans nous demander aucune décision. Donc ça, c'est le type, c'est le Manus, un des plus connus. Donc c'est un agent chinois qui nous permet de faire ce genre de choses actuellement.
- Speaker #1
Puisqu'on est sur le sujet de la souveraineté, j'ai du mal à comprendre comment on peut préserver la confidentialité de nos données en faisant tourner sur sa machine un agent qui peut faire autant d'actions et avoir accès à autant de données.
- Speaker #0
Alors ça, c'est deux choses pas compatibles. On est d'accord. Non, après, c'est pas vrai parce que le modèle de DeepSeek, il est open-weight. et on a accès à ces paramètres, donc on peut les héberger sur le serveur local comme j'ai expliqué au début, donc chez OVH, et on peut faire appel à cette modèle pour prendre la décision, donc ça on va avoir la solution complètement souveraine, parce qu'il ne va pas communiquer avec les serveurs chinois. Par contre, le manus qui est hébergé en Chine, il y a un petit problème.
- Speaker #1
Un gros problème.
- Speaker #0
Après, c'est à vous de choisir. Est-ce que vous voulez partager vos données avec les Américains, avec les Chinois ? Bon, avec les Chinois, c'est un grand pute ! Vous trouvez les deux ordres dans les bases de données américaines.
- Speaker #1
Ok, c'est pas si long, c'est pas si long. Tu me dis trop de choses, j'ai un milliard de questions. Donc là, la suite, ça va être sur les verticalités, donc l'IA va se spécialiser, entre guillemets, et c'est peut-être pour ça également que dans ton ouvrage, tu évoques l'avenir des différents métiers. Puisqu'avec chaque verticalité, ils vont aller plus loin. Bon, puisque c'est... On parle d'IA et de droit. Quel est l'avenir du droit avec ce développement de l'IA, selon toi ?
- Speaker #0
Je pense que vous allez avoir beaucoup de travail. Je pense qu'il faut réinventer le droit, parce que je vois le développement du droit sur deux directions. La première chose, c'est la productivité. des avocats, des notaires, les gens qui exercent le droit. Parce qu'aujourd'hui, il y a tellement de documentation et les gens passent beaucoup de temps pour faire la recherche. Donc, ce ne sera plus le cas, ce n'est déjà plus le cas aujourd'hui. Donc, on peut automatiser la recherche, on peut trouver les cas qui se ressemblent, on peut trouver l'information qui manque, on peut vérifier pour le IP, est-ce que le preuve existe ou pas. LLM, ils sont parfaits pour ça, donc on peut faire la sémarisation, etc. Sauf, bien sûr, il faut faire attention et vérifier chaque fois les résultats, parce que l'erreur, elle peut coûter très, très, très cher. Donc, on connaît les histoires que le barreau, il était retiré aux États-Unis, etc. Parce qu'il y a à la vente, il y a des cas qui n'existaient pas. Donc, bien sûr, évidemment, il faut que l'humain, il reste dans le boucle, surtout dans l'application. très très très crucial comme les finances, la santé, les droits. Donc si Chachapiti va me recommander une série que je n'aime pas, ce n'est pas très grave, mais si Chachapiti me donne l'information fausse sur la justice, c'est quand même très grave. Donc ça c'est la première chose qui est déjà redémarrée. Donc deuxième chose, c'est quand même, il va y avoir l'impact ce qu'on explique dans notre livre, comme tu l'as mentionné, il va y avoir l'impact sur tous les métiers. Donc, surtout les métiers qui travaillent dans le bureau, donc l'école blanc, évidemment. Donc, il faut être prêt et c'est à nous de repenser nos métiers aussi. C'est à nous de se réinventer. C'est rien de grave, ça nous arrive de temps en temps dans l'histoire de l'humanité qu'il faut repenser nos métiers, il faut changer, adapter. Et si on a les simplifications de gestion de texte, par le VGAL, il va avoir... plus de temps pour se concentrer sur son vrai métier. Qu'est-ce que ça veut dire un vrai avocat ? Qu'est-ce que c'est un bon avocat ? Un bon avocat, c'est quelqu'un qui va prendre le soin de son client, qui va le connaître, qui va connaître son business, sa vie, et qui, si jamais il y a un problème dans le business, qui va le prévenir en avance qu'il ne faut pas faire ça, et pas celui qui va résoudre le problème là où la malle était déjà faite. Pour moi, c'est ça le bon avocat. Je pense qu'il y a beaucoup de choses à faire dans cette direction-là. Et après, la troisième direction, c'est que là, avec l'IA, on va s'amuser. On va avoir tellement de cas d'usage qu'on n'a pas imaginé avant, et les droits actuels ne sont pas du tout prêts. Et il faut repenser toutes les législations. Qui est responsable ? S'il y a un effet mineur, c'est la responsabilité de qui ? Je crois que c'est une question toujours ouverte. Il n'y a pas de définition, on n'est toujours pas d'accord. Donc IP, qui appartient finalement à IP, si...
- Speaker #1
La propriété intellectuelle, oui.
- Speaker #0
La propriété intellectuelle, à qui il appartient, à l'IA ou à la personne qui a donné ces données sans le connaître de toute sa vie, c'est la création comme Ghibli, pour maintenant qu'il y a, elle crée les petits Ghibli partout. Donc c'est quand même une grande question où, je pense, les juristes vont voir le travail sans fin.
- Speaker #1
Voilà. Tout à fait. Et c'est pour ça qu'il est important de comprendre son mode de fonctionnement et d'anticiper ce qui va venir parce que pour mieux défendre les justiciables, il faut savoir quels sont les tenants et les aboutissants de cette technologie.
- Speaker #0
Exactement. Et là, on va avoir les agents qui vont nous représenter en ligne parce que ça, c'est aussi la nouvelle vague qui arrive. Donc là, il y a les entités digitales qui vont circuler. qui va faire la réservation des restaurants, les achats, les choix, les recommandations, etc. qui vont avoir accès à notre carte de crédit et vont accomplir les tâches en ligne. Donc je suis responsable. Je pense que c'est un sujet très intéressant et il y a beaucoup de travail. Je pense que la solution parfaite n'existe pas, mais il va falloir trouver quelque chose à très court terme.
- Speaker #1
Tout à fait. Alors la question du consentement à l'ère de l'IA est primordiale. Consentement dans les actions, volontaires comme involontaires. Si je laisse l'accès à un agent pour commander à ma place, non pas une, mais mille bouteilles de shampoing, c'est sur mon compte en banque que les mille bouteilles sont débitées. Donc est-ce que je suis responsable de ce paiement ou est-ce que c'est l'outil ? qui a été développé, qui est responsable parce qu'il y a une horaire qui a été commise. Il y a beaucoup de choses qui viennent.
- Speaker #0
Exactement.
- Speaker #1
Parfait. Alors, c'est extrêmement riche et j'ai d'autres questions pour toi si tu as encore un peu de temps à m'accorder. Donc là, on a vu pour l'évolution du métier d'avocat, on a vu que les verticalités allaient se développer. Donc... qu'elle serait plus spécialisée et plus efficace. Et j'ai envie de revenir vraiment à cette question de souveraineté. Aujourd'hui, qu'est-ce qu'on peut faire pour garder la maîtrise, pour contribuer à avoir une IA souveraine, pour avoir une IA qui représente nos valeurs démocratiques ? quels sont pour n'importe quelle entreprise ou particulier, les réflexes à avoir ?
- Speaker #0
Je pense qu'ici, on ne va pas parler juste de souveraineté culturelle, mais aussi de souveraineté économique, parce que ce qu'il fait l'IA, il permet d'être plus efficace, plus rapide, donc accélérer les processus, avoir moins de gens engagés dans les processus, prendre les décisions plus rapidement, exécuter plus rapidement. Donc qu'est-ce que ça veut dire qu'on peut redresser l'économie qui est très lourde et on connaît qu'en Europe l'économie industrielle est très développée, elle est assez développée et à mon avis ce qui permet de gagner en souveraineté, surtout en souveraineté économique, c'est redresser l'économie industrielle. Donc ça veut dire qu'on pourrait appliquer l'IA dans le domaine industriel. n'est pas encore faite parce qu'il y a d'aujourd'hui il est très généraliste par contre si les grandes entreprises françaises européennes ils ont trouvé une moyen stratégique pour construire un LLM bien pour leur business ça peut améliorer les performances économiques donc comme j'ai dit un LLM bien pour leur business ici on parle pas que de langage Donc je peux vous donner l'exemple d'un nouvel algorithme de Netflix qui est déjà fonctionnel. Ils ont couplé deux systèmes de recommandations. Donc qu'est-ce qu'il fait Netflix ? Il vous fait une recommandation de contenu en ligne. Vous avez trois canaux d'interaction avec le contenu en ligne. C'est par le bar de recherche, c'est par l'interaction sur le feed et sur l'interaction de Collaborate et Filtering. Donc c'est quand vous avez regardé un... une série, il va vous proposer une série qui sera vraisemblable à celle-ci. Sauf que, elle était assez bien, on connait bien un flic, c'est compliqué à s'arrêter parfois, mais elle n'était pas parfaite. Et là, ce qu'ils ont fait, ils ont entraîné un foundation model. Donc foundation model, c'est ce qui est... enfin, c'est avant LLM. Donc LLM, c'est pour le langage, foundation model, c'est pour représenter n'importe quelle séquence. Donc là, ils ont entraîné sur l'interaction... d'utilisateurs sur le continent en ligne et très étrangement ça marche donc je veux dire que chaque fois que vous avez regardé un séquence des filles fondation monde il va vous présider les prochains films qui vous voulez regarder et ça ce qui est le passé ce qui est déjà en ligne c'est à dire ce qui marche et ce qu'ils ont prouver, donc Netflix c'est une industrie de système de recommandation, c'est une des plus fortes, donc là on ne va pas nier les faits, mais je trouve les choses surprenantes, ce que les gens ne se rendent pas compte, qu'on ne peut mettre pas juste les textes et les lettres, mais n'importe quelle séquence. L'autre exemple c'est Stripe. Stripe, ils ont fait la même chose avec les paiements. Ça veut dire qu'ils ont mis les séquences des paiements, ils ont entraîné leur propre modèle pour prédire les prochains types de paiements. Ce qu'il fait, c'est qu'il prélève... c'est diminuer le nombre de fraudes, etc. Donc ce que les industries françaises et européennes peuvent faire, c'est réfléchir dans ce sens-là et de voir quel type de modèle, foundational model, elles peuvent développer pour le retail, pour la production, pour tous les types d'industries qui existent chez nous. Donc je pense que c'est une question plus grand, stratégique. C'est pas juste comment on implément le chat GPT. Donc ça, ils ont déjà compris comment faire, ils ont déjà toute l'entreprise, grande entreprise, à mes connaissances, les banques, ils ont déjà leur chatbot interne qui les permet de communiquer avec eux. Mais ils n'ont pas encore repensé à ce changement d'entreprise profond. C'est ce qu'on explique dans notre livre, c'est qu'il faut penser à un changement profond parce que l'IA, c'est le grand changement du 21e siècle Et... les acteurs qui existent aujourd'hui, s'ils ne vont pas adapter ces technologies, ils risquent de disparaître. Tout accélère. On accélère dans la création de business, mais on accélère aussi dans la décréation de business. Si on va prendre l'exemple des banques, il y a dix ans, il y a Neobank, Conto qui est apparu, qui a pris le marché des indépendants. Je ne connais aucun indépendant qui n'utilise pas Conto dans sa vie quotidienne, parce que Le workflow Il est hyper simple, il est optimisé, il est rapide, il est simple, etc. Et les grands banques, elles n'arrivent pas à faire ce pas, même s'ils essayent, ils n'arrivent pas. Donc, ça va arriver à d'autres industries. Et sachant qu'aujourd'hui, pour recréer les neobanques en compto, il ne faut pas 10 ans, il faut 1, 2, 3 ans. Et ce sera valable pour toutes les industries. Donc, c'est ça qui est le grand enjeu, qu'il faut prendre en compte que le monde ne sera pas le même qu'hier. Si on va prendre l'exemple de notre livre, on cite... une boîte qui s'appelle PMG. Donc c'est une boîte de création de campagne marketing pour les grands groupes. Leurs clients c'est Netflix, Nike, Apple, etc. Donc c'est les grands groupes, ils sont vissants et ils sont basés à Dallas. Ils ont été en train de chasser en personne, un CTO, la personne extrêmement technique qui a fait développement de back-end depuis 20 ans. et il ne comprenait pas pourquoi une boîte de marketing, de pub, chasse une personne si technique. Et après, il a compris qu'ils ont en train de changer toute leur verticale. La personne technique, elle pèse plus que la personne marketing. Toute leur boîte est la boîte technologique. On n'a pas parlé à propos de création, mais création, c'est aussi un des verticales qui est en train de changer drastiquement. Donc là, ils sont en train de mettre les outils qui permettent de créer les clips vidéo grâce à l'IA. Et avant... il fallait tourner en un clip, prendre un gelinajoli, amener à Maldives ou à Havaï pour faire telle lumière avec telle tenue, c'est coûter des millions de dollars. Aujourd'hui, ce n'est plus le cas. On peut faire les mock-ups, on peut présenter ça à nos clients, voir comment l'Indien va réagir à telle pub, et créer les pubs sans sortir chez nous. Et là aussi, l'évolution de l'IA est extrêmement forte. Aujourd'hui, comme on voit, les avatars qu'on est capable de créer, ils sont... franchement très réaliste. Et cette boîte, elle a bien saisi le problème. S'ils n'adaptent pas leur business model, s'ils ne deviennent pas une boîte profondément technologique, ils vont disparaître. Google, c'est... Enfin, Tesla, par exemple, ce n'est pas une boîte de voiture, c'est une boîte de software.
- Speaker #1
Oui, oui. Tu sais, il y a une info récente qui m'a... qui m'a interpellée, c'est le rachat par OpenAI du designer d'Apple pour 6,5 milliards de dollars. Et ils ont embauché le PDG. Je pense que même le hardware tel qu'on le connaît va être changé pour accueillir cette nouvelle technologie dans les années à venir.
- Speaker #0
Exactement. Je pense qu'aujourd'hui, c'est un moment unique. dans l'histoire peut-être de ma génération pour construire quelque chose donc là ces nouveaux stades qui arrivent tout change hyper vite mais on peut repenser chaque solution on peut repenser comment on écrit les mails comment on interagit avec chacun comment on utilise les réseaux sociaux comment on communique comment on travaille comment on crée tout toute l'industrie doit être repensée et ceux qui vont saisir cette fenêtre et faire quelque chose de façon façon intelligente, éthique bien sûr responsable parce que ça c'est ce qui va rester après nous pour nos enfants donc il faut aussi définir dans quel monde on veut habiter et de façon furegrale parce que l'IA c'est très, on n'a pas à voir d'ici, mais c'est très consommateur dans les ressources naturelles, dans l'eau, l'électricité, donc tout ça il doit être réparé et c'est un moment parfait pour reconstruire le monde en faisant le mieux mais il faut aussi être vigilant pour... pour que les autres personnes puissent les recréer, mais pire.
- Speaker #1
Tout à fait. J'ai même envie de finir sur cette question de ce que tu peux voir dans tes passages. J'aimerais déjà que tu nous expliques un petit peu les différences que tu vois entre l'IA dans la Silicon Valley et en France. De ce que tu peux voir, est-ce qu'on est en train d'exploiter plus l'IA dans... à des fins positives ou à des fins négatives.
- Speaker #0
Alors mon expérience, je peux le décrire difficilement parce qu'en France, on connaît bien l'IA, on parle souvent d'inclusion, de diversité, de biais, de frugalité, des ressources, etc. Il y a beaucoup de boîtes qui forment, donc on voit un bel écosystème, même de la boîte à tech en France, donc il y a de belles solutions. avec l'angle européen responsable et protectoniste aux US c'est pas du tout le cas parce que aux US c'est une industrie c'est pas du tout comme ça que ça fonctionne c'est une industrie de taille de silicon valley plus San Francisco donc là-bas à chaque mètre carré c'est une boîte TEC qui ont leur roadmap, donc eux ils ont dans le développement, dans le cycle contenu de la production. Ils ne se posent pas la même question. Ils produisent quelque chose, ils ont les objectifs et ils doivent exécuter ces objectifs sans souvent passer. Et j'ai parlé avec les créateurs du système de recommandation de Netflix, donc c'est ce qu'ils ont mis en place, cette modèle fondamentale pour entraîner sur les interactions des clients. Et cette fille qui est très gentille, elle adore la France, c'est une Indienne, comme souvent c'est pas les Chinois, c'est pas les Indiens qui développent les solutions. Elle-même, elle s'interroge sur le monde sur lequel elle va habiter. Mais c'est elle qui crée les systèmes. Mais elle ne se rend pas compte du tout. Donc c'est un autre monde, c'est difficile à décrire. Eux, ils ne se posent pas la même question sur le développement. Ils y vont parce que c'est leur vie. C'est comme on est engagé dans un processus, on ne se pose pas beaucoup de questions, même si on devrait. Mais quand ça provient de leur part, et il y a beaucoup de gens brillants, ils ne sont pas méchants. Personne n'est méchant là-bas, personne ne dit « je vais faire un lien pour détruire le monde » . Mais c'est juste que la course est tellement engagée que les produits doivent être livrés, et c'est qui est le plus fort et le plus rapide qui avance sans regarder les cours. sans se poser les questions, qu'en France on a plus cette tendance de se préserver, de voir ce qui se passe, mesurer les risques et agir après. Donc quelle approche est la meilleure ? La question ouverte, parce que est-ce que c'est mieux d'être plus prudent et rater la course, ou est-ce qu'il faut accélérer, se mettre... au développement, au niveau des autres, et après s'inviter à la table de discussion et imposer ses règles. Ça c'est une question qui est très ouverte. Et pour donner l'exemple, quand on a développé une voiture, voiture c'est super dangereux, n'est-ce pas ? Il y a deux roues, les voitures du début c'était n'importe quoi, ça roulait mal, ça tournait mal, etc. Et d'abord on a développé les voitures, des voitures qui marchent, qui roulent droit et qui tournent. Et après on a mis les règles, et on a mis les règles de conduite, les ceintures de sécurité, les... tout ce qu'il faut qui va avec les voitures aujourd'hui. Donc peut-être avec l'IA, c'est la même chose.
- Speaker #1
Donc tu fais partie de ceux qui placent l'innovation avant la régulation ?
- Speaker #0
Je pense que la régulation, elle doit exister, bien sûr. Je pense qu'il faut prendre en compte les risques, il faut les connaître. Mais il ne faut pas s'empêcher de développer à cause de cette réglementation. Aujourd'hui, ce que je vois beaucoup en France, c'est que il y a l'IA acte mais souvent l'IA acte c'est un prétexte l'IA acte il touche pas à l'application mais cette tu vois, ce système cette partie où on est où on attend partout les réglementations, l'IA est dangereux etc. ça nous empêche d'avancer peut-être on peut créer super application, des éducations, il y a des choses importantes, je parle beaucoup dans le livre, je pense que L'éducation des enfants doit être repensée de A à Z. Moi j'ai enseigné à l'université et j'ai vu que le système est cassé. Et aujourd'hui ce que les gens voient dans la vraie vie et ce qu'ils apprennent, ce n'est pas la même chose. On doit connecter ces deux vies. Avec l'IA c'est encore pire, on doit les apprendre de tous les IA. On ne peut pas les empêcher parce que c'est leur vie, c'est leur futur. Ils ont né, ils ont émergé dans le monde de l'IA. Il faut qu'ils apprennent de l'utiliser, il faut repenser tout. Mais je pense qu'à cause de cette nuage de réglementation, de restriction qui est fausse par définition, on empêche les gens de respirer et de créer librement, essayer les choses. Voilà, c'est ça ce que je pense.
- Speaker #1
Donc tu es clairement innovation avant régulation. Je pense aussi que c'est parce que tu dois en voir tellement dans tes passages en Amérique du Nord que... que tu vois en fait cette marche effrénée et tu as l'impression qu'on est au ralenti ou qu'on n'a pas démarré la course en Europe suffisamment tôt.
- Speaker #0
Je ne sais pas si on a démarré la course, mais j'aimerais bien être dans la table de négociation comme il va falloir négocier les droits mondiaux.
- Speaker #1
C'est ça, oui, c'est ça. Oui, en fait, c'est, voilà, il y a une... C'est une question mondiale, aujourd'hui.
- Speaker #0
Si je vous donne ce que les gens... pensent aux Californies à propos de l'Europe et disent que c'est trop compliqué, on n'y va pas. Donc ça veut dire qu'aujourd'hui, on n'a pas accès à toutes les applications qu'ils utilisent, même s'ils n'ont pas d'argent. Mais pour eux, ce n'est pas un problème, souvent, de ne pas aller en Europe. Mais est-ce que pour l'Europe, ce n'est pas un problème que les applications n'arrivent pas jusqu'ici ?
- Speaker #1
Parce que du coup, en fait, on n'apprend pas à les utiliser et lorsque l'on va les avoir, il sera déjà trop tard. Mais alors après, moi, je fais partie de cette catégorie qui trouve quand même essentiel de réguler avant d'innover, même si je suis très, très ouverte à l'innovation, parce qu'en fait, il faut quand même protéger les gens de certaines créations. Là, le président américain a signé un décret contre les « nude revenge » , où il créait des « deepfakes » de personnes, parce qu'en fait, ça détruit des vies aussi. Donc, il faut aussi protéger l'homme de l'homme en parallèle de cette innovation. Et je crois que l'équilibre est peut-être au milieu.
- Speaker #0
Peut-être. Mais ici, pour créer les réglementations, il faut d'abord savoir contre quoi. on protège la population pour l'instant il n'y a pas de base de faits accomplis de qui prouve que la technologie il fait du mal donc on ne sait pas quelle technologie il fait du mal ou du bien donc et pour cela il faut aussi créer un système qui va permettre de mesurer cet impact et pour cela il faut avoir les points de départ donc mesuré je sais pas comment mesurer l'état actuel où on est comment sont nos enfants, comment sont nos humains, nos employés, etc. Donner dans les mains des outils, outils, pardon, je vais dire. Oui, oui, dans tout le monde. Et mesurer dans un temps X l'impact, l'état numéro 2, et voir l'impact et dire, ok, on a dégraissé, on a amélioré, etc. Mais pour cela, il faut créer la base. Et je pense qu'ici... où il faut travailler d'un point de vue de réglementation pour d'abord mesurer contre quoi on peut protéger. Donc je ne suis pas contre la réglementation, mais je pense que je suis contre l'imposition dans la tête des gens que la réglementation détruit l'innovation. Je ne suis pas d'accord. Je pense que l'IA Acte ne détruit pas l'innovation, qu'on peut créer, qu'on peut essayer les choses, et que les Français, les gens français... pas les jeunes, tout le monde qui a envie d'essayer de créer un logiciel, un outil ou résoudre un problème. C'est possible aujourd'hui grâce à l'informatique, grâce aux outils, même si on n'est pas les codeurs, les développeurs, comme on a déjà évoqué, qu'on peut créer un MVP dans n'importe quel contexte pour améliorer notre travail, pour être plus efficace, pour passer plus de temps avec nos patients, avec nos clients, etc. Je pense qu'il faut oser, il ne faut pas juste se concentrer sur le... sur la réglementation. Et il faut créer cette base qui va nous permettre de mesurer l'évolution de progrès créé par cette innovation. Voilà, ça, c'est mon opinion.
- Speaker #1
Merci beaucoup. Alors, ça a été... C'était très clair. Je t'avoue que dans tout ce que tu as pu dire, il y a eu des moments où j'ai eu un peu peur. On a ce sentiment d'angoisse par rapport à l'évolution rapide et quand on en prend conscience. Et puis ensuite, tu m'as redonné un peu d'espoir en m'expliquant tout ce qui était possible de faire. Surtout, je comprends que les choses avancent très vite. Je te propose de refaire un point dans quelques mois et peut-être que la réalité sera tout à fait différente. Et pour voir où en sont les agents, où en sont notre métier et où en est la régulation, qui sait. En tout cas, je te remercie. infiniment pour toute cette information et ton temps. Et j'espère te revoir très rapidement dans ce podcast.
- Speaker #0
Merci beaucoup à toi, Sophia. C'était un plaisir d'échanger. Même si nos opinions ne sont pas tout à fait convergentes, j'espère que ça donne un bon piment en nous. Merci.
- Speaker #1
Et n'oubliez pas de vous abonner.