undefined cover
undefined cover
#4 Innovation & IA: nouveau paradigme? | Thomas Solignac cover
#4 Innovation & IA: nouveau paradigme? | Thomas Solignac cover
Secret Sauce

#4 Innovation & IA: nouveau paradigme? | Thomas Solignac

#4 Innovation & IA: nouveau paradigme? | Thomas Solignac

1h04 |21/03/2025
Play
undefined cover
undefined cover
#4 Innovation & IA: nouveau paradigme? | Thomas Solignac cover
#4 Innovation & IA: nouveau paradigme? | Thomas Solignac cover
Secret Sauce

#4 Innovation & IA: nouveau paradigme? | Thomas Solignac

#4 Innovation & IA: nouveau paradigme? | Thomas Solignac

1h04 |21/03/2025
Play

Description

Thomas Solignac est un entrepreneur français reconnu dans le domaine de l’intelligence artificielle, avec une double expertise en sciences informatiques et en philosophie.

En 2016, il cofonde Golem.ai, une startup pionnière dans l’IA symbolique appliquée à la compréhension du langage naturel. Fort de cette expérience, il lance en 2022 Kayro.ai, une société de conseil spécialisée dans l’identification et l’exécution rapide de projets stratégiques en IA pour les acteurs industriels et institutionnels. Kayro.ai se distingue par une approche pragmatique, orientée résultats, qui fusionne technologie, business et impact opérationnel.

A ce croisement, Thomas intervient dans plus de 70 conférences par an depuis 2018. Il accompagne entreprises et institutions dans leur compréhension et adoption de l’IA, avec des interventions à la fois inspirantes et ancrées dans la réalité du terrain.

En 2024, il publie “L’intelligence artificielle en 50 notions clés pour les Nuls”, un ouvrage de référence pour démystifier l’IA et la rendre accessible au plus grand nombre.

📌 Suivez Thomas sur LinkedIn : https://www.linkedin.com/in/thomas-solignac/

📖 Son livre, “L’intelligence artificielle en 50 notions clés pour les Nuls” : https://www.amazon.fr/Lintelligence-artificielle-notions-cl%C3%A9s-pour/dp/2412094969

🔹 En savoir plus sur Kayro.ai : https://www.kayro.ai


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour Thomas.

  • Speaker #1

    Bonjour Julien.

  • Speaker #0

    Comment est-ce que tu définirais l'innovation en 2025 à l'ère de l'IA ?

  • Speaker #1

    L'innovation c'est un terme aujourd'hui qui a une connotation très particulière. Innover à travers l'histoire ça se fait tout le temps, c'est une nécessité. Aujourd'hui quand on parle d'innovation de plus en plus, on fait référence à de la technologie. Heureusement il n'y a pas que de l'innovation technologique, il y a le fait d'avoir du progrès technologique. On a des choses qu'on ne savait pas faire avant qu'on fait maintenant. Mais en fait, des innovations, il y en a de plein de natures différentes. On parle aussi, par exemple, d'innovation d'usage. C'est-à-dire que ce n'est pas forcément quelque chose de complètement nouveau techniquement, mais la manière dont on s'en sert va être différente. Et ça va débloquer des possibilités, ça va apporter de la valeur. On parle aussi parfois d'innovation dans un modèle économique. Ça veut dire qu'en fait, tout simplement, on va vendre le produit d'une manière différente. Par exemple, on va pouvoir distribuer un produit. mettons gratuitement, mais en ayant une contrepartie nature différente, soit par exemple en captant de la donnée de manière explicite, en faisant de la publicité, etc. Et donc toutes ces mécaniques-là, dans lesquelles on vient réorganiser l'usage, le modèle économique, utiliser de nouvelles technologies, ou faire des choses qui avant n'étaient pas possibles, que ce soit par l'ingénierie, la science ou autre chose, tout ça on l'appelle de l'innovation. Avec cette particularité qui est quoi ? L'innovation, si on le prend dans sa définition la plus pure pour moi, c'est une prise de risque, c'est ça qui est très important, c'est-à-dire que... On va proposer quelque chose qui n'existait pas avant, qui est nouveau, et donc ça va avoir tout ce fardeau qui va avec, qui est considérable, puisqu'on ne va pas pouvoir s'appuyer sur des connaissances établies, sur un sentiment de familiarité. Et c'est un énorme fardeau quand on considère le fait qu'aujourd'hui les gens sont capables d'acheter parce que quelque chose est familier. Et donc l'innovation, certes, ça décrit une manière de se positionner qui est en différence avec l'existant, mais ça décrit aussi... une démarche, un ensemble de contraintes, de savoir-faire parfois, qui vont venir permettre de faire ça et de le rendre effectif, parce que ce n'est pas naturel en fait pour un marché d'innover. C'est même contre nature, c'est souvent par la force des choses que ça se fait. Et donc si on n'avait pas ces espèces de savoir-faire, de mécanique, d'énergie délirante qui vient compenser l'inertie, on n'aurait pas d'innovation ou elle serait très très lente.

  • Speaker #0

    Et l'IA aujourd'hui ? renforce ce besoin d'innover, même si effectivement on est tous un petit peu réfractaires par rapport au changement. Je pense que c'est un biais qu'on a collectivement en tant qu'individu et en tant que société. Aujourd'hui, on ressent une accélération de l'innovation elle-même et du besoin d'innover pour rester, je dirais, pertinent à l'ère de l'IA. Comment est-ce que tu penses que ça impacte nos processus créatifs et aussi peut-être la notion de bien-être ? dans une société, dans une organisation ?

  • Speaker #1

    L'IA, elle appelle plein d'innovations, c'est certain. Elle constitue une innovation en soi, puisque technologiquement, on observe un bond en avant. Il y a des choses qu'on ne savait pas faire avant, qu'on sait faire maintenant. La particularité de l'IA, c'est que ce qu'on pourrait appeler une technologie de fond, d'une certaine manière. Ce n'est pas tant une technologie qui fait quelque chose, c'est vraiment... C'est pour ça qu'on le compare souvent à Internet ou à l'électricité, il y a une espèce de savoir-faire un peu diffus et général. qui a plein de sous-ensembles de techniques d'ailleurs, et qui va permettre énormément de possibilités différentes. Si on prend le parallèle avec Internet, il y a certes l'innovation à un moment donné d'être capable de connecter deux ordinateurs n'importe où dans le monde, pour qu'ils puissent échanger de la donnée, que ces ordinateurs personnels échangent avec des data centers, etc. Tout le principe d'Internet est évidemment révolutionnaire en soi. Mais qu'est-ce qui va le plus marquer le quotidien en termes d'innovation liée à Internet ? C'est tout ce qui va en découler. Les amazones, les... la livraison à domicile, que ce soit de nourriture, de médicaments, de produits. On va avoir tous les services qui se digitalisent, la musique qui change de modèle économique. On a toutes les industries qui se sont réorganisées autour de ça. Et donc, l'innovation Internet n'est pas en soi l'innovation que portent les télécoms. Ce serait même plutôt toutes les innovations qui sont portées grâce à Internet par des entreprises qui vont apporter de la valeur un petit peu spécialisée, voire verticalisée.

  • Speaker #0

    Ok, donc... toujours sur la notion de création de valeur, que ce soit dans le processus créatif, dans l'organisation, je dirais. Comment, toi, tu entrevois le rapport, finalement, IA, homme, femme, on va dire, mais en tout cas le rapport IA humain, justement, dans cette création de valeur, dans le processus créatif ? Aujourd'hui, si on utilise des chatbots, comme ChatGPT, je pense qu'on le fait tous, on a tendance à lui poser des questions, on va prompter de manière plus ou moins savante pour arriver à avoir du contenu. qui nous permet de répondre à une tâche, à un besoin. Mais on est dans du génératif, c'est-à-dire qu'on se base sur des données. Si on va sur la création en elle-même, à quel point demain on pourra avoir, je dirais, un agent IA ou une IA tout court qui agit réellement comme un... Comme un collaborateur, comme un mentor, comme quelqu'un qui fait plus que ressasser finalement des datas qu'on lui a fournies, mais amène la création en elle-même.

  • Speaker #1

    Alors ça pose des questions assez profondes, puisque si je suis un peu provoquant, est-ce qu'un humain fait autre chose que ressasser des données ? Moi je suis partant du fait que oui, mais ça demande à être défendu, validé, prouvé. Et en fait, ce que ça dit en creux, c'est que certainement qu'en fait... Même en ressassant uniquement de la donnée, les machines sont déjà capables d'apporter énormément de valeur. Si on prend le cas de la créativité dans son sens le plus extrême, c'est-à-dire l'art, parce que la créativité est impliquée partout, l'ingénierie par exemple, c'est un domaine créatif par essence, mais l'art, c'est vraiment le truc où on dit « oui, c'est la créativité » . L'acte artistique transcendantal, entre guillemets, n'existe pas avec la machine, il n'a pas de sens. De la même manière que... La machine ne va pas produire une image par rapport à une histoire personnelle ou raconter quelque chose. Effectivement, elle génère une synthèse. En même temps, on sait qu'un humain, quelqu'un qui est en production artistique, lui-même fait appel à des choses qu'il a déjà vues, qu'il va restituer, qu'il va reproduire. Mais c'est là qu'entre guillemets se diffère la question de la production de la question de l'intention du geste. Et en fait, la même question va se poser à plein d'endroits. C'est-à-dire, par exemple, si vous avez la question d'avoir un thérapeute virtuel, ça c'est un... un des sujets de l'IA, qui est très vieux d'ailleurs, puisque Elisa, un des plus vieux chatbots, je crois que c'était années 70, Elisa, c'était un chatbot psychothérapeute, avec lequel il nous renvoyait des questions régulièrement, ce qui était déjà à l'époque très surprenant. Est-ce que ça fait sens quand, par exemple, un thérapeute dit « je vous comprends » ou « je suis désolé pour vous » , est-ce que ça a du sens quand c'est une machine qui génère cette phrase ? Ça pose des questions assez fortes. Donc ça, c'est un vrai enjeu éthique, puisque... Il y a aussi cette volonté de ne pas tromper, de ne pas dire à quelqu'un « je suis désolé pour vous » alors que c'est une machine qui parle, la machine n'est pas désolée, elle vient de produire une phrase. Donc là, il y a un phénomène de tromperie vis-à-vis de la personne en face et je pense que ça vaut le coup de s'en écarter et de dire « non, c'est pas vrai, on ne laisse pas la machine faire croire qu'elle est un humain » parce qu'effectivement, comme elle a été entraînée du langage humain, elle s'exprime en tant que telle quand même, ça n'a aucun rapport. Ceci étant dit, sur des choses plus produ... productives ou productivistes, en tout cas des actes logistiques, le fait d'être mentor, etc. Il y a plein de choses où l'IA fait appel à de la créativité tout le temps. Tcha Gpt et les LLM, de manière générale, font de la créativité. Ce n'est pas une créativité belle et pure et personnelle et subjective comme le fait un humain, ça n'a rien à voir. Mais c'est une créativité dans la mesure où ces systèmes-là sont capables d'aller piocher dans des objets de nature différente, de trouver des recoupements et avec une part de hasard, d'aller proposer des choses qui sont originales. original dans une certaine mesure bien sûr, mais suffisamment pour qu'on puisse parler de créativité. Et donc sur beaucoup de besoins où effectivement la créativité est impliquée, on peut être satisfait d'avoir de l'IA. Ça me semble absolument indiscutable. Maintenant effectivement, la critique que fait beaucoup le milieu artistique de dire mais laissez-nous faire notre boulot et puis on en a marre de voir des machines qui remplacent l'acte créateur humain qui est le plus précieux. Oui, mais ça nous met tout simplement face à une réalité, c'est qu'il y a une partie aujourd'hui du monde artistique qui est dans une position productiviste, et laquelle l'art ne se résume pas, et en fait ça oblige à lâcher un très lourd coup près entre les deux, de dire à quel endroit est-ce que l'acte créateur profond et transcendant est indispensable, et à quel endroit est-ce qu'on est dans de la production, par exemple de par la génération automatique d'images, une des industries qui prend le plus cher aujourd'hui. ce sont tout ce qui est banque d'images. On pensait que ce seraient les photographes qui seraient les plus impactés par ChatGPT, en l'occurrence par sa génération d'images de OpenAI. Et en fait, ce n'est pas du tout le cas. Ce sont toutes ces banques d'images qui, elles, effectivement, ont peu de valeur ajoutée, parce que c'est souvent de l'habillage de sites web, de slides, de machins, etc. Et eux, par contre, ça n'a aucune valeur ajoutée. Le photographe, c'est différent. Le photographe, il a une position personnelle, il a... Il crée des choses sur mesure, il a cette intention. Et donc voilà, c'est toute cette espèce de différence qu'on est en train de recréer, qui juste là n'existait pas puisqu'on n'avait pas le choix. C'était des humains systématiquement, donc le subjectif et l'objectif étaient intermêlés. Et tout d'un coup, on se retrouve à choisir et à dire, mais à quel endroit est-ce qu'en fait l'intention créatrice humaine est indispensable ? Et à quel endroit on peut considérer qu'on est dans une mission logistique et on peut le filer à la machine et on sera très content d'aller faire autre chose ?

  • Speaker #0

    On est un peu dans la différence finalement entre la démarche artistique qui est évidemment défendue par les artistes et à juste titre, et puis la création de contenu, où finalement la banque d'images, comme tu le disais, ça va servir à illustrer une présentation, ça va servir à habiller un site internet, mais il n'y a pas effectivement d'intention artistique derrière, même si ça n'enlève rien à l'esthétique potentielle des images. Est-ce qu'on n'arrive pas finalement sur la question peut-être de l'intuition, de l'imagination qui va manquer à l'IA ? et qui fait encore qu'aujourd'hui l'artiste est pertinent. Et puis, par rapport à tout le contenu qu'on consomme sur Internet, et je choisis le mot contenu en connaissance de cause, on ne consomme pas, je dirais, le même contenu sur YouTube, enfin en tout cas les mêmes images sur YouTube, que ce qu'on va aller voir dans un cinéma d'arrêt d'essai. Donc la différence, pour ce que j'en comprends, se fait là, aujourd'hui. Est-ce que demain on peut imaginer d'aller plus loin ? Je rebondis sur ce que tu disais au départ sur le fait que les réponses de Tchad GPT sont parfois surprenantes et moi il m'arrive d'être agréablement surpris, même si c'est fait de manière tout à fait logique finalement les résultats qu'ils nous renvoient. Mais est-ce que demain finalement cette barrière ne va pas s'estomper, voire disparaître complètement ?

  • Speaker #1

    C'est un vrai sujet de société qui est hyper intéressant parce qu'on sent bien que, en fait, est-ce que l'IA peut avoir de l'imagination ? Est-ce qu'elle peut avoir de l'intuition ? C'est pas le vrai sujet. Le vrai sujet qu'il y a derrière, c'est au fait, c'est quoi l'imagination ? Et c'est quoi l'intuition ? Parce que quand on voit ce que fait ChatGPT, de l'extérieur, ça peut y ressembler. Ça peut vraiment y ressembler. Et en fait, ça oblige à faire la distinction entre la manifestation de ce concept et sa réalité intrinsèque. Est-ce que la manière dont ChatGPT fonctionne, cette espèce d'enchaînement statistique, pour rappel, ChatGPT, ça produit une suite de mots statistiquement cohérentes à partir d'un ensemble gigantesque de données observées. Mais c'est une suite statistique, c'est-à-dire que c'est comme quand on appuie sur le mot du milieu sur son téléphone quand on fait un SMS, c'est la même mécanique. Sachant ça, est-ce qu'on peut considérer qu'il est imaginatif ? Et la question que ça renvoie, c'est de dire, est-ce que nous les humains, est-ce qu'on a quelque chose de réellement plus fort, plus original, plus transcendant peut-être que ça, dans notre processus créatif à nous, notre processus imaginatif ? En fait, est-ce que l'imagination ça a un sens en tant que tel ? Est-ce qu'on peut considérer que c'est plus que de la recombinaison et du hasard ? Est-ce qu'il y a autre chose que ça ? Et en fait... La raison pour laquelle on s'écharpe sur ce sujet-là, c'est parce que ce n'est pas clair. Et en fait, cette zone d'inclarité, elle crée de l'inconfort. Je pense que les revendications souvent s'appuient sur des zones de flou cognitif qui créent de l'inconfort. Il est là l'inconfort, le malaise. C'est qu'on se demande finalement, cette revendication est aussi forte qu'elle est faible dans sa conviction profonde. Est-ce que vraiment la machine n'imagine pas ? C'est difficile à dire. On se doute bien qu'elle imagine quand même un truc. On espère que l'humain imagine mieux que ça. ou dans un processus plus complexe, plus intéressant, plus efficace. Mais quelque part, on se pose la question. Et en même temps, il y a un double sujet qui vient créer cette pression, cette tension émotionnelle. C'est qu'il y a une revendication du milieu artistique et globalement des compétences créatives à être reconnues. Et donc la tension, elle est terrible. Elle est terrible parce qu'il y a une espèce de prise en étau entre tout d'un coup un acte artistique qui, socialement, n'est pas assez reconnu. On sent que... Il n'y a pas toujours toute la valeur, toute l'importance donnée par notre société aux actes artistiques, à l'éducation culturelle autour de ça, à la découverte, à la sensibilisation. Donc il y a tout un milieu qui est un peu, je dirais, un petit peu bafoué de ça, qui en tout cas aimerait que ce soit différent. Et en même temps, on a l'IA qui arrive et qui dit « en fait, moi je sais faire » . Je dirais que le combo des deux est assez difficile. Et donc c'est sûr que le... C'est assez fascinant puisque de tous les milieux qu'on observe dans leur rapport à l'IA, c'est certainement un de ceux qui a le rapport le plus conflictuel et c'est hyper intéressant. Et quand on regarde les objets imparents, c'est hyper normal. La question de l'originalité de l'IA, elle est prise en étau d'une manière terrible et ça renvoie à des questions philosophiques qui sont tellement complexes qu'il n'y a pas d'autre réponse aujourd'hui qu'idéologique. On peut positionner une réponse idéologique à est-ce que l'IA est imaginative ou non, mais on ne peut pas vraiment y donner une réponse qui soit définitive ou technique ou même... même psychologique, on n'a pas les réponses à ça aujourd'hui.

  • Speaker #0

    Et c'est des débats qui ne seront peut-être pas tranchés de sitôt, voire jamais, où il faudra au bout d'un moment, si on ne veut pas adhérer à une idéologie, et ce serait compréhensible finalement qu'on veuille éviter ça, peut-être trouver quelque chose qui fait consensus, pour ensuite définir des positions éthiques par rapport à l'IA, par rapport à sa place finalement dans nos vies, et par rapport à la création, qui est un sujet parmi d'autres. Justement, toi aujourd'hui, même si on est finalement un peu... Au balbutiement de l'IA et de ce que la révolution IA nous promet, quelles sont les principales questions éthiques que tu identifies dès aujourd'hui sur lesquelles on peut travailler ?

  • Speaker #1

    La question de l'identité, elle est hyper importante. C'est un robot qui se présente comme un humain, c'est un problème. Et ça pose des questions éthiques parce qu'on sait qu'il y a des cas où ça pourrait aider. Et donc ça pose d'autant plus de problèmes. C'est-à-dire que, par exemple, on sait que dans le vieillissement de la population, l'IA va jouer un rôle considérable pour faciliter la logistique médicale, pour aider la surveillance, télésurveillance médicale, etc. Il y a plein de sujets qui sont liés à ça. L'un d'entre eux, c'est la présence. Et en fait, on sait aujourd'hui faire, et depuis un certain temps, des robots qui simulent une présence. Donc on sait le faire de mieux en mieux. Des robots qui semblent présenter des émotions à un visage, etc. C'est terriblement difficile comme sujet, c'est un vrai dilemme, parce que le fait que ça fonctionne tient du fait que l'on trompe la personne. Puisque factuellement c'est un bout de plastique avec des puces, donc il n'y a pas grand-chose dedans. Et pour autant, la question de l'isolement, etc. Et en même temps, on aimerait bien le résoudre autrement, ce problème. La question de l'isolement, c'est un terrible fléau de notre époque. Et on sait en plus que globalement, cette question-là de la relation humaine artificielle, elle va se poser à tous les niveaux. C'est-à-dire qu'on sait qu'on a des enjeux psychologiques terribles. On sait que la solitude et l'isolement sont des sujets de notre époque qui sont en train d'apparaître. La santé mentale, c'est assurément un sujet énorme aussi. Donc il y a toute une tentation d'aller vers, finalement, résoudre ça, ou en tout cas faire une proposition avec de la relation artificielle. Évidemment, l'industrie cinématographique s'en est remparée, bien sûr. On pense ne serait-ce qu'au film Heure, par exemple, cette espèce de relation romantique artificielle. C'est évidemment un énorme dilemme éthique, c'est un problème. Alors des dilemmes éthiques, on en a quand même un paquet. Par exemple, la voiture autonome, c'est le plus classique. Est-ce que la voiture va écraser trois personnes âgées ou un enfant ? Qu'est-ce qui est le plus acceptable ? Alors le vrai problème de ce dilemme, ce n'est pas en soi qu'est-ce qui vaut le plus entre une vie ou une autre. Le problème, c'est surtout qu'on se retrouve à devoir l'écrire noir sur blanc. Parce que historiquement, en fait, le problème a toujours existé. N'importe qui doit prendre des décisions dans sa vie avec des dilemmes qui sont parfois impossibles. Mais comme on a une industrialisation du processus de conduire, et que ce processus de conduire peut impliquer des choix majeurs, on est obligé de faire ses choix par avance. Et on aura les mêmes problèmes dans tous les secteurs. Par exemple, dans le médical, si on commence à mettre en place de l'IA qui, à un moment donné, propose des solutions à des cas qui sont un peu extrêmes ou avec des... avec des dilemmes, l'IA, on va devoir écrire dans son code noir sur blanc quelle est sa méthodologie de résolution du dilemme. Et donc finalement, c'est un processus éthique. Et c'est finalement pas tant l'éthique, le problème, que la nécessité, je dirais, extrêmement imminente d'aller trancher ce vieux débat. Et de tout d'un coup prendre position, parce que l'IA, c'est du code, c'est noir et blanc. Donc à moins qu'on décide de fermer les yeux et de dire, fait aléatoirement, jette une pièce en l'air, ce qui est encore plus inacceptable. on va devoir trancher sur une éthique, on va y être obligé. Et donc c'est ça la vraie difficulté de ce point de vue-là. Après, il y a beaucoup de problématiques éthiques également au niveau de la donnée, puisqu'on sait qu'aujourd'hui on est sur une vague d'IA qui dépend de la donnée pour fonctionner. Et donc la donnée aujourd'hui a été quand même lourdement piratée. Ce sont assurément des big companies qui s'excusent après, mais qui ne demandent pas l'autorisation avant. C'est une manière d'adresser le monde. Clairement, l'univers dans lequel on rentre aujourd'hui économiquement, semblent valider ça. C'est terrible à dire, mais c'est vrai. Entre la violence chinoise qui a très peu de respect de la propriété intellectuelle et les Etats-Unis qui commencent à être de plus en plus pirates eux-mêmes à tous les niveaux et ils rattrapent le coup après. En fait, c'est terrible à dire, mais de plus en plus on va vers une guerre économique qui est de moins en moins respectueuse des lois, des conventions, etc. C'est terrible, mais il faut le prendre en compte. On va voir si ça se régule dans le temps qui vient, mais aujourd'hui c'est le cas. Et en fait, la guerre... qu'est l'intelligence artificielle, c'est une guerre politique, c'est une guerre d'influence, c'est une guerre économique. Et donc forcément, ça devient de plus en plus aussi une zone de non-droit. C'est terrible à dire, mais ça devient un tel enjeu que récupérer la donnée, y compris à l'insu des utilisateurs, ça va devenir effectivement un enjeu demain. Ça l'est déjà aujourd'hui, puisque une grande partie du chiffre d'affaires des GAFAMI vient de la publicité. Et donc, qui dit publicité, dit données. Aujourd'hui, on sait faire de la publicité qui marche parce qu'on a les données des utilisateurs. Donc beaucoup d'enjeux à cet endroit-là. Et enfin, le dernier dilemme que je citerai, il est énergétique, puisque tout simplement, encore une fois, aujourd'hui, on sait que l'IA consomme énormément d'électricité et qu'en même temps, on va réussir à réduire un peu la puissance nécessaire, ce qui n'est pas parti pour ça. C'est-à-dire que globalement, même si on a régulièrement des... Là, par exemple, on a eu récemment deux modèles chinois qui sont beaucoup moins consommateurs que ChiaGPT, il n'empêche que malgré tout, on reste sur des systèmes qui sont très consommateurs et dont la puissance, l'efficacité est liée à leur consommation électrique. Donc, de facto... quand on augmente l'un, on augmente l'autre, il n'y a pas le choix. Et en fait, on va devoir prendre la mesure de ça, puisque tout simplement, non seulement ces modèles consomment, mais en plus on est en train de les massifier. Aujourd'hui, il y a moins d'un millième de pourcent de l'IA qui est exploité par les entreprises. C'est très très très faible. Et donc on va commencer à l'exploiter massivement et demain ça va être la première force de production des entreprises, ce sera l'IA. Et donc là, la consommation électrique qui en découle, elle est forcément considérable, mais c'est peut-être une bonne chose. C'est une bonne chose à condition qu'on gère notre transition énergétique de manière correcte. qu'on s'occupe correctement de tous les enjeux écologiques qu'on a, parce qu'il n'y a pas que le carbone, il y en a tout un paquet, avec en particulier l'effondrement de toutes les espèces, on a un nombre d'enjeux écologiques qui est absolument énorme. Donc on peut utiliser l'IA pour ça, on peut prendre en compte les infrastructures pour ça, et ça va peut-être nous permettre même d'avoir une société, je dirais plus juste, qui soit finalement de l'IA pour le bien du plus grand nombre, où on prend soin de tous en ayant de l'IA qui est au service de chacun, que ce soit parce qu'on la met au service du médical, que ça permette aux gens de moins bosser, qu'il y ait moins de pression sur les individus pour tout simplement avoir une performance économique. Donc finalement, l'IA dans ce dilemme-là, elle a un rapport très paradoxal. Pour avoir une meilleure société, il faut qu'on ait plus d'IA, c'est un levier extraordinaire. Pour mieux gérer les enjeux écologiques, c'est aussi une bonne idée d'avoir de l'IA. Et en même temps, l'IA tire sur une de nos ressources les plus précieuses pour l'écologie, qui est l'électricité. Donc c'est une relation complexe. On ne peut pas juste dire que l'IA est en antinomie de l'écologie, ce n'est pas vrai.

  • Speaker #0

    Oui, c'est effectivement plus complexe parce que les bénéfices ont un coût, mais la question est de savoir en fait dans quelle mesure ce coût est acceptable par rapport aux bénéfices qu'on en retire. Donc après, il y a effectivement tout un débat à avoir sur ces questions-là pour déboucher éventuellement sur des règles. Et si on se penche sur les règles, l'Union européenne a fait le choix justement de réguler l'IA. Donc il y a eu tout un débat sur le fait que l'UE ait raison ou non de le faire et je ne veux pas refaire ce débat-là aujourd'hui avec toi. Néanmoins, ça pose quand même la question de savoir quelle est la pertinence de la législation par rapport à la vitesse à laquelle la révolution technologique nous arrive. On a vu ces derniers temps des nouveaux modèles qui ont été annoncés, DeepCycle, le modèle chinois, le nouveau modèle d'OpenAI, le O3 Mini, qui amènent chaque fois de nouvelles fonctionnalités et on parle en fait pour le moment que de modèles de LLM. Demain, on aura sans doute d'autres applications, d'autres formes d'IA. Donc, pour le faire de manière plus courte, comment s'assurer que notre législation reste pertinente ? Va-t-il falloir légiférer très régulièrement ? À ce moment-là, ça remet peut-être en cause le processus législatif tel qu'il existe aujourd'hui. Et si on estime qu'il est trop lent, ça prend le risque aussi de dire, comment dire, d'aller vers un laisser-faire. Donc où mettre le curseur en fait sur cette manière d'aborder la législation ?

  • Speaker #1

    Ce qui est sûr, c'est qu'effectivement ce système est trop lent. Il n'est pas adapté à la vitesse des évolutions modernes. Et on pourrait se dire, c'est le système qui va trop vite, ralentissons un peu, ce n'est pas grave, ça nous laissera le temps de légiférer. Mais en fait, c'est une idée catastrophique, puisque d'abord, ce sont des innovations, si on prend juste l'objet en soi, ce sont des innovations qui nous profitent, qui ont beaucoup de valeur. Je parlais du médical, par exemple, parce que ce sont souvent les innovations qui mettent tout le monde d'accord. L'impact de l'IA sur la capacité à détecter, par exemple, les maladies de manière précoce. C'est un impact qui est considérable. On ne peut pas se dire qu'on va attendre ça un an de plus le temps que les bureaucrates fassent leur boulot. Ce n'est pas possible, c'est absolument inentendable. Ça, c'est le premier point. Le deuxième, c'est qu'on a deux blocs autour de nous, le bloc chinois et le bloc américain, qui sont en train de mettre une énergie absolument considérable sur ce système qu'il y a. Ils savent que c'est l'enjeu de demain. Et chacun avec leur force et leur faiblesse. On savait que la Chine, à un moment donné, était en train de mettre un gros coup de fouet. L'élection de Trump a, je dirais, amorcer une lecture du monde vis-à-vis de ça qui est brutale, dans laquelle effectivement, on va compenser en tout cas, on va choisir cette stratégie je dirais de la force brute quitte à assécher tout le reste puisque très tranquillement, à côté de ça, Trump est en train d'assécher tous les budgets qui sont liés à l'éducation, la culture, la santé, etc. Il se sert librement partout ailleurs. Et donc voilà, on se retrouve entre... quand même deux blocs qui je dirais déploie une force considérable l'annonce effectivement du projet Stargate 500 milliards c'est un chiffre qui est juste gigantesque 500 milliards on verra si on les obtient réellement ou pas on verra ce qu'ils en font surtout mais ce que ça dit c'est qu'on est on est dans un dans une course extrêmement violente et c'est pas une course juste technique ou économique c'est une course géopolitique course à la domination, avec des acteurs à l'intérieur qui sont expansionnistes, que ce soit de l'expansionnisme politique pur ou de l'expansionnisme idéologique. Et l'expansionnisme idéologique, en ce moment, il fait beaucoup d'aller-retour, il est assez complexe, il y a des enjeux majeurs, on a des choses qui se passent dans le monde aujourd'hui sur le plan idéologique qui sont très complexes, et l'IA, aussi étrange que ça puisse paraître, est liée à ça, puisque tout simplement, les États, les idéologies qui s'emparent de l'IA, qui savent la manier, tout simplement, gagnent en puissance, ils sont capables de se... de montrer leur force et de conquérir du terrain. Et donc l'IA devient un enjeu absolument majeur. Et c'est ça d'ailleurs toute la problématique du bloc chinois comme du bloc Trump, si je peux l'appeler comme ça, puisque je ne pense pas que Trump résume tout le bloc américain, mais il montre bien en ce moment le fait que Trump porte une idéologie qui est très forte vis-à-vis de plein de choses. Et donc c'est ça la vraie crainte aujourd'hui. Elle est certes économique, mais il y a aussi le fait qu'on a quand même deux visions du monde très spécifiques, rétrogrades quand même sur pas mal d'aspects des deux côtés, qui... porte ses puissances industrielles majeures. Et donc on a la responsabilité de ne pas se laisser, je dirais, couler derrière ça, puisqu'on a notre propre vision du monde, avec nos propres valeurs, et donc cette volonté de légiférer. Spontanément, on se dit qu'elle est au service de nos valeurs, ce qui est naturel, on se dit qu'on fait des choses dans le cadre qui est le nôtre. Mais dans un monde où ça va si vite, on est aussi en train de tirer contre notre camp. Et il n'y a aucun cas où on peut se permettre d'être aussi lent, et de prendre autant de temps. La bonne nouvelle, c'est que la législation, quelque part, ça peut être une force quand c'est fait de la bonne manière. Au moment, ça nous a servi de manière défensive, c'est une protection temporaire. Mais si on peut réguler, on peut aussi avoir des cadres d'exception. On peut aussi avoir une capacité à légiférer de manière beaucoup plus rapide, avec des instances exceptionnelles. Et c'est peut-être ça qui nous manque, finalement. C'est pas tant la capacité à arrêter de légiférer ou à tout laisser faire, que la capacité à repenser radicalement la manière dont sont pensées les instances qui légifèrent, de telle manière... à ce que toutes ces initiatives puissent trouver une place rapidement et au contraire, faire du légal des cadres qui finalement accélèrent. C'est-à-dire qu'on peut même imaginer effectivement, tout simplement, je dirais, des passerelles, des ouvertures, des trous de renards juridiquement parlant, qui sont encadrés mais qui sont prévus très vite et volontairement pour que justement ces innovations puissent apparaître. Ça, c'est à l'envers de ce qu'on pense aujourd'hui actuellement, puisqu'on pense en... On pense en ceinture de sécurité, alors qu'en fait, on devrait penser en trou dans le mur. Le but, c'est de passer de l'autre côté au bout d'un moment. Ce n'est pas que d'avoir des murs. Et ça, c'est certainement une excellente chose qu'il faut qu'on fasse. En tout cas, on en a besoin. On en a besoin parce qu'on ne peut pas avoir finalement un bloc européen, un peu de seconde zone qui se laisse attaquer. Alors que malgré tout le discours qu'on peut avoir des Américains ou d'autres, c'est une technique aussi d'avoir un discours pour zapper les forces. Quand vous dites... personne ou un ensemble de personnes, vous êtes nuls, vous n'y arriverez pas, laissez-nous faire, c'est tout aussi certainement faux qu'une mécanique pour zapper l'énergie des autres. Et donc il ne faut pas se laisser faire là-dessus. Et il faut se rappeler qu'effectivement, en Europe, on a des faiblesses. On manque d'une vraie Europe unie, puissante. Mais on a aussi une force économique, intellectuelle, technologique, industrielle qui est très importante. Il nous manque un projet. On n'a pas de projet. Il y a un truc là-dessus. Légiférer, clairement, n'est pas suffisant. C'est un bouclier temporaire qui ne suffira pas. Mais on a une puissance disponible et ça, il faut s'en rappeler.

  • Speaker #0

    Oui, on a peut-être une troisième voie à trouver, à créer, à condition qu'on soit capable de mobiliser nos forces. Et ce qui fait notre spécificité finalement en tant que culture, qu'ensemble de culture finalement, puisqu'on est 27. Donc il reste une voie pour l'Europe. On n'est pas condamné à être bloqué dans la course américano-chinoise.

  • Speaker #1

    J'espère, j'espère. Je pense qu'il va falloir qu'au final, qu'on s'autorise.

  • Speaker #0

    à clamer ce qui fait aussi notre particularité. Je pense que l'Europe porte des valeurs. Je pense que c'est aussi ce qui la définit. C'est ce qui fait qu'à un moment donné, on est dans l'Union européenne où on ne l'est pas, on est dans l'Europe où on ne l'est pas, on est dans un agrégat économique ou géopolitique ou un autre. C'est aussi des éléments de valeur. Tous ces éléments-là sont liés, ces points communs sur les normes. Ce qui fait qu'à un moment donné, un produit est acceptable dans une région économique donnée, est lié aux normes qu'ils ont en commun, etc. Et ces normes, elles représentent aussi le niveau d'exigence qu'on se donne vis-à-vis de nos individus. La législation en commun, le fait de permettre ou pas certaines formes de contenu. Tout ce qui fait que des fois, les géants américains sont bloqués aussi quand ils arrivent en Europe sur leur manière de fonctionner, la nécessité d'une modération. Tout ça correspond à notre idéologie, notre manière de protéger les individus, d'en prendre soin et de créer la société de demain. Cette vision-là, je pense qu'il faut la revendiquer beaucoup plus fort. Elle est aussi une puissance et elle mérite, je dirais, d'avoir sous la main à disposition un bras armé qui soit géopolitique, industriel, économique. Parce que c'est notre vision du monde, elle n'est pas très claire, on ne peut pas dire qu'il y ait une idéologie européenne, mais on a nos spécificités, et même si on n'est pas à 100% raccord là-dessus, ça vaut le coup de le porter, parce qu'en face on a un modèle chinois et un modèle américain qui ne sont pas plus unis si on regarde dans le détail, mais qui sont en train de se porter. On a intérêt certainement d'avoir une contre-proposition, de démarquer ça, en tout cas de se laisser la force d'exister demain, puisque je pense qu'il y a besoin effectivement que ce bloc européen soit présent. ne serait-ce que pour un équilibre des forces de ce point de vue-là. On en a terriblement besoin. Et clairement, ça va passer par les technologies. Aujourd'hui, cette guerre, elle est technologique.

  • Speaker #1

    Oui, c'est un peu une course à l'espace, comme on a pu connaître du temps de la guerre froide, mais où l'IA finalement remplace les fusées, même si les fusées sont aussi d'actualité ces jours-ci. Si on revient sur la question de l'innovation, on a vu arriver DeepCycle, le modèle R1 de DeepCycle, qui est open source. et qui a priori a été entraîné pour quelques millions de dollars, ce qui fait quand même une sacrée différence par rapport aux modèles qu'on a pu voir outre-Atlantique. Mais DeepSea qui est open source, tout comme les modèles Lama de Meta. Donc est-ce que ces modèles-là, c'est la voie à suivre pour une vraie démocratisation de l'IA ? Ou est-ce qu'on est un peu condamné, si on reste sur le modèle peut-être d'OpenAI, de Google ? à avoir un certain nombre de gatekeepers qui pourraient remettre en cause finalement une véritable démocratisation. C'est-à-dire qu'on aurait accès à l'IA, accès à un certain nombre d'innovations qu'on pourrait créer nous-mêmes, sous réserve, encore une fois, de s'appuyer sur des plateformes comme on a pu le faire à l'époque du web, ce qu'on appelait le web 2.0, notamment pour la création de contenus. Quelle est ta vision, toi, par rapport à ça ? L'open source, est-ce que c'est la voie à suivre ? Est-ce que c'est une voie par rapport à d'autres ? Et comment s'assurer d'une véritable démocratisation de l'innovation ? Parle bien de l'IA.

  • Speaker #0

    L'open source, c'est un pouvoir extraordinaire. Facebook l'a poussé, il y a beaucoup d'acteurs technologiques qui le portent, tout simplement parce que c'est une des manières les plus puissantes et les plus efficaces que d'embraser le savoir-faire technologique global et de faire que chacun y contribue. Donc l'open source, c'est énormissime. Et le pouvoir de DeepSeek, c'est aussi... C'est aussi une force qui s'est appuyée sur l'open source existant, par exemple sur les travaux de Google. Et donc la réussite de DeepSeek, c'est aussi la réussite de l'open source, très clairement. Ce que je crains, c'est que ça ne dure pas éternellement. L'open source bénéficie à tout le monde, et donc c'est... comment dire ça ? C'est quelque chose qui, pour une logique, un état d'esprit qui est concurrentiel, bloc contre bloc. est antinomique avec cette vision du monde-là. Aujourd'hui, la chance qu'on a sur les open AI, etc., c'est que malgré tout, les évolutions technologiques sont encore assez ouvertes. On est dans un monde où on peut observer les choses qui se passent, il y a des publications scientifiques observables, il y a des propriétés intellectuelles qui sont gardées, mais pas complètement inaccessibles. Les innovations des uns sont, je dirais, des inspirations pour les innovations des autres. Et donc tout ça, je dirais, s'entremêle, ce qui fait que finalement, même pour des pays parfois qui ont un coup de retard ou qui ont quelque chose qui les a ralentis, ils peuvent rattraper comme ça. La Chine, par exemple, n'a pas toujours été le cheval sur lequel on allait parier pour être un des premiers, je dirais, athlètes de l'IA et des nouvelles technologies. Et pourtant, ils en sont là. Alors certes, ils ont une culture de la copie qui est considérable, mais il y a aussi le fait que globalement... Voilà, il y a cette interconnection du monde, ce mondialisme même on pourrait dire, qui fait que les choses circulent, les expertises, les savoir-faire, les connaissances. Ce qu'on pourrait craindre, c'est que demain ça se referme, dans une certaine mesure. C'est que, d'une manière ou d'une autre, ces blocs cherchent à refermer leurs frontières du point de vue de la connaissance et du savoir-faire, pour assécher les autres. Ça, ce sera un vrai risque. Un petit peu, finalement, comme on fait un siège, ce sera un siège inversé quelque part. C'est-à-dire, vous pouvez avoir accès à ce que je produis, mais certainement pas à comment je le produis. Et c'est là que ce serait vraiment inquiétant. Et donc, l'open source, c'est aussi, aujourd'hui... au-delà d'un objet économique ou d'une simple manière de penser la valeur, c'est un objet de stabilisation et de paix sur le plan économique mondial et géopolitique. Ça, c'est une réalité hallucinante, parce que il y a 20 ans encore, l'open source, c'était un peu un truc de hippie. On se disait, c'est sympa, mais c'est chouette. C'est ce qu'on pouvait se dire et c'est sympa, mais c'est pas un truc industriel, etc. Aujourd'hui, c'est quasiment une nécessité politique pour un minimum de... paix internationale et de développement des pays, en particulier ceux qui ont besoin aujourd'hui de rattraper un certain niveau technologique, c'est une nécessité absolue. Donc l'open source est clairement une excellente chose. Il faudra voir qui, dans les temps qui viennent, a intérêt à continuer de le pousser, puisqu'aujourd'hui ça reste pour une partie... Alors il y a des entreprises qui réussissent très bien grâce à ça, mais il y a aussi une dimension philanthropique et idéologique dans le fait de pousser l'open source. C'est pas une nécessité.

  • Speaker #1

    Donc on peut dire que Meta... Comment dire, une volonté philanthropique en poussant l'open source, il y a des vraies valeurs derrière ou c'est aussi opportuniste pour se distinguer plutôt de leurs concurrents ?

  • Speaker #0

    Je ne pourrais pas trancher où s'arrête la philanthropie et où commence la stratégie. Il se peut que ce soit très interlié à un certain niveau, mais assurément il y a aussi quelques acteurs clés chez Meta qui ont poussé l'open source. Je pense que Meta a beaucoup bénéficié de ça. Microsoft également a fait un tournant là-dessus il y a quelques temps. Mais clairement, il y a une dimension philanthrope dans cette idée-là. Et d'ailleurs, ce n'est pas un hasard si OpenAI a arrêté de faire de l'open source au bout d'un moment, parce qu'ils sont passés dans une approche plus mercantile, purement agressive, plus politique aussi. C'est un jeu de positionnement. Est-ce qu'on peut dire que Facebook est philanthrope ? On sait aussi que Facebook a été extrêmement agressif sur l'obtention de leurs données. Par exemple, ils ont lourdement pillé la data. qu'ils ne leur appartenaient pas, y compris en pillant le dark web pour aller chercher ce qu'ils n'avaient pas par ailleurs, très librement. Bon, voilà, ce n'est pas des enjeux non plus.

  • Speaker #1

    Oui, il faut restituer des choses qu'ils ont acquis par ailleurs de manière discutable. On peut considérer ça comme ça.

  • Speaker #0

    On peut dire ça, c'est Robin des Bois à l'envers d'une certaine manière.

  • Speaker #1

    C'est bien résumé. Si on parle de démocratisation, il va y avoir aussi une question au-delà de tous ces gens qui nous mettent à disposition leur technologie. Donc l'IA est toujours cette idée d'innovation. Si on veut la démocratiser, il va falloir la rendre disponible, mais aussi peut-être accompagner les gens dans leur utilisation. Parce que l'IA touche énormément de métiers, ça va continuer. Je pense qu'à terme, tous les métiers, toutes les industries seront impactées. Comment s'assurer finalement que l'aspect réfractaire, qu'on peut tout savoir, dont on parlait un peu plus tôt, on arrive à le gommer et à convaincre les utilisateurs ? et faire en sorte aussi qu'ils s'en servent correctement. C'est-à-dire, est-ce qu'il n'y a pas une grande démarche d'éducation, d'upskilling, de reskilling, en fait, qu'il va falloir mettre en place ? Et je soupçonne que la réponse soit un petit peu oui. Donc, dans ce cas-là, comment le faire ? Parce que c'est aussi... C'est un chantier où il me semble que les structures d'éducation ne sont peut-être pas totalement prêtes.

  • Speaker #0

    Oui, puis on ne sait pas ce que ça veut dire, une compétentia, en vrai. Aujourd'hui, quand on pense compétentia... On pense souvent au développement informatique. Alors certes, les programmeurs, les ingénieurs ont besoin de savoir faire de l'IA pour pouvoir soit concevoir des IA elles-mêmes, soit concevoir les systèmes qui en découlent, donc qui les intègrent, etc. C'est-à-dire quoi une compétence IA au-delà de ça ? Ça, c'est la bonne question. Parce qu'en fait, l'IA, de plus en plus, va devoir être intégrée à tous les niveaux. Si je fais un parallèle avec le marketing, par exemple. Le marketing c'est un des métiers qui a été le plus changé par le digital. Aujourd'hui être expert en marketing c'est globalement être expert en digital, être expert en data et aujourd'hui c'est être expert en IA. Être expert en IA du point de vue de ces métiers là qui sont verticalisés, c'est à dire dont le coeur du sujet n'est pas la tech, mais qui de facto sont techniques, pour la même raison que le digital a envahi absolument tout, l'IA a envahi absolument tout, il s'agit d'un bilinguisme en fait. Il ne s'agit pas forcément de devenir programmeur, C'est une bonne idée, toujours, de savoir faire deux, trois lignes de code, ça fait de mal à personne, mais ce n'est pas le cœur du sujet. Le cœur du sujet, c'est d'être capable de comprendre un peu comment ça marche. Quelles sont les faiblesses ? Quelles sont les forces ? Quelles sont les limites ? Pour être capable de trouver ce qui se passe, de trouver les solutions qui sont adaptées, comprendre comment elles fonctionnent, qu'est-ce qui est en train de se passer en ce moment, donc être capable d'avoir cette espèce de veille permanente, de comprendre qu'est-ce qui est en train de se produire sur le marché, et donc de mettre au service de son métier toutes ces nouvelles technologies qui apparaissent à travers les logiciels existants. Un expert marketing ne va jamais aller inventer ses propres solutions, par contre il y a un vrai enjeu à ce qu'il soit au courant de ce qui est disponible sur le marché et comment il peut s'en servir. Et donc, il y a une culture nécessaire, qui est indispensable. Mais encore une fois, si je fais le parallèle avec Internet, il y a eu une période où on a eu des formations pour les mails, une formation à Excel, une formation à Word. Il y a eu cette période-là. Aujourd'hui, ça nous paraît un peu lointain, mais ça a existé. On est un peu au même stade. Alors, on ne sait pas encore. Ce qui est incertain, c'est dans quelle mesure est-ce que l'IA va trouver une forme un peu unique. On n'est pas sûr que la manière dont on regarde l'IA aujourd'hui soit encore la même qu'on regardera dans 2-3 ans. Parce qu'il y a... On est en train de... Comment dire ça ? Il y a encore des surcouches, des manières de packager ça qui vont changer. Pas sûr qu'on continue de faire du prompting infiniment, finalement, par exemple. Voilà, des choses comme ça. Mais ceci étant dit, voilà, il y a une vraie compétence IA qui va être nécessaire, c'est vrai. Ce qui n'est pas forcément une compétence IA en soi, mais qui est certainement plus une compétence à faire le pont, explicitement et techniquement et concrètement, entre son cœur de métier verticalement parlant et toutes les possibilités technologiques qui sont mises à disposition par le marché. Et donc, oui... Ça va nécessiter de plus en plus de la réorganisation des connaissances, du relearning permanent. Et on sait d'ailleurs que les métiers vont changer de plus en plus vite. On sort complètement d'un monde dans lequel on faisait des études et puis on bossait toute la vie sur le même métier. C'est une vision qui déjà depuis un certain temps est fausse, mais elle l'est encore plus aujourd'hui. Et donc les compétences ont vocation à périmer de plus en plus vite. Et donc la formation continue, mais aussi la reformation permanente. soit vers des nouveaux métiers, soit vers l'évolution de la métier, elle est absolument nécessaire. Il y a des métiers certainement qui vont un peu s'appauvrir, mais surtout il y a des métiers qui vont se transformer, et des nouveaux métiers qui vont apparaître. Et donc mécaniquement, on va rentrer dans un monde où il y a aussi un peu plus d'instabilité dans le travail, on pourra moins se dire qu'on se projette toute sa vie dans un métier X ou Y. Ça va aussi entraîner la nécessité d'aider, ou en tout cas d'assister, les individus à retrouver une stabilité là-dedans. C'est pour ça que... toutes ces questions de... On parlait parfois d'impôt sur l'automatisation ou de revenu universel. Je ne sais pas quelle est la bonne réponse, mais en tout cas, c'est une bonne question. Parce qu'à un moment donné, il va falloir se faire à l'idée qu'on ne pourra pas mettre sur les individus toute la charge de la complexité de la société qu'on est en train de créer, leur donner toute la charge de s'insérer dedans, sachant qu'elle devient de plus en plus éminemment complexe. Et donc, il va falloir faciliter cette insertion-là et il va falloir alléger le poids d'avoir du mal à s'y insérer. Et donc, le revenu universel va certainement être une nécessité morale absolue, a priori, dans le chemin qu'on prend d'avoir des industries de plus en plus automatisées, des industries de plus en plus efficientes et de plus en plus complexes, où l'IA est partout. L'IA et le revenu universel, c'est deux faces d'une même pièce, en vrai, en tant que projet sociétal. On peut difficilement penser l'un sans l'autre.

  • Speaker #1

    Est-ce que tout ça, ça n'implique pas aussi une... Un renforcement de la fracture numérique ou plutôt je dirais l'apparition d'une nouvelle fracture numérique parce qu'on peut tout à fait imaginer effectivement que le revenu universel devienne une nécessité, que certaines personnes ne puissent pas ou ne souhaitent pas s'insérer dans cette société de l'IA, de l'innovation permanente. Et on peut imaginer qu'il faille le respecter. Maintenant, si on met en place ce revenu universel avec des gens qui en bénéficieront et d'autres qui n'en auront pas besoin parce que complètement insérés dans la société numérique, Est-ce qu'on n'a pas de fait une société à deux vitesses ?

  • Speaker #0

    C'est un vrai risque, ça peut se produire et de toute manière ça va demander une réinvention du modèle. C'est-à-dire de dire à un moment donné, peut-être que c'est pas parce qu'on ne travaille pas qu'on n'a pas d'activité aussi. Peut-être que le travail et l'activité ne se confondent pas nécessairement. Peut-être même que la nécessité industrielle n'est pas la nécessité personnelle. Et donc, il va falloir repenser un peu les choses. On n'est pas prêts pour ça. Mais par exemple... Je pense par exemple à tout ce qui est troubles anxieux. On sait aujourd'hui qu'on a une part importante de la population qui souffre de troubles anxieux généralisés et donc ce sont des individus qui sont plus en difficulté sur des milieux à forte dose de stress ou très compétitifs, etc. De facto, on va vers un monde de plus en plus compétitif sur le plan professionnel parce que ce qui est simple est pris en charge de plus en plus par des machines. J'exagère, je ne le dis pas bien parce qu'il y a aussi beaucoup de métiers très complexes dans lesquels en vrai l'IA est présente par exemple. Tout ce qui est médical de haut niveau, l'IA est extrêmement efficace. Mais du coup, c'est intéressant. Ça veut dire que, que ce soit sur des métiers « simples » , ou des métiers sur lesquels on se dirait, on n'est pas sur des métiers qui demandent beaucoup d'années d'études, ou des métiers qui, au contraire, en demandent énormément. Pas pire qu'un chirurgien, je pense, en termes d'années d'études. Dans les deux cas, en fait, l'IA arrive. Et donc, de ce point de vue-là, la question va se poser de se dire, est-ce qu'on veut encore rentrer dans un système ? Est-ce que tout le monde a vocation à rentrer dans un système qui va devenir aussi complexe ? Peut-être que demain, on n'aura plus un master en 5 ans, mais un master en 10, ou une thèse prendra 15 ans, je n'en sais rien. En tout cas, ce qui est sûr, c'est que ce coût d'entrée va augmenter, puisque la société va se technologiser, elle augmente en termes de quantité de connaissances, et elle va de plus en plus vite. Et finalement la question c'est de dire ok, pour ces personnes là, je prends le trouble anxieux parce que ça me passe par la tête, ces personnes là qui sont en difficulté, en enjeu etc, est-ce que le premier enjeu c'est effectivement pas d'abord de leur foutre la paix et de dire ok, faites les choses à votre rythme, vous allez pouvoir réintégrer si vous voulez, là où ça vous intéresse, mais juste à un moment donné, la nécessité de travailler peut-être demain, juste déjà ne met pas en jeu votre existence première. Vous pouvez dormir la nuit sans craindre de mourir de faim, c'est ok. Je dis ça en France, on n'est pas les pires de ce point de vue-là. Mais voilà, on va devoir peut-être certainement normaliser ça. Mais demain, peut-être qu'effectivement, il y aura aussi une place à l'activité. C'est-à-dire de dire, la vie professionnelle ne prend pas toute la place. La vie collective, elle est hyper importante aussi. La vie familiale, certes, mais la vie artistique, la vie sportive, la vie de l'individu dans tout ce qu'elle a d'entier. Et en fait, ça va nous laisser la place et la nécessité d'aller aussi repenser la vie de l'individu, je pense, dans sa globalité. Et ça, ça va être une nécessité qui va faire aussi beaucoup de bien, parce que la place qu'on a pour des gens qui, entre guillemets, n'ont pas nécessairement besoin de travailler, c'est aussi de la place qu'on a pour faire du bien aux personnes. C'est-à-dire qu'on sait que globalement, si on s'occupait un peu mieux en moyenne des gamins à l'école, on aurait un taux, on aurait des prisons beaucoup moins peuplées d'abord, c'est une première dimension, mais aussi on aurait des lourdeurs sur le plan psychiatrique, psychologique, etc., beaucoup moins pénibles. Si on prend plus le temps pour... la santé, que ce soit sur le plan sportif, sur le plan de la nutrition, etc. Des problèmes à gérer, on en a. Si les gens ont un peu plus de temps, on sait quoi leur faire faire, on sait où on veut aller. Ce n'est pas forcément des sujets d'industrie de premier plan, mais ce sont juste des sujets de dire « Ok, on a de la place pour construire un monde un peu différent dans lequel on va mieux prendre soin des gens. » Ça, ça va prendre du temps et de la place.

  • Speaker #1

    C'est la redéfinition du rôle de l'individu dans la société qui aujourd'hui est quand même beaucoup liée au travail, à l'activité qu'on a, qu'on met en avant. Et on a raison de le faire parce que c'est aussi quelque chose qui nous définit, mais peut-être que demain, le travail ne nous définira plus, ou en tout cas beaucoup moins. C'est peut-être ça qu'on peut espérer avec tout ce que ça implique.

  • Speaker #0

    Oui, absolument. Et effectivement, comme tu le disais tout à l'heure, la question de la société à deux vitesses, il faut y faire attention, elle est inquiétante. En tout cas, elle pourrait créer un clivage important entre, par exemple, une hyper bourgeoisie ou aristocratie qui serait en charge de toutes les instances productives. Et de l'autre côté, je dirais une population qui serait plus oisive, ou en tout cas qui aurait une vie très différente, qui serait plus en charge d'elle-même. On peut imaginer sans dystopie là-dessus. On peut aussi imaginer sans utopie. Et ça, c'est la bonne nouvelle. C'est qu'on peut aussi imaginer plein de choses qui vont bien, mais il va falloir l'inventer. Ce serait bien que ça ne fasse pas que glisser lentement, comme un flanc sur une assiette penchée, mais qu'au contraire, on se prenne en main, et qu'on se dise, ok, qu'est-ce qu'on veut faire de ce système, et qu'on commence un petit peu à le construire. La bonne nouvelle, c'est qu'encore une fois, les nouvelles technologies laissent des possibilités. Et donc si on se bouge et qu'on commence effectivement à prendre soin nécessaire, on est en train de préparer une société dans laquelle on va pouvoir faire dix fois plus. Mais la réalité à prendre en compte aussi, c'est qu'en vrai, on est aussi dans une société, aujourd'hui même, ce jour, maintenant où je suis en train de parler, on est déjà dans une société qui est beaucoup plus efficiente qu'on ne l'était il y a cent ans. Et pour autant, on n'a pas infiniment réécrit notre système non plus. Tout va mieux depuis cent ans, sur tous les aspects, si on prend du recul, même si on regarde tous les jours nos difficultés, au global, tout va mieux. Mais on a encore des enjeux absolument majeurs qui sont extrêmement inquiétants, dont l'écologie dont on parlait tout à l'heure. Et donc, à un moment donné, la possibilité technologique, elle n'amène pas immédiatement une solution. Ça, c'est le risque. D'ailleurs, cette pensée-là s'appelle le solutionnisme. Le solutionnisme technologique, c'est l'idée effectivement que la technologie résoudrait immédiatement tout. C'est un levier formidable, mais elle ne se substitue en rien à la nécessité d'un projet politique, humain, économique. Et là-dessus, s'il n'y a pas de... de plan, il n'y a pas de plan. Donc on est juste en train de préparer le fait qu'on va être libre là-dessus et ce serait certainement bien que un projet expansionniste et réactionnaire à la Trump ne soit pas l'unique option sur la table.

  • Speaker #1

    Alors c'est intéressant parce qu'on ne va pas vraiment, que ce soit en Europe ou même ailleurs, mais on va peut-être rester sur l'Europe, de politique sans emparer de ce sujet. C'est-à-dire qu'on aborde l'IA d'un point de vue technico-technique, avec éventuellement les régulations qu'on évoquait plus tôt. Mais le bouleversement sociétal qu'on observe et qu'on va observer de plus en plus, c'est quelque chose qu'on ne voit pas vraiment dans les débats. On l'a vu lors des dernières législatives par exemple. Il y a évidemment d'autres sujets qui sont peut-être plus proches du quotidien de la plupart des citoyens. Mais c'est une question de méconnaissance du sujet, c'est une question de génération de la part de nos dirigeants. Est-ce qu'on peut espérer que ça fasse irruption ? Est-ce qu'on peut se dire par exemple qu'en 2027, pour la prochaine présidentielle, ça sera dans le débat ? J'en doute un peu, mais je me trompe peut-être.

  • Speaker #0

    Je pense qu'il y a une prise de conscience qui n'a pas encore été faite. Tout à l'heure, je disais, l'IA, il y a moins d'un millième de pourcent. qui a été impacté sur les économies. C'est pour ça qu'on ne le voit pas. Mais en vrai, quand ça va descendre, quand ça va prendre sa place, c'est énorme. Mais il faut le temps que les industries s'en accaparent, que depuis la technologie, on aille vers le produit, où le produit se verticalise, se déploie, se normalise. On va commencer par avoir les acteurs qui sont, je dirais, un petit peu en anticipation, ce qu'on appelle parfois les early adopters. Puis on va avoir le gros de la vague, puis les late adopters, etc. Ça prend un peu de temps. Et donc... Je dirais qu'il y a encore un peu ce côté effet d'annonce, où d'un côté il y a cet effet de stupéfaction, on se rend bien compte que ça va avoir un impact monumental, et une relative incrédulité en fait. Parce que quand je sors dans la rue tous les jours, ça ne change pas mon quotidien non plus. Ce n'est pas un robot qui me vend ma baguette de pain, je parle tous les jours avec du... Il n'y a pas, je dirais, le côté suffisamment stupéfiant encore pour se dire « Ok, ah oui, oups, il va se passer un truc gigantesque. » Et pourtant c'est là. Les compétences de l'IA aujourd'hui sont énormes. Elles l'étaient déjà avant Tchadjipiti. Il y a un enjeu de transition. Le temps de faire progresser ces technologies-là, ça prend du temps. Mais il n'y a pas encore eu, je dirais, une réalisation suffisamment forte de la part de nos politiques. Ce que je crains, c'est qu'ils soient un peu en coup de retard là-dessus. Je suis content que globalement... Alors, on va m'accuser de faire du jeunisme, mais je suis content qu'on ait des hommes politiques qui globalement... hommes et femmes politiques qui soient plus jeunes, qu'on ait plus de femmes politiques aussi d'ailleurs au passage, mais aussi qu'ils soient plus jeunes, on gagne certes en diversité, mais on a aussi besoin, je dirais, de personnalités qui sont profondément représentatives des sujets sur lesquels on a besoin de travailler. On a besoin d'un président, on a besoin de ministres, d'hommes et de femmes politiques qui comprennent ce que c'est la tech, vraiment, et qui soient capables d'en comprendre des enjeux et de se dire que oui, on est où on est. On va rentrer dans une société technologique. C'est soit ça, soit on arrête tout. Mais l'IA n'est pas une option. L'IA n'est pas juste un choix. Ce n'est pas une couleur qu'on pourrait choisir de mettre au mur ou pas. C'est le prolongement naturel de notre industrie. Il n'y a pas d'à côté. Donc, soit on arrête de faire évoluer notre industrie, soit on fait de l'IA. Il n'y a pas d'autre option. Et donc, il nous faut un projet pour ça. Et je suis d'accord avec toi. Finalement, ils n'ont pas beaucoup fait le boulot là-dessus. Je crois que les auteurs de science-fiction ont plus fait de boulot là-dessus. que nos experts politiques, alors qu'il y a besoin de créer un modèle. Et aujourd'hui, ceux dont on entend le plus parler sur ce sujet-là sont souvent, je dirais, des experts de la provoque. On a Laurent Alexandre, par exemple, qui a beaucoup parlé du sujet. Mais on n'est pas tant sur une proposition politique cohérente que sur une... Alors avec des éléments à l'intérieur qui sont très intéressants, mais qui sont provoquants et qui sont faits pour créer de la tension aussi dans cette histoire. Donc je ne dirais pas qu'on a... Je n'ai pas en tête un penseur, en tout cas une proposition politique du monde de demain qui se tienne, si ce n'est certainement dans la science-fiction et des penseurs très alternatifs. Ce n'est pas quelque chose qui est arrivé sur le devant de la scène.

  • Speaker #1

    Justement, si on se projette un peu, et là je vais t'inviter à faire de la prospective, et je sais à quel point c'est difficile, mais la technologie évolue de manière incrémentale, tu le rappelais, mais parfois il y a quand même des... des coups de boost assez incroyables, où d'un coup une technologie est disponible, comme ça a été le cas avec ChiaGPT, qui a pris un peu tout le monde par surprise. Si on essaie de se projeter dans les, peut-être pas les 20 ans à venir, mais les 5 à 10 ans, selon toi, quelles seraient les évolutions majeures qu'on peut attendre ? Et je rebondirais aussi sur un propos que Sam Altman a eu il y a quelques mois, où il disait que l'intelligence artificielle générale, la fameuse AGI, Le jour où elle arriverait, finalement, ce ne serait pas la révolution qu'on attend. Et que, ce n'est pas qu'on ne s'en apercevrait pas, mais quasiment. Donc toi, c'est quoi ta vision par rapport à ça ? Est-ce que tu penses que les GIs, effectivement, c'est pour demain ? Et est-ce que tu penses que ça sera aussi... Un dolor, un color, en fait, qui le prévoit ?

  • Speaker #0

    En fait, oui, c'est possible. Alors, le problème, c'est qu'on a des définitions très variables de l'IA générale. En fait, une des définitions possibles, c'est de dire une IA qui peut traiter de tous les sujets. Voilà. Ce que fait déjà un peu ChiaGPT d'une certaine manière. Pas absolument tous, mais... Et surtout, est-ce que ChiaGPT, c'est de l'intelligence au sens où on l'entendrait pour de l'intelligence artificielle générale ? Ça pose problème. La question se pose. Ce qui est sûr, c'est qu'OpenAI a pensé ChiaGPT dans cette direction-là. Est-ce que c'est vraiment le cas ? C'est difficile à dire. Parce qu'aujourd'hui, c'est une succession de modules qui s'enchaînent. C'est remarquable. Et en même temps, il y a une espèce de lecture de fond de l'AGI qui se voudrait plus élégante qu'on n'a pas encore trouvée. Est-ce que l'AGI, finalement, ce serait une IA qui est capable d'avoir conscience d'elle-même ? Ce qui a été aussi une des définitions qui a été donnée parfois. Un peu fantasque, qui se rappelle de la notion de... Comment appelle-t-on ça ? J'ai perdu le mot. le moment où l'intelligence humaine va croiser celui de la machine, je suis perdu le mot. Donc il y a aussi cette singularité. La G.I. et la singularité, ce sont deux concepts qui se tournent l'un autour de l'autre. On sent que ce sont des concepts qui gravitent ensemble, qui sont différents, mais qui gravitent un peu.

  • Speaker #1

    Il y a la question aussi de la dévision de la conscience. Si on va dans ce sens-là, on n'a pas encore défini correctement aujourd'hui.

  • Speaker #0

    Absolument. Et quand on a des news comme un chercheur chez Google, auraient démissionné parce que l'IA est consciente ou des choses comme ça. Qu'est-ce qui vous prend ? Vous n'avez vraiment rien compris à ce que vous êtes en train de faire. Vraiment, il suffit de comprendre comment fonctionnent les outils qu'on voit aujourd'hui pour comprendre qu'on ne peut pas parler de conscience. Pour autant, ça ne répond pas à la question. Qu'est-ce que c'est la conscience ? Comment ça fonctionne ? Alors, il se trouve que le sujet, le champ de la philosophie qui parle de ça, c'est mon préféré. C'est ce qu'on appelle « the hard problem of consciousness » , le problème difficile de la conscience en français. Et de tous les champs de la philosophie, c'est mon préféré. Il est absolument passionnant. Mais il est tout aussi difficile que passionnant. Il est vraiment d'une complexité énorme, puisqu'il interroge en fait la question de la subjectivité, de dire finalement, qu'est-ce qui fait qu'un humain a une expérience subjective du monde, plutôt que de juste témoigner, faire comme s'il en avait une. Et de la même manière, une machine qui dit j'ai mal, à partir de quel moment est-ce qu'une machine qui dit j'ai mal, elle fait autre chose qu'envoyer une suite de sons qui disent j'ai mal. À quel moment est-ce que ça fait sens pour une machine d'avoir mal, ou d'avoir une perception subjective ? On ne sait pas répondre à ça. On a un problème terrible là-dessus, on ne sait pas quoi en faire. Et donc même si demain on avait une intelligence artificielle qui soit, je dirais, sensible, ou qui ait une conscience, là pour le coup on ne saurait pas le détecter. Ça on a un vrai problème là-dessus, c'est-à-dire que faire comme si et avoir, on ne sait même pas ce que ça voudrait dire en fait avoir. En fait on n'a pas de définition. Donc là on est sur, à mon sens, on est sur un aporisme complet de tout point de vue. On n'a pas de savoir-faire ou de... de connaissances auxquelles on pourrait faire appel pour trancher ça aujourd'hui, il n'y en a pas. L'objet n'est pas sur la table, parce que ça invoque des questions, je dirais, philosophiques et même métaphysiques qui sont trop complexes. En fait, ça renvoie à des questions religieuses, en vrai. La question de savoir si l'humain lui-même est une machine, est-ce que c'est autre chose qu'une machine ? La question de l'esprit, de l'âme, etc. sont des questions qui en découlent aussi. On pense souvent à la vision un peu silicone, Valais du Monde, qui est très matérialiste et je dirais même un petit peu... athée du monde, mais il y a aussi toute une partie du monde pour qui la foi est centrale et pour qui la question de dire l'humain est une machine n'est pas possible. Et donc, la question de est-ce que la machine va avoir une âme à un moment donné ou pas, c'est un reflet de toutes ces questions-là aussi. C'est pour ça que c'est aussi complexe. Ce n'est pas une question purement technologique. Et du coup, l'AGI, ce qui est bien, c'est qu'on peut s'en soustraire quand même. Une des dimensions de l'AGI qui est un peu plus concrète, c'est-à-dire finalement, on aurait un système qui serait capable de traiter un peu n'importe quel type de problème, sans forcément qu'on le prédétermine beaucoup vis-à-vis de ça. Donc finalement, quelque chose qui se rapproche un peu d'une intelligence humaine, en tout cas telle qu'on se la projette ou qu'on se la fantasme, dire qu'il soit relativement capable de recréer ses propres contextes, ses propres, on va dire même, structures théoriques, sa propre cognition, sa propre manière de penser. Et ça, je dirais que ça correspondrait effectivement à une division les plus hautes et les plus estimées de l'IA qu'on puisse avoir, et même de l'intelligence au sens large. Donc ça, effectivement, on pourrait ne pas s'en rendre compte pour une raison très simple. c'est parce qu'on progresse séquentiellement. Donc on progresse petit à petit. Et donc un peu comme l'eau qui bout et on ne s'en rend pas compte de l'intérieur, de la même manière, effectivement, on se rend compte que probablement, l'IA va développer des compétences auxquelles on fera... Enfin, peut-être qu'on passera des seuils arbitraires comme celui-là auxquels on n'a pas fait attention. Et c'est plutôt une bonne chose que Sam Altman ait ce discours-là parce qu'on a eu aussi beaucoup de discours qui étaient catastrophistes sur l'IA ou des discours qui font peur. Et aujourd'hui, il faut savoir que souvent, ça coûte moins cher de faire une annonce catastrophiste que de dépenser dans de la communication et du marketing. Donc dire n'importe quoi, c'est une stratégie de marketing, et en IA, ça marche très bien, il faut s'en rappeler. Ok, donc plutôt rassurant par rapport à l'émergence de l'AGI, qui pourrait finalement être une espèce de système d'exploitation pour le monde, si on veut le voir.

  • Speaker #1

    Oui, après il y a la place qu'on lui donne. Alors après il y a l'idée de la super intelligence, on la voit par exemple dans Irobot, elle s'appelle Vicky, et on se rend compte d'ailleurs que c'était plus ou moins le méchant depuis le début, donc je ne spoil pas parce que le film a 20 ans, et il est libre encore plus. Mais voilà, effectivement, il y a cette idée d'avoir une super intelligence. Alors l'idée de la super intelligence, c'est un vrai fantasme. Il y a une vidéo YouTube qui m'énerve, qui a fait une quantité de vues incroyable, qui s'appelle l'usine à trombone. Alors l'usine à trombone, ça m'a rendu complètement fou. Alors vraiment, c'est pile poil la vidéo qui vient pile poil dans, je dirais, l'espace des fantasmes, exactement à l'endroit de ce que les gens ne savent pas, pour la plupart sur l'IA, pour faire croire à un scénario qui est absurde. complètement. L'idée qu'effectivement, à aucun moment donné... Alors oui, pardon, je le précise en deux mots. L'usine de trombone, c'est l'idée qu'une IA qui gère une usine de trombone, à un moment donné, sous la pression et la nécessité de produire toujours plus de trombone, va faire des choses de pire en pire pour arriver à son objectif, comme tuer des humains pour recycler leurs os en trombone, des idées de ce genre-là. Et donc, elle pourrait faire toutes les atrocités de la Terre pour arriver à son objectif. Évidemment que nous, les ingénieurs, quand on code, quand on fait des lignes de code... on a à peu près une idée de à quoi ça sert. Heureusement, sinon votre code broker, de temps en temps, qui lui-même est géré par des lignes de code, il passerait sur des chiffres aléatoires et personne ne serait content. Qu'on sait faire de l'informatique prédictible. Et l'informatique est prédictible par nature. Quand l'informatique devient chaotique ou aléatoire, on la fait volontairement. D'ailleurs, c'est une grande difficulté de mettre l'aléatoire dans des machines. C'est un savoir-faire spécifique. Et donc, il ne faut pas s'y tromper. Si on a une machine comme ça qui gère une usine de trombones, si à un moment donné, elle se met à faire des choses horribles pour arriver à ses fins, on l'aura. chercher explicitement, volontairement, ce sera écrit dans le code, on l'aura connecté à des systèmes, on aura mis des flingues quelque part dans l'usine, connecté à l'IA, on l'aura fait volontairement. Il n'y a pas de cas où ça peut arriver. Si l'IA déconne, c'est qu'on a prévu qu'elle puisse déconner, à un moment donné. Elle peut se tromper, on peut avoir un sous-calcul, etc. Mais si elle utilise un système, c'est qu'on la relie à ce système-là. Ça, c'est très important de s'en souvenir, il n'y a pas de câble magique qui serait connecté entre deux choses. Alors, après, Le risque qu'on craint parfois, c'est de la super IA qui commencerait à avoir une identité propre, qui pourrait aller hacker le web pour se reproduire elle-même sur les serveurs, etc. C'est fantasmatique, mais pas complètement fou. C'est-à-dire qu'on pourrait imaginer une IA qui est cette intelligence-là. Maintenant, encore une fois, on l'aura fait volontairement. C'est pour ça que l'enjeu finalement n'est pas tant une IA dont on perd le contrôle qu'une IA qu'on conçoit pour en perdre le contrôle. Ça, c'est plus l'enjeu. C'est pour ça qu'effectivement, la sécurité informatique va devenir un enjeu encore plus fort. dans le monde de l'IA. On va devoir de plus en plus sécuriser les systèmes aussi pour l'IA. On n'y est pas encore tout à fait, cette idée de l'espèce d'IA qui voyagerait comme ça de serveur en serveur en hackant les systèmes, mais c'est pas absurde, honnêtement. On a plein d'idées absurdes sur l'IA en ce moment, celle-là n'en est pas une. Pourquoi pas ? On pourrait avoir ça à un moment donné, mais clairement, l'enjeu principal, c'est les forces géopolitiques et les individus qui vont se servir de ça, puisque ce sera constitué par quelqu'un dans un objectif, certainement malveillant, et c'est ça l'enjeu. Et en fait, on ne va pas perdre le contrôle. Au contraire, on va avoir des gens très en contrôle qui vont se servir de ça contre d'autres personnes, contre d'autres blocs, etc.

  • Speaker #0

    Ok. Et pour terminer, une petite question sur un conseil que tu pourrais donner pour des gens qui s'intéressent à l'IA, pour peut-être des étudiants, des chercheurs, des jeunes chercheurs, des gens qui ont envie d'en bénéficier de manière vertueuse, bien sûr. Comment faire pour se former, pour être pertinent ? à l'ère de lire.

  • Speaker #1

    On me demande toujours, Thomas, c'est quoi les bonnes vidéos, les bons livres à lire, etc. Alors, j'ai sorti un livre, donc évidemment, je vous le conseille. L'IA en 50 notions clés dans la série Pour les nuls, qui fait un petit peu, qui fait lexique de tous les termes qu'on revoit beaucoup aujourd'hui. Ça aide. Il y a pas mal de vidéos et de cours en ligne qui sont intéressants, qu'on peut regarder, etc. Mon conseil, en vrai, j'en ai un. J'en ai un hyper important. Pratiquez. C'est-à-dire qu'il ne s'agit pas de coder, il s'agit d'aller tester. Vous avez un enjeu, prenez un projet. pour vous, pour quelqu'un, quelque chose qui vous intéresse et menez-le jusqu'au bout en faisant du chat GPT, un GPT, en faisant un peu de no-code, en allant chercher peut-être un deep-seek, un mistral, un perplexity. Connecter des objets entre eux en faisant du no-code ou utiliser une plateforme qui naturellement connecte d'eux. Tester un de ces générateurs de sites web assistés par IA, comme Bolt par exemple, des choses comme ça. Tester ces objets-là. Voyez comment ils réagissent, essayez de les comprendre. C'est pas de la magie noire, c'est à un moment donné... C'est un peu bizarre des fois, mais il y a une logique. Et en fait, il y a une seule intelligence. Je pense fondamental pour comprendre ces objets, c'est l'intelligence pratique. Il faut les manipuler, il faut regarder comment ils fonctionnent. Et quand je donne des conférences, j'en ai fait une soixantaine l'année dernière, entreprises, collectivités, associations tech, etc. Il y a un seul truc qui marche pour aider les individus qui ne comprennent pas ce que c'est à comprendre. C'est de la démonstration, c'est du test, c'est de l'expérimentation. Et donc pour des personnes qui veulent ne pas être larguées, qui veulent peut-être même devenir des sponsors, des experts de leur domaine, mais dans l'IA. Des collaborateurs qui aimeraient devenir des monsieur IA dans leur boîte ou devenir des sponsors de l'IA, il y en a besoin. Il y a vraiment besoin de, je dirais, de sponsors IA partout dans les boîtes. Il faut aller tester, il faut aller manipuler, il faut explorer, etc. Et en fait, il y a beaucoup de choses qui se font aujourd'hui à petite ou à grande échelle, avec du no-code, avec du low-code, avec des outils clés en main, etc. Et donc, il faut y aller, il faut tester, il faut exploiter, il faut s'amuser, il faut faire le lien. Et en fait, le monde de l'IA de demain, c'est celui des experts, je dirais même des... ultra-experts de leur métier qui seront intégrés de l'IA dans ce qu'ils font. Ce n'est pas celui des ultra-experts en IA en vrai. C'est celui des ultra-experts de leurs besoins qui vont venir intégrer l'IA.

  • Speaker #0

    On part du métier pour aller vers l'IA et non de l'inverse.

  • Speaker #1

    Oui, souvent.

  • Speaker #0

    Thomas, merci beaucoup. Où est-ce qu'on peut te suivre si on veut en apprendre plus sur l'IA ? Est-ce que tu publies régulièrement ? Est-ce que tu as un substac ? Est-ce qu'on peut te retrouver sur LinkedIn ? C'est quoi le meilleur moyen ?

  • Speaker #1

    On peut me retrouver effectivement sur LinkedIn, donc à Thomas Solignac. J'ai sorti un livre effectivement cette année qui raconte pas mal de choses. L'IA pour les nuls en 50 notions clés. Et je fais régulièrement quelques vidéos, articles, etc. sur LinkedIn. Et voilà, toujours welcome de recevoir un petit message privé ou une question. Vous êtes les bienvenus.

  • Speaker #0

    Très bien. Écoute, je pense qu'on n'y manquera pas. Merci encore.

  • Speaker #1

    C'est une joie. Merci beaucoup.

Chapters

  • L’innovation, une prise de risque

    00:00

  • L’impact de l’IA sur la créativité

    02:21

  • La notion d’imagination

    09:52

  • Leș principales questions éthiques

    14:38

  • Peut-on réguler une innovation fulgurante?

    21:33

  • L’open source et la démocratisation de l’IA

    30:20

  • L’IA pour tous: un enjeu d’éducation

    39:08

  • Vers une nouvelle fracture numérique?

    41:38

  • Les politiques en retard sur la révolution en cours?

    48:06

  • L’IA dans les années qui viennent

    52:08

  • Pratiquer l’IA

    01:01:30

  • Conclusion

    01:04:09

Description

Thomas Solignac est un entrepreneur français reconnu dans le domaine de l’intelligence artificielle, avec une double expertise en sciences informatiques et en philosophie.

En 2016, il cofonde Golem.ai, une startup pionnière dans l’IA symbolique appliquée à la compréhension du langage naturel. Fort de cette expérience, il lance en 2022 Kayro.ai, une société de conseil spécialisée dans l’identification et l’exécution rapide de projets stratégiques en IA pour les acteurs industriels et institutionnels. Kayro.ai se distingue par une approche pragmatique, orientée résultats, qui fusionne technologie, business et impact opérationnel.

A ce croisement, Thomas intervient dans plus de 70 conférences par an depuis 2018. Il accompagne entreprises et institutions dans leur compréhension et adoption de l’IA, avec des interventions à la fois inspirantes et ancrées dans la réalité du terrain.

En 2024, il publie “L’intelligence artificielle en 50 notions clés pour les Nuls”, un ouvrage de référence pour démystifier l’IA et la rendre accessible au plus grand nombre.

📌 Suivez Thomas sur LinkedIn : https://www.linkedin.com/in/thomas-solignac/

📖 Son livre, “L’intelligence artificielle en 50 notions clés pour les Nuls” : https://www.amazon.fr/Lintelligence-artificielle-notions-cl%C3%A9s-pour/dp/2412094969

🔹 En savoir plus sur Kayro.ai : https://www.kayro.ai


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour Thomas.

  • Speaker #1

    Bonjour Julien.

  • Speaker #0

    Comment est-ce que tu définirais l'innovation en 2025 à l'ère de l'IA ?

  • Speaker #1

    L'innovation c'est un terme aujourd'hui qui a une connotation très particulière. Innover à travers l'histoire ça se fait tout le temps, c'est une nécessité. Aujourd'hui quand on parle d'innovation de plus en plus, on fait référence à de la technologie. Heureusement il n'y a pas que de l'innovation technologique, il y a le fait d'avoir du progrès technologique. On a des choses qu'on ne savait pas faire avant qu'on fait maintenant. Mais en fait, des innovations, il y en a de plein de natures différentes. On parle aussi, par exemple, d'innovation d'usage. C'est-à-dire que ce n'est pas forcément quelque chose de complètement nouveau techniquement, mais la manière dont on s'en sert va être différente. Et ça va débloquer des possibilités, ça va apporter de la valeur. On parle aussi parfois d'innovation dans un modèle économique. Ça veut dire qu'en fait, tout simplement, on va vendre le produit d'une manière différente. Par exemple, on va pouvoir distribuer un produit. mettons gratuitement, mais en ayant une contrepartie nature différente, soit par exemple en captant de la donnée de manière explicite, en faisant de la publicité, etc. Et donc toutes ces mécaniques-là, dans lesquelles on vient réorganiser l'usage, le modèle économique, utiliser de nouvelles technologies, ou faire des choses qui avant n'étaient pas possibles, que ce soit par l'ingénierie, la science ou autre chose, tout ça on l'appelle de l'innovation. Avec cette particularité qui est quoi ? L'innovation, si on le prend dans sa définition la plus pure pour moi, c'est une prise de risque, c'est ça qui est très important, c'est-à-dire que... On va proposer quelque chose qui n'existait pas avant, qui est nouveau, et donc ça va avoir tout ce fardeau qui va avec, qui est considérable, puisqu'on ne va pas pouvoir s'appuyer sur des connaissances établies, sur un sentiment de familiarité. Et c'est un énorme fardeau quand on considère le fait qu'aujourd'hui les gens sont capables d'acheter parce que quelque chose est familier. Et donc l'innovation, certes, ça décrit une manière de se positionner qui est en différence avec l'existant, mais ça décrit aussi... une démarche, un ensemble de contraintes, de savoir-faire parfois, qui vont venir permettre de faire ça et de le rendre effectif, parce que ce n'est pas naturel en fait pour un marché d'innover. C'est même contre nature, c'est souvent par la force des choses que ça se fait. Et donc si on n'avait pas ces espèces de savoir-faire, de mécanique, d'énergie délirante qui vient compenser l'inertie, on n'aurait pas d'innovation ou elle serait très très lente.

  • Speaker #0

    Et l'IA aujourd'hui ? renforce ce besoin d'innover, même si effectivement on est tous un petit peu réfractaires par rapport au changement. Je pense que c'est un biais qu'on a collectivement en tant qu'individu et en tant que société. Aujourd'hui, on ressent une accélération de l'innovation elle-même et du besoin d'innover pour rester, je dirais, pertinent à l'ère de l'IA. Comment est-ce que tu penses que ça impacte nos processus créatifs et aussi peut-être la notion de bien-être ? dans une société, dans une organisation ?

  • Speaker #1

    L'IA, elle appelle plein d'innovations, c'est certain. Elle constitue une innovation en soi, puisque technologiquement, on observe un bond en avant. Il y a des choses qu'on ne savait pas faire avant, qu'on sait faire maintenant. La particularité de l'IA, c'est que ce qu'on pourrait appeler une technologie de fond, d'une certaine manière. Ce n'est pas tant une technologie qui fait quelque chose, c'est vraiment... C'est pour ça qu'on le compare souvent à Internet ou à l'électricité, il y a une espèce de savoir-faire un peu diffus et général. qui a plein de sous-ensembles de techniques d'ailleurs, et qui va permettre énormément de possibilités différentes. Si on prend le parallèle avec Internet, il y a certes l'innovation à un moment donné d'être capable de connecter deux ordinateurs n'importe où dans le monde, pour qu'ils puissent échanger de la donnée, que ces ordinateurs personnels échangent avec des data centers, etc. Tout le principe d'Internet est évidemment révolutionnaire en soi. Mais qu'est-ce qui va le plus marquer le quotidien en termes d'innovation liée à Internet ? C'est tout ce qui va en découler. Les amazones, les... la livraison à domicile, que ce soit de nourriture, de médicaments, de produits. On va avoir tous les services qui se digitalisent, la musique qui change de modèle économique. On a toutes les industries qui se sont réorganisées autour de ça. Et donc, l'innovation Internet n'est pas en soi l'innovation que portent les télécoms. Ce serait même plutôt toutes les innovations qui sont portées grâce à Internet par des entreprises qui vont apporter de la valeur un petit peu spécialisée, voire verticalisée.

  • Speaker #0

    Ok, donc... toujours sur la notion de création de valeur, que ce soit dans le processus créatif, dans l'organisation, je dirais. Comment, toi, tu entrevois le rapport, finalement, IA, homme, femme, on va dire, mais en tout cas le rapport IA humain, justement, dans cette création de valeur, dans le processus créatif ? Aujourd'hui, si on utilise des chatbots, comme ChatGPT, je pense qu'on le fait tous, on a tendance à lui poser des questions, on va prompter de manière plus ou moins savante pour arriver à avoir du contenu. qui nous permet de répondre à une tâche, à un besoin. Mais on est dans du génératif, c'est-à-dire qu'on se base sur des données. Si on va sur la création en elle-même, à quel point demain on pourra avoir, je dirais, un agent IA ou une IA tout court qui agit réellement comme un... Comme un collaborateur, comme un mentor, comme quelqu'un qui fait plus que ressasser finalement des datas qu'on lui a fournies, mais amène la création en elle-même.

  • Speaker #1

    Alors ça pose des questions assez profondes, puisque si je suis un peu provoquant, est-ce qu'un humain fait autre chose que ressasser des données ? Moi je suis partant du fait que oui, mais ça demande à être défendu, validé, prouvé. Et en fait, ce que ça dit en creux, c'est que certainement qu'en fait... Même en ressassant uniquement de la donnée, les machines sont déjà capables d'apporter énormément de valeur. Si on prend le cas de la créativité dans son sens le plus extrême, c'est-à-dire l'art, parce que la créativité est impliquée partout, l'ingénierie par exemple, c'est un domaine créatif par essence, mais l'art, c'est vraiment le truc où on dit « oui, c'est la créativité » . L'acte artistique transcendantal, entre guillemets, n'existe pas avec la machine, il n'a pas de sens. De la même manière que... La machine ne va pas produire une image par rapport à une histoire personnelle ou raconter quelque chose. Effectivement, elle génère une synthèse. En même temps, on sait qu'un humain, quelqu'un qui est en production artistique, lui-même fait appel à des choses qu'il a déjà vues, qu'il va restituer, qu'il va reproduire. Mais c'est là qu'entre guillemets se diffère la question de la production de la question de l'intention du geste. Et en fait, la même question va se poser à plein d'endroits. C'est-à-dire, par exemple, si vous avez la question d'avoir un thérapeute virtuel, ça c'est un... un des sujets de l'IA, qui est très vieux d'ailleurs, puisque Elisa, un des plus vieux chatbots, je crois que c'était années 70, Elisa, c'était un chatbot psychothérapeute, avec lequel il nous renvoyait des questions régulièrement, ce qui était déjà à l'époque très surprenant. Est-ce que ça fait sens quand, par exemple, un thérapeute dit « je vous comprends » ou « je suis désolé pour vous » , est-ce que ça a du sens quand c'est une machine qui génère cette phrase ? Ça pose des questions assez fortes. Donc ça, c'est un vrai enjeu éthique, puisque... Il y a aussi cette volonté de ne pas tromper, de ne pas dire à quelqu'un « je suis désolé pour vous » alors que c'est une machine qui parle, la machine n'est pas désolée, elle vient de produire une phrase. Donc là, il y a un phénomène de tromperie vis-à-vis de la personne en face et je pense que ça vaut le coup de s'en écarter et de dire « non, c'est pas vrai, on ne laisse pas la machine faire croire qu'elle est un humain » parce qu'effectivement, comme elle a été entraînée du langage humain, elle s'exprime en tant que telle quand même, ça n'a aucun rapport. Ceci étant dit, sur des choses plus produ... productives ou productivistes, en tout cas des actes logistiques, le fait d'être mentor, etc. Il y a plein de choses où l'IA fait appel à de la créativité tout le temps. Tcha Gpt et les LLM, de manière générale, font de la créativité. Ce n'est pas une créativité belle et pure et personnelle et subjective comme le fait un humain, ça n'a rien à voir. Mais c'est une créativité dans la mesure où ces systèmes-là sont capables d'aller piocher dans des objets de nature différente, de trouver des recoupements et avec une part de hasard, d'aller proposer des choses qui sont originales. original dans une certaine mesure bien sûr, mais suffisamment pour qu'on puisse parler de créativité. Et donc sur beaucoup de besoins où effectivement la créativité est impliquée, on peut être satisfait d'avoir de l'IA. Ça me semble absolument indiscutable. Maintenant effectivement, la critique que fait beaucoup le milieu artistique de dire mais laissez-nous faire notre boulot et puis on en a marre de voir des machines qui remplacent l'acte créateur humain qui est le plus précieux. Oui, mais ça nous met tout simplement face à une réalité, c'est qu'il y a une partie aujourd'hui du monde artistique qui est dans une position productiviste, et laquelle l'art ne se résume pas, et en fait ça oblige à lâcher un très lourd coup près entre les deux, de dire à quel endroit est-ce que l'acte créateur profond et transcendant est indispensable, et à quel endroit est-ce qu'on est dans de la production, par exemple de par la génération automatique d'images, une des industries qui prend le plus cher aujourd'hui. ce sont tout ce qui est banque d'images. On pensait que ce seraient les photographes qui seraient les plus impactés par ChatGPT, en l'occurrence par sa génération d'images de OpenAI. Et en fait, ce n'est pas du tout le cas. Ce sont toutes ces banques d'images qui, elles, effectivement, ont peu de valeur ajoutée, parce que c'est souvent de l'habillage de sites web, de slides, de machins, etc. Et eux, par contre, ça n'a aucune valeur ajoutée. Le photographe, c'est différent. Le photographe, il a une position personnelle, il a... Il crée des choses sur mesure, il a cette intention. Et donc voilà, c'est toute cette espèce de différence qu'on est en train de recréer, qui juste là n'existait pas puisqu'on n'avait pas le choix. C'était des humains systématiquement, donc le subjectif et l'objectif étaient intermêlés. Et tout d'un coup, on se retrouve à choisir et à dire, mais à quel endroit est-ce qu'en fait l'intention créatrice humaine est indispensable ? Et à quel endroit on peut considérer qu'on est dans une mission logistique et on peut le filer à la machine et on sera très content d'aller faire autre chose ?

  • Speaker #0

    On est un peu dans la différence finalement entre la démarche artistique qui est évidemment défendue par les artistes et à juste titre, et puis la création de contenu, où finalement la banque d'images, comme tu le disais, ça va servir à illustrer une présentation, ça va servir à habiller un site internet, mais il n'y a pas effectivement d'intention artistique derrière, même si ça n'enlève rien à l'esthétique potentielle des images. Est-ce qu'on n'arrive pas finalement sur la question peut-être de l'intuition, de l'imagination qui va manquer à l'IA ? et qui fait encore qu'aujourd'hui l'artiste est pertinent. Et puis, par rapport à tout le contenu qu'on consomme sur Internet, et je choisis le mot contenu en connaissance de cause, on ne consomme pas, je dirais, le même contenu sur YouTube, enfin en tout cas les mêmes images sur YouTube, que ce qu'on va aller voir dans un cinéma d'arrêt d'essai. Donc la différence, pour ce que j'en comprends, se fait là, aujourd'hui. Est-ce que demain on peut imaginer d'aller plus loin ? Je rebondis sur ce que tu disais au départ sur le fait que les réponses de Tchad GPT sont parfois surprenantes et moi il m'arrive d'être agréablement surpris, même si c'est fait de manière tout à fait logique finalement les résultats qu'ils nous renvoient. Mais est-ce que demain finalement cette barrière ne va pas s'estomper, voire disparaître complètement ?

  • Speaker #1

    C'est un vrai sujet de société qui est hyper intéressant parce qu'on sent bien que, en fait, est-ce que l'IA peut avoir de l'imagination ? Est-ce qu'elle peut avoir de l'intuition ? C'est pas le vrai sujet. Le vrai sujet qu'il y a derrière, c'est au fait, c'est quoi l'imagination ? Et c'est quoi l'intuition ? Parce que quand on voit ce que fait ChatGPT, de l'extérieur, ça peut y ressembler. Ça peut vraiment y ressembler. Et en fait, ça oblige à faire la distinction entre la manifestation de ce concept et sa réalité intrinsèque. Est-ce que la manière dont ChatGPT fonctionne, cette espèce d'enchaînement statistique, pour rappel, ChatGPT, ça produit une suite de mots statistiquement cohérentes à partir d'un ensemble gigantesque de données observées. Mais c'est une suite statistique, c'est-à-dire que c'est comme quand on appuie sur le mot du milieu sur son téléphone quand on fait un SMS, c'est la même mécanique. Sachant ça, est-ce qu'on peut considérer qu'il est imaginatif ? Et la question que ça renvoie, c'est de dire, est-ce que nous les humains, est-ce qu'on a quelque chose de réellement plus fort, plus original, plus transcendant peut-être que ça, dans notre processus créatif à nous, notre processus imaginatif ? En fait, est-ce que l'imagination ça a un sens en tant que tel ? Est-ce qu'on peut considérer que c'est plus que de la recombinaison et du hasard ? Est-ce qu'il y a autre chose que ça ? Et en fait... La raison pour laquelle on s'écharpe sur ce sujet-là, c'est parce que ce n'est pas clair. Et en fait, cette zone d'inclarité, elle crée de l'inconfort. Je pense que les revendications souvent s'appuient sur des zones de flou cognitif qui créent de l'inconfort. Il est là l'inconfort, le malaise. C'est qu'on se demande finalement, cette revendication est aussi forte qu'elle est faible dans sa conviction profonde. Est-ce que vraiment la machine n'imagine pas ? C'est difficile à dire. On se doute bien qu'elle imagine quand même un truc. On espère que l'humain imagine mieux que ça. ou dans un processus plus complexe, plus intéressant, plus efficace. Mais quelque part, on se pose la question. Et en même temps, il y a un double sujet qui vient créer cette pression, cette tension émotionnelle. C'est qu'il y a une revendication du milieu artistique et globalement des compétences créatives à être reconnues. Et donc la tension, elle est terrible. Elle est terrible parce qu'il y a une espèce de prise en étau entre tout d'un coup un acte artistique qui, socialement, n'est pas assez reconnu. On sent que... Il n'y a pas toujours toute la valeur, toute l'importance donnée par notre société aux actes artistiques, à l'éducation culturelle autour de ça, à la découverte, à la sensibilisation. Donc il y a tout un milieu qui est un peu, je dirais, un petit peu bafoué de ça, qui en tout cas aimerait que ce soit différent. Et en même temps, on a l'IA qui arrive et qui dit « en fait, moi je sais faire » . Je dirais que le combo des deux est assez difficile. Et donc c'est sûr que le... C'est assez fascinant puisque de tous les milieux qu'on observe dans leur rapport à l'IA, c'est certainement un de ceux qui a le rapport le plus conflictuel et c'est hyper intéressant. Et quand on regarde les objets imparents, c'est hyper normal. La question de l'originalité de l'IA, elle est prise en étau d'une manière terrible et ça renvoie à des questions philosophiques qui sont tellement complexes qu'il n'y a pas d'autre réponse aujourd'hui qu'idéologique. On peut positionner une réponse idéologique à est-ce que l'IA est imaginative ou non, mais on ne peut pas vraiment y donner une réponse qui soit définitive ou technique ou même... même psychologique, on n'a pas les réponses à ça aujourd'hui.

  • Speaker #0

    Et c'est des débats qui ne seront peut-être pas tranchés de sitôt, voire jamais, où il faudra au bout d'un moment, si on ne veut pas adhérer à une idéologie, et ce serait compréhensible finalement qu'on veuille éviter ça, peut-être trouver quelque chose qui fait consensus, pour ensuite définir des positions éthiques par rapport à l'IA, par rapport à sa place finalement dans nos vies, et par rapport à la création, qui est un sujet parmi d'autres. Justement, toi aujourd'hui, même si on est finalement un peu... Au balbutiement de l'IA et de ce que la révolution IA nous promet, quelles sont les principales questions éthiques que tu identifies dès aujourd'hui sur lesquelles on peut travailler ?

  • Speaker #1

    La question de l'identité, elle est hyper importante. C'est un robot qui se présente comme un humain, c'est un problème. Et ça pose des questions éthiques parce qu'on sait qu'il y a des cas où ça pourrait aider. Et donc ça pose d'autant plus de problèmes. C'est-à-dire que, par exemple, on sait que dans le vieillissement de la population, l'IA va jouer un rôle considérable pour faciliter la logistique médicale, pour aider la surveillance, télésurveillance médicale, etc. Il y a plein de sujets qui sont liés à ça. L'un d'entre eux, c'est la présence. Et en fait, on sait aujourd'hui faire, et depuis un certain temps, des robots qui simulent une présence. Donc on sait le faire de mieux en mieux. Des robots qui semblent présenter des émotions à un visage, etc. C'est terriblement difficile comme sujet, c'est un vrai dilemme, parce que le fait que ça fonctionne tient du fait que l'on trompe la personne. Puisque factuellement c'est un bout de plastique avec des puces, donc il n'y a pas grand-chose dedans. Et pour autant, la question de l'isolement, etc. Et en même temps, on aimerait bien le résoudre autrement, ce problème. La question de l'isolement, c'est un terrible fléau de notre époque. Et on sait en plus que globalement, cette question-là de la relation humaine artificielle, elle va se poser à tous les niveaux. C'est-à-dire qu'on sait qu'on a des enjeux psychologiques terribles. On sait que la solitude et l'isolement sont des sujets de notre époque qui sont en train d'apparaître. La santé mentale, c'est assurément un sujet énorme aussi. Donc il y a toute une tentation d'aller vers, finalement, résoudre ça, ou en tout cas faire une proposition avec de la relation artificielle. Évidemment, l'industrie cinématographique s'en est remparée, bien sûr. On pense ne serait-ce qu'au film Heure, par exemple, cette espèce de relation romantique artificielle. C'est évidemment un énorme dilemme éthique, c'est un problème. Alors des dilemmes éthiques, on en a quand même un paquet. Par exemple, la voiture autonome, c'est le plus classique. Est-ce que la voiture va écraser trois personnes âgées ou un enfant ? Qu'est-ce qui est le plus acceptable ? Alors le vrai problème de ce dilemme, ce n'est pas en soi qu'est-ce qui vaut le plus entre une vie ou une autre. Le problème, c'est surtout qu'on se retrouve à devoir l'écrire noir sur blanc. Parce que historiquement, en fait, le problème a toujours existé. N'importe qui doit prendre des décisions dans sa vie avec des dilemmes qui sont parfois impossibles. Mais comme on a une industrialisation du processus de conduire, et que ce processus de conduire peut impliquer des choix majeurs, on est obligé de faire ses choix par avance. Et on aura les mêmes problèmes dans tous les secteurs. Par exemple, dans le médical, si on commence à mettre en place de l'IA qui, à un moment donné, propose des solutions à des cas qui sont un peu extrêmes ou avec des... avec des dilemmes, l'IA, on va devoir écrire dans son code noir sur blanc quelle est sa méthodologie de résolution du dilemme. Et donc finalement, c'est un processus éthique. Et c'est finalement pas tant l'éthique, le problème, que la nécessité, je dirais, extrêmement imminente d'aller trancher ce vieux débat. Et de tout d'un coup prendre position, parce que l'IA, c'est du code, c'est noir et blanc. Donc à moins qu'on décide de fermer les yeux et de dire, fait aléatoirement, jette une pièce en l'air, ce qui est encore plus inacceptable. on va devoir trancher sur une éthique, on va y être obligé. Et donc c'est ça la vraie difficulté de ce point de vue-là. Après, il y a beaucoup de problématiques éthiques également au niveau de la donnée, puisqu'on sait qu'aujourd'hui on est sur une vague d'IA qui dépend de la donnée pour fonctionner. Et donc la donnée aujourd'hui a été quand même lourdement piratée. Ce sont assurément des big companies qui s'excusent après, mais qui ne demandent pas l'autorisation avant. C'est une manière d'adresser le monde. Clairement, l'univers dans lequel on rentre aujourd'hui économiquement, semblent valider ça. C'est terrible à dire, mais c'est vrai. Entre la violence chinoise qui a très peu de respect de la propriété intellectuelle et les Etats-Unis qui commencent à être de plus en plus pirates eux-mêmes à tous les niveaux et ils rattrapent le coup après. En fait, c'est terrible à dire, mais de plus en plus on va vers une guerre économique qui est de moins en moins respectueuse des lois, des conventions, etc. C'est terrible, mais il faut le prendre en compte. On va voir si ça se régule dans le temps qui vient, mais aujourd'hui c'est le cas. Et en fait, la guerre... qu'est l'intelligence artificielle, c'est une guerre politique, c'est une guerre d'influence, c'est une guerre économique. Et donc forcément, ça devient de plus en plus aussi une zone de non-droit. C'est terrible à dire, mais ça devient un tel enjeu que récupérer la donnée, y compris à l'insu des utilisateurs, ça va devenir effectivement un enjeu demain. Ça l'est déjà aujourd'hui, puisque une grande partie du chiffre d'affaires des GAFAMI vient de la publicité. Et donc, qui dit publicité, dit données. Aujourd'hui, on sait faire de la publicité qui marche parce qu'on a les données des utilisateurs. Donc beaucoup d'enjeux à cet endroit-là. Et enfin, le dernier dilemme que je citerai, il est énergétique, puisque tout simplement, encore une fois, aujourd'hui, on sait que l'IA consomme énormément d'électricité et qu'en même temps, on va réussir à réduire un peu la puissance nécessaire, ce qui n'est pas parti pour ça. C'est-à-dire que globalement, même si on a régulièrement des... Là, par exemple, on a eu récemment deux modèles chinois qui sont beaucoup moins consommateurs que ChiaGPT, il n'empêche que malgré tout, on reste sur des systèmes qui sont très consommateurs et dont la puissance, l'efficacité est liée à leur consommation électrique. Donc, de facto... quand on augmente l'un, on augmente l'autre, il n'y a pas le choix. Et en fait, on va devoir prendre la mesure de ça, puisque tout simplement, non seulement ces modèles consomment, mais en plus on est en train de les massifier. Aujourd'hui, il y a moins d'un millième de pourcent de l'IA qui est exploité par les entreprises. C'est très très très faible. Et donc on va commencer à l'exploiter massivement et demain ça va être la première force de production des entreprises, ce sera l'IA. Et donc là, la consommation électrique qui en découle, elle est forcément considérable, mais c'est peut-être une bonne chose. C'est une bonne chose à condition qu'on gère notre transition énergétique de manière correcte. qu'on s'occupe correctement de tous les enjeux écologiques qu'on a, parce qu'il n'y a pas que le carbone, il y en a tout un paquet, avec en particulier l'effondrement de toutes les espèces, on a un nombre d'enjeux écologiques qui est absolument énorme. Donc on peut utiliser l'IA pour ça, on peut prendre en compte les infrastructures pour ça, et ça va peut-être nous permettre même d'avoir une société, je dirais plus juste, qui soit finalement de l'IA pour le bien du plus grand nombre, où on prend soin de tous en ayant de l'IA qui est au service de chacun, que ce soit parce qu'on la met au service du médical, que ça permette aux gens de moins bosser, qu'il y ait moins de pression sur les individus pour tout simplement avoir une performance économique. Donc finalement, l'IA dans ce dilemme-là, elle a un rapport très paradoxal. Pour avoir une meilleure société, il faut qu'on ait plus d'IA, c'est un levier extraordinaire. Pour mieux gérer les enjeux écologiques, c'est aussi une bonne idée d'avoir de l'IA. Et en même temps, l'IA tire sur une de nos ressources les plus précieuses pour l'écologie, qui est l'électricité. Donc c'est une relation complexe. On ne peut pas juste dire que l'IA est en antinomie de l'écologie, ce n'est pas vrai.

  • Speaker #0

    Oui, c'est effectivement plus complexe parce que les bénéfices ont un coût, mais la question est de savoir en fait dans quelle mesure ce coût est acceptable par rapport aux bénéfices qu'on en retire. Donc après, il y a effectivement tout un débat à avoir sur ces questions-là pour déboucher éventuellement sur des règles. Et si on se penche sur les règles, l'Union européenne a fait le choix justement de réguler l'IA. Donc il y a eu tout un débat sur le fait que l'UE ait raison ou non de le faire et je ne veux pas refaire ce débat-là aujourd'hui avec toi. Néanmoins, ça pose quand même la question de savoir quelle est la pertinence de la législation par rapport à la vitesse à laquelle la révolution technologique nous arrive. On a vu ces derniers temps des nouveaux modèles qui ont été annoncés, DeepCycle, le modèle chinois, le nouveau modèle d'OpenAI, le O3 Mini, qui amènent chaque fois de nouvelles fonctionnalités et on parle en fait pour le moment que de modèles de LLM. Demain, on aura sans doute d'autres applications, d'autres formes d'IA. Donc, pour le faire de manière plus courte, comment s'assurer que notre législation reste pertinente ? Va-t-il falloir légiférer très régulièrement ? À ce moment-là, ça remet peut-être en cause le processus législatif tel qu'il existe aujourd'hui. Et si on estime qu'il est trop lent, ça prend le risque aussi de dire, comment dire, d'aller vers un laisser-faire. Donc où mettre le curseur en fait sur cette manière d'aborder la législation ?

  • Speaker #1

    Ce qui est sûr, c'est qu'effectivement ce système est trop lent. Il n'est pas adapté à la vitesse des évolutions modernes. Et on pourrait se dire, c'est le système qui va trop vite, ralentissons un peu, ce n'est pas grave, ça nous laissera le temps de légiférer. Mais en fait, c'est une idée catastrophique, puisque d'abord, ce sont des innovations, si on prend juste l'objet en soi, ce sont des innovations qui nous profitent, qui ont beaucoup de valeur. Je parlais du médical, par exemple, parce que ce sont souvent les innovations qui mettent tout le monde d'accord. L'impact de l'IA sur la capacité à détecter, par exemple, les maladies de manière précoce. C'est un impact qui est considérable. On ne peut pas se dire qu'on va attendre ça un an de plus le temps que les bureaucrates fassent leur boulot. Ce n'est pas possible, c'est absolument inentendable. Ça, c'est le premier point. Le deuxième, c'est qu'on a deux blocs autour de nous, le bloc chinois et le bloc américain, qui sont en train de mettre une énergie absolument considérable sur ce système qu'il y a. Ils savent que c'est l'enjeu de demain. Et chacun avec leur force et leur faiblesse. On savait que la Chine, à un moment donné, était en train de mettre un gros coup de fouet. L'élection de Trump a, je dirais, amorcer une lecture du monde vis-à-vis de ça qui est brutale, dans laquelle effectivement, on va compenser en tout cas, on va choisir cette stratégie je dirais de la force brute quitte à assécher tout le reste puisque très tranquillement, à côté de ça, Trump est en train d'assécher tous les budgets qui sont liés à l'éducation, la culture, la santé, etc. Il se sert librement partout ailleurs. Et donc voilà, on se retrouve entre... quand même deux blocs qui je dirais déploie une force considérable l'annonce effectivement du projet Stargate 500 milliards c'est un chiffre qui est juste gigantesque 500 milliards on verra si on les obtient réellement ou pas on verra ce qu'ils en font surtout mais ce que ça dit c'est qu'on est on est dans un dans une course extrêmement violente et c'est pas une course juste technique ou économique c'est une course géopolitique course à la domination, avec des acteurs à l'intérieur qui sont expansionnistes, que ce soit de l'expansionnisme politique pur ou de l'expansionnisme idéologique. Et l'expansionnisme idéologique, en ce moment, il fait beaucoup d'aller-retour, il est assez complexe, il y a des enjeux majeurs, on a des choses qui se passent dans le monde aujourd'hui sur le plan idéologique qui sont très complexes, et l'IA, aussi étrange que ça puisse paraître, est liée à ça, puisque tout simplement, les États, les idéologies qui s'emparent de l'IA, qui savent la manier, tout simplement, gagnent en puissance, ils sont capables de se... de montrer leur force et de conquérir du terrain. Et donc l'IA devient un enjeu absolument majeur. Et c'est ça d'ailleurs toute la problématique du bloc chinois comme du bloc Trump, si je peux l'appeler comme ça, puisque je ne pense pas que Trump résume tout le bloc américain, mais il montre bien en ce moment le fait que Trump porte une idéologie qui est très forte vis-à-vis de plein de choses. Et donc c'est ça la vraie crainte aujourd'hui. Elle est certes économique, mais il y a aussi le fait qu'on a quand même deux visions du monde très spécifiques, rétrogrades quand même sur pas mal d'aspects des deux côtés, qui... porte ses puissances industrielles majeures. Et donc on a la responsabilité de ne pas se laisser, je dirais, couler derrière ça, puisqu'on a notre propre vision du monde, avec nos propres valeurs, et donc cette volonté de légiférer. Spontanément, on se dit qu'elle est au service de nos valeurs, ce qui est naturel, on se dit qu'on fait des choses dans le cadre qui est le nôtre. Mais dans un monde où ça va si vite, on est aussi en train de tirer contre notre camp. Et il n'y a aucun cas où on peut se permettre d'être aussi lent, et de prendre autant de temps. La bonne nouvelle, c'est que la législation, quelque part, ça peut être une force quand c'est fait de la bonne manière. Au moment, ça nous a servi de manière défensive, c'est une protection temporaire. Mais si on peut réguler, on peut aussi avoir des cadres d'exception. On peut aussi avoir une capacité à légiférer de manière beaucoup plus rapide, avec des instances exceptionnelles. Et c'est peut-être ça qui nous manque, finalement. C'est pas tant la capacité à arrêter de légiférer ou à tout laisser faire, que la capacité à repenser radicalement la manière dont sont pensées les instances qui légifèrent, de telle manière... à ce que toutes ces initiatives puissent trouver une place rapidement et au contraire, faire du légal des cadres qui finalement accélèrent. C'est-à-dire qu'on peut même imaginer effectivement, tout simplement, je dirais, des passerelles, des ouvertures, des trous de renards juridiquement parlant, qui sont encadrés mais qui sont prévus très vite et volontairement pour que justement ces innovations puissent apparaître. Ça, c'est à l'envers de ce qu'on pense aujourd'hui actuellement, puisqu'on pense en... On pense en ceinture de sécurité, alors qu'en fait, on devrait penser en trou dans le mur. Le but, c'est de passer de l'autre côté au bout d'un moment. Ce n'est pas que d'avoir des murs. Et ça, c'est certainement une excellente chose qu'il faut qu'on fasse. En tout cas, on en a besoin. On en a besoin parce qu'on ne peut pas avoir finalement un bloc européen, un peu de seconde zone qui se laisse attaquer. Alors que malgré tout le discours qu'on peut avoir des Américains ou d'autres, c'est une technique aussi d'avoir un discours pour zapper les forces. Quand vous dites... personne ou un ensemble de personnes, vous êtes nuls, vous n'y arriverez pas, laissez-nous faire, c'est tout aussi certainement faux qu'une mécanique pour zapper l'énergie des autres. Et donc il ne faut pas se laisser faire là-dessus. Et il faut se rappeler qu'effectivement, en Europe, on a des faiblesses. On manque d'une vraie Europe unie, puissante. Mais on a aussi une force économique, intellectuelle, technologique, industrielle qui est très importante. Il nous manque un projet. On n'a pas de projet. Il y a un truc là-dessus. Légiférer, clairement, n'est pas suffisant. C'est un bouclier temporaire qui ne suffira pas. Mais on a une puissance disponible et ça, il faut s'en rappeler.

  • Speaker #0

    Oui, on a peut-être une troisième voie à trouver, à créer, à condition qu'on soit capable de mobiliser nos forces. Et ce qui fait notre spécificité finalement en tant que culture, qu'ensemble de culture finalement, puisqu'on est 27. Donc il reste une voie pour l'Europe. On n'est pas condamné à être bloqué dans la course américano-chinoise.

  • Speaker #1

    J'espère, j'espère. Je pense qu'il va falloir qu'au final, qu'on s'autorise.

  • Speaker #0

    à clamer ce qui fait aussi notre particularité. Je pense que l'Europe porte des valeurs. Je pense que c'est aussi ce qui la définit. C'est ce qui fait qu'à un moment donné, on est dans l'Union européenne où on ne l'est pas, on est dans l'Europe où on ne l'est pas, on est dans un agrégat économique ou géopolitique ou un autre. C'est aussi des éléments de valeur. Tous ces éléments-là sont liés, ces points communs sur les normes. Ce qui fait qu'à un moment donné, un produit est acceptable dans une région économique donnée, est lié aux normes qu'ils ont en commun, etc. Et ces normes, elles représentent aussi le niveau d'exigence qu'on se donne vis-à-vis de nos individus. La législation en commun, le fait de permettre ou pas certaines formes de contenu. Tout ce qui fait que des fois, les géants américains sont bloqués aussi quand ils arrivent en Europe sur leur manière de fonctionner, la nécessité d'une modération. Tout ça correspond à notre idéologie, notre manière de protéger les individus, d'en prendre soin et de créer la société de demain. Cette vision-là, je pense qu'il faut la revendiquer beaucoup plus fort. Elle est aussi une puissance et elle mérite, je dirais, d'avoir sous la main à disposition un bras armé qui soit géopolitique, industriel, économique. Parce que c'est notre vision du monde, elle n'est pas très claire, on ne peut pas dire qu'il y ait une idéologie européenne, mais on a nos spécificités, et même si on n'est pas à 100% raccord là-dessus, ça vaut le coup de le porter, parce qu'en face on a un modèle chinois et un modèle américain qui ne sont pas plus unis si on regarde dans le détail, mais qui sont en train de se porter. On a intérêt certainement d'avoir une contre-proposition, de démarquer ça, en tout cas de se laisser la force d'exister demain, puisque je pense qu'il y a besoin effectivement que ce bloc européen soit présent. ne serait-ce que pour un équilibre des forces de ce point de vue-là. On en a terriblement besoin. Et clairement, ça va passer par les technologies. Aujourd'hui, cette guerre, elle est technologique.

  • Speaker #1

    Oui, c'est un peu une course à l'espace, comme on a pu connaître du temps de la guerre froide, mais où l'IA finalement remplace les fusées, même si les fusées sont aussi d'actualité ces jours-ci. Si on revient sur la question de l'innovation, on a vu arriver DeepCycle, le modèle R1 de DeepCycle, qui est open source. et qui a priori a été entraîné pour quelques millions de dollars, ce qui fait quand même une sacrée différence par rapport aux modèles qu'on a pu voir outre-Atlantique. Mais DeepSea qui est open source, tout comme les modèles Lama de Meta. Donc est-ce que ces modèles-là, c'est la voie à suivre pour une vraie démocratisation de l'IA ? Ou est-ce qu'on est un peu condamné, si on reste sur le modèle peut-être d'OpenAI, de Google ? à avoir un certain nombre de gatekeepers qui pourraient remettre en cause finalement une véritable démocratisation. C'est-à-dire qu'on aurait accès à l'IA, accès à un certain nombre d'innovations qu'on pourrait créer nous-mêmes, sous réserve, encore une fois, de s'appuyer sur des plateformes comme on a pu le faire à l'époque du web, ce qu'on appelait le web 2.0, notamment pour la création de contenus. Quelle est ta vision, toi, par rapport à ça ? L'open source, est-ce que c'est la voie à suivre ? Est-ce que c'est une voie par rapport à d'autres ? Et comment s'assurer d'une véritable démocratisation de l'innovation ? Parle bien de l'IA.

  • Speaker #0

    L'open source, c'est un pouvoir extraordinaire. Facebook l'a poussé, il y a beaucoup d'acteurs technologiques qui le portent, tout simplement parce que c'est une des manières les plus puissantes et les plus efficaces que d'embraser le savoir-faire technologique global et de faire que chacun y contribue. Donc l'open source, c'est énormissime. Et le pouvoir de DeepSeek, c'est aussi... C'est aussi une force qui s'est appuyée sur l'open source existant, par exemple sur les travaux de Google. Et donc la réussite de DeepSeek, c'est aussi la réussite de l'open source, très clairement. Ce que je crains, c'est que ça ne dure pas éternellement. L'open source bénéficie à tout le monde, et donc c'est... comment dire ça ? C'est quelque chose qui, pour une logique, un état d'esprit qui est concurrentiel, bloc contre bloc. est antinomique avec cette vision du monde-là. Aujourd'hui, la chance qu'on a sur les open AI, etc., c'est que malgré tout, les évolutions technologiques sont encore assez ouvertes. On est dans un monde où on peut observer les choses qui se passent, il y a des publications scientifiques observables, il y a des propriétés intellectuelles qui sont gardées, mais pas complètement inaccessibles. Les innovations des uns sont, je dirais, des inspirations pour les innovations des autres. Et donc tout ça, je dirais, s'entremêle, ce qui fait que finalement, même pour des pays parfois qui ont un coup de retard ou qui ont quelque chose qui les a ralentis, ils peuvent rattraper comme ça. La Chine, par exemple, n'a pas toujours été le cheval sur lequel on allait parier pour être un des premiers, je dirais, athlètes de l'IA et des nouvelles technologies. Et pourtant, ils en sont là. Alors certes, ils ont une culture de la copie qui est considérable, mais il y a aussi le fait que globalement... Voilà, il y a cette interconnection du monde, ce mondialisme même on pourrait dire, qui fait que les choses circulent, les expertises, les savoir-faire, les connaissances. Ce qu'on pourrait craindre, c'est que demain ça se referme, dans une certaine mesure. C'est que, d'une manière ou d'une autre, ces blocs cherchent à refermer leurs frontières du point de vue de la connaissance et du savoir-faire, pour assécher les autres. Ça, ce sera un vrai risque. Un petit peu, finalement, comme on fait un siège, ce sera un siège inversé quelque part. C'est-à-dire, vous pouvez avoir accès à ce que je produis, mais certainement pas à comment je le produis. Et c'est là que ce serait vraiment inquiétant. Et donc, l'open source, c'est aussi, aujourd'hui... au-delà d'un objet économique ou d'une simple manière de penser la valeur, c'est un objet de stabilisation et de paix sur le plan économique mondial et géopolitique. Ça, c'est une réalité hallucinante, parce que il y a 20 ans encore, l'open source, c'était un peu un truc de hippie. On se disait, c'est sympa, mais c'est chouette. C'est ce qu'on pouvait se dire et c'est sympa, mais c'est pas un truc industriel, etc. Aujourd'hui, c'est quasiment une nécessité politique pour un minimum de... paix internationale et de développement des pays, en particulier ceux qui ont besoin aujourd'hui de rattraper un certain niveau technologique, c'est une nécessité absolue. Donc l'open source est clairement une excellente chose. Il faudra voir qui, dans les temps qui viennent, a intérêt à continuer de le pousser, puisqu'aujourd'hui ça reste pour une partie... Alors il y a des entreprises qui réussissent très bien grâce à ça, mais il y a aussi une dimension philanthropique et idéologique dans le fait de pousser l'open source. C'est pas une nécessité.

  • Speaker #1

    Donc on peut dire que Meta... Comment dire, une volonté philanthropique en poussant l'open source, il y a des vraies valeurs derrière ou c'est aussi opportuniste pour se distinguer plutôt de leurs concurrents ?

  • Speaker #0

    Je ne pourrais pas trancher où s'arrête la philanthropie et où commence la stratégie. Il se peut que ce soit très interlié à un certain niveau, mais assurément il y a aussi quelques acteurs clés chez Meta qui ont poussé l'open source. Je pense que Meta a beaucoup bénéficié de ça. Microsoft également a fait un tournant là-dessus il y a quelques temps. Mais clairement, il y a une dimension philanthrope dans cette idée-là. Et d'ailleurs, ce n'est pas un hasard si OpenAI a arrêté de faire de l'open source au bout d'un moment, parce qu'ils sont passés dans une approche plus mercantile, purement agressive, plus politique aussi. C'est un jeu de positionnement. Est-ce qu'on peut dire que Facebook est philanthrope ? On sait aussi que Facebook a été extrêmement agressif sur l'obtention de leurs données. Par exemple, ils ont lourdement pillé la data. qu'ils ne leur appartenaient pas, y compris en pillant le dark web pour aller chercher ce qu'ils n'avaient pas par ailleurs, très librement. Bon, voilà, ce n'est pas des enjeux non plus.

  • Speaker #1

    Oui, il faut restituer des choses qu'ils ont acquis par ailleurs de manière discutable. On peut considérer ça comme ça.

  • Speaker #0

    On peut dire ça, c'est Robin des Bois à l'envers d'une certaine manière.

  • Speaker #1

    C'est bien résumé. Si on parle de démocratisation, il va y avoir aussi une question au-delà de tous ces gens qui nous mettent à disposition leur technologie. Donc l'IA est toujours cette idée d'innovation. Si on veut la démocratiser, il va falloir la rendre disponible, mais aussi peut-être accompagner les gens dans leur utilisation. Parce que l'IA touche énormément de métiers, ça va continuer. Je pense qu'à terme, tous les métiers, toutes les industries seront impactées. Comment s'assurer finalement que l'aspect réfractaire, qu'on peut tout savoir, dont on parlait un peu plus tôt, on arrive à le gommer et à convaincre les utilisateurs ? et faire en sorte aussi qu'ils s'en servent correctement. C'est-à-dire, est-ce qu'il n'y a pas une grande démarche d'éducation, d'upskilling, de reskilling, en fait, qu'il va falloir mettre en place ? Et je soupçonne que la réponse soit un petit peu oui. Donc, dans ce cas-là, comment le faire ? Parce que c'est aussi... C'est un chantier où il me semble que les structures d'éducation ne sont peut-être pas totalement prêtes.

  • Speaker #0

    Oui, puis on ne sait pas ce que ça veut dire, une compétentia, en vrai. Aujourd'hui, quand on pense compétentia... On pense souvent au développement informatique. Alors certes, les programmeurs, les ingénieurs ont besoin de savoir faire de l'IA pour pouvoir soit concevoir des IA elles-mêmes, soit concevoir les systèmes qui en découlent, donc qui les intègrent, etc. C'est-à-dire quoi une compétence IA au-delà de ça ? Ça, c'est la bonne question. Parce qu'en fait, l'IA, de plus en plus, va devoir être intégrée à tous les niveaux. Si je fais un parallèle avec le marketing, par exemple. Le marketing c'est un des métiers qui a été le plus changé par le digital. Aujourd'hui être expert en marketing c'est globalement être expert en digital, être expert en data et aujourd'hui c'est être expert en IA. Être expert en IA du point de vue de ces métiers là qui sont verticalisés, c'est à dire dont le coeur du sujet n'est pas la tech, mais qui de facto sont techniques, pour la même raison que le digital a envahi absolument tout, l'IA a envahi absolument tout, il s'agit d'un bilinguisme en fait. Il ne s'agit pas forcément de devenir programmeur, C'est une bonne idée, toujours, de savoir faire deux, trois lignes de code, ça fait de mal à personne, mais ce n'est pas le cœur du sujet. Le cœur du sujet, c'est d'être capable de comprendre un peu comment ça marche. Quelles sont les faiblesses ? Quelles sont les forces ? Quelles sont les limites ? Pour être capable de trouver ce qui se passe, de trouver les solutions qui sont adaptées, comprendre comment elles fonctionnent, qu'est-ce qui est en train de se passer en ce moment, donc être capable d'avoir cette espèce de veille permanente, de comprendre qu'est-ce qui est en train de se produire sur le marché, et donc de mettre au service de son métier toutes ces nouvelles technologies qui apparaissent à travers les logiciels existants. Un expert marketing ne va jamais aller inventer ses propres solutions, par contre il y a un vrai enjeu à ce qu'il soit au courant de ce qui est disponible sur le marché et comment il peut s'en servir. Et donc, il y a une culture nécessaire, qui est indispensable. Mais encore une fois, si je fais le parallèle avec Internet, il y a eu une période où on a eu des formations pour les mails, une formation à Excel, une formation à Word. Il y a eu cette période-là. Aujourd'hui, ça nous paraît un peu lointain, mais ça a existé. On est un peu au même stade. Alors, on ne sait pas encore. Ce qui est incertain, c'est dans quelle mesure est-ce que l'IA va trouver une forme un peu unique. On n'est pas sûr que la manière dont on regarde l'IA aujourd'hui soit encore la même qu'on regardera dans 2-3 ans. Parce qu'il y a... On est en train de... Comment dire ça ? Il y a encore des surcouches, des manières de packager ça qui vont changer. Pas sûr qu'on continue de faire du prompting infiniment, finalement, par exemple. Voilà, des choses comme ça. Mais ceci étant dit, voilà, il y a une vraie compétence IA qui va être nécessaire, c'est vrai. Ce qui n'est pas forcément une compétence IA en soi, mais qui est certainement plus une compétence à faire le pont, explicitement et techniquement et concrètement, entre son cœur de métier verticalement parlant et toutes les possibilités technologiques qui sont mises à disposition par le marché. Et donc, oui... Ça va nécessiter de plus en plus de la réorganisation des connaissances, du relearning permanent. Et on sait d'ailleurs que les métiers vont changer de plus en plus vite. On sort complètement d'un monde dans lequel on faisait des études et puis on bossait toute la vie sur le même métier. C'est une vision qui déjà depuis un certain temps est fausse, mais elle l'est encore plus aujourd'hui. Et donc les compétences ont vocation à périmer de plus en plus vite. Et donc la formation continue, mais aussi la reformation permanente. soit vers des nouveaux métiers, soit vers l'évolution de la métier, elle est absolument nécessaire. Il y a des métiers certainement qui vont un peu s'appauvrir, mais surtout il y a des métiers qui vont se transformer, et des nouveaux métiers qui vont apparaître. Et donc mécaniquement, on va rentrer dans un monde où il y a aussi un peu plus d'instabilité dans le travail, on pourra moins se dire qu'on se projette toute sa vie dans un métier X ou Y. Ça va aussi entraîner la nécessité d'aider, ou en tout cas d'assister, les individus à retrouver une stabilité là-dedans. C'est pour ça que... toutes ces questions de... On parlait parfois d'impôt sur l'automatisation ou de revenu universel. Je ne sais pas quelle est la bonne réponse, mais en tout cas, c'est une bonne question. Parce qu'à un moment donné, il va falloir se faire à l'idée qu'on ne pourra pas mettre sur les individus toute la charge de la complexité de la société qu'on est en train de créer, leur donner toute la charge de s'insérer dedans, sachant qu'elle devient de plus en plus éminemment complexe. Et donc, il va falloir faciliter cette insertion-là et il va falloir alléger le poids d'avoir du mal à s'y insérer. Et donc, le revenu universel va certainement être une nécessité morale absolue, a priori, dans le chemin qu'on prend d'avoir des industries de plus en plus automatisées, des industries de plus en plus efficientes et de plus en plus complexes, où l'IA est partout. L'IA et le revenu universel, c'est deux faces d'une même pièce, en vrai, en tant que projet sociétal. On peut difficilement penser l'un sans l'autre.

  • Speaker #1

    Est-ce que tout ça, ça n'implique pas aussi une... Un renforcement de la fracture numérique ou plutôt je dirais l'apparition d'une nouvelle fracture numérique parce qu'on peut tout à fait imaginer effectivement que le revenu universel devienne une nécessité, que certaines personnes ne puissent pas ou ne souhaitent pas s'insérer dans cette société de l'IA, de l'innovation permanente. Et on peut imaginer qu'il faille le respecter. Maintenant, si on met en place ce revenu universel avec des gens qui en bénéficieront et d'autres qui n'en auront pas besoin parce que complètement insérés dans la société numérique, Est-ce qu'on n'a pas de fait une société à deux vitesses ?

  • Speaker #0

    C'est un vrai risque, ça peut se produire et de toute manière ça va demander une réinvention du modèle. C'est-à-dire de dire à un moment donné, peut-être que c'est pas parce qu'on ne travaille pas qu'on n'a pas d'activité aussi. Peut-être que le travail et l'activité ne se confondent pas nécessairement. Peut-être même que la nécessité industrielle n'est pas la nécessité personnelle. Et donc, il va falloir repenser un peu les choses. On n'est pas prêts pour ça. Mais par exemple... Je pense par exemple à tout ce qui est troubles anxieux. On sait aujourd'hui qu'on a une part importante de la population qui souffre de troubles anxieux généralisés et donc ce sont des individus qui sont plus en difficulté sur des milieux à forte dose de stress ou très compétitifs, etc. De facto, on va vers un monde de plus en plus compétitif sur le plan professionnel parce que ce qui est simple est pris en charge de plus en plus par des machines. J'exagère, je ne le dis pas bien parce qu'il y a aussi beaucoup de métiers très complexes dans lesquels en vrai l'IA est présente par exemple. Tout ce qui est médical de haut niveau, l'IA est extrêmement efficace. Mais du coup, c'est intéressant. Ça veut dire que, que ce soit sur des métiers « simples » , ou des métiers sur lesquels on se dirait, on n'est pas sur des métiers qui demandent beaucoup d'années d'études, ou des métiers qui, au contraire, en demandent énormément. Pas pire qu'un chirurgien, je pense, en termes d'années d'études. Dans les deux cas, en fait, l'IA arrive. Et donc, de ce point de vue-là, la question va se poser de se dire, est-ce qu'on veut encore rentrer dans un système ? Est-ce que tout le monde a vocation à rentrer dans un système qui va devenir aussi complexe ? Peut-être que demain, on n'aura plus un master en 5 ans, mais un master en 10, ou une thèse prendra 15 ans, je n'en sais rien. En tout cas, ce qui est sûr, c'est que ce coût d'entrée va augmenter, puisque la société va se technologiser, elle augmente en termes de quantité de connaissances, et elle va de plus en plus vite. Et finalement la question c'est de dire ok, pour ces personnes là, je prends le trouble anxieux parce que ça me passe par la tête, ces personnes là qui sont en difficulté, en enjeu etc, est-ce que le premier enjeu c'est effectivement pas d'abord de leur foutre la paix et de dire ok, faites les choses à votre rythme, vous allez pouvoir réintégrer si vous voulez, là où ça vous intéresse, mais juste à un moment donné, la nécessité de travailler peut-être demain, juste déjà ne met pas en jeu votre existence première. Vous pouvez dormir la nuit sans craindre de mourir de faim, c'est ok. Je dis ça en France, on n'est pas les pires de ce point de vue-là. Mais voilà, on va devoir peut-être certainement normaliser ça. Mais demain, peut-être qu'effectivement, il y aura aussi une place à l'activité. C'est-à-dire de dire, la vie professionnelle ne prend pas toute la place. La vie collective, elle est hyper importante aussi. La vie familiale, certes, mais la vie artistique, la vie sportive, la vie de l'individu dans tout ce qu'elle a d'entier. Et en fait, ça va nous laisser la place et la nécessité d'aller aussi repenser la vie de l'individu, je pense, dans sa globalité. Et ça, ça va être une nécessité qui va faire aussi beaucoup de bien, parce que la place qu'on a pour des gens qui, entre guillemets, n'ont pas nécessairement besoin de travailler, c'est aussi de la place qu'on a pour faire du bien aux personnes. C'est-à-dire qu'on sait que globalement, si on s'occupait un peu mieux en moyenne des gamins à l'école, on aurait un taux, on aurait des prisons beaucoup moins peuplées d'abord, c'est une première dimension, mais aussi on aurait des lourdeurs sur le plan psychiatrique, psychologique, etc., beaucoup moins pénibles. Si on prend plus le temps pour... la santé, que ce soit sur le plan sportif, sur le plan de la nutrition, etc. Des problèmes à gérer, on en a. Si les gens ont un peu plus de temps, on sait quoi leur faire faire, on sait où on veut aller. Ce n'est pas forcément des sujets d'industrie de premier plan, mais ce sont juste des sujets de dire « Ok, on a de la place pour construire un monde un peu différent dans lequel on va mieux prendre soin des gens. » Ça, ça va prendre du temps et de la place.

  • Speaker #1

    C'est la redéfinition du rôle de l'individu dans la société qui aujourd'hui est quand même beaucoup liée au travail, à l'activité qu'on a, qu'on met en avant. Et on a raison de le faire parce que c'est aussi quelque chose qui nous définit, mais peut-être que demain, le travail ne nous définira plus, ou en tout cas beaucoup moins. C'est peut-être ça qu'on peut espérer avec tout ce que ça implique.

  • Speaker #0

    Oui, absolument. Et effectivement, comme tu le disais tout à l'heure, la question de la société à deux vitesses, il faut y faire attention, elle est inquiétante. En tout cas, elle pourrait créer un clivage important entre, par exemple, une hyper bourgeoisie ou aristocratie qui serait en charge de toutes les instances productives. Et de l'autre côté, je dirais une population qui serait plus oisive, ou en tout cas qui aurait une vie très différente, qui serait plus en charge d'elle-même. On peut imaginer sans dystopie là-dessus. On peut aussi imaginer sans utopie. Et ça, c'est la bonne nouvelle. C'est qu'on peut aussi imaginer plein de choses qui vont bien, mais il va falloir l'inventer. Ce serait bien que ça ne fasse pas que glisser lentement, comme un flanc sur une assiette penchée, mais qu'au contraire, on se prenne en main, et qu'on se dise, ok, qu'est-ce qu'on veut faire de ce système, et qu'on commence un petit peu à le construire. La bonne nouvelle, c'est qu'encore une fois, les nouvelles technologies laissent des possibilités. Et donc si on se bouge et qu'on commence effectivement à prendre soin nécessaire, on est en train de préparer une société dans laquelle on va pouvoir faire dix fois plus. Mais la réalité à prendre en compte aussi, c'est qu'en vrai, on est aussi dans une société, aujourd'hui même, ce jour, maintenant où je suis en train de parler, on est déjà dans une société qui est beaucoup plus efficiente qu'on ne l'était il y a cent ans. Et pour autant, on n'a pas infiniment réécrit notre système non plus. Tout va mieux depuis cent ans, sur tous les aspects, si on prend du recul, même si on regarde tous les jours nos difficultés, au global, tout va mieux. Mais on a encore des enjeux absolument majeurs qui sont extrêmement inquiétants, dont l'écologie dont on parlait tout à l'heure. Et donc, à un moment donné, la possibilité technologique, elle n'amène pas immédiatement une solution. Ça, c'est le risque. D'ailleurs, cette pensée-là s'appelle le solutionnisme. Le solutionnisme technologique, c'est l'idée effectivement que la technologie résoudrait immédiatement tout. C'est un levier formidable, mais elle ne se substitue en rien à la nécessité d'un projet politique, humain, économique. Et là-dessus, s'il n'y a pas de... de plan, il n'y a pas de plan. Donc on est juste en train de préparer le fait qu'on va être libre là-dessus et ce serait certainement bien que un projet expansionniste et réactionnaire à la Trump ne soit pas l'unique option sur la table.

  • Speaker #1

    Alors c'est intéressant parce qu'on ne va pas vraiment, que ce soit en Europe ou même ailleurs, mais on va peut-être rester sur l'Europe, de politique sans emparer de ce sujet. C'est-à-dire qu'on aborde l'IA d'un point de vue technico-technique, avec éventuellement les régulations qu'on évoquait plus tôt. Mais le bouleversement sociétal qu'on observe et qu'on va observer de plus en plus, c'est quelque chose qu'on ne voit pas vraiment dans les débats. On l'a vu lors des dernières législatives par exemple. Il y a évidemment d'autres sujets qui sont peut-être plus proches du quotidien de la plupart des citoyens. Mais c'est une question de méconnaissance du sujet, c'est une question de génération de la part de nos dirigeants. Est-ce qu'on peut espérer que ça fasse irruption ? Est-ce qu'on peut se dire par exemple qu'en 2027, pour la prochaine présidentielle, ça sera dans le débat ? J'en doute un peu, mais je me trompe peut-être.

  • Speaker #0

    Je pense qu'il y a une prise de conscience qui n'a pas encore été faite. Tout à l'heure, je disais, l'IA, il y a moins d'un millième de pourcent. qui a été impacté sur les économies. C'est pour ça qu'on ne le voit pas. Mais en vrai, quand ça va descendre, quand ça va prendre sa place, c'est énorme. Mais il faut le temps que les industries s'en accaparent, que depuis la technologie, on aille vers le produit, où le produit se verticalise, se déploie, se normalise. On va commencer par avoir les acteurs qui sont, je dirais, un petit peu en anticipation, ce qu'on appelle parfois les early adopters. Puis on va avoir le gros de la vague, puis les late adopters, etc. Ça prend un peu de temps. Et donc... Je dirais qu'il y a encore un peu ce côté effet d'annonce, où d'un côté il y a cet effet de stupéfaction, on se rend bien compte que ça va avoir un impact monumental, et une relative incrédulité en fait. Parce que quand je sors dans la rue tous les jours, ça ne change pas mon quotidien non plus. Ce n'est pas un robot qui me vend ma baguette de pain, je parle tous les jours avec du... Il n'y a pas, je dirais, le côté suffisamment stupéfiant encore pour se dire « Ok, ah oui, oups, il va se passer un truc gigantesque. » Et pourtant c'est là. Les compétences de l'IA aujourd'hui sont énormes. Elles l'étaient déjà avant Tchadjipiti. Il y a un enjeu de transition. Le temps de faire progresser ces technologies-là, ça prend du temps. Mais il n'y a pas encore eu, je dirais, une réalisation suffisamment forte de la part de nos politiques. Ce que je crains, c'est qu'ils soient un peu en coup de retard là-dessus. Je suis content que globalement... Alors, on va m'accuser de faire du jeunisme, mais je suis content qu'on ait des hommes politiques qui globalement... hommes et femmes politiques qui soient plus jeunes, qu'on ait plus de femmes politiques aussi d'ailleurs au passage, mais aussi qu'ils soient plus jeunes, on gagne certes en diversité, mais on a aussi besoin, je dirais, de personnalités qui sont profondément représentatives des sujets sur lesquels on a besoin de travailler. On a besoin d'un président, on a besoin de ministres, d'hommes et de femmes politiques qui comprennent ce que c'est la tech, vraiment, et qui soient capables d'en comprendre des enjeux et de se dire que oui, on est où on est. On va rentrer dans une société technologique. C'est soit ça, soit on arrête tout. Mais l'IA n'est pas une option. L'IA n'est pas juste un choix. Ce n'est pas une couleur qu'on pourrait choisir de mettre au mur ou pas. C'est le prolongement naturel de notre industrie. Il n'y a pas d'à côté. Donc, soit on arrête de faire évoluer notre industrie, soit on fait de l'IA. Il n'y a pas d'autre option. Et donc, il nous faut un projet pour ça. Et je suis d'accord avec toi. Finalement, ils n'ont pas beaucoup fait le boulot là-dessus. Je crois que les auteurs de science-fiction ont plus fait de boulot là-dessus. que nos experts politiques, alors qu'il y a besoin de créer un modèle. Et aujourd'hui, ceux dont on entend le plus parler sur ce sujet-là sont souvent, je dirais, des experts de la provoque. On a Laurent Alexandre, par exemple, qui a beaucoup parlé du sujet. Mais on n'est pas tant sur une proposition politique cohérente que sur une... Alors avec des éléments à l'intérieur qui sont très intéressants, mais qui sont provoquants et qui sont faits pour créer de la tension aussi dans cette histoire. Donc je ne dirais pas qu'on a... Je n'ai pas en tête un penseur, en tout cas une proposition politique du monde de demain qui se tienne, si ce n'est certainement dans la science-fiction et des penseurs très alternatifs. Ce n'est pas quelque chose qui est arrivé sur le devant de la scène.

  • Speaker #1

    Justement, si on se projette un peu, et là je vais t'inviter à faire de la prospective, et je sais à quel point c'est difficile, mais la technologie évolue de manière incrémentale, tu le rappelais, mais parfois il y a quand même des... des coups de boost assez incroyables, où d'un coup une technologie est disponible, comme ça a été le cas avec ChiaGPT, qui a pris un peu tout le monde par surprise. Si on essaie de se projeter dans les, peut-être pas les 20 ans à venir, mais les 5 à 10 ans, selon toi, quelles seraient les évolutions majeures qu'on peut attendre ? Et je rebondirais aussi sur un propos que Sam Altman a eu il y a quelques mois, où il disait que l'intelligence artificielle générale, la fameuse AGI, Le jour où elle arriverait, finalement, ce ne serait pas la révolution qu'on attend. Et que, ce n'est pas qu'on ne s'en apercevrait pas, mais quasiment. Donc toi, c'est quoi ta vision par rapport à ça ? Est-ce que tu penses que les GIs, effectivement, c'est pour demain ? Et est-ce que tu penses que ça sera aussi... Un dolor, un color, en fait, qui le prévoit ?

  • Speaker #0

    En fait, oui, c'est possible. Alors, le problème, c'est qu'on a des définitions très variables de l'IA générale. En fait, une des définitions possibles, c'est de dire une IA qui peut traiter de tous les sujets. Voilà. Ce que fait déjà un peu ChiaGPT d'une certaine manière. Pas absolument tous, mais... Et surtout, est-ce que ChiaGPT, c'est de l'intelligence au sens où on l'entendrait pour de l'intelligence artificielle générale ? Ça pose problème. La question se pose. Ce qui est sûr, c'est qu'OpenAI a pensé ChiaGPT dans cette direction-là. Est-ce que c'est vraiment le cas ? C'est difficile à dire. Parce qu'aujourd'hui, c'est une succession de modules qui s'enchaînent. C'est remarquable. Et en même temps, il y a une espèce de lecture de fond de l'AGI qui se voudrait plus élégante qu'on n'a pas encore trouvée. Est-ce que l'AGI, finalement, ce serait une IA qui est capable d'avoir conscience d'elle-même ? Ce qui a été aussi une des définitions qui a été donnée parfois. Un peu fantasque, qui se rappelle de la notion de... Comment appelle-t-on ça ? J'ai perdu le mot. le moment où l'intelligence humaine va croiser celui de la machine, je suis perdu le mot. Donc il y a aussi cette singularité. La G.I. et la singularité, ce sont deux concepts qui se tournent l'un autour de l'autre. On sent que ce sont des concepts qui gravitent ensemble, qui sont différents, mais qui gravitent un peu.

  • Speaker #1

    Il y a la question aussi de la dévision de la conscience. Si on va dans ce sens-là, on n'a pas encore défini correctement aujourd'hui.

  • Speaker #0

    Absolument. Et quand on a des news comme un chercheur chez Google, auraient démissionné parce que l'IA est consciente ou des choses comme ça. Qu'est-ce qui vous prend ? Vous n'avez vraiment rien compris à ce que vous êtes en train de faire. Vraiment, il suffit de comprendre comment fonctionnent les outils qu'on voit aujourd'hui pour comprendre qu'on ne peut pas parler de conscience. Pour autant, ça ne répond pas à la question. Qu'est-ce que c'est la conscience ? Comment ça fonctionne ? Alors, il se trouve que le sujet, le champ de la philosophie qui parle de ça, c'est mon préféré. C'est ce qu'on appelle « the hard problem of consciousness » , le problème difficile de la conscience en français. Et de tous les champs de la philosophie, c'est mon préféré. Il est absolument passionnant. Mais il est tout aussi difficile que passionnant. Il est vraiment d'une complexité énorme, puisqu'il interroge en fait la question de la subjectivité, de dire finalement, qu'est-ce qui fait qu'un humain a une expérience subjective du monde, plutôt que de juste témoigner, faire comme s'il en avait une. Et de la même manière, une machine qui dit j'ai mal, à partir de quel moment est-ce qu'une machine qui dit j'ai mal, elle fait autre chose qu'envoyer une suite de sons qui disent j'ai mal. À quel moment est-ce que ça fait sens pour une machine d'avoir mal, ou d'avoir une perception subjective ? On ne sait pas répondre à ça. On a un problème terrible là-dessus, on ne sait pas quoi en faire. Et donc même si demain on avait une intelligence artificielle qui soit, je dirais, sensible, ou qui ait une conscience, là pour le coup on ne saurait pas le détecter. Ça on a un vrai problème là-dessus, c'est-à-dire que faire comme si et avoir, on ne sait même pas ce que ça voudrait dire en fait avoir. En fait on n'a pas de définition. Donc là on est sur, à mon sens, on est sur un aporisme complet de tout point de vue. On n'a pas de savoir-faire ou de... de connaissances auxquelles on pourrait faire appel pour trancher ça aujourd'hui, il n'y en a pas. L'objet n'est pas sur la table, parce que ça invoque des questions, je dirais, philosophiques et même métaphysiques qui sont trop complexes. En fait, ça renvoie à des questions religieuses, en vrai. La question de savoir si l'humain lui-même est une machine, est-ce que c'est autre chose qu'une machine ? La question de l'esprit, de l'âme, etc. sont des questions qui en découlent aussi. On pense souvent à la vision un peu silicone, Valais du Monde, qui est très matérialiste et je dirais même un petit peu... athée du monde, mais il y a aussi toute une partie du monde pour qui la foi est centrale et pour qui la question de dire l'humain est une machine n'est pas possible. Et donc, la question de est-ce que la machine va avoir une âme à un moment donné ou pas, c'est un reflet de toutes ces questions-là aussi. C'est pour ça que c'est aussi complexe. Ce n'est pas une question purement technologique. Et du coup, l'AGI, ce qui est bien, c'est qu'on peut s'en soustraire quand même. Une des dimensions de l'AGI qui est un peu plus concrète, c'est-à-dire finalement, on aurait un système qui serait capable de traiter un peu n'importe quel type de problème, sans forcément qu'on le prédétermine beaucoup vis-à-vis de ça. Donc finalement, quelque chose qui se rapproche un peu d'une intelligence humaine, en tout cas telle qu'on se la projette ou qu'on se la fantasme, dire qu'il soit relativement capable de recréer ses propres contextes, ses propres, on va dire même, structures théoriques, sa propre cognition, sa propre manière de penser. Et ça, je dirais que ça correspondrait effectivement à une division les plus hautes et les plus estimées de l'IA qu'on puisse avoir, et même de l'intelligence au sens large. Donc ça, effectivement, on pourrait ne pas s'en rendre compte pour une raison très simple. c'est parce qu'on progresse séquentiellement. Donc on progresse petit à petit. Et donc un peu comme l'eau qui bout et on ne s'en rend pas compte de l'intérieur, de la même manière, effectivement, on se rend compte que probablement, l'IA va développer des compétences auxquelles on fera... Enfin, peut-être qu'on passera des seuils arbitraires comme celui-là auxquels on n'a pas fait attention. Et c'est plutôt une bonne chose que Sam Altman ait ce discours-là parce qu'on a eu aussi beaucoup de discours qui étaient catastrophistes sur l'IA ou des discours qui font peur. Et aujourd'hui, il faut savoir que souvent, ça coûte moins cher de faire une annonce catastrophiste que de dépenser dans de la communication et du marketing. Donc dire n'importe quoi, c'est une stratégie de marketing, et en IA, ça marche très bien, il faut s'en rappeler. Ok, donc plutôt rassurant par rapport à l'émergence de l'AGI, qui pourrait finalement être une espèce de système d'exploitation pour le monde, si on veut le voir.

  • Speaker #1

    Oui, après il y a la place qu'on lui donne. Alors après il y a l'idée de la super intelligence, on la voit par exemple dans Irobot, elle s'appelle Vicky, et on se rend compte d'ailleurs que c'était plus ou moins le méchant depuis le début, donc je ne spoil pas parce que le film a 20 ans, et il est libre encore plus. Mais voilà, effectivement, il y a cette idée d'avoir une super intelligence. Alors l'idée de la super intelligence, c'est un vrai fantasme. Il y a une vidéo YouTube qui m'énerve, qui a fait une quantité de vues incroyable, qui s'appelle l'usine à trombone. Alors l'usine à trombone, ça m'a rendu complètement fou. Alors vraiment, c'est pile poil la vidéo qui vient pile poil dans, je dirais, l'espace des fantasmes, exactement à l'endroit de ce que les gens ne savent pas, pour la plupart sur l'IA, pour faire croire à un scénario qui est absurde. complètement. L'idée qu'effectivement, à aucun moment donné... Alors oui, pardon, je le précise en deux mots. L'usine de trombone, c'est l'idée qu'une IA qui gère une usine de trombone, à un moment donné, sous la pression et la nécessité de produire toujours plus de trombone, va faire des choses de pire en pire pour arriver à son objectif, comme tuer des humains pour recycler leurs os en trombone, des idées de ce genre-là. Et donc, elle pourrait faire toutes les atrocités de la Terre pour arriver à son objectif. Évidemment que nous, les ingénieurs, quand on code, quand on fait des lignes de code... on a à peu près une idée de à quoi ça sert. Heureusement, sinon votre code broker, de temps en temps, qui lui-même est géré par des lignes de code, il passerait sur des chiffres aléatoires et personne ne serait content. Qu'on sait faire de l'informatique prédictible. Et l'informatique est prédictible par nature. Quand l'informatique devient chaotique ou aléatoire, on la fait volontairement. D'ailleurs, c'est une grande difficulté de mettre l'aléatoire dans des machines. C'est un savoir-faire spécifique. Et donc, il ne faut pas s'y tromper. Si on a une machine comme ça qui gère une usine de trombones, si à un moment donné, elle se met à faire des choses horribles pour arriver à ses fins, on l'aura. chercher explicitement, volontairement, ce sera écrit dans le code, on l'aura connecté à des systèmes, on aura mis des flingues quelque part dans l'usine, connecté à l'IA, on l'aura fait volontairement. Il n'y a pas de cas où ça peut arriver. Si l'IA déconne, c'est qu'on a prévu qu'elle puisse déconner, à un moment donné. Elle peut se tromper, on peut avoir un sous-calcul, etc. Mais si elle utilise un système, c'est qu'on la relie à ce système-là. Ça, c'est très important de s'en souvenir, il n'y a pas de câble magique qui serait connecté entre deux choses. Alors, après, Le risque qu'on craint parfois, c'est de la super IA qui commencerait à avoir une identité propre, qui pourrait aller hacker le web pour se reproduire elle-même sur les serveurs, etc. C'est fantasmatique, mais pas complètement fou. C'est-à-dire qu'on pourrait imaginer une IA qui est cette intelligence-là. Maintenant, encore une fois, on l'aura fait volontairement. C'est pour ça que l'enjeu finalement n'est pas tant une IA dont on perd le contrôle qu'une IA qu'on conçoit pour en perdre le contrôle. Ça, c'est plus l'enjeu. C'est pour ça qu'effectivement, la sécurité informatique va devenir un enjeu encore plus fort. dans le monde de l'IA. On va devoir de plus en plus sécuriser les systèmes aussi pour l'IA. On n'y est pas encore tout à fait, cette idée de l'espèce d'IA qui voyagerait comme ça de serveur en serveur en hackant les systèmes, mais c'est pas absurde, honnêtement. On a plein d'idées absurdes sur l'IA en ce moment, celle-là n'en est pas une. Pourquoi pas ? On pourrait avoir ça à un moment donné, mais clairement, l'enjeu principal, c'est les forces géopolitiques et les individus qui vont se servir de ça, puisque ce sera constitué par quelqu'un dans un objectif, certainement malveillant, et c'est ça l'enjeu. Et en fait, on ne va pas perdre le contrôle. Au contraire, on va avoir des gens très en contrôle qui vont se servir de ça contre d'autres personnes, contre d'autres blocs, etc.

  • Speaker #0

    Ok. Et pour terminer, une petite question sur un conseil que tu pourrais donner pour des gens qui s'intéressent à l'IA, pour peut-être des étudiants, des chercheurs, des jeunes chercheurs, des gens qui ont envie d'en bénéficier de manière vertueuse, bien sûr. Comment faire pour se former, pour être pertinent ? à l'ère de lire.

  • Speaker #1

    On me demande toujours, Thomas, c'est quoi les bonnes vidéos, les bons livres à lire, etc. Alors, j'ai sorti un livre, donc évidemment, je vous le conseille. L'IA en 50 notions clés dans la série Pour les nuls, qui fait un petit peu, qui fait lexique de tous les termes qu'on revoit beaucoup aujourd'hui. Ça aide. Il y a pas mal de vidéos et de cours en ligne qui sont intéressants, qu'on peut regarder, etc. Mon conseil, en vrai, j'en ai un. J'en ai un hyper important. Pratiquez. C'est-à-dire qu'il ne s'agit pas de coder, il s'agit d'aller tester. Vous avez un enjeu, prenez un projet. pour vous, pour quelqu'un, quelque chose qui vous intéresse et menez-le jusqu'au bout en faisant du chat GPT, un GPT, en faisant un peu de no-code, en allant chercher peut-être un deep-seek, un mistral, un perplexity. Connecter des objets entre eux en faisant du no-code ou utiliser une plateforme qui naturellement connecte d'eux. Tester un de ces générateurs de sites web assistés par IA, comme Bolt par exemple, des choses comme ça. Tester ces objets-là. Voyez comment ils réagissent, essayez de les comprendre. C'est pas de la magie noire, c'est à un moment donné... C'est un peu bizarre des fois, mais il y a une logique. Et en fait, il y a une seule intelligence. Je pense fondamental pour comprendre ces objets, c'est l'intelligence pratique. Il faut les manipuler, il faut regarder comment ils fonctionnent. Et quand je donne des conférences, j'en ai fait une soixantaine l'année dernière, entreprises, collectivités, associations tech, etc. Il y a un seul truc qui marche pour aider les individus qui ne comprennent pas ce que c'est à comprendre. C'est de la démonstration, c'est du test, c'est de l'expérimentation. Et donc pour des personnes qui veulent ne pas être larguées, qui veulent peut-être même devenir des sponsors, des experts de leur domaine, mais dans l'IA. Des collaborateurs qui aimeraient devenir des monsieur IA dans leur boîte ou devenir des sponsors de l'IA, il y en a besoin. Il y a vraiment besoin de, je dirais, de sponsors IA partout dans les boîtes. Il faut aller tester, il faut aller manipuler, il faut explorer, etc. Et en fait, il y a beaucoup de choses qui se font aujourd'hui à petite ou à grande échelle, avec du no-code, avec du low-code, avec des outils clés en main, etc. Et donc, il faut y aller, il faut tester, il faut exploiter, il faut s'amuser, il faut faire le lien. Et en fait, le monde de l'IA de demain, c'est celui des experts, je dirais même des... ultra-experts de leur métier qui seront intégrés de l'IA dans ce qu'ils font. Ce n'est pas celui des ultra-experts en IA en vrai. C'est celui des ultra-experts de leurs besoins qui vont venir intégrer l'IA.

  • Speaker #0

    On part du métier pour aller vers l'IA et non de l'inverse.

  • Speaker #1

    Oui, souvent.

  • Speaker #0

    Thomas, merci beaucoup. Où est-ce qu'on peut te suivre si on veut en apprendre plus sur l'IA ? Est-ce que tu publies régulièrement ? Est-ce que tu as un substac ? Est-ce qu'on peut te retrouver sur LinkedIn ? C'est quoi le meilleur moyen ?

  • Speaker #1

    On peut me retrouver effectivement sur LinkedIn, donc à Thomas Solignac. J'ai sorti un livre effectivement cette année qui raconte pas mal de choses. L'IA pour les nuls en 50 notions clés. Et je fais régulièrement quelques vidéos, articles, etc. sur LinkedIn. Et voilà, toujours welcome de recevoir un petit message privé ou une question. Vous êtes les bienvenus.

  • Speaker #0

    Très bien. Écoute, je pense qu'on n'y manquera pas. Merci encore.

  • Speaker #1

    C'est une joie. Merci beaucoup.

Chapters

  • L’innovation, une prise de risque

    00:00

  • L’impact de l’IA sur la créativité

    02:21

  • La notion d’imagination

    09:52

  • Leș principales questions éthiques

    14:38

  • Peut-on réguler une innovation fulgurante?

    21:33

  • L’open source et la démocratisation de l’IA

    30:20

  • L’IA pour tous: un enjeu d’éducation

    39:08

  • Vers une nouvelle fracture numérique?

    41:38

  • Les politiques en retard sur la révolution en cours?

    48:06

  • L’IA dans les années qui viennent

    52:08

  • Pratiquer l’IA

    01:01:30

  • Conclusion

    01:04:09

Share

Embed

You may also like

Description

Thomas Solignac est un entrepreneur français reconnu dans le domaine de l’intelligence artificielle, avec une double expertise en sciences informatiques et en philosophie.

En 2016, il cofonde Golem.ai, une startup pionnière dans l’IA symbolique appliquée à la compréhension du langage naturel. Fort de cette expérience, il lance en 2022 Kayro.ai, une société de conseil spécialisée dans l’identification et l’exécution rapide de projets stratégiques en IA pour les acteurs industriels et institutionnels. Kayro.ai se distingue par une approche pragmatique, orientée résultats, qui fusionne technologie, business et impact opérationnel.

A ce croisement, Thomas intervient dans plus de 70 conférences par an depuis 2018. Il accompagne entreprises et institutions dans leur compréhension et adoption de l’IA, avec des interventions à la fois inspirantes et ancrées dans la réalité du terrain.

En 2024, il publie “L’intelligence artificielle en 50 notions clés pour les Nuls”, un ouvrage de référence pour démystifier l’IA et la rendre accessible au plus grand nombre.

📌 Suivez Thomas sur LinkedIn : https://www.linkedin.com/in/thomas-solignac/

📖 Son livre, “L’intelligence artificielle en 50 notions clés pour les Nuls” : https://www.amazon.fr/Lintelligence-artificielle-notions-cl%C3%A9s-pour/dp/2412094969

🔹 En savoir plus sur Kayro.ai : https://www.kayro.ai


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour Thomas.

  • Speaker #1

    Bonjour Julien.

  • Speaker #0

    Comment est-ce que tu définirais l'innovation en 2025 à l'ère de l'IA ?

  • Speaker #1

    L'innovation c'est un terme aujourd'hui qui a une connotation très particulière. Innover à travers l'histoire ça se fait tout le temps, c'est une nécessité. Aujourd'hui quand on parle d'innovation de plus en plus, on fait référence à de la technologie. Heureusement il n'y a pas que de l'innovation technologique, il y a le fait d'avoir du progrès technologique. On a des choses qu'on ne savait pas faire avant qu'on fait maintenant. Mais en fait, des innovations, il y en a de plein de natures différentes. On parle aussi, par exemple, d'innovation d'usage. C'est-à-dire que ce n'est pas forcément quelque chose de complètement nouveau techniquement, mais la manière dont on s'en sert va être différente. Et ça va débloquer des possibilités, ça va apporter de la valeur. On parle aussi parfois d'innovation dans un modèle économique. Ça veut dire qu'en fait, tout simplement, on va vendre le produit d'une manière différente. Par exemple, on va pouvoir distribuer un produit. mettons gratuitement, mais en ayant une contrepartie nature différente, soit par exemple en captant de la donnée de manière explicite, en faisant de la publicité, etc. Et donc toutes ces mécaniques-là, dans lesquelles on vient réorganiser l'usage, le modèle économique, utiliser de nouvelles technologies, ou faire des choses qui avant n'étaient pas possibles, que ce soit par l'ingénierie, la science ou autre chose, tout ça on l'appelle de l'innovation. Avec cette particularité qui est quoi ? L'innovation, si on le prend dans sa définition la plus pure pour moi, c'est une prise de risque, c'est ça qui est très important, c'est-à-dire que... On va proposer quelque chose qui n'existait pas avant, qui est nouveau, et donc ça va avoir tout ce fardeau qui va avec, qui est considérable, puisqu'on ne va pas pouvoir s'appuyer sur des connaissances établies, sur un sentiment de familiarité. Et c'est un énorme fardeau quand on considère le fait qu'aujourd'hui les gens sont capables d'acheter parce que quelque chose est familier. Et donc l'innovation, certes, ça décrit une manière de se positionner qui est en différence avec l'existant, mais ça décrit aussi... une démarche, un ensemble de contraintes, de savoir-faire parfois, qui vont venir permettre de faire ça et de le rendre effectif, parce que ce n'est pas naturel en fait pour un marché d'innover. C'est même contre nature, c'est souvent par la force des choses que ça se fait. Et donc si on n'avait pas ces espèces de savoir-faire, de mécanique, d'énergie délirante qui vient compenser l'inertie, on n'aurait pas d'innovation ou elle serait très très lente.

  • Speaker #0

    Et l'IA aujourd'hui ? renforce ce besoin d'innover, même si effectivement on est tous un petit peu réfractaires par rapport au changement. Je pense que c'est un biais qu'on a collectivement en tant qu'individu et en tant que société. Aujourd'hui, on ressent une accélération de l'innovation elle-même et du besoin d'innover pour rester, je dirais, pertinent à l'ère de l'IA. Comment est-ce que tu penses que ça impacte nos processus créatifs et aussi peut-être la notion de bien-être ? dans une société, dans une organisation ?

  • Speaker #1

    L'IA, elle appelle plein d'innovations, c'est certain. Elle constitue une innovation en soi, puisque technologiquement, on observe un bond en avant. Il y a des choses qu'on ne savait pas faire avant, qu'on sait faire maintenant. La particularité de l'IA, c'est que ce qu'on pourrait appeler une technologie de fond, d'une certaine manière. Ce n'est pas tant une technologie qui fait quelque chose, c'est vraiment... C'est pour ça qu'on le compare souvent à Internet ou à l'électricité, il y a une espèce de savoir-faire un peu diffus et général. qui a plein de sous-ensembles de techniques d'ailleurs, et qui va permettre énormément de possibilités différentes. Si on prend le parallèle avec Internet, il y a certes l'innovation à un moment donné d'être capable de connecter deux ordinateurs n'importe où dans le monde, pour qu'ils puissent échanger de la donnée, que ces ordinateurs personnels échangent avec des data centers, etc. Tout le principe d'Internet est évidemment révolutionnaire en soi. Mais qu'est-ce qui va le plus marquer le quotidien en termes d'innovation liée à Internet ? C'est tout ce qui va en découler. Les amazones, les... la livraison à domicile, que ce soit de nourriture, de médicaments, de produits. On va avoir tous les services qui se digitalisent, la musique qui change de modèle économique. On a toutes les industries qui se sont réorganisées autour de ça. Et donc, l'innovation Internet n'est pas en soi l'innovation que portent les télécoms. Ce serait même plutôt toutes les innovations qui sont portées grâce à Internet par des entreprises qui vont apporter de la valeur un petit peu spécialisée, voire verticalisée.

  • Speaker #0

    Ok, donc... toujours sur la notion de création de valeur, que ce soit dans le processus créatif, dans l'organisation, je dirais. Comment, toi, tu entrevois le rapport, finalement, IA, homme, femme, on va dire, mais en tout cas le rapport IA humain, justement, dans cette création de valeur, dans le processus créatif ? Aujourd'hui, si on utilise des chatbots, comme ChatGPT, je pense qu'on le fait tous, on a tendance à lui poser des questions, on va prompter de manière plus ou moins savante pour arriver à avoir du contenu. qui nous permet de répondre à une tâche, à un besoin. Mais on est dans du génératif, c'est-à-dire qu'on se base sur des données. Si on va sur la création en elle-même, à quel point demain on pourra avoir, je dirais, un agent IA ou une IA tout court qui agit réellement comme un... Comme un collaborateur, comme un mentor, comme quelqu'un qui fait plus que ressasser finalement des datas qu'on lui a fournies, mais amène la création en elle-même.

  • Speaker #1

    Alors ça pose des questions assez profondes, puisque si je suis un peu provoquant, est-ce qu'un humain fait autre chose que ressasser des données ? Moi je suis partant du fait que oui, mais ça demande à être défendu, validé, prouvé. Et en fait, ce que ça dit en creux, c'est que certainement qu'en fait... Même en ressassant uniquement de la donnée, les machines sont déjà capables d'apporter énormément de valeur. Si on prend le cas de la créativité dans son sens le plus extrême, c'est-à-dire l'art, parce que la créativité est impliquée partout, l'ingénierie par exemple, c'est un domaine créatif par essence, mais l'art, c'est vraiment le truc où on dit « oui, c'est la créativité » . L'acte artistique transcendantal, entre guillemets, n'existe pas avec la machine, il n'a pas de sens. De la même manière que... La machine ne va pas produire une image par rapport à une histoire personnelle ou raconter quelque chose. Effectivement, elle génère une synthèse. En même temps, on sait qu'un humain, quelqu'un qui est en production artistique, lui-même fait appel à des choses qu'il a déjà vues, qu'il va restituer, qu'il va reproduire. Mais c'est là qu'entre guillemets se diffère la question de la production de la question de l'intention du geste. Et en fait, la même question va se poser à plein d'endroits. C'est-à-dire, par exemple, si vous avez la question d'avoir un thérapeute virtuel, ça c'est un... un des sujets de l'IA, qui est très vieux d'ailleurs, puisque Elisa, un des plus vieux chatbots, je crois que c'était années 70, Elisa, c'était un chatbot psychothérapeute, avec lequel il nous renvoyait des questions régulièrement, ce qui était déjà à l'époque très surprenant. Est-ce que ça fait sens quand, par exemple, un thérapeute dit « je vous comprends » ou « je suis désolé pour vous » , est-ce que ça a du sens quand c'est une machine qui génère cette phrase ? Ça pose des questions assez fortes. Donc ça, c'est un vrai enjeu éthique, puisque... Il y a aussi cette volonté de ne pas tromper, de ne pas dire à quelqu'un « je suis désolé pour vous » alors que c'est une machine qui parle, la machine n'est pas désolée, elle vient de produire une phrase. Donc là, il y a un phénomène de tromperie vis-à-vis de la personne en face et je pense que ça vaut le coup de s'en écarter et de dire « non, c'est pas vrai, on ne laisse pas la machine faire croire qu'elle est un humain » parce qu'effectivement, comme elle a été entraînée du langage humain, elle s'exprime en tant que telle quand même, ça n'a aucun rapport. Ceci étant dit, sur des choses plus produ... productives ou productivistes, en tout cas des actes logistiques, le fait d'être mentor, etc. Il y a plein de choses où l'IA fait appel à de la créativité tout le temps. Tcha Gpt et les LLM, de manière générale, font de la créativité. Ce n'est pas une créativité belle et pure et personnelle et subjective comme le fait un humain, ça n'a rien à voir. Mais c'est une créativité dans la mesure où ces systèmes-là sont capables d'aller piocher dans des objets de nature différente, de trouver des recoupements et avec une part de hasard, d'aller proposer des choses qui sont originales. original dans une certaine mesure bien sûr, mais suffisamment pour qu'on puisse parler de créativité. Et donc sur beaucoup de besoins où effectivement la créativité est impliquée, on peut être satisfait d'avoir de l'IA. Ça me semble absolument indiscutable. Maintenant effectivement, la critique que fait beaucoup le milieu artistique de dire mais laissez-nous faire notre boulot et puis on en a marre de voir des machines qui remplacent l'acte créateur humain qui est le plus précieux. Oui, mais ça nous met tout simplement face à une réalité, c'est qu'il y a une partie aujourd'hui du monde artistique qui est dans une position productiviste, et laquelle l'art ne se résume pas, et en fait ça oblige à lâcher un très lourd coup près entre les deux, de dire à quel endroit est-ce que l'acte créateur profond et transcendant est indispensable, et à quel endroit est-ce qu'on est dans de la production, par exemple de par la génération automatique d'images, une des industries qui prend le plus cher aujourd'hui. ce sont tout ce qui est banque d'images. On pensait que ce seraient les photographes qui seraient les plus impactés par ChatGPT, en l'occurrence par sa génération d'images de OpenAI. Et en fait, ce n'est pas du tout le cas. Ce sont toutes ces banques d'images qui, elles, effectivement, ont peu de valeur ajoutée, parce que c'est souvent de l'habillage de sites web, de slides, de machins, etc. Et eux, par contre, ça n'a aucune valeur ajoutée. Le photographe, c'est différent. Le photographe, il a une position personnelle, il a... Il crée des choses sur mesure, il a cette intention. Et donc voilà, c'est toute cette espèce de différence qu'on est en train de recréer, qui juste là n'existait pas puisqu'on n'avait pas le choix. C'était des humains systématiquement, donc le subjectif et l'objectif étaient intermêlés. Et tout d'un coup, on se retrouve à choisir et à dire, mais à quel endroit est-ce qu'en fait l'intention créatrice humaine est indispensable ? Et à quel endroit on peut considérer qu'on est dans une mission logistique et on peut le filer à la machine et on sera très content d'aller faire autre chose ?

  • Speaker #0

    On est un peu dans la différence finalement entre la démarche artistique qui est évidemment défendue par les artistes et à juste titre, et puis la création de contenu, où finalement la banque d'images, comme tu le disais, ça va servir à illustrer une présentation, ça va servir à habiller un site internet, mais il n'y a pas effectivement d'intention artistique derrière, même si ça n'enlève rien à l'esthétique potentielle des images. Est-ce qu'on n'arrive pas finalement sur la question peut-être de l'intuition, de l'imagination qui va manquer à l'IA ? et qui fait encore qu'aujourd'hui l'artiste est pertinent. Et puis, par rapport à tout le contenu qu'on consomme sur Internet, et je choisis le mot contenu en connaissance de cause, on ne consomme pas, je dirais, le même contenu sur YouTube, enfin en tout cas les mêmes images sur YouTube, que ce qu'on va aller voir dans un cinéma d'arrêt d'essai. Donc la différence, pour ce que j'en comprends, se fait là, aujourd'hui. Est-ce que demain on peut imaginer d'aller plus loin ? Je rebondis sur ce que tu disais au départ sur le fait que les réponses de Tchad GPT sont parfois surprenantes et moi il m'arrive d'être agréablement surpris, même si c'est fait de manière tout à fait logique finalement les résultats qu'ils nous renvoient. Mais est-ce que demain finalement cette barrière ne va pas s'estomper, voire disparaître complètement ?

  • Speaker #1

    C'est un vrai sujet de société qui est hyper intéressant parce qu'on sent bien que, en fait, est-ce que l'IA peut avoir de l'imagination ? Est-ce qu'elle peut avoir de l'intuition ? C'est pas le vrai sujet. Le vrai sujet qu'il y a derrière, c'est au fait, c'est quoi l'imagination ? Et c'est quoi l'intuition ? Parce que quand on voit ce que fait ChatGPT, de l'extérieur, ça peut y ressembler. Ça peut vraiment y ressembler. Et en fait, ça oblige à faire la distinction entre la manifestation de ce concept et sa réalité intrinsèque. Est-ce que la manière dont ChatGPT fonctionne, cette espèce d'enchaînement statistique, pour rappel, ChatGPT, ça produit une suite de mots statistiquement cohérentes à partir d'un ensemble gigantesque de données observées. Mais c'est une suite statistique, c'est-à-dire que c'est comme quand on appuie sur le mot du milieu sur son téléphone quand on fait un SMS, c'est la même mécanique. Sachant ça, est-ce qu'on peut considérer qu'il est imaginatif ? Et la question que ça renvoie, c'est de dire, est-ce que nous les humains, est-ce qu'on a quelque chose de réellement plus fort, plus original, plus transcendant peut-être que ça, dans notre processus créatif à nous, notre processus imaginatif ? En fait, est-ce que l'imagination ça a un sens en tant que tel ? Est-ce qu'on peut considérer que c'est plus que de la recombinaison et du hasard ? Est-ce qu'il y a autre chose que ça ? Et en fait... La raison pour laquelle on s'écharpe sur ce sujet-là, c'est parce que ce n'est pas clair. Et en fait, cette zone d'inclarité, elle crée de l'inconfort. Je pense que les revendications souvent s'appuient sur des zones de flou cognitif qui créent de l'inconfort. Il est là l'inconfort, le malaise. C'est qu'on se demande finalement, cette revendication est aussi forte qu'elle est faible dans sa conviction profonde. Est-ce que vraiment la machine n'imagine pas ? C'est difficile à dire. On se doute bien qu'elle imagine quand même un truc. On espère que l'humain imagine mieux que ça. ou dans un processus plus complexe, plus intéressant, plus efficace. Mais quelque part, on se pose la question. Et en même temps, il y a un double sujet qui vient créer cette pression, cette tension émotionnelle. C'est qu'il y a une revendication du milieu artistique et globalement des compétences créatives à être reconnues. Et donc la tension, elle est terrible. Elle est terrible parce qu'il y a une espèce de prise en étau entre tout d'un coup un acte artistique qui, socialement, n'est pas assez reconnu. On sent que... Il n'y a pas toujours toute la valeur, toute l'importance donnée par notre société aux actes artistiques, à l'éducation culturelle autour de ça, à la découverte, à la sensibilisation. Donc il y a tout un milieu qui est un peu, je dirais, un petit peu bafoué de ça, qui en tout cas aimerait que ce soit différent. Et en même temps, on a l'IA qui arrive et qui dit « en fait, moi je sais faire » . Je dirais que le combo des deux est assez difficile. Et donc c'est sûr que le... C'est assez fascinant puisque de tous les milieux qu'on observe dans leur rapport à l'IA, c'est certainement un de ceux qui a le rapport le plus conflictuel et c'est hyper intéressant. Et quand on regarde les objets imparents, c'est hyper normal. La question de l'originalité de l'IA, elle est prise en étau d'une manière terrible et ça renvoie à des questions philosophiques qui sont tellement complexes qu'il n'y a pas d'autre réponse aujourd'hui qu'idéologique. On peut positionner une réponse idéologique à est-ce que l'IA est imaginative ou non, mais on ne peut pas vraiment y donner une réponse qui soit définitive ou technique ou même... même psychologique, on n'a pas les réponses à ça aujourd'hui.

  • Speaker #0

    Et c'est des débats qui ne seront peut-être pas tranchés de sitôt, voire jamais, où il faudra au bout d'un moment, si on ne veut pas adhérer à une idéologie, et ce serait compréhensible finalement qu'on veuille éviter ça, peut-être trouver quelque chose qui fait consensus, pour ensuite définir des positions éthiques par rapport à l'IA, par rapport à sa place finalement dans nos vies, et par rapport à la création, qui est un sujet parmi d'autres. Justement, toi aujourd'hui, même si on est finalement un peu... Au balbutiement de l'IA et de ce que la révolution IA nous promet, quelles sont les principales questions éthiques que tu identifies dès aujourd'hui sur lesquelles on peut travailler ?

  • Speaker #1

    La question de l'identité, elle est hyper importante. C'est un robot qui se présente comme un humain, c'est un problème. Et ça pose des questions éthiques parce qu'on sait qu'il y a des cas où ça pourrait aider. Et donc ça pose d'autant plus de problèmes. C'est-à-dire que, par exemple, on sait que dans le vieillissement de la population, l'IA va jouer un rôle considérable pour faciliter la logistique médicale, pour aider la surveillance, télésurveillance médicale, etc. Il y a plein de sujets qui sont liés à ça. L'un d'entre eux, c'est la présence. Et en fait, on sait aujourd'hui faire, et depuis un certain temps, des robots qui simulent une présence. Donc on sait le faire de mieux en mieux. Des robots qui semblent présenter des émotions à un visage, etc. C'est terriblement difficile comme sujet, c'est un vrai dilemme, parce que le fait que ça fonctionne tient du fait que l'on trompe la personne. Puisque factuellement c'est un bout de plastique avec des puces, donc il n'y a pas grand-chose dedans. Et pour autant, la question de l'isolement, etc. Et en même temps, on aimerait bien le résoudre autrement, ce problème. La question de l'isolement, c'est un terrible fléau de notre époque. Et on sait en plus que globalement, cette question-là de la relation humaine artificielle, elle va se poser à tous les niveaux. C'est-à-dire qu'on sait qu'on a des enjeux psychologiques terribles. On sait que la solitude et l'isolement sont des sujets de notre époque qui sont en train d'apparaître. La santé mentale, c'est assurément un sujet énorme aussi. Donc il y a toute une tentation d'aller vers, finalement, résoudre ça, ou en tout cas faire une proposition avec de la relation artificielle. Évidemment, l'industrie cinématographique s'en est remparée, bien sûr. On pense ne serait-ce qu'au film Heure, par exemple, cette espèce de relation romantique artificielle. C'est évidemment un énorme dilemme éthique, c'est un problème. Alors des dilemmes éthiques, on en a quand même un paquet. Par exemple, la voiture autonome, c'est le plus classique. Est-ce que la voiture va écraser trois personnes âgées ou un enfant ? Qu'est-ce qui est le plus acceptable ? Alors le vrai problème de ce dilemme, ce n'est pas en soi qu'est-ce qui vaut le plus entre une vie ou une autre. Le problème, c'est surtout qu'on se retrouve à devoir l'écrire noir sur blanc. Parce que historiquement, en fait, le problème a toujours existé. N'importe qui doit prendre des décisions dans sa vie avec des dilemmes qui sont parfois impossibles. Mais comme on a une industrialisation du processus de conduire, et que ce processus de conduire peut impliquer des choix majeurs, on est obligé de faire ses choix par avance. Et on aura les mêmes problèmes dans tous les secteurs. Par exemple, dans le médical, si on commence à mettre en place de l'IA qui, à un moment donné, propose des solutions à des cas qui sont un peu extrêmes ou avec des... avec des dilemmes, l'IA, on va devoir écrire dans son code noir sur blanc quelle est sa méthodologie de résolution du dilemme. Et donc finalement, c'est un processus éthique. Et c'est finalement pas tant l'éthique, le problème, que la nécessité, je dirais, extrêmement imminente d'aller trancher ce vieux débat. Et de tout d'un coup prendre position, parce que l'IA, c'est du code, c'est noir et blanc. Donc à moins qu'on décide de fermer les yeux et de dire, fait aléatoirement, jette une pièce en l'air, ce qui est encore plus inacceptable. on va devoir trancher sur une éthique, on va y être obligé. Et donc c'est ça la vraie difficulté de ce point de vue-là. Après, il y a beaucoup de problématiques éthiques également au niveau de la donnée, puisqu'on sait qu'aujourd'hui on est sur une vague d'IA qui dépend de la donnée pour fonctionner. Et donc la donnée aujourd'hui a été quand même lourdement piratée. Ce sont assurément des big companies qui s'excusent après, mais qui ne demandent pas l'autorisation avant. C'est une manière d'adresser le monde. Clairement, l'univers dans lequel on rentre aujourd'hui économiquement, semblent valider ça. C'est terrible à dire, mais c'est vrai. Entre la violence chinoise qui a très peu de respect de la propriété intellectuelle et les Etats-Unis qui commencent à être de plus en plus pirates eux-mêmes à tous les niveaux et ils rattrapent le coup après. En fait, c'est terrible à dire, mais de plus en plus on va vers une guerre économique qui est de moins en moins respectueuse des lois, des conventions, etc. C'est terrible, mais il faut le prendre en compte. On va voir si ça se régule dans le temps qui vient, mais aujourd'hui c'est le cas. Et en fait, la guerre... qu'est l'intelligence artificielle, c'est une guerre politique, c'est une guerre d'influence, c'est une guerre économique. Et donc forcément, ça devient de plus en plus aussi une zone de non-droit. C'est terrible à dire, mais ça devient un tel enjeu que récupérer la donnée, y compris à l'insu des utilisateurs, ça va devenir effectivement un enjeu demain. Ça l'est déjà aujourd'hui, puisque une grande partie du chiffre d'affaires des GAFAMI vient de la publicité. Et donc, qui dit publicité, dit données. Aujourd'hui, on sait faire de la publicité qui marche parce qu'on a les données des utilisateurs. Donc beaucoup d'enjeux à cet endroit-là. Et enfin, le dernier dilemme que je citerai, il est énergétique, puisque tout simplement, encore une fois, aujourd'hui, on sait que l'IA consomme énormément d'électricité et qu'en même temps, on va réussir à réduire un peu la puissance nécessaire, ce qui n'est pas parti pour ça. C'est-à-dire que globalement, même si on a régulièrement des... Là, par exemple, on a eu récemment deux modèles chinois qui sont beaucoup moins consommateurs que ChiaGPT, il n'empêche que malgré tout, on reste sur des systèmes qui sont très consommateurs et dont la puissance, l'efficacité est liée à leur consommation électrique. Donc, de facto... quand on augmente l'un, on augmente l'autre, il n'y a pas le choix. Et en fait, on va devoir prendre la mesure de ça, puisque tout simplement, non seulement ces modèles consomment, mais en plus on est en train de les massifier. Aujourd'hui, il y a moins d'un millième de pourcent de l'IA qui est exploité par les entreprises. C'est très très très faible. Et donc on va commencer à l'exploiter massivement et demain ça va être la première force de production des entreprises, ce sera l'IA. Et donc là, la consommation électrique qui en découle, elle est forcément considérable, mais c'est peut-être une bonne chose. C'est une bonne chose à condition qu'on gère notre transition énergétique de manière correcte. qu'on s'occupe correctement de tous les enjeux écologiques qu'on a, parce qu'il n'y a pas que le carbone, il y en a tout un paquet, avec en particulier l'effondrement de toutes les espèces, on a un nombre d'enjeux écologiques qui est absolument énorme. Donc on peut utiliser l'IA pour ça, on peut prendre en compte les infrastructures pour ça, et ça va peut-être nous permettre même d'avoir une société, je dirais plus juste, qui soit finalement de l'IA pour le bien du plus grand nombre, où on prend soin de tous en ayant de l'IA qui est au service de chacun, que ce soit parce qu'on la met au service du médical, que ça permette aux gens de moins bosser, qu'il y ait moins de pression sur les individus pour tout simplement avoir une performance économique. Donc finalement, l'IA dans ce dilemme-là, elle a un rapport très paradoxal. Pour avoir une meilleure société, il faut qu'on ait plus d'IA, c'est un levier extraordinaire. Pour mieux gérer les enjeux écologiques, c'est aussi une bonne idée d'avoir de l'IA. Et en même temps, l'IA tire sur une de nos ressources les plus précieuses pour l'écologie, qui est l'électricité. Donc c'est une relation complexe. On ne peut pas juste dire que l'IA est en antinomie de l'écologie, ce n'est pas vrai.

  • Speaker #0

    Oui, c'est effectivement plus complexe parce que les bénéfices ont un coût, mais la question est de savoir en fait dans quelle mesure ce coût est acceptable par rapport aux bénéfices qu'on en retire. Donc après, il y a effectivement tout un débat à avoir sur ces questions-là pour déboucher éventuellement sur des règles. Et si on se penche sur les règles, l'Union européenne a fait le choix justement de réguler l'IA. Donc il y a eu tout un débat sur le fait que l'UE ait raison ou non de le faire et je ne veux pas refaire ce débat-là aujourd'hui avec toi. Néanmoins, ça pose quand même la question de savoir quelle est la pertinence de la législation par rapport à la vitesse à laquelle la révolution technologique nous arrive. On a vu ces derniers temps des nouveaux modèles qui ont été annoncés, DeepCycle, le modèle chinois, le nouveau modèle d'OpenAI, le O3 Mini, qui amènent chaque fois de nouvelles fonctionnalités et on parle en fait pour le moment que de modèles de LLM. Demain, on aura sans doute d'autres applications, d'autres formes d'IA. Donc, pour le faire de manière plus courte, comment s'assurer que notre législation reste pertinente ? Va-t-il falloir légiférer très régulièrement ? À ce moment-là, ça remet peut-être en cause le processus législatif tel qu'il existe aujourd'hui. Et si on estime qu'il est trop lent, ça prend le risque aussi de dire, comment dire, d'aller vers un laisser-faire. Donc où mettre le curseur en fait sur cette manière d'aborder la législation ?

  • Speaker #1

    Ce qui est sûr, c'est qu'effectivement ce système est trop lent. Il n'est pas adapté à la vitesse des évolutions modernes. Et on pourrait se dire, c'est le système qui va trop vite, ralentissons un peu, ce n'est pas grave, ça nous laissera le temps de légiférer. Mais en fait, c'est une idée catastrophique, puisque d'abord, ce sont des innovations, si on prend juste l'objet en soi, ce sont des innovations qui nous profitent, qui ont beaucoup de valeur. Je parlais du médical, par exemple, parce que ce sont souvent les innovations qui mettent tout le monde d'accord. L'impact de l'IA sur la capacité à détecter, par exemple, les maladies de manière précoce. C'est un impact qui est considérable. On ne peut pas se dire qu'on va attendre ça un an de plus le temps que les bureaucrates fassent leur boulot. Ce n'est pas possible, c'est absolument inentendable. Ça, c'est le premier point. Le deuxième, c'est qu'on a deux blocs autour de nous, le bloc chinois et le bloc américain, qui sont en train de mettre une énergie absolument considérable sur ce système qu'il y a. Ils savent que c'est l'enjeu de demain. Et chacun avec leur force et leur faiblesse. On savait que la Chine, à un moment donné, était en train de mettre un gros coup de fouet. L'élection de Trump a, je dirais, amorcer une lecture du monde vis-à-vis de ça qui est brutale, dans laquelle effectivement, on va compenser en tout cas, on va choisir cette stratégie je dirais de la force brute quitte à assécher tout le reste puisque très tranquillement, à côté de ça, Trump est en train d'assécher tous les budgets qui sont liés à l'éducation, la culture, la santé, etc. Il se sert librement partout ailleurs. Et donc voilà, on se retrouve entre... quand même deux blocs qui je dirais déploie une force considérable l'annonce effectivement du projet Stargate 500 milliards c'est un chiffre qui est juste gigantesque 500 milliards on verra si on les obtient réellement ou pas on verra ce qu'ils en font surtout mais ce que ça dit c'est qu'on est on est dans un dans une course extrêmement violente et c'est pas une course juste technique ou économique c'est une course géopolitique course à la domination, avec des acteurs à l'intérieur qui sont expansionnistes, que ce soit de l'expansionnisme politique pur ou de l'expansionnisme idéologique. Et l'expansionnisme idéologique, en ce moment, il fait beaucoup d'aller-retour, il est assez complexe, il y a des enjeux majeurs, on a des choses qui se passent dans le monde aujourd'hui sur le plan idéologique qui sont très complexes, et l'IA, aussi étrange que ça puisse paraître, est liée à ça, puisque tout simplement, les États, les idéologies qui s'emparent de l'IA, qui savent la manier, tout simplement, gagnent en puissance, ils sont capables de se... de montrer leur force et de conquérir du terrain. Et donc l'IA devient un enjeu absolument majeur. Et c'est ça d'ailleurs toute la problématique du bloc chinois comme du bloc Trump, si je peux l'appeler comme ça, puisque je ne pense pas que Trump résume tout le bloc américain, mais il montre bien en ce moment le fait que Trump porte une idéologie qui est très forte vis-à-vis de plein de choses. Et donc c'est ça la vraie crainte aujourd'hui. Elle est certes économique, mais il y a aussi le fait qu'on a quand même deux visions du monde très spécifiques, rétrogrades quand même sur pas mal d'aspects des deux côtés, qui... porte ses puissances industrielles majeures. Et donc on a la responsabilité de ne pas se laisser, je dirais, couler derrière ça, puisqu'on a notre propre vision du monde, avec nos propres valeurs, et donc cette volonté de légiférer. Spontanément, on se dit qu'elle est au service de nos valeurs, ce qui est naturel, on se dit qu'on fait des choses dans le cadre qui est le nôtre. Mais dans un monde où ça va si vite, on est aussi en train de tirer contre notre camp. Et il n'y a aucun cas où on peut se permettre d'être aussi lent, et de prendre autant de temps. La bonne nouvelle, c'est que la législation, quelque part, ça peut être une force quand c'est fait de la bonne manière. Au moment, ça nous a servi de manière défensive, c'est une protection temporaire. Mais si on peut réguler, on peut aussi avoir des cadres d'exception. On peut aussi avoir une capacité à légiférer de manière beaucoup plus rapide, avec des instances exceptionnelles. Et c'est peut-être ça qui nous manque, finalement. C'est pas tant la capacité à arrêter de légiférer ou à tout laisser faire, que la capacité à repenser radicalement la manière dont sont pensées les instances qui légifèrent, de telle manière... à ce que toutes ces initiatives puissent trouver une place rapidement et au contraire, faire du légal des cadres qui finalement accélèrent. C'est-à-dire qu'on peut même imaginer effectivement, tout simplement, je dirais, des passerelles, des ouvertures, des trous de renards juridiquement parlant, qui sont encadrés mais qui sont prévus très vite et volontairement pour que justement ces innovations puissent apparaître. Ça, c'est à l'envers de ce qu'on pense aujourd'hui actuellement, puisqu'on pense en... On pense en ceinture de sécurité, alors qu'en fait, on devrait penser en trou dans le mur. Le but, c'est de passer de l'autre côté au bout d'un moment. Ce n'est pas que d'avoir des murs. Et ça, c'est certainement une excellente chose qu'il faut qu'on fasse. En tout cas, on en a besoin. On en a besoin parce qu'on ne peut pas avoir finalement un bloc européen, un peu de seconde zone qui se laisse attaquer. Alors que malgré tout le discours qu'on peut avoir des Américains ou d'autres, c'est une technique aussi d'avoir un discours pour zapper les forces. Quand vous dites... personne ou un ensemble de personnes, vous êtes nuls, vous n'y arriverez pas, laissez-nous faire, c'est tout aussi certainement faux qu'une mécanique pour zapper l'énergie des autres. Et donc il ne faut pas se laisser faire là-dessus. Et il faut se rappeler qu'effectivement, en Europe, on a des faiblesses. On manque d'une vraie Europe unie, puissante. Mais on a aussi une force économique, intellectuelle, technologique, industrielle qui est très importante. Il nous manque un projet. On n'a pas de projet. Il y a un truc là-dessus. Légiférer, clairement, n'est pas suffisant. C'est un bouclier temporaire qui ne suffira pas. Mais on a une puissance disponible et ça, il faut s'en rappeler.

  • Speaker #0

    Oui, on a peut-être une troisième voie à trouver, à créer, à condition qu'on soit capable de mobiliser nos forces. Et ce qui fait notre spécificité finalement en tant que culture, qu'ensemble de culture finalement, puisqu'on est 27. Donc il reste une voie pour l'Europe. On n'est pas condamné à être bloqué dans la course américano-chinoise.

  • Speaker #1

    J'espère, j'espère. Je pense qu'il va falloir qu'au final, qu'on s'autorise.

  • Speaker #0

    à clamer ce qui fait aussi notre particularité. Je pense que l'Europe porte des valeurs. Je pense que c'est aussi ce qui la définit. C'est ce qui fait qu'à un moment donné, on est dans l'Union européenne où on ne l'est pas, on est dans l'Europe où on ne l'est pas, on est dans un agrégat économique ou géopolitique ou un autre. C'est aussi des éléments de valeur. Tous ces éléments-là sont liés, ces points communs sur les normes. Ce qui fait qu'à un moment donné, un produit est acceptable dans une région économique donnée, est lié aux normes qu'ils ont en commun, etc. Et ces normes, elles représentent aussi le niveau d'exigence qu'on se donne vis-à-vis de nos individus. La législation en commun, le fait de permettre ou pas certaines formes de contenu. Tout ce qui fait que des fois, les géants américains sont bloqués aussi quand ils arrivent en Europe sur leur manière de fonctionner, la nécessité d'une modération. Tout ça correspond à notre idéologie, notre manière de protéger les individus, d'en prendre soin et de créer la société de demain. Cette vision-là, je pense qu'il faut la revendiquer beaucoup plus fort. Elle est aussi une puissance et elle mérite, je dirais, d'avoir sous la main à disposition un bras armé qui soit géopolitique, industriel, économique. Parce que c'est notre vision du monde, elle n'est pas très claire, on ne peut pas dire qu'il y ait une idéologie européenne, mais on a nos spécificités, et même si on n'est pas à 100% raccord là-dessus, ça vaut le coup de le porter, parce qu'en face on a un modèle chinois et un modèle américain qui ne sont pas plus unis si on regarde dans le détail, mais qui sont en train de se porter. On a intérêt certainement d'avoir une contre-proposition, de démarquer ça, en tout cas de se laisser la force d'exister demain, puisque je pense qu'il y a besoin effectivement que ce bloc européen soit présent. ne serait-ce que pour un équilibre des forces de ce point de vue-là. On en a terriblement besoin. Et clairement, ça va passer par les technologies. Aujourd'hui, cette guerre, elle est technologique.

  • Speaker #1

    Oui, c'est un peu une course à l'espace, comme on a pu connaître du temps de la guerre froide, mais où l'IA finalement remplace les fusées, même si les fusées sont aussi d'actualité ces jours-ci. Si on revient sur la question de l'innovation, on a vu arriver DeepCycle, le modèle R1 de DeepCycle, qui est open source. et qui a priori a été entraîné pour quelques millions de dollars, ce qui fait quand même une sacrée différence par rapport aux modèles qu'on a pu voir outre-Atlantique. Mais DeepSea qui est open source, tout comme les modèles Lama de Meta. Donc est-ce que ces modèles-là, c'est la voie à suivre pour une vraie démocratisation de l'IA ? Ou est-ce qu'on est un peu condamné, si on reste sur le modèle peut-être d'OpenAI, de Google ? à avoir un certain nombre de gatekeepers qui pourraient remettre en cause finalement une véritable démocratisation. C'est-à-dire qu'on aurait accès à l'IA, accès à un certain nombre d'innovations qu'on pourrait créer nous-mêmes, sous réserve, encore une fois, de s'appuyer sur des plateformes comme on a pu le faire à l'époque du web, ce qu'on appelait le web 2.0, notamment pour la création de contenus. Quelle est ta vision, toi, par rapport à ça ? L'open source, est-ce que c'est la voie à suivre ? Est-ce que c'est une voie par rapport à d'autres ? Et comment s'assurer d'une véritable démocratisation de l'innovation ? Parle bien de l'IA.

  • Speaker #0

    L'open source, c'est un pouvoir extraordinaire. Facebook l'a poussé, il y a beaucoup d'acteurs technologiques qui le portent, tout simplement parce que c'est une des manières les plus puissantes et les plus efficaces que d'embraser le savoir-faire technologique global et de faire que chacun y contribue. Donc l'open source, c'est énormissime. Et le pouvoir de DeepSeek, c'est aussi... C'est aussi une force qui s'est appuyée sur l'open source existant, par exemple sur les travaux de Google. Et donc la réussite de DeepSeek, c'est aussi la réussite de l'open source, très clairement. Ce que je crains, c'est que ça ne dure pas éternellement. L'open source bénéficie à tout le monde, et donc c'est... comment dire ça ? C'est quelque chose qui, pour une logique, un état d'esprit qui est concurrentiel, bloc contre bloc. est antinomique avec cette vision du monde-là. Aujourd'hui, la chance qu'on a sur les open AI, etc., c'est que malgré tout, les évolutions technologiques sont encore assez ouvertes. On est dans un monde où on peut observer les choses qui se passent, il y a des publications scientifiques observables, il y a des propriétés intellectuelles qui sont gardées, mais pas complètement inaccessibles. Les innovations des uns sont, je dirais, des inspirations pour les innovations des autres. Et donc tout ça, je dirais, s'entremêle, ce qui fait que finalement, même pour des pays parfois qui ont un coup de retard ou qui ont quelque chose qui les a ralentis, ils peuvent rattraper comme ça. La Chine, par exemple, n'a pas toujours été le cheval sur lequel on allait parier pour être un des premiers, je dirais, athlètes de l'IA et des nouvelles technologies. Et pourtant, ils en sont là. Alors certes, ils ont une culture de la copie qui est considérable, mais il y a aussi le fait que globalement... Voilà, il y a cette interconnection du monde, ce mondialisme même on pourrait dire, qui fait que les choses circulent, les expertises, les savoir-faire, les connaissances. Ce qu'on pourrait craindre, c'est que demain ça se referme, dans une certaine mesure. C'est que, d'une manière ou d'une autre, ces blocs cherchent à refermer leurs frontières du point de vue de la connaissance et du savoir-faire, pour assécher les autres. Ça, ce sera un vrai risque. Un petit peu, finalement, comme on fait un siège, ce sera un siège inversé quelque part. C'est-à-dire, vous pouvez avoir accès à ce que je produis, mais certainement pas à comment je le produis. Et c'est là que ce serait vraiment inquiétant. Et donc, l'open source, c'est aussi, aujourd'hui... au-delà d'un objet économique ou d'une simple manière de penser la valeur, c'est un objet de stabilisation et de paix sur le plan économique mondial et géopolitique. Ça, c'est une réalité hallucinante, parce que il y a 20 ans encore, l'open source, c'était un peu un truc de hippie. On se disait, c'est sympa, mais c'est chouette. C'est ce qu'on pouvait se dire et c'est sympa, mais c'est pas un truc industriel, etc. Aujourd'hui, c'est quasiment une nécessité politique pour un minimum de... paix internationale et de développement des pays, en particulier ceux qui ont besoin aujourd'hui de rattraper un certain niveau technologique, c'est une nécessité absolue. Donc l'open source est clairement une excellente chose. Il faudra voir qui, dans les temps qui viennent, a intérêt à continuer de le pousser, puisqu'aujourd'hui ça reste pour une partie... Alors il y a des entreprises qui réussissent très bien grâce à ça, mais il y a aussi une dimension philanthropique et idéologique dans le fait de pousser l'open source. C'est pas une nécessité.

  • Speaker #1

    Donc on peut dire que Meta... Comment dire, une volonté philanthropique en poussant l'open source, il y a des vraies valeurs derrière ou c'est aussi opportuniste pour se distinguer plutôt de leurs concurrents ?

  • Speaker #0

    Je ne pourrais pas trancher où s'arrête la philanthropie et où commence la stratégie. Il se peut que ce soit très interlié à un certain niveau, mais assurément il y a aussi quelques acteurs clés chez Meta qui ont poussé l'open source. Je pense que Meta a beaucoup bénéficié de ça. Microsoft également a fait un tournant là-dessus il y a quelques temps. Mais clairement, il y a une dimension philanthrope dans cette idée-là. Et d'ailleurs, ce n'est pas un hasard si OpenAI a arrêté de faire de l'open source au bout d'un moment, parce qu'ils sont passés dans une approche plus mercantile, purement agressive, plus politique aussi. C'est un jeu de positionnement. Est-ce qu'on peut dire que Facebook est philanthrope ? On sait aussi que Facebook a été extrêmement agressif sur l'obtention de leurs données. Par exemple, ils ont lourdement pillé la data. qu'ils ne leur appartenaient pas, y compris en pillant le dark web pour aller chercher ce qu'ils n'avaient pas par ailleurs, très librement. Bon, voilà, ce n'est pas des enjeux non plus.

  • Speaker #1

    Oui, il faut restituer des choses qu'ils ont acquis par ailleurs de manière discutable. On peut considérer ça comme ça.

  • Speaker #0

    On peut dire ça, c'est Robin des Bois à l'envers d'une certaine manière.

  • Speaker #1

    C'est bien résumé. Si on parle de démocratisation, il va y avoir aussi une question au-delà de tous ces gens qui nous mettent à disposition leur technologie. Donc l'IA est toujours cette idée d'innovation. Si on veut la démocratiser, il va falloir la rendre disponible, mais aussi peut-être accompagner les gens dans leur utilisation. Parce que l'IA touche énormément de métiers, ça va continuer. Je pense qu'à terme, tous les métiers, toutes les industries seront impactées. Comment s'assurer finalement que l'aspect réfractaire, qu'on peut tout savoir, dont on parlait un peu plus tôt, on arrive à le gommer et à convaincre les utilisateurs ? et faire en sorte aussi qu'ils s'en servent correctement. C'est-à-dire, est-ce qu'il n'y a pas une grande démarche d'éducation, d'upskilling, de reskilling, en fait, qu'il va falloir mettre en place ? Et je soupçonne que la réponse soit un petit peu oui. Donc, dans ce cas-là, comment le faire ? Parce que c'est aussi... C'est un chantier où il me semble que les structures d'éducation ne sont peut-être pas totalement prêtes.

  • Speaker #0

    Oui, puis on ne sait pas ce que ça veut dire, une compétentia, en vrai. Aujourd'hui, quand on pense compétentia... On pense souvent au développement informatique. Alors certes, les programmeurs, les ingénieurs ont besoin de savoir faire de l'IA pour pouvoir soit concevoir des IA elles-mêmes, soit concevoir les systèmes qui en découlent, donc qui les intègrent, etc. C'est-à-dire quoi une compétence IA au-delà de ça ? Ça, c'est la bonne question. Parce qu'en fait, l'IA, de plus en plus, va devoir être intégrée à tous les niveaux. Si je fais un parallèle avec le marketing, par exemple. Le marketing c'est un des métiers qui a été le plus changé par le digital. Aujourd'hui être expert en marketing c'est globalement être expert en digital, être expert en data et aujourd'hui c'est être expert en IA. Être expert en IA du point de vue de ces métiers là qui sont verticalisés, c'est à dire dont le coeur du sujet n'est pas la tech, mais qui de facto sont techniques, pour la même raison que le digital a envahi absolument tout, l'IA a envahi absolument tout, il s'agit d'un bilinguisme en fait. Il ne s'agit pas forcément de devenir programmeur, C'est une bonne idée, toujours, de savoir faire deux, trois lignes de code, ça fait de mal à personne, mais ce n'est pas le cœur du sujet. Le cœur du sujet, c'est d'être capable de comprendre un peu comment ça marche. Quelles sont les faiblesses ? Quelles sont les forces ? Quelles sont les limites ? Pour être capable de trouver ce qui se passe, de trouver les solutions qui sont adaptées, comprendre comment elles fonctionnent, qu'est-ce qui est en train de se passer en ce moment, donc être capable d'avoir cette espèce de veille permanente, de comprendre qu'est-ce qui est en train de se produire sur le marché, et donc de mettre au service de son métier toutes ces nouvelles technologies qui apparaissent à travers les logiciels existants. Un expert marketing ne va jamais aller inventer ses propres solutions, par contre il y a un vrai enjeu à ce qu'il soit au courant de ce qui est disponible sur le marché et comment il peut s'en servir. Et donc, il y a une culture nécessaire, qui est indispensable. Mais encore une fois, si je fais le parallèle avec Internet, il y a eu une période où on a eu des formations pour les mails, une formation à Excel, une formation à Word. Il y a eu cette période-là. Aujourd'hui, ça nous paraît un peu lointain, mais ça a existé. On est un peu au même stade. Alors, on ne sait pas encore. Ce qui est incertain, c'est dans quelle mesure est-ce que l'IA va trouver une forme un peu unique. On n'est pas sûr que la manière dont on regarde l'IA aujourd'hui soit encore la même qu'on regardera dans 2-3 ans. Parce qu'il y a... On est en train de... Comment dire ça ? Il y a encore des surcouches, des manières de packager ça qui vont changer. Pas sûr qu'on continue de faire du prompting infiniment, finalement, par exemple. Voilà, des choses comme ça. Mais ceci étant dit, voilà, il y a une vraie compétence IA qui va être nécessaire, c'est vrai. Ce qui n'est pas forcément une compétence IA en soi, mais qui est certainement plus une compétence à faire le pont, explicitement et techniquement et concrètement, entre son cœur de métier verticalement parlant et toutes les possibilités technologiques qui sont mises à disposition par le marché. Et donc, oui... Ça va nécessiter de plus en plus de la réorganisation des connaissances, du relearning permanent. Et on sait d'ailleurs que les métiers vont changer de plus en plus vite. On sort complètement d'un monde dans lequel on faisait des études et puis on bossait toute la vie sur le même métier. C'est une vision qui déjà depuis un certain temps est fausse, mais elle l'est encore plus aujourd'hui. Et donc les compétences ont vocation à périmer de plus en plus vite. Et donc la formation continue, mais aussi la reformation permanente. soit vers des nouveaux métiers, soit vers l'évolution de la métier, elle est absolument nécessaire. Il y a des métiers certainement qui vont un peu s'appauvrir, mais surtout il y a des métiers qui vont se transformer, et des nouveaux métiers qui vont apparaître. Et donc mécaniquement, on va rentrer dans un monde où il y a aussi un peu plus d'instabilité dans le travail, on pourra moins se dire qu'on se projette toute sa vie dans un métier X ou Y. Ça va aussi entraîner la nécessité d'aider, ou en tout cas d'assister, les individus à retrouver une stabilité là-dedans. C'est pour ça que... toutes ces questions de... On parlait parfois d'impôt sur l'automatisation ou de revenu universel. Je ne sais pas quelle est la bonne réponse, mais en tout cas, c'est une bonne question. Parce qu'à un moment donné, il va falloir se faire à l'idée qu'on ne pourra pas mettre sur les individus toute la charge de la complexité de la société qu'on est en train de créer, leur donner toute la charge de s'insérer dedans, sachant qu'elle devient de plus en plus éminemment complexe. Et donc, il va falloir faciliter cette insertion-là et il va falloir alléger le poids d'avoir du mal à s'y insérer. Et donc, le revenu universel va certainement être une nécessité morale absolue, a priori, dans le chemin qu'on prend d'avoir des industries de plus en plus automatisées, des industries de plus en plus efficientes et de plus en plus complexes, où l'IA est partout. L'IA et le revenu universel, c'est deux faces d'une même pièce, en vrai, en tant que projet sociétal. On peut difficilement penser l'un sans l'autre.

  • Speaker #1

    Est-ce que tout ça, ça n'implique pas aussi une... Un renforcement de la fracture numérique ou plutôt je dirais l'apparition d'une nouvelle fracture numérique parce qu'on peut tout à fait imaginer effectivement que le revenu universel devienne une nécessité, que certaines personnes ne puissent pas ou ne souhaitent pas s'insérer dans cette société de l'IA, de l'innovation permanente. Et on peut imaginer qu'il faille le respecter. Maintenant, si on met en place ce revenu universel avec des gens qui en bénéficieront et d'autres qui n'en auront pas besoin parce que complètement insérés dans la société numérique, Est-ce qu'on n'a pas de fait une société à deux vitesses ?

  • Speaker #0

    C'est un vrai risque, ça peut se produire et de toute manière ça va demander une réinvention du modèle. C'est-à-dire de dire à un moment donné, peut-être que c'est pas parce qu'on ne travaille pas qu'on n'a pas d'activité aussi. Peut-être que le travail et l'activité ne se confondent pas nécessairement. Peut-être même que la nécessité industrielle n'est pas la nécessité personnelle. Et donc, il va falloir repenser un peu les choses. On n'est pas prêts pour ça. Mais par exemple... Je pense par exemple à tout ce qui est troubles anxieux. On sait aujourd'hui qu'on a une part importante de la population qui souffre de troubles anxieux généralisés et donc ce sont des individus qui sont plus en difficulté sur des milieux à forte dose de stress ou très compétitifs, etc. De facto, on va vers un monde de plus en plus compétitif sur le plan professionnel parce que ce qui est simple est pris en charge de plus en plus par des machines. J'exagère, je ne le dis pas bien parce qu'il y a aussi beaucoup de métiers très complexes dans lesquels en vrai l'IA est présente par exemple. Tout ce qui est médical de haut niveau, l'IA est extrêmement efficace. Mais du coup, c'est intéressant. Ça veut dire que, que ce soit sur des métiers « simples » , ou des métiers sur lesquels on se dirait, on n'est pas sur des métiers qui demandent beaucoup d'années d'études, ou des métiers qui, au contraire, en demandent énormément. Pas pire qu'un chirurgien, je pense, en termes d'années d'études. Dans les deux cas, en fait, l'IA arrive. Et donc, de ce point de vue-là, la question va se poser de se dire, est-ce qu'on veut encore rentrer dans un système ? Est-ce que tout le monde a vocation à rentrer dans un système qui va devenir aussi complexe ? Peut-être que demain, on n'aura plus un master en 5 ans, mais un master en 10, ou une thèse prendra 15 ans, je n'en sais rien. En tout cas, ce qui est sûr, c'est que ce coût d'entrée va augmenter, puisque la société va se technologiser, elle augmente en termes de quantité de connaissances, et elle va de plus en plus vite. Et finalement la question c'est de dire ok, pour ces personnes là, je prends le trouble anxieux parce que ça me passe par la tête, ces personnes là qui sont en difficulté, en enjeu etc, est-ce que le premier enjeu c'est effectivement pas d'abord de leur foutre la paix et de dire ok, faites les choses à votre rythme, vous allez pouvoir réintégrer si vous voulez, là où ça vous intéresse, mais juste à un moment donné, la nécessité de travailler peut-être demain, juste déjà ne met pas en jeu votre existence première. Vous pouvez dormir la nuit sans craindre de mourir de faim, c'est ok. Je dis ça en France, on n'est pas les pires de ce point de vue-là. Mais voilà, on va devoir peut-être certainement normaliser ça. Mais demain, peut-être qu'effectivement, il y aura aussi une place à l'activité. C'est-à-dire de dire, la vie professionnelle ne prend pas toute la place. La vie collective, elle est hyper importante aussi. La vie familiale, certes, mais la vie artistique, la vie sportive, la vie de l'individu dans tout ce qu'elle a d'entier. Et en fait, ça va nous laisser la place et la nécessité d'aller aussi repenser la vie de l'individu, je pense, dans sa globalité. Et ça, ça va être une nécessité qui va faire aussi beaucoup de bien, parce que la place qu'on a pour des gens qui, entre guillemets, n'ont pas nécessairement besoin de travailler, c'est aussi de la place qu'on a pour faire du bien aux personnes. C'est-à-dire qu'on sait que globalement, si on s'occupait un peu mieux en moyenne des gamins à l'école, on aurait un taux, on aurait des prisons beaucoup moins peuplées d'abord, c'est une première dimension, mais aussi on aurait des lourdeurs sur le plan psychiatrique, psychologique, etc., beaucoup moins pénibles. Si on prend plus le temps pour... la santé, que ce soit sur le plan sportif, sur le plan de la nutrition, etc. Des problèmes à gérer, on en a. Si les gens ont un peu plus de temps, on sait quoi leur faire faire, on sait où on veut aller. Ce n'est pas forcément des sujets d'industrie de premier plan, mais ce sont juste des sujets de dire « Ok, on a de la place pour construire un monde un peu différent dans lequel on va mieux prendre soin des gens. » Ça, ça va prendre du temps et de la place.

  • Speaker #1

    C'est la redéfinition du rôle de l'individu dans la société qui aujourd'hui est quand même beaucoup liée au travail, à l'activité qu'on a, qu'on met en avant. Et on a raison de le faire parce que c'est aussi quelque chose qui nous définit, mais peut-être que demain, le travail ne nous définira plus, ou en tout cas beaucoup moins. C'est peut-être ça qu'on peut espérer avec tout ce que ça implique.

  • Speaker #0

    Oui, absolument. Et effectivement, comme tu le disais tout à l'heure, la question de la société à deux vitesses, il faut y faire attention, elle est inquiétante. En tout cas, elle pourrait créer un clivage important entre, par exemple, une hyper bourgeoisie ou aristocratie qui serait en charge de toutes les instances productives. Et de l'autre côté, je dirais une population qui serait plus oisive, ou en tout cas qui aurait une vie très différente, qui serait plus en charge d'elle-même. On peut imaginer sans dystopie là-dessus. On peut aussi imaginer sans utopie. Et ça, c'est la bonne nouvelle. C'est qu'on peut aussi imaginer plein de choses qui vont bien, mais il va falloir l'inventer. Ce serait bien que ça ne fasse pas que glisser lentement, comme un flanc sur une assiette penchée, mais qu'au contraire, on se prenne en main, et qu'on se dise, ok, qu'est-ce qu'on veut faire de ce système, et qu'on commence un petit peu à le construire. La bonne nouvelle, c'est qu'encore une fois, les nouvelles technologies laissent des possibilités. Et donc si on se bouge et qu'on commence effectivement à prendre soin nécessaire, on est en train de préparer une société dans laquelle on va pouvoir faire dix fois plus. Mais la réalité à prendre en compte aussi, c'est qu'en vrai, on est aussi dans une société, aujourd'hui même, ce jour, maintenant où je suis en train de parler, on est déjà dans une société qui est beaucoup plus efficiente qu'on ne l'était il y a cent ans. Et pour autant, on n'a pas infiniment réécrit notre système non plus. Tout va mieux depuis cent ans, sur tous les aspects, si on prend du recul, même si on regarde tous les jours nos difficultés, au global, tout va mieux. Mais on a encore des enjeux absolument majeurs qui sont extrêmement inquiétants, dont l'écologie dont on parlait tout à l'heure. Et donc, à un moment donné, la possibilité technologique, elle n'amène pas immédiatement une solution. Ça, c'est le risque. D'ailleurs, cette pensée-là s'appelle le solutionnisme. Le solutionnisme technologique, c'est l'idée effectivement que la technologie résoudrait immédiatement tout. C'est un levier formidable, mais elle ne se substitue en rien à la nécessité d'un projet politique, humain, économique. Et là-dessus, s'il n'y a pas de... de plan, il n'y a pas de plan. Donc on est juste en train de préparer le fait qu'on va être libre là-dessus et ce serait certainement bien que un projet expansionniste et réactionnaire à la Trump ne soit pas l'unique option sur la table.

  • Speaker #1

    Alors c'est intéressant parce qu'on ne va pas vraiment, que ce soit en Europe ou même ailleurs, mais on va peut-être rester sur l'Europe, de politique sans emparer de ce sujet. C'est-à-dire qu'on aborde l'IA d'un point de vue technico-technique, avec éventuellement les régulations qu'on évoquait plus tôt. Mais le bouleversement sociétal qu'on observe et qu'on va observer de plus en plus, c'est quelque chose qu'on ne voit pas vraiment dans les débats. On l'a vu lors des dernières législatives par exemple. Il y a évidemment d'autres sujets qui sont peut-être plus proches du quotidien de la plupart des citoyens. Mais c'est une question de méconnaissance du sujet, c'est une question de génération de la part de nos dirigeants. Est-ce qu'on peut espérer que ça fasse irruption ? Est-ce qu'on peut se dire par exemple qu'en 2027, pour la prochaine présidentielle, ça sera dans le débat ? J'en doute un peu, mais je me trompe peut-être.

  • Speaker #0

    Je pense qu'il y a une prise de conscience qui n'a pas encore été faite. Tout à l'heure, je disais, l'IA, il y a moins d'un millième de pourcent. qui a été impacté sur les économies. C'est pour ça qu'on ne le voit pas. Mais en vrai, quand ça va descendre, quand ça va prendre sa place, c'est énorme. Mais il faut le temps que les industries s'en accaparent, que depuis la technologie, on aille vers le produit, où le produit se verticalise, se déploie, se normalise. On va commencer par avoir les acteurs qui sont, je dirais, un petit peu en anticipation, ce qu'on appelle parfois les early adopters. Puis on va avoir le gros de la vague, puis les late adopters, etc. Ça prend un peu de temps. Et donc... Je dirais qu'il y a encore un peu ce côté effet d'annonce, où d'un côté il y a cet effet de stupéfaction, on se rend bien compte que ça va avoir un impact monumental, et une relative incrédulité en fait. Parce que quand je sors dans la rue tous les jours, ça ne change pas mon quotidien non plus. Ce n'est pas un robot qui me vend ma baguette de pain, je parle tous les jours avec du... Il n'y a pas, je dirais, le côté suffisamment stupéfiant encore pour se dire « Ok, ah oui, oups, il va se passer un truc gigantesque. » Et pourtant c'est là. Les compétences de l'IA aujourd'hui sont énormes. Elles l'étaient déjà avant Tchadjipiti. Il y a un enjeu de transition. Le temps de faire progresser ces technologies-là, ça prend du temps. Mais il n'y a pas encore eu, je dirais, une réalisation suffisamment forte de la part de nos politiques. Ce que je crains, c'est qu'ils soient un peu en coup de retard là-dessus. Je suis content que globalement... Alors, on va m'accuser de faire du jeunisme, mais je suis content qu'on ait des hommes politiques qui globalement... hommes et femmes politiques qui soient plus jeunes, qu'on ait plus de femmes politiques aussi d'ailleurs au passage, mais aussi qu'ils soient plus jeunes, on gagne certes en diversité, mais on a aussi besoin, je dirais, de personnalités qui sont profondément représentatives des sujets sur lesquels on a besoin de travailler. On a besoin d'un président, on a besoin de ministres, d'hommes et de femmes politiques qui comprennent ce que c'est la tech, vraiment, et qui soient capables d'en comprendre des enjeux et de se dire que oui, on est où on est. On va rentrer dans une société technologique. C'est soit ça, soit on arrête tout. Mais l'IA n'est pas une option. L'IA n'est pas juste un choix. Ce n'est pas une couleur qu'on pourrait choisir de mettre au mur ou pas. C'est le prolongement naturel de notre industrie. Il n'y a pas d'à côté. Donc, soit on arrête de faire évoluer notre industrie, soit on fait de l'IA. Il n'y a pas d'autre option. Et donc, il nous faut un projet pour ça. Et je suis d'accord avec toi. Finalement, ils n'ont pas beaucoup fait le boulot là-dessus. Je crois que les auteurs de science-fiction ont plus fait de boulot là-dessus. que nos experts politiques, alors qu'il y a besoin de créer un modèle. Et aujourd'hui, ceux dont on entend le plus parler sur ce sujet-là sont souvent, je dirais, des experts de la provoque. On a Laurent Alexandre, par exemple, qui a beaucoup parlé du sujet. Mais on n'est pas tant sur une proposition politique cohérente que sur une... Alors avec des éléments à l'intérieur qui sont très intéressants, mais qui sont provoquants et qui sont faits pour créer de la tension aussi dans cette histoire. Donc je ne dirais pas qu'on a... Je n'ai pas en tête un penseur, en tout cas une proposition politique du monde de demain qui se tienne, si ce n'est certainement dans la science-fiction et des penseurs très alternatifs. Ce n'est pas quelque chose qui est arrivé sur le devant de la scène.

  • Speaker #1

    Justement, si on se projette un peu, et là je vais t'inviter à faire de la prospective, et je sais à quel point c'est difficile, mais la technologie évolue de manière incrémentale, tu le rappelais, mais parfois il y a quand même des... des coups de boost assez incroyables, où d'un coup une technologie est disponible, comme ça a été le cas avec ChiaGPT, qui a pris un peu tout le monde par surprise. Si on essaie de se projeter dans les, peut-être pas les 20 ans à venir, mais les 5 à 10 ans, selon toi, quelles seraient les évolutions majeures qu'on peut attendre ? Et je rebondirais aussi sur un propos que Sam Altman a eu il y a quelques mois, où il disait que l'intelligence artificielle générale, la fameuse AGI, Le jour où elle arriverait, finalement, ce ne serait pas la révolution qu'on attend. Et que, ce n'est pas qu'on ne s'en apercevrait pas, mais quasiment. Donc toi, c'est quoi ta vision par rapport à ça ? Est-ce que tu penses que les GIs, effectivement, c'est pour demain ? Et est-ce que tu penses que ça sera aussi... Un dolor, un color, en fait, qui le prévoit ?

  • Speaker #0

    En fait, oui, c'est possible. Alors, le problème, c'est qu'on a des définitions très variables de l'IA générale. En fait, une des définitions possibles, c'est de dire une IA qui peut traiter de tous les sujets. Voilà. Ce que fait déjà un peu ChiaGPT d'une certaine manière. Pas absolument tous, mais... Et surtout, est-ce que ChiaGPT, c'est de l'intelligence au sens où on l'entendrait pour de l'intelligence artificielle générale ? Ça pose problème. La question se pose. Ce qui est sûr, c'est qu'OpenAI a pensé ChiaGPT dans cette direction-là. Est-ce que c'est vraiment le cas ? C'est difficile à dire. Parce qu'aujourd'hui, c'est une succession de modules qui s'enchaînent. C'est remarquable. Et en même temps, il y a une espèce de lecture de fond de l'AGI qui se voudrait plus élégante qu'on n'a pas encore trouvée. Est-ce que l'AGI, finalement, ce serait une IA qui est capable d'avoir conscience d'elle-même ? Ce qui a été aussi une des définitions qui a été donnée parfois. Un peu fantasque, qui se rappelle de la notion de... Comment appelle-t-on ça ? J'ai perdu le mot. le moment où l'intelligence humaine va croiser celui de la machine, je suis perdu le mot. Donc il y a aussi cette singularité. La G.I. et la singularité, ce sont deux concepts qui se tournent l'un autour de l'autre. On sent que ce sont des concepts qui gravitent ensemble, qui sont différents, mais qui gravitent un peu.

  • Speaker #1

    Il y a la question aussi de la dévision de la conscience. Si on va dans ce sens-là, on n'a pas encore défini correctement aujourd'hui.

  • Speaker #0

    Absolument. Et quand on a des news comme un chercheur chez Google, auraient démissionné parce que l'IA est consciente ou des choses comme ça. Qu'est-ce qui vous prend ? Vous n'avez vraiment rien compris à ce que vous êtes en train de faire. Vraiment, il suffit de comprendre comment fonctionnent les outils qu'on voit aujourd'hui pour comprendre qu'on ne peut pas parler de conscience. Pour autant, ça ne répond pas à la question. Qu'est-ce que c'est la conscience ? Comment ça fonctionne ? Alors, il se trouve que le sujet, le champ de la philosophie qui parle de ça, c'est mon préféré. C'est ce qu'on appelle « the hard problem of consciousness » , le problème difficile de la conscience en français. Et de tous les champs de la philosophie, c'est mon préféré. Il est absolument passionnant. Mais il est tout aussi difficile que passionnant. Il est vraiment d'une complexité énorme, puisqu'il interroge en fait la question de la subjectivité, de dire finalement, qu'est-ce qui fait qu'un humain a une expérience subjective du monde, plutôt que de juste témoigner, faire comme s'il en avait une. Et de la même manière, une machine qui dit j'ai mal, à partir de quel moment est-ce qu'une machine qui dit j'ai mal, elle fait autre chose qu'envoyer une suite de sons qui disent j'ai mal. À quel moment est-ce que ça fait sens pour une machine d'avoir mal, ou d'avoir une perception subjective ? On ne sait pas répondre à ça. On a un problème terrible là-dessus, on ne sait pas quoi en faire. Et donc même si demain on avait une intelligence artificielle qui soit, je dirais, sensible, ou qui ait une conscience, là pour le coup on ne saurait pas le détecter. Ça on a un vrai problème là-dessus, c'est-à-dire que faire comme si et avoir, on ne sait même pas ce que ça voudrait dire en fait avoir. En fait on n'a pas de définition. Donc là on est sur, à mon sens, on est sur un aporisme complet de tout point de vue. On n'a pas de savoir-faire ou de... de connaissances auxquelles on pourrait faire appel pour trancher ça aujourd'hui, il n'y en a pas. L'objet n'est pas sur la table, parce que ça invoque des questions, je dirais, philosophiques et même métaphysiques qui sont trop complexes. En fait, ça renvoie à des questions religieuses, en vrai. La question de savoir si l'humain lui-même est une machine, est-ce que c'est autre chose qu'une machine ? La question de l'esprit, de l'âme, etc. sont des questions qui en découlent aussi. On pense souvent à la vision un peu silicone, Valais du Monde, qui est très matérialiste et je dirais même un petit peu... athée du monde, mais il y a aussi toute une partie du monde pour qui la foi est centrale et pour qui la question de dire l'humain est une machine n'est pas possible. Et donc, la question de est-ce que la machine va avoir une âme à un moment donné ou pas, c'est un reflet de toutes ces questions-là aussi. C'est pour ça que c'est aussi complexe. Ce n'est pas une question purement technologique. Et du coup, l'AGI, ce qui est bien, c'est qu'on peut s'en soustraire quand même. Une des dimensions de l'AGI qui est un peu plus concrète, c'est-à-dire finalement, on aurait un système qui serait capable de traiter un peu n'importe quel type de problème, sans forcément qu'on le prédétermine beaucoup vis-à-vis de ça. Donc finalement, quelque chose qui se rapproche un peu d'une intelligence humaine, en tout cas telle qu'on se la projette ou qu'on se la fantasme, dire qu'il soit relativement capable de recréer ses propres contextes, ses propres, on va dire même, structures théoriques, sa propre cognition, sa propre manière de penser. Et ça, je dirais que ça correspondrait effectivement à une division les plus hautes et les plus estimées de l'IA qu'on puisse avoir, et même de l'intelligence au sens large. Donc ça, effectivement, on pourrait ne pas s'en rendre compte pour une raison très simple. c'est parce qu'on progresse séquentiellement. Donc on progresse petit à petit. Et donc un peu comme l'eau qui bout et on ne s'en rend pas compte de l'intérieur, de la même manière, effectivement, on se rend compte que probablement, l'IA va développer des compétences auxquelles on fera... Enfin, peut-être qu'on passera des seuils arbitraires comme celui-là auxquels on n'a pas fait attention. Et c'est plutôt une bonne chose que Sam Altman ait ce discours-là parce qu'on a eu aussi beaucoup de discours qui étaient catastrophistes sur l'IA ou des discours qui font peur. Et aujourd'hui, il faut savoir que souvent, ça coûte moins cher de faire une annonce catastrophiste que de dépenser dans de la communication et du marketing. Donc dire n'importe quoi, c'est une stratégie de marketing, et en IA, ça marche très bien, il faut s'en rappeler. Ok, donc plutôt rassurant par rapport à l'émergence de l'AGI, qui pourrait finalement être une espèce de système d'exploitation pour le monde, si on veut le voir.

  • Speaker #1

    Oui, après il y a la place qu'on lui donne. Alors après il y a l'idée de la super intelligence, on la voit par exemple dans Irobot, elle s'appelle Vicky, et on se rend compte d'ailleurs que c'était plus ou moins le méchant depuis le début, donc je ne spoil pas parce que le film a 20 ans, et il est libre encore plus. Mais voilà, effectivement, il y a cette idée d'avoir une super intelligence. Alors l'idée de la super intelligence, c'est un vrai fantasme. Il y a une vidéo YouTube qui m'énerve, qui a fait une quantité de vues incroyable, qui s'appelle l'usine à trombone. Alors l'usine à trombone, ça m'a rendu complètement fou. Alors vraiment, c'est pile poil la vidéo qui vient pile poil dans, je dirais, l'espace des fantasmes, exactement à l'endroit de ce que les gens ne savent pas, pour la plupart sur l'IA, pour faire croire à un scénario qui est absurde. complètement. L'idée qu'effectivement, à aucun moment donné... Alors oui, pardon, je le précise en deux mots. L'usine de trombone, c'est l'idée qu'une IA qui gère une usine de trombone, à un moment donné, sous la pression et la nécessité de produire toujours plus de trombone, va faire des choses de pire en pire pour arriver à son objectif, comme tuer des humains pour recycler leurs os en trombone, des idées de ce genre-là. Et donc, elle pourrait faire toutes les atrocités de la Terre pour arriver à son objectif. Évidemment que nous, les ingénieurs, quand on code, quand on fait des lignes de code... on a à peu près une idée de à quoi ça sert. Heureusement, sinon votre code broker, de temps en temps, qui lui-même est géré par des lignes de code, il passerait sur des chiffres aléatoires et personne ne serait content. Qu'on sait faire de l'informatique prédictible. Et l'informatique est prédictible par nature. Quand l'informatique devient chaotique ou aléatoire, on la fait volontairement. D'ailleurs, c'est une grande difficulté de mettre l'aléatoire dans des machines. C'est un savoir-faire spécifique. Et donc, il ne faut pas s'y tromper. Si on a une machine comme ça qui gère une usine de trombones, si à un moment donné, elle se met à faire des choses horribles pour arriver à ses fins, on l'aura. chercher explicitement, volontairement, ce sera écrit dans le code, on l'aura connecté à des systèmes, on aura mis des flingues quelque part dans l'usine, connecté à l'IA, on l'aura fait volontairement. Il n'y a pas de cas où ça peut arriver. Si l'IA déconne, c'est qu'on a prévu qu'elle puisse déconner, à un moment donné. Elle peut se tromper, on peut avoir un sous-calcul, etc. Mais si elle utilise un système, c'est qu'on la relie à ce système-là. Ça, c'est très important de s'en souvenir, il n'y a pas de câble magique qui serait connecté entre deux choses. Alors, après, Le risque qu'on craint parfois, c'est de la super IA qui commencerait à avoir une identité propre, qui pourrait aller hacker le web pour se reproduire elle-même sur les serveurs, etc. C'est fantasmatique, mais pas complètement fou. C'est-à-dire qu'on pourrait imaginer une IA qui est cette intelligence-là. Maintenant, encore une fois, on l'aura fait volontairement. C'est pour ça que l'enjeu finalement n'est pas tant une IA dont on perd le contrôle qu'une IA qu'on conçoit pour en perdre le contrôle. Ça, c'est plus l'enjeu. C'est pour ça qu'effectivement, la sécurité informatique va devenir un enjeu encore plus fort. dans le monde de l'IA. On va devoir de plus en plus sécuriser les systèmes aussi pour l'IA. On n'y est pas encore tout à fait, cette idée de l'espèce d'IA qui voyagerait comme ça de serveur en serveur en hackant les systèmes, mais c'est pas absurde, honnêtement. On a plein d'idées absurdes sur l'IA en ce moment, celle-là n'en est pas une. Pourquoi pas ? On pourrait avoir ça à un moment donné, mais clairement, l'enjeu principal, c'est les forces géopolitiques et les individus qui vont se servir de ça, puisque ce sera constitué par quelqu'un dans un objectif, certainement malveillant, et c'est ça l'enjeu. Et en fait, on ne va pas perdre le contrôle. Au contraire, on va avoir des gens très en contrôle qui vont se servir de ça contre d'autres personnes, contre d'autres blocs, etc.

  • Speaker #0

    Ok. Et pour terminer, une petite question sur un conseil que tu pourrais donner pour des gens qui s'intéressent à l'IA, pour peut-être des étudiants, des chercheurs, des jeunes chercheurs, des gens qui ont envie d'en bénéficier de manière vertueuse, bien sûr. Comment faire pour se former, pour être pertinent ? à l'ère de lire.

  • Speaker #1

    On me demande toujours, Thomas, c'est quoi les bonnes vidéos, les bons livres à lire, etc. Alors, j'ai sorti un livre, donc évidemment, je vous le conseille. L'IA en 50 notions clés dans la série Pour les nuls, qui fait un petit peu, qui fait lexique de tous les termes qu'on revoit beaucoup aujourd'hui. Ça aide. Il y a pas mal de vidéos et de cours en ligne qui sont intéressants, qu'on peut regarder, etc. Mon conseil, en vrai, j'en ai un. J'en ai un hyper important. Pratiquez. C'est-à-dire qu'il ne s'agit pas de coder, il s'agit d'aller tester. Vous avez un enjeu, prenez un projet. pour vous, pour quelqu'un, quelque chose qui vous intéresse et menez-le jusqu'au bout en faisant du chat GPT, un GPT, en faisant un peu de no-code, en allant chercher peut-être un deep-seek, un mistral, un perplexity. Connecter des objets entre eux en faisant du no-code ou utiliser une plateforme qui naturellement connecte d'eux. Tester un de ces générateurs de sites web assistés par IA, comme Bolt par exemple, des choses comme ça. Tester ces objets-là. Voyez comment ils réagissent, essayez de les comprendre. C'est pas de la magie noire, c'est à un moment donné... C'est un peu bizarre des fois, mais il y a une logique. Et en fait, il y a une seule intelligence. Je pense fondamental pour comprendre ces objets, c'est l'intelligence pratique. Il faut les manipuler, il faut regarder comment ils fonctionnent. Et quand je donne des conférences, j'en ai fait une soixantaine l'année dernière, entreprises, collectivités, associations tech, etc. Il y a un seul truc qui marche pour aider les individus qui ne comprennent pas ce que c'est à comprendre. C'est de la démonstration, c'est du test, c'est de l'expérimentation. Et donc pour des personnes qui veulent ne pas être larguées, qui veulent peut-être même devenir des sponsors, des experts de leur domaine, mais dans l'IA. Des collaborateurs qui aimeraient devenir des monsieur IA dans leur boîte ou devenir des sponsors de l'IA, il y en a besoin. Il y a vraiment besoin de, je dirais, de sponsors IA partout dans les boîtes. Il faut aller tester, il faut aller manipuler, il faut explorer, etc. Et en fait, il y a beaucoup de choses qui se font aujourd'hui à petite ou à grande échelle, avec du no-code, avec du low-code, avec des outils clés en main, etc. Et donc, il faut y aller, il faut tester, il faut exploiter, il faut s'amuser, il faut faire le lien. Et en fait, le monde de l'IA de demain, c'est celui des experts, je dirais même des... ultra-experts de leur métier qui seront intégrés de l'IA dans ce qu'ils font. Ce n'est pas celui des ultra-experts en IA en vrai. C'est celui des ultra-experts de leurs besoins qui vont venir intégrer l'IA.

  • Speaker #0

    On part du métier pour aller vers l'IA et non de l'inverse.

  • Speaker #1

    Oui, souvent.

  • Speaker #0

    Thomas, merci beaucoup. Où est-ce qu'on peut te suivre si on veut en apprendre plus sur l'IA ? Est-ce que tu publies régulièrement ? Est-ce que tu as un substac ? Est-ce qu'on peut te retrouver sur LinkedIn ? C'est quoi le meilleur moyen ?

  • Speaker #1

    On peut me retrouver effectivement sur LinkedIn, donc à Thomas Solignac. J'ai sorti un livre effectivement cette année qui raconte pas mal de choses. L'IA pour les nuls en 50 notions clés. Et je fais régulièrement quelques vidéos, articles, etc. sur LinkedIn. Et voilà, toujours welcome de recevoir un petit message privé ou une question. Vous êtes les bienvenus.

  • Speaker #0

    Très bien. Écoute, je pense qu'on n'y manquera pas. Merci encore.

  • Speaker #1

    C'est une joie. Merci beaucoup.

Chapters

  • L’innovation, une prise de risque

    00:00

  • L’impact de l’IA sur la créativité

    02:21

  • La notion d’imagination

    09:52

  • Leș principales questions éthiques

    14:38

  • Peut-on réguler une innovation fulgurante?

    21:33

  • L’open source et la démocratisation de l’IA

    30:20

  • L’IA pour tous: un enjeu d’éducation

    39:08

  • Vers une nouvelle fracture numérique?

    41:38

  • Les politiques en retard sur la révolution en cours?

    48:06

  • L’IA dans les années qui viennent

    52:08

  • Pratiquer l’IA

    01:01:30

  • Conclusion

    01:04:09

Description

Thomas Solignac est un entrepreneur français reconnu dans le domaine de l’intelligence artificielle, avec une double expertise en sciences informatiques et en philosophie.

En 2016, il cofonde Golem.ai, une startup pionnière dans l’IA symbolique appliquée à la compréhension du langage naturel. Fort de cette expérience, il lance en 2022 Kayro.ai, une société de conseil spécialisée dans l’identification et l’exécution rapide de projets stratégiques en IA pour les acteurs industriels et institutionnels. Kayro.ai se distingue par une approche pragmatique, orientée résultats, qui fusionne technologie, business et impact opérationnel.

A ce croisement, Thomas intervient dans plus de 70 conférences par an depuis 2018. Il accompagne entreprises et institutions dans leur compréhension et adoption de l’IA, avec des interventions à la fois inspirantes et ancrées dans la réalité du terrain.

En 2024, il publie “L’intelligence artificielle en 50 notions clés pour les Nuls”, un ouvrage de référence pour démystifier l’IA et la rendre accessible au plus grand nombre.

📌 Suivez Thomas sur LinkedIn : https://www.linkedin.com/in/thomas-solignac/

📖 Son livre, “L’intelligence artificielle en 50 notions clés pour les Nuls” : https://www.amazon.fr/Lintelligence-artificielle-notions-cl%C3%A9s-pour/dp/2412094969

🔹 En savoir plus sur Kayro.ai : https://www.kayro.ai


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour Thomas.

  • Speaker #1

    Bonjour Julien.

  • Speaker #0

    Comment est-ce que tu définirais l'innovation en 2025 à l'ère de l'IA ?

  • Speaker #1

    L'innovation c'est un terme aujourd'hui qui a une connotation très particulière. Innover à travers l'histoire ça se fait tout le temps, c'est une nécessité. Aujourd'hui quand on parle d'innovation de plus en plus, on fait référence à de la technologie. Heureusement il n'y a pas que de l'innovation technologique, il y a le fait d'avoir du progrès technologique. On a des choses qu'on ne savait pas faire avant qu'on fait maintenant. Mais en fait, des innovations, il y en a de plein de natures différentes. On parle aussi, par exemple, d'innovation d'usage. C'est-à-dire que ce n'est pas forcément quelque chose de complètement nouveau techniquement, mais la manière dont on s'en sert va être différente. Et ça va débloquer des possibilités, ça va apporter de la valeur. On parle aussi parfois d'innovation dans un modèle économique. Ça veut dire qu'en fait, tout simplement, on va vendre le produit d'une manière différente. Par exemple, on va pouvoir distribuer un produit. mettons gratuitement, mais en ayant une contrepartie nature différente, soit par exemple en captant de la donnée de manière explicite, en faisant de la publicité, etc. Et donc toutes ces mécaniques-là, dans lesquelles on vient réorganiser l'usage, le modèle économique, utiliser de nouvelles technologies, ou faire des choses qui avant n'étaient pas possibles, que ce soit par l'ingénierie, la science ou autre chose, tout ça on l'appelle de l'innovation. Avec cette particularité qui est quoi ? L'innovation, si on le prend dans sa définition la plus pure pour moi, c'est une prise de risque, c'est ça qui est très important, c'est-à-dire que... On va proposer quelque chose qui n'existait pas avant, qui est nouveau, et donc ça va avoir tout ce fardeau qui va avec, qui est considérable, puisqu'on ne va pas pouvoir s'appuyer sur des connaissances établies, sur un sentiment de familiarité. Et c'est un énorme fardeau quand on considère le fait qu'aujourd'hui les gens sont capables d'acheter parce que quelque chose est familier. Et donc l'innovation, certes, ça décrit une manière de se positionner qui est en différence avec l'existant, mais ça décrit aussi... une démarche, un ensemble de contraintes, de savoir-faire parfois, qui vont venir permettre de faire ça et de le rendre effectif, parce que ce n'est pas naturel en fait pour un marché d'innover. C'est même contre nature, c'est souvent par la force des choses que ça se fait. Et donc si on n'avait pas ces espèces de savoir-faire, de mécanique, d'énergie délirante qui vient compenser l'inertie, on n'aurait pas d'innovation ou elle serait très très lente.

  • Speaker #0

    Et l'IA aujourd'hui ? renforce ce besoin d'innover, même si effectivement on est tous un petit peu réfractaires par rapport au changement. Je pense que c'est un biais qu'on a collectivement en tant qu'individu et en tant que société. Aujourd'hui, on ressent une accélération de l'innovation elle-même et du besoin d'innover pour rester, je dirais, pertinent à l'ère de l'IA. Comment est-ce que tu penses que ça impacte nos processus créatifs et aussi peut-être la notion de bien-être ? dans une société, dans une organisation ?

  • Speaker #1

    L'IA, elle appelle plein d'innovations, c'est certain. Elle constitue une innovation en soi, puisque technologiquement, on observe un bond en avant. Il y a des choses qu'on ne savait pas faire avant, qu'on sait faire maintenant. La particularité de l'IA, c'est que ce qu'on pourrait appeler une technologie de fond, d'une certaine manière. Ce n'est pas tant une technologie qui fait quelque chose, c'est vraiment... C'est pour ça qu'on le compare souvent à Internet ou à l'électricité, il y a une espèce de savoir-faire un peu diffus et général. qui a plein de sous-ensembles de techniques d'ailleurs, et qui va permettre énormément de possibilités différentes. Si on prend le parallèle avec Internet, il y a certes l'innovation à un moment donné d'être capable de connecter deux ordinateurs n'importe où dans le monde, pour qu'ils puissent échanger de la donnée, que ces ordinateurs personnels échangent avec des data centers, etc. Tout le principe d'Internet est évidemment révolutionnaire en soi. Mais qu'est-ce qui va le plus marquer le quotidien en termes d'innovation liée à Internet ? C'est tout ce qui va en découler. Les amazones, les... la livraison à domicile, que ce soit de nourriture, de médicaments, de produits. On va avoir tous les services qui se digitalisent, la musique qui change de modèle économique. On a toutes les industries qui se sont réorganisées autour de ça. Et donc, l'innovation Internet n'est pas en soi l'innovation que portent les télécoms. Ce serait même plutôt toutes les innovations qui sont portées grâce à Internet par des entreprises qui vont apporter de la valeur un petit peu spécialisée, voire verticalisée.

  • Speaker #0

    Ok, donc... toujours sur la notion de création de valeur, que ce soit dans le processus créatif, dans l'organisation, je dirais. Comment, toi, tu entrevois le rapport, finalement, IA, homme, femme, on va dire, mais en tout cas le rapport IA humain, justement, dans cette création de valeur, dans le processus créatif ? Aujourd'hui, si on utilise des chatbots, comme ChatGPT, je pense qu'on le fait tous, on a tendance à lui poser des questions, on va prompter de manière plus ou moins savante pour arriver à avoir du contenu. qui nous permet de répondre à une tâche, à un besoin. Mais on est dans du génératif, c'est-à-dire qu'on se base sur des données. Si on va sur la création en elle-même, à quel point demain on pourra avoir, je dirais, un agent IA ou une IA tout court qui agit réellement comme un... Comme un collaborateur, comme un mentor, comme quelqu'un qui fait plus que ressasser finalement des datas qu'on lui a fournies, mais amène la création en elle-même.

  • Speaker #1

    Alors ça pose des questions assez profondes, puisque si je suis un peu provoquant, est-ce qu'un humain fait autre chose que ressasser des données ? Moi je suis partant du fait que oui, mais ça demande à être défendu, validé, prouvé. Et en fait, ce que ça dit en creux, c'est que certainement qu'en fait... Même en ressassant uniquement de la donnée, les machines sont déjà capables d'apporter énormément de valeur. Si on prend le cas de la créativité dans son sens le plus extrême, c'est-à-dire l'art, parce que la créativité est impliquée partout, l'ingénierie par exemple, c'est un domaine créatif par essence, mais l'art, c'est vraiment le truc où on dit « oui, c'est la créativité » . L'acte artistique transcendantal, entre guillemets, n'existe pas avec la machine, il n'a pas de sens. De la même manière que... La machine ne va pas produire une image par rapport à une histoire personnelle ou raconter quelque chose. Effectivement, elle génère une synthèse. En même temps, on sait qu'un humain, quelqu'un qui est en production artistique, lui-même fait appel à des choses qu'il a déjà vues, qu'il va restituer, qu'il va reproduire. Mais c'est là qu'entre guillemets se diffère la question de la production de la question de l'intention du geste. Et en fait, la même question va se poser à plein d'endroits. C'est-à-dire, par exemple, si vous avez la question d'avoir un thérapeute virtuel, ça c'est un... un des sujets de l'IA, qui est très vieux d'ailleurs, puisque Elisa, un des plus vieux chatbots, je crois que c'était années 70, Elisa, c'était un chatbot psychothérapeute, avec lequel il nous renvoyait des questions régulièrement, ce qui était déjà à l'époque très surprenant. Est-ce que ça fait sens quand, par exemple, un thérapeute dit « je vous comprends » ou « je suis désolé pour vous » , est-ce que ça a du sens quand c'est une machine qui génère cette phrase ? Ça pose des questions assez fortes. Donc ça, c'est un vrai enjeu éthique, puisque... Il y a aussi cette volonté de ne pas tromper, de ne pas dire à quelqu'un « je suis désolé pour vous » alors que c'est une machine qui parle, la machine n'est pas désolée, elle vient de produire une phrase. Donc là, il y a un phénomène de tromperie vis-à-vis de la personne en face et je pense que ça vaut le coup de s'en écarter et de dire « non, c'est pas vrai, on ne laisse pas la machine faire croire qu'elle est un humain » parce qu'effectivement, comme elle a été entraînée du langage humain, elle s'exprime en tant que telle quand même, ça n'a aucun rapport. Ceci étant dit, sur des choses plus produ... productives ou productivistes, en tout cas des actes logistiques, le fait d'être mentor, etc. Il y a plein de choses où l'IA fait appel à de la créativité tout le temps. Tcha Gpt et les LLM, de manière générale, font de la créativité. Ce n'est pas une créativité belle et pure et personnelle et subjective comme le fait un humain, ça n'a rien à voir. Mais c'est une créativité dans la mesure où ces systèmes-là sont capables d'aller piocher dans des objets de nature différente, de trouver des recoupements et avec une part de hasard, d'aller proposer des choses qui sont originales. original dans une certaine mesure bien sûr, mais suffisamment pour qu'on puisse parler de créativité. Et donc sur beaucoup de besoins où effectivement la créativité est impliquée, on peut être satisfait d'avoir de l'IA. Ça me semble absolument indiscutable. Maintenant effectivement, la critique que fait beaucoup le milieu artistique de dire mais laissez-nous faire notre boulot et puis on en a marre de voir des machines qui remplacent l'acte créateur humain qui est le plus précieux. Oui, mais ça nous met tout simplement face à une réalité, c'est qu'il y a une partie aujourd'hui du monde artistique qui est dans une position productiviste, et laquelle l'art ne se résume pas, et en fait ça oblige à lâcher un très lourd coup près entre les deux, de dire à quel endroit est-ce que l'acte créateur profond et transcendant est indispensable, et à quel endroit est-ce qu'on est dans de la production, par exemple de par la génération automatique d'images, une des industries qui prend le plus cher aujourd'hui. ce sont tout ce qui est banque d'images. On pensait que ce seraient les photographes qui seraient les plus impactés par ChatGPT, en l'occurrence par sa génération d'images de OpenAI. Et en fait, ce n'est pas du tout le cas. Ce sont toutes ces banques d'images qui, elles, effectivement, ont peu de valeur ajoutée, parce que c'est souvent de l'habillage de sites web, de slides, de machins, etc. Et eux, par contre, ça n'a aucune valeur ajoutée. Le photographe, c'est différent. Le photographe, il a une position personnelle, il a... Il crée des choses sur mesure, il a cette intention. Et donc voilà, c'est toute cette espèce de différence qu'on est en train de recréer, qui juste là n'existait pas puisqu'on n'avait pas le choix. C'était des humains systématiquement, donc le subjectif et l'objectif étaient intermêlés. Et tout d'un coup, on se retrouve à choisir et à dire, mais à quel endroit est-ce qu'en fait l'intention créatrice humaine est indispensable ? Et à quel endroit on peut considérer qu'on est dans une mission logistique et on peut le filer à la machine et on sera très content d'aller faire autre chose ?

  • Speaker #0

    On est un peu dans la différence finalement entre la démarche artistique qui est évidemment défendue par les artistes et à juste titre, et puis la création de contenu, où finalement la banque d'images, comme tu le disais, ça va servir à illustrer une présentation, ça va servir à habiller un site internet, mais il n'y a pas effectivement d'intention artistique derrière, même si ça n'enlève rien à l'esthétique potentielle des images. Est-ce qu'on n'arrive pas finalement sur la question peut-être de l'intuition, de l'imagination qui va manquer à l'IA ? et qui fait encore qu'aujourd'hui l'artiste est pertinent. Et puis, par rapport à tout le contenu qu'on consomme sur Internet, et je choisis le mot contenu en connaissance de cause, on ne consomme pas, je dirais, le même contenu sur YouTube, enfin en tout cas les mêmes images sur YouTube, que ce qu'on va aller voir dans un cinéma d'arrêt d'essai. Donc la différence, pour ce que j'en comprends, se fait là, aujourd'hui. Est-ce que demain on peut imaginer d'aller plus loin ? Je rebondis sur ce que tu disais au départ sur le fait que les réponses de Tchad GPT sont parfois surprenantes et moi il m'arrive d'être agréablement surpris, même si c'est fait de manière tout à fait logique finalement les résultats qu'ils nous renvoient. Mais est-ce que demain finalement cette barrière ne va pas s'estomper, voire disparaître complètement ?

  • Speaker #1

    C'est un vrai sujet de société qui est hyper intéressant parce qu'on sent bien que, en fait, est-ce que l'IA peut avoir de l'imagination ? Est-ce qu'elle peut avoir de l'intuition ? C'est pas le vrai sujet. Le vrai sujet qu'il y a derrière, c'est au fait, c'est quoi l'imagination ? Et c'est quoi l'intuition ? Parce que quand on voit ce que fait ChatGPT, de l'extérieur, ça peut y ressembler. Ça peut vraiment y ressembler. Et en fait, ça oblige à faire la distinction entre la manifestation de ce concept et sa réalité intrinsèque. Est-ce que la manière dont ChatGPT fonctionne, cette espèce d'enchaînement statistique, pour rappel, ChatGPT, ça produit une suite de mots statistiquement cohérentes à partir d'un ensemble gigantesque de données observées. Mais c'est une suite statistique, c'est-à-dire que c'est comme quand on appuie sur le mot du milieu sur son téléphone quand on fait un SMS, c'est la même mécanique. Sachant ça, est-ce qu'on peut considérer qu'il est imaginatif ? Et la question que ça renvoie, c'est de dire, est-ce que nous les humains, est-ce qu'on a quelque chose de réellement plus fort, plus original, plus transcendant peut-être que ça, dans notre processus créatif à nous, notre processus imaginatif ? En fait, est-ce que l'imagination ça a un sens en tant que tel ? Est-ce qu'on peut considérer que c'est plus que de la recombinaison et du hasard ? Est-ce qu'il y a autre chose que ça ? Et en fait... La raison pour laquelle on s'écharpe sur ce sujet-là, c'est parce que ce n'est pas clair. Et en fait, cette zone d'inclarité, elle crée de l'inconfort. Je pense que les revendications souvent s'appuient sur des zones de flou cognitif qui créent de l'inconfort. Il est là l'inconfort, le malaise. C'est qu'on se demande finalement, cette revendication est aussi forte qu'elle est faible dans sa conviction profonde. Est-ce que vraiment la machine n'imagine pas ? C'est difficile à dire. On se doute bien qu'elle imagine quand même un truc. On espère que l'humain imagine mieux que ça. ou dans un processus plus complexe, plus intéressant, plus efficace. Mais quelque part, on se pose la question. Et en même temps, il y a un double sujet qui vient créer cette pression, cette tension émotionnelle. C'est qu'il y a une revendication du milieu artistique et globalement des compétences créatives à être reconnues. Et donc la tension, elle est terrible. Elle est terrible parce qu'il y a une espèce de prise en étau entre tout d'un coup un acte artistique qui, socialement, n'est pas assez reconnu. On sent que... Il n'y a pas toujours toute la valeur, toute l'importance donnée par notre société aux actes artistiques, à l'éducation culturelle autour de ça, à la découverte, à la sensibilisation. Donc il y a tout un milieu qui est un peu, je dirais, un petit peu bafoué de ça, qui en tout cas aimerait que ce soit différent. Et en même temps, on a l'IA qui arrive et qui dit « en fait, moi je sais faire » . Je dirais que le combo des deux est assez difficile. Et donc c'est sûr que le... C'est assez fascinant puisque de tous les milieux qu'on observe dans leur rapport à l'IA, c'est certainement un de ceux qui a le rapport le plus conflictuel et c'est hyper intéressant. Et quand on regarde les objets imparents, c'est hyper normal. La question de l'originalité de l'IA, elle est prise en étau d'une manière terrible et ça renvoie à des questions philosophiques qui sont tellement complexes qu'il n'y a pas d'autre réponse aujourd'hui qu'idéologique. On peut positionner une réponse idéologique à est-ce que l'IA est imaginative ou non, mais on ne peut pas vraiment y donner une réponse qui soit définitive ou technique ou même... même psychologique, on n'a pas les réponses à ça aujourd'hui.

  • Speaker #0

    Et c'est des débats qui ne seront peut-être pas tranchés de sitôt, voire jamais, où il faudra au bout d'un moment, si on ne veut pas adhérer à une idéologie, et ce serait compréhensible finalement qu'on veuille éviter ça, peut-être trouver quelque chose qui fait consensus, pour ensuite définir des positions éthiques par rapport à l'IA, par rapport à sa place finalement dans nos vies, et par rapport à la création, qui est un sujet parmi d'autres. Justement, toi aujourd'hui, même si on est finalement un peu... Au balbutiement de l'IA et de ce que la révolution IA nous promet, quelles sont les principales questions éthiques que tu identifies dès aujourd'hui sur lesquelles on peut travailler ?

  • Speaker #1

    La question de l'identité, elle est hyper importante. C'est un robot qui se présente comme un humain, c'est un problème. Et ça pose des questions éthiques parce qu'on sait qu'il y a des cas où ça pourrait aider. Et donc ça pose d'autant plus de problèmes. C'est-à-dire que, par exemple, on sait que dans le vieillissement de la population, l'IA va jouer un rôle considérable pour faciliter la logistique médicale, pour aider la surveillance, télésurveillance médicale, etc. Il y a plein de sujets qui sont liés à ça. L'un d'entre eux, c'est la présence. Et en fait, on sait aujourd'hui faire, et depuis un certain temps, des robots qui simulent une présence. Donc on sait le faire de mieux en mieux. Des robots qui semblent présenter des émotions à un visage, etc. C'est terriblement difficile comme sujet, c'est un vrai dilemme, parce que le fait que ça fonctionne tient du fait que l'on trompe la personne. Puisque factuellement c'est un bout de plastique avec des puces, donc il n'y a pas grand-chose dedans. Et pour autant, la question de l'isolement, etc. Et en même temps, on aimerait bien le résoudre autrement, ce problème. La question de l'isolement, c'est un terrible fléau de notre époque. Et on sait en plus que globalement, cette question-là de la relation humaine artificielle, elle va se poser à tous les niveaux. C'est-à-dire qu'on sait qu'on a des enjeux psychologiques terribles. On sait que la solitude et l'isolement sont des sujets de notre époque qui sont en train d'apparaître. La santé mentale, c'est assurément un sujet énorme aussi. Donc il y a toute une tentation d'aller vers, finalement, résoudre ça, ou en tout cas faire une proposition avec de la relation artificielle. Évidemment, l'industrie cinématographique s'en est remparée, bien sûr. On pense ne serait-ce qu'au film Heure, par exemple, cette espèce de relation romantique artificielle. C'est évidemment un énorme dilemme éthique, c'est un problème. Alors des dilemmes éthiques, on en a quand même un paquet. Par exemple, la voiture autonome, c'est le plus classique. Est-ce que la voiture va écraser trois personnes âgées ou un enfant ? Qu'est-ce qui est le plus acceptable ? Alors le vrai problème de ce dilemme, ce n'est pas en soi qu'est-ce qui vaut le plus entre une vie ou une autre. Le problème, c'est surtout qu'on se retrouve à devoir l'écrire noir sur blanc. Parce que historiquement, en fait, le problème a toujours existé. N'importe qui doit prendre des décisions dans sa vie avec des dilemmes qui sont parfois impossibles. Mais comme on a une industrialisation du processus de conduire, et que ce processus de conduire peut impliquer des choix majeurs, on est obligé de faire ses choix par avance. Et on aura les mêmes problèmes dans tous les secteurs. Par exemple, dans le médical, si on commence à mettre en place de l'IA qui, à un moment donné, propose des solutions à des cas qui sont un peu extrêmes ou avec des... avec des dilemmes, l'IA, on va devoir écrire dans son code noir sur blanc quelle est sa méthodologie de résolution du dilemme. Et donc finalement, c'est un processus éthique. Et c'est finalement pas tant l'éthique, le problème, que la nécessité, je dirais, extrêmement imminente d'aller trancher ce vieux débat. Et de tout d'un coup prendre position, parce que l'IA, c'est du code, c'est noir et blanc. Donc à moins qu'on décide de fermer les yeux et de dire, fait aléatoirement, jette une pièce en l'air, ce qui est encore plus inacceptable. on va devoir trancher sur une éthique, on va y être obligé. Et donc c'est ça la vraie difficulté de ce point de vue-là. Après, il y a beaucoup de problématiques éthiques également au niveau de la donnée, puisqu'on sait qu'aujourd'hui on est sur une vague d'IA qui dépend de la donnée pour fonctionner. Et donc la donnée aujourd'hui a été quand même lourdement piratée. Ce sont assurément des big companies qui s'excusent après, mais qui ne demandent pas l'autorisation avant. C'est une manière d'adresser le monde. Clairement, l'univers dans lequel on rentre aujourd'hui économiquement, semblent valider ça. C'est terrible à dire, mais c'est vrai. Entre la violence chinoise qui a très peu de respect de la propriété intellectuelle et les Etats-Unis qui commencent à être de plus en plus pirates eux-mêmes à tous les niveaux et ils rattrapent le coup après. En fait, c'est terrible à dire, mais de plus en plus on va vers une guerre économique qui est de moins en moins respectueuse des lois, des conventions, etc. C'est terrible, mais il faut le prendre en compte. On va voir si ça se régule dans le temps qui vient, mais aujourd'hui c'est le cas. Et en fait, la guerre... qu'est l'intelligence artificielle, c'est une guerre politique, c'est une guerre d'influence, c'est une guerre économique. Et donc forcément, ça devient de plus en plus aussi une zone de non-droit. C'est terrible à dire, mais ça devient un tel enjeu que récupérer la donnée, y compris à l'insu des utilisateurs, ça va devenir effectivement un enjeu demain. Ça l'est déjà aujourd'hui, puisque une grande partie du chiffre d'affaires des GAFAMI vient de la publicité. Et donc, qui dit publicité, dit données. Aujourd'hui, on sait faire de la publicité qui marche parce qu'on a les données des utilisateurs. Donc beaucoup d'enjeux à cet endroit-là. Et enfin, le dernier dilemme que je citerai, il est énergétique, puisque tout simplement, encore une fois, aujourd'hui, on sait que l'IA consomme énormément d'électricité et qu'en même temps, on va réussir à réduire un peu la puissance nécessaire, ce qui n'est pas parti pour ça. C'est-à-dire que globalement, même si on a régulièrement des... Là, par exemple, on a eu récemment deux modèles chinois qui sont beaucoup moins consommateurs que ChiaGPT, il n'empêche que malgré tout, on reste sur des systèmes qui sont très consommateurs et dont la puissance, l'efficacité est liée à leur consommation électrique. Donc, de facto... quand on augmente l'un, on augmente l'autre, il n'y a pas le choix. Et en fait, on va devoir prendre la mesure de ça, puisque tout simplement, non seulement ces modèles consomment, mais en plus on est en train de les massifier. Aujourd'hui, il y a moins d'un millième de pourcent de l'IA qui est exploité par les entreprises. C'est très très très faible. Et donc on va commencer à l'exploiter massivement et demain ça va être la première force de production des entreprises, ce sera l'IA. Et donc là, la consommation électrique qui en découle, elle est forcément considérable, mais c'est peut-être une bonne chose. C'est une bonne chose à condition qu'on gère notre transition énergétique de manière correcte. qu'on s'occupe correctement de tous les enjeux écologiques qu'on a, parce qu'il n'y a pas que le carbone, il y en a tout un paquet, avec en particulier l'effondrement de toutes les espèces, on a un nombre d'enjeux écologiques qui est absolument énorme. Donc on peut utiliser l'IA pour ça, on peut prendre en compte les infrastructures pour ça, et ça va peut-être nous permettre même d'avoir une société, je dirais plus juste, qui soit finalement de l'IA pour le bien du plus grand nombre, où on prend soin de tous en ayant de l'IA qui est au service de chacun, que ce soit parce qu'on la met au service du médical, que ça permette aux gens de moins bosser, qu'il y ait moins de pression sur les individus pour tout simplement avoir une performance économique. Donc finalement, l'IA dans ce dilemme-là, elle a un rapport très paradoxal. Pour avoir une meilleure société, il faut qu'on ait plus d'IA, c'est un levier extraordinaire. Pour mieux gérer les enjeux écologiques, c'est aussi une bonne idée d'avoir de l'IA. Et en même temps, l'IA tire sur une de nos ressources les plus précieuses pour l'écologie, qui est l'électricité. Donc c'est une relation complexe. On ne peut pas juste dire que l'IA est en antinomie de l'écologie, ce n'est pas vrai.

  • Speaker #0

    Oui, c'est effectivement plus complexe parce que les bénéfices ont un coût, mais la question est de savoir en fait dans quelle mesure ce coût est acceptable par rapport aux bénéfices qu'on en retire. Donc après, il y a effectivement tout un débat à avoir sur ces questions-là pour déboucher éventuellement sur des règles. Et si on se penche sur les règles, l'Union européenne a fait le choix justement de réguler l'IA. Donc il y a eu tout un débat sur le fait que l'UE ait raison ou non de le faire et je ne veux pas refaire ce débat-là aujourd'hui avec toi. Néanmoins, ça pose quand même la question de savoir quelle est la pertinence de la législation par rapport à la vitesse à laquelle la révolution technologique nous arrive. On a vu ces derniers temps des nouveaux modèles qui ont été annoncés, DeepCycle, le modèle chinois, le nouveau modèle d'OpenAI, le O3 Mini, qui amènent chaque fois de nouvelles fonctionnalités et on parle en fait pour le moment que de modèles de LLM. Demain, on aura sans doute d'autres applications, d'autres formes d'IA. Donc, pour le faire de manière plus courte, comment s'assurer que notre législation reste pertinente ? Va-t-il falloir légiférer très régulièrement ? À ce moment-là, ça remet peut-être en cause le processus législatif tel qu'il existe aujourd'hui. Et si on estime qu'il est trop lent, ça prend le risque aussi de dire, comment dire, d'aller vers un laisser-faire. Donc où mettre le curseur en fait sur cette manière d'aborder la législation ?

  • Speaker #1

    Ce qui est sûr, c'est qu'effectivement ce système est trop lent. Il n'est pas adapté à la vitesse des évolutions modernes. Et on pourrait se dire, c'est le système qui va trop vite, ralentissons un peu, ce n'est pas grave, ça nous laissera le temps de légiférer. Mais en fait, c'est une idée catastrophique, puisque d'abord, ce sont des innovations, si on prend juste l'objet en soi, ce sont des innovations qui nous profitent, qui ont beaucoup de valeur. Je parlais du médical, par exemple, parce que ce sont souvent les innovations qui mettent tout le monde d'accord. L'impact de l'IA sur la capacité à détecter, par exemple, les maladies de manière précoce. C'est un impact qui est considérable. On ne peut pas se dire qu'on va attendre ça un an de plus le temps que les bureaucrates fassent leur boulot. Ce n'est pas possible, c'est absolument inentendable. Ça, c'est le premier point. Le deuxième, c'est qu'on a deux blocs autour de nous, le bloc chinois et le bloc américain, qui sont en train de mettre une énergie absolument considérable sur ce système qu'il y a. Ils savent que c'est l'enjeu de demain. Et chacun avec leur force et leur faiblesse. On savait que la Chine, à un moment donné, était en train de mettre un gros coup de fouet. L'élection de Trump a, je dirais, amorcer une lecture du monde vis-à-vis de ça qui est brutale, dans laquelle effectivement, on va compenser en tout cas, on va choisir cette stratégie je dirais de la force brute quitte à assécher tout le reste puisque très tranquillement, à côté de ça, Trump est en train d'assécher tous les budgets qui sont liés à l'éducation, la culture, la santé, etc. Il se sert librement partout ailleurs. Et donc voilà, on se retrouve entre... quand même deux blocs qui je dirais déploie une force considérable l'annonce effectivement du projet Stargate 500 milliards c'est un chiffre qui est juste gigantesque 500 milliards on verra si on les obtient réellement ou pas on verra ce qu'ils en font surtout mais ce que ça dit c'est qu'on est on est dans un dans une course extrêmement violente et c'est pas une course juste technique ou économique c'est une course géopolitique course à la domination, avec des acteurs à l'intérieur qui sont expansionnistes, que ce soit de l'expansionnisme politique pur ou de l'expansionnisme idéologique. Et l'expansionnisme idéologique, en ce moment, il fait beaucoup d'aller-retour, il est assez complexe, il y a des enjeux majeurs, on a des choses qui se passent dans le monde aujourd'hui sur le plan idéologique qui sont très complexes, et l'IA, aussi étrange que ça puisse paraître, est liée à ça, puisque tout simplement, les États, les idéologies qui s'emparent de l'IA, qui savent la manier, tout simplement, gagnent en puissance, ils sont capables de se... de montrer leur force et de conquérir du terrain. Et donc l'IA devient un enjeu absolument majeur. Et c'est ça d'ailleurs toute la problématique du bloc chinois comme du bloc Trump, si je peux l'appeler comme ça, puisque je ne pense pas que Trump résume tout le bloc américain, mais il montre bien en ce moment le fait que Trump porte une idéologie qui est très forte vis-à-vis de plein de choses. Et donc c'est ça la vraie crainte aujourd'hui. Elle est certes économique, mais il y a aussi le fait qu'on a quand même deux visions du monde très spécifiques, rétrogrades quand même sur pas mal d'aspects des deux côtés, qui... porte ses puissances industrielles majeures. Et donc on a la responsabilité de ne pas se laisser, je dirais, couler derrière ça, puisqu'on a notre propre vision du monde, avec nos propres valeurs, et donc cette volonté de légiférer. Spontanément, on se dit qu'elle est au service de nos valeurs, ce qui est naturel, on se dit qu'on fait des choses dans le cadre qui est le nôtre. Mais dans un monde où ça va si vite, on est aussi en train de tirer contre notre camp. Et il n'y a aucun cas où on peut se permettre d'être aussi lent, et de prendre autant de temps. La bonne nouvelle, c'est que la législation, quelque part, ça peut être une force quand c'est fait de la bonne manière. Au moment, ça nous a servi de manière défensive, c'est une protection temporaire. Mais si on peut réguler, on peut aussi avoir des cadres d'exception. On peut aussi avoir une capacité à légiférer de manière beaucoup plus rapide, avec des instances exceptionnelles. Et c'est peut-être ça qui nous manque, finalement. C'est pas tant la capacité à arrêter de légiférer ou à tout laisser faire, que la capacité à repenser radicalement la manière dont sont pensées les instances qui légifèrent, de telle manière... à ce que toutes ces initiatives puissent trouver une place rapidement et au contraire, faire du légal des cadres qui finalement accélèrent. C'est-à-dire qu'on peut même imaginer effectivement, tout simplement, je dirais, des passerelles, des ouvertures, des trous de renards juridiquement parlant, qui sont encadrés mais qui sont prévus très vite et volontairement pour que justement ces innovations puissent apparaître. Ça, c'est à l'envers de ce qu'on pense aujourd'hui actuellement, puisqu'on pense en... On pense en ceinture de sécurité, alors qu'en fait, on devrait penser en trou dans le mur. Le but, c'est de passer de l'autre côté au bout d'un moment. Ce n'est pas que d'avoir des murs. Et ça, c'est certainement une excellente chose qu'il faut qu'on fasse. En tout cas, on en a besoin. On en a besoin parce qu'on ne peut pas avoir finalement un bloc européen, un peu de seconde zone qui se laisse attaquer. Alors que malgré tout le discours qu'on peut avoir des Américains ou d'autres, c'est une technique aussi d'avoir un discours pour zapper les forces. Quand vous dites... personne ou un ensemble de personnes, vous êtes nuls, vous n'y arriverez pas, laissez-nous faire, c'est tout aussi certainement faux qu'une mécanique pour zapper l'énergie des autres. Et donc il ne faut pas se laisser faire là-dessus. Et il faut se rappeler qu'effectivement, en Europe, on a des faiblesses. On manque d'une vraie Europe unie, puissante. Mais on a aussi une force économique, intellectuelle, technologique, industrielle qui est très importante. Il nous manque un projet. On n'a pas de projet. Il y a un truc là-dessus. Légiférer, clairement, n'est pas suffisant. C'est un bouclier temporaire qui ne suffira pas. Mais on a une puissance disponible et ça, il faut s'en rappeler.

  • Speaker #0

    Oui, on a peut-être une troisième voie à trouver, à créer, à condition qu'on soit capable de mobiliser nos forces. Et ce qui fait notre spécificité finalement en tant que culture, qu'ensemble de culture finalement, puisqu'on est 27. Donc il reste une voie pour l'Europe. On n'est pas condamné à être bloqué dans la course américano-chinoise.

  • Speaker #1

    J'espère, j'espère. Je pense qu'il va falloir qu'au final, qu'on s'autorise.

  • Speaker #0

    à clamer ce qui fait aussi notre particularité. Je pense que l'Europe porte des valeurs. Je pense que c'est aussi ce qui la définit. C'est ce qui fait qu'à un moment donné, on est dans l'Union européenne où on ne l'est pas, on est dans l'Europe où on ne l'est pas, on est dans un agrégat économique ou géopolitique ou un autre. C'est aussi des éléments de valeur. Tous ces éléments-là sont liés, ces points communs sur les normes. Ce qui fait qu'à un moment donné, un produit est acceptable dans une région économique donnée, est lié aux normes qu'ils ont en commun, etc. Et ces normes, elles représentent aussi le niveau d'exigence qu'on se donne vis-à-vis de nos individus. La législation en commun, le fait de permettre ou pas certaines formes de contenu. Tout ce qui fait que des fois, les géants américains sont bloqués aussi quand ils arrivent en Europe sur leur manière de fonctionner, la nécessité d'une modération. Tout ça correspond à notre idéologie, notre manière de protéger les individus, d'en prendre soin et de créer la société de demain. Cette vision-là, je pense qu'il faut la revendiquer beaucoup plus fort. Elle est aussi une puissance et elle mérite, je dirais, d'avoir sous la main à disposition un bras armé qui soit géopolitique, industriel, économique. Parce que c'est notre vision du monde, elle n'est pas très claire, on ne peut pas dire qu'il y ait une idéologie européenne, mais on a nos spécificités, et même si on n'est pas à 100% raccord là-dessus, ça vaut le coup de le porter, parce qu'en face on a un modèle chinois et un modèle américain qui ne sont pas plus unis si on regarde dans le détail, mais qui sont en train de se porter. On a intérêt certainement d'avoir une contre-proposition, de démarquer ça, en tout cas de se laisser la force d'exister demain, puisque je pense qu'il y a besoin effectivement que ce bloc européen soit présent. ne serait-ce que pour un équilibre des forces de ce point de vue-là. On en a terriblement besoin. Et clairement, ça va passer par les technologies. Aujourd'hui, cette guerre, elle est technologique.

  • Speaker #1

    Oui, c'est un peu une course à l'espace, comme on a pu connaître du temps de la guerre froide, mais où l'IA finalement remplace les fusées, même si les fusées sont aussi d'actualité ces jours-ci. Si on revient sur la question de l'innovation, on a vu arriver DeepCycle, le modèle R1 de DeepCycle, qui est open source. et qui a priori a été entraîné pour quelques millions de dollars, ce qui fait quand même une sacrée différence par rapport aux modèles qu'on a pu voir outre-Atlantique. Mais DeepSea qui est open source, tout comme les modèles Lama de Meta. Donc est-ce que ces modèles-là, c'est la voie à suivre pour une vraie démocratisation de l'IA ? Ou est-ce qu'on est un peu condamné, si on reste sur le modèle peut-être d'OpenAI, de Google ? à avoir un certain nombre de gatekeepers qui pourraient remettre en cause finalement une véritable démocratisation. C'est-à-dire qu'on aurait accès à l'IA, accès à un certain nombre d'innovations qu'on pourrait créer nous-mêmes, sous réserve, encore une fois, de s'appuyer sur des plateformes comme on a pu le faire à l'époque du web, ce qu'on appelait le web 2.0, notamment pour la création de contenus. Quelle est ta vision, toi, par rapport à ça ? L'open source, est-ce que c'est la voie à suivre ? Est-ce que c'est une voie par rapport à d'autres ? Et comment s'assurer d'une véritable démocratisation de l'innovation ? Parle bien de l'IA.

  • Speaker #0

    L'open source, c'est un pouvoir extraordinaire. Facebook l'a poussé, il y a beaucoup d'acteurs technologiques qui le portent, tout simplement parce que c'est une des manières les plus puissantes et les plus efficaces que d'embraser le savoir-faire technologique global et de faire que chacun y contribue. Donc l'open source, c'est énormissime. Et le pouvoir de DeepSeek, c'est aussi... C'est aussi une force qui s'est appuyée sur l'open source existant, par exemple sur les travaux de Google. Et donc la réussite de DeepSeek, c'est aussi la réussite de l'open source, très clairement. Ce que je crains, c'est que ça ne dure pas éternellement. L'open source bénéficie à tout le monde, et donc c'est... comment dire ça ? C'est quelque chose qui, pour une logique, un état d'esprit qui est concurrentiel, bloc contre bloc. est antinomique avec cette vision du monde-là. Aujourd'hui, la chance qu'on a sur les open AI, etc., c'est que malgré tout, les évolutions technologiques sont encore assez ouvertes. On est dans un monde où on peut observer les choses qui se passent, il y a des publications scientifiques observables, il y a des propriétés intellectuelles qui sont gardées, mais pas complètement inaccessibles. Les innovations des uns sont, je dirais, des inspirations pour les innovations des autres. Et donc tout ça, je dirais, s'entremêle, ce qui fait que finalement, même pour des pays parfois qui ont un coup de retard ou qui ont quelque chose qui les a ralentis, ils peuvent rattraper comme ça. La Chine, par exemple, n'a pas toujours été le cheval sur lequel on allait parier pour être un des premiers, je dirais, athlètes de l'IA et des nouvelles technologies. Et pourtant, ils en sont là. Alors certes, ils ont une culture de la copie qui est considérable, mais il y a aussi le fait que globalement... Voilà, il y a cette interconnection du monde, ce mondialisme même on pourrait dire, qui fait que les choses circulent, les expertises, les savoir-faire, les connaissances. Ce qu'on pourrait craindre, c'est que demain ça se referme, dans une certaine mesure. C'est que, d'une manière ou d'une autre, ces blocs cherchent à refermer leurs frontières du point de vue de la connaissance et du savoir-faire, pour assécher les autres. Ça, ce sera un vrai risque. Un petit peu, finalement, comme on fait un siège, ce sera un siège inversé quelque part. C'est-à-dire, vous pouvez avoir accès à ce que je produis, mais certainement pas à comment je le produis. Et c'est là que ce serait vraiment inquiétant. Et donc, l'open source, c'est aussi, aujourd'hui... au-delà d'un objet économique ou d'une simple manière de penser la valeur, c'est un objet de stabilisation et de paix sur le plan économique mondial et géopolitique. Ça, c'est une réalité hallucinante, parce que il y a 20 ans encore, l'open source, c'était un peu un truc de hippie. On se disait, c'est sympa, mais c'est chouette. C'est ce qu'on pouvait se dire et c'est sympa, mais c'est pas un truc industriel, etc. Aujourd'hui, c'est quasiment une nécessité politique pour un minimum de... paix internationale et de développement des pays, en particulier ceux qui ont besoin aujourd'hui de rattraper un certain niveau technologique, c'est une nécessité absolue. Donc l'open source est clairement une excellente chose. Il faudra voir qui, dans les temps qui viennent, a intérêt à continuer de le pousser, puisqu'aujourd'hui ça reste pour une partie... Alors il y a des entreprises qui réussissent très bien grâce à ça, mais il y a aussi une dimension philanthropique et idéologique dans le fait de pousser l'open source. C'est pas une nécessité.

  • Speaker #1

    Donc on peut dire que Meta... Comment dire, une volonté philanthropique en poussant l'open source, il y a des vraies valeurs derrière ou c'est aussi opportuniste pour se distinguer plutôt de leurs concurrents ?

  • Speaker #0

    Je ne pourrais pas trancher où s'arrête la philanthropie et où commence la stratégie. Il se peut que ce soit très interlié à un certain niveau, mais assurément il y a aussi quelques acteurs clés chez Meta qui ont poussé l'open source. Je pense que Meta a beaucoup bénéficié de ça. Microsoft également a fait un tournant là-dessus il y a quelques temps. Mais clairement, il y a une dimension philanthrope dans cette idée-là. Et d'ailleurs, ce n'est pas un hasard si OpenAI a arrêté de faire de l'open source au bout d'un moment, parce qu'ils sont passés dans une approche plus mercantile, purement agressive, plus politique aussi. C'est un jeu de positionnement. Est-ce qu'on peut dire que Facebook est philanthrope ? On sait aussi que Facebook a été extrêmement agressif sur l'obtention de leurs données. Par exemple, ils ont lourdement pillé la data. qu'ils ne leur appartenaient pas, y compris en pillant le dark web pour aller chercher ce qu'ils n'avaient pas par ailleurs, très librement. Bon, voilà, ce n'est pas des enjeux non plus.

  • Speaker #1

    Oui, il faut restituer des choses qu'ils ont acquis par ailleurs de manière discutable. On peut considérer ça comme ça.

  • Speaker #0

    On peut dire ça, c'est Robin des Bois à l'envers d'une certaine manière.

  • Speaker #1

    C'est bien résumé. Si on parle de démocratisation, il va y avoir aussi une question au-delà de tous ces gens qui nous mettent à disposition leur technologie. Donc l'IA est toujours cette idée d'innovation. Si on veut la démocratiser, il va falloir la rendre disponible, mais aussi peut-être accompagner les gens dans leur utilisation. Parce que l'IA touche énormément de métiers, ça va continuer. Je pense qu'à terme, tous les métiers, toutes les industries seront impactées. Comment s'assurer finalement que l'aspect réfractaire, qu'on peut tout savoir, dont on parlait un peu plus tôt, on arrive à le gommer et à convaincre les utilisateurs ? et faire en sorte aussi qu'ils s'en servent correctement. C'est-à-dire, est-ce qu'il n'y a pas une grande démarche d'éducation, d'upskilling, de reskilling, en fait, qu'il va falloir mettre en place ? Et je soupçonne que la réponse soit un petit peu oui. Donc, dans ce cas-là, comment le faire ? Parce que c'est aussi... C'est un chantier où il me semble que les structures d'éducation ne sont peut-être pas totalement prêtes.

  • Speaker #0

    Oui, puis on ne sait pas ce que ça veut dire, une compétentia, en vrai. Aujourd'hui, quand on pense compétentia... On pense souvent au développement informatique. Alors certes, les programmeurs, les ingénieurs ont besoin de savoir faire de l'IA pour pouvoir soit concevoir des IA elles-mêmes, soit concevoir les systèmes qui en découlent, donc qui les intègrent, etc. C'est-à-dire quoi une compétence IA au-delà de ça ? Ça, c'est la bonne question. Parce qu'en fait, l'IA, de plus en plus, va devoir être intégrée à tous les niveaux. Si je fais un parallèle avec le marketing, par exemple. Le marketing c'est un des métiers qui a été le plus changé par le digital. Aujourd'hui être expert en marketing c'est globalement être expert en digital, être expert en data et aujourd'hui c'est être expert en IA. Être expert en IA du point de vue de ces métiers là qui sont verticalisés, c'est à dire dont le coeur du sujet n'est pas la tech, mais qui de facto sont techniques, pour la même raison que le digital a envahi absolument tout, l'IA a envahi absolument tout, il s'agit d'un bilinguisme en fait. Il ne s'agit pas forcément de devenir programmeur, C'est une bonne idée, toujours, de savoir faire deux, trois lignes de code, ça fait de mal à personne, mais ce n'est pas le cœur du sujet. Le cœur du sujet, c'est d'être capable de comprendre un peu comment ça marche. Quelles sont les faiblesses ? Quelles sont les forces ? Quelles sont les limites ? Pour être capable de trouver ce qui se passe, de trouver les solutions qui sont adaptées, comprendre comment elles fonctionnent, qu'est-ce qui est en train de se passer en ce moment, donc être capable d'avoir cette espèce de veille permanente, de comprendre qu'est-ce qui est en train de se produire sur le marché, et donc de mettre au service de son métier toutes ces nouvelles technologies qui apparaissent à travers les logiciels existants. Un expert marketing ne va jamais aller inventer ses propres solutions, par contre il y a un vrai enjeu à ce qu'il soit au courant de ce qui est disponible sur le marché et comment il peut s'en servir. Et donc, il y a une culture nécessaire, qui est indispensable. Mais encore une fois, si je fais le parallèle avec Internet, il y a eu une période où on a eu des formations pour les mails, une formation à Excel, une formation à Word. Il y a eu cette période-là. Aujourd'hui, ça nous paraît un peu lointain, mais ça a existé. On est un peu au même stade. Alors, on ne sait pas encore. Ce qui est incertain, c'est dans quelle mesure est-ce que l'IA va trouver une forme un peu unique. On n'est pas sûr que la manière dont on regarde l'IA aujourd'hui soit encore la même qu'on regardera dans 2-3 ans. Parce qu'il y a... On est en train de... Comment dire ça ? Il y a encore des surcouches, des manières de packager ça qui vont changer. Pas sûr qu'on continue de faire du prompting infiniment, finalement, par exemple. Voilà, des choses comme ça. Mais ceci étant dit, voilà, il y a une vraie compétence IA qui va être nécessaire, c'est vrai. Ce qui n'est pas forcément une compétence IA en soi, mais qui est certainement plus une compétence à faire le pont, explicitement et techniquement et concrètement, entre son cœur de métier verticalement parlant et toutes les possibilités technologiques qui sont mises à disposition par le marché. Et donc, oui... Ça va nécessiter de plus en plus de la réorganisation des connaissances, du relearning permanent. Et on sait d'ailleurs que les métiers vont changer de plus en plus vite. On sort complètement d'un monde dans lequel on faisait des études et puis on bossait toute la vie sur le même métier. C'est une vision qui déjà depuis un certain temps est fausse, mais elle l'est encore plus aujourd'hui. Et donc les compétences ont vocation à périmer de plus en plus vite. Et donc la formation continue, mais aussi la reformation permanente. soit vers des nouveaux métiers, soit vers l'évolution de la métier, elle est absolument nécessaire. Il y a des métiers certainement qui vont un peu s'appauvrir, mais surtout il y a des métiers qui vont se transformer, et des nouveaux métiers qui vont apparaître. Et donc mécaniquement, on va rentrer dans un monde où il y a aussi un peu plus d'instabilité dans le travail, on pourra moins se dire qu'on se projette toute sa vie dans un métier X ou Y. Ça va aussi entraîner la nécessité d'aider, ou en tout cas d'assister, les individus à retrouver une stabilité là-dedans. C'est pour ça que... toutes ces questions de... On parlait parfois d'impôt sur l'automatisation ou de revenu universel. Je ne sais pas quelle est la bonne réponse, mais en tout cas, c'est une bonne question. Parce qu'à un moment donné, il va falloir se faire à l'idée qu'on ne pourra pas mettre sur les individus toute la charge de la complexité de la société qu'on est en train de créer, leur donner toute la charge de s'insérer dedans, sachant qu'elle devient de plus en plus éminemment complexe. Et donc, il va falloir faciliter cette insertion-là et il va falloir alléger le poids d'avoir du mal à s'y insérer. Et donc, le revenu universel va certainement être une nécessité morale absolue, a priori, dans le chemin qu'on prend d'avoir des industries de plus en plus automatisées, des industries de plus en plus efficientes et de plus en plus complexes, où l'IA est partout. L'IA et le revenu universel, c'est deux faces d'une même pièce, en vrai, en tant que projet sociétal. On peut difficilement penser l'un sans l'autre.

  • Speaker #1

    Est-ce que tout ça, ça n'implique pas aussi une... Un renforcement de la fracture numérique ou plutôt je dirais l'apparition d'une nouvelle fracture numérique parce qu'on peut tout à fait imaginer effectivement que le revenu universel devienne une nécessité, que certaines personnes ne puissent pas ou ne souhaitent pas s'insérer dans cette société de l'IA, de l'innovation permanente. Et on peut imaginer qu'il faille le respecter. Maintenant, si on met en place ce revenu universel avec des gens qui en bénéficieront et d'autres qui n'en auront pas besoin parce que complètement insérés dans la société numérique, Est-ce qu'on n'a pas de fait une société à deux vitesses ?

  • Speaker #0

    C'est un vrai risque, ça peut se produire et de toute manière ça va demander une réinvention du modèle. C'est-à-dire de dire à un moment donné, peut-être que c'est pas parce qu'on ne travaille pas qu'on n'a pas d'activité aussi. Peut-être que le travail et l'activité ne se confondent pas nécessairement. Peut-être même que la nécessité industrielle n'est pas la nécessité personnelle. Et donc, il va falloir repenser un peu les choses. On n'est pas prêts pour ça. Mais par exemple... Je pense par exemple à tout ce qui est troubles anxieux. On sait aujourd'hui qu'on a une part importante de la population qui souffre de troubles anxieux généralisés et donc ce sont des individus qui sont plus en difficulté sur des milieux à forte dose de stress ou très compétitifs, etc. De facto, on va vers un monde de plus en plus compétitif sur le plan professionnel parce que ce qui est simple est pris en charge de plus en plus par des machines. J'exagère, je ne le dis pas bien parce qu'il y a aussi beaucoup de métiers très complexes dans lesquels en vrai l'IA est présente par exemple. Tout ce qui est médical de haut niveau, l'IA est extrêmement efficace. Mais du coup, c'est intéressant. Ça veut dire que, que ce soit sur des métiers « simples » , ou des métiers sur lesquels on se dirait, on n'est pas sur des métiers qui demandent beaucoup d'années d'études, ou des métiers qui, au contraire, en demandent énormément. Pas pire qu'un chirurgien, je pense, en termes d'années d'études. Dans les deux cas, en fait, l'IA arrive. Et donc, de ce point de vue-là, la question va se poser de se dire, est-ce qu'on veut encore rentrer dans un système ? Est-ce que tout le monde a vocation à rentrer dans un système qui va devenir aussi complexe ? Peut-être que demain, on n'aura plus un master en 5 ans, mais un master en 10, ou une thèse prendra 15 ans, je n'en sais rien. En tout cas, ce qui est sûr, c'est que ce coût d'entrée va augmenter, puisque la société va se technologiser, elle augmente en termes de quantité de connaissances, et elle va de plus en plus vite. Et finalement la question c'est de dire ok, pour ces personnes là, je prends le trouble anxieux parce que ça me passe par la tête, ces personnes là qui sont en difficulté, en enjeu etc, est-ce que le premier enjeu c'est effectivement pas d'abord de leur foutre la paix et de dire ok, faites les choses à votre rythme, vous allez pouvoir réintégrer si vous voulez, là où ça vous intéresse, mais juste à un moment donné, la nécessité de travailler peut-être demain, juste déjà ne met pas en jeu votre existence première. Vous pouvez dormir la nuit sans craindre de mourir de faim, c'est ok. Je dis ça en France, on n'est pas les pires de ce point de vue-là. Mais voilà, on va devoir peut-être certainement normaliser ça. Mais demain, peut-être qu'effectivement, il y aura aussi une place à l'activité. C'est-à-dire de dire, la vie professionnelle ne prend pas toute la place. La vie collective, elle est hyper importante aussi. La vie familiale, certes, mais la vie artistique, la vie sportive, la vie de l'individu dans tout ce qu'elle a d'entier. Et en fait, ça va nous laisser la place et la nécessité d'aller aussi repenser la vie de l'individu, je pense, dans sa globalité. Et ça, ça va être une nécessité qui va faire aussi beaucoup de bien, parce que la place qu'on a pour des gens qui, entre guillemets, n'ont pas nécessairement besoin de travailler, c'est aussi de la place qu'on a pour faire du bien aux personnes. C'est-à-dire qu'on sait que globalement, si on s'occupait un peu mieux en moyenne des gamins à l'école, on aurait un taux, on aurait des prisons beaucoup moins peuplées d'abord, c'est une première dimension, mais aussi on aurait des lourdeurs sur le plan psychiatrique, psychologique, etc., beaucoup moins pénibles. Si on prend plus le temps pour... la santé, que ce soit sur le plan sportif, sur le plan de la nutrition, etc. Des problèmes à gérer, on en a. Si les gens ont un peu plus de temps, on sait quoi leur faire faire, on sait où on veut aller. Ce n'est pas forcément des sujets d'industrie de premier plan, mais ce sont juste des sujets de dire « Ok, on a de la place pour construire un monde un peu différent dans lequel on va mieux prendre soin des gens. » Ça, ça va prendre du temps et de la place.

  • Speaker #1

    C'est la redéfinition du rôle de l'individu dans la société qui aujourd'hui est quand même beaucoup liée au travail, à l'activité qu'on a, qu'on met en avant. Et on a raison de le faire parce que c'est aussi quelque chose qui nous définit, mais peut-être que demain, le travail ne nous définira plus, ou en tout cas beaucoup moins. C'est peut-être ça qu'on peut espérer avec tout ce que ça implique.

  • Speaker #0

    Oui, absolument. Et effectivement, comme tu le disais tout à l'heure, la question de la société à deux vitesses, il faut y faire attention, elle est inquiétante. En tout cas, elle pourrait créer un clivage important entre, par exemple, une hyper bourgeoisie ou aristocratie qui serait en charge de toutes les instances productives. Et de l'autre côté, je dirais une population qui serait plus oisive, ou en tout cas qui aurait une vie très différente, qui serait plus en charge d'elle-même. On peut imaginer sans dystopie là-dessus. On peut aussi imaginer sans utopie. Et ça, c'est la bonne nouvelle. C'est qu'on peut aussi imaginer plein de choses qui vont bien, mais il va falloir l'inventer. Ce serait bien que ça ne fasse pas que glisser lentement, comme un flanc sur une assiette penchée, mais qu'au contraire, on se prenne en main, et qu'on se dise, ok, qu'est-ce qu'on veut faire de ce système, et qu'on commence un petit peu à le construire. La bonne nouvelle, c'est qu'encore une fois, les nouvelles technologies laissent des possibilités. Et donc si on se bouge et qu'on commence effectivement à prendre soin nécessaire, on est en train de préparer une société dans laquelle on va pouvoir faire dix fois plus. Mais la réalité à prendre en compte aussi, c'est qu'en vrai, on est aussi dans une société, aujourd'hui même, ce jour, maintenant où je suis en train de parler, on est déjà dans une société qui est beaucoup plus efficiente qu'on ne l'était il y a cent ans. Et pour autant, on n'a pas infiniment réécrit notre système non plus. Tout va mieux depuis cent ans, sur tous les aspects, si on prend du recul, même si on regarde tous les jours nos difficultés, au global, tout va mieux. Mais on a encore des enjeux absolument majeurs qui sont extrêmement inquiétants, dont l'écologie dont on parlait tout à l'heure. Et donc, à un moment donné, la possibilité technologique, elle n'amène pas immédiatement une solution. Ça, c'est le risque. D'ailleurs, cette pensée-là s'appelle le solutionnisme. Le solutionnisme technologique, c'est l'idée effectivement que la technologie résoudrait immédiatement tout. C'est un levier formidable, mais elle ne se substitue en rien à la nécessité d'un projet politique, humain, économique. Et là-dessus, s'il n'y a pas de... de plan, il n'y a pas de plan. Donc on est juste en train de préparer le fait qu'on va être libre là-dessus et ce serait certainement bien que un projet expansionniste et réactionnaire à la Trump ne soit pas l'unique option sur la table.

  • Speaker #1

    Alors c'est intéressant parce qu'on ne va pas vraiment, que ce soit en Europe ou même ailleurs, mais on va peut-être rester sur l'Europe, de politique sans emparer de ce sujet. C'est-à-dire qu'on aborde l'IA d'un point de vue technico-technique, avec éventuellement les régulations qu'on évoquait plus tôt. Mais le bouleversement sociétal qu'on observe et qu'on va observer de plus en plus, c'est quelque chose qu'on ne voit pas vraiment dans les débats. On l'a vu lors des dernières législatives par exemple. Il y a évidemment d'autres sujets qui sont peut-être plus proches du quotidien de la plupart des citoyens. Mais c'est une question de méconnaissance du sujet, c'est une question de génération de la part de nos dirigeants. Est-ce qu'on peut espérer que ça fasse irruption ? Est-ce qu'on peut se dire par exemple qu'en 2027, pour la prochaine présidentielle, ça sera dans le débat ? J'en doute un peu, mais je me trompe peut-être.

  • Speaker #0

    Je pense qu'il y a une prise de conscience qui n'a pas encore été faite. Tout à l'heure, je disais, l'IA, il y a moins d'un millième de pourcent. qui a été impacté sur les économies. C'est pour ça qu'on ne le voit pas. Mais en vrai, quand ça va descendre, quand ça va prendre sa place, c'est énorme. Mais il faut le temps que les industries s'en accaparent, que depuis la technologie, on aille vers le produit, où le produit se verticalise, se déploie, se normalise. On va commencer par avoir les acteurs qui sont, je dirais, un petit peu en anticipation, ce qu'on appelle parfois les early adopters. Puis on va avoir le gros de la vague, puis les late adopters, etc. Ça prend un peu de temps. Et donc... Je dirais qu'il y a encore un peu ce côté effet d'annonce, où d'un côté il y a cet effet de stupéfaction, on se rend bien compte que ça va avoir un impact monumental, et une relative incrédulité en fait. Parce que quand je sors dans la rue tous les jours, ça ne change pas mon quotidien non plus. Ce n'est pas un robot qui me vend ma baguette de pain, je parle tous les jours avec du... Il n'y a pas, je dirais, le côté suffisamment stupéfiant encore pour se dire « Ok, ah oui, oups, il va se passer un truc gigantesque. » Et pourtant c'est là. Les compétences de l'IA aujourd'hui sont énormes. Elles l'étaient déjà avant Tchadjipiti. Il y a un enjeu de transition. Le temps de faire progresser ces technologies-là, ça prend du temps. Mais il n'y a pas encore eu, je dirais, une réalisation suffisamment forte de la part de nos politiques. Ce que je crains, c'est qu'ils soient un peu en coup de retard là-dessus. Je suis content que globalement... Alors, on va m'accuser de faire du jeunisme, mais je suis content qu'on ait des hommes politiques qui globalement... hommes et femmes politiques qui soient plus jeunes, qu'on ait plus de femmes politiques aussi d'ailleurs au passage, mais aussi qu'ils soient plus jeunes, on gagne certes en diversité, mais on a aussi besoin, je dirais, de personnalités qui sont profondément représentatives des sujets sur lesquels on a besoin de travailler. On a besoin d'un président, on a besoin de ministres, d'hommes et de femmes politiques qui comprennent ce que c'est la tech, vraiment, et qui soient capables d'en comprendre des enjeux et de se dire que oui, on est où on est. On va rentrer dans une société technologique. C'est soit ça, soit on arrête tout. Mais l'IA n'est pas une option. L'IA n'est pas juste un choix. Ce n'est pas une couleur qu'on pourrait choisir de mettre au mur ou pas. C'est le prolongement naturel de notre industrie. Il n'y a pas d'à côté. Donc, soit on arrête de faire évoluer notre industrie, soit on fait de l'IA. Il n'y a pas d'autre option. Et donc, il nous faut un projet pour ça. Et je suis d'accord avec toi. Finalement, ils n'ont pas beaucoup fait le boulot là-dessus. Je crois que les auteurs de science-fiction ont plus fait de boulot là-dessus. que nos experts politiques, alors qu'il y a besoin de créer un modèle. Et aujourd'hui, ceux dont on entend le plus parler sur ce sujet-là sont souvent, je dirais, des experts de la provoque. On a Laurent Alexandre, par exemple, qui a beaucoup parlé du sujet. Mais on n'est pas tant sur une proposition politique cohérente que sur une... Alors avec des éléments à l'intérieur qui sont très intéressants, mais qui sont provoquants et qui sont faits pour créer de la tension aussi dans cette histoire. Donc je ne dirais pas qu'on a... Je n'ai pas en tête un penseur, en tout cas une proposition politique du monde de demain qui se tienne, si ce n'est certainement dans la science-fiction et des penseurs très alternatifs. Ce n'est pas quelque chose qui est arrivé sur le devant de la scène.

  • Speaker #1

    Justement, si on se projette un peu, et là je vais t'inviter à faire de la prospective, et je sais à quel point c'est difficile, mais la technologie évolue de manière incrémentale, tu le rappelais, mais parfois il y a quand même des... des coups de boost assez incroyables, où d'un coup une technologie est disponible, comme ça a été le cas avec ChiaGPT, qui a pris un peu tout le monde par surprise. Si on essaie de se projeter dans les, peut-être pas les 20 ans à venir, mais les 5 à 10 ans, selon toi, quelles seraient les évolutions majeures qu'on peut attendre ? Et je rebondirais aussi sur un propos que Sam Altman a eu il y a quelques mois, où il disait que l'intelligence artificielle générale, la fameuse AGI, Le jour où elle arriverait, finalement, ce ne serait pas la révolution qu'on attend. Et que, ce n'est pas qu'on ne s'en apercevrait pas, mais quasiment. Donc toi, c'est quoi ta vision par rapport à ça ? Est-ce que tu penses que les GIs, effectivement, c'est pour demain ? Et est-ce que tu penses que ça sera aussi... Un dolor, un color, en fait, qui le prévoit ?

  • Speaker #0

    En fait, oui, c'est possible. Alors, le problème, c'est qu'on a des définitions très variables de l'IA générale. En fait, une des définitions possibles, c'est de dire une IA qui peut traiter de tous les sujets. Voilà. Ce que fait déjà un peu ChiaGPT d'une certaine manière. Pas absolument tous, mais... Et surtout, est-ce que ChiaGPT, c'est de l'intelligence au sens où on l'entendrait pour de l'intelligence artificielle générale ? Ça pose problème. La question se pose. Ce qui est sûr, c'est qu'OpenAI a pensé ChiaGPT dans cette direction-là. Est-ce que c'est vraiment le cas ? C'est difficile à dire. Parce qu'aujourd'hui, c'est une succession de modules qui s'enchaînent. C'est remarquable. Et en même temps, il y a une espèce de lecture de fond de l'AGI qui se voudrait plus élégante qu'on n'a pas encore trouvée. Est-ce que l'AGI, finalement, ce serait une IA qui est capable d'avoir conscience d'elle-même ? Ce qui a été aussi une des définitions qui a été donnée parfois. Un peu fantasque, qui se rappelle de la notion de... Comment appelle-t-on ça ? J'ai perdu le mot. le moment où l'intelligence humaine va croiser celui de la machine, je suis perdu le mot. Donc il y a aussi cette singularité. La G.I. et la singularité, ce sont deux concepts qui se tournent l'un autour de l'autre. On sent que ce sont des concepts qui gravitent ensemble, qui sont différents, mais qui gravitent un peu.

  • Speaker #1

    Il y a la question aussi de la dévision de la conscience. Si on va dans ce sens-là, on n'a pas encore défini correctement aujourd'hui.

  • Speaker #0

    Absolument. Et quand on a des news comme un chercheur chez Google, auraient démissionné parce que l'IA est consciente ou des choses comme ça. Qu'est-ce qui vous prend ? Vous n'avez vraiment rien compris à ce que vous êtes en train de faire. Vraiment, il suffit de comprendre comment fonctionnent les outils qu'on voit aujourd'hui pour comprendre qu'on ne peut pas parler de conscience. Pour autant, ça ne répond pas à la question. Qu'est-ce que c'est la conscience ? Comment ça fonctionne ? Alors, il se trouve que le sujet, le champ de la philosophie qui parle de ça, c'est mon préféré. C'est ce qu'on appelle « the hard problem of consciousness » , le problème difficile de la conscience en français. Et de tous les champs de la philosophie, c'est mon préféré. Il est absolument passionnant. Mais il est tout aussi difficile que passionnant. Il est vraiment d'une complexité énorme, puisqu'il interroge en fait la question de la subjectivité, de dire finalement, qu'est-ce qui fait qu'un humain a une expérience subjective du monde, plutôt que de juste témoigner, faire comme s'il en avait une. Et de la même manière, une machine qui dit j'ai mal, à partir de quel moment est-ce qu'une machine qui dit j'ai mal, elle fait autre chose qu'envoyer une suite de sons qui disent j'ai mal. À quel moment est-ce que ça fait sens pour une machine d'avoir mal, ou d'avoir une perception subjective ? On ne sait pas répondre à ça. On a un problème terrible là-dessus, on ne sait pas quoi en faire. Et donc même si demain on avait une intelligence artificielle qui soit, je dirais, sensible, ou qui ait une conscience, là pour le coup on ne saurait pas le détecter. Ça on a un vrai problème là-dessus, c'est-à-dire que faire comme si et avoir, on ne sait même pas ce que ça voudrait dire en fait avoir. En fait on n'a pas de définition. Donc là on est sur, à mon sens, on est sur un aporisme complet de tout point de vue. On n'a pas de savoir-faire ou de... de connaissances auxquelles on pourrait faire appel pour trancher ça aujourd'hui, il n'y en a pas. L'objet n'est pas sur la table, parce que ça invoque des questions, je dirais, philosophiques et même métaphysiques qui sont trop complexes. En fait, ça renvoie à des questions religieuses, en vrai. La question de savoir si l'humain lui-même est une machine, est-ce que c'est autre chose qu'une machine ? La question de l'esprit, de l'âme, etc. sont des questions qui en découlent aussi. On pense souvent à la vision un peu silicone, Valais du Monde, qui est très matérialiste et je dirais même un petit peu... athée du monde, mais il y a aussi toute une partie du monde pour qui la foi est centrale et pour qui la question de dire l'humain est une machine n'est pas possible. Et donc, la question de est-ce que la machine va avoir une âme à un moment donné ou pas, c'est un reflet de toutes ces questions-là aussi. C'est pour ça que c'est aussi complexe. Ce n'est pas une question purement technologique. Et du coup, l'AGI, ce qui est bien, c'est qu'on peut s'en soustraire quand même. Une des dimensions de l'AGI qui est un peu plus concrète, c'est-à-dire finalement, on aurait un système qui serait capable de traiter un peu n'importe quel type de problème, sans forcément qu'on le prédétermine beaucoup vis-à-vis de ça. Donc finalement, quelque chose qui se rapproche un peu d'une intelligence humaine, en tout cas telle qu'on se la projette ou qu'on se la fantasme, dire qu'il soit relativement capable de recréer ses propres contextes, ses propres, on va dire même, structures théoriques, sa propre cognition, sa propre manière de penser. Et ça, je dirais que ça correspondrait effectivement à une division les plus hautes et les plus estimées de l'IA qu'on puisse avoir, et même de l'intelligence au sens large. Donc ça, effectivement, on pourrait ne pas s'en rendre compte pour une raison très simple. c'est parce qu'on progresse séquentiellement. Donc on progresse petit à petit. Et donc un peu comme l'eau qui bout et on ne s'en rend pas compte de l'intérieur, de la même manière, effectivement, on se rend compte que probablement, l'IA va développer des compétences auxquelles on fera... Enfin, peut-être qu'on passera des seuils arbitraires comme celui-là auxquels on n'a pas fait attention. Et c'est plutôt une bonne chose que Sam Altman ait ce discours-là parce qu'on a eu aussi beaucoup de discours qui étaient catastrophistes sur l'IA ou des discours qui font peur. Et aujourd'hui, il faut savoir que souvent, ça coûte moins cher de faire une annonce catastrophiste que de dépenser dans de la communication et du marketing. Donc dire n'importe quoi, c'est une stratégie de marketing, et en IA, ça marche très bien, il faut s'en rappeler. Ok, donc plutôt rassurant par rapport à l'émergence de l'AGI, qui pourrait finalement être une espèce de système d'exploitation pour le monde, si on veut le voir.

  • Speaker #1

    Oui, après il y a la place qu'on lui donne. Alors après il y a l'idée de la super intelligence, on la voit par exemple dans Irobot, elle s'appelle Vicky, et on se rend compte d'ailleurs que c'était plus ou moins le méchant depuis le début, donc je ne spoil pas parce que le film a 20 ans, et il est libre encore plus. Mais voilà, effectivement, il y a cette idée d'avoir une super intelligence. Alors l'idée de la super intelligence, c'est un vrai fantasme. Il y a une vidéo YouTube qui m'énerve, qui a fait une quantité de vues incroyable, qui s'appelle l'usine à trombone. Alors l'usine à trombone, ça m'a rendu complètement fou. Alors vraiment, c'est pile poil la vidéo qui vient pile poil dans, je dirais, l'espace des fantasmes, exactement à l'endroit de ce que les gens ne savent pas, pour la plupart sur l'IA, pour faire croire à un scénario qui est absurde. complètement. L'idée qu'effectivement, à aucun moment donné... Alors oui, pardon, je le précise en deux mots. L'usine de trombone, c'est l'idée qu'une IA qui gère une usine de trombone, à un moment donné, sous la pression et la nécessité de produire toujours plus de trombone, va faire des choses de pire en pire pour arriver à son objectif, comme tuer des humains pour recycler leurs os en trombone, des idées de ce genre-là. Et donc, elle pourrait faire toutes les atrocités de la Terre pour arriver à son objectif. Évidemment que nous, les ingénieurs, quand on code, quand on fait des lignes de code... on a à peu près une idée de à quoi ça sert. Heureusement, sinon votre code broker, de temps en temps, qui lui-même est géré par des lignes de code, il passerait sur des chiffres aléatoires et personne ne serait content. Qu'on sait faire de l'informatique prédictible. Et l'informatique est prédictible par nature. Quand l'informatique devient chaotique ou aléatoire, on la fait volontairement. D'ailleurs, c'est une grande difficulté de mettre l'aléatoire dans des machines. C'est un savoir-faire spécifique. Et donc, il ne faut pas s'y tromper. Si on a une machine comme ça qui gère une usine de trombones, si à un moment donné, elle se met à faire des choses horribles pour arriver à ses fins, on l'aura. chercher explicitement, volontairement, ce sera écrit dans le code, on l'aura connecté à des systèmes, on aura mis des flingues quelque part dans l'usine, connecté à l'IA, on l'aura fait volontairement. Il n'y a pas de cas où ça peut arriver. Si l'IA déconne, c'est qu'on a prévu qu'elle puisse déconner, à un moment donné. Elle peut se tromper, on peut avoir un sous-calcul, etc. Mais si elle utilise un système, c'est qu'on la relie à ce système-là. Ça, c'est très important de s'en souvenir, il n'y a pas de câble magique qui serait connecté entre deux choses. Alors, après, Le risque qu'on craint parfois, c'est de la super IA qui commencerait à avoir une identité propre, qui pourrait aller hacker le web pour se reproduire elle-même sur les serveurs, etc. C'est fantasmatique, mais pas complètement fou. C'est-à-dire qu'on pourrait imaginer une IA qui est cette intelligence-là. Maintenant, encore une fois, on l'aura fait volontairement. C'est pour ça que l'enjeu finalement n'est pas tant une IA dont on perd le contrôle qu'une IA qu'on conçoit pour en perdre le contrôle. Ça, c'est plus l'enjeu. C'est pour ça qu'effectivement, la sécurité informatique va devenir un enjeu encore plus fort. dans le monde de l'IA. On va devoir de plus en plus sécuriser les systèmes aussi pour l'IA. On n'y est pas encore tout à fait, cette idée de l'espèce d'IA qui voyagerait comme ça de serveur en serveur en hackant les systèmes, mais c'est pas absurde, honnêtement. On a plein d'idées absurdes sur l'IA en ce moment, celle-là n'en est pas une. Pourquoi pas ? On pourrait avoir ça à un moment donné, mais clairement, l'enjeu principal, c'est les forces géopolitiques et les individus qui vont se servir de ça, puisque ce sera constitué par quelqu'un dans un objectif, certainement malveillant, et c'est ça l'enjeu. Et en fait, on ne va pas perdre le contrôle. Au contraire, on va avoir des gens très en contrôle qui vont se servir de ça contre d'autres personnes, contre d'autres blocs, etc.

  • Speaker #0

    Ok. Et pour terminer, une petite question sur un conseil que tu pourrais donner pour des gens qui s'intéressent à l'IA, pour peut-être des étudiants, des chercheurs, des jeunes chercheurs, des gens qui ont envie d'en bénéficier de manière vertueuse, bien sûr. Comment faire pour se former, pour être pertinent ? à l'ère de lire.

  • Speaker #1

    On me demande toujours, Thomas, c'est quoi les bonnes vidéos, les bons livres à lire, etc. Alors, j'ai sorti un livre, donc évidemment, je vous le conseille. L'IA en 50 notions clés dans la série Pour les nuls, qui fait un petit peu, qui fait lexique de tous les termes qu'on revoit beaucoup aujourd'hui. Ça aide. Il y a pas mal de vidéos et de cours en ligne qui sont intéressants, qu'on peut regarder, etc. Mon conseil, en vrai, j'en ai un. J'en ai un hyper important. Pratiquez. C'est-à-dire qu'il ne s'agit pas de coder, il s'agit d'aller tester. Vous avez un enjeu, prenez un projet. pour vous, pour quelqu'un, quelque chose qui vous intéresse et menez-le jusqu'au bout en faisant du chat GPT, un GPT, en faisant un peu de no-code, en allant chercher peut-être un deep-seek, un mistral, un perplexity. Connecter des objets entre eux en faisant du no-code ou utiliser une plateforme qui naturellement connecte d'eux. Tester un de ces générateurs de sites web assistés par IA, comme Bolt par exemple, des choses comme ça. Tester ces objets-là. Voyez comment ils réagissent, essayez de les comprendre. C'est pas de la magie noire, c'est à un moment donné... C'est un peu bizarre des fois, mais il y a une logique. Et en fait, il y a une seule intelligence. Je pense fondamental pour comprendre ces objets, c'est l'intelligence pratique. Il faut les manipuler, il faut regarder comment ils fonctionnent. Et quand je donne des conférences, j'en ai fait une soixantaine l'année dernière, entreprises, collectivités, associations tech, etc. Il y a un seul truc qui marche pour aider les individus qui ne comprennent pas ce que c'est à comprendre. C'est de la démonstration, c'est du test, c'est de l'expérimentation. Et donc pour des personnes qui veulent ne pas être larguées, qui veulent peut-être même devenir des sponsors, des experts de leur domaine, mais dans l'IA. Des collaborateurs qui aimeraient devenir des monsieur IA dans leur boîte ou devenir des sponsors de l'IA, il y en a besoin. Il y a vraiment besoin de, je dirais, de sponsors IA partout dans les boîtes. Il faut aller tester, il faut aller manipuler, il faut explorer, etc. Et en fait, il y a beaucoup de choses qui se font aujourd'hui à petite ou à grande échelle, avec du no-code, avec du low-code, avec des outils clés en main, etc. Et donc, il faut y aller, il faut tester, il faut exploiter, il faut s'amuser, il faut faire le lien. Et en fait, le monde de l'IA de demain, c'est celui des experts, je dirais même des... ultra-experts de leur métier qui seront intégrés de l'IA dans ce qu'ils font. Ce n'est pas celui des ultra-experts en IA en vrai. C'est celui des ultra-experts de leurs besoins qui vont venir intégrer l'IA.

  • Speaker #0

    On part du métier pour aller vers l'IA et non de l'inverse.

  • Speaker #1

    Oui, souvent.

  • Speaker #0

    Thomas, merci beaucoup. Où est-ce qu'on peut te suivre si on veut en apprendre plus sur l'IA ? Est-ce que tu publies régulièrement ? Est-ce que tu as un substac ? Est-ce qu'on peut te retrouver sur LinkedIn ? C'est quoi le meilleur moyen ?

  • Speaker #1

    On peut me retrouver effectivement sur LinkedIn, donc à Thomas Solignac. J'ai sorti un livre effectivement cette année qui raconte pas mal de choses. L'IA pour les nuls en 50 notions clés. Et je fais régulièrement quelques vidéos, articles, etc. sur LinkedIn. Et voilà, toujours welcome de recevoir un petit message privé ou une question. Vous êtes les bienvenus.

  • Speaker #0

    Très bien. Écoute, je pense qu'on n'y manquera pas. Merci encore.

  • Speaker #1

    C'est une joie. Merci beaucoup.

Chapters

  • L’innovation, une prise de risque

    00:00

  • L’impact de l’IA sur la créativité

    02:21

  • La notion d’imagination

    09:52

  • Leș principales questions éthiques

    14:38

  • Peut-on réguler une innovation fulgurante?

    21:33

  • L’open source et la démocratisation de l’IA

    30:20

  • L’IA pour tous: un enjeu d’éducation

    39:08

  • Vers une nouvelle fracture numérique?

    41:38

  • Les politiques en retard sur la révolution en cours?

    48:06

  • L’IA dans les années qui viennent

    52:08

  • Pratiquer l’IA

    01:01:30

  • Conclusion

    01:04:09

Share

Embed

You may also like