- Speaker #0
Bienvenue dans Tendances Inno, votre rendez-vous pour explorer les technologies émergentes présentées par Docaposte, le référent français de la confiance numérique. Je suis Marine Adatto et j'ai le plaisir d'être accompagnée par Olivier Senot, directeur de l'innovation chez Docaposte. Dans ce podcast, nous vous emmenons à la rencontre des innovateurs et des créateurs qui redéfinissent notre monde numérique. Que votre curiosité vous porte vers le Web3, l'IA ou toute autre technologie émergente, vous êtes au bon endroit. Préparez-vous à une dose d'inspiration et d'informations, au programme des découvertes, des défis et des solutions innovantes. Alors branchez vos écouteurs, ouvrez votre esprit et plongez avec nous dans l'univers de Tendances Inno. À l'heure où l'intelligence artificielle s'immisce dans tous les aspects de notre vie, une question essentielle se pose. Comment faire en sorte que cette technologie serve véritablement l'humain et la société ? Aujourd'hui, nous explorons une vision stratégique et éthique de l'IA, celle d'une IA des Lumières. Pour en parler, nous avons le plaisir de recevoir Francis Jutand, cofondateur de Cap Digital et auteur du rapport éponyme, publié lors du Sommet international sur l'intelligence artificielle. Bonjour Francis et merci d'avoir accepté notre invitation.
- Speaker #1
Bonjour.
- Speaker #0
À mes côtés, en face de moi plutôt, pour décrypter les enjeux technologiques et sociétaux de cette approche, mon binôme de choc et directeur de l'innovation de Docaposte, Olivier Senot. Alors, comment construire une IA qui respecte nos valeurs démocratiques ? Comment allier innovation, souveraineté et éthique ? Où se situe l'Europe sur l'échiquier techno-géopolitique de la Gen AI ? Et surtout, comment faire de l'IA un levier de transformation positif pour notre société ? Un épisode pour comprendre, questionner et imaginer. Un futur éclairé par l'IA. Olivier, c'est à toi.
- Speaker #2
Merci Marine. Bonjour Francis. Francis, tu es un sage parmi les sages. Alors que j'étais encore en culotte courte, tu terminais l'ENS pour une carrière résolument scientifique et humaine. Prof à Télécom Paris, tu diriges ensuite Télécom Bretagne, avant d'être successivement directeur scientifique du CNET, du Centre R&D d'Orange, du département STIC au CNRS, à sa création. En parallèle... ou presque, tu conçois et cofondes Cap Digital. Tu reprends ensuite le chemin de la direction scientifique avec l'Institut Télécom, puis de l'IMT, avant d'en devenir directeur général adjoint. Tu as cofondé deux chaires à l'IMT, sur les données personnelles et les identités numériques, et sur l'économie des communs de données, thématique ô combien au cœur de l'actualité, particulièrement en ce début d'année. Tu as présidé, je ne connais pas l'acronyme, le CCSSTIC de l'ANR. Membre du CNUM de 2013 à 2016, tu as présidé le comité national du débat sur l'ouverture des données de transport en 2015 qui a introduit la notion de données d'intérêt général. Depuis ton départ du conseil scientifique de OnePoint, tu es membre associé du conseil général de l'économie. Et comme tes journées font 24 heures et qu'il faut les occuper, tu participes à un ouvrage collectif en 2013, la métamorphose numérique pour une société de la connaissance et de la coopération. Tu t'impliques aujourd'hui sur une discipline alliant science et humanité. pour analyser la transmutation numérique de la société, terme que j'adore, l'IA et ses impacts sur les enjeux de souveraineté française et européenne. Enfin, tu es vice-président de l'association française de prospective et viens de publier avec le concours du pôle Cap Digital un rapport intitulé « IA des Lumières » . J'en oublie certainement, comme le club Communication et Prospective 2100 ou le think tank Futur Numérique, mais le temps m'est compté. Francis, merci de ta présence, nous avons hâte de connaître ton point de vue. sur cette société en transmutation et le concept d'IA des Lumières qui, tu t'en doutes, résonne particulièrement dans l'environnement actuel. Francis, nous t'écoutons.
- Speaker #1
Merci.
- Speaker #0
Belle introduction d'Olivier. Moi, je vais bien connaître l'acronyme, le fameux acronyme.
- Speaker #1
C'était le Comité Scientifique STIC, Sciences et Technologies de l'Information et de la Communication, qui était à l'Agence nationale de la Recherche, le comité qui s'occupait de l'orientation des appels et de la sélection.
- Speaker #0
Ok. Alors, pour commencer, je vous propose vraiment, histoire de cadrer le débat et d'ouvrir la réflexion, un quiz en mode vision méta sur notre sujet du jour. Est-ce que vous êtes prêts ? On joue pour la gagne, Francis, toujours.
- Speaker #1
Non, je vais perdre.
- Speaker #0
Première question. Selon une étude d'Amnesty International publiée en 2023, quelle proportion des Français estiment que l'IA représente davantage une menace qu'une opportunité pour la vie privée ? 32%, 56% ou 78% ?
- Speaker #1
Je dirais 55% et ça va grimper.
- Speaker #0
55% et ça va grimper. Olivier, tu dis ?
- Speaker #2
Oui, ça va probablement grimper.
- Speaker #0
Oui, mais tu dis aussi 55-56. En effet, plus de la moitié des Français quand même. Voient l'IA comme une menace potentielle à leur liberté individuelle. Un gros signal. D'ailleurs, vous verrez, on a posé aussi cette question pendant le micro-trottoir. Alors, deuxième question. Selon une étude de l'Université du Massachusetts, quelle est la consommation énergétique nécessaire à l'entraînement complet, donc 3 à 4 semaines, 24 heures sur 24, d'un modèle d'IA de type CHED-GPT ? L'équivalent de la consommation annuelle d'une maison ? L'équivalent d'un vol Paris-New York ou l'équivalent d'un smartphone utilisé 24 heures sur 24 pendant un an ?
- Speaker #1
Il se trouve que je connais la réponse, on en a parlé par ailleurs. Donc le vol Paris-New York, même aller, et personnellement je trouve que c'est très peu. Parce que pour une IA bien entraînée qui serait utilisée par des dizaines de millions de personnes, c'est beaucoup plus important qu'un vol Paris-New York. Mais le problème c'est effectivement que l'usage, la consommation... par des centaines de millions de personnes va consommer énormément. Donc, il faudrait peut-être aller vers des IA plus frugales.
- Speaker #2
Frugales à l'usage.
- Speaker #0
C'est ça dont on va parler, d'ailleurs. Troisième question. Selon le Forum économique mondial, d'ici 2027, quel pourcentage des métiers sera impacté de manière significative par l'IA ? 10%, 25% ou
- Speaker #1
50% ? On va aller sur Olivier. Moi,
- Speaker #2
je dirais 50%, mais je suis sûr que c'est inférieur à la réalité. En fait, on va être plus proche des 80%, voire des 90% d'impact de l'IA sur les petits.
- Speaker #1
Moi, je suis en total... Le numérique a déjà transformé tous les emplois de service des sociétés de service et à l'intérieur des autres sociétés industrielles. Donc, c'est plus de 80%.
- Speaker #0
Il reste tout sous évaluation des impacts.
- Speaker #2
Un exemple simple, là, j'étais avec un... une très grande société du BTP. Aujourd'hui, c'est l'IA qui est au cœur de leur innovation parce que l'IA pilote les robots qui vont construire des maisons et demain des immeubles par technologie additive. Seule l'IA peut contrôler les flux de béton, d'eau, etc. pour les mettre en temps réel. Ils font une maison complète, intérieure, extérieure, pour leurs œuvres évidemment. 18 heures maintenant.
- Speaker #0
18 heures, au lieu de ?
- Speaker #2
Au lieu de, sur le gros heure, il faut compter deux semaines.
- Speaker #0
Ah oui, quand même. Deux ou trois semaines. Ah oui, on est sur une bonne économie de temps.
- Speaker #2
C'est l'IA qui pilote l'ensemble. Même le BTP, qui n'apparaît pas naturellement comme la première cible de l'IA, est déjà concerné.
- Speaker #1
La question, évidemment, est de savoir, est-ce que ça va faire évoluer les emplois, les tâches en elles-mêmes, ou est-ce que ça va remplacer des tâches et des emplois ?
- Speaker #0
Oui. Merci Francis, excellente transition puisque c'est le moment du micro-trottoir. Quand on parle d'IA, évidemment que chacun a son avis, métier, liberté, responsabilité. On allait demander directement aux passants ce qu'ils en pensent et nous leur avons posé trois questions clés. La première étant, comment imagines-tu l'impact de l'IA sur les métiers de demain ?
- Speaker #1
Le digital a transformé nos métiers complètement, dans la façon de travailler, dans la façon de réfléchir même. Donc ça va très loin,
- Speaker #0
oui. J'espère que ça n'enlèvera pas l'humanité.
- Speaker #2
L'IA va créer une polarisation des emplois. C'est-à-dire qu'elle va agrandir l'écart entre les emplois qualifiés et les emplois moins qualifiés.
- Speaker #0
C'est une fonctionnalité qui nous aide,
- Speaker #1
qui nous fait gagner du temps, qui nous fait gagner en agilité. Ça créera forcément des fonctions,
- Speaker #0
de nouvelles fonctions. Ça peut être très bien,
- Speaker #1
mais il faut faire attention à ne pas devenir un alphabète quand même.
- Speaker #0
Je reviendrai après sur vos retours là-dessus. Donc, ce qui est intéressant, c'est quand même de voir que certains voient une opportunité dans l'IA et ils voient que ça va vraiment rebattre profondément les cartes sur les compétences et sur l'organisation aussi du travail. Et la deuxième question qu'on s'est posée aussi, c'est la responsabilité. En fait, qui doit porter cette responsabilité et qui doit fixer les règles d'usage de l'IA ? Je pense qu'il y aura des ministères et des gens qui... Enfin, j'espère ! Mais si, c'est sûr qu'il faut que ce soit plus réglementé.
- Speaker #1
Je pense qu'on ne peut pas dire qu'on va l'utiliser ou pas l'utiliser. Ou alors on rentre dans des types de systèmes aujourd'hui qu'on n'a pas envie d'avoir.
- Speaker #2
Chacun fait ce qu'il veut. Si quelqu'un nous a donné un outil, maintenant à chacun de l'utiliser à son avantage.
- Speaker #0
On est la patrie des lumières.
- Speaker #1
Je pense qu'il y a un vrai ADN autour de libre arbitre.
- Speaker #0
Donc vous voyez, l'idée d'un encadrement est largement quand même partagée. La vraie tension, c'est entre la vitesse de la technologie et la capacité des États à suivre, ce qui nous amène directement à notre troisième question. Jusqu'où sommes-nous prêts à aller pour protéger nos libertés ?
- Speaker #1
Effectivement, si je considère que c'est dangereux, je m'en passe. Ça veut dire quoi se mettre en danger ? Ça veut dire mourir pour moi, donc si ça ne me met pas... En péril pour mourir. S'ils veulent mon adresse et mes informations bancaires, mais que j'ai le système suffisant pour me protéger, non, ça ne me met pas en péril pour moi.
- Speaker #2
Si on en arrive au cas extrême, comme le pacte social chinois, là, dans ce cas-là, je suis prêt à revoir mes positions.
- Speaker #0
Et donc, par rapport à ces questions-là, on voit aussi que le confort technologique et la protection de nos libertés est un vrai dilemme. Rien n'est jamais complètement noir ou blanc. Est-ce qu'on garde le confort ou est-ce qu'on se protège ? euh Francis, Olivier, est-ce que vous avez des réactions à chaud sur ces témoignages que vous venez d'entendre ?
- Speaker #1
Moi, je dirais qu'on pourrait presque s'arrêter là parce que beaucoup, beaucoup de choses ont été dites. Ça veut dire qu'il y a une perception très forte. Dès l'instant où on demande aux gens de réfléchir, ils réfléchissent et ils parlent. Ensuite, dans les usages, ça peut être différent.
- Speaker #0
Oui. Olivier ?
- Speaker #2
Non, tu vois les mêmes réactions. Plus de réactions courtes vues. La personne qui dit, donc ça ne me met pas en danger directement. C'est une analyse très, très courte vue de ce qu'elle y a et de ce qu'elle peut faire. Intéressant. Ça demande à... On voit bien qu'il y a un besoin d'acculturation plus approfondi que ce qu'elle n'est aujourd'hui.
- Speaker #0
On ne se rend pas compte.
- Speaker #1
Et on voit bien qu'il y a aussi une confusion entre le numérique, parce que les réseaux sociaux, c'est du numérique, mais ils commencent à... à incorporer de l'IA ou ils en ont incorporé déjà par le profilage ou autre. On sent qu'il y a une confusion entre tout ça. Mais globalement, je trouve que les problèmes sont composés.
- Speaker #0
Oui, oui, oui. C'est d'où l'intérêt d'acculturer et en effet, ouvrir les esprits là-dessus. Francis, pour commencer, du coup, de quelle IA est-ce qu'on a vraiment besoin aujourd'hui pour servir l'humain et non l'inverse ?
- Speaker #1
Alors, c'est une question... L'IA ou le numérique en général, c'est une technologie à fort potentiel. Et donc, comme toutes ces technologies, elles aident l'humain pour répondre à ses besoins premiers. Mais elles sont utilisées aussi dans notre société de consommation, pour développer la consommation, les prises de pouvoir, les gains de puissance. Donc, il est primordial pour une technologie qui a une puissance si forte, de la mettre au service du progrès. C'est presque du bon sens. Et bien sûr, il faut définir ce qu'est le progrès. Je crois que c'est Étienne Klein qui dit que l'innovation n'est pas forcément le progrès. Donc il y a une première étape. Il faut comprendre ce qu'on appelle le progrès. De toute façon, aujourd'hui, la façon dont se développe le numérique et l'IA, c'est effectivement des gens puissants qui analysent des besoins, des besoins insolvables dans lesquels ils vont investir. Et ensuite, qui vont... leur pouvoir, qu'ils vont développer qui va leur apporter beaucoup d'argent. C'est leur première boussole. Mais pour ça, il faut trouver des bons services, c'est innovant, donc il y a des choses, il y a une part d'utilité. Mais globalement, le gros développement du numérique se fait de façon, pour la grande consommation, se fait pour des besoins le pouvoir de consommer. Donc c'est ça qui est utilisé pour développer. Et le pouvoir de consommer, c'est peut-être pas le progrès de l'humanité. Donc il faut se poser des questions. En voyant les problèmes, mais en voyant aussi tout ce que cela apporte de positif. Et on peut le voir dans l'entreprise, c'était bien dit dans les réponses qu'on a écoutées. Donc, je crois que le problème va être, pour le mettre au service de l'humanité, de faire une analyse des besoins. De voir les apports de ces besoins et aussi ce qu'ils coûtent, leurs impacts. Et à partir de cette analyse des besoins, on peut commencer... à dire quelles sont les choses nouvelles, positives que l'on va faire, comment aussi on va guérir l'humanité, parce qu'elle en a besoin, et comment on peut apporter du bonheur et de la sagesse.
- Speaker #0
Donc sortir de cette approche très technocentrée qu'on a aujourd'hui, et qui fait que justement, ce qu'on se disait Olivier tout à l'heure, on ne se rend pas forcément compte, dans le micro-trottoir, de ce qu'est vraiment l'IA et du potentiel qu'on a pour l'humain.
- Speaker #1
Donc le point essentiel, et là puisqu'on est en période de... d'enterrement du pape et d'un nouveau pape qui arrive dans l'évangile de Saint-Luc, je crois, il y a une phrase qui est dite, pourquoi ne jugez-vous pas par vous-même ce qui est juste ? Et je crois que ça va être un des points, étant cette prise de conscience, va être un des points essentiels. Puisque la facilité c'est d'utiliser, puisque en général l'utilisation apporte des bénéfices, mais est-ce que c'est juste pour la personne, pour l'humain, pour l'esprit humain ? Est-ce que c'est juste pour l'exercice de ma liberté ? C'est, je crois, là, cette réflexion, ce pas de côté qui est à faire dans les usages. Et puis, bien sûr... On peut choisir si on a la capacité à choisir. Et ça va être là, je pense, une question profonde sur la souveraineté.
- Speaker #0
C'est ça, la souveraineté. Exactement, parce qu'on parle de souveraineté technologique. Tout à l'heure, tu parlais de gens puissants. Et puis, en ce moment, il y a aussi, on le voit aux États-Unis, cette montée de l'oligarchie technologique. Je ne sais pas si on peut dire technologique, mais en tout cas, il y a une oligarchie tech aux US. Voilà, et donc... cette question de souveraineté technologique, comment est-ce qu'on peut la conjuguer avec la coopération, la compétitivité dont tu parles dans le rapport que tu as rendu ?
- Speaker #1
Alors, tu as parlé d'oligarchie, c'est le mot juste. Il y a un ensemble de GAFAM qui constituent une oligarchie, qui peuvent se battre les uns contre les autres, mais qui chassent en meute aussi, il n'y a pas de problème. Donc c'est vrai que, et c'était bien avant Trump, On est aujourd'hui en situation de vassalisation dans le domaine du numérique. En France, on ne produit pas les composants critiques, on ne produit pas de terminaux, on ne produit pas les services de cloud, ou très peu, il y a quand même quelques entreprises heureusement. On a quelques entreprises qui produisent des services du numérique, il y en a quelques-unes, de la table aussi. Mais on est basiquement... très en retard et on est en vassalisation. Et ça se voit d'ailleurs dans notre balance du commerce extérieur. On paye ça très fort. Et même les télécoms, qui est l'approche où les Européens étaient encore souverains, avec les constellations de satellites, on peut aussi les bypasser. Donc on est vraiment aujourd'hui sous une domination américaine. Mais il faut comprendre que cette domination américaine, il faut comprendre pourquoi. Elle s'est faite avec beaucoup d'innovation, avec des capacités financières très importantes. avec du capital patient qu'on trouve peu en France et en Europe, avec des capacités à créer des grandes compagnies industrielles très fortes. C'est un savoir-faire, une compétence. Mais aussi une anticipation sur l'espèce systémique du numérique et les ruptures qui se passent. Et puis des crédits militaires gigantesques qui ont permis, tout en ayant une concurrence internationale où rien n'était autorisé en termes de financement, de financer en fait les technologies de base. Si on est dans une situation où on est très en retard, il faut qu'on reprenne le contrôle de tout ça. Et pour reprendre le contrôle, il y a deux points importants. Il y a effectivement le contrôle technologique. Il faut être capable de maîtriser les technologies. Et puis, il y a le développement de services et d'usages compétitifs. La technologie, c'est vraiment le contrôle. Et on voit que si les Américains veulent brimer les Chinois, ils interdisent l'accès à la technologie. Et la puissance financière, on le développe dans les services. Donc il faut arriver à combiner ces deux aspects, pas uniquement se focaliser sur le retard technologique. Donc là-dessus, les Américains ont développé depuis 40 à 50 ans une politique de long terme. Les Chinois les ont finalement imités, puisqu'ils financent de la technologie et ensuite ils font jouer la compétition entre leurs entreprises. Et l'Europe, en face de ça, a mis en avant le pouvoir de régulation. qui était cité d'ailleurs tout à l'heure comme un point important, pour protéger le marché et les citoyens. C'est très important. Mais ce que nous disent aujourd'hui les GAFAM, c'est que sans la capacité à faire, au bout d'un moment, une régulation peut s'avérer une ligne Maginot. On peut la contourner. Donc on ne peut pas dire aujourd'hui, l'Europe a le pouvoir de régulation, il est déjà contourné et il continuera d'être contourné. Donc notre seule issue, si on veut... Retrouver des éléments de souveraineté, c'est effectivement de la volonté et de la coopération. Ça va être le point clé. Et puis de l'anticipation. Donc d'une part, rattraper nos retards, mais la cible, elle bouge. Donc il faut aussi viser quelles vont être les nouvelles cibles.
- Speaker #0
C'est devenu un adage, limite, les Américains créent, les Chinois copient et les Européens légifèrent.
- Speaker #1
Je trouve qu'il n'est plus vrai. Parce que les Chinois, ils ne copient pas, ils font.
- Speaker #0
Ils font maintenant, oui, c'est vrai.
- Speaker #1
Ils font. Peut-être que c'est les Européens qui sont en position de copier plutôt, puisque finalement, il y a des startups avec des gens très puissants dedans, très créatifs. Ils ont en général été formés dans les labos des GAFAM. Donc, on n'est plus en situation de Chinois qui copient.
- Speaker #0
C'est ça. Mais alors, justement, le retour, en tout cas, à l'arrivée de tous ces chercheurs américains avec...
- Speaker #1
Il faut parler sérieusement. Il faut changer la date. Il faut parler sérieusement. Il n'y a pas de chercheurs américains américains, il y en a très peu. Quand vous allez dans les universités, etc., ils sont tous étrangers. Deuxièmement, ceux-là ne sont pas du tout attaqués par la politique de Trump. Donc ça n'a absolument rien à voir. Ce n'est pas ceux-là qui pourraient bouger. Donc je crois que le point important quand même, c'est que les Américains réfléchissent et ils nous ont vendu un récit. autour des très gros modèles d'IA générative. Si gros modèles que seuls eux avaient de quoi investir suffisamment d'argent pour les faire, acheter les composants. Donc, ils ont pris une avance phénoménale. Et nous, on a un certain nombre à penser que ce n'est pas la bonne voie. Mais ce faisant, ils voulaient faire ce qu'on appelle une barrière à l'entrée. Donc, nous, on sait faire, on est prêts à vous aider dans l'utilisation. Ils nous ont fait la même chose dans le cloud. Et donc, la bonne nouvelle, grâce aux Chinois, et puis grâce aussi quand on regarde certaines entreprises françaises, c'est qu'il n'y a pas besoin d'être aussi gros pour être performant. Et peut-être même que c'est les petites IA qui vont être plus performantes. Enfin, relativement petites IA plus performantes.
- Speaker #0
Donc, la narration, ce que tu dis, c'est que la narration américaine pourrait nous faire penser, nous, Français et Européens, qu'en fait, on n'a pas du tout les épaules pour rentrer dans ce jeu-là.
- Speaker #1
Vous avez perdu la bataille. Donc, ce n'est pas la peine de la mener, vous l'avez perdue. Mais par contre, on est prêt à vous aider. Ils nous ont fait le coup avec le cloud, il y a exactement 15-20 ans.
- Speaker #0
Un bon storytelling américain.
- Speaker #1
Ils sont bons, ils travaillent.
- Speaker #0
Et donc, l'Europe aujourd'hui, est-ce qu'on a les moyens d'être compétitifs face aux géants américains et chinois ?
- Speaker #1
Alors, on a les compétences. Effectivement, on a de très bons scientistes. Donc, ça ne suffit pas. Parce qu'il faut des compétences, mais il faut aussi du travail. Il faut accumuler du travail et de la connaissance. Il faut aussi qu'il y ait un écosystème d'ensemble qui se développe, parce qu'il faut que les entreprises elles-mêmes, comme le fait d'Ocapos, commencent à utiliser et travaillent dans cet écosystème pour dire voilà les usages que l'on peut avoir. Est-ce qu'on peut coopérer ? Donc il faut travailler entre les entreprises utilisatrices, les entreprises qui vont créer les moteurs d'IA, les entreprises qui vont créer des services à partir des moteurs d'IA, et puis les labos de recherche et de formation. Donc, on a tout à fait ce qu'il faut. Mais la première chose, c'est qu'il ne faut pas céder aux sirènes du renoncement. On a quelques lobbyistes en France, au meilleur niveau, qui nous disent que ce n'est plus la peine. Donc, vous avez déjà perdu. Je crois qu'il ne faut pas céder à ça. Et puis, il faut aussi trouver que peut-être commencer à développer des IA hors des endroits d'usage aujourd'hui. On va parler d'éthique tout à l'heure. Est-ce que l'éthique, c'est aussi développer des IA au service du plus grand nombre, au service de tout le monde, au service de l'économie, de la société ? Et ce n'est pas forcément les développements qui seront les plus rentables là-dessus. Donc il faut aussi être capable d'investir. C'est-à-dire qu'il faut élargir le jeu là où les GAFAM sont aujourd'hui très très forts. Mais pour ça, il faut une volonté. Et il y a aussi une certaine forme d'urgence qui fait qu'on devrait prendre aujourd'hui des initiatives pour ça. Mais ça va être l'écosystème, la coopération qui peut nous apporter des solutions.
- Speaker #0
Et alors justement, toi tu évoques cette idée d'une économie du savoir, donc économie du quaternaire. Sur le volet éthique, Francis, comment est-ce qu'on peut reprendre le contrôle et garantir l'utilisation responsable de l'IA, notamment dans la matière de protection des données, dont on a quand même pas mal parlé dans le micro-trottoir ?
- Speaker #1
Je crois qu'il faut, comme tous les grands mots, Comme éthique, il faut les ouvrir un peu pour voir ce qu'il y a dedans. Donc l'éthique, on a parlé beaucoup de la protection de la vie personnelle, des individus, c'est normal. On ne parle pas assez de la protection de la société, des impacts. Et on ne parle pas assez de comment toutes ces grandes transformations vont transformer les bases de notre société, vont transformer les infrastructures de notre société. Donc... Il faut effectivement analyser ces trois niveaux et il faut aussi, à partir de ça, produire, éclairer les débats, éclairer les entreprises, éclairer les débats publics, démocratiques, pour avoir des propositions d'action sur du point de vue moral, sur les comportements des individus et des entreprises. Une entreprise comme Facebook avait l'habitude d'avancer la patte, de récupérer des données et de dire « oh pardon, je n'ai pas fait exprès » , puis de revenir. Donc ça, c'est du point de vue moral de comportement. Il faut étudier beaucoup plus les impacts d'innovation qu'on introduit. Chaque GPT a été introduit sans aucune considération éthique ni d'impact. La seule considération éthique, c'était ne pas pouvoir être attaqué par les lawyers aux États-Unis. Mais autrement, qu'est-ce que ça va faire, l'éducation, etc. ? Il n'y avait aucune étude d'impact. Et puis, il faut voir aussi du point de vue éthique que... quelque part, quand on transforme comme ça en profondeur, il y a les intérêts qui vont s'opposer. Donc l'éthique, c'est aussi presque le côté noble de l'éthique. La politique, c'est d'arriver à concilier les intérêts et à les organiser. Donc je crois que si on veut effectivement dire, on veut regagner notre souveraineté et on veut aussi avoir une approche éthique, on ne peut pas l'avoir sans la souveraineté. Mais aussi, il faut en faire de cette éthique une sorte de levier, une sorte d'instrument pour dire, c'est l'IA que nous voulons développer. Pas forcément une IA de consommation. Mais il n'y a que nous voulons développer pour tous les intérêts des individus, de la société, des entreprises.
- Speaker #0
Comment on éveille les consciences, justement, sur cette éthique ?
- Speaker #1
Comment on éveille les consciences ? Il y a d'abord un travail qui a été fait au niveau de l'Europe, de dire qu'il y a effectivement des données, ça devient important, donc on va réguler le marché des données. Ça veut dire qu'on dit que c'est un point important, et donc on aide. tout ce que ça intéresse, à réfléchir sur le sujet. Il y a eu ensuite l'AI Act qui a pris un petit peu le train en route avec les IA génératives, parce qu'il y a plusieurs formes d'IA. Et là, on a dit, ah c'est important, ça a été dit, il faut conserver l'humain dans la boucle. Ce n'est pas forcément le choix le plus rationnel économiquement, certaines fois. Donc là, il y a effectivement de la sensibilisation à faire. Mais on est bien aujourd'hui, il faut le... Il faut le voir, c'est que d'abord, c'est ce que j'ai dit tout à l'heure, il faut que ce soit l'affaire de tous, l'éthique. Donc on ne peut pas confier l'éthique à une sorte de commission européenne qui s'occuperait de tout. On voit bien, l'expérience a montré qu'on est trop vulnérable à ce moment-là à d'autres intérêts. Non, c'est un problème de tout le monde, de cette éthique. Et c'est pour ça qu'effectivement, il faut engager les réflexions, comme on le fait un peu aujourd'hui, pour dire ceci vous intéresse, ceci vous concerne. Même si vous n'êtes pas aujourd'hui concerné, vous allez l'être aujourd'hui. Vous allez l'être plus tard, vous allez l'être pour vos enfants. Donc, il faut voir qu'on a aujourd'hui un affrontement entre une puissance qui dit, moi, je développe l'IA, c'est important, ça me rapporte, c'est bien, et non, on ne réfléchit pas trop sur les impacts, et une approche éthique qui doit effectivement être une approche du nombre. de l'eau qui résiste à certains feux.
- Speaker #0
Et donc, il y a un sujet aussi, nouvelle génération, j'imagine, prise de position. Dans le micro-trottoir, je vais aller interroger des jeunes. Ils sont quand même très libéraux sur le sujet.
- Speaker #1
Alors,
- Speaker #0
ils sont très engagés par ailleurs, par exemple, écologiquement, mais il n'y a pas cette vision éthique ?
- Speaker #1
Parce que là, c'est des aspects de récits. Et aussi, ils sont effectivement... mis devant le fait, soit vous signez les accords d'utilisation, soit vous n'avez pas le droit à l'usage. Donc en fait, pris devant la chose, comme l'usage est la réponse à des besoins immédiats de satisfaction de consommation, ils signent, sans réfléchir à ce que ça représente. Et le pire, après, il y a le rénoncement. C'est que de toute façon, tout le monde nous observe, on est espionné, donc ça ne changera pas grand-chose. Donc effectivement, ce point est là. Et je pense qu'il est très important de mettre de l'espoir dans la chose. De l'espoir et de la volonté qui fait qu'on puisse dire « Ok, je peux commencer à comprendre ce que je fais. » Je dis toujours, je ne suis pas sûr d'être suivi par tout le monde, mais quand je commande un repas, j'ai quelque part un esclave qui me l'apporte au lieu d'aller le chercher dans la proximité. Donc quelque part, il va falloir... Plutôt, et je pense qu'on va essayer de dévier le problème sur l'IA en nous amusant sur des problèmes de type, par exemple, la consommation d'énergie, un Paris / New York. Alors qu'il faut mettre ça en correspondance avec les usages. Donc il faut voir qu'on est tous responsables des usages que l'on va développer.
- Speaker #0
Est-ce que tu avais des exemples d'initiatives qui incarnent justement cette responsabilité éthique ? En France ou en Europe ?
- Speaker #1
Je pense qu'aujourd'hui, l'aspect éthique sur le numérique et l'IA, il est abordé par les aspects de consommation d'énergie.
- Speaker #0
De frugalité, beaucoup. D'ailleurs, on ne fait pas de différence entre de l'énergie décarbonée en France ou ailleurs. Donc, ça polarise un peu la réflexion. Ensuite, il y a la communauté enseignante qui, après une hésitation de refus en disant « ce n'est pas de jeu » , commence à se mobiliser en disant « comment nos connaissances vont se transformer ? » . Il y a petit à petit une bonne rumeur qui monte sur… Comment développer l'esprit critique ? C'est plus facile à dire qu'à faire, mais ça va être un des points clés. Donc là, je pense qu'il y a de l'espoir dessus. Et puis, je pense qu'on ne lit pas assez, puisqu'on est dans une période pontificale. Il faut lire ce qui a été écrit. Il y a eu un accord en 2000 qui a été fait au niveau du pape. et d'un certain nombre de grandes entreprises, comme IBM notamment, et Google je pense aussi, qui a fait un appel pour proposer six principes éthiques. Il y a l'inclusion, pour que tout le monde puisse y accéder, la transparence sur comment c'était fait, la sécurité, pour qu'elle soit protégée, l'équité, pour que tout le monde puisse y avoir accès dans des bonnes conditions, la confidentialité d'usage et la fiabilité des réponses. Ça veut dire qu'il y a eu... Il y a 4 à 5 ans maintenant, une approche qui a été développée au niveau romain, au niveau pontifical, avec de grandes entreprises, et on en a fait peu de choses. Pratiquement personne ne le connaît. Il y a effectivement, puisque c'est la période, je recommande de lire les quelques écrits qui ont été faits, qui sont d'une très grande clarté.
- Speaker #1
Tu nous les donneras ? On les mettra en commentaire.
- Speaker #0
Et ça a été fait par des gens qui sont du domaine. Et le côté chrétien-catholique est juste au niveau spirituel, mais pas au niveau du fond.
- Speaker #1
Oui, mais donc ça n'a pas encore été tellement mis en œuvre ?
- Speaker #0
Parce que ça va tellement vite. Ça va tellement vite et il y a un tel apport, les amis philosophes appellent ça libidino, à l'usage de la « répondre à mes besoins » . Oui. Je peux avoir toutes les séries que je veux, je peux commander tout ce que je veux, j'ai problème de train, je les prends, etc. Donc il y a une sorte de, j'allais dire, d'engouement et de folie. Et puis d'un autre côté, il y a quand même effectivement l'installation d'un monde numérique par lequel, qui s'intermédie par rapport au réel, et au travers duquel on est obligé de passer. Et on ne passe pas toujours facilement, et ça nous prend beaucoup plus de temps d'ailleurs qu'on le pense à cette fois.
- Speaker #1
Et d'un point de vue démocratique, comment est-ce que l'IA nous aide sur la démocratie ?
- Speaker #0
C'est une question qui est importante, parce qu'on est un peu en phase de déficit démocratique, enfin d'épuisement, disons, démocratique. Et je pense qu'on sait beaucoup dans la démocratie, on sait beaucoup concentrer sur la décision, pas assez sur l'élaboration. Or, là où on pêche beaucoup, c'est dans l'accès aux informations, aux données, aux connaissances. et aux débats qui ont lieu, qui peuvent amener à faire une proposition démocratique. Et si on a des IA génératives qui sont correctement entraînées, qui présentent des garanties, je prends par exemple un plan d'occupation des sols, je ne sais pas si ça s'appelle toujours comme ça. Vous avez des grands débats, il y a de la technologie, il y a des règles, il y a énormément de choses. C'est élaboré et à la fin, on dit on va vous consulter. Mais vous n'avez aucune chance, parce que vous ne connaissez pas tout. Si vous avez accès à une IA générative qui peut donner, pour ceux qui s'y intéressent, donner accès à de l'information, qui puisse aussi, quelque part, autour d'IA, animer un certain nombre de débats, eh bien, on va pouvoir avoir une élaboration des propositions. Et puis après, on peut avoir aussi un éclairage des décisions. Donc là, je crois que cet outil d'IA, parce que c'est un outil qui permet d'accéder à la complexité, en fait. Et le point critique, et c'est d'ailleurs pour ça que l'IA est importante, c'est que notre société se complexifie et vous ne savez pas traiter un flot de données et de connaissances comme cela, j'allais dire à la main. Quand vous utilisez une IA générative, elle est capable d'appréhender tout cela, on l'a entraîné pour ça, elle est capable de dialoguer en langage simple, elle est capable de vous donner des réponses en un temps extrêmement court. Donc c'est bien l'outil d'accès à la complexité.
- Speaker #1
Donc ça veut dire que par exemple, sur une consultation sur l'occupation d'un droit des sols, tu crées une IA dans laquelle, en tout cas le département, je ne sais pas où, l'entité, crée une IA dans laquelle elle va mettre l'intégralité des informations. donner le lien aux citoyens qui pourront la questionner, si je simplifie, pour avoir l'intégralité des informations et donc s'y intéresser, répondre oui, non, voter.
- Speaker #0
Ce qu'un honnête citoyen devrait pouvoir faire et qu'il est dans l'incapacité de faire parce qu'il n'a pas les compétences techniques, il n'a pas ces compétences-là. Et ensuite, on peut aussi animer quelque part le débat autour. Donc là, on a vraiment ce point clé, c'est-à-dire que tout régulièrement nous dit qu'il faut simplifier, c'est vrai. Mais il y a... la bonne simplification, c'est celle qui évite les complications, qui évite les petits abus de pouvoir, etc. Ça, c'est de la bonne simplification. Mais il faut aussi utiliser la complexité, à condition d'avoir des outils pour le faire. Et c'est en ça que je pense qu'on a une capacité de renouvellement démocratique qui peut être très importante.
- Speaker #1
Un bon entendeur.
- Speaker #2
Ça, c'est une discipline qui s'appelle le Legal Design, et qui vise justement, on est en train de le déployer avec une IA générative que... petite, mais verticale, pour les contrats d'assurance, pour expliquer les contrats d'assurance aux assurés ou aux sociétés.
- Speaker #1
Quand tu dis verticale, ça veut dire quoi ? Il y a une générative verticale ?
- Speaker #2
C'est un petit modèle qui ne connaît que les questions d'assurance et qui ne parle que quatre langues, le français, l'allemand, l'anglais et l'espagnol. C'est un tout petit modèle. Si vous lui demandez quand est né Napoléon, il ne saura pas répondre.
- Speaker #1
Juste pour répondre aux questions du thème,
- Speaker #2
Juste dédié au sujet de l'assurance, de l'inspection pour le droit d'occupation des sols.
- Speaker #1
Et donc plus frugal.
- Speaker #2
Et donc beaucoup plus frugal, explicable, maîtrisable, éthique. Et qui apporte quelque part une supériorité ou qui apporte une valeur ajoutée. aux citoyens ou aux entreprises.
- Speaker #1
Une compréhension. Oui, c'est ça l'avis.
- Speaker #2
Legal design, c'est une discipline qui monte très très fort.
- Speaker #1
Alors justement, tout ça, ça va aussi dans une nouvelle économie du savoir, de ce que tu appelles le quaternaire. Est-ce que tu peux nous expliquer en quoi l'IA peut devenir un levier majeur dans cette économie de la connaissance ? Oui, c'est ça.
- Speaker #0
Rapidement, on a eu l'économie primaire, c'est l'économie des ressources primaires, de la nature. L'économie secondaire, c'est l'économie industrielle, la production industrielle. Le tertiaire, c'est la production de services. Et je dis depuis quelques temps, et je pense que ça va apparaître maintenant plus clairement, qu'il y a une économie quaternaire qui est celle de la connaissance. C'est-à-dire que c'est une économie très spéciale parce que sa matière première, c'est la connaissance. Alors la connaissance, ça peut être des données, des informations. des algorithmes, des brevets, ça peut être tout ça. Et cette matière première, on la transforme, donc maintenant beaucoup avec l'IA, pour produire d'autres connaissances qui vont être utilisées comme connaissances ou qui vont servir à faire évoluer les services ou la production de biens industriels. Et cette économie, elle a des fondamentaux très différents parce que c'est une matière première. Les économies s'appellent ça de matière première non rivale. Ça veut dire que l'usage ne la détruit pas.
- Speaker #1
L'usage amplifie, on peut dire ça ?
- Speaker #0
On peut s'en servir, mais elle reste. Et donc d'autres peuvent s'en servir, d'autres encore peuvent s'en servir. Donc ça veut dire que je crée un service, par exemple, en open source, tout le monde peut l'utiliser. Donc ce n'est pas une économie du produit, où vous avez besoin de matières premières, d'énergie, et le bien que vous produisez, si quelqu'un se l'approprie, d'autres ne peuvent pas s'en servir. Donc c'est une économie très particulière. dont on connaît mal les fondamentaux. Et même, je dirais que certaines organisations de l'économie aujourd'hui s'opposent à cet libre usage de l'économie de la connaissance.
- Speaker #1
Par exemple ?
- Speaker #0
Il y a les brevets, c'est une approche. Il y a effectivement le fait que dans cette économie-là, on va avoir tendance à coopérer pour mettre ensemble des données ou des connaissances pour produire d'autres connaissances. Et la coopération, je prends un exemple. De cela, les Big Pharma ont créé une intelligence artificielle générative, c'est Google qui leur a entraîné, à partir de leurs données pour chercher des molécules. Personne ne voyait les données des autres, mais l'intelligence artificielle a quelque part capturé toute cette connaissance. Eh bien, si on réfléchit bien, du point de vue de la création de connaissances, ça peut être magnifique, mais en même temps, ils peuvent être accusés de... Concurrence des loyales, d'alliances concurrentes.
- Speaker #1
D'arriver à des abus de position dominante.
- Speaker #0
D'arriver à des abus de position dominante. Et on ne sait pas si d'autres disent, mais moi, je devrais avoir accès aussi à cet IA. Que va-t-il se passer ? Donc, on a à réfléchir aussi sur cette nouvelle économie qui n'a pas en tant que telle été étudiée par les économistes. Et c'est d'ailleurs l'objet de la chaire que l'on développe sur l'économie des communes données.
- Speaker #1
Donc, une coopération. Mais finalement, si tu n'embarques pas tout le monde avec toi... Tu peux léser les petits acteurs ou en tout cas augmenter la fracture ?
- Speaker #0
Alors si on a une position de marché très forte. Donc en fait, moi je vois effectivement rapidement, il y a une première dans cette économie de la connaissance, il y a la création en open source, où des gens se mettent ensemble en consortium et créent des contenus, souvent des logiciels, qui vont pouvoir être utilisés librement avec un certain nombre de contraintes. Il y a effectivement ce qu'on étudie beaucoup dans la chaire. sur les communes, il y a quelques entreprises qui se mettent ensemble pour développer un nouveau service ou développer la production de biens. Il y a effectivement plutôt des, on appelle ça des communs, des communs de données. Il y a les communs de données d'écosystèmes. Par exemple, tous les partenaires aéronautiques d'Airbus, aussi bien en amont qu'en avant l'utilisateur, peuvent se mettre ensemble pour partager des données. Et puis, il peut y avoir aussi des... des communs de données qui soient des communs de données de biens publics. Vous pouvez imaginer, par exemple, pour l'enseignement de la philosophie, qu'on entraîne une lia générative avec tous les écrits des philosophes depuis le début de l'humanité.
- Speaker #1
Elle n'existe pas déjà ? Non.
- Speaker #0
Non ? Non. Parce qu'aujourd'hui...
- Speaker #1
C'est une idée, ça ! Oui, j'étais sûre qu'elle existait.
- Speaker #0
Non, parce qu'effectivement, il faut un peu d'argent. Oui. Il faut un peu d'argent pour ça. Alors non seulement il faut les données, il faut être rassuré des données. Il faut qu'elles soient les données libres d'accès, ou alors il faut négocier pour que. Donc il faut créer ce commande-données. Ensuite, il faut entraîner cette IA avec une première phase automatique. Ce n'est pas celle qui coûte le plus cher finalement, mais il y a aussi une phase de finalisation pour aider à la qualité. Donc il y a un peu de travail à faire. Mais ça pourrait être effectivement ces IA. Moi, je crois beaucoup aux IA génératives de biens publics.
- Speaker #1
Oui, parce que donc... Ce que tu viens de nous expliquer, c'est vraiment l'économie du savoir au service du bien public, du bien commun et de la société. Tu disais tout à l'heure, il faut avoir une vision d'investissement aussi pour le bien commun. Donc finalement, c'est vraiment ça. T'as investi là-dessus.
- Speaker #0
Mais pas que. C'est-à-dire qu'il faut que les entreprises se mettent ensemble pour leur intérêt privé, pour effectivement utiliser ces technologies. Il faut qu'elles se mettent aussi ensemble au préalable en amont. pour comprendre comment elles vont pouvoir l'utiliser, plutôt que chacune partir au combat toute seule en face des GAFAM. Donc là, il y a vraiment des initiatives à prendre. Puis ensuite, il y a de l'intelligence à mettre dans l'association de données, l'usage en commun de données, pour produire soit des biens dans le domaine marchand, normal, soit effectivement dans le domaine d'intérêt général. Et je pense que ça va être des éléments qui vont, quelque part, aux côtés de ce qui existe aujourd'hui. vont permettre de diversifier les besoins, diversifier l'utilisation de l'IA, et permettre à l'Europe de retrouver des positions, je pense, et travailler en disant c'est dans quel intérêt, et c'est là où on retrouve l'IA des Lumières.
- Speaker #1
C'est ça, donc il faut qu'on ait tous un sursaut d'intelligence collective pour travailler pour le bien commun. Ce qui est intéressant aussi, c'est de comparer ce qui se passe en France avec les initiatives qui sont prises ailleurs dans le monde. et leur impact aussi sur l'échiquier géopolitique. Olivier, quels sont les signaux forts et faibles qui se dégagent aujourd'hui, en 2025 ? Quelle tendance est-ce que tu anticipes pour les prochaines années ?
- Speaker #2
Je vais bien rebondir, mais je ne vais pas monopoliser la parole, parce que je pourrais en parler des heures. Je suis entièrement d'accord sur les biens numériques. En France, on est une des rares nations, il faut l'avoir en tête, où on a les trois composantes majeures. Le savoir, parce qu'on a des chercheurs de très haut niveau. Les capacités de calcul, on les a. Elles existent largement. Et l'argent existe. Les VCs ont les poches pleines et sont prêts à financer. Il nous manque deux éléments essentiels. La volonté et donc ce narratif dont tu parlais, Francis, qui n'existe pas en France. La France est-elle capable de faire quelque chose ? À chaque fois, la réponse est non. Alors que c'est tout à fait le contraire. La France a tous les atouts pour réussir. Et puis on a un défaut politique, où effectivement la politique au sens grec du terme, en France, n'est pas orientée vers son économie. Ça, c'est un constat classique depuis 1945. Elle n'est pas orientée vers l'économie. Donc, nonobstant le fait de modifier ces deux éléments-là, notamment la volonté politique, on a en France et on a autour de nous des gens qui sont prêts à s'investir pour le « Liama in France » dans des petits modèles, effectivement, qui seront nécessairement plus… performant dans leur verticalité que les très gros modèles pour une consommation largement inférieure. Donc, je réponds là pour la France, éventuellement l'Europe, même si l'Europe, c'est encore plus inertiel dans sa mise en route. Ce qui se passe ailleurs, on le verra tout à l'heure, mais les trois plaques majeures, c'est vraiment Chine-US et au milieu l'Europe qui essaient de se débattre. Le reste est un petit peu... peu à la marge. Et on voit, si je reviens sur les micro-trottoirs, on voit par contre un goût franchisme se créer là, en direct, entre les NSP qui savent et qui... NSP,
- Speaker #1
oui, j'allais te demander. Pardon. Pas de jargon, Olivier.
- Speaker #2
Non-state player. donc ceux qui ont des puissances financières, lobbyistes, etc., supérieures à ceux des États. Donc, les NSP, aujourd'hui, maîtrisent le narratif, maîtrisent l'économie, maîtrisent les usages.
- Speaker #1
Open AI, par exemple, NSP ?
- Speaker #2
C'est Microsoft plutôt que Open AI. Open AI n'est pas encore un NSP, mais Microsoft, oui.
- Speaker #1
Non, mais juste pour donner des exemples. Oui,
- Speaker #2
c'est les GAFAM, les BATX, les NATU. tous ces conglomérats. Donc c'est NSP qui maîtrise l'économie au travers du narratif, notamment. Et il ne tient qu'à nous de changer ce narratif, d'avoir cette prise de conscience. La conférence de février 2025, sur janvier 2025, sur l'IA, a eu un énorme mérite qui est celle de faire prendre conscience à la fois de nos forces et de nos faiblesses dans ce domaine. Moi, j'ai une seule envie, c'est allons-y, faisons-le. Et la bonne nouvelle, c'est que la technologie va nous permettre d'y aller avec des moyens qui ne sont pas du tout ceux des GAFAM. On sait aujourd'hui diviser quasiment par l'équivalent d'un facteur, donc un facteur c'est 1000, un ordre de grandeur, pardon, la densité de calcul pour créer des LLM. ou des SLM. On sait qu'à 18 mois, on aura un autre ordre de grandeur qui sera franchi, donc on va avoir un million par rapport à aujourd'hui. Si on a une densité de calcul qui diminue d'un million pour créer un LLM, nos outils, nos serveurs, nos fermes de GPU dans les entreprises françaises sont capables de générer des LLM verticaux qui vont être frugaux, qui vont être éthiques et qui vont être conformes aux droits européens. C'est là où on peut, nous, Français et Européens, arriver sur le marché avec des IA qui ne génèrent pas de questions juridiques sur les IA en droit, sur l'éthique, sur l'explicabilité, par rapport aux NSP qui, eux, arrivent avec des modèles gigantesques qui sont emprunts de tout un tas de questions autour de ces... de l'éthique, de l'explicabilité, de l'ayant droit, etc.
- Speaker #1
Et tout aussi efficace ?
- Speaker #2
Et tout aussi efficace. On n'aura probablement pas des modèles généraux de la taille de GPT, parce que ça, par contre, il faut des quantités de données qu'on ne va pas introduire dans ces datasets-là. Par contre, on aura, oui, quand je lis que des relations clients sont réduites de 90% de TP remplacées par l'IA, sur de la relation client, on n'a absolument pas besoin d'un méga modèle chat GPT. Un modèle vertical entraîné sur les données de l'entreprise sera bien plus performant. Et là, on va arriver, et on est déjà en fait, sur l'agentique. Donc l'agentique à objectif. Donc il y a deux protocoles rivaux, A2A et MCP, qui sont en train d'émerger et qui vont être des agents intelligents capables de... performer des actions à partir d'un objectif. Donc, ces agents-là, eux, vont se servir des différentes IA, vont se servir des différents outils à leur disposition. pour atteindre leur objectif. On va encore passer un cran dans l'IA, pour basculer d'une IA one-one, je pose une question, j'ai une réponse, à une IA à qui je dis, effectue cette tâche, et il va se débrouiller pour aller chercher les outils et les informations nécessaires pour performer cette tâche. On change encore de niveau, et là aussi, les IA de petite taille, bien entraînées, seront plus efficaces que les très gros modèles qui consomment... énormément.
- Speaker #1
Et ça veut dire que ça te garantit une souveraineté aussi ?
- Speaker #2
C'est là où je voulais en venir. C'est que les sociétés, le tissu économique français et européen doit se saisir de cette opportunité et de ce changement de direction dans les IA génératives pour aller vers des modèles qu'ils vont être capables de créer. Donc on va pouvoir garantir la souveraineté. Et pour les PME, TPE, qui, elles, n'ont évidemment pas les moyens de s'impliquer là-dedans et qui ne sont pas du tout impliquées, on le voit dans les baromètres d'ailleurs, que le bien commun remplisse cette mission. Et on a des outils pour le faire en France. On a des chercheurs à l'INRIA, au CNRS, à l'IMT, qui savent très bien faire ça. On sait générer et créer des communautés open source. Et on sait le faire financer par un mix entre la puissance publique et la puissance privée. Donc, on a cette capacité, cet ADN. en France et en Europe pour créer, grâce à ces évolutions technologiques, des outils qui vont être souverains et qui vont... Alors, souverains, je n'aime pas trop le terme, mais qui vont nous permettre l'autonomie stratégique et surtout qui vont nous permettre de nous dégager d'une ultra-dépendance technologique auprès des NSP.
- Speaker #1
Mais alors, comment on fait ? Comment on y va ? Je suis obligée de te poser la question, Olivier. On a tout. On a tout.
- Speaker #0
Moi, ce que je dis, c'est que Olivier dit les choses comme elles doivent être dites, c'est-à-dire que vraiment, on peut. Il y a deux choses. C'est qu'il ne faut pas oublier que les GAFAM sont très professionnels. Donc, la fameuse user experience, il faut la travailler pour que, non seulement, on n'ait pas le concept, mais qu'on aille jusqu'au bout pour offrir des solutions. Le deuxième point qui va s'avérer critique également, Et là, l'Europe doit y travailler. C'est d'éviter qu'on intègre cette IA dans toutes les suites que nous offrent ces GAFAM et qu'on soit obligé de les utiliser. Obligé ou presque obligé.
- Speaker #1
Ce qui se passe là, en France,
- Speaker #0
avec Google Suite,
- Speaker #1
avec...
- Speaker #0
Et donc là, il y a un combat à mener pour dégrouper. Ça a déjà été mené par le passé. Donc, il faut le passer. Sinon, ils vont nous asphyxier. Donc, mis à part ça, après... Je pense qu'il faut prendre des initiatives pour que tout ce monde qui a les capacités, toutes les grandes entreprises qui ont déjà commencé à utiliser ces IA et qui sont déjà assez avancées, se mettent ensemble quelque part pour construire le récit.
- Speaker #2
Exactement. Construire la vision politique, encore une fois au sens grec, dans l'IA, avec la France ou l'Europe. au centre, donner une vision d'avenir pour l'IA par la politique, mais au sens grec.
- Speaker #1
Oui, parce que là, on s'est tous installés dans un confort avec ChatGPT, pour ne pas le citer.
- Speaker #2
C'est lui.
- Speaker #1
C'est compliqué de revenir en arrière.
- Speaker #0
Je pense que, parce que l'essentiel, il y a le grand public et il y a les entreprises. Le nœud va se jouer dans les entreprises, parce que c'est là où la valeur va se créer. Et d'ailleurs, les guerres femmes sont dessus. C'est ça que... Après, les modèles économiques, en faisant payer à tout le monde, il n'est pas sûr qu'ils soient des modèles rentables. Donc c'est vraiment avec les entreprises que ça va se jouer.
- Speaker #2
Oui, c'est au sein des entreprises. Et c'est les grandes entreprises, c'est le SBF 120 qui doit se mobiliser autour de cette question du... du commun numérique et de l'autonomie stratégique sur des stacks qui sont les stacks de demain. On voit bien que les IA génératives, notamment, prennent le pas avec les agents sur le reste du software. Le software, quelque part, arrive en fin de cycle et tuile en ce moment avec le début de cycle de l'agentique, qui est encore assez balbutiement, l'agentique. On n'est pas encore... des suites agentiques. Maintenant, c'est elles qui vont prendre le relais. Profitons de ce tuilage pour positionner la France comme leader dans l'agentique et dans l'agentique.
- Speaker #0
Et là encore, l'agentique, il y a de la technologie dedans, mais il faut aussi que les entreprises qui sont impliquées dans une solution agentique se mettent d'accord pour travailler ensemble. Ils voient leur intérêt, créer une communauté d'intérêts. Et c'est d'ailleurs l'objet de notre recherche sur les communs de données, c'est ça, comment créer cette communauté d'intérêts. Donc il ne suffit pas de pouvoir, il faut aussi que globalement, on élimine les obstacles pour le faire.
- Speaker #2
Tout ça puisse avancer, oui.
- Speaker #1
Oui, c'est ça, la coopération est clé. Sans coopération, on ne pourra pas y arriver.
- Speaker #0
C'est pour ça que quand on a écrit ce livre, la métamorphose numérique, c'était pour une économie de la connaissance et de la coopération, puisque c'est ça la clé.
- Speaker #1
Si vous deviez chacun me partager votre top de la meilleure pratique ou l'initiative actuelle en matière d'IA responsable, ce serait quoi, Francis ?
- Speaker #0
Moi, j'ai une réponse simple, je dis Docaposte.
- Speaker #1
C'est facile.
- Speaker #2
Très bien influencé.
- Speaker #0
Je vois aussi d'autres acteurs, je suis conseiller scientifique du One Point, que je n'ai pas quitté d'ailleurs. C'est vrai. Où effectivement, leur but, c'est d'accompagner les entreprises. Donc, il y a des sortes de lab IA pour comprendre les problèmes et voir comment l'IA peut apporter des solutions. Il y a des entreprises comme Dassault Systèmes qui sont aussi des créatrices de solutions à partir d'IA qui vont être importantes. Donc, je pense qu'il y a toute une démarche actuellement qui est partie. Et j'ai dit Docapos parce que, simplement, je pense qu'Olivier a une démarche très structurée là-dessus.
- Speaker #1
D'abord les tops. On ne fait pas de spoil sur les flops. Ton top, Olivier, à part toi.
- Speaker #2
Mon top, il porte pas de nom, mais il porte sur... Depuis quelques semaines, quelques mois, là, on fait un peu la tournée des grands acteurs pour voir un peu quelles sont leurs intentions. Et donc le top, il va à Trump, en fait, parce que merci, M. Trump, d'avoir réveillé dans les entreprises cette notion d'autonomie stratégique, d'indépendance. et d'avoir mis sur la table les faits qui expriment la dépendance dans laquelle il se trouve actuellement. Donc mon top, en fait, c'est Trump aujourd'hui.
- Speaker #1
Ça, ça va faire un très très bon short sur TikTok. Il va faire des millions de vues. Les commentaires, on verra.
- Speaker #2
Je ne gère pas les commentaires.
- Speaker #1
Et alors les flops ? Francis, le piège ou la dérive majeure à éviter absolument ?
- Speaker #0
Je pense qu'Olivier, quelque part, l'a dit en creux dans son top. L'adoption de l'IA dans une entreprise, c'est quelque chose qui doit être mûrement réfléchi, qui doit dire d'abord où en sont mes processus, où en sont mes données. Il faut peut-être les nettoyer avant. Donc, c'est de se lancer. de billes en tête dans l'IA sans avoir réfléchi sur la façon dont on va pouvoir transformer la vie dans l'entreprise, sa production, etc. Et en plus d'y aller pieds et poings liés en face d'une offre qui va dire « Venez chez moi, mon poisson est frais. » Il y a tout. Et non seulement il y a le poisson, il y a l'étal, il y a tout ce qu'il faut. Il y a les recettes, il y a tout. Donc là, ce sera un gros flop qui coûtera très cher.
- Speaker #1
À l'entreprise.
- Speaker #0
Oui.
- Speaker #1
Olivier, ton flop ?
- Speaker #2
Mon flop, en fait, ça dépend de quel côté de l'Atlantique on le regarde. Le flop pour moi, c'est l'intégration de Copilot à 365. Parce que finalement, ce que disait Francis, on se retrouve sans le vouloir, voire en le refusant. Mais on ne peut pas le refuser, puisque Copilote est maintenant dans 365. Et le prix de la licence a augmenté. mais il n'y a pas eu de choix vu de ce côté de l'Atlantique c'est un flop pour les entreprises françaises parce qu'elles n'ont pas pu se positionner elles n'ont pas su se positionner par contre c'est un top de l'autre côté de l'Atlantique parce que d'un seul coup ils ont pris l'intégralité du marché de l'IA générative assistante pour la suite bureautique en un claquement de doigts ce qui fait partie de leur stratégie et ce qui fait partie du financement du temps long du financement américain
- Speaker #0
où ils ont déjà ces visions-là au moment où ils lèvent des fonds pour développer des technologies.
- Speaker #1
Et c'est un flop frugalité, parce que chaque fois que vous cherchez quelque chose de simple, vous avez interrogation. Et ils l'ont fait sciemment. C'est quelque chose que, sciemment, on impose.
- Speaker #2
Et justement, il y a aussi maintenant... Toutes les requêtes, on ne va plus forcément sur Google et on va aller sur la GPT. Du coup, c'est Binké derrière, etc. Ce sont des choses qui sont imposées finalement.
- Speaker #1
Ils se battent entre eux.
- Speaker #0
Mais c'est une bataille de NSP.
- Speaker #2
Une bataille de NSP. Messieurs, si on devait retenir une seule idée de notre discussion. Moi, j'ai noté l'idée des Lumières. C'est l'humain qui choisit son destin technologique et pas l'inverse. À quoi est-ce que vous pensez, vous ?
- Speaker #1
Alors moi je vais, parce que j'ai un peu réfléchi, puis j'ai eu quelques lectures là, et donc je vais prendre une citation de feu-le pape François, qui dit « C'est à l'homme de décider s'il veut devenir la nourriture des algorithmes ou nourrir son cœur de liberté sans laquelle on ne grandit pas en sagesse. » Et moi je rajouterais « C'est à l'homme de créer les algorithmes pour nourrir le cœur. » etc. Ça veut dire qu'il avait bien décidé quel est le choix fondamental spirituel des choses dans les usages, mais donc on peut le faire parce que c'est nous qui créons les algorithmes. Donc, je pense qu'il est très important. Il y a eu des débats sur est-ce que le point de vue féminin, masculin, etc., les biais et tout. Il faut dépasser ces débats-là parce que ça, c'est regardé sous le lampadire actuellement. des pratiques actuelles. C'est comment créer des IA, des IA génératives ou des IA agentiques qui soient effectivement au service de l'humain, c'est-à-dire cette fameuse lumière.
- Speaker #2
Oui, Olivier.
- Speaker #0
Toujours le même créneau. Je suis assez constant là-dessus, mais devant ces changements qui sont effectuants des transmutations de la société, Et je vais rester constant là-dessus. Pour moi, c'est d'arriver à donner à l'humain la priorité dans le développement de son esprit critique. Capacité de juger ce qui est bon pour lui. Donc, voilà, l'esprit critique, pour moi, c'est vraiment le numéro un. de réintroduire dans les écoles d'ingé sous les yeux hébétés des directeurs pédagogiques. Ah oui, vraiment ? Qui me disent, mais pourquoi tu veux faire lire Kant à des masters en mathématiques ou en physique ? Mais pour moi, c'est important de redonner un peu une hauteur de vue sur ce que l'on fait, pourquoi on le fait, et pas forcément comment on le fait, parce que ça, c'est l'objet de l'école d'ingénieur.
- Speaker #2
Et les impacts sur nous et sur les autres. Merci à tous les deux. On a exploré ensemble le présent, le futur proche. Mais d'entendance, on adore aller plus loin pour anticiper l'avenir avec une vision prospective toujours très aiguisée. Olivier, que vois-tu dans ta boule de cristal aujourd'hui ?
- Speaker #0
La prospective, ce n'est pas une boule de cristal. Je sais,
- Speaker #2
c'est exprès.
- Speaker #0
Et nous, on mange du verre pilé. Donc, c'est plutôt un ensemble de scénarios plus ou moins probables qui, lorsqu'on les connaît, permet de découvrir les choses trap à éviter. C'est vraiment un travail d'anticipation structurée et méthodologique. Et en matière d'IA, on en a déjà beaucoup parlé. Les auteurs de science-fiction nous ont bien renseigné sur ce que pourrait être l'avenir. On parle de Skynet, de HAL, de Blade Runner, AVA, j'en passe. qui désignent tous une IA capable d'asservir l'humain, plus ou moins à son profit. Ce serait intéressant de savoir ce que signifie asservir l'humain. Et l'utopie littéraire dans le domaine est beaucoup plus rare. On a très peu d'utopies mêlant intelligence artificielle et bonheur humain. Alors il faut se creuser les méninges pour dessiner un scénario où l'homme et la machine vivent en harmonie. Le second au service du premier. Si l'on observe les tendances actuelles, toutes s'orientent vers un point commun, simplifier. Simplifier la création de contenu, simplifier l'automatisation des tâches, simplifier l'accès à la connaissance. Une deuxième observation, c'est l'intégration très profonde de l'IA dans la vie quotidienne des affaires. On est à tous les étages business. confrontés ou en partenariat avec l'IA. Scénario initial le plus probable est donc celui d'une ou plusieurs IA omniprésentes dans nos vies, impliquant l'élaboration de scénarios sur les conséquences humaines, sociales et sociétales de cette omniprésence. On va explorer trois axes. D'abord humain. À mesure que l'intelligence artificielle s'insinue Dans le moindre repli de nos activités, elle redéfinit insidieusement les contours même de l'humain. Si elle promet d'abolir les tâches ingrates et de magnifier nos potentialités, elle menace aussi d'éroder l'effort, la mémoire, la lenteur féconde, ces vertus discrètes qui font de la singularité humaine. Et j'utilise singularité à dessein. Se dessine alors une tension, homme augmenté ou homme assisté, libération ou dépendance. Par exemple, qui utilise une carte routière ?
- Speaker #2
Qui sait lire une carte routière de nos jours ?
- Speaker #0
Deuxième axe social. L'IA, qui est loin d'être un vecteur neutre, agit comme un miroir grossissant de nos inégalités. Son déploiement fulgurant favorise ceux qui la conçoivent, l'exploitent d'une part, et ceux qui la comprennent d'autre part. Les autres, c'est-à-dire 70% de la population, c'est une projection grosso-arithmétique classique, Relégué à la marge, risque de n'être que consommateur passif, objet de calcul prédictif, ce qui ne relève d'aucun changement avec l'état actuel de cette même population face aux réseaux sociaux par exemple. La Chine, en limitant à deux heures l'exposition quotidienne des enfants à TikTok, a peut-être déjà pris conscience des effets de l'IA sur la société. Nous, pas encore. Et enfin, troisième point sociétal, à l'échelle de la cité, L'IA interroge sur nos choix collectifs. Faut-il déléguer à la machine des décisions qui engagent la vie, la justice, la vérité ? La réponse aujourd'hui est unanime, c'est non. Il est franc et massif. Mais qu'en sera-t-il demain lorsqu'au nom de l'efficacité organisationnelle ou financière, et c'est un scénario hautement probable, de la supériorité de l'IA dans certains domaines comme la santé, la question de la place d'humain sera elle-même remise en cause au nom de la santé publique ? confère les différentes études opposant humain à IA générative dans le diagnostic médical. Donc aucun des scénarios n'est écrit par avance, ça c'est la bonne nouvelle. L'intelligence artificielle, loin d'être une fatalité technologique, peut devenir un catalyseur d'un nouvel humanisme. Et en refusant la naïveté et la paranoïa, il nous appartient d'inventer un futur où la technique élève sans dominer, où la machine éclaire sans supplanter. et où l'intelligence, qu'elle soit humaine ou artificielle, reste au service du sens. L'intelligence artificielle n'est ni un monstre ni une magie, c'est un miroir, un révélateur de ce que nous sommes et de ce que nous pourrions devenir. Si elle nous confronte à des dilemmes inédits, elle nous offre aussi l'opportunité rare de repenser ce que signifie être humain. Comment oser conclure sans invoquer Récursvalde ? Prophète d'un avenir accéléré qui envisage une singularité où l'intelligence humaine et artificielle fusionneraient. Abolissant les limites biologiques de l'homme, si cette vision fascine autant qu'elle inquiète, elle a le mérite de projeter un horizon mobilisateur. Non pas une soumission à la machine, mais une expansion de notre potentiel, un dépassement de nos fragilités. Cette perspective, pour radicale qu'elle soit, nous oblige à interroger ce que nous voulons préserver dans l'humain. et ce que nous acceptons de transcender. Comme l'écrivait Gaston Bachelard, l'avenir n'est pas ce qui va arriver, mais ce que nous allons faire. Pour ceux qui ont la référence, no fate dans Terminator. Il nous appartient aujourd'hui de façonner un avenir où l'IA ne serait ni un dieu, ni un démon, mais un artisan discret de notre élévation, un avenir où la technique ne remplace pas l'homme. mais lui permet d'accomplir ce qu'il a de plus grand, comprendre, transmettre et espérer. Alors, faut-il freiner la technologie ou l'habiter ? Vous avez quatre heures.
- Speaker #2
Francis, tu n'as pas quatre heures.
- Speaker #1
Je dirais que frère Olivier a bien prêché. Moi, je suis tout à fait en adéquation avec ce qui est dit. Moi, je le résume en disant qu'on est effectivement avec le numérique, l'IA, on a une forme de coévolution de l'humain avec les technologies. Ça a toujours eu lieu un peu et celle-là, elle est très particulière parce qu'elle s'adresse à nos capacités cognitives. Donc, on a une possibilité de coévolution énorme et ça a bien été décrit. Pour moi, je ne crois pas à une IA qui nous dominerait parce que l'IA, c'est de la production humaine. Donc, à chaque fois que l'on progresse... On intègre dans l'intelligence humaine collective ces capacités et l'horizon de l'IA qui nous dominerait ce... se reculent. Donc moi, je n'ai aucune peur qu'une IA générative, une IA, pardon, en général, une IA générale nous domine. Par contre, j'ai peur que des gens l'utilisent pour nous dominer. Et ça, c'est quelque chose qui est, à mon avis, plus probable. Donc, je crois qu'il y a tout aujourd'hui. Le problème est qu'effectivement, on ne peut pas réfléchir à tout ça, agir sans réfléchir sur... la dimension soit spirituelle ou ce qui est l'esprit humain. Je connais un philosophe qui dit qu'il faut inscrire l'esprit humain au patrimoine de l'humanité, de façon à ce que cette intermédiation entre l'homme et la société, qui est de plus en plus numérique, qui le transforme, que cette intermédiation ne le contrôle pas, qu'on garde cette originalité. Donc moi, je pense que Kurzweil... il y a juste dans le récit une tromperie, c'est que le corps humain fait que transporter un cœur artificiel, etc., c'est économiquement pas facile. Pour quelques happy few. Mais non, l'humain, c'est pas ça. Donc moi, je pense que tout ce qu'a dit Olivier sur les scénarios, c'est ce qui peut nous aider à réfléchir sur le futur. Oui, non mais j'ai toujours un faible pour lui. Parce que rien que le prix d'un cœur artificiel, qui ne fonctionne pas terriblement. Donc dire qu'on va avoir des mécanismes avec un cœur artificiel... Là,
- Speaker #0
il en est carrément à la position dans le silicium. On n'y est pas. Assurez les auditeurs, on n'y est pas.
- Speaker #1
Mais le patron de... (Sam Altman) de ChatGPT, celui qui, depuis trois mois, nous annonce que dans six mois, l'IR général est arrivé. Mais il se fiche de nous. Le pire, s'il y croit, c'est grave, parce que c'est psychiatrique, mais si, autrement, il se fiche de nous. Mais l'idée, c'est qu'on l'a, c'est nous qui l'avons, donc ce n'est pas la peine d'y aller. Il y a toujours ce côté, ce narratif qui est... Et quand on nous dit, faites gaffe à l'IA générative, c'est qu'on ne s'en a pas.
- Speaker #2
Il faut garder le doigt des fois. Merci Francis, merci.
- Speaker #1
Bon, et puis quel morceau de bravoure.
- Speaker #0
Avec plaisir.
- Speaker #1
Je suis preneur du texte.
- Speaker #2
Et de la vidéo aussi.
- Speaker #1
C'est fort. Oui. On est assez souvent... Il n'y a qu'une seule chose sur laquelle finalement je le débat entre souveraineté et autonomie stratégique. Parce que c'est juste une question de termes. Parce que souveraineté pour moi c'est essayer au maximum d'avoir le droit de choisir.
- Speaker #2
Je pense que tu es trop en temps micro.
- Speaker #1
Mais au maximum parce qu'on vit dans une société donc tout le monde ne peut pas tout choisir.
- Speaker #0
C'est le curseur dépendant économique.
- Speaker #1
Parce que... Et autonomie, moi je dis l'autonomie, je trompe peut-être, je dis qu'une autonomie, ça se concède, il y a quelqu'un qui vous la concède. Donc je n'ai pas envie qu'il vous la concède. Merci messieurs.
- Speaker #2
C'est bien ça. Je n'ai pas peur de Trump,
- Speaker #1
moi, c'est vrai. Parce que bon, tout ça va se... Les gens sont nerveux. Les gens sont nerveux. Alors qu'il y a une continuité dans la politique des gars-femmes. Après, ils prêtent servant ou pas. Sur le fond, ils n'ont pas changé leur stratégie.
- Speaker #2
Je n'en sais aucune.
- Speaker #1
Mais je pense qu'on le connaissait.
- Speaker #0
C'est ça. C'est un top, en fait. C'est un top, en fait.
- Speaker #2
Allez, merci beaucoup, Francis. Merci, Olivier, pour cette conversation. C'était riche et passionnant. J'ai adoré. Merci aussi à nos auditeurs qui nous écoutent. N'hésitez pas à prolonger cette réflexion sur vos propres usages de l'IA. et à participer aussi activement à ce débat sur les réseaux sociaux de Docaposte. Et je vous dis, je dis où ? Je dis là, à très vite pour un prochain épisode de Tendances Inno.
- Speaker #0
Ciao ! Merci Marine !
- Speaker #2
Et voilà, chers auditeurs, c'est tout pour cet épisode de Tendances Inno. Un grand merci pour votre écoute. Nous espérons que vous avez trouvé cette discussion aussi enrichissante et inspirante que nous. N'oubliez pas de vous abonner pour ne manquer aucun de nos futurs épisodes. Vous pouvez retrouver Tendances Inno sur toutes les plateformes de podcast, YouTube et Dailymotion. Si vous aimez ce podcast, faites-le nous savoir et aidez-nous à le faire connaître grâce à vos commentaires et à vos partages. Pour plus de contenu sur les technologies émergentes, suivez-nous sur les réseaux sociaux de Docaposte. A bientôt pour un nouvel épisode, placé sous le signe de la tech, du Web3 et de l'innovation. D'ici là, continuez à explorer, à innover et à créer.