undefined cover
undefined cover
HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI cover
HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI cover
La cybersécurité expliquée à ma grand-mère

HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI

HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI

1h30 |14/10/2024
Play
undefined cover
undefined cover
HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI cover
HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI cover
La cybersécurité expliquée à ma grand-mère

HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI

HS 20 : "AI act" avec Rayna STAMBOLIYSKA et Frantz ZIZZARI

1h30 |14/10/2024
Play

Description

Avec Rayna STAMBOLIYSKA ( https://tech-est-politique.eu ) et Frantz ZIZZARI (Frantz Zizzari | LinkedIn).


Rayna et Frantz abordent la nécessité d'une réglementation pour encadrer l'utilisation de l'IA, en soulignant l'importance de la transparence et de la responsabilité des entreprises.

Ils évoquent également les défis liés à l'explicabilité des algorithmes et à la consommation énergétique de ces technologies.

Le débat met en lumière les différences culturelles entre l'Europe et les États-Unis en matière de réglementation, ainsi que les préoccupations éthiques et environnementales associées à l'IA.




Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour mamie, j'ai ramené un copain. Bonjour et bienvenue dans la cybersécurité expliquée à ma grand-mère, le podcast pour expliquer la cybersécurité à ceux qui ne comprennent rien. Il y a quelques temps, on avait fait un numéro spécial avec Nicolas Ruff, que je salue au passage, sur l'IA. Et j'avais envie de refaire un petit update sur ce sujet, parce qu'entre-temps, beaucoup de choses ont changé. On va parler de Tchadjepété, évidemment, mais il n'y a pas que ça qui a bouleversé, je pense, le monde de l'informatique dans les 12 derniers mois. Il y a aussi des éléments réglementaires qui sont assez importants. Et je pense que c'est le bon moment, finalement, de se retourner... quelques instants et puis de regarder l'évolution de ces technologies et de se poser un certain nombre de questions sur l'avenir de tout ça et surtout sur l'avenir en termes réglementaires parce que comme vous le savez en Europe c'est important, on aime réglementer les choses et c'est plutôt important parce qu'on a vu ce qu'elle s'est donné avec RGPD, c'est plutôt une grande fierté maintenant en Europe d'avoir ce type de réglementation que les Américains nous envient. C'était d'ailleurs... un peu la conclusion de Thierry Breton lors du dernier FIC, qui expliquait qu'en discutant avec ses homologues américains, il avait félicité pour réaliser quelque chose qu'eux-mêmes n'avaient pas réussi à faire. Et pour animer cette émission, j'ai deux personnes qui vont pouvoir nous éclairer et nous donner leur avis sur tout ça. Commençons par les dames. quelqu'un qui est déjà connu dans ce podcast, que ma grand-mère connaît déjà, Raina, qui est celle qui anime, entre autres, parce qu'elle a beaucoup d'activités, un blog qui s'appelle La Tech et Politique. Je vous conseille de lire ce qu'elle fait sur LinkedIn, entre autres. Mais il y a tout un ensemble de textes assez intéressants qui permettent de mieux comprendre le contexte réglementaire. et ces textes sont relativement faciles à repérer parce que souvent ils ont des titres on a l'impression que c'est des titres de romans de polars je suis sûr qu'un jour elle va sortir un titre du style le petit friseux et des lardons ou quelque chose comme ça enfin voilà Raina, bienvenue est-ce que tu peux te présenter rapidement et expliquer qui tu es et ce que tu fais merci Nicolas pour l'accueil et pour la présentation qui fait super envie

  • Speaker #1

    de mes écrits. Je m'appelle Arina et je fais du conseil. J'ai ma société de conseil qui s'appelle ARS Stratégie. J'interviens sur des sujets qui concernent notamment la protection de ce qui crée de la valeur au sein des organisations. C'est le volet cyber. Et aussi sur le volet de dans quel monde on évolue. Et ça, c'est le volet réglementaire. et en fait c'est aussi l'objectif de la Techie politique et d'autres offres que j'ai qui sont d'éduquer avant tout les gens qui prennent des décisions, qui créent des produits, qui créent des services, qui créent de la valeur à travers le numérique autour de ces sujets-là du réglementaire. Parce qu'au-delà d'une compte-rente, c'est surtout une opportunité et aussi une façon de faire société numérique.

  • Speaker #0

    D'accord, très bien, merci. Et à nouveau, que ma grand-mère ne connaît pas encore, France, que j'ai eu l'occasion de rencontrer au mois de juillet cet été. Et le discours qui tenait sur l'IM a beaucoup plu parce que ce n'était pas du tout le discours habituel qu'on entendait. C'est un peu à l'inverse des sales qui te vendent tout et n'importe quoi. C'était un discours qui était beaucoup plus réaliste et qui avait un sens assez profond sur l'IA. C'est pour ça qu'il a heureusement accepté mon invitation et je le remercie. Donc, Franz, est-ce que tu veux bien te présenter et nous expliquer ce que tu fais ?

  • Speaker #2

    Bonjour, merci de l'applaudir. Surtout que j'ai été sales dans ce métier. Donc moi je suis Franz Zary, je suis actuellement le lead AI, là où on travaille ensemble. Et avant ça justement, j'ai travaillé pour des boîtes de conseils, où je vendais justement toute cette partie de traitement de données et d'intelligence artificielle. Je n'ai pas commencé comme ça. Je suis économètre, j'ai fait moi-même les petits systèmes, j'ai moi-même éprouvé tous les petits problèmes par rapport à tous les beaux sujets théoriques, comme quoi à chaque fois, il y a un résoutout. Et on se rend compte que ce n'est pas aussi simple que ça, il y a toujours des problèmes de base, la fameuse donnée. Donc voilà, tout simplement, avec grand plaisir que je puisse te voir et voir ta grand-mère évidemment.

  • Speaker #0

    Ah bah écoute, elle est ravie, elle est ravie ! Elle piave d'impatience justement de pouvoir un petit peu mieux comprendre tout ça. Et j'ai envie de commencer par une première question déjà, c'est une petite rétrospective sur l'IA. Et donc Franz, est-ce que tu peux un petit peu nous expliquer quid de l'IA aujourd'hui dans les entreprises ? Parce que comme tu l'as signalé, effectivement on travaille tous les deux dans le monde de la finance. Alors justement, aujourd'hui l'IA dans les entreprises... C'est quoi ? Ça sert à quoi ? Qu'est-ce qu'on peut faire avec ? Est-ce que ça s'est vraiment adapté ou pas ? Enfin voilà, donne-nous un petit peu ta vision des choses.

  • Speaker #2

    Alors je pense que déjà, il faut peut-être se poser la question qu'est-ce que c'est vraiment l'IA ? Parce qu'on en parle beaucoup en ce moment, l'intelligence artificielle, c'est des robots qui réfléchissent. Avant tout, l'IA, il n'y a rien de réellement intelligent, je n'ai pas cité Luc Julia, qui n'existe pas. C'est avant tout de base des systèmes qui imitent un comportement humain. Et ça, en fait, quand on réfléchit à ces définitions, c'est loin de nouveau en fait. Ça existe depuis au moins 100 ans, je dirais. Même les premiers, même dans l'histoire de l'IA, on prend tout ce qui a parti d'Alan Turing dans les années 50. Par contre, quand on pense maintenant IA, je vais pouvoir répondre à ta question avec ça, c'est tout ce qui arrive sur la partie machine learning et plus loin le deep learning. Rapidement, qu'est-ce que c'est le machine learning ? C'est le fait que justement, il y a un modèle mathématique, rien de foufou au final, qui permet de prendre des décisions, ou plutôt donner un résultat avec des entrées, et que lui va calculer ce qu'on appelle des paramètres. des variables. C'est-à-dire, finalement, pour prendre la décision attendue, ces données ont plus d'intérêt ou pas. Si on résume, la majorité des IA, et même le LLM actuellement, le CHPT, viennent de ça. Et donc, quand on regarde ça, on se rend compte qu'il y a beaucoup de choses qui existent déjà dans... dans l'entreprise et je dirais même dans l'industrie, l'industrie est souvent plus précieuse. Je dirais qu'il y a deux secteurs, donc il y a l'industrie et il y a toute la partie crypto, enfin pas cryptocurrency en ce temps, cryptologie. Je citais Alan Turing qui est connu et on sait ce qu'il a fait notamment avec MachineGym. Pour décrypter MachineGym, finalement c'était de l'IA, avant qu'on l'appelle comme ça. Si on regarde, moi j'aime bien parler beaucoup plus d'industrie, parce que dans l'industrie, ils ont fait pas mal de choses. Donc typiquement, ils utilisaient l'IA dans l'industrie pour optimiser toutes les lignes de production, parce que derrière, on veut réduire à fond les coûts. Et donc, ils mettent en place plein de petits systèmes, alors plus ou moins intelligents, on pourrait dire. Mais typiquement, si on va sur une...... Les entreprises de recyclage, ce ne sont pas des gens qui font à la main. Il y a des machines qui détectent, par exemple, si c'est du plastique, ou autre chose, et qui y trient. Ça, c'est l'IA, tout simplement. Toutes ces choses-là. Il y a beaucoup d'usées pour tout ce qui est dans la chaîne d'approvisionnement, typiquement. Donc, de dire, en gros, d'automatiser toutes ces choses-là, d'éviter qu'il y ait un humain, parce que ce sont des choses qui sont très, je ne vais pas dire simples, mais prévisibles. Beaucoup de choses aussi, tout ce qui est dans la maintenance prédictive, ça c'est très très fun pour le coup. Typiquement, quand on vient sur l'industrie, l'un des points c'est toujours les coûts. Donc quand on dit qu'une pièce a une date de péremption... On peut remettre en question tout simplement, une pièce à une date de péremption a plutôt un nombre de consommations et donc typiquement il y a des modèles d'IA qui étaient déjà mises à plus longtemps pour dire comment est-ce qu'on peut maintenir cette pièce le plus longtemps possible. Et puis toute la partie qualité, contrôle, parler notamment justement des chaînes pour faire le triage, typiquement il y a la même chose avec détection. Et puis même, on peut remonter beaucoup de loin. Tous ces systèmes-là existent depuis très très longtemps. Je vous fais une aparté, mais on parle des voitures autonomes maintenant. Je me rappelle, moi, en première, je ne suis pas bien vieux, mais ça fait quand même déjà 20 ans, plus de 20 ans même d'ailleurs, mon Dieu. Et déjà en première, il y a déjà des gens qui avaient l'école des mines, qui avaient automatisé, c'était les grosses Renault familiales. Donc ça, l'industrie est souvent très prionnaire. Je sais qu'on a aussi beaucoup vu dernièrement dans les entrepôts d'Amazon, avec le petit robot qui porte les colis et autres. Voilà, eux, ils sont souvent beaucoup plus à la pointe. Maintenant, l'industrie du service, c'est différent. Dans l'industrie du service, je dirais qu'il y a eu beaucoup de choses qui ont été testées, beaucoup de choses qui ont échoué, typiquement dans tout ce qui est la santé. Si on se rappelle, on en parlera plus tard sur les limitations et autres, avec IBM Watson qui pouvait prédire justement les cancers et des trucs comme ça. C'était un flop total. D'ailleurs, la valeur a chuté et ils ont revendu ça pas très cher au final. Certaines quantités, mais pas très cher par rapport à l'investissement. C'est là où il y a quelques limitations. Par contre, dans beaucoup de systèmes, on travaille dans une banque typiquement, il y a beaucoup de systèmes qu'il y a dedans. Typiquement, les moteurs de crédit, finalement, c'est des éditions basées sur du risque. Et qu'est-ce que c'est du risque ? C'est un calcul de probabilité. Autrement dit, ce ne sont que des modèles d'intelligence artificielle, c'est juste qu'on ne les appelle pas comme ça. Et donc ça, il y a pas mal de petites choses qui font la vie de tous les jours. Ce qui d'ailleurs, je pense aussi, a été la genèse de pourquoi les AI actent tout simplement. Il y a plein de petites choses qui nous impactent directement ou indirectement. avec plus ou moins de forte, on va dire, plus ou moins de criticité. Je parlais du crédit, typiquement si le modèle mathématique derrière décide pour certains critères de ne pas accorder un crédit ou de donner des taux plus élevés, ce qui se passe aux Etats-Unis d'ailleurs, ce qui s'est passé aux Etats-Unis. ça peut impacter la vie. Donc dans l'industrie, enfin pardon, dans l'entreprise, dans le monde de l'entreprise, je pense qu'il y a toujours la vision très pragmatique et très avancée au niveau de l'industrie, avec les lignes de production, tous ces colis et ces choses-là. Et eux, ils cherchent vraiment la rentabilité de ce que l'IA va apporter. Et le service qui va juste amener des services plus ou moins plus ou moins complexe. Je pourrais parler comment déjà il y a de ça 10 ans, 15 ans, une bonne dizaine d'années pendant, où déjà pour faire du ciblage de clients, on mettait en place des petits moteurs qui permettaient de déterminer ce client-là, il a une appétence à ce produit. On parle de ça il y a 10 ans et à l'époque déjà on ne comprenait pas, ce n'est pas normal. C'est un peu comme ça. Ça ne peut pas être une machine qui dit ça. C'est pas une intelligence la machine. En fond, ils ont raison. Mais ces trucs-là sont loin d'être nouveaux. C'est juste la méthode et la puissance de calcul qui augmentent, je dirais, et qui rend les choses plus fortes.

  • Speaker #0

    Justement, tu viens de décrire assez rapidement, en quelques minutes, l'évolution de l'IA depuis l'industrie, les différents cas d'usage que tu as cités. Une question qui est assez importante, je pense, c'est de comprendre aussi un peu les limitations de tout ça. C'est-à-dire qu'il peut y avoir des cas d'usage dans l'industrie, dans la finance, un petit peu partout, avec des risques plus ou moins élevés. Par exemple, l'IA qui regarde le code postal sur une carte postale pour déterminer où il doit l'envoyer, s'il y a une erreur, ça peut... La lettre va peut-être mettre un petit peu plus de temps pour arriver, mais l'impact est quand même relativement faible. En revanche, l'exemple du crédit que tu as donné est quand même assez significatif. Il doit y avoir aussi une responsabilité de la part des entreprises pour pouvoir, dans certains cas, démontrer certaines choses. Un autre élément sur lequel tu as cité un petit peu à la fin de ton explication, c'est la puissance de calcul, qui peut être aussi un facteur limitant et qui peut devenir un enjeu géostratégique. puisque l'une des problématiques qu'on peut avoir aujourd'hui, si on veut faire de l'IA, c'est qu'il faut avoir des GPU, pour les neuf-fites, ce sont des puces qui sont dédiées à du calcul, il en faut beaucoup. Et donc du coup, ça devient une grande erreur, et ça devient même quelque chose de stratégique, puisque les États-Unis ont imposé un certain nombre de restrictions sur l'exportation de certains GPU, pour garder une forme de... d'avance technologique sur le reste du monde. C'est une petite note de bas de page. Justement, sur la partie limitation, est-ce que tu pourrais donner un peu plus d'informations, que ce soit des limitations un peu structurelles, des limitations en cas de visage, c'est-à-dire est-ce qu'on peut utiliser de l'IA dans tous les cas, ou alors dans certains cas, on est obligé de démontrer certaines choses et donc par conséquent, certains types d'IA ne sont pas utilisables, parce qu'elles utilisent trop, par exemple, d'éléments aléatoires. Tu pourrais nous donner ton point de vue là-dessus et nous donner cette limitation sur l'usage de l'IA aujourd'hui ?

  • Speaker #2

    Je pense qu'il y a plusieurs points, si on résume, on a trois gros blocs, je vais me faire un peu de tête. En effet, toute la partie modèle, les mathématiques derrière, il y a toute une partie physique, et il y a toute une partie, je dirais aussi, politique, et géopolitique, je crois qu'on y ira tout à l'heure. Alors, première, on va parler des modèles, et pareil, tout à l'heure, je parlais de Luc Julia. Si personne ne connaît, j'invite à connaître. Petit aparté, c'est le co-créateur de Siri, un français vachement intéressant comme Gaïa. Et il a écrit un bouquin sur le fait que l'IA n'existe pas. Et pourquoi ? Parce qu'il dit que de toute façon, la définition est erronée. Parce que tout est basé sur des algorithmes et des statistiques. Et donc ce n'est pas une intelligence comme l'humain. Et je dis ça parce que derrière, en fait, il y a finalement, du moins les moteurs, c'est des spécialités. C'est-à-dire qu'en gros, les outils, cette limitation qu'ils ont, c'est qu'ils sont très bon dans une chose. Et ils ne sont pas aussi, peut-être, versatiles, je dirais, qu'à l'être humain, d'être en capacité de faire plusieurs choses. On reviendra, c'est un peu le mythe du fameux modèle monde, mais l'IA a cette limitation. Elle est bonne dans une chose. Et alors on peut en parler de différents types, mais par exemple, on a tous été, enfin je me rappelle, moi j'aime bien les échecs par exemple, je me rappelle très bien de Gaspard Hoff, on parle de ça en 97 si je ne dis pas de bêtises, qui a été battu par une... machine pas impressionnant apparemment oui mais sauf que machine qui a fait ça a dit blue elle sait pas faire autre chose c'est juste vraiment pas faire autre chose on peut aller plus loin pour le jeu de go qui est arrivé avec alpha go 2006 je crois que c'est dans ces eaux là ou pareil plus impressionnant parce que c'est plus intuitif pareil la machine ne sait pas faire autre chose que ça Donc, la limitation, c'est qu'on a toujours cette vision de l'IA, je dirais, à Terminator ou je ne sais pas quoi, où en gros, elle est capable de se mentir. Et alors,

  • Speaker #0

    en plus, de tête, je faisais référence au Go, donc c'était lui, Sidol, je ne sais pas son nom, qui était champion du monde. Et quand il a perdu, justement, contre AlphaGo, il a fait une déclaration en disant que ce n'est pas lui qui avait perdu, c'était l'humanité tout entière. Ce qui donne, entre guillemets, un poids, quand même, à l'impact sur l'IA. Et d'ailleurs, j'ai ma petite théorie quand même dessus, c'est que Terminator a, d'une certaine manière, bridé toute une génération contre l'IA, parce que justement, tout le monde a vu Terminator avec une intelligence artificielle qui allait tuer beaucoup de monde, alors que finalement, pour la même génération dans d'autres pays, par exemple en Asie...

  • Speaker #1

    Ben oui, j'y vais.

  • Speaker #2

    Ça, c'est à côté. J'écoute la presse, j'ai même deux politiques. J'attends beaucoup de cette conférence de presse.

  • Speaker #0

    Ils sont beaucoup plus ouverts à la technologie et au fait d'enclin à utiliser l'intelligence artificielle, un peu moins la Terminator. Raina, tu voulais prendre la parole ?

  • Speaker #1

    Oui, c'est en fait... C'est toujours un peu compliqué d'apprécier l'impact d'œuvres de fiction, surtout dystopiques, surtout très négatives, comme ça, sur la psyché des gens. Parce qu'en fait, il faut aussi contextualiser à quel moment ce dont on parle, Kasparov, etc., s'est passé. C'était assez spectaculaire en termes de réalisation, parce qu'à l'époque, il y a plus de dix ans, on n'avait pas du tout une généralisation de ce genre de système, notamment avec une barrière à l'accès aussi ridiculement basse qu'on l'a aujourd'hui. Donc effectivement, le contraste était saisissant, et en fait, ce qu'on oublie de dire quand on parle de ça, c'est la... quantité de fois où en fait le système d'IA s'est entraîné sur les différentes stratégies pour gagner. Tu vois ce que je veux dire ? Et donc tu te retrouves avec un nombre d'entraînements qui est humainement impossible à faire, mais qui si on est cynique ou en tout cas pragmatique, si un humain pouvait s'entraîner autant de fois et apprendre de ces entraînements de la même manière qu'une IA, qu'un système d'IA de ce genre-là, il aurait un taux de réussite très important. Et après, tu as aussi un sujet qui, moi, m'interpelle toujours beaucoup quand on évoque des œuvres de fiction qui souvent poussent le... très loin grossissent le trait de façon particulière. Et ça, c'est le point de vue de quelqu'un qui fait beaucoup d'études de prospective stratégique et des choses comme ça. C'est en fait, quand on fait de la prospective, ce qu'on projette, ce sont des scénarios plausibles. Je ne dis pas possibles, je dis plausibles. Donc, quelque chose qui a des... qui pourrait se réaliser. Et en fait, souvent, on... on a tendance à faire des choses qui sont soit le best case, soit le cas idéal. C'est le truc que je désire le plus, le parfait. Soit le truc qui me fait le plus peur, le pire cas. Et les dystopies, c'est le pire cas. Sauf qu'en fait, quand tu réfléchis à ça, ces deux cas extrêmes présentent très peu d'intérêt parce que personne n'a de leçons à tirer. du paradis, où tout est lisse, où tout est parfait, et personne ne veut aller en enfer. C'est là où c'est le pire cas. Donc en fait, c'est toujours très particulier d'utiliser des cas extrêmes comme ça pour tirer des leçons, parce qu'en fait, c'est soit le cas idéal, donc personne n'a envie d'en sortir et qu'on est en gros tétanisé par l'impossibilité d'y parvenir. Soit c'est tellement atroce qu'on ne veut pas y aller. Mais en fait, l'apprentissage, les leçons qu'on apprend et là où on avance, c'est à partir de situations nuancées. Et donc, c'est là où, en fait, convoquer des... Comment dire ? des situations, des cas, des scénarios, des choses comme ça où le trait est exagéré n'est pas nécessairement la meilleure idée parce qu'on est très rapidement cantonné dans très peu de nuances où il y a en fait très peu de choses qui prêtent à la vraie réflexion et qui prêtent en fait, qui laissent la liberté d'imaginer, d'anticiper, voire même d'avoir un sentiment de peur. pouvoir intervenir. Parce qu'en fait, quand quelque chose est soit tellement bien ou tellement atroce, il y a aussi l'humain qui fait moi je ne peux pas, c'est trop, c'est trop pour moi Il y a aussi un côté où on te remet dans un attentisme qui est très problématique parce que finalement, tu abandonnes ta capacité d'agir. Et ça, on le voit aujourd'hui notamment. Tu vois, c'est... Je l'ai vu dans les discussions que je peux avoir dans le cadre de conférences de sensibilisation ou autre, où tu as beaucoup de gens pour qui chat GPT, par exemple, c'est de la magie. Et en fait, on leur rabâche les oreilles à longueur de journée qui vont se faire grand remplacer par ces systèmes-là et qui sont totalement démunis. et qui vivent dans une peur et dans une fatalité, qui ne sont pas ce qu'on veut de ces gens-là, et qui en gros attendent, qui sont tétanisés, qui attendent au final de perdre leur travail, etc. Je ne dis pas qu'il n'y a pas de risque, je dis que ça enlève toute capacité de se rencontrer, d'échanger, de s'écouter et de construire aussi à partir des mésententes, à partir du débat.

  • Speaker #0

    Mais je sais que Franz voulait... Oui, Franz, je vais donner la feuille d'un parle dans quelques secondes. Ce que tu dis, c'est marrant, mais quand tu t'es expliqué ça, je pensais à un philosophe, Schopenhauer. Et Schopenhauer disait finalement l'existence aussi entre l'ennui et la douleur. Alors pour lui, il n'y avait que deux extrêmes. Donc toi, tu prends le paradis et l'enfer, mais à peu de choses près, on y est. Et quelque chose d'intéressant aussi, c'est la peur de la technologie parce qu'on n'a pas la connaissance entre guillemets. Pour beaucoup de gens, c'est simplement magique. Mais simplement magique, c'est quand même un tour de magie. Mais une fois qu'on l'a compris, ça démythifie un peu forcément le propos.

  • Speaker #3

    Apparemment, McDonald's se serait lancé dans l'intelligence artificielle. Ah, très bien ! Ils proposent des menus personnalisés aux clients selon le temps qu'ils font, l'heure, les préférences qu'ils ont... Ben oui, ils ciblent quoi ! Ah oui, oui, oui, oui, en fonction de la personnalité du client. Oui, mais ça, économiquement, moi j'ai lu des trucs, de toute façon, l'intelligence artificielle, tu peux plus faire ça, hein, c'est l'avenir ! Ah ben oui,

  • Speaker #2

    c'est sûr !

  • Speaker #3

    Ça me donne envie de manger McDonald's. Mais de toute façon, cette boîte, c'est terrible. T'en parles, hop, t'as envie de manger, on croque dedans. On se fait une commande. Oh, chiche. Comme des ados, là. Hop, c'est parti. On va voir, hein. On va voir s'ils sont intelligents. Je me connais. Paf. C'est bon, hein. C'est parti.

  • Speaker #2

    Bonjour, Catherine. Toujours aussi élégante.

  • Speaker #3

    Oh ben dis donc, mais comme c'est bien, bien truqué ! Ah ben c'est tout moi, ils savent, c'est incroyable ! Bonjour, alors je voudrais 4 nuggets, un petit hamburger, des frites, petites, et une badoit.

  • Speaker #2

    Très bon choix Catherine,

  • Speaker #0

    vous ne changez pas vos habitudes,

  • Speaker #2

    vous êtes formidable !

  • Speaker #3

    Ah, merci, même fait du grain ! Je vois le truc, quoi, pour que je commande plus. Je vais lui faire plaisir. Alors, Edouard ? Je suis proche d'une glace.

  • Speaker #0

    Catherine, tu es une petite gourmande.

  • Speaker #3

    Ah ben ! Ha ha ha !

  • Speaker #2

    Gourmande !

  • Speaker #3

    Ha ha ha, oui ! Bon, stop ! Moi, toi, moi !

  • Speaker #0

    Et alors, juste dans la dystopie, pour continuer un petit peu sur ce sujet... D'une certaine manière aussi, ce que tu disais, c'était un peu la réduction des interactions avec les autres, la réduction du débat. Et c'est un peu ce qu'on a dans 1984, puisque quand on explique qu'on veut réduire le langage à ses plus simples expressions, c'est uniquement pour réduire justement la capacité d'explorer et de réfléchir, ce qui est une thèse ensuite reprise par Wittgenstein, puisqu'il disait ma langue est mon domaine c'est-à-dire que je ne peux pas… aller au-delà de ce que je peux décrire. C'est exactement cette idée de réduire finalement son champ d'activité et par conséquent finalement sa capacité à comprendre le monde et sa vision des choses. Donc Franz, tu voulais rebondir sur ce que disait Raina ?

  • Speaker #2

    Ah bah oui, je pense que c'est vrai que là on parle évidemment de chat GPT parce que c'est le sujet du moment. Alors attention, les transformeurs GPT c'est ça, le T c'est... transformeurs pas les petits robots c'est bon dès maintenant derrière mais donc c'est pas nouveau déjà ça a quand même déjà quatre ans le gpt 3 cela s'arrivait 2020 en 2022 par an c'était c'était encore mais c'est juste que ce qui est impressionnant avec avec ça c'est que ben on peut parler voilà On tape quelque chose et bon Dieu, on nous répond. Et ça semble vraisemblable. C'est le terme qu'il a. C'est vraisemblable. Et d'ailleurs, je parlais de Turing avec le fameux test IF, à savoir si on pouvait se faire tromper. Voilà, c'est ça. ça fonctionne très bien. Donc oui, c'est impressionnant. C'est impressionnant. Mathématiquement, c'est impressionnant aussi. On part sur des réseaux de neurones avec des milliards et des milliards de paramètres. C'est impressionnant. Ce n'est pas de la magie. Je ne suis absolument pas pour ça. mais je peux comprendre que n'importe qui peut se faire flouer. Et ça, on arrive quand même sur une nouvelle vague, parce que justement, on parlait des IA qui font les jeux vidéo, qui sont dans les jeux vidéo, ou simplement, enfin des jeux d'échecs et autres, et là on arrive à quelque chose où, quand je pose une question,

  • Speaker #0

    En face, une machine me répond avec toute l'intelligence qu'on lui a mise, avec tout ce qu'on lui a donné.

  • Speaker #1

    On se retrouve avec un élément assez particulier, c'est qu'il faut comprendre que les réponses de Tchadjepeté sont en réalité une réponse moyenne. D'ailleurs, on en discutait la dernière fois, justement, de ce fameux auteur de science-fiction, qui disait, si je veux savoir ce que je dois écrire, je demande à Tchadjepété de me faire l'histoire, et je vais exactement écrire l'inverse. ou quelque chose de totalement différent parce que JDPT va me donner l'histoire moyenne d'une intrigue moyenne et il faut s'en écarter. Donc d'une certaine manière ça aide à s'améliorer parce que ça permet de voir quelle est la réponse moyenne et donc d'avoir l'opportunité de faire un peu différemment. Juste pour revenir un tout petit peu sur ce qui a été dit au niveau de l'IA, sur la vraisemblance, donc effectivement les gens aujourd'hui ont le sentiment d'être compris par la machine, bien que ce sentiment de compréhension est quand même un peu discutable, est-ce qu'elle comprend vraiment ou pas, c'est une question presque philosophique. Mais justement, est-ce que ça ne fait pas partie des limites qu'on peut commencer à avoir avec les IA et aussi une forme de danger ? Je pense qu'on va développer ce thème un petit peu plus tard. au niveau de la réglementation. Mais de votre point de vue, est-ce que cette évolution de l'IA, je le rappelle, pour reprendre les propos de Franz au début, c'était plutôt quelque chose d'assez industriel. On ne pouvait pas forcément se laisser avoir. C'était plutôt du très structurel, très technique, alors que maintenant, l'IA commence à s'infiltrer un peu partout. On a de plus en plus de mal à faire la différence entre ce qui est réel de ce qui l'est moins, avec tous les problèmes évidemment de désinformation possible et imaginable, mais aussi il peut y avoir une certaine influence de l'IA dans les décisions prises. Et ça c'est quelque chose d'assez important dans notre société, puisqu'est-ce qu'on peut laisser une IA prendre des décisions importantes ou pas, jusqu'à quel niveau ? c'est un peu le thème aussi que j'ai envie de discuter avec vous dans cet épisode Raina, France honneur aux dames,

  • Speaker #2

    Raina il y a plein de choses en fait si tu veux dans cette approche, la première c'est un constat on va dire général qui est que l'accès à des technologies puissantes, si tu veux, aujourd'hui, est possible avec un coût d'entrée qui est risible. Je veux dire, je ne parle pas de coût d'entrée financier nécessairement. Et en fait, je me souviens d'un groupe de chercheurs danois qui, en fait, avait parlé de démocratisation de la destruction. En fait, ils ont parlé de la destruction Ce qui, pour eux, en associant ces termes-là, en fait, ce qu'ils font, c'est souligner que la prolifération de technologies, notamment émergentes, telles que les systèmes d'IA, de technologies diverses, en fait, change la donne. Et cette prolifération permet à des acteurs très divers et à des groupes très petits, et même à des individus, d'exercer, en fait, et de projeter un... pouvoir pour faire des choses que seules les éternations pouvaient faire avant. Ce qui fait aujourd'hui qu'on se retrouve avec notamment, par exemple, de la désinformation à grande échelle à travers des images très ficotées, tu vois, avec pas mal de choses de ce genre-là, avec des influenceuses Instagram, Instagram, complètement créé avec de l'IA générative et des choses comme ça, et donc qui crée aussi un effet financier. Et en fait, quand on parle de ça, quand on parle de comment je peux faire ça, on a une notion de barrière à l'utilisation qui est importante de comprendre, c'est qu'on a... trois types, si on veut, de seuil de compétences. Le premier, c'est un seuil de capacité cognitive de comprendre ce que fait un outil. Chat GPT, il fait quoi ? Je lui pose une question, il me donne une réponse. C'est très simple. Le deuxième seuil de capacité, c'est celle qui est d'accéder à l'information et comprendre comment l'outil fonctionne. Ça ne veut pas nécessairement dire comprendre comment on fait un LLM, comment on fait de l'entraînement et des choses comme ça. Ça veut dire comment est-ce que je peux me créer un compte sur Chat GPT et comment je fais un prompt. C'est ça le deuxième seuil. Et le troisième seuil de compétence, c'est la manière dont la personne transforme son savoir en savoir-faire. Je sais parler, je sais écrire, et donc je peux faire des promptes, je sais réfléchir plus ou moins correctement, de façon plus ou moins logique, et donc je peux créer, m'approprier la façon de créer un prompt qui produit plus ou moins ce que je veux. Et donc après, je peux écrire. je peux transformer ce prompt-là pour me créer, par exemple, non pas du texte, mais une image, etc. Et donc, c'est ça, en fait, si tu veux, quand tu regardes ces différents seuils de capacité, c'est là où, en fait, tu te rends compte qu'il est possible d'affecter une population significative avec un outil, a priori, anodin et avec un coût de mobilisation qui est très faible. Ce qui, en fait, est extrêmement différent. des outils qu'on avait avant. Parce que pour affecter une population significative de manière négative, j'entends, en fait, tu avais quoi ? Tu avais la bombe nucléaire. Quand tu regardes qui peut manipuler la bombe nucléaire, ce n'est pas n'importe qui. De comprendre comment ça marche, etc. Et donc, en fait, c'est ça, si tu veux, c'est cette capacité, cette possibilité. Et le fait que c'est donné un entraînement de plein de gens, c'est ce que tu expliquais en fait, mais de façon entre guillemets détournée, c'est-à-dire en donnant des exemples différents, c'est cette capacité-là qui amène à toutes les discussions sur une gouvernance de ces technologies-là. Et maintenant, tu vois, je vais glisser dans la jeunesse de l'IA Act.

  • Speaker #1

    Qu'est-ce que t'es habile !

  • Speaker #2

    Tu vois ? Mais c'est en fait parce que ce que tu décris, et tu vois que ce soit les sujets de facturation, que ce soit des sujets en fait très, entre guillemets, quotidiens, où on peut mobiliser de l'aide ou des leviers d'automatisation, en fait ce sont parfois, voire souvent, des actions, des activités qui vont produire des effets sur les personnes humaines, et souvent ce qu'on appelle des effets judiciaires, c'est-à-dire que ça va avoir un impact. Il se passe quoi si, je sais pas moi, j'estime que tu n'as pas facturé assez et donc que de façon autonome, je produise une facture d'un montant très important et que j'impose le paiement de ce montant-là à un artisan qui n'en a absolument pas les moyens de l'honorer. Il se passe quoi en fait ? Donc, tu as un enchaînement. de conséquences qui est extrêmement qui parfois peut être imprévisible mais surtout qui peut avoir un impact significatif sur les personnes sur qui ils s'appliquent et donc c'est dans cette optique là, quand tu regardes l'abaissement des seuils d'accès et donc d'utilisation et de mobilisation de ces technos et les effets parfois inattendus parfois des effets de bord et des choses comme ça que ça peut produire... C'est là, en fait, que toutes ces histoires de gouvernance, etc. sont arrivées et que c'est comme ça que la réponse de l'Union européenne a été de faire un texte réglementaire qui répond, en fait, à ces préoccupations-là.

  • Speaker #1

    Alors, juste avant qu'on aille vraiment sur la partie texte européen, etc., il y a quand même, pour moi, un grand paradoxe dans tout ça. Pendant des années, on a expliqué à tout le monde qu'il fallait investir dans l'informatique, qu'il fallait commencer à comprendre comment programmer, qu'il fallait libérer les ressources. C'est d'ailleurs un peu le fond d'Internet. Si Internet a été libéralisé et utilisé à très grande échelle de manière très extensive, c'était justement pour partager ses ressources. accélérer le transfert d'informations et donc vraiment dans cet esprit alors il ya un autre élément aussi qui rentre qui est un bon exemple c'est les crypto monnaie puisque à la base c'était avoir un système monétaire qui sont indépendants des états alors ensuite quand on regarde un petit peu plus près les origines des crypto monnaie avec les ciphers punk bon il semblerait que le fondement soit plutôt libertariens enfin quand je veux dire c'était plutôt pour ne plus subir entre guillemets le gouvernant donc c'était pas forcément dans un optique dans une optique très bienveillante mais bon ils ont quand même développé ce genre de choses donc on est capable de développer des technologies qui a priori peuvent être bénéfiques pour tout le monde mais malheureusement en même temps peut poser aussi d'énormes problèmes de déontologie enfin tout ce que tu as expliqué aussi Reina de cette façon là donc Il y a quand même un petit peu un paradoxe dans tout ça. On veut pousser la technologie d'un côté, mais d'un autre côté, on est obligé de réglementer parce qu'on voit qu'il y a des mésusages. Et donc, il faut maintenir cet équilibre subtil entre la techno et son utilisation. Franz, tu voulais prendre la parole.

  • Speaker #0

    Oui, je pense que... Je pense que c'est marrant. Je suis tout à fait d'accord avec tout ce que tu dis. Je pense que ça ne va pas s'arrêter. Ça ira de plus en plus. L'étape numéro 2 pour les agents, c'est tous les parties agents et quand ça va faire des actions, là ça va faire peur. Par exemple, il y a un gars qui a fait planter son système Unix parce qu'il l'avait automatisé. Bref, les agents ont tout le monde. Et ça ne leur donne rien. Non, mais j'aime bien par contre la partie sur la crypto, parce que je pense qu'il y a ce concept de, je ne vais pas faire de politique, de l'anarchisme jusqu'au libertarianisme, et que... comment dire, les cryptos, il y a quelques temps, pas si longtemps que ça, ont traché, pas mal de personnes sur le paille, et ces mêmes personnes qui prenaient justement cette liberté, cet excès de liberté, ont été les premiers à demander justement quels états régulent pour pouvoir les cadrer, ce qui est un set paradoxal. Et je pense qu'en fait, tous, il y a le premier, auront le même point. Alors, nous... Alors, je dis nous, je parle des Européens. Assez paradoxalement, on a mis en place les actes qui, loin d'être jeunes, ça date depuis quand même quelques temps, je ne dirais pas loin de... Si on regarde, je pense que déjà en 2018, on discutait déjà, parce qu'en 2020, il y avait le Transform AI Framework. Et ça sort un peu comme un feu sur la soupe au moment où les LLM, les modèles transformeurs, arrivent. Et donc ça, je trouve ça assez marrant parce qu'on peut voir justement que d'autres pays, continents, n'ont pas pensé à ça, ou du moins plutôt. n'ont pas l'implémenté, les Etats-Unis typiquement, ou la Chine, et que la question qu'on se pose, c'est on va être en retard face à ces deux poids lourds, parce que nous, on a une régulation qui embête. On pourrait en parler de la régulation, je pense qu'on va en parler, mais... typiquement, ce qui va se passer, c'est que je pense que, des deux côtés, tôt ou tard, ça va arriver à avoir un problème et avoir une demande de régulation. Maintenant, on a un cas unique, je dirais, parce que là, clairement, il y a quand même un bond au niveau de l'IA. On a un cas unique où on a justement une réglementation qui arrive pile-poil sur une avance assez majeure, technologiquement parlant. On pourrait parler d'armes à rapprets. Mais, c'est... On a un cas majeur où, pour une fois, on a une réglementation qui arrive au même moment qu'une évolution majeure sur une technologie, face à deux mastodontes qui, eux, n'ont pas de régulation et qui, à mon avis, vont avoir des vrais problèmes dans le futur et qui vont impacter vraiment les gens. Et donc, la question va se poser de, lequel des deux aura eu raison ? Et quand on dit raison, ce n'est pas forcément d'un point de vue sociologique, mais d'un point de vue économique.

  • Speaker #1

    Alors, reste question, si on reprend Schopenhauer, le monde aussi entre la technologie sauvage et la réglementation à outrance. Alors justement... Raina, tu es quand même ultra spécialisée dans ce type de questions puisque tu as étudié ça jour et nuit. Et tu connais très bien aussi la communauté européenne et tout ce qui tourne autour. Alors justement, quel est ton point de vue par rapport à ça, l'EIA Act ? Est-ce que tu peux nous en parler et nous expliquer ce que c'est déjà ?

  • Speaker #2

    Alors déjà… Avant de te parler de l'IAC, spécifiquement, je vais juste rebondir sur les propos de France, parce que j'avoue que je suis assez mal à l'aise avec ce genre de propos qui, en fait, nous viennent très souvent des GAFAM, où il y a un leitmotiv récurrent qui est de dire que la régulation nuit à l'innovation. Et d'ailleurs, toi, Nicolas, qui es… qui est abonné à la Décay Politique, tu sais très bien que j'en ai fait un cas, en fait, un casus belli, et que j'ai une édition particulière, enfin dédiée, à des cas, en fait, très concrets, où le réglementaire crée un appel d'air, business, qui permet des levées de fonds, des développements de techno, etc. Et donc, parce que pour l'instant, personne ne m'a jamais donné un argument concret avec un cas illustré, un cas d'usage spécifique illustré où le réglementaire aurait empêché quelqu'un de faire du business. Donc, j'insiste là-dessus parce que c'est une vision civilisationnelle, cette histoire de réglementaire. Parce que le réglementaire, c'est quoi ? C'est les règles. de vie en société. C'est pour ça que je disais tout à l'heure dans la présentation, c'est comment on fait société numérique. Et donc, on ne peut pas, en fait, d'un côté, avoir des règles pour la qualité de la nourriture dans les supermarchés, tu vois, où la sécurité retire, et dire que ça, ça empêche l'innovation. Tu vois, c'est juste pas possible, quoi. Mais on a la même chose avec le numérique, où, en fait, on se retrouve... dans une situation où il y a un développement très important technologique, quelle que soit la techno en question, la cyber, ce que tu veux, et où on a très peu de règles spécifiques pour la responsabilité des gens qui mettent ces technologies-là sur le marché et donc qui ont une responsabilité vis-à-vis de nous, utilisateurs. parce qu'on est tous l'utilisateur final de quelqu'un, au final. Et donc, c'est là où le réglementaire intervient. Et j'aimerais quand même rappeler que le RGPD est arrivé. La Chine a un boîtel pas. Et alors, autant nous, en Europe, on a des sanctions pécuniaires pour non-respect. En Chine, c'est la tol. Je veux dire, ils ne font pas dans la demi-mesure. Aux US... Il y a un mouvement extrêmement important pour créer un RGPD fédéral. Et en fait, la structure de l'État est différente par rapport à l'Europe, mais aussi la culture des règles est différente. On n'a pas la même approche du tout entre les US et l'Europe. On peut en parler peut-être, mais surtout. Aux USA, il y a aussi un réglementaire par État et il y a beaucoup d'États aux États-Unis qui ont déjà adopté des cadres réglementaires qui rassemblent beaucoup à du RGPD. Et d'ailleurs, pour plein de raisons politiques, le texte fédéral Privacy aux États-Unis… a été un peu stoppée dans son élan, mais il y avait quand même de grandes chances qu'il soit adopté avant la fin du mandat de Biden. Bon, bref, je ne vais pas revenir sur les sujets spécifiquement politiques des US. Voilà, il y a en fait un mouvement très fort de protéger justement des actifs stratégiques. Et c'est là où... On a une différence dans ce qui est stratégique, dans l'appréciation de ce qui est stratégique. Aux US, on va toujours entendre parler de la sécurité nationale, par exemple. Alors qu'en Europe, on va avoir une approche différente. Mais la manière dont ça va se décliner... va beaucoup varier. Et sur l'IA spécifiquement, il y a un truc qui s'appelle SB1047, qui est l'équivalent de l'IA Act en Californie, qui a été récemment sanctionné par le gouverneur de Californie suite à une pression absolument dingue à de certaines boîtes que je n'aimerais pas, mais auxquelles je pense très très fort.

  • Speaker #1

    Vous êtes en Californie, justement.

  • Speaker #2

    Voilà. Mais en revanche, il y a... énormément de cadres sectoriels déjà adoptés. Typiquement, on mentionnait les véhicules autonomes tout à l'heure. Il y a déjà eu pas mal de frameworks réglementaires aux US, dans certains États, qui concernent spécifiquement les systèmes de reconnaissance, de signalement, de marquage de sol, enfin bref, de ces trucs-là. intégrés dans les véhicules. Il y en a plein, plein, en fait, qui sont intégrés. Et c'est juste l'approche d'application des règles qui est aussi très différente aux US, qui, en fait, passe par beaucoup de contentieux et c'est une culture du contentieux qu'on n'a pas du tout en Europe. Je vois que Franz voulait réagir, donc avant d'enchaîner sur l'IAC, je te laisse réagir.

  • Speaker #0

    Il y a beaucoup de choses à dire. Autant personnellement, je suis partisan que les régulations à une certaine dose, évidemment, et les actes, et bien dosés. je tiens à le dire, peuvent aider, clairement. Autant, je pense que le point, c'est une question sociétale, et une question aussi de comment est-ce qu'on parle des US. Je ne connais pas assez bien la Chine pour en parler, mais les US par rapport à l'Europe, il y en a un qui pense à la cause, et l'autre qui pense après la conséquence. Si on regarde nos actuelles, justement, on parle de RGPD, je pense que tout le monde sur la planète en est même. Je ne peux pas parler de tout le monde, mais je pense que les grands pays en sont d'accord. avec plus ou moins de raisons et peut-être pas pour les mêmes raisons va dire mais à l'heure actuelle les grands patrons ceux qui ont vraiment le cash qui dirige la snévola sont américains parce qu'ils ont commencé sur le fait qu'ils ont fait leur business sur la donnée complètement non régulé alors personnellement je trouve ça pas cool et ça c'est un point mais il est là, c'est qu'après, ils ont la puissance pour adapter aux besoins. L'Europe ne fonctionne que comme un marché, malheureusement. Et ça, c'est un vrai problème. Donc, à quel moment ils peuvent bloquer l'accès au marché, à quel moment ils peuvent aller sur d'autres marchés ? Et c'est ça le point. La chance qu'on a sur l'IA, c'est que les grands pensants de l'IA, la majorité sont européens et beaucoup sont français. Mais la question, c'est à quel moment... on va pouvoir se créer une autonomie sur le sujet qui est en capacité de rivaliser avec les autres. Et c'est ça le vrai point. Moi, je pense que le cadre, c'est pas ce qui va cadrer et qui va aider, parce que ces problématiques-là, pour tout un chacun, vont arriver plus tôt ou plus tard, vont être là. Maintenant, la question, c'est est-ce que de mettre en place dès maintenant toutes les...... Ce ne sont pas des complications. Si je peux, j'en parle un petit peu. Que demandent les actes pour attaquer des marchés qui ne sont pas régulés par ça ? Ça, c'est le vrai point. Et justement, je vais t'aider le propos. Le point, c'est que quand on parle des LLM, je pense que le point numéro un qui est spécifié dans les actes, c'est le fait... être en capacité d'expliquer la décision. Alors sur des trucs avec des milliards de paramètres, on n'y est pas. Et donc le point, c'est justement, il y a des choses qui vont rendre les LMS difficile à marketer, au moins sur certains secteurs, ou sinon dans l'armée, ils ont tous les droits, bon investissement, les HREC donnent beaucoup de liberté sur tout ce qui est militaire, mais face à d'autres qui ne considèrent pas ça, et notamment... Toute la partie des données, une donnée qui rentre dans un modèle, quand il l'a appris, il ne peut plus le retirer. Sauf que nous, en Europe, on pense à une manière de dire que nos données, c'est notre bien privé, etc. Les Américains, ils pensent que c'est un bien commercial. Ce n'est pas la même chose. même perception, mais du coup ça crée des champions qui peuvent attaquer d'autres marchés. Et donc le point, c'est ça.

  • Speaker #1

    Justement, parce que je crois que tu as mis le doigt sur quelque chose, c'est important, c'est les données. Est-ce que c'est un bien commercial ou un bien personnel ? Donc, grande question.

  • Speaker #2

    C'est tout là. En fait, il y a une vraie différence, c'est pour ça que je ne voulais pas du tout rentrer là-dedans quand j'ai dit qu'il y a une vraie différence de perception et de culture et de tout ce que tu veux. C'est qu'en fait, Le RGPD, puisqu'on parlait de ça, il est fondamental à plein de niveaux. Aussi parce que le RGPD, ce n'est pas un machin qui fait des cookie walls. Ce n'est pas un truc. C'est comme ça. C'est l'autre boudin qu'on a eu à la fin avec une implémentation et une mise en œuvre absolument déplorable. Mais ce n'est pas son objectif principal. Son objectif principal, c'est de protéger les droits et libertés fondamentaux des gens. Attends. En fait, en Europe, la... compréhension et qu'on a, en fait, la perception qu'on a des données à caractère personnel, et je dis bien à caractère personnel, c'est que ce sont des attributs de la personne humaine, au même titre que tes organes. Alors qu'aux US, on parle de consommateurs et de personally identifying data des données qui identifient des personnes. Ce n'est pas du tout la même perception, ce qui fait en fait que tu as ces mouvements-là et cette approche de patrimonialisation, c'est-à-dire de créer des droits de consommation, de commodification, de choses qui, pour nous, n'ont pas du tout le même statut. Et donc, quand les gens en Europe me parlent de mettre des droits voisins, type droits d'auteur, sur les données à caractère personnel, en fait, moi, la question que je pose à chaque fois, c'est est-ce que tu ferais la même chose avec les données sur les organes des gens ? Et on me regarde comme si j'avais perdu la tête. En fait, parce que l'analogie, c'est qu'elle est comme ça. Ce sont des attributs de la personne humaine. Donc, tu ne peux pas faire ça. Et donc, toute la question de comment on approche l'innovation et de comment on crée des champions, si on veut, elle est là. C'est qu'on a des approches éthiques ou en tout cas, on ne veut pas faire n'importe quoi juste pour gagner des sous. C'est pour ça, en fait, que quand on a cette discussion de créer des champions européens, d'avoir une autonomie, etc., en fait, la question qu'on pose derrière, c'est comment on les crée ? Est-ce qu'on veut, en fait, avoir une approche prédatrice ? telle qu'elle est ailleurs, ou non ? Parce que, tu vois, quand tu regardes, on parle de chat GPT depuis tout à l'heure, en fait, ça me fait marrer quand je vois des gens qui m'expliquent qu'ils font un usage éthique de l'IA en utilisant chat GPT, en fait, sachant que derrière, tu as énormément de digital labor, donc de gens sous-payés, des travailleurs du clic, etc. Donc, tu as une exploitation humaine derrière. mais que tu as des mecs qui m'expliquent qu'ils font un usage éthique de Chachipiti.

  • Speaker #1

    Le Chachipiti, c'est le Nutella du numérique.

  • Speaker #2

    Mais c'est ça. Et en fait, avant de te passer la parole, Franz, parce que j'ai vu que tu avais une petite remarque, mais tu vois, tu as aussi une vraie question et c'est là-dessus que j'insiste sur cette vision civilisationnelle et de valeur. C'est qu'en fait, c'est qu'est-ce qu'on veut construire ? Bien sûr qu'on a envie de prospérité et de vivre bien, etc. Mais en fait, on le fait comment ? Quels sont les modèles économiques ? Quel est le substrat qu'on va utiliser ? Elle est là, la question.

  • Speaker #1

    C'est ça. À quel prix ?

  • Speaker #2

    Et à quel prix, bien évidemment.

  • Speaker #1

    France ?

  • Speaker #0

    Oui, c'est vrai que... Un truc très intéressant, c'est l'histoire de droit, le droit d'appréhender, le droit à l'image, ce qui est bizarrement très cher aux Américains aussi. Mais je pense que les Américains ont comme plus grand défenseur leur plus grand prédateur, qui sont les entreprises. Et on le voit très bien, justement, sur ce qui se passe avec le PNRI, qu'autant prendre de la donnée des gens, bon... C'est pas grave, c'est bon. Par contre, de s'attaquer à des grosses entreprises qui possèdent justement de l'IP, pardon, de l'IP, de l'information personnelle, donc tout ce qui est... toutes les images dans Mickey et autres, typiquement, le New York Times qui s'est vu faire voler on ne sait combien d'articles par OpenAI, là, il y a des attaques en justice. Et donc, du côté américain, je pense que ça va être de cet aspect-là que ça se passera en premier d'abord, sur l'acclaration des LLM. C'était une petite remarque. Et je voulais rebondir, c'est juste en faisant partie éthique, je pense que c'est très très bon, parce qu'on arrive aussi beaucoup sur cet aspect en ce moment de penser à l'écologie. Je vais parler sur le greenwashing, j'en passe. Mais je prends le greenwashing comme étant aussi des fois, malheureusement, impulsant une inaction. On va dire ça comme ça. Et ce qu'on ne se rend pas compte, c'est la consommation colossale ! que ça amène. Si on parle en termes d'électricité, pour donner un peu de chiffres, on est à peu près, je crois que j'avais lu un article d'ici 2027, vers 85 à 135 TWh par an. Pour donner une image, pour que ta grand-mère réalise. En France, on consomme au total, en toute la France, 450 à 500 TWh. C'est-à-dire qu'un quart de la consommation française ne servirait uniquement qu'à faire tourner des modèles d'IA.

  • Speaker #1

    Sans parler de la consommation d'eau, tu vois.

  • Speaker #0

    Ça, on parlait de la consommation d'eau qui est de 50 centilitres par conversation de chat de GPT. Je veux dire, on a des stades comme ça. Et si on parle de l'énergie, qui est pour moi le vrai débat derrière, la vraie limitation, c'est… Tout est parlé du lieu des limitations, on n'a pas parlé d'imitation physique, avec la loi de Moore et j'en passe, mais si on parle en termes d'énergie, il faut bien voir que… Le monde a atteint un pic énergétique, on a une capacité maximum qui arrive. Et ce qui est consommé comme énergie à l'heure actuelle n'est pas produit par du nucléaire. Je crois que le nucléaire représente à peu près 10%, même pas dans le mix énergétique mondial. La majorité, c'est des centrales à charbon. Donc, on parle que, d'un point de vue écologique, c'est dramatique. C'est dramatique, tout ça pour faire des petites recherches, pour s'amuser avec le CHGPT ou faire les deep tech et j'en passe. Alors, je ne vais pas faire mon... écologistes ou quoi que ce soit, mais c'est un vrai problème à ce niveau-là. Et on va tomber tant sur des aspects écologiques, économiques, parce que derrière le coût de l'énergie, c'est faramineux, et l'énergie, je pense qu'il est mieux dépensé pour les industries, qui vraiment sont en train de pleurer sur le coût de l'électricité. Et donc, on va avoir un vrai problème à ce niveau-là.

  • Speaker #1

    Donc,

  • Speaker #0

    ça, c'est bizarre, c'est que très peu de personnes en parlent, et pourtant, c'est le nerf de la guerre, parce que ça va être une délimitation.

  • Speaker #2

    Moi, ça ne m'inquiète pas plus que ça, le réchauffement climatique, parce que je ne suis pas écolo. Mais c'est vrai qu'il y a des gens que ça inquiète. Je ne suis pas écolo, moi. Je ne suis pas écolo du tout. Je n'ai pas d'enfant, moi. Pour moi, la vie s'arrête à la mienne. Et même si ça va un peu plus vite que prévu, je n'aime pas le ski, de toute façon. Non, je déteste les sports d'hiver. Vraiment, c'est monter, descendre, monter, descendre. Je n'ai pas besoin de faire un sport qui me rappelle que je suis bipolaire. Merci. Je déteste le ski. Les sports d'hiver et le soir, observer des couples qui s'engueulent en chuchotant dans des restos qui puent le fromage. Merci. Non,

  • Speaker #0

    avant. Je serais vraiment curieux de voir comment ça va impacter la perception si les gens ont plus connaissance de ça. Ce qui se passe... les débats sur l'écologie et même sur l'industrie.

  • Speaker #1

    Tu as beaucoup de gens, enfin, ça commence à arriver beaucoup dans la conversation, notamment parce que, typiquement, des gens comme Google ont perdu leur truc neutrin carbone, tu sais, qu'ils mettaient depuis des plombes, là, qui était, oui, oui, on a juste acheté beaucoup de crédit carbone, tu vois, mais ça commence, en fait, à arriver dans la conversation aussi, mais par un angle un peu bizarre, parfois, qui est de dire que, vu les coûts, dont tu viens de parler, en fait, on ne peut pas arriver à une intelligence artificielle générale, c'est le truc à la Skynet, quoi, parce que en fait, on ne produit pas assez d'électricité et d'eau pour l'entraînement de ce truc-là. Et donc, c'est comme ça, en fait, que les gens arrivent à discuter de cette histoire, qui est, en fait, de dire que, tu vois, on fait fondre deux icebergs pour résumer trois mails, quoi. Enfin, qui a... à peine exagéré en termes d'échelle.

  • Speaker #0

    Je suis tout à fait d'accord. Et justement, on parle juste de la puissance énergétique. A noter d'ailleurs, comparé aux crypto-monnaies, l'IA consomme… ou elles consomment à peu près à l'heure actuelle autant d'énergie que la crypto-monnaie. Ça va permettre de réfléchir au sein de la consommation de crypto. Mais il y a aussi un autre point. Tu parlais au tout début des puces à créer. Et il y a un problème physique. Alors, on parlait de la loi de Moore. qui disait qu'on réduisait tous les tenseurs. Et en fait, du coup, c'est devenu de plus en plus fin. On a atteint une limite physique, littéralement, où cette fois, c'est des électrons qui passent. Donc, c'est fini. On ne peut plus redescendre. Du coup, une technique que les chinois ont dit, ok, si on ne peut pas descendre, on va agrandir. C'est smart, ceci dit. Mais pareil, avec quelles ressources ? Avec quoi ? Donc, j'invite les gens, s'ils possèdent de l'ASML, c'est bien parce que c'est eux qui produisent, les machines qui produisent ça, c'est cool. on va arriver sur des limites physiques, écologiques, qui vont devoir revoir les choses. Et je pense que si on prend des lois de marché, Scale City va définir le prix. Et derrière, on va poser la vraie question d'utilisation. On est sur une hype, qui va déjà redescendre, je pense, légèrement. Parce qu'on va se rendre compte quel est le réel investissement qu'il y a là-dedans. On va parler de l'IA Act, mais derrière, juste pour clore sur le sujet de l'écologie, il y a aussi le fait que maintenant chaque entreprise doit donner sa consommation carbone, directe et indirecte. Qu'est-ce qu'on va dire quand finalement on est une boîte supérieure, on a tous 4 GPT et finalement on a une convention énorme ? Il ne manquerait plus que, comme avait été présenté cette petite série télé que j'invite à regarder qui s'appelle Parlement, où en gros ils amenaient un projet de loi qui disait que la consommation de carbone devait être intégrée dans la comptabilité. Donc il n'y a plus que ça arrive, mais alors là je pense qu'on peut repartir sur le débat depuis zéro.

  • Speaker #3

    Juste pour faire la transition au sujet qui nous intéresse tous, on a parlé de plein de choses, de l'environnement, de la société, de la protection des données et aussi de l'éthique, qui peut être parfois un peu discutable quand on parle de la manière dont certaines IA ont été créées. Alors justement, en quoi l'IA Act peut nous aider à améliorer un petit peu tout ça ? attirer bénéfice quand même de l'IA, mais avec peut-être des contraintes qui permettraient de recentrer un usage et de border un petit peu et de mettre des limites là où il en faut finalement. Donc Raina, est-ce que tu peux nous éclairer ?

  • Speaker #1

    Je vais essayer de faire de mon mieux. Donc l'IA Act, si tu veux, déjà c'est un règlement européen, donc il est d'application directe et certaines de ses dispositions s'appliquent depuis le 1er août. 2024, by the way. Petite mention pour ceux et celles au fond de la classe, ce serait bien de vous y intéresser. Donc, de quoi ça parle ? L'idée, c'est justement ce que je disais tout à l'heure, c'est d'introduire une notion de gouvernance, donc de ces systèmes IA, de leurs usages. Comment je les fais ? Qu'est-ce qu'ils peuvent faire ? comment je les intègre dans l'activité de mon entreprise, etc. Et comme souvent, en fait, il y a beaucoup de choses qui sont permises dans l'IACT et il y a certaines choses qui sont interdites. Je vais y revenir dans un instant. L'idée, en fait, c'est de prendre une approche par les risques. C'est ça l'idée de l'IACT, c'est de dire qu'il y a des systèmes très divers. Certains ne posent pas de problème en termes d'effets négatifs sur les gens. D'autres systèmes peuvent avoir ces effets-là, donc on y fera attention. Et puis... Pour justement arrêter avec cette histoire de ces indistinguables de la magie, on va introduire des exigences de transparence pour que les gens sachent, en fait. Est-ce que j'ai quelque chose ? Est-ce que la photo du pape avec la doudoune, c'est le pape lui-même ? Ou ça a été généré par un chat GPT-like, par Midjourney ou autre ? Et on va avoir un certain cas d'usage qui vont être interdits, parce qu'on estime que ces cas d'usage-là portent un préjudice immédiat, portent en fait un effet judiciaire négatif sur les droits et libertés fondamentaux des gens. Et donc c'est là où on va avoir, ça les gens l'ont peut-être vu, Mamie l'a peut-être vu aussi, on va avoir cette pyramide des risques avec au plus bas niveau le risque dit minimal qui est ne présente pas. pas de risques pour les droits et libertés fondamentaux des personnes. Donc là, là-dedans, on va trouver des systèmes d'IA qu'on connaît pour le coup depuis un moment, qui sont par exemple des filtres antispas. Pour donner un exemple, ou pour les gens qui aiment bien jouer aux jeux vidéo, ce sont les... les systèmes d'IA utilisés pour les personnages non-joueurs, les PNJ. Donc ça, typiquement, c'est un système d'IA qui, d'après l'IA Act, c'est un système d'IA à risque minimal. Tu vois, parce qu'en fait, voilà. Donc, il n'y a pas d'obligation particulière de conformité ou machin sur ces systèmes-là. Un risque plus élevé ? c'est ce qu'on appelle les systèmes avec un risque limité, qui présentent un risque limité sur les personnes. Donc là... Un exemple de ça, c'est des chatbots. Typiquement, je ne sais pas si vous avez vu passer le truc, le chatbot d'une compagnie aérienne qui disait que la compagnie va vous rembourser votre billet, alors que les CGU de la compagnie aérienne disaient le contraire. Là, on a l'idée du risque minimal, c'est justement que ça produit des effets comme ça. Et donc là, les obligations applicables sont transparence, dire qu'on utilise un système automatisé et veiller à tout ce qui est droit d'auteur. Cette histoire, ce côté très épineux qui est de faire attention aux droits de propriété intellectuelle, pour le dire très vite, qui sont liés à des productions créatives, artistiques ou autres. Donc, ils ne veulent pas faire de la contraffaçon, ce que font nos amis américains quand ils scrapent comme des porcs et qu'ils entraînent leur gros modèle de langage dessus. Donc, le New York Times dont il s'agissait, dont Franz parlait tout à l'heure. On va voir ensuite le haut risque, donc les systèmes d'IA à haut risque. Ça, il y a en fait dans l'IACTE… Tu verras, il y a les annexes 2 et 3 qui listent des cas d'usage qui tombent là-dedans. Typiquement, la notation d'examen ou l'évaluation de solvabilité. Je crois que France mentionnait quelque chose là-dessus tout à l'heure. Donc ça, ce sont des systèmes en risque parce qu'en fait, ça produit encore une fois des effets judiciaires, c'est-à-dire sur l'évaluation de solvabilité, je peux te refuser par exemple un prêt pour acquérir ta résidence principale. Et tout ça, c'est de la décision autonome, c'est-à-dire sans qu'un humain apprécie les particularismes de la situation, etc. Notation d'examen, c'est la même chose. Ça peut en fait prévenir quelqu'un d'aller faire des études que la personne souhaite faire. Et donc là, les modèles, pardon, les obligations sont strictes. Donc, on va avoir notamment une analyse de risque avant conception. et quand on va parler d'analyse de risque c'est nos amis de la cyber pense ISO 27005 et là on va être en fait dans une démarche qui pour le coup se rapproche un peu de l'analyse de risque qu'on a dans le RGPD parce que les risques auxquels on va faire attention sont ceux qui pèsent sur les droits fondamentaux des personnes des individus donc On n'est pas dans un truc, est-ce que quelqu'un peut choper mes identifiants et envoyer des mails à ma place ? On est dans, est-ce que ça risque de détruire ma vie ? Est-ce que ça risque de m'empêcher d'accéder à l'espace public, d'accéder à la propriété, à l'éducation, etc. Et donc, au plus haut niveau, on va avoir... les modèles qui sont nommés à l'article 5, pour le coup, de l'IACT, qui présentent en fait des risques dits inacceptables. Et donc, là-dedans, on va avoir typiquement tous les systèmes qui sont de calcul de crédit social, tu vois, un peu à la chinoise, ou de reconnaissance automatisée des émotions. Donc, tous ces systèmes, ils sont listés sur le site de la commission. je peux fournir le lien pour les personnes qui souhaitent aller regarder parce que c'est très clair, c'est très court. Et donc, tous ces systèmes-là sont interdits d'utilisation. Il n'y a pas de oui, j'ai bien fait mon analyse de risque, s'il te plaît, sois sympa Non, c'est non. Et il y a quelque chose que moi, j'inclue quand je fais cette pyramide, y compris dans mes formations, etc. Quand je fais cette pyramide, j'inclue un autre risque, en fait, qui est le risque systémique. qui n'est pas identifiée à part entière comme ça dans le texte, mais qui surnte, si tu veux, toutes les dispositions du règlement. Donc, le risque systémique, ça concerne notamment les modèles qui ont un impact significatif, typiquement les grands modèles de langage, ou les modèles dits GPI, c'est-à-dire un modèle à usage général. L'idée, en fait, là-dedans, c'est qu'on va avoir des... des systèmes d'IA qui sont entraînés sur une très grande quantité de données, qui utilisent l'autosupervision en termes d'entraînement, mais qui sont tellement généralistes qu'ils ont en capacité d'exécuter un très large éventail de tâches distinctes. Et là, on va encadrer leur intégration dans des systèmes divers et variés. Je ne sais pas, moi, ton chat GPT, comment est-ce que tu vas l'intégrer dans la facturation ou autre ? Ou dans la demande d'information pour un remboursement SNCF ? Des choses comme ça. Donc, là-dedans, on va retrouver notamment beaucoup de modèles d'IA générative. En fait, on dit que ça présente un risque systémique parce que, en fait, vu... parce qu'ils ont une capacité de faire plein plein de choses. Et donc là, en fait, on va appliquer à ces modèles-là des obligations particulières, telles que, encore une fois, l'analyse de risque, mais aussi des tests pour prévenir des effets de bord, les hallucinations, les dérives de modèles et des choses comme ça. Et on va aussi appliquer des obligations de reporting. D'où est-ce que je... Comment j'entraîne les modèles ? D'où viennent les données ? Et des choses comme ça. Donc, on va avoir cette pyramide des risques. Elle est importante parce qu'elle est très claire. Et en fait, là, pour le coup, on a des définitions qui sont assez univoques, qui permettent en fait... d'avoir la clarté sur... Alors, moi, quand je vais commencer à faire des... à utiliser des systèmes d'IA pour avoir des logiciels plus performants, des services à haute valeur ajoutée, enfin, ce que tu veux, en fait, je peux très bien me référer à ces critères-là. pour savoir en fait quelles sont les obligations auxquelles je serai assujettie dans ces cas-là. Et donc en fait, la majorité des obligations tombent en fait sur les fournisseurs ou développeurs de systèmes d'IA à haut risque. Dans l'IAC, on est vraiment là. Donc quand on dit fournisseurs ou développeurs, ce n'est pas les personnes qui développent. Enfin, tu vois, c'est... ce n'est pas ton développeur chez toi, c'est toute entité qui crée ces systèmes-là. Ça peut être une filiale de ton groupe qui fait ça et qui met ça sur le marché unique, sur le marché européen, donc qui le revend en fait à d'autres. Ça peut être toi qui le fais pour ton usage interne, mais pour des systèmes qui sont utilisés par des gens, que ce soit des employés ou des clients, etc. Et les utilisateurs sont définis comme des personnes physiques ou morales qui déploient des systèmes d'IA dans une démarche professionnelle. On ne parle pas de mamie qui va utiliser un chatbot, mais on va parler de la startup qui va déployer un chatbot basé sur ChatGPT. pour fournir typiquement des informations de remboursement. Donc, tes utilisateurs, ce n'est pas Mamie, tes utilisateurs concernés par l'IAC, ce n'est pas Mamie, c'est la startup qui va consommer le système d'IA et qui va le déployer. Donc, c'est un peu de façon très caricaturale, mais succincte, vraiment le cœur du sujet. qui est encore une fois dans une pure approche graduée européenne, qui diffère pour le coup beaucoup de l'approche américaine, qui est, on va vous expliquer étape par étape, quel est l'état de fonctionnement sain auquel on tend. Vous savez où vous allez. vous savez quels sont en gros l'état final désiré, démerdez-vous pour faire ça. Ce qui n'est pas la même que la culture américaine où tu vas avoir des guidelines très générales où on va te dire le premier barreau de l'échelle, c'est là. il est très très bas et par contre après on va disperser façon puzzle dans les différentes administrations et qui en fait empêchera aussi la compréhension et la big picture la compréhension à l'instant T de qu'est-ce qu'on applique exactement qui s'occupe de la mise en oeuvre, du suivi etc et c'était très parlant de voir par exemple comment le décret présidentiel de Biden était consommé, et donc mis en œuvre, 90 jours après sa publication, en fait, tu avais une liste, je crois, sur six pages, de toutes les initiatives, commencées par les différents départements, par les différentes administrations de l'État fédéral, etc., qui étaient, en fait, juste... C'est super compliqué de s'y repérer, alors qu'en Europe, tu as quelque chose de beaucoup plus centralisé. Par contre, avec un bureau IA, etc., qui va aussi assurer, qui est une entité de la commission, nouvellement créée spécifiquement pour ça, qui veille à la mise en application de l'IA Act sur tout le territoire de l'Union. Donc, l'approche, la culture, elle est encore une fois très différente des deux. Donc, c'est sûr, pour beaucoup, On va imaginer que le premier barreau de l'échelle en Europe, il douille un peu, il fait un peu mal, parce qu'on se prend une avalanche d'un règlement qui n'est quand même pas super simple, et plutôt bien fait, mais ça dépend à qui t'en parles. Je pense que Franck et moi, on s'intéresse au sujet, on a suivi l'élaboration, donc on comprend aussi pourquoi des choses sont formulées telles qu'elles le sont dans le texte final. Mais c'est sûr que pour des gens qui n'ont pas suivi les discussions, les logiques, etc., ça peut être un peu rebutant. Je reste subtile.

  • Speaker #3

    Mais c'est assez souvent comme ça. Si on ne comprend pas l'histoire et ce qui s'est passé derrière, forcément, la simple conclusion peut être un petit peu difficile à comprendre. France, tu voulais rajouter quelque chose ?

  • Speaker #0

    Oui, je pense qu'il faut prendre un peu sur le sport. On parle de la genèse, à quel moment ? Alors, à quel moment ça a commencé à être réfléchi ? C'est pas quelque chose de nouveau, c'est juste que c'est tombé pile poil au moment où on parle de Genial. Mais c'était mis au moment où il y avait l'essor, je dirais, du deep learning. Et justement, notamment avec les réseaux de neurones, et là, ce qu'on disait dès le début des réseaux de neurones, cette fameuse boîte noire. Les LRH, en fait, un peu comme GERG et DPR sont dans son temps, si on faisait la statistique proprement, si on faisait les modèles proprement, il n'y a rien d'exceptionnel, en fait. Ce qu'on explique, c'est juste, pour être compliant avec les LRH, c'est juste de dire, en gros, on suit des protocoles qui ont été utilisés depuis des années et des années. C'est-à-dire qu'on a un besoin de maîtriser ce qu'on fait, d'explicabilité. Je pense que ça serait ça, le vrai défi des LLM, c'est l'explicabilité. Honnêtement, il y a excessivement de surprises quand on regarde dedans. Comme les actes, les sorties, au moment où vous allez les sortir, il y a eu en effet toute cette vague de chat GPT qui arrive au même moment. Ils n'ont pas pour rajouter l'article 50 pour le GPI, comme tu l'as justement dit, Raina. Et voilà, mais fondamentalement, il n'y a rien d'exceptionnel. Je veux dire que je tiens à rassurer les personnes qui... écoute, tu peux avoir peur de réacte, si vous avez de l'IA en interne, à ton niveau de complexité, et que vous avez fait les choses un minimum proprement, vous allez être compliant. On parlait de risque crédit, le risque crédit, si on a en capacité d'expliquer pourquoi le modèle dit oui ou non, on log ça, on conserve les informations, on sait quels sont les paramètres, les impacts, le résultat, et qu'on le donne, enfin qu'on peut expliquer, on est bon. Si on n'utilise pas des données considérées non éthiques, alors je vais prendre les exemples des Américains, parce qu'il y a toujours plein d'exemples à prendre chez eux, c'est très fun. Tout à l'heure, je parlais justement des crédits. Eux, ça fait très longtemps qu'ils font du scoring crédit, QIFAC, si j'en passe, et ce qu'ils se rendent compte, c'est que les populations nord-américaines avaient des... des taux un peu plus élevés. Pourquoi ? Parce que le modèle prenait en compte le fait qu'ils étaient noirs et donc du coup forcément ils avaient un taux plus élevé, donc ça impactait directement leur vie, etc.

  • Speaker #1

    Et voilà,

  • Speaker #0

    donc ça, heureusement ou malheureusement, c'est un autre débat, on n'a pas le droit d'avoir ces données-là en Europe, mais techniquement, si on a tout ça, l'EAAC ne va pas faire mal. L'EAAC va faire un mal parce que justement, on utilise des modèles qui sont très complexes, de plus en plus complexes, et qu'on n'a jamais pensé dès le début sur comment réellement les monitorer, les comprendre. Et c'est ça le vrai point, et ça va être ça pour moi, l'évolution. ou la tension régulatoire de la GNI. Soit ils vont arriver à expliquer, de dire on est en capacité d'expliquer pourquoi la réponse a donné ça, soit il va y avoir une limitation sur son utilisation, soit tout simplement il va y avoir une tension au niveau régulatoire de comment est-ce qu'on va devoir évoluer les choses si on veut l'étendre à d'autres périmètres plus critiques.

  • Speaker #1

    Juste petit point, perso j'ai hâte de dire... ce qui va être OK, ce qui ne va pas être OK, parce qu'en fait, à vrai dire, aujourd'hui, on n'en sait rien. En fait, pourquoi je dis ça ? C'est parce que je me suis rendue compte que souvent, surtout quand, tu sais, on a cette aura, comme Nico tout à l'heure me présentait comme quelqu'un qui connaît les sujets, en fait, je me suis rendue compte que les gens utilisent souvent des choses que toi et moi, on peut dire de manière un peu raccourcie, un peu rapide. comme un outil de la décision. Et du coup, tu te dis, oh mince, non, non, mais moi, je pensais à autre chose. Et en fait, c'est pour ça que je suis très précautionneuse sur la manière de formuler les choses. Mais voilà, tu as raison, on a un vrai sujet sur l'explicabilité. Et ce sujet, en fait, va nous occuper pendant très longtemps. je laisse, parce qu'on a encore ça fait un moment qu'on discute, je laisse en fait mamie et papy et tout le monde avec deux sujets ouverts. Le premier ça va être les en fait qu'est-ce que c'est l'explicabilité des algorithmes, tu vois parce que en fait s'il suffisait d'ouvrir le code d'un algorithme ça fait longtemps en fait qu'on aurait réglé plein de questions. mais en fait, ce n'est pas aussi simple, voire simpliste que ça. Donc, on va voir ce qui m'amène à l'autre question, qui est celle de l'expertise, y compris de l'expertise technique, qui est en fait quelque chose sur lequel on doit être extrêmement vigilant, et donc à ne pas, parce que dans les discussions sur la gouvernance de l'IA en général, on a une très grande tendance à faire comme si la couche technique n'existait pas. Alors que là, pour le coup, en termes de couche technique, ça douille intellectuellement.

  • Speaker #3

    Elle s'impose. Oui,

  • Speaker #1

    elle est très importante. Elle est vraiment significative. Et on n'est pas si nombreux que ça à comprenez grand-chose au sujet. Donc, on a vraiment cet aspect-là qui va très rapidement devenir très sensible. Pourquoi ? Parce qu'en fait, on a de moins en moins de gens qui comprennent ces sujets-là, qui sont capables d'intervenir là-dessus, techniquement j'entends, et qui se font quand même pas mal braconner par des boîtes, notamment américaines, qui payent des salaires que nous en Europe, on ne peut pas se permettre. Et donc on va se retrouver aussi rapidement, parce que là, c'est ce que disaient typiquement des gens côté bureau de l'IA à la commission, c'est que Et pourtant, la commission, elle ne paye pas le SMIC. Elle paye de très bons salaires. Et même eux avaient du mal à attirer des experts techniques pour le bureau de l'IA. Donc, c'est un sujet qui, en tant que professionnel, nous concerne de plein fouet. Parce qu'en fait, on parle aussi de nos futurs collègues ou des collègues qu'on n'aura pas, mais aussi de tout l'investissement. qu'on devra faire en tant que professionnel, chef d'entreprise ou autre, dans la montée en compétences techniques de nos collaborateurs et collaboratrices sur ces sujets-là. Parce qu'on peut se raconter après tout ce qu'on veut sur le réglementaire. Quelqu'un doit faire ses analyses de risque, doit s'assurer que ce qu'on dit, c'est ce qu'on fait.

  • Speaker #0

    Et ça, à part de la magie, tu vois, sacrifier des poulets les nuits de pleine lune, faire du voodoo, il n'y a pas 30 000 façons de le faire. Il faut apprendre à faire. Donc, je laisse le sujet ouvert comme ça. Je pense que ça va remuer pas mal chez nos auditeurs et auditrices.

  • Speaker #1

    Exactement. Je pense que tu as résumé finalement un petit peu le mot de la fin. Si on résume finalement, c'est que, tu l'as dit d'une certaine manière, enfin vous l'avez dit, c'est une technologie. C'est comme toutes les technologies, il faut la maîtriser. Comme le feu, à un moment donné, il a fallu qu'on le maîtrise. Et c'est intimement lié avec le fait effectivement de vouloir protéger nos sociétés, de donner un sens aussi à ce qu'on veut faire. et donner des limitations justement pour faire en sorte que la technologie nous serve plutôt que nous desserve. Et je pense que c'est un petit peu la conclusion qu'on peut apporter à cette discussion. En tout cas, j'étais très heureux de vous avoir dans cet épisode de la cybersécurité expliquée à ma grand-mère. J'espère que cet épisode va éclairer bon nombre d'éditeurs et certainement aussi leur poser un certain nombre de questions. Et c'est là aussi pour ça. En tout cas, ma grand-mère me fait un gros bisou. Elle me dit que finalement, sa bouillarde pour faire le thé, par rapport à Tchad GPT, ça va encore. Il y a de la marge de manœuvre. Et puis, je te dis qu'elle va se mettre au vélo aussi pour générer de l'électricité, pour compenser son bilan carbone. Donc voilà, tout va bien. Elle a pris en considération tous les problématiques écologiques de l'utilisation de Tchad GPT. Encore un grand merci à vous. Et comme je le dis très souvent, pour certains, la cybersécurité est un enjeu du vieux de mort. C'est bien plus sérieux que ça.

Description

Avec Rayna STAMBOLIYSKA ( https://tech-est-politique.eu ) et Frantz ZIZZARI (Frantz Zizzari | LinkedIn).


Rayna et Frantz abordent la nécessité d'une réglementation pour encadrer l'utilisation de l'IA, en soulignant l'importance de la transparence et de la responsabilité des entreprises.

Ils évoquent également les défis liés à l'explicabilité des algorithmes et à la consommation énergétique de ces technologies.

Le débat met en lumière les différences culturelles entre l'Europe et les États-Unis en matière de réglementation, ainsi que les préoccupations éthiques et environnementales associées à l'IA.




Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour mamie, j'ai ramené un copain. Bonjour et bienvenue dans la cybersécurité expliquée à ma grand-mère, le podcast pour expliquer la cybersécurité à ceux qui ne comprennent rien. Il y a quelques temps, on avait fait un numéro spécial avec Nicolas Ruff, que je salue au passage, sur l'IA. Et j'avais envie de refaire un petit update sur ce sujet, parce qu'entre-temps, beaucoup de choses ont changé. On va parler de Tchadjepété, évidemment, mais il n'y a pas que ça qui a bouleversé, je pense, le monde de l'informatique dans les 12 derniers mois. Il y a aussi des éléments réglementaires qui sont assez importants. Et je pense que c'est le bon moment, finalement, de se retourner... quelques instants et puis de regarder l'évolution de ces technologies et de se poser un certain nombre de questions sur l'avenir de tout ça et surtout sur l'avenir en termes réglementaires parce que comme vous le savez en Europe c'est important, on aime réglementer les choses et c'est plutôt important parce qu'on a vu ce qu'elle s'est donné avec RGPD, c'est plutôt une grande fierté maintenant en Europe d'avoir ce type de réglementation que les Américains nous envient. C'était d'ailleurs... un peu la conclusion de Thierry Breton lors du dernier FIC, qui expliquait qu'en discutant avec ses homologues américains, il avait félicité pour réaliser quelque chose qu'eux-mêmes n'avaient pas réussi à faire. Et pour animer cette émission, j'ai deux personnes qui vont pouvoir nous éclairer et nous donner leur avis sur tout ça. Commençons par les dames. quelqu'un qui est déjà connu dans ce podcast, que ma grand-mère connaît déjà, Raina, qui est celle qui anime, entre autres, parce qu'elle a beaucoup d'activités, un blog qui s'appelle La Tech et Politique. Je vous conseille de lire ce qu'elle fait sur LinkedIn, entre autres. Mais il y a tout un ensemble de textes assez intéressants qui permettent de mieux comprendre le contexte réglementaire. et ces textes sont relativement faciles à repérer parce que souvent ils ont des titres on a l'impression que c'est des titres de romans de polars je suis sûr qu'un jour elle va sortir un titre du style le petit friseux et des lardons ou quelque chose comme ça enfin voilà Raina, bienvenue est-ce que tu peux te présenter rapidement et expliquer qui tu es et ce que tu fais merci Nicolas pour l'accueil et pour la présentation qui fait super envie

  • Speaker #1

    de mes écrits. Je m'appelle Arina et je fais du conseil. J'ai ma société de conseil qui s'appelle ARS Stratégie. J'interviens sur des sujets qui concernent notamment la protection de ce qui crée de la valeur au sein des organisations. C'est le volet cyber. Et aussi sur le volet de dans quel monde on évolue. Et ça, c'est le volet réglementaire. et en fait c'est aussi l'objectif de la Techie politique et d'autres offres que j'ai qui sont d'éduquer avant tout les gens qui prennent des décisions, qui créent des produits, qui créent des services, qui créent de la valeur à travers le numérique autour de ces sujets-là du réglementaire. Parce qu'au-delà d'une compte-rente, c'est surtout une opportunité et aussi une façon de faire société numérique.

  • Speaker #0

    D'accord, très bien, merci. Et à nouveau, que ma grand-mère ne connaît pas encore, France, que j'ai eu l'occasion de rencontrer au mois de juillet cet été. Et le discours qui tenait sur l'IM a beaucoup plu parce que ce n'était pas du tout le discours habituel qu'on entendait. C'est un peu à l'inverse des sales qui te vendent tout et n'importe quoi. C'était un discours qui était beaucoup plus réaliste et qui avait un sens assez profond sur l'IA. C'est pour ça qu'il a heureusement accepté mon invitation et je le remercie. Donc, Franz, est-ce que tu veux bien te présenter et nous expliquer ce que tu fais ?

  • Speaker #2

    Bonjour, merci de l'applaudir. Surtout que j'ai été sales dans ce métier. Donc moi je suis Franz Zary, je suis actuellement le lead AI, là où on travaille ensemble. Et avant ça justement, j'ai travaillé pour des boîtes de conseils, où je vendais justement toute cette partie de traitement de données et d'intelligence artificielle. Je n'ai pas commencé comme ça. Je suis économètre, j'ai fait moi-même les petits systèmes, j'ai moi-même éprouvé tous les petits problèmes par rapport à tous les beaux sujets théoriques, comme quoi à chaque fois, il y a un résoutout. Et on se rend compte que ce n'est pas aussi simple que ça, il y a toujours des problèmes de base, la fameuse donnée. Donc voilà, tout simplement, avec grand plaisir que je puisse te voir et voir ta grand-mère évidemment.

  • Speaker #0

    Ah bah écoute, elle est ravie, elle est ravie ! Elle piave d'impatience justement de pouvoir un petit peu mieux comprendre tout ça. Et j'ai envie de commencer par une première question déjà, c'est une petite rétrospective sur l'IA. Et donc Franz, est-ce que tu peux un petit peu nous expliquer quid de l'IA aujourd'hui dans les entreprises ? Parce que comme tu l'as signalé, effectivement on travaille tous les deux dans le monde de la finance. Alors justement, aujourd'hui l'IA dans les entreprises... C'est quoi ? Ça sert à quoi ? Qu'est-ce qu'on peut faire avec ? Est-ce que ça s'est vraiment adapté ou pas ? Enfin voilà, donne-nous un petit peu ta vision des choses.

  • Speaker #2

    Alors je pense que déjà, il faut peut-être se poser la question qu'est-ce que c'est vraiment l'IA ? Parce qu'on en parle beaucoup en ce moment, l'intelligence artificielle, c'est des robots qui réfléchissent. Avant tout, l'IA, il n'y a rien de réellement intelligent, je n'ai pas cité Luc Julia, qui n'existe pas. C'est avant tout de base des systèmes qui imitent un comportement humain. Et ça, en fait, quand on réfléchit à ces définitions, c'est loin de nouveau en fait. Ça existe depuis au moins 100 ans, je dirais. Même les premiers, même dans l'histoire de l'IA, on prend tout ce qui a parti d'Alan Turing dans les années 50. Par contre, quand on pense maintenant IA, je vais pouvoir répondre à ta question avec ça, c'est tout ce qui arrive sur la partie machine learning et plus loin le deep learning. Rapidement, qu'est-ce que c'est le machine learning ? C'est le fait que justement, il y a un modèle mathématique, rien de foufou au final, qui permet de prendre des décisions, ou plutôt donner un résultat avec des entrées, et que lui va calculer ce qu'on appelle des paramètres. des variables. C'est-à-dire, finalement, pour prendre la décision attendue, ces données ont plus d'intérêt ou pas. Si on résume, la majorité des IA, et même le LLM actuellement, le CHPT, viennent de ça. Et donc, quand on regarde ça, on se rend compte qu'il y a beaucoup de choses qui existent déjà dans... dans l'entreprise et je dirais même dans l'industrie, l'industrie est souvent plus précieuse. Je dirais qu'il y a deux secteurs, donc il y a l'industrie et il y a toute la partie crypto, enfin pas cryptocurrency en ce temps, cryptologie. Je citais Alan Turing qui est connu et on sait ce qu'il a fait notamment avec MachineGym. Pour décrypter MachineGym, finalement c'était de l'IA, avant qu'on l'appelle comme ça. Si on regarde, moi j'aime bien parler beaucoup plus d'industrie, parce que dans l'industrie, ils ont fait pas mal de choses. Donc typiquement, ils utilisaient l'IA dans l'industrie pour optimiser toutes les lignes de production, parce que derrière, on veut réduire à fond les coûts. Et donc, ils mettent en place plein de petits systèmes, alors plus ou moins intelligents, on pourrait dire. Mais typiquement, si on va sur une...... Les entreprises de recyclage, ce ne sont pas des gens qui font à la main. Il y a des machines qui détectent, par exemple, si c'est du plastique, ou autre chose, et qui y trient. Ça, c'est l'IA, tout simplement. Toutes ces choses-là. Il y a beaucoup d'usées pour tout ce qui est dans la chaîne d'approvisionnement, typiquement. Donc, de dire, en gros, d'automatiser toutes ces choses-là, d'éviter qu'il y ait un humain, parce que ce sont des choses qui sont très, je ne vais pas dire simples, mais prévisibles. Beaucoup de choses aussi, tout ce qui est dans la maintenance prédictive, ça c'est très très fun pour le coup. Typiquement, quand on vient sur l'industrie, l'un des points c'est toujours les coûts. Donc quand on dit qu'une pièce a une date de péremption... On peut remettre en question tout simplement, une pièce à une date de péremption a plutôt un nombre de consommations et donc typiquement il y a des modèles d'IA qui étaient déjà mises à plus longtemps pour dire comment est-ce qu'on peut maintenir cette pièce le plus longtemps possible. Et puis toute la partie qualité, contrôle, parler notamment justement des chaînes pour faire le triage, typiquement il y a la même chose avec détection. Et puis même, on peut remonter beaucoup de loin. Tous ces systèmes-là existent depuis très très longtemps. Je vous fais une aparté, mais on parle des voitures autonomes maintenant. Je me rappelle, moi, en première, je ne suis pas bien vieux, mais ça fait quand même déjà 20 ans, plus de 20 ans même d'ailleurs, mon Dieu. Et déjà en première, il y a déjà des gens qui avaient l'école des mines, qui avaient automatisé, c'était les grosses Renault familiales. Donc ça, l'industrie est souvent très prionnaire. Je sais qu'on a aussi beaucoup vu dernièrement dans les entrepôts d'Amazon, avec le petit robot qui porte les colis et autres. Voilà, eux, ils sont souvent beaucoup plus à la pointe. Maintenant, l'industrie du service, c'est différent. Dans l'industrie du service, je dirais qu'il y a eu beaucoup de choses qui ont été testées, beaucoup de choses qui ont échoué, typiquement dans tout ce qui est la santé. Si on se rappelle, on en parlera plus tard sur les limitations et autres, avec IBM Watson qui pouvait prédire justement les cancers et des trucs comme ça. C'était un flop total. D'ailleurs, la valeur a chuté et ils ont revendu ça pas très cher au final. Certaines quantités, mais pas très cher par rapport à l'investissement. C'est là où il y a quelques limitations. Par contre, dans beaucoup de systèmes, on travaille dans une banque typiquement, il y a beaucoup de systèmes qu'il y a dedans. Typiquement, les moteurs de crédit, finalement, c'est des éditions basées sur du risque. Et qu'est-ce que c'est du risque ? C'est un calcul de probabilité. Autrement dit, ce ne sont que des modèles d'intelligence artificielle, c'est juste qu'on ne les appelle pas comme ça. Et donc ça, il y a pas mal de petites choses qui font la vie de tous les jours. Ce qui d'ailleurs, je pense aussi, a été la genèse de pourquoi les AI actent tout simplement. Il y a plein de petites choses qui nous impactent directement ou indirectement. avec plus ou moins de forte, on va dire, plus ou moins de criticité. Je parlais du crédit, typiquement si le modèle mathématique derrière décide pour certains critères de ne pas accorder un crédit ou de donner des taux plus élevés, ce qui se passe aux Etats-Unis d'ailleurs, ce qui s'est passé aux Etats-Unis. ça peut impacter la vie. Donc dans l'industrie, enfin pardon, dans l'entreprise, dans le monde de l'entreprise, je pense qu'il y a toujours la vision très pragmatique et très avancée au niveau de l'industrie, avec les lignes de production, tous ces colis et ces choses-là. Et eux, ils cherchent vraiment la rentabilité de ce que l'IA va apporter. Et le service qui va juste amener des services plus ou moins plus ou moins complexe. Je pourrais parler comment déjà il y a de ça 10 ans, 15 ans, une bonne dizaine d'années pendant, où déjà pour faire du ciblage de clients, on mettait en place des petits moteurs qui permettaient de déterminer ce client-là, il a une appétence à ce produit. On parle de ça il y a 10 ans et à l'époque déjà on ne comprenait pas, ce n'est pas normal. C'est un peu comme ça. Ça ne peut pas être une machine qui dit ça. C'est pas une intelligence la machine. En fond, ils ont raison. Mais ces trucs-là sont loin d'être nouveaux. C'est juste la méthode et la puissance de calcul qui augmentent, je dirais, et qui rend les choses plus fortes.

  • Speaker #0

    Justement, tu viens de décrire assez rapidement, en quelques minutes, l'évolution de l'IA depuis l'industrie, les différents cas d'usage que tu as cités. Une question qui est assez importante, je pense, c'est de comprendre aussi un peu les limitations de tout ça. C'est-à-dire qu'il peut y avoir des cas d'usage dans l'industrie, dans la finance, un petit peu partout, avec des risques plus ou moins élevés. Par exemple, l'IA qui regarde le code postal sur une carte postale pour déterminer où il doit l'envoyer, s'il y a une erreur, ça peut... La lettre va peut-être mettre un petit peu plus de temps pour arriver, mais l'impact est quand même relativement faible. En revanche, l'exemple du crédit que tu as donné est quand même assez significatif. Il doit y avoir aussi une responsabilité de la part des entreprises pour pouvoir, dans certains cas, démontrer certaines choses. Un autre élément sur lequel tu as cité un petit peu à la fin de ton explication, c'est la puissance de calcul, qui peut être aussi un facteur limitant et qui peut devenir un enjeu géostratégique. puisque l'une des problématiques qu'on peut avoir aujourd'hui, si on veut faire de l'IA, c'est qu'il faut avoir des GPU, pour les neuf-fites, ce sont des puces qui sont dédiées à du calcul, il en faut beaucoup. Et donc du coup, ça devient une grande erreur, et ça devient même quelque chose de stratégique, puisque les États-Unis ont imposé un certain nombre de restrictions sur l'exportation de certains GPU, pour garder une forme de... d'avance technologique sur le reste du monde. C'est une petite note de bas de page. Justement, sur la partie limitation, est-ce que tu pourrais donner un peu plus d'informations, que ce soit des limitations un peu structurelles, des limitations en cas de visage, c'est-à-dire est-ce qu'on peut utiliser de l'IA dans tous les cas, ou alors dans certains cas, on est obligé de démontrer certaines choses et donc par conséquent, certains types d'IA ne sont pas utilisables, parce qu'elles utilisent trop, par exemple, d'éléments aléatoires. Tu pourrais nous donner ton point de vue là-dessus et nous donner cette limitation sur l'usage de l'IA aujourd'hui ?

  • Speaker #2

    Je pense qu'il y a plusieurs points, si on résume, on a trois gros blocs, je vais me faire un peu de tête. En effet, toute la partie modèle, les mathématiques derrière, il y a toute une partie physique, et il y a toute une partie, je dirais aussi, politique, et géopolitique, je crois qu'on y ira tout à l'heure. Alors, première, on va parler des modèles, et pareil, tout à l'heure, je parlais de Luc Julia. Si personne ne connaît, j'invite à connaître. Petit aparté, c'est le co-créateur de Siri, un français vachement intéressant comme Gaïa. Et il a écrit un bouquin sur le fait que l'IA n'existe pas. Et pourquoi ? Parce qu'il dit que de toute façon, la définition est erronée. Parce que tout est basé sur des algorithmes et des statistiques. Et donc ce n'est pas une intelligence comme l'humain. Et je dis ça parce que derrière, en fait, il y a finalement, du moins les moteurs, c'est des spécialités. C'est-à-dire qu'en gros, les outils, cette limitation qu'ils ont, c'est qu'ils sont très bon dans une chose. Et ils ne sont pas aussi, peut-être, versatiles, je dirais, qu'à l'être humain, d'être en capacité de faire plusieurs choses. On reviendra, c'est un peu le mythe du fameux modèle monde, mais l'IA a cette limitation. Elle est bonne dans une chose. Et alors on peut en parler de différents types, mais par exemple, on a tous été, enfin je me rappelle, moi j'aime bien les échecs par exemple, je me rappelle très bien de Gaspard Hoff, on parle de ça en 97 si je ne dis pas de bêtises, qui a été battu par une... machine pas impressionnant apparemment oui mais sauf que machine qui a fait ça a dit blue elle sait pas faire autre chose c'est juste vraiment pas faire autre chose on peut aller plus loin pour le jeu de go qui est arrivé avec alpha go 2006 je crois que c'est dans ces eaux là ou pareil plus impressionnant parce que c'est plus intuitif pareil la machine ne sait pas faire autre chose que ça Donc, la limitation, c'est qu'on a toujours cette vision de l'IA, je dirais, à Terminator ou je ne sais pas quoi, où en gros, elle est capable de se mentir. Et alors,

  • Speaker #0

    en plus, de tête, je faisais référence au Go, donc c'était lui, Sidol, je ne sais pas son nom, qui était champion du monde. Et quand il a perdu, justement, contre AlphaGo, il a fait une déclaration en disant que ce n'est pas lui qui avait perdu, c'était l'humanité tout entière. Ce qui donne, entre guillemets, un poids, quand même, à l'impact sur l'IA. Et d'ailleurs, j'ai ma petite théorie quand même dessus, c'est que Terminator a, d'une certaine manière, bridé toute une génération contre l'IA, parce que justement, tout le monde a vu Terminator avec une intelligence artificielle qui allait tuer beaucoup de monde, alors que finalement, pour la même génération dans d'autres pays, par exemple en Asie...

  • Speaker #1

    Ben oui, j'y vais.

  • Speaker #2

    Ça, c'est à côté. J'écoute la presse, j'ai même deux politiques. J'attends beaucoup de cette conférence de presse.

  • Speaker #0

    Ils sont beaucoup plus ouverts à la technologie et au fait d'enclin à utiliser l'intelligence artificielle, un peu moins la Terminator. Raina, tu voulais prendre la parole ?

  • Speaker #1

    Oui, c'est en fait... C'est toujours un peu compliqué d'apprécier l'impact d'œuvres de fiction, surtout dystopiques, surtout très négatives, comme ça, sur la psyché des gens. Parce qu'en fait, il faut aussi contextualiser à quel moment ce dont on parle, Kasparov, etc., s'est passé. C'était assez spectaculaire en termes de réalisation, parce qu'à l'époque, il y a plus de dix ans, on n'avait pas du tout une généralisation de ce genre de système, notamment avec une barrière à l'accès aussi ridiculement basse qu'on l'a aujourd'hui. Donc effectivement, le contraste était saisissant, et en fait, ce qu'on oublie de dire quand on parle de ça, c'est la... quantité de fois où en fait le système d'IA s'est entraîné sur les différentes stratégies pour gagner. Tu vois ce que je veux dire ? Et donc tu te retrouves avec un nombre d'entraînements qui est humainement impossible à faire, mais qui si on est cynique ou en tout cas pragmatique, si un humain pouvait s'entraîner autant de fois et apprendre de ces entraînements de la même manière qu'une IA, qu'un système d'IA de ce genre-là, il aurait un taux de réussite très important. Et après, tu as aussi un sujet qui, moi, m'interpelle toujours beaucoup quand on évoque des œuvres de fiction qui souvent poussent le... très loin grossissent le trait de façon particulière. Et ça, c'est le point de vue de quelqu'un qui fait beaucoup d'études de prospective stratégique et des choses comme ça. C'est en fait, quand on fait de la prospective, ce qu'on projette, ce sont des scénarios plausibles. Je ne dis pas possibles, je dis plausibles. Donc, quelque chose qui a des... qui pourrait se réaliser. Et en fait, souvent, on... on a tendance à faire des choses qui sont soit le best case, soit le cas idéal. C'est le truc que je désire le plus, le parfait. Soit le truc qui me fait le plus peur, le pire cas. Et les dystopies, c'est le pire cas. Sauf qu'en fait, quand tu réfléchis à ça, ces deux cas extrêmes présentent très peu d'intérêt parce que personne n'a de leçons à tirer. du paradis, où tout est lisse, où tout est parfait, et personne ne veut aller en enfer. C'est là où c'est le pire cas. Donc en fait, c'est toujours très particulier d'utiliser des cas extrêmes comme ça pour tirer des leçons, parce qu'en fait, c'est soit le cas idéal, donc personne n'a envie d'en sortir et qu'on est en gros tétanisé par l'impossibilité d'y parvenir. Soit c'est tellement atroce qu'on ne veut pas y aller. Mais en fait, l'apprentissage, les leçons qu'on apprend et là où on avance, c'est à partir de situations nuancées. Et donc, c'est là où, en fait, convoquer des... Comment dire ? des situations, des cas, des scénarios, des choses comme ça où le trait est exagéré n'est pas nécessairement la meilleure idée parce qu'on est très rapidement cantonné dans très peu de nuances où il y a en fait très peu de choses qui prêtent à la vraie réflexion et qui prêtent en fait, qui laissent la liberté d'imaginer, d'anticiper, voire même d'avoir un sentiment de peur. pouvoir intervenir. Parce qu'en fait, quand quelque chose est soit tellement bien ou tellement atroce, il y a aussi l'humain qui fait moi je ne peux pas, c'est trop, c'est trop pour moi Il y a aussi un côté où on te remet dans un attentisme qui est très problématique parce que finalement, tu abandonnes ta capacité d'agir. Et ça, on le voit aujourd'hui notamment. Tu vois, c'est... Je l'ai vu dans les discussions que je peux avoir dans le cadre de conférences de sensibilisation ou autre, où tu as beaucoup de gens pour qui chat GPT, par exemple, c'est de la magie. Et en fait, on leur rabâche les oreilles à longueur de journée qui vont se faire grand remplacer par ces systèmes-là et qui sont totalement démunis. et qui vivent dans une peur et dans une fatalité, qui ne sont pas ce qu'on veut de ces gens-là, et qui en gros attendent, qui sont tétanisés, qui attendent au final de perdre leur travail, etc. Je ne dis pas qu'il n'y a pas de risque, je dis que ça enlève toute capacité de se rencontrer, d'échanger, de s'écouter et de construire aussi à partir des mésententes, à partir du débat.

  • Speaker #0

    Mais je sais que Franz voulait... Oui, Franz, je vais donner la feuille d'un parle dans quelques secondes. Ce que tu dis, c'est marrant, mais quand tu t'es expliqué ça, je pensais à un philosophe, Schopenhauer. Et Schopenhauer disait finalement l'existence aussi entre l'ennui et la douleur. Alors pour lui, il n'y avait que deux extrêmes. Donc toi, tu prends le paradis et l'enfer, mais à peu de choses près, on y est. Et quelque chose d'intéressant aussi, c'est la peur de la technologie parce qu'on n'a pas la connaissance entre guillemets. Pour beaucoup de gens, c'est simplement magique. Mais simplement magique, c'est quand même un tour de magie. Mais une fois qu'on l'a compris, ça démythifie un peu forcément le propos.

  • Speaker #3

    Apparemment, McDonald's se serait lancé dans l'intelligence artificielle. Ah, très bien ! Ils proposent des menus personnalisés aux clients selon le temps qu'ils font, l'heure, les préférences qu'ils ont... Ben oui, ils ciblent quoi ! Ah oui, oui, oui, oui, en fonction de la personnalité du client. Oui, mais ça, économiquement, moi j'ai lu des trucs, de toute façon, l'intelligence artificielle, tu peux plus faire ça, hein, c'est l'avenir ! Ah ben oui,

  • Speaker #2

    c'est sûr !

  • Speaker #3

    Ça me donne envie de manger McDonald's. Mais de toute façon, cette boîte, c'est terrible. T'en parles, hop, t'as envie de manger, on croque dedans. On se fait une commande. Oh, chiche. Comme des ados, là. Hop, c'est parti. On va voir, hein. On va voir s'ils sont intelligents. Je me connais. Paf. C'est bon, hein. C'est parti.

  • Speaker #2

    Bonjour, Catherine. Toujours aussi élégante.

  • Speaker #3

    Oh ben dis donc, mais comme c'est bien, bien truqué ! Ah ben c'est tout moi, ils savent, c'est incroyable ! Bonjour, alors je voudrais 4 nuggets, un petit hamburger, des frites, petites, et une badoit.

  • Speaker #2

    Très bon choix Catherine,

  • Speaker #0

    vous ne changez pas vos habitudes,

  • Speaker #2

    vous êtes formidable !

  • Speaker #3

    Ah, merci, même fait du grain ! Je vois le truc, quoi, pour que je commande plus. Je vais lui faire plaisir. Alors, Edouard ? Je suis proche d'une glace.

  • Speaker #0

    Catherine, tu es une petite gourmande.

  • Speaker #3

    Ah ben ! Ha ha ha !

  • Speaker #2

    Gourmande !

  • Speaker #3

    Ha ha ha, oui ! Bon, stop ! Moi, toi, moi !

  • Speaker #0

    Et alors, juste dans la dystopie, pour continuer un petit peu sur ce sujet... D'une certaine manière aussi, ce que tu disais, c'était un peu la réduction des interactions avec les autres, la réduction du débat. Et c'est un peu ce qu'on a dans 1984, puisque quand on explique qu'on veut réduire le langage à ses plus simples expressions, c'est uniquement pour réduire justement la capacité d'explorer et de réfléchir, ce qui est une thèse ensuite reprise par Wittgenstein, puisqu'il disait ma langue est mon domaine c'est-à-dire que je ne peux pas… aller au-delà de ce que je peux décrire. C'est exactement cette idée de réduire finalement son champ d'activité et par conséquent finalement sa capacité à comprendre le monde et sa vision des choses. Donc Franz, tu voulais rebondir sur ce que disait Raina ?

  • Speaker #2

    Ah bah oui, je pense que c'est vrai que là on parle évidemment de chat GPT parce que c'est le sujet du moment. Alors attention, les transformeurs GPT c'est ça, le T c'est... transformeurs pas les petits robots c'est bon dès maintenant derrière mais donc c'est pas nouveau déjà ça a quand même déjà quatre ans le gpt 3 cela s'arrivait 2020 en 2022 par an c'était c'était encore mais c'est juste que ce qui est impressionnant avec avec ça c'est que ben on peut parler voilà On tape quelque chose et bon Dieu, on nous répond. Et ça semble vraisemblable. C'est le terme qu'il a. C'est vraisemblable. Et d'ailleurs, je parlais de Turing avec le fameux test IF, à savoir si on pouvait se faire tromper. Voilà, c'est ça. ça fonctionne très bien. Donc oui, c'est impressionnant. C'est impressionnant. Mathématiquement, c'est impressionnant aussi. On part sur des réseaux de neurones avec des milliards et des milliards de paramètres. C'est impressionnant. Ce n'est pas de la magie. Je ne suis absolument pas pour ça. mais je peux comprendre que n'importe qui peut se faire flouer. Et ça, on arrive quand même sur une nouvelle vague, parce que justement, on parlait des IA qui font les jeux vidéo, qui sont dans les jeux vidéo, ou simplement, enfin des jeux d'échecs et autres, et là on arrive à quelque chose où, quand je pose une question,

  • Speaker #0

    En face, une machine me répond avec toute l'intelligence qu'on lui a mise, avec tout ce qu'on lui a donné.

  • Speaker #1

    On se retrouve avec un élément assez particulier, c'est qu'il faut comprendre que les réponses de Tchadjepeté sont en réalité une réponse moyenne. D'ailleurs, on en discutait la dernière fois, justement, de ce fameux auteur de science-fiction, qui disait, si je veux savoir ce que je dois écrire, je demande à Tchadjepété de me faire l'histoire, et je vais exactement écrire l'inverse. ou quelque chose de totalement différent parce que JDPT va me donner l'histoire moyenne d'une intrigue moyenne et il faut s'en écarter. Donc d'une certaine manière ça aide à s'améliorer parce que ça permet de voir quelle est la réponse moyenne et donc d'avoir l'opportunité de faire un peu différemment. Juste pour revenir un tout petit peu sur ce qui a été dit au niveau de l'IA, sur la vraisemblance, donc effectivement les gens aujourd'hui ont le sentiment d'être compris par la machine, bien que ce sentiment de compréhension est quand même un peu discutable, est-ce qu'elle comprend vraiment ou pas, c'est une question presque philosophique. Mais justement, est-ce que ça ne fait pas partie des limites qu'on peut commencer à avoir avec les IA et aussi une forme de danger ? Je pense qu'on va développer ce thème un petit peu plus tard. au niveau de la réglementation. Mais de votre point de vue, est-ce que cette évolution de l'IA, je le rappelle, pour reprendre les propos de Franz au début, c'était plutôt quelque chose d'assez industriel. On ne pouvait pas forcément se laisser avoir. C'était plutôt du très structurel, très technique, alors que maintenant, l'IA commence à s'infiltrer un peu partout. On a de plus en plus de mal à faire la différence entre ce qui est réel de ce qui l'est moins, avec tous les problèmes évidemment de désinformation possible et imaginable, mais aussi il peut y avoir une certaine influence de l'IA dans les décisions prises. Et ça c'est quelque chose d'assez important dans notre société, puisqu'est-ce qu'on peut laisser une IA prendre des décisions importantes ou pas, jusqu'à quel niveau ? c'est un peu le thème aussi que j'ai envie de discuter avec vous dans cet épisode Raina, France honneur aux dames,

  • Speaker #2

    Raina il y a plein de choses en fait si tu veux dans cette approche, la première c'est un constat on va dire général qui est que l'accès à des technologies puissantes, si tu veux, aujourd'hui, est possible avec un coût d'entrée qui est risible. Je veux dire, je ne parle pas de coût d'entrée financier nécessairement. Et en fait, je me souviens d'un groupe de chercheurs danois qui, en fait, avait parlé de démocratisation de la destruction. En fait, ils ont parlé de la destruction Ce qui, pour eux, en associant ces termes-là, en fait, ce qu'ils font, c'est souligner que la prolifération de technologies, notamment émergentes, telles que les systèmes d'IA, de technologies diverses, en fait, change la donne. Et cette prolifération permet à des acteurs très divers et à des groupes très petits, et même à des individus, d'exercer, en fait, et de projeter un... pouvoir pour faire des choses que seules les éternations pouvaient faire avant. Ce qui fait aujourd'hui qu'on se retrouve avec notamment, par exemple, de la désinformation à grande échelle à travers des images très ficotées, tu vois, avec pas mal de choses de ce genre-là, avec des influenceuses Instagram, Instagram, complètement créé avec de l'IA générative et des choses comme ça, et donc qui crée aussi un effet financier. Et en fait, quand on parle de ça, quand on parle de comment je peux faire ça, on a une notion de barrière à l'utilisation qui est importante de comprendre, c'est qu'on a... trois types, si on veut, de seuil de compétences. Le premier, c'est un seuil de capacité cognitive de comprendre ce que fait un outil. Chat GPT, il fait quoi ? Je lui pose une question, il me donne une réponse. C'est très simple. Le deuxième seuil de capacité, c'est celle qui est d'accéder à l'information et comprendre comment l'outil fonctionne. Ça ne veut pas nécessairement dire comprendre comment on fait un LLM, comment on fait de l'entraînement et des choses comme ça. Ça veut dire comment est-ce que je peux me créer un compte sur Chat GPT et comment je fais un prompt. C'est ça le deuxième seuil. Et le troisième seuil de compétence, c'est la manière dont la personne transforme son savoir en savoir-faire. Je sais parler, je sais écrire, et donc je peux faire des promptes, je sais réfléchir plus ou moins correctement, de façon plus ou moins logique, et donc je peux créer, m'approprier la façon de créer un prompt qui produit plus ou moins ce que je veux. Et donc après, je peux écrire. je peux transformer ce prompt-là pour me créer, par exemple, non pas du texte, mais une image, etc. Et donc, c'est ça, en fait, si tu veux, quand tu regardes ces différents seuils de capacité, c'est là où, en fait, tu te rends compte qu'il est possible d'affecter une population significative avec un outil, a priori, anodin et avec un coût de mobilisation qui est très faible. Ce qui, en fait, est extrêmement différent. des outils qu'on avait avant. Parce que pour affecter une population significative de manière négative, j'entends, en fait, tu avais quoi ? Tu avais la bombe nucléaire. Quand tu regardes qui peut manipuler la bombe nucléaire, ce n'est pas n'importe qui. De comprendre comment ça marche, etc. Et donc, en fait, c'est ça, si tu veux, c'est cette capacité, cette possibilité. Et le fait que c'est donné un entraînement de plein de gens, c'est ce que tu expliquais en fait, mais de façon entre guillemets détournée, c'est-à-dire en donnant des exemples différents, c'est cette capacité-là qui amène à toutes les discussions sur une gouvernance de ces technologies-là. Et maintenant, tu vois, je vais glisser dans la jeunesse de l'IA Act.

  • Speaker #1

    Qu'est-ce que t'es habile !

  • Speaker #2

    Tu vois ? Mais c'est en fait parce que ce que tu décris, et tu vois que ce soit les sujets de facturation, que ce soit des sujets en fait très, entre guillemets, quotidiens, où on peut mobiliser de l'aide ou des leviers d'automatisation, en fait ce sont parfois, voire souvent, des actions, des activités qui vont produire des effets sur les personnes humaines, et souvent ce qu'on appelle des effets judiciaires, c'est-à-dire que ça va avoir un impact. Il se passe quoi si, je sais pas moi, j'estime que tu n'as pas facturé assez et donc que de façon autonome, je produise une facture d'un montant très important et que j'impose le paiement de ce montant-là à un artisan qui n'en a absolument pas les moyens de l'honorer. Il se passe quoi en fait ? Donc, tu as un enchaînement. de conséquences qui est extrêmement qui parfois peut être imprévisible mais surtout qui peut avoir un impact significatif sur les personnes sur qui ils s'appliquent et donc c'est dans cette optique là, quand tu regardes l'abaissement des seuils d'accès et donc d'utilisation et de mobilisation de ces technos et les effets parfois inattendus parfois des effets de bord et des choses comme ça que ça peut produire... C'est là, en fait, que toutes ces histoires de gouvernance, etc. sont arrivées et que c'est comme ça que la réponse de l'Union européenne a été de faire un texte réglementaire qui répond, en fait, à ces préoccupations-là.

  • Speaker #1

    Alors, juste avant qu'on aille vraiment sur la partie texte européen, etc., il y a quand même, pour moi, un grand paradoxe dans tout ça. Pendant des années, on a expliqué à tout le monde qu'il fallait investir dans l'informatique, qu'il fallait commencer à comprendre comment programmer, qu'il fallait libérer les ressources. C'est d'ailleurs un peu le fond d'Internet. Si Internet a été libéralisé et utilisé à très grande échelle de manière très extensive, c'était justement pour partager ses ressources. accélérer le transfert d'informations et donc vraiment dans cet esprit alors il ya un autre élément aussi qui rentre qui est un bon exemple c'est les crypto monnaie puisque à la base c'était avoir un système monétaire qui sont indépendants des états alors ensuite quand on regarde un petit peu plus près les origines des crypto monnaie avec les ciphers punk bon il semblerait que le fondement soit plutôt libertariens enfin quand je veux dire c'était plutôt pour ne plus subir entre guillemets le gouvernant donc c'était pas forcément dans un optique dans une optique très bienveillante mais bon ils ont quand même développé ce genre de choses donc on est capable de développer des technologies qui a priori peuvent être bénéfiques pour tout le monde mais malheureusement en même temps peut poser aussi d'énormes problèmes de déontologie enfin tout ce que tu as expliqué aussi Reina de cette façon là donc Il y a quand même un petit peu un paradoxe dans tout ça. On veut pousser la technologie d'un côté, mais d'un autre côté, on est obligé de réglementer parce qu'on voit qu'il y a des mésusages. Et donc, il faut maintenir cet équilibre subtil entre la techno et son utilisation. Franz, tu voulais prendre la parole.

  • Speaker #0

    Oui, je pense que... Je pense que c'est marrant. Je suis tout à fait d'accord avec tout ce que tu dis. Je pense que ça ne va pas s'arrêter. Ça ira de plus en plus. L'étape numéro 2 pour les agents, c'est tous les parties agents et quand ça va faire des actions, là ça va faire peur. Par exemple, il y a un gars qui a fait planter son système Unix parce qu'il l'avait automatisé. Bref, les agents ont tout le monde. Et ça ne leur donne rien. Non, mais j'aime bien par contre la partie sur la crypto, parce que je pense qu'il y a ce concept de, je ne vais pas faire de politique, de l'anarchisme jusqu'au libertarianisme, et que... comment dire, les cryptos, il y a quelques temps, pas si longtemps que ça, ont traché, pas mal de personnes sur le paille, et ces mêmes personnes qui prenaient justement cette liberté, cet excès de liberté, ont été les premiers à demander justement quels états régulent pour pouvoir les cadrer, ce qui est un set paradoxal. Et je pense qu'en fait, tous, il y a le premier, auront le même point. Alors, nous... Alors, je dis nous, je parle des Européens. Assez paradoxalement, on a mis en place les actes qui, loin d'être jeunes, ça date depuis quand même quelques temps, je ne dirais pas loin de... Si on regarde, je pense que déjà en 2018, on discutait déjà, parce qu'en 2020, il y avait le Transform AI Framework. Et ça sort un peu comme un feu sur la soupe au moment où les LLM, les modèles transformeurs, arrivent. Et donc ça, je trouve ça assez marrant parce qu'on peut voir justement que d'autres pays, continents, n'ont pas pensé à ça, ou du moins plutôt. n'ont pas l'implémenté, les Etats-Unis typiquement, ou la Chine, et que la question qu'on se pose, c'est on va être en retard face à ces deux poids lourds, parce que nous, on a une régulation qui embête. On pourrait en parler de la régulation, je pense qu'on va en parler, mais... typiquement, ce qui va se passer, c'est que je pense que, des deux côtés, tôt ou tard, ça va arriver à avoir un problème et avoir une demande de régulation. Maintenant, on a un cas unique, je dirais, parce que là, clairement, il y a quand même un bond au niveau de l'IA. On a un cas unique où on a justement une réglementation qui arrive pile-poil sur une avance assez majeure, technologiquement parlant. On pourrait parler d'armes à rapprets. Mais, c'est... On a un cas majeur où, pour une fois, on a une réglementation qui arrive au même moment qu'une évolution majeure sur une technologie, face à deux mastodontes qui, eux, n'ont pas de régulation et qui, à mon avis, vont avoir des vrais problèmes dans le futur et qui vont impacter vraiment les gens. Et donc, la question va se poser de, lequel des deux aura eu raison ? Et quand on dit raison, ce n'est pas forcément d'un point de vue sociologique, mais d'un point de vue économique.

  • Speaker #1

    Alors, reste question, si on reprend Schopenhauer, le monde aussi entre la technologie sauvage et la réglementation à outrance. Alors justement... Raina, tu es quand même ultra spécialisée dans ce type de questions puisque tu as étudié ça jour et nuit. Et tu connais très bien aussi la communauté européenne et tout ce qui tourne autour. Alors justement, quel est ton point de vue par rapport à ça, l'EIA Act ? Est-ce que tu peux nous en parler et nous expliquer ce que c'est déjà ?

  • Speaker #2

    Alors déjà… Avant de te parler de l'IAC, spécifiquement, je vais juste rebondir sur les propos de France, parce que j'avoue que je suis assez mal à l'aise avec ce genre de propos qui, en fait, nous viennent très souvent des GAFAM, où il y a un leitmotiv récurrent qui est de dire que la régulation nuit à l'innovation. Et d'ailleurs, toi, Nicolas, qui es… qui est abonné à la Décay Politique, tu sais très bien que j'en ai fait un cas, en fait, un casus belli, et que j'ai une édition particulière, enfin dédiée, à des cas, en fait, très concrets, où le réglementaire crée un appel d'air, business, qui permet des levées de fonds, des développements de techno, etc. Et donc, parce que pour l'instant, personne ne m'a jamais donné un argument concret avec un cas illustré, un cas d'usage spécifique illustré où le réglementaire aurait empêché quelqu'un de faire du business. Donc, j'insiste là-dessus parce que c'est une vision civilisationnelle, cette histoire de réglementaire. Parce que le réglementaire, c'est quoi ? C'est les règles. de vie en société. C'est pour ça que je disais tout à l'heure dans la présentation, c'est comment on fait société numérique. Et donc, on ne peut pas, en fait, d'un côté, avoir des règles pour la qualité de la nourriture dans les supermarchés, tu vois, où la sécurité retire, et dire que ça, ça empêche l'innovation. Tu vois, c'est juste pas possible, quoi. Mais on a la même chose avec le numérique, où, en fait, on se retrouve... dans une situation où il y a un développement très important technologique, quelle que soit la techno en question, la cyber, ce que tu veux, et où on a très peu de règles spécifiques pour la responsabilité des gens qui mettent ces technologies-là sur le marché et donc qui ont une responsabilité vis-à-vis de nous, utilisateurs. parce qu'on est tous l'utilisateur final de quelqu'un, au final. Et donc, c'est là où le réglementaire intervient. Et j'aimerais quand même rappeler que le RGPD est arrivé. La Chine a un boîtel pas. Et alors, autant nous, en Europe, on a des sanctions pécuniaires pour non-respect. En Chine, c'est la tol. Je veux dire, ils ne font pas dans la demi-mesure. Aux US... Il y a un mouvement extrêmement important pour créer un RGPD fédéral. Et en fait, la structure de l'État est différente par rapport à l'Europe, mais aussi la culture des règles est différente. On n'a pas la même approche du tout entre les US et l'Europe. On peut en parler peut-être, mais surtout. Aux USA, il y a aussi un réglementaire par État et il y a beaucoup d'États aux États-Unis qui ont déjà adopté des cadres réglementaires qui rassemblent beaucoup à du RGPD. Et d'ailleurs, pour plein de raisons politiques, le texte fédéral Privacy aux États-Unis… a été un peu stoppée dans son élan, mais il y avait quand même de grandes chances qu'il soit adopté avant la fin du mandat de Biden. Bon, bref, je ne vais pas revenir sur les sujets spécifiquement politiques des US. Voilà, il y a en fait un mouvement très fort de protéger justement des actifs stratégiques. Et c'est là où... On a une différence dans ce qui est stratégique, dans l'appréciation de ce qui est stratégique. Aux US, on va toujours entendre parler de la sécurité nationale, par exemple. Alors qu'en Europe, on va avoir une approche différente. Mais la manière dont ça va se décliner... va beaucoup varier. Et sur l'IA spécifiquement, il y a un truc qui s'appelle SB1047, qui est l'équivalent de l'IA Act en Californie, qui a été récemment sanctionné par le gouverneur de Californie suite à une pression absolument dingue à de certaines boîtes que je n'aimerais pas, mais auxquelles je pense très très fort.

  • Speaker #1

    Vous êtes en Californie, justement.

  • Speaker #2

    Voilà. Mais en revanche, il y a... énormément de cadres sectoriels déjà adoptés. Typiquement, on mentionnait les véhicules autonomes tout à l'heure. Il y a déjà eu pas mal de frameworks réglementaires aux US, dans certains États, qui concernent spécifiquement les systèmes de reconnaissance, de signalement, de marquage de sol, enfin bref, de ces trucs-là. intégrés dans les véhicules. Il y en a plein, plein, en fait, qui sont intégrés. Et c'est juste l'approche d'application des règles qui est aussi très différente aux US, qui, en fait, passe par beaucoup de contentieux et c'est une culture du contentieux qu'on n'a pas du tout en Europe. Je vois que Franz voulait réagir, donc avant d'enchaîner sur l'IAC, je te laisse réagir.

  • Speaker #0

    Il y a beaucoup de choses à dire. Autant personnellement, je suis partisan que les régulations à une certaine dose, évidemment, et les actes, et bien dosés. je tiens à le dire, peuvent aider, clairement. Autant, je pense que le point, c'est une question sociétale, et une question aussi de comment est-ce qu'on parle des US. Je ne connais pas assez bien la Chine pour en parler, mais les US par rapport à l'Europe, il y en a un qui pense à la cause, et l'autre qui pense après la conséquence. Si on regarde nos actuelles, justement, on parle de RGPD, je pense que tout le monde sur la planète en est même. Je ne peux pas parler de tout le monde, mais je pense que les grands pays en sont d'accord. avec plus ou moins de raisons et peut-être pas pour les mêmes raisons va dire mais à l'heure actuelle les grands patrons ceux qui ont vraiment le cash qui dirige la snévola sont américains parce qu'ils ont commencé sur le fait qu'ils ont fait leur business sur la donnée complètement non régulé alors personnellement je trouve ça pas cool et ça c'est un point mais il est là, c'est qu'après, ils ont la puissance pour adapter aux besoins. L'Europe ne fonctionne que comme un marché, malheureusement. Et ça, c'est un vrai problème. Donc, à quel moment ils peuvent bloquer l'accès au marché, à quel moment ils peuvent aller sur d'autres marchés ? Et c'est ça le point. La chance qu'on a sur l'IA, c'est que les grands pensants de l'IA, la majorité sont européens et beaucoup sont français. Mais la question, c'est à quel moment... on va pouvoir se créer une autonomie sur le sujet qui est en capacité de rivaliser avec les autres. Et c'est ça le vrai point. Moi, je pense que le cadre, c'est pas ce qui va cadrer et qui va aider, parce que ces problématiques-là, pour tout un chacun, vont arriver plus tôt ou plus tard, vont être là. Maintenant, la question, c'est est-ce que de mettre en place dès maintenant toutes les...... Ce ne sont pas des complications. Si je peux, j'en parle un petit peu. Que demandent les actes pour attaquer des marchés qui ne sont pas régulés par ça ? Ça, c'est le vrai point. Et justement, je vais t'aider le propos. Le point, c'est que quand on parle des LLM, je pense que le point numéro un qui est spécifié dans les actes, c'est le fait... être en capacité d'expliquer la décision. Alors sur des trucs avec des milliards de paramètres, on n'y est pas. Et donc le point, c'est justement, il y a des choses qui vont rendre les LMS difficile à marketer, au moins sur certains secteurs, ou sinon dans l'armée, ils ont tous les droits, bon investissement, les HREC donnent beaucoup de liberté sur tout ce qui est militaire, mais face à d'autres qui ne considèrent pas ça, et notamment... Toute la partie des données, une donnée qui rentre dans un modèle, quand il l'a appris, il ne peut plus le retirer. Sauf que nous, en Europe, on pense à une manière de dire que nos données, c'est notre bien privé, etc. Les Américains, ils pensent que c'est un bien commercial. Ce n'est pas la même chose. même perception, mais du coup ça crée des champions qui peuvent attaquer d'autres marchés. Et donc le point, c'est ça.

  • Speaker #1

    Justement, parce que je crois que tu as mis le doigt sur quelque chose, c'est important, c'est les données. Est-ce que c'est un bien commercial ou un bien personnel ? Donc, grande question.

  • Speaker #2

    C'est tout là. En fait, il y a une vraie différence, c'est pour ça que je ne voulais pas du tout rentrer là-dedans quand j'ai dit qu'il y a une vraie différence de perception et de culture et de tout ce que tu veux. C'est qu'en fait, Le RGPD, puisqu'on parlait de ça, il est fondamental à plein de niveaux. Aussi parce que le RGPD, ce n'est pas un machin qui fait des cookie walls. Ce n'est pas un truc. C'est comme ça. C'est l'autre boudin qu'on a eu à la fin avec une implémentation et une mise en œuvre absolument déplorable. Mais ce n'est pas son objectif principal. Son objectif principal, c'est de protéger les droits et libertés fondamentaux des gens. Attends. En fait, en Europe, la... compréhension et qu'on a, en fait, la perception qu'on a des données à caractère personnel, et je dis bien à caractère personnel, c'est que ce sont des attributs de la personne humaine, au même titre que tes organes. Alors qu'aux US, on parle de consommateurs et de personally identifying data des données qui identifient des personnes. Ce n'est pas du tout la même perception, ce qui fait en fait que tu as ces mouvements-là et cette approche de patrimonialisation, c'est-à-dire de créer des droits de consommation, de commodification, de choses qui, pour nous, n'ont pas du tout le même statut. Et donc, quand les gens en Europe me parlent de mettre des droits voisins, type droits d'auteur, sur les données à caractère personnel, en fait, moi, la question que je pose à chaque fois, c'est est-ce que tu ferais la même chose avec les données sur les organes des gens ? Et on me regarde comme si j'avais perdu la tête. En fait, parce que l'analogie, c'est qu'elle est comme ça. Ce sont des attributs de la personne humaine. Donc, tu ne peux pas faire ça. Et donc, toute la question de comment on approche l'innovation et de comment on crée des champions, si on veut, elle est là. C'est qu'on a des approches éthiques ou en tout cas, on ne veut pas faire n'importe quoi juste pour gagner des sous. C'est pour ça, en fait, que quand on a cette discussion de créer des champions européens, d'avoir une autonomie, etc., en fait, la question qu'on pose derrière, c'est comment on les crée ? Est-ce qu'on veut, en fait, avoir une approche prédatrice ? telle qu'elle est ailleurs, ou non ? Parce que, tu vois, quand tu regardes, on parle de chat GPT depuis tout à l'heure, en fait, ça me fait marrer quand je vois des gens qui m'expliquent qu'ils font un usage éthique de l'IA en utilisant chat GPT, en fait, sachant que derrière, tu as énormément de digital labor, donc de gens sous-payés, des travailleurs du clic, etc. Donc, tu as une exploitation humaine derrière. mais que tu as des mecs qui m'expliquent qu'ils font un usage éthique de Chachipiti.

  • Speaker #1

    Le Chachipiti, c'est le Nutella du numérique.

  • Speaker #2

    Mais c'est ça. Et en fait, avant de te passer la parole, Franz, parce que j'ai vu que tu avais une petite remarque, mais tu vois, tu as aussi une vraie question et c'est là-dessus que j'insiste sur cette vision civilisationnelle et de valeur. C'est qu'en fait, c'est qu'est-ce qu'on veut construire ? Bien sûr qu'on a envie de prospérité et de vivre bien, etc. Mais en fait, on le fait comment ? Quels sont les modèles économiques ? Quel est le substrat qu'on va utiliser ? Elle est là, la question.

  • Speaker #1

    C'est ça. À quel prix ?

  • Speaker #2

    Et à quel prix, bien évidemment.

  • Speaker #1

    France ?

  • Speaker #0

    Oui, c'est vrai que... Un truc très intéressant, c'est l'histoire de droit, le droit d'appréhender, le droit à l'image, ce qui est bizarrement très cher aux Américains aussi. Mais je pense que les Américains ont comme plus grand défenseur leur plus grand prédateur, qui sont les entreprises. Et on le voit très bien, justement, sur ce qui se passe avec le PNRI, qu'autant prendre de la donnée des gens, bon... C'est pas grave, c'est bon. Par contre, de s'attaquer à des grosses entreprises qui possèdent justement de l'IP, pardon, de l'IP, de l'information personnelle, donc tout ce qui est... toutes les images dans Mickey et autres, typiquement, le New York Times qui s'est vu faire voler on ne sait combien d'articles par OpenAI, là, il y a des attaques en justice. Et donc, du côté américain, je pense que ça va être de cet aspect-là que ça se passera en premier d'abord, sur l'acclaration des LLM. C'était une petite remarque. Et je voulais rebondir, c'est juste en faisant partie éthique, je pense que c'est très très bon, parce qu'on arrive aussi beaucoup sur cet aspect en ce moment de penser à l'écologie. Je vais parler sur le greenwashing, j'en passe. Mais je prends le greenwashing comme étant aussi des fois, malheureusement, impulsant une inaction. On va dire ça comme ça. Et ce qu'on ne se rend pas compte, c'est la consommation colossale ! que ça amène. Si on parle en termes d'électricité, pour donner un peu de chiffres, on est à peu près, je crois que j'avais lu un article d'ici 2027, vers 85 à 135 TWh par an. Pour donner une image, pour que ta grand-mère réalise. En France, on consomme au total, en toute la France, 450 à 500 TWh. C'est-à-dire qu'un quart de la consommation française ne servirait uniquement qu'à faire tourner des modèles d'IA.

  • Speaker #1

    Sans parler de la consommation d'eau, tu vois.

  • Speaker #0

    Ça, on parlait de la consommation d'eau qui est de 50 centilitres par conversation de chat de GPT. Je veux dire, on a des stades comme ça. Et si on parle de l'énergie, qui est pour moi le vrai débat derrière, la vraie limitation, c'est… Tout est parlé du lieu des limitations, on n'a pas parlé d'imitation physique, avec la loi de Moore et j'en passe, mais si on parle en termes d'énergie, il faut bien voir que… Le monde a atteint un pic énergétique, on a une capacité maximum qui arrive. Et ce qui est consommé comme énergie à l'heure actuelle n'est pas produit par du nucléaire. Je crois que le nucléaire représente à peu près 10%, même pas dans le mix énergétique mondial. La majorité, c'est des centrales à charbon. Donc, on parle que, d'un point de vue écologique, c'est dramatique. C'est dramatique, tout ça pour faire des petites recherches, pour s'amuser avec le CHGPT ou faire les deep tech et j'en passe. Alors, je ne vais pas faire mon... écologistes ou quoi que ce soit, mais c'est un vrai problème à ce niveau-là. Et on va tomber tant sur des aspects écologiques, économiques, parce que derrière le coût de l'énergie, c'est faramineux, et l'énergie, je pense qu'il est mieux dépensé pour les industries, qui vraiment sont en train de pleurer sur le coût de l'électricité. Et donc, on va avoir un vrai problème à ce niveau-là.

  • Speaker #1

    Donc,

  • Speaker #0

    ça, c'est bizarre, c'est que très peu de personnes en parlent, et pourtant, c'est le nerf de la guerre, parce que ça va être une délimitation.

  • Speaker #2

    Moi, ça ne m'inquiète pas plus que ça, le réchauffement climatique, parce que je ne suis pas écolo. Mais c'est vrai qu'il y a des gens que ça inquiète. Je ne suis pas écolo, moi. Je ne suis pas écolo du tout. Je n'ai pas d'enfant, moi. Pour moi, la vie s'arrête à la mienne. Et même si ça va un peu plus vite que prévu, je n'aime pas le ski, de toute façon. Non, je déteste les sports d'hiver. Vraiment, c'est monter, descendre, monter, descendre. Je n'ai pas besoin de faire un sport qui me rappelle que je suis bipolaire. Merci. Je déteste le ski. Les sports d'hiver et le soir, observer des couples qui s'engueulent en chuchotant dans des restos qui puent le fromage. Merci. Non,

  • Speaker #0

    avant. Je serais vraiment curieux de voir comment ça va impacter la perception si les gens ont plus connaissance de ça. Ce qui se passe... les débats sur l'écologie et même sur l'industrie.

  • Speaker #1

    Tu as beaucoup de gens, enfin, ça commence à arriver beaucoup dans la conversation, notamment parce que, typiquement, des gens comme Google ont perdu leur truc neutrin carbone, tu sais, qu'ils mettaient depuis des plombes, là, qui était, oui, oui, on a juste acheté beaucoup de crédit carbone, tu vois, mais ça commence, en fait, à arriver dans la conversation aussi, mais par un angle un peu bizarre, parfois, qui est de dire que, vu les coûts, dont tu viens de parler, en fait, on ne peut pas arriver à une intelligence artificielle générale, c'est le truc à la Skynet, quoi, parce que en fait, on ne produit pas assez d'électricité et d'eau pour l'entraînement de ce truc-là. Et donc, c'est comme ça, en fait, que les gens arrivent à discuter de cette histoire, qui est, en fait, de dire que, tu vois, on fait fondre deux icebergs pour résumer trois mails, quoi. Enfin, qui a... à peine exagéré en termes d'échelle.

  • Speaker #0

    Je suis tout à fait d'accord. Et justement, on parle juste de la puissance énergétique. A noter d'ailleurs, comparé aux crypto-monnaies, l'IA consomme… ou elles consomment à peu près à l'heure actuelle autant d'énergie que la crypto-monnaie. Ça va permettre de réfléchir au sein de la consommation de crypto. Mais il y a aussi un autre point. Tu parlais au tout début des puces à créer. Et il y a un problème physique. Alors, on parlait de la loi de Moore. qui disait qu'on réduisait tous les tenseurs. Et en fait, du coup, c'est devenu de plus en plus fin. On a atteint une limite physique, littéralement, où cette fois, c'est des électrons qui passent. Donc, c'est fini. On ne peut plus redescendre. Du coup, une technique que les chinois ont dit, ok, si on ne peut pas descendre, on va agrandir. C'est smart, ceci dit. Mais pareil, avec quelles ressources ? Avec quoi ? Donc, j'invite les gens, s'ils possèdent de l'ASML, c'est bien parce que c'est eux qui produisent, les machines qui produisent ça, c'est cool. on va arriver sur des limites physiques, écologiques, qui vont devoir revoir les choses. Et je pense que si on prend des lois de marché, Scale City va définir le prix. Et derrière, on va poser la vraie question d'utilisation. On est sur une hype, qui va déjà redescendre, je pense, légèrement. Parce qu'on va se rendre compte quel est le réel investissement qu'il y a là-dedans. On va parler de l'IA Act, mais derrière, juste pour clore sur le sujet de l'écologie, il y a aussi le fait que maintenant chaque entreprise doit donner sa consommation carbone, directe et indirecte. Qu'est-ce qu'on va dire quand finalement on est une boîte supérieure, on a tous 4 GPT et finalement on a une convention énorme ? Il ne manquerait plus que, comme avait été présenté cette petite série télé que j'invite à regarder qui s'appelle Parlement, où en gros ils amenaient un projet de loi qui disait que la consommation de carbone devait être intégrée dans la comptabilité. Donc il n'y a plus que ça arrive, mais alors là je pense qu'on peut repartir sur le débat depuis zéro.

  • Speaker #3

    Juste pour faire la transition au sujet qui nous intéresse tous, on a parlé de plein de choses, de l'environnement, de la société, de la protection des données et aussi de l'éthique, qui peut être parfois un peu discutable quand on parle de la manière dont certaines IA ont été créées. Alors justement, en quoi l'IA Act peut nous aider à améliorer un petit peu tout ça ? attirer bénéfice quand même de l'IA, mais avec peut-être des contraintes qui permettraient de recentrer un usage et de border un petit peu et de mettre des limites là où il en faut finalement. Donc Raina, est-ce que tu peux nous éclairer ?

  • Speaker #1

    Je vais essayer de faire de mon mieux. Donc l'IA Act, si tu veux, déjà c'est un règlement européen, donc il est d'application directe et certaines de ses dispositions s'appliquent depuis le 1er août. 2024, by the way. Petite mention pour ceux et celles au fond de la classe, ce serait bien de vous y intéresser. Donc, de quoi ça parle ? L'idée, c'est justement ce que je disais tout à l'heure, c'est d'introduire une notion de gouvernance, donc de ces systèmes IA, de leurs usages. Comment je les fais ? Qu'est-ce qu'ils peuvent faire ? comment je les intègre dans l'activité de mon entreprise, etc. Et comme souvent, en fait, il y a beaucoup de choses qui sont permises dans l'IACT et il y a certaines choses qui sont interdites. Je vais y revenir dans un instant. L'idée, en fait, c'est de prendre une approche par les risques. C'est ça l'idée de l'IACT, c'est de dire qu'il y a des systèmes très divers. Certains ne posent pas de problème en termes d'effets négatifs sur les gens. D'autres systèmes peuvent avoir ces effets-là, donc on y fera attention. Et puis... Pour justement arrêter avec cette histoire de ces indistinguables de la magie, on va introduire des exigences de transparence pour que les gens sachent, en fait. Est-ce que j'ai quelque chose ? Est-ce que la photo du pape avec la doudoune, c'est le pape lui-même ? Ou ça a été généré par un chat GPT-like, par Midjourney ou autre ? Et on va avoir un certain cas d'usage qui vont être interdits, parce qu'on estime que ces cas d'usage-là portent un préjudice immédiat, portent en fait un effet judiciaire négatif sur les droits et libertés fondamentaux des gens. Et donc c'est là où on va avoir, ça les gens l'ont peut-être vu, Mamie l'a peut-être vu aussi, on va avoir cette pyramide des risques avec au plus bas niveau le risque dit minimal qui est ne présente pas. pas de risques pour les droits et libertés fondamentaux des personnes. Donc là, là-dedans, on va trouver des systèmes d'IA qu'on connaît pour le coup depuis un moment, qui sont par exemple des filtres antispas. Pour donner un exemple, ou pour les gens qui aiment bien jouer aux jeux vidéo, ce sont les... les systèmes d'IA utilisés pour les personnages non-joueurs, les PNJ. Donc ça, typiquement, c'est un système d'IA qui, d'après l'IA Act, c'est un système d'IA à risque minimal. Tu vois, parce qu'en fait, voilà. Donc, il n'y a pas d'obligation particulière de conformité ou machin sur ces systèmes-là. Un risque plus élevé ? c'est ce qu'on appelle les systèmes avec un risque limité, qui présentent un risque limité sur les personnes. Donc là... Un exemple de ça, c'est des chatbots. Typiquement, je ne sais pas si vous avez vu passer le truc, le chatbot d'une compagnie aérienne qui disait que la compagnie va vous rembourser votre billet, alors que les CGU de la compagnie aérienne disaient le contraire. Là, on a l'idée du risque minimal, c'est justement que ça produit des effets comme ça. Et donc là, les obligations applicables sont transparence, dire qu'on utilise un système automatisé et veiller à tout ce qui est droit d'auteur. Cette histoire, ce côté très épineux qui est de faire attention aux droits de propriété intellectuelle, pour le dire très vite, qui sont liés à des productions créatives, artistiques ou autres. Donc, ils ne veulent pas faire de la contraffaçon, ce que font nos amis américains quand ils scrapent comme des porcs et qu'ils entraînent leur gros modèle de langage dessus. Donc, le New York Times dont il s'agissait, dont Franz parlait tout à l'heure. On va voir ensuite le haut risque, donc les systèmes d'IA à haut risque. Ça, il y a en fait dans l'IACTE… Tu verras, il y a les annexes 2 et 3 qui listent des cas d'usage qui tombent là-dedans. Typiquement, la notation d'examen ou l'évaluation de solvabilité. Je crois que France mentionnait quelque chose là-dessus tout à l'heure. Donc ça, ce sont des systèmes en risque parce qu'en fait, ça produit encore une fois des effets judiciaires, c'est-à-dire sur l'évaluation de solvabilité, je peux te refuser par exemple un prêt pour acquérir ta résidence principale. Et tout ça, c'est de la décision autonome, c'est-à-dire sans qu'un humain apprécie les particularismes de la situation, etc. Notation d'examen, c'est la même chose. Ça peut en fait prévenir quelqu'un d'aller faire des études que la personne souhaite faire. Et donc là, les modèles, pardon, les obligations sont strictes. Donc, on va avoir notamment une analyse de risque avant conception. et quand on va parler d'analyse de risque c'est nos amis de la cyber pense ISO 27005 et là on va être en fait dans une démarche qui pour le coup se rapproche un peu de l'analyse de risque qu'on a dans le RGPD parce que les risques auxquels on va faire attention sont ceux qui pèsent sur les droits fondamentaux des personnes des individus donc On n'est pas dans un truc, est-ce que quelqu'un peut choper mes identifiants et envoyer des mails à ma place ? On est dans, est-ce que ça risque de détruire ma vie ? Est-ce que ça risque de m'empêcher d'accéder à l'espace public, d'accéder à la propriété, à l'éducation, etc. Et donc, au plus haut niveau, on va avoir... les modèles qui sont nommés à l'article 5, pour le coup, de l'IACT, qui présentent en fait des risques dits inacceptables. Et donc, là-dedans, on va avoir typiquement tous les systèmes qui sont de calcul de crédit social, tu vois, un peu à la chinoise, ou de reconnaissance automatisée des émotions. Donc, tous ces systèmes, ils sont listés sur le site de la commission. je peux fournir le lien pour les personnes qui souhaitent aller regarder parce que c'est très clair, c'est très court. Et donc, tous ces systèmes-là sont interdits d'utilisation. Il n'y a pas de oui, j'ai bien fait mon analyse de risque, s'il te plaît, sois sympa Non, c'est non. Et il y a quelque chose que moi, j'inclue quand je fais cette pyramide, y compris dans mes formations, etc. Quand je fais cette pyramide, j'inclue un autre risque, en fait, qui est le risque systémique. qui n'est pas identifiée à part entière comme ça dans le texte, mais qui surnte, si tu veux, toutes les dispositions du règlement. Donc, le risque systémique, ça concerne notamment les modèles qui ont un impact significatif, typiquement les grands modèles de langage, ou les modèles dits GPI, c'est-à-dire un modèle à usage général. L'idée, en fait, là-dedans, c'est qu'on va avoir des... des systèmes d'IA qui sont entraînés sur une très grande quantité de données, qui utilisent l'autosupervision en termes d'entraînement, mais qui sont tellement généralistes qu'ils ont en capacité d'exécuter un très large éventail de tâches distinctes. Et là, on va encadrer leur intégration dans des systèmes divers et variés. Je ne sais pas, moi, ton chat GPT, comment est-ce que tu vas l'intégrer dans la facturation ou autre ? Ou dans la demande d'information pour un remboursement SNCF ? Des choses comme ça. Donc, là-dedans, on va retrouver notamment beaucoup de modèles d'IA générative. En fait, on dit que ça présente un risque systémique parce que, en fait, vu... parce qu'ils ont une capacité de faire plein plein de choses. Et donc là, en fait, on va appliquer à ces modèles-là des obligations particulières, telles que, encore une fois, l'analyse de risque, mais aussi des tests pour prévenir des effets de bord, les hallucinations, les dérives de modèles et des choses comme ça. Et on va aussi appliquer des obligations de reporting. D'où est-ce que je... Comment j'entraîne les modèles ? D'où viennent les données ? Et des choses comme ça. Donc, on va avoir cette pyramide des risques. Elle est importante parce qu'elle est très claire. Et en fait, là, pour le coup, on a des définitions qui sont assez univoques, qui permettent en fait... d'avoir la clarté sur... Alors, moi, quand je vais commencer à faire des... à utiliser des systèmes d'IA pour avoir des logiciels plus performants, des services à haute valeur ajoutée, enfin, ce que tu veux, en fait, je peux très bien me référer à ces critères-là. pour savoir en fait quelles sont les obligations auxquelles je serai assujettie dans ces cas-là. Et donc en fait, la majorité des obligations tombent en fait sur les fournisseurs ou développeurs de systèmes d'IA à haut risque. Dans l'IAC, on est vraiment là. Donc quand on dit fournisseurs ou développeurs, ce n'est pas les personnes qui développent. Enfin, tu vois, c'est... ce n'est pas ton développeur chez toi, c'est toute entité qui crée ces systèmes-là. Ça peut être une filiale de ton groupe qui fait ça et qui met ça sur le marché unique, sur le marché européen, donc qui le revend en fait à d'autres. Ça peut être toi qui le fais pour ton usage interne, mais pour des systèmes qui sont utilisés par des gens, que ce soit des employés ou des clients, etc. Et les utilisateurs sont définis comme des personnes physiques ou morales qui déploient des systèmes d'IA dans une démarche professionnelle. On ne parle pas de mamie qui va utiliser un chatbot, mais on va parler de la startup qui va déployer un chatbot basé sur ChatGPT. pour fournir typiquement des informations de remboursement. Donc, tes utilisateurs, ce n'est pas Mamie, tes utilisateurs concernés par l'IAC, ce n'est pas Mamie, c'est la startup qui va consommer le système d'IA et qui va le déployer. Donc, c'est un peu de façon très caricaturale, mais succincte, vraiment le cœur du sujet. qui est encore une fois dans une pure approche graduée européenne, qui diffère pour le coup beaucoup de l'approche américaine, qui est, on va vous expliquer étape par étape, quel est l'état de fonctionnement sain auquel on tend. Vous savez où vous allez. vous savez quels sont en gros l'état final désiré, démerdez-vous pour faire ça. Ce qui n'est pas la même que la culture américaine où tu vas avoir des guidelines très générales où on va te dire le premier barreau de l'échelle, c'est là. il est très très bas et par contre après on va disperser façon puzzle dans les différentes administrations et qui en fait empêchera aussi la compréhension et la big picture la compréhension à l'instant T de qu'est-ce qu'on applique exactement qui s'occupe de la mise en oeuvre, du suivi etc et c'était très parlant de voir par exemple comment le décret présidentiel de Biden était consommé, et donc mis en œuvre, 90 jours après sa publication, en fait, tu avais une liste, je crois, sur six pages, de toutes les initiatives, commencées par les différents départements, par les différentes administrations de l'État fédéral, etc., qui étaient, en fait, juste... C'est super compliqué de s'y repérer, alors qu'en Europe, tu as quelque chose de beaucoup plus centralisé. Par contre, avec un bureau IA, etc., qui va aussi assurer, qui est une entité de la commission, nouvellement créée spécifiquement pour ça, qui veille à la mise en application de l'IA Act sur tout le territoire de l'Union. Donc, l'approche, la culture, elle est encore une fois très différente des deux. Donc, c'est sûr, pour beaucoup, On va imaginer que le premier barreau de l'échelle en Europe, il douille un peu, il fait un peu mal, parce qu'on se prend une avalanche d'un règlement qui n'est quand même pas super simple, et plutôt bien fait, mais ça dépend à qui t'en parles. Je pense que Franck et moi, on s'intéresse au sujet, on a suivi l'élaboration, donc on comprend aussi pourquoi des choses sont formulées telles qu'elles le sont dans le texte final. Mais c'est sûr que pour des gens qui n'ont pas suivi les discussions, les logiques, etc., ça peut être un peu rebutant. Je reste subtile.

  • Speaker #3

    Mais c'est assez souvent comme ça. Si on ne comprend pas l'histoire et ce qui s'est passé derrière, forcément, la simple conclusion peut être un petit peu difficile à comprendre. France, tu voulais rajouter quelque chose ?

  • Speaker #0

    Oui, je pense qu'il faut prendre un peu sur le sport. On parle de la genèse, à quel moment ? Alors, à quel moment ça a commencé à être réfléchi ? C'est pas quelque chose de nouveau, c'est juste que c'est tombé pile poil au moment où on parle de Genial. Mais c'était mis au moment où il y avait l'essor, je dirais, du deep learning. Et justement, notamment avec les réseaux de neurones, et là, ce qu'on disait dès le début des réseaux de neurones, cette fameuse boîte noire. Les LRH, en fait, un peu comme GERG et DPR sont dans son temps, si on faisait la statistique proprement, si on faisait les modèles proprement, il n'y a rien d'exceptionnel, en fait. Ce qu'on explique, c'est juste, pour être compliant avec les LRH, c'est juste de dire, en gros, on suit des protocoles qui ont été utilisés depuis des années et des années. C'est-à-dire qu'on a un besoin de maîtriser ce qu'on fait, d'explicabilité. Je pense que ça serait ça, le vrai défi des LLM, c'est l'explicabilité. Honnêtement, il y a excessivement de surprises quand on regarde dedans. Comme les actes, les sorties, au moment où vous allez les sortir, il y a eu en effet toute cette vague de chat GPT qui arrive au même moment. Ils n'ont pas pour rajouter l'article 50 pour le GPI, comme tu l'as justement dit, Raina. Et voilà, mais fondamentalement, il n'y a rien d'exceptionnel. Je veux dire que je tiens à rassurer les personnes qui... écoute, tu peux avoir peur de réacte, si vous avez de l'IA en interne, à ton niveau de complexité, et que vous avez fait les choses un minimum proprement, vous allez être compliant. On parlait de risque crédit, le risque crédit, si on a en capacité d'expliquer pourquoi le modèle dit oui ou non, on log ça, on conserve les informations, on sait quels sont les paramètres, les impacts, le résultat, et qu'on le donne, enfin qu'on peut expliquer, on est bon. Si on n'utilise pas des données considérées non éthiques, alors je vais prendre les exemples des Américains, parce qu'il y a toujours plein d'exemples à prendre chez eux, c'est très fun. Tout à l'heure, je parlais justement des crédits. Eux, ça fait très longtemps qu'ils font du scoring crédit, QIFAC, si j'en passe, et ce qu'ils se rendent compte, c'est que les populations nord-américaines avaient des... des taux un peu plus élevés. Pourquoi ? Parce que le modèle prenait en compte le fait qu'ils étaient noirs et donc du coup forcément ils avaient un taux plus élevé, donc ça impactait directement leur vie, etc.

  • Speaker #1

    Et voilà,

  • Speaker #0

    donc ça, heureusement ou malheureusement, c'est un autre débat, on n'a pas le droit d'avoir ces données-là en Europe, mais techniquement, si on a tout ça, l'EAAC ne va pas faire mal. L'EAAC va faire un mal parce que justement, on utilise des modèles qui sont très complexes, de plus en plus complexes, et qu'on n'a jamais pensé dès le début sur comment réellement les monitorer, les comprendre. Et c'est ça le vrai point, et ça va être ça pour moi, l'évolution. ou la tension régulatoire de la GNI. Soit ils vont arriver à expliquer, de dire on est en capacité d'expliquer pourquoi la réponse a donné ça, soit il va y avoir une limitation sur son utilisation, soit tout simplement il va y avoir une tension au niveau régulatoire de comment est-ce qu'on va devoir évoluer les choses si on veut l'étendre à d'autres périmètres plus critiques.

  • Speaker #1

    Juste petit point, perso j'ai hâte de dire... ce qui va être OK, ce qui ne va pas être OK, parce qu'en fait, à vrai dire, aujourd'hui, on n'en sait rien. En fait, pourquoi je dis ça ? C'est parce que je me suis rendue compte que souvent, surtout quand, tu sais, on a cette aura, comme Nico tout à l'heure me présentait comme quelqu'un qui connaît les sujets, en fait, je me suis rendue compte que les gens utilisent souvent des choses que toi et moi, on peut dire de manière un peu raccourcie, un peu rapide. comme un outil de la décision. Et du coup, tu te dis, oh mince, non, non, mais moi, je pensais à autre chose. Et en fait, c'est pour ça que je suis très précautionneuse sur la manière de formuler les choses. Mais voilà, tu as raison, on a un vrai sujet sur l'explicabilité. Et ce sujet, en fait, va nous occuper pendant très longtemps. je laisse, parce qu'on a encore ça fait un moment qu'on discute, je laisse en fait mamie et papy et tout le monde avec deux sujets ouverts. Le premier ça va être les en fait qu'est-ce que c'est l'explicabilité des algorithmes, tu vois parce que en fait s'il suffisait d'ouvrir le code d'un algorithme ça fait longtemps en fait qu'on aurait réglé plein de questions. mais en fait, ce n'est pas aussi simple, voire simpliste que ça. Donc, on va voir ce qui m'amène à l'autre question, qui est celle de l'expertise, y compris de l'expertise technique, qui est en fait quelque chose sur lequel on doit être extrêmement vigilant, et donc à ne pas, parce que dans les discussions sur la gouvernance de l'IA en général, on a une très grande tendance à faire comme si la couche technique n'existait pas. Alors que là, pour le coup, en termes de couche technique, ça douille intellectuellement.

  • Speaker #3

    Elle s'impose. Oui,

  • Speaker #1

    elle est très importante. Elle est vraiment significative. Et on n'est pas si nombreux que ça à comprenez grand-chose au sujet. Donc, on a vraiment cet aspect-là qui va très rapidement devenir très sensible. Pourquoi ? Parce qu'en fait, on a de moins en moins de gens qui comprennent ces sujets-là, qui sont capables d'intervenir là-dessus, techniquement j'entends, et qui se font quand même pas mal braconner par des boîtes, notamment américaines, qui payent des salaires que nous en Europe, on ne peut pas se permettre. Et donc on va se retrouver aussi rapidement, parce que là, c'est ce que disaient typiquement des gens côté bureau de l'IA à la commission, c'est que Et pourtant, la commission, elle ne paye pas le SMIC. Elle paye de très bons salaires. Et même eux avaient du mal à attirer des experts techniques pour le bureau de l'IA. Donc, c'est un sujet qui, en tant que professionnel, nous concerne de plein fouet. Parce qu'en fait, on parle aussi de nos futurs collègues ou des collègues qu'on n'aura pas, mais aussi de tout l'investissement. qu'on devra faire en tant que professionnel, chef d'entreprise ou autre, dans la montée en compétences techniques de nos collaborateurs et collaboratrices sur ces sujets-là. Parce qu'on peut se raconter après tout ce qu'on veut sur le réglementaire. Quelqu'un doit faire ses analyses de risque, doit s'assurer que ce qu'on dit, c'est ce qu'on fait.

  • Speaker #0

    Et ça, à part de la magie, tu vois, sacrifier des poulets les nuits de pleine lune, faire du voodoo, il n'y a pas 30 000 façons de le faire. Il faut apprendre à faire. Donc, je laisse le sujet ouvert comme ça. Je pense que ça va remuer pas mal chez nos auditeurs et auditrices.

  • Speaker #1

    Exactement. Je pense que tu as résumé finalement un petit peu le mot de la fin. Si on résume finalement, c'est que, tu l'as dit d'une certaine manière, enfin vous l'avez dit, c'est une technologie. C'est comme toutes les technologies, il faut la maîtriser. Comme le feu, à un moment donné, il a fallu qu'on le maîtrise. Et c'est intimement lié avec le fait effectivement de vouloir protéger nos sociétés, de donner un sens aussi à ce qu'on veut faire. et donner des limitations justement pour faire en sorte que la technologie nous serve plutôt que nous desserve. Et je pense que c'est un petit peu la conclusion qu'on peut apporter à cette discussion. En tout cas, j'étais très heureux de vous avoir dans cet épisode de la cybersécurité expliquée à ma grand-mère. J'espère que cet épisode va éclairer bon nombre d'éditeurs et certainement aussi leur poser un certain nombre de questions. Et c'est là aussi pour ça. En tout cas, ma grand-mère me fait un gros bisou. Elle me dit que finalement, sa bouillarde pour faire le thé, par rapport à Tchad GPT, ça va encore. Il y a de la marge de manœuvre. Et puis, je te dis qu'elle va se mettre au vélo aussi pour générer de l'électricité, pour compenser son bilan carbone. Donc voilà, tout va bien. Elle a pris en considération tous les problématiques écologiques de l'utilisation de Tchad GPT. Encore un grand merci à vous. Et comme je le dis très souvent, pour certains, la cybersécurité est un enjeu du vieux de mort. C'est bien plus sérieux que ça.

Share

Embed

You may also like

Description

Avec Rayna STAMBOLIYSKA ( https://tech-est-politique.eu ) et Frantz ZIZZARI (Frantz Zizzari | LinkedIn).


Rayna et Frantz abordent la nécessité d'une réglementation pour encadrer l'utilisation de l'IA, en soulignant l'importance de la transparence et de la responsabilité des entreprises.

Ils évoquent également les défis liés à l'explicabilité des algorithmes et à la consommation énergétique de ces technologies.

Le débat met en lumière les différences culturelles entre l'Europe et les États-Unis en matière de réglementation, ainsi que les préoccupations éthiques et environnementales associées à l'IA.




Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour mamie, j'ai ramené un copain. Bonjour et bienvenue dans la cybersécurité expliquée à ma grand-mère, le podcast pour expliquer la cybersécurité à ceux qui ne comprennent rien. Il y a quelques temps, on avait fait un numéro spécial avec Nicolas Ruff, que je salue au passage, sur l'IA. Et j'avais envie de refaire un petit update sur ce sujet, parce qu'entre-temps, beaucoup de choses ont changé. On va parler de Tchadjepété, évidemment, mais il n'y a pas que ça qui a bouleversé, je pense, le monde de l'informatique dans les 12 derniers mois. Il y a aussi des éléments réglementaires qui sont assez importants. Et je pense que c'est le bon moment, finalement, de se retourner... quelques instants et puis de regarder l'évolution de ces technologies et de se poser un certain nombre de questions sur l'avenir de tout ça et surtout sur l'avenir en termes réglementaires parce que comme vous le savez en Europe c'est important, on aime réglementer les choses et c'est plutôt important parce qu'on a vu ce qu'elle s'est donné avec RGPD, c'est plutôt une grande fierté maintenant en Europe d'avoir ce type de réglementation que les Américains nous envient. C'était d'ailleurs... un peu la conclusion de Thierry Breton lors du dernier FIC, qui expliquait qu'en discutant avec ses homologues américains, il avait félicité pour réaliser quelque chose qu'eux-mêmes n'avaient pas réussi à faire. Et pour animer cette émission, j'ai deux personnes qui vont pouvoir nous éclairer et nous donner leur avis sur tout ça. Commençons par les dames. quelqu'un qui est déjà connu dans ce podcast, que ma grand-mère connaît déjà, Raina, qui est celle qui anime, entre autres, parce qu'elle a beaucoup d'activités, un blog qui s'appelle La Tech et Politique. Je vous conseille de lire ce qu'elle fait sur LinkedIn, entre autres. Mais il y a tout un ensemble de textes assez intéressants qui permettent de mieux comprendre le contexte réglementaire. et ces textes sont relativement faciles à repérer parce que souvent ils ont des titres on a l'impression que c'est des titres de romans de polars je suis sûr qu'un jour elle va sortir un titre du style le petit friseux et des lardons ou quelque chose comme ça enfin voilà Raina, bienvenue est-ce que tu peux te présenter rapidement et expliquer qui tu es et ce que tu fais merci Nicolas pour l'accueil et pour la présentation qui fait super envie

  • Speaker #1

    de mes écrits. Je m'appelle Arina et je fais du conseil. J'ai ma société de conseil qui s'appelle ARS Stratégie. J'interviens sur des sujets qui concernent notamment la protection de ce qui crée de la valeur au sein des organisations. C'est le volet cyber. Et aussi sur le volet de dans quel monde on évolue. Et ça, c'est le volet réglementaire. et en fait c'est aussi l'objectif de la Techie politique et d'autres offres que j'ai qui sont d'éduquer avant tout les gens qui prennent des décisions, qui créent des produits, qui créent des services, qui créent de la valeur à travers le numérique autour de ces sujets-là du réglementaire. Parce qu'au-delà d'une compte-rente, c'est surtout une opportunité et aussi une façon de faire société numérique.

  • Speaker #0

    D'accord, très bien, merci. Et à nouveau, que ma grand-mère ne connaît pas encore, France, que j'ai eu l'occasion de rencontrer au mois de juillet cet été. Et le discours qui tenait sur l'IM a beaucoup plu parce que ce n'était pas du tout le discours habituel qu'on entendait. C'est un peu à l'inverse des sales qui te vendent tout et n'importe quoi. C'était un discours qui était beaucoup plus réaliste et qui avait un sens assez profond sur l'IA. C'est pour ça qu'il a heureusement accepté mon invitation et je le remercie. Donc, Franz, est-ce que tu veux bien te présenter et nous expliquer ce que tu fais ?

  • Speaker #2

    Bonjour, merci de l'applaudir. Surtout que j'ai été sales dans ce métier. Donc moi je suis Franz Zary, je suis actuellement le lead AI, là où on travaille ensemble. Et avant ça justement, j'ai travaillé pour des boîtes de conseils, où je vendais justement toute cette partie de traitement de données et d'intelligence artificielle. Je n'ai pas commencé comme ça. Je suis économètre, j'ai fait moi-même les petits systèmes, j'ai moi-même éprouvé tous les petits problèmes par rapport à tous les beaux sujets théoriques, comme quoi à chaque fois, il y a un résoutout. Et on se rend compte que ce n'est pas aussi simple que ça, il y a toujours des problèmes de base, la fameuse donnée. Donc voilà, tout simplement, avec grand plaisir que je puisse te voir et voir ta grand-mère évidemment.

  • Speaker #0

    Ah bah écoute, elle est ravie, elle est ravie ! Elle piave d'impatience justement de pouvoir un petit peu mieux comprendre tout ça. Et j'ai envie de commencer par une première question déjà, c'est une petite rétrospective sur l'IA. Et donc Franz, est-ce que tu peux un petit peu nous expliquer quid de l'IA aujourd'hui dans les entreprises ? Parce que comme tu l'as signalé, effectivement on travaille tous les deux dans le monde de la finance. Alors justement, aujourd'hui l'IA dans les entreprises... C'est quoi ? Ça sert à quoi ? Qu'est-ce qu'on peut faire avec ? Est-ce que ça s'est vraiment adapté ou pas ? Enfin voilà, donne-nous un petit peu ta vision des choses.

  • Speaker #2

    Alors je pense que déjà, il faut peut-être se poser la question qu'est-ce que c'est vraiment l'IA ? Parce qu'on en parle beaucoup en ce moment, l'intelligence artificielle, c'est des robots qui réfléchissent. Avant tout, l'IA, il n'y a rien de réellement intelligent, je n'ai pas cité Luc Julia, qui n'existe pas. C'est avant tout de base des systèmes qui imitent un comportement humain. Et ça, en fait, quand on réfléchit à ces définitions, c'est loin de nouveau en fait. Ça existe depuis au moins 100 ans, je dirais. Même les premiers, même dans l'histoire de l'IA, on prend tout ce qui a parti d'Alan Turing dans les années 50. Par contre, quand on pense maintenant IA, je vais pouvoir répondre à ta question avec ça, c'est tout ce qui arrive sur la partie machine learning et plus loin le deep learning. Rapidement, qu'est-ce que c'est le machine learning ? C'est le fait que justement, il y a un modèle mathématique, rien de foufou au final, qui permet de prendre des décisions, ou plutôt donner un résultat avec des entrées, et que lui va calculer ce qu'on appelle des paramètres. des variables. C'est-à-dire, finalement, pour prendre la décision attendue, ces données ont plus d'intérêt ou pas. Si on résume, la majorité des IA, et même le LLM actuellement, le CHPT, viennent de ça. Et donc, quand on regarde ça, on se rend compte qu'il y a beaucoup de choses qui existent déjà dans... dans l'entreprise et je dirais même dans l'industrie, l'industrie est souvent plus précieuse. Je dirais qu'il y a deux secteurs, donc il y a l'industrie et il y a toute la partie crypto, enfin pas cryptocurrency en ce temps, cryptologie. Je citais Alan Turing qui est connu et on sait ce qu'il a fait notamment avec MachineGym. Pour décrypter MachineGym, finalement c'était de l'IA, avant qu'on l'appelle comme ça. Si on regarde, moi j'aime bien parler beaucoup plus d'industrie, parce que dans l'industrie, ils ont fait pas mal de choses. Donc typiquement, ils utilisaient l'IA dans l'industrie pour optimiser toutes les lignes de production, parce que derrière, on veut réduire à fond les coûts. Et donc, ils mettent en place plein de petits systèmes, alors plus ou moins intelligents, on pourrait dire. Mais typiquement, si on va sur une...... Les entreprises de recyclage, ce ne sont pas des gens qui font à la main. Il y a des machines qui détectent, par exemple, si c'est du plastique, ou autre chose, et qui y trient. Ça, c'est l'IA, tout simplement. Toutes ces choses-là. Il y a beaucoup d'usées pour tout ce qui est dans la chaîne d'approvisionnement, typiquement. Donc, de dire, en gros, d'automatiser toutes ces choses-là, d'éviter qu'il y ait un humain, parce que ce sont des choses qui sont très, je ne vais pas dire simples, mais prévisibles. Beaucoup de choses aussi, tout ce qui est dans la maintenance prédictive, ça c'est très très fun pour le coup. Typiquement, quand on vient sur l'industrie, l'un des points c'est toujours les coûts. Donc quand on dit qu'une pièce a une date de péremption... On peut remettre en question tout simplement, une pièce à une date de péremption a plutôt un nombre de consommations et donc typiquement il y a des modèles d'IA qui étaient déjà mises à plus longtemps pour dire comment est-ce qu'on peut maintenir cette pièce le plus longtemps possible. Et puis toute la partie qualité, contrôle, parler notamment justement des chaînes pour faire le triage, typiquement il y a la même chose avec détection. Et puis même, on peut remonter beaucoup de loin. Tous ces systèmes-là existent depuis très très longtemps. Je vous fais une aparté, mais on parle des voitures autonomes maintenant. Je me rappelle, moi, en première, je ne suis pas bien vieux, mais ça fait quand même déjà 20 ans, plus de 20 ans même d'ailleurs, mon Dieu. Et déjà en première, il y a déjà des gens qui avaient l'école des mines, qui avaient automatisé, c'était les grosses Renault familiales. Donc ça, l'industrie est souvent très prionnaire. Je sais qu'on a aussi beaucoup vu dernièrement dans les entrepôts d'Amazon, avec le petit robot qui porte les colis et autres. Voilà, eux, ils sont souvent beaucoup plus à la pointe. Maintenant, l'industrie du service, c'est différent. Dans l'industrie du service, je dirais qu'il y a eu beaucoup de choses qui ont été testées, beaucoup de choses qui ont échoué, typiquement dans tout ce qui est la santé. Si on se rappelle, on en parlera plus tard sur les limitations et autres, avec IBM Watson qui pouvait prédire justement les cancers et des trucs comme ça. C'était un flop total. D'ailleurs, la valeur a chuté et ils ont revendu ça pas très cher au final. Certaines quantités, mais pas très cher par rapport à l'investissement. C'est là où il y a quelques limitations. Par contre, dans beaucoup de systèmes, on travaille dans une banque typiquement, il y a beaucoup de systèmes qu'il y a dedans. Typiquement, les moteurs de crédit, finalement, c'est des éditions basées sur du risque. Et qu'est-ce que c'est du risque ? C'est un calcul de probabilité. Autrement dit, ce ne sont que des modèles d'intelligence artificielle, c'est juste qu'on ne les appelle pas comme ça. Et donc ça, il y a pas mal de petites choses qui font la vie de tous les jours. Ce qui d'ailleurs, je pense aussi, a été la genèse de pourquoi les AI actent tout simplement. Il y a plein de petites choses qui nous impactent directement ou indirectement. avec plus ou moins de forte, on va dire, plus ou moins de criticité. Je parlais du crédit, typiquement si le modèle mathématique derrière décide pour certains critères de ne pas accorder un crédit ou de donner des taux plus élevés, ce qui se passe aux Etats-Unis d'ailleurs, ce qui s'est passé aux Etats-Unis. ça peut impacter la vie. Donc dans l'industrie, enfin pardon, dans l'entreprise, dans le monde de l'entreprise, je pense qu'il y a toujours la vision très pragmatique et très avancée au niveau de l'industrie, avec les lignes de production, tous ces colis et ces choses-là. Et eux, ils cherchent vraiment la rentabilité de ce que l'IA va apporter. Et le service qui va juste amener des services plus ou moins plus ou moins complexe. Je pourrais parler comment déjà il y a de ça 10 ans, 15 ans, une bonne dizaine d'années pendant, où déjà pour faire du ciblage de clients, on mettait en place des petits moteurs qui permettaient de déterminer ce client-là, il a une appétence à ce produit. On parle de ça il y a 10 ans et à l'époque déjà on ne comprenait pas, ce n'est pas normal. C'est un peu comme ça. Ça ne peut pas être une machine qui dit ça. C'est pas une intelligence la machine. En fond, ils ont raison. Mais ces trucs-là sont loin d'être nouveaux. C'est juste la méthode et la puissance de calcul qui augmentent, je dirais, et qui rend les choses plus fortes.

  • Speaker #0

    Justement, tu viens de décrire assez rapidement, en quelques minutes, l'évolution de l'IA depuis l'industrie, les différents cas d'usage que tu as cités. Une question qui est assez importante, je pense, c'est de comprendre aussi un peu les limitations de tout ça. C'est-à-dire qu'il peut y avoir des cas d'usage dans l'industrie, dans la finance, un petit peu partout, avec des risques plus ou moins élevés. Par exemple, l'IA qui regarde le code postal sur une carte postale pour déterminer où il doit l'envoyer, s'il y a une erreur, ça peut... La lettre va peut-être mettre un petit peu plus de temps pour arriver, mais l'impact est quand même relativement faible. En revanche, l'exemple du crédit que tu as donné est quand même assez significatif. Il doit y avoir aussi une responsabilité de la part des entreprises pour pouvoir, dans certains cas, démontrer certaines choses. Un autre élément sur lequel tu as cité un petit peu à la fin de ton explication, c'est la puissance de calcul, qui peut être aussi un facteur limitant et qui peut devenir un enjeu géostratégique. puisque l'une des problématiques qu'on peut avoir aujourd'hui, si on veut faire de l'IA, c'est qu'il faut avoir des GPU, pour les neuf-fites, ce sont des puces qui sont dédiées à du calcul, il en faut beaucoup. Et donc du coup, ça devient une grande erreur, et ça devient même quelque chose de stratégique, puisque les États-Unis ont imposé un certain nombre de restrictions sur l'exportation de certains GPU, pour garder une forme de... d'avance technologique sur le reste du monde. C'est une petite note de bas de page. Justement, sur la partie limitation, est-ce que tu pourrais donner un peu plus d'informations, que ce soit des limitations un peu structurelles, des limitations en cas de visage, c'est-à-dire est-ce qu'on peut utiliser de l'IA dans tous les cas, ou alors dans certains cas, on est obligé de démontrer certaines choses et donc par conséquent, certains types d'IA ne sont pas utilisables, parce qu'elles utilisent trop, par exemple, d'éléments aléatoires. Tu pourrais nous donner ton point de vue là-dessus et nous donner cette limitation sur l'usage de l'IA aujourd'hui ?

  • Speaker #2

    Je pense qu'il y a plusieurs points, si on résume, on a trois gros blocs, je vais me faire un peu de tête. En effet, toute la partie modèle, les mathématiques derrière, il y a toute une partie physique, et il y a toute une partie, je dirais aussi, politique, et géopolitique, je crois qu'on y ira tout à l'heure. Alors, première, on va parler des modèles, et pareil, tout à l'heure, je parlais de Luc Julia. Si personne ne connaît, j'invite à connaître. Petit aparté, c'est le co-créateur de Siri, un français vachement intéressant comme Gaïa. Et il a écrit un bouquin sur le fait que l'IA n'existe pas. Et pourquoi ? Parce qu'il dit que de toute façon, la définition est erronée. Parce que tout est basé sur des algorithmes et des statistiques. Et donc ce n'est pas une intelligence comme l'humain. Et je dis ça parce que derrière, en fait, il y a finalement, du moins les moteurs, c'est des spécialités. C'est-à-dire qu'en gros, les outils, cette limitation qu'ils ont, c'est qu'ils sont très bon dans une chose. Et ils ne sont pas aussi, peut-être, versatiles, je dirais, qu'à l'être humain, d'être en capacité de faire plusieurs choses. On reviendra, c'est un peu le mythe du fameux modèle monde, mais l'IA a cette limitation. Elle est bonne dans une chose. Et alors on peut en parler de différents types, mais par exemple, on a tous été, enfin je me rappelle, moi j'aime bien les échecs par exemple, je me rappelle très bien de Gaspard Hoff, on parle de ça en 97 si je ne dis pas de bêtises, qui a été battu par une... machine pas impressionnant apparemment oui mais sauf que machine qui a fait ça a dit blue elle sait pas faire autre chose c'est juste vraiment pas faire autre chose on peut aller plus loin pour le jeu de go qui est arrivé avec alpha go 2006 je crois que c'est dans ces eaux là ou pareil plus impressionnant parce que c'est plus intuitif pareil la machine ne sait pas faire autre chose que ça Donc, la limitation, c'est qu'on a toujours cette vision de l'IA, je dirais, à Terminator ou je ne sais pas quoi, où en gros, elle est capable de se mentir. Et alors,

  • Speaker #0

    en plus, de tête, je faisais référence au Go, donc c'était lui, Sidol, je ne sais pas son nom, qui était champion du monde. Et quand il a perdu, justement, contre AlphaGo, il a fait une déclaration en disant que ce n'est pas lui qui avait perdu, c'était l'humanité tout entière. Ce qui donne, entre guillemets, un poids, quand même, à l'impact sur l'IA. Et d'ailleurs, j'ai ma petite théorie quand même dessus, c'est que Terminator a, d'une certaine manière, bridé toute une génération contre l'IA, parce que justement, tout le monde a vu Terminator avec une intelligence artificielle qui allait tuer beaucoup de monde, alors que finalement, pour la même génération dans d'autres pays, par exemple en Asie...

  • Speaker #1

    Ben oui, j'y vais.

  • Speaker #2

    Ça, c'est à côté. J'écoute la presse, j'ai même deux politiques. J'attends beaucoup de cette conférence de presse.

  • Speaker #0

    Ils sont beaucoup plus ouverts à la technologie et au fait d'enclin à utiliser l'intelligence artificielle, un peu moins la Terminator. Raina, tu voulais prendre la parole ?

  • Speaker #1

    Oui, c'est en fait... C'est toujours un peu compliqué d'apprécier l'impact d'œuvres de fiction, surtout dystopiques, surtout très négatives, comme ça, sur la psyché des gens. Parce qu'en fait, il faut aussi contextualiser à quel moment ce dont on parle, Kasparov, etc., s'est passé. C'était assez spectaculaire en termes de réalisation, parce qu'à l'époque, il y a plus de dix ans, on n'avait pas du tout une généralisation de ce genre de système, notamment avec une barrière à l'accès aussi ridiculement basse qu'on l'a aujourd'hui. Donc effectivement, le contraste était saisissant, et en fait, ce qu'on oublie de dire quand on parle de ça, c'est la... quantité de fois où en fait le système d'IA s'est entraîné sur les différentes stratégies pour gagner. Tu vois ce que je veux dire ? Et donc tu te retrouves avec un nombre d'entraînements qui est humainement impossible à faire, mais qui si on est cynique ou en tout cas pragmatique, si un humain pouvait s'entraîner autant de fois et apprendre de ces entraînements de la même manière qu'une IA, qu'un système d'IA de ce genre-là, il aurait un taux de réussite très important. Et après, tu as aussi un sujet qui, moi, m'interpelle toujours beaucoup quand on évoque des œuvres de fiction qui souvent poussent le... très loin grossissent le trait de façon particulière. Et ça, c'est le point de vue de quelqu'un qui fait beaucoup d'études de prospective stratégique et des choses comme ça. C'est en fait, quand on fait de la prospective, ce qu'on projette, ce sont des scénarios plausibles. Je ne dis pas possibles, je dis plausibles. Donc, quelque chose qui a des... qui pourrait se réaliser. Et en fait, souvent, on... on a tendance à faire des choses qui sont soit le best case, soit le cas idéal. C'est le truc que je désire le plus, le parfait. Soit le truc qui me fait le plus peur, le pire cas. Et les dystopies, c'est le pire cas. Sauf qu'en fait, quand tu réfléchis à ça, ces deux cas extrêmes présentent très peu d'intérêt parce que personne n'a de leçons à tirer. du paradis, où tout est lisse, où tout est parfait, et personne ne veut aller en enfer. C'est là où c'est le pire cas. Donc en fait, c'est toujours très particulier d'utiliser des cas extrêmes comme ça pour tirer des leçons, parce qu'en fait, c'est soit le cas idéal, donc personne n'a envie d'en sortir et qu'on est en gros tétanisé par l'impossibilité d'y parvenir. Soit c'est tellement atroce qu'on ne veut pas y aller. Mais en fait, l'apprentissage, les leçons qu'on apprend et là où on avance, c'est à partir de situations nuancées. Et donc, c'est là où, en fait, convoquer des... Comment dire ? des situations, des cas, des scénarios, des choses comme ça où le trait est exagéré n'est pas nécessairement la meilleure idée parce qu'on est très rapidement cantonné dans très peu de nuances où il y a en fait très peu de choses qui prêtent à la vraie réflexion et qui prêtent en fait, qui laissent la liberté d'imaginer, d'anticiper, voire même d'avoir un sentiment de peur. pouvoir intervenir. Parce qu'en fait, quand quelque chose est soit tellement bien ou tellement atroce, il y a aussi l'humain qui fait moi je ne peux pas, c'est trop, c'est trop pour moi Il y a aussi un côté où on te remet dans un attentisme qui est très problématique parce que finalement, tu abandonnes ta capacité d'agir. Et ça, on le voit aujourd'hui notamment. Tu vois, c'est... Je l'ai vu dans les discussions que je peux avoir dans le cadre de conférences de sensibilisation ou autre, où tu as beaucoup de gens pour qui chat GPT, par exemple, c'est de la magie. Et en fait, on leur rabâche les oreilles à longueur de journée qui vont se faire grand remplacer par ces systèmes-là et qui sont totalement démunis. et qui vivent dans une peur et dans une fatalité, qui ne sont pas ce qu'on veut de ces gens-là, et qui en gros attendent, qui sont tétanisés, qui attendent au final de perdre leur travail, etc. Je ne dis pas qu'il n'y a pas de risque, je dis que ça enlève toute capacité de se rencontrer, d'échanger, de s'écouter et de construire aussi à partir des mésententes, à partir du débat.

  • Speaker #0

    Mais je sais que Franz voulait... Oui, Franz, je vais donner la feuille d'un parle dans quelques secondes. Ce que tu dis, c'est marrant, mais quand tu t'es expliqué ça, je pensais à un philosophe, Schopenhauer. Et Schopenhauer disait finalement l'existence aussi entre l'ennui et la douleur. Alors pour lui, il n'y avait que deux extrêmes. Donc toi, tu prends le paradis et l'enfer, mais à peu de choses près, on y est. Et quelque chose d'intéressant aussi, c'est la peur de la technologie parce qu'on n'a pas la connaissance entre guillemets. Pour beaucoup de gens, c'est simplement magique. Mais simplement magique, c'est quand même un tour de magie. Mais une fois qu'on l'a compris, ça démythifie un peu forcément le propos.

  • Speaker #3

    Apparemment, McDonald's se serait lancé dans l'intelligence artificielle. Ah, très bien ! Ils proposent des menus personnalisés aux clients selon le temps qu'ils font, l'heure, les préférences qu'ils ont... Ben oui, ils ciblent quoi ! Ah oui, oui, oui, oui, en fonction de la personnalité du client. Oui, mais ça, économiquement, moi j'ai lu des trucs, de toute façon, l'intelligence artificielle, tu peux plus faire ça, hein, c'est l'avenir ! Ah ben oui,

  • Speaker #2

    c'est sûr !

  • Speaker #3

    Ça me donne envie de manger McDonald's. Mais de toute façon, cette boîte, c'est terrible. T'en parles, hop, t'as envie de manger, on croque dedans. On se fait une commande. Oh, chiche. Comme des ados, là. Hop, c'est parti. On va voir, hein. On va voir s'ils sont intelligents. Je me connais. Paf. C'est bon, hein. C'est parti.

  • Speaker #2

    Bonjour, Catherine. Toujours aussi élégante.

  • Speaker #3

    Oh ben dis donc, mais comme c'est bien, bien truqué ! Ah ben c'est tout moi, ils savent, c'est incroyable ! Bonjour, alors je voudrais 4 nuggets, un petit hamburger, des frites, petites, et une badoit.

  • Speaker #2

    Très bon choix Catherine,

  • Speaker #0

    vous ne changez pas vos habitudes,

  • Speaker #2

    vous êtes formidable !

  • Speaker #3

    Ah, merci, même fait du grain ! Je vois le truc, quoi, pour que je commande plus. Je vais lui faire plaisir. Alors, Edouard ? Je suis proche d'une glace.

  • Speaker #0

    Catherine, tu es une petite gourmande.

  • Speaker #3

    Ah ben ! Ha ha ha !

  • Speaker #2

    Gourmande !

  • Speaker #3

    Ha ha ha, oui ! Bon, stop ! Moi, toi, moi !

  • Speaker #0

    Et alors, juste dans la dystopie, pour continuer un petit peu sur ce sujet... D'une certaine manière aussi, ce que tu disais, c'était un peu la réduction des interactions avec les autres, la réduction du débat. Et c'est un peu ce qu'on a dans 1984, puisque quand on explique qu'on veut réduire le langage à ses plus simples expressions, c'est uniquement pour réduire justement la capacité d'explorer et de réfléchir, ce qui est une thèse ensuite reprise par Wittgenstein, puisqu'il disait ma langue est mon domaine c'est-à-dire que je ne peux pas… aller au-delà de ce que je peux décrire. C'est exactement cette idée de réduire finalement son champ d'activité et par conséquent finalement sa capacité à comprendre le monde et sa vision des choses. Donc Franz, tu voulais rebondir sur ce que disait Raina ?

  • Speaker #2

    Ah bah oui, je pense que c'est vrai que là on parle évidemment de chat GPT parce que c'est le sujet du moment. Alors attention, les transformeurs GPT c'est ça, le T c'est... transformeurs pas les petits robots c'est bon dès maintenant derrière mais donc c'est pas nouveau déjà ça a quand même déjà quatre ans le gpt 3 cela s'arrivait 2020 en 2022 par an c'était c'était encore mais c'est juste que ce qui est impressionnant avec avec ça c'est que ben on peut parler voilà On tape quelque chose et bon Dieu, on nous répond. Et ça semble vraisemblable. C'est le terme qu'il a. C'est vraisemblable. Et d'ailleurs, je parlais de Turing avec le fameux test IF, à savoir si on pouvait se faire tromper. Voilà, c'est ça. ça fonctionne très bien. Donc oui, c'est impressionnant. C'est impressionnant. Mathématiquement, c'est impressionnant aussi. On part sur des réseaux de neurones avec des milliards et des milliards de paramètres. C'est impressionnant. Ce n'est pas de la magie. Je ne suis absolument pas pour ça. mais je peux comprendre que n'importe qui peut se faire flouer. Et ça, on arrive quand même sur une nouvelle vague, parce que justement, on parlait des IA qui font les jeux vidéo, qui sont dans les jeux vidéo, ou simplement, enfin des jeux d'échecs et autres, et là on arrive à quelque chose où, quand je pose une question,

  • Speaker #0

    En face, une machine me répond avec toute l'intelligence qu'on lui a mise, avec tout ce qu'on lui a donné.

  • Speaker #1

    On se retrouve avec un élément assez particulier, c'est qu'il faut comprendre que les réponses de Tchadjepeté sont en réalité une réponse moyenne. D'ailleurs, on en discutait la dernière fois, justement, de ce fameux auteur de science-fiction, qui disait, si je veux savoir ce que je dois écrire, je demande à Tchadjepété de me faire l'histoire, et je vais exactement écrire l'inverse. ou quelque chose de totalement différent parce que JDPT va me donner l'histoire moyenne d'une intrigue moyenne et il faut s'en écarter. Donc d'une certaine manière ça aide à s'améliorer parce que ça permet de voir quelle est la réponse moyenne et donc d'avoir l'opportunité de faire un peu différemment. Juste pour revenir un tout petit peu sur ce qui a été dit au niveau de l'IA, sur la vraisemblance, donc effectivement les gens aujourd'hui ont le sentiment d'être compris par la machine, bien que ce sentiment de compréhension est quand même un peu discutable, est-ce qu'elle comprend vraiment ou pas, c'est une question presque philosophique. Mais justement, est-ce que ça ne fait pas partie des limites qu'on peut commencer à avoir avec les IA et aussi une forme de danger ? Je pense qu'on va développer ce thème un petit peu plus tard. au niveau de la réglementation. Mais de votre point de vue, est-ce que cette évolution de l'IA, je le rappelle, pour reprendre les propos de Franz au début, c'était plutôt quelque chose d'assez industriel. On ne pouvait pas forcément se laisser avoir. C'était plutôt du très structurel, très technique, alors que maintenant, l'IA commence à s'infiltrer un peu partout. On a de plus en plus de mal à faire la différence entre ce qui est réel de ce qui l'est moins, avec tous les problèmes évidemment de désinformation possible et imaginable, mais aussi il peut y avoir une certaine influence de l'IA dans les décisions prises. Et ça c'est quelque chose d'assez important dans notre société, puisqu'est-ce qu'on peut laisser une IA prendre des décisions importantes ou pas, jusqu'à quel niveau ? c'est un peu le thème aussi que j'ai envie de discuter avec vous dans cet épisode Raina, France honneur aux dames,

  • Speaker #2

    Raina il y a plein de choses en fait si tu veux dans cette approche, la première c'est un constat on va dire général qui est que l'accès à des technologies puissantes, si tu veux, aujourd'hui, est possible avec un coût d'entrée qui est risible. Je veux dire, je ne parle pas de coût d'entrée financier nécessairement. Et en fait, je me souviens d'un groupe de chercheurs danois qui, en fait, avait parlé de démocratisation de la destruction. En fait, ils ont parlé de la destruction Ce qui, pour eux, en associant ces termes-là, en fait, ce qu'ils font, c'est souligner que la prolifération de technologies, notamment émergentes, telles que les systèmes d'IA, de technologies diverses, en fait, change la donne. Et cette prolifération permet à des acteurs très divers et à des groupes très petits, et même à des individus, d'exercer, en fait, et de projeter un... pouvoir pour faire des choses que seules les éternations pouvaient faire avant. Ce qui fait aujourd'hui qu'on se retrouve avec notamment, par exemple, de la désinformation à grande échelle à travers des images très ficotées, tu vois, avec pas mal de choses de ce genre-là, avec des influenceuses Instagram, Instagram, complètement créé avec de l'IA générative et des choses comme ça, et donc qui crée aussi un effet financier. Et en fait, quand on parle de ça, quand on parle de comment je peux faire ça, on a une notion de barrière à l'utilisation qui est importante de comprendre, c'est qu'on a... trois types, si on veut, de seuil de compétences. Le premier, c'est un seuil de capacité cognitive de comprendre ce que fait un outil. Chat GPT, il fait quoi ? Je lui pose une question, il me donne une réponse. C'est très simple. Le deuxième seuil de capacité, c'est celle qui est d'accéder à l'information et comprendre comment l'outil fonctionne. Ça ne veut pas nécessairement dire comprendre comment on fait un LLM, comment on fait de l'entraînement et des choses comme ça. Ça veut dire comment est-ce que je peux me créer un compte sur Chat GPT et comment je fais un prompt. C'est ça le deuxième seuil. Et le troisième seuil de compétence, c'est la manière dont la personne transforme son savoir en savoir-faire. Je sais parler, je sais écrire, et donc je peux faire des promptes, je sais réfléchir plus ou moins correctement, de façon plus ou moins logique, et donc je peux créer, m'approprier la façon de créer un prompt qui produit plus ou moins ce que je veux. Et donc après, je peux écrire. je peux transformer ce prompt-là pour me créer, par exemple, non pas du texte, mais une image, etc. Et donc, c'est ça, en fait, si tu veux, quand tu regardes ces différents seuils de capacité, c'est là où, en fait, tu te rends compte qu'il est possible d'affecter une population significative avec un outil, a priori, anodin et avec un coût de mobilisation qui est très faible. Ce qui, en fait, est extrêmement différent. des outils qu'on avait avant. Parce que pour affecter une population significative de manière négative, j'entends, en fait, tu avais quoi ? Tu avais la bombe nucléaire. Quand tu regardes qui peut manipuler la bombe nucléaire, ce n'est pas n'importe qui. De comprendre comment ça marche, etc. Et donc, en fait, c'est ça, si tu veux, c'est cette capacité, cette possibilité. Et le fait que c'est donné un entraînement de plein de gens, c'est ce que tu expliquais en fait, mais de façon entre guillemets détournée, c'est-à-dire en donnant des exemples différents, c'est cette capacité-là qui amène à toutes les discussions sur une gouvernance de ces technologies-là. Et maintenant, tu vois, je vais glisser dans la jeunesse de l'IA Act.

  • Speaker #1

    Qu'est-ce que t'es habile !

  • Speaker #2

    Tu vois ? Mais c'est en fait parce que ce que tu décris, et tu vois que ce soit les sujets de facturation, que ce soit des sujets en fait très, entre guillemets, quotidiens, où on peut mobiliser de l'aide ou des leviers d'automatisation, en fait ce sont parfois, voire souvent, des actions, des activités qui vont produire des effets sur les personnes humaines, et souvent ce qu'on appelle des effets judiciaires, c'est-à-dire que ça va avoir un impact. Il se passe quoi si, je sais pas moi, j'estime que tu n'as pas facturé assez et donc que de façon autonome, je produise une facture d'un montant très important et que j'impose le paiement de ce montant-là à un artisan qui n'en a absolument pas les moyens de l'honorer. Il se passe quoi en fait ? Donc, tu as un enchaînement. de conséquences qui est extrêmement qui parfois peut être imprévisible mais surtout qui peut avoir un impact significatif sur les personnes sur qui ils s'appliquent et donc c'est dans cette optique là, quand tu regardes l'abaissement des seuils d'accès et donc d'utilisation et de mobilisation de ces technos et les effets parfois inattendus parfois des effets de bord et des choses comme ça que ça peut produire... C'est là, en fait, que toutes ces histoires de gouvernance, etc. sont arrivées et que c'est comme ça que la réponse de l'Union européenne a été de faire un texte réglementaire qui répond, en fait, à ces préoccupations-là.

  • Speaker #1

    Alors, juste avant qu'on aille vraiment sur la partie texte européen, etc., il y a quand même, pour moi, un grand paradoxe dans tout ça. Pendant des années, on a expliqué à tout le monde qu'il fallait investir dans l'informatique, qu'il fallait commencer à comprendre comment programmer, qu'il fallait libérer les ressources. C'est d'ailleurs un peu le fond d'Internet. Si Internet a été libéralisé et utilisé à très grande échelle de manière très extensive, c'était justement pour partager ses ressources. accélérer le transfert d'informations et donc vraiment dans cet esprit alors il ya un autre élément aussi qui rentre qui est un bon exemple c'est les crypto monnaie puisque à la base c'était avoir un système monétaire qui sont indépendants des états alors ensuite quand on regarde un petit peu plus près les origines des crypto monnaie avec les ciphers punk bon il semblerait que le fondement soit plutôt libertariens enfin quand je veux dire c'était plutôt pour ne plus subir entre guillemets le gouvernant donc c'était pas forcément dans un optique dans une optique très bienveillante mais bon ils ont quand même développé ce genre de choses donc on est capable de développer des technologies qui a priori peuvent être bénéfiques pour tout le monde mais malheureusement en même temps peut poser aussi d'énormes problèmes de déontologie enfin tout ce que tu as expliqué aussi Reina de cette façon là donc Il y a quand même un petit peu un paradoxe dans tout ça. On veut pousser la technologie d'un côté, mais d'un autre côté, on est obligé de réglementer parce qu'on voit qu'il y a des mésusages. Et donc, il faut maintenir cet équilibre subtil entre la techno et son utilisation. Franz, tu voulais prendre la parole.

  • Speaker #0

    Oui, je pense que... Je pense que c'est marrant. Je suis tout à fait d'accord avec tout ce que tu dis. Je pense que ça ne va pas s'arrêter. Ça ira de plus en plus. L'étape numéro 2 pour les agents, c'est tous les parties agents et quand ça va faire des actions, là ça va faire peur. Par exemple, il y a un gars qui a fait planter son système Unix parce qu'il l'avait automatisé. Bref, les agents ont tout le monde. Et ça ne leur donne rien. Non, mais j'aime bien par contre la partie sur la crypto, parce que je pense qu'il y a ce concept de, je ne vais pas faire de politique, de l'anarchisme jusqu'au libertarianisme, et que... comment dire, les cryptos, il y a quelques temps, pas si longtemps que ça, ont traché, pas mal de personnes sur le paille, et ces mêmes personnes qui prenaient justement cette liberté, cet excès de liberté, ont été les premiers à demander justement quels états régulent pour pouvoir les cadrer, ce qui est un set paradoxal. Et je pense qu'en fait, tous, il y a le premier, auront le même point. Alors, nous... Alors, je dis nous, je parle des Européens. Assez paradoxalement, on a mis en place les actes qui, loin d'être jeunes, ça date depuis quand même quelques temps, je ne dirais pas loin de... Si on regarde, je pense que déjà en 2018, on discutait déjà, parce qu'en 2020, il y avait le Transform AI Framework. Et ça sort un peu comme un feu sur la soupe au moment où les LLM, les modèles transformeurs, arrivent. Et donc ça, je trouve ça assez marrant parce qu'on peut voir justement que d'autres pays, continents, n'ont pas pensé à ça, ou du moins plutôt. n'ont pas l'implémenté, les Etats-Unis typiquement, ou la Chine, et que la question qu'on se pose, c'est on va être en retard face à ces deux poids lourds, parce que nous, on a une régulation qui embête. On pourrait en parler de la régulation, je pense qu'on va en parler, mais... typiquement, ce qui va se passer, c'est que je pense que, des deux côtés, tôt ou tard, ça va arriver à avoir un problème et avoir une demande de régulation. Maintenant, on a un cas unique, je dirais, parce que là, clairement, il y a quand même un bond au niveau de l'IA. On a un cas unique où on a justement une réglementation qui arrive pile-poil sur une avance assez majeure, technologiquement parlant. On pourrait parler d'armes à rapprets. Mais, c'est... On a un cas majeur où, pour une fois, on a une réglementation qui arrive au même moment qu'une évolution majeure sur une technologie, face à deux mastodontes qui, eux, n'ont pas de régulation et qui, à mon avis, vont avoir des vrais problèmes dans le futur et qui vont impacter vraiment les gens. Et donc, la question va se poser de, lequel des deux aura eu raison ? Et quand on dit raison, ce n'est pas forcément d'un point de vue sociologique, mais d'un point de vue économique.

  • Speaker #1

    Alors, reste question, si on reprend Schopenhauer, le monde aussi entre la technologie sauvage et la réglementation à outrance. Alors justement... Raina, tu es quand même ultra spécialisée dans ce type de questions puisque tu as étudié ça jour et nuit. Et tu connais très bien aussi la communauté européenne et tout ce qui tourne autour. Alors justement, quel est ton point de vue par rapport à ça, l'EIA Act ? Est-ce que tu peux nous en parler et nous expliquer ce que c'est déjà ?

  • Speaker #2

    Alors déjà… Avant de te parler de l'IAC, spécifiquement, je vais juste rebondir sur les propos de France, parce que j'avoue que je suis assez mal à l'aise avec ce genre de propos qui, en fait, nous viennent très souvent des GAFAM, où il y a un leitmotiv récurrent qui est de dire que la régulation nuit à l'innovation. Et d'ailleurs, toi, Nicolas, qui es… qui est abonné à la Décay Politique, tu sais très bien que j'en ai fait un cas, en fait, un casus belli, et que j'ai une édition particulière, enfin dédiée, à des cas, en fait, très concrets, où le réglementaire crée un appel d'air, business, qui permet des levées de fonds, des développements de techno, etc. Et donc, parce que pour l'instant, personne ne m'a jamais donné un argument concret avec un cas illustré, un cas d'usage spécifique illustré où le réglementaire aurait empêché quelqu'un de faire du business. Donc, j'insiste là-dessus parce que c'est une vision civilisationnelle, cette histoire de réglementaire. Parce que le réglementaire, c'est quoi ? C'est les règles. de vie en société. C'est pour ça que je disais tout à l'heure dans la présentation, c'est comment on fait société numérique. Et donc, on ne peut pas, en fait, d'un côté, avoir des règles pour la qualité de la nourriture dans les supermarchés, tu vois, où la sécurité retire, et dire que ça, ça empêche l'innovation. Tu vois, c'est juste pas possible, quoi. Mais on a la même chose avec le numérique, où, en fait, on se retrouve... dans une situation où il y a un développement très important technologique, quelle que soit la techno en question, la cyber, ce que tu veux, et où on a très peu de règles spécifiques pour la responsabilité des gens qui mettent ces technologies-là sur le marché et donc qui ont une responsabilité vis-à-vis de nous, utilisateurs. parce qu'on est tous l'utilisateur final de quelqu'un, au final. Et donc, c'est là où le réglementaire intervient. Et j'aimerais quand même rappeler que le RGPD est arrivé. La Chine a un boîtel pas. Et alors, autant nous, en Europe, on a des sanctions pécuniaires pour non-respect. En Chine, c'est la tol. Je veux dire, ils ne font pas dans la demi-mesure. Aux US... Il y a un mouvement extrêmement important pour créer un RGPD fédéral. Et en fait, la structure de l'État est différente par rapport à l'Europe, mais aussi la culture des règles est différente. On n'a pas la même approche du tout entre les US et l'Europe. On peut en parler peut-être, mais surtout. Aux USA, il y a aussi un réglementaire par État et il y a beaucoup d'États aux États-Unis qui ont déjà adopté des cadres réglementaires qui rassemblent beaucoup à du RGPD. Et d'ailleurs, pour plein de raisons politiques, le texte fédéral Privacy aux États-Unis… a été un peu stoppée dans son élan, mais il y avait quand même de grandes chances qu'il soit adopté avant la fin du mandat de Biden. Bon, bref, je ne vais pas revenir sur les sujets spécifiquement politiques des US. Voilà, il y a en fait un mouvement très fort de protéger justement des actifs stratégiques. Et c'est là où... On a une différence dans ce qui est stratégique, dans l'appréciation de ce qui est stratégique. Aux US, on va toujours entendre parler de la sécurité nationale, par exemple. Alors qu'en Europe, on va avoir une approche différente. Mais la manière dont ça va se décliner... va beaucoup varier. Et sur l'IA spécifiquement, il y a un truc qui s'appelle SB1047, qui est l'équivalent de l'IA Act en Californie, qui a été récemment sanctionné par le gouverneur de Californie suite à une pression absolument dingue à de certaines boîtes que je n'aimerais pas, mais auxquelles je pense très très fort.

  • Speaker #1

    Vous êtes en Californie, justement.

  • Speaker #2

    Voilà. Mais en revanche, il y a... énormément de cadres sectoriels déjà adoptés. Typiquement, on mentionnait les véhicules autonomes tout à l'heure. Il y a déjà eu pas mal de frameworks réglementaires aux US, dans certains États, qui concernent spécifiquement les systèmes de reconnaissance, de signalement, de marquage de sol, enfin bref, de ces trucs-là. intégrés dans les véhicules. Il y en a plein, plein, en fait, qui sont intégrés. Et c'est juste l'approche d'application des règles qui est aussi très différente aux US, qui, en fait, passe par beaucoup de contentieux et c'est une culture du contentieux qu'on n'a pas du tout en Europe. Je vois que Franz voulait réagir, donc avant d'enchaîner sur l'IAC, je te laisse réagir.

  • Speaker #0

    Il y a beaucoup de choses à dire. Autant personnellement, je suis partisan que les régulations à une certaine dose, évidemment, et les actes, et bien dosés. je tiens à le dire, peuvent aider, clairement. Autant, je pense que le point, c'est une question sociétale, et une question aussi de comment est-ce qu'on parle des US. Je ne connais pas assez bien la Chine pour en parler, mais les US par rapport à l'Europe, il y en a un qui pense à la cause, et l'autre qui pense après la conséquence. Si on regarde nos actuelles, justement, on parle de RGPD, je pense que tout le monde sur la planète en est même. Je ne peux pas parler de tout le monde, mais je pense que les grands pays en sont d'accord. avec plus ou moins de raisons et peut-être pas pour les mêmes raisons va dire mais à l'heure actuelle les grands patrons ceux qui ont vraiment le cash qui dirige la snévola sont américains parce qu'ils ont commencé sur le fait qu'ils ont fait leur business sur la donnée complètement non régulé alors personnellement je trouve ça pas cool et ça c'est un point mais il est là, c'est qu'après, ils ont la puissance pour adapter aux besoins. L'Europe ne fonctionne que comme un marché, malheureusement. Et ça, c'est un vrai problème. Donc, à quel moment ils peuvent bloquer l'accès au marché, à quel moment ils peuvent aller sur d'autres marchés ? Et c'est ça le point. La chance qu'on a sur l'IA, c'est que les grands pensants de l'IA, la majorité sont européens et beaucoup sont français. Mais la question, c'est à quel moment... on va pouvoir se créer une autonomie sur le sujet qui est en capacité de rivaliser avec les autres. Et c'est ça le vrai point. Moi, je pense que le cadre, c'est pas ce qui va cadrer et qui va aider, parce que ces problématiques-là, pour tout un chacun, vont arriver plus tôt ou plus tard, vont être là. Maintenant, la question, c'est est-ce que de mettre en place dès maintenant toutes les...... Ce ne sont pas des complications. Si je peux, j'en parle un petit peu. Que demandent les actes pour attaquer des marchés qui ne sont pas régulés par ça ? Ça, c'est le vrai point. Et justement, je vais t'aider le propos. Le point, c'est que quand on parle des LLM, je pense que le point numéro un qui est spécifié dans les actes, c'est le fait... être en capacité d'expliquer la décision. Alors sur des trucs avec des milliards de paramètres, on n'y est pas. Et donc le point, c'est justement, il y a des choses qui vont rendre les LMS difficile à marketer, au moins sur certains secteurs, ou sinon dans l'armée, ils ont tous les droits, bon investissement, les HREC donnent beaucoup de liberté sur tout ce qui est militaire, mais face à d'autres qui ne considèrent pas ça, et notamment... Toute la partie des données, une donnée qui rentre dans un modèle, quand il l'a appris, il ne peut plus le retirer. Sauf que nous, en Europe, on pense à une manière de dire que nos données, c'est notre bien privé, etc. Les Américains, ils pensent que c'est un bien commercial. Ce n'est pas la même chose. même perception, mais du coup ça crée des champions qui peuvent attaquer d'autres marchés. Et donc le point, c'est ça.

  • Speaker #1

    Justement, parce que je crois que tu as mis le doigt sur quelque chose, c'est important, c'est les données. Est-ce que c'est un bien commercial ou un bien personnel ? Donc, grande question.

  • Speaker #2

    C'est tout là. En fait, il y a une vraie différence, c'est pour ça que je ne voulais pas du tout rentrer là-dedans quand j'ai dit qu'il y a une vraie différence de perception et de culture et de tout ce que tu veux. C'est qu'en fait, Le RGPD, puisqu'on parlait de ça, il est fondamental à plein de niveaux. Aussi parce que le RGPD, ce n'est pas un machin qui fait des cookie walls. Ce n'est pas un truc. C'est comme ça. C'est l'autre boudin qu'on a eu à la fin avec une implémentation et une mise en œuvre absolument déplorable. Mais ce n'est pas son objectif principal. Son objectif principal, c'est de protéger les droits et libertés fondamentaux des gens. Attends. En fait, en Europe, la... compréhension et qu'on a, en fait, la perception qu'on a des données à caractère personnel, et je dis bien à caractère personnel, c'est que ce sont des attributs de la personne humaine, au même titre que tes organes. Alors qu'aux US, on parle de consommateurs et de personally identifying data des données qui identifient des personnes. Ce n'est pas du tout la même perception, ce qui fait en fait que tu as ces mouvements-là et cette approche de patrimonialisation, c'est-à-dire de créer des droits de consommation, de commodification, de choses qui, pour nous, n'ont pas du tout le même statut. Et donc, quand les gens en Europe me parlent de mettre des droits voisins, type droits d'auteur, sur les données à caractère personnel, en fait, moi, la question que je pose à chaque fois, c'est est-ce que tu ferais la même chose avec les données sur les organes des gens ? Et on me regarde comme si j'avais perdu la tête. En fait, parce que l'analogie, c'est qu'elle est comme ça. Ce sont des attributs de la personne humaine. Donc, tu ne peux pas faire ça. Et donc, toute la question de comment on approche l'innovation et de comment on crée des champions, si on veut, elle est là. C'est qu'on a des approches éthiques ou en tout cas, on ne veut pas faire n'importe quoi juste pour gagner des sous. C'est pour ça, en fait, que quand on a cette discussion de créer des champions européens, d'avoir une autonomie, etc., en fait, la question qu'on pose derrière, c'est comment on les crée ? Est-ce qu'on veut, en fait, avoir une approche prédatrice ? telle qu'elle est ailleurs, ou non ? Parce que, tu vois, quand tu regardes, on parle de chat GPT depuis tout à l'heure, en fait, ça me fait marrer quand je vois des gens qui m'expliquent qu'ils font un usage éthique de l'IA en utilisant chat GPT, en fait, sachant que derrière, tu as énormément de digital labor, donc de gens sous-payés, des travailleurs du clic, etc. Donc, tu as une exploitation humaine derrière. mais que tu as des mecs qui m'expliquent qu'ils font un usage éthique de Chachipiti.

  • Speaker #1

    Le Chachipiti, c'est le Nutella du numérique.

  • Speaker #2

    Mais c'est ça. Et en fait, avant de te passer la parole, Franz, parce que j'ai vu que tu avais une petite remarque, mais tu vois, tu as aussi une vraie question et c'est là-dessus que j'insiste sur cette vision civilisationnelle et de valeur. C'est qu'en fait, c'est qu'est-ce qu'on veut construire ? Bien sûr qu'on a envie de prospérité et de vivre bien, etc. Mais en fait, on le fait comment ? Quels sont les modèles économiques ? Quel est le substrat qu'on va utiliser ? Elle est là, la question.

  • Speaker #1

    C'est ça. À quel prix ?

  • Speaker #2

    Et à quel prix, bien évidemment.

  • Speaker #1

    France ?

  • Speaker #0

    Oui, c'est vrai que... Un truc très intéressant, c'est l'histoire de droit, le droit d'appréhender, le droit à l'image, ce qui est bizarrement très cher aux Américains aussi. Mais je pense que les Américains ont comme plus grand défenseur leur plus grand prédateur, qui sont les entreprises. Et on le voit très bien, justement, sur ce qui se passe avec le PNRI, qu'autant prendre de la donnée des gens, bon... C'est pas grave, c'est bon. Par contre, de s'attaquer à des grosses entreprises qui possèdent justement de l'IP, pardon, de l'IP, de l'information personnelle, donc tout ce qui est... toutes les images dans Mickey et autres, typiquement, le New York Times qui s'est vu faire voler on ne sait combien d'articles par OpenAI, là, il y a des attaques en justice. Et donc, du côté américain, je pense que ça va être de cet aspect-là que ça se passera en premier d'abord, sur l'acclaration des LLM. C'était une petite remarque. Et je voulais rebondir, c'est juste en faisant partie éthique, je pense que c'est très très bon, parce qu'on arrive aussi beaucoup sur cet aspect en ce moment de penser à l'écologie. Je vais parler sur le greenwashing, j'en passe. Mais je prends le greenwashing comme étant aussi des fois, malheureusement, impulsant une inaction. On va dire ça comme ça. Et ce qu'on ne se rend pas compte, c'est la consommation colossale ! que ça amène. Si on parle en termes d'électricité, pour donner un peu de chiffres, on est à peu près, je crois que j'avais lu un article d'ici 2027, vers 85 à 135 TWh par an. Pour donner une image, pour que ta grand-mère réalise. En France, on consomme au total, en toute la France, 450 à 500 TWh. C'est-à-dire qu'un quart de la consommation française ne servirait uniquement qu'à faire tourner des modèles d'IA.

  • Speaker #1

    Sans parler de la consommation d'eau, tu vois.

  • Speaker #0

    Ça, on parlait de la consommation d'eau qui est de 50 centilitres par conversation de chat de GPT. Je veux dire, on a des stades comme ça. Et si on parle de l'énergie, qui est pour moi le vrai débat derrière, la vraie limitation, c'est… Tout est parlé du lieu des limitations, on n'a pas parlé d'imitation physique, avec la loi de Moore et j'en passe, mais si on parle en termes d'énergie, il faut bien voir que… Le monde a atteint un pic énergétique, on a une capacité maximum qui arrive. Et ce qui est consommé comme énergie à l'heure actuelle n'est pas produit par du nucléaire. Je crois que le nucléaire représente à peu près 10%, même pas dans le mix énergétique mondial. La majorité, c'est des centrales à charbon. Donc, on parle que, d'un point de vue écologique, c'est dramatique. C'est dramatique, tout ça pour faire des petites recherches, pour s'amuser avec le CHGPT ou faire les deep tech et j'en passe. Alors, je ne vais pas faire mon... écologistes ou quoi que ce soit, mais c'est un vrai problème à ce niveau-là. Et on va tomber tant sur des aspects écologiques, économiques, parce que derrière le coût de l'énergie, c'est faramineux, et l'énergie, je pense qu'il est mieux dépensé pour les industries, qui vraiment sont en train de pleurer sur le coût de l'électricité. Et donc, on va avoir un vrai problème à ce niveau-là.

  • Speaker #1

    Donc,

  • Speaker #0

    ça, c'est bizarre, c'est que très peu de personnes en parlent, et pourtant, c'est le nerf de la guerre, parce que ça va être une délimitation.

  • Speaker #2

    Moi, ça ne m'inquiète pas plus que ça, le réchauffement climatique, parce que je ne suis pas écolo. Mais c'est vrai qu'il y a des gens que ça inquiète. Je ne suis pas écolo, moi. Je ne suis pas écolo du tout. Je n'ai pas d'enfant, moi. Pour moi, la vie s'arrête à la mienne. Et même si ça va un peu plus vite que prévu, je n'aime pas le ski, de toute façon. Non, je déteste les sports d'hiver. Vraiment, c'est monter, descendre, monter, descendre. Je n'ai pas besoin de faire un sport qui me rappelle que je suis bipolaire. Merci. Je déteste le ski. Les sports d'hiver et le soir, observer des couples qui s'engueulent en chuchotant dans des restos qui puent le fromage. Merci. Non,

  • Speaker #0

    avant. Je serais vraiment curieux de voir comment ça va impacter la perception si les gens ont plus connaissance de ça. Ce qui se passe... les débats sur l'écologie et même sur l'industrie.

  • Speaker #1

    Tu as beaucoup de gens, enfin, ça commence à arriver beaucoup dans la conversation, notamment parce que, typiquement, des gens comme Google ont perdu leur truc neutrin carbone, tu sais, qu'ils mettaient depuis des plombes, là, qui était, oui, oui, on a juste acheté beaucoup de crédit carbone, tu vois, mais ça commence, en fait, à arriver dans la conversation aussi, mais par un angle un peu bizarre, parfois, qui est de dire que, vu les coûts, dont tu viens de parler, en fait, on ne peut pas arriver à une intelligence artificielle générale, c'est le truc à la Skynet, quoi, parce que en fait, on ne produit pas assez d'électricité et d'eau pour l'entraînement de ce truc-là. Et donc, c'est comme ça, en fait, que les gens arrivent à discuter de cette histoire, qui est, en fait, de dire que, tu vois, on fait fondre deux icebergs pour résumer trois mails, quoi. Enfin, qui a... à peine exagéré en termes d'échelle.

  • Speaker #0

    Je suis tout à fait d'accord. Et justement, on parle juste de la puissance énergétique. A noter d'ailleurs, comparé aux crypto-monnaies, l'IA consomme… ou elles consomment à peu près à l'heure actuelle autant d'énergie que la crypto-monnaie. Ça va permettre de réfléchir au sein de la consommation de crypto. Mais il y a aussi un autre point. Tu parlais au tout début des puces à créer. Et il y a un problème physique. Alors, on parlait de la loi de Moore. qui disait qu'on réduisait tous les tenseurs. Et en fait, du coup, c'est devenu de plus en plus fin. On a atteint une limite physique, littéralement, où cette fois, c'est des électrons qui passent. Donc, c'est fini. On ne peut plus redescendre. Du coup, une technique que les chinois ont dit, ok, si on ne peut pas descendre, on va agrandir. C'est smart, ceci dit. Mais pareil, avec quelles ressources ? Avec quoi ? Donc, j'invite les gens, s'ils possèdent de l'ASML, c'est bien parce que c'est eux qui produisent, les machines qui produisent ça, c'est cool. on va arriver sur des limites physiques, écologiques, qui vont devoir revoir les choses. Et je pense que si on prend des lois de marché, Scale City va définir le prix. Et derrière, on va poser la vraie question d'utilisation. On est sur une hype, qui va déjà redescendre, je pense, légèrement. Parce qu'on va se rendre compte quel est le réel investissement qu'il y a là-dedans. On va parler de l'IA Act, mais derrière, juste pour clore sur le sujet de l'écologie, il y a aussi le fait que maintenant chaque entreprise doit donner sa consommation carbone, directe et indirecte. Qu'est-ce qu'on va dire quand finalement on est une boîte supérieure, on a tous 4 GPT et finalement on a une convention énorme ? Il ne manquerait plus que, comme avait été présenté cette petite série télé que j'invite à regarder qui s'appelle Parlement, où en gros ils amenaient un projet de loi qui disait que la consommation de carbone devait être intégrée dans la comptabilité. Donc il n'y a plus que ça arrive, mais alors là je pense qu'on peut repartir sur le débat depuis zéro.

  • Speaker #3

    Juste pour faire la transition au sujet qui nous intéresse tous, on a parlé de plein de choses, de l'environnement, de la société, de la protection des données et aussi de l'éthique, qui peut être parfois un peu discutable quand on parle de la manière dont certaines IA ont été créées. Alors justement, en quoi l'IA Act peut nous aider à améliorer un petit peu tout ça ? attirer bénéfice quand même de l'IA, mais avec peut-être des contraintes qui permettraient de recentrer un usage et de border un petit peu et de mettre des limites là où il en faut finalement. Donc Raina, est-ce que tu peux nous éclairer ?

  • Speaker #1

    Je vais essayer de faire de mon mieux. Donc l'IA Act, si tu veux, déjà c'est un règlement européen, donc il est d'application directe et certaines de ses dispositions s'appliquent depuis le 1er août. 2024, by the way. Petite mention pour ceux et celles au fond de la classe, ce serait bien de vous y intéresser. Donc, de quoi ça parle ? L'idée, c'est justement ce que je disais tout à l'heure, c'est d'introduire une notion de gouvernance, donc de ces systèmes IA, de leurs usages. Comment je les fais ? Qu'est-ce qu'ils peuvent faire ? comment je les intègre dans l'activité de mon entreprise, etc. Et comme souvent, en fait, il y a beaucoup de choses qui sont permises dans l'IACT et il y a certaines choses qui sont interdites. Je vais y revenir dans un instant. L'idée, en fait, c'est de prendre une approche par les risques. C'est ça l'idée de l'IACT, c'est de dire qu'il y a des systèmes très divers. Certains ne posent pas de problème en termes d'effets négatifs sur les gens. D'autres systèmes peuvent avoir ces effets-là, donc on y fera attention. Et puis... Pour justement arrêter avec cette histoire de ces indistinguables de la magie, on va introduire des exigences de transparence pour que les gens sachent, en fait. Est-ce que j'ai quelque chose ? Est-ce que la photo du pape avec la doudoune, c'est le pape lui-même ? Ou ça a été généré par un chat GPT-like, par Midjourney ou autre ? Et on va avoir un certain cas d'usage qui vont être interdits, parce qu'on estime que ces cas d'usage-là portent un préjudice immédiat, portent en fait un effet judiciaire négatif sur les droits et libertés fondamentaux des gens. Et donc c'est là où on va avoir, ça les gens l'ont peut-être vu, Mamie l'a peut-être vu aussi, on va avoir cette pyramide des risques avec au plus bas niveau le risque dit minimal qui est ne présente pas. pas de risques pour les droits et libertés fondamentaux des personnes. Donc là, là-dedans, on va trouver des systèmes d'IA qu'on connaît pour le coup depuis un moment, qui sont par exemple des filtres antispas. Pour donner un exemple, ou pour les gens qui aiment bien jouer aux jeux vidéo, ce sont les... les systèmes d'IA utilisés pour les personnages non-joueurs, les PNJ. Donc ça, typiquement, c'est un système d'IA qui, d'après l'IA Act, c'est un système d'IA à risque minimal. Tu vois, parce qu'en fait, voilà. Donc, il n'y a pas d'obligation particulière de conformité ou machin sur ces systèmes-là. Un risque plus élevé ? c'est ce qu'on appelle les systèmes avec un risque limité, qui présentent un risque limité sur les personnes. Donc là... Un exemple de ça, c'est des chatbots. Typiquement, je ne sais pas si vous avez vu passer le truc, le chatbot d'une compagnie aérienne qui disait que la compagnie va vous rembourser votre billet, alors que les CGU de la compagnie aérienne disaient le contraire. Là, on a l'idée du risque minimal, c'est justement que ça produit des effets comme ça. Et donc là, les obligations applicables sont transparence, dire qu'on utilise un système automatisé et veiller à tout ce qui est droit d'auteur. Cette histoire, ce côté très épineux qui est de faire attention aux droits de propriété intellectuelle, pour le dire très vite, qui sont liés à des productions créatives, artistiques ou autres. Donc, ils ne veulent pas faire de la contraffaçon, ce que font nos amis américains quand ils scrapent comme des porcs et qu'ils entraînent leur gros modèle de langage dessus. Donc, le New York Times dont il s'agissait, dont Franz parlait tout à l'heure. On va voir ensuite le haut risque, donc les systèmes d'IA à haut risque. Ça, il y a en fait dans l'IACTE… Tu verras, il y a les annexes 2 et 3 qui listent des cas d'usage qui tombent là-dedans. Typiquement, la notation d'examen ou l'évaluation de solvabilité. Je crois que France mentionnait quelque chose là-dessus tout à l'heure. Donc ça, ce sont des systèmes en risque parce qu'en fait, ça produit encore une fois des effets judiciaires, c'est-à-dire sur l'évaluation de solvabilité, je peux te refuser par exemple un prêt pour acquérir ta résidence principale. Et tout ça, c'est de la décision autonome, c'est-à-dire sans qu'un humain apprécie les particularismes de la situation, etc. Notation d'examen, c'est la même chose. Ça peut en fait prévenir quelqu'un d'aller faire des études que la personne souhaite faire. Et donc là, les modèles, pardon, les obligations sont strictes. Donc, on va avoir notamment une analyse de risque avant conception. et quand on va parler d'analyse de risque c'est nos amis de la cyber pense ISO 27005 et là on va être en fait dans une démarche qui pour le coup se rapproche un peu de l'analyse de risque qu'on a dans le RGPD parce que les risques auxquels on va faire attention sont ceux qui pèsent sur les droits fondamentaux des personnes des individus donc On n'est pas dans un truc, est-ce que quelqu'un peut choper mes identifiants et envoyer des mails à ma place ? On est dans, est-ce que ça risque de détruire ma vie ? Est-ce que ça risque de m'empêcher d'accéder à l'espace public, d'accéder à la propriété, à l'éducation, etc. Et donc, au plus haut niveau, on va avoir... les modèles qui sont nommés à l'article 5, pour le coup, de l'IACT, qui présentent en fait des risques dits inacceptables. Et donc, là-dedans, on va avoir typiquement tous les systèmes qui sont de calcul de crédit social, tu vois, un peu à la chinoise, ou de reconnaissance automatisée des émotions. Donc, tous ces systèmes, ils sont listés sur le site de la commission. je peux fournir le lien pour les personnes qui souhaitent aller regarder parce que c'est très clair, c'est très court. Et donc, tous ces systèmes-là sont interdits d'utilisation. Il n'y a pas de oui, j'ai bien fait mon analyse de risque, s'il te plaît, sois sympa Non, c'est non. Et il y a quelque chose que moi, j'inclue quand je fais cette pyramide, y compris dans mes formations, etc. Quand je fais cette pyramide, j'inclue un autre risque, en fait, qui est le risque systémique. qui n'est pas identifiée à part entière comme ça dans le texte, mais qui surnte, si tu veux, toutes les dispositions du règlement. Donc, le risque systémique, ça concerne notamment les modèles qui ont un impact significatif, typiquement les grands modèles de langage, ou les modèles dits GPI, c'est-à-dire un modèle à usage général. L'idée, en fait, là-dedans, c'est qu'on va avoir des... des systèmes d'IA qui sont entraînés sur une très grande quantité de données, qui utilisent l'autosupervision en termes d'entraînement, mais qui sont tellement généralistes qu'ils ont en capacité d'exécuter un très large éventail de tâches distinctes. Et là, on va encadrer leur intégration dans des systèmes divers et variés. Je ne sais pas, moi, ton chat GPT, comment est-ce que tu vas l'intégrer dans la facturation ou autre ? Ou dans la demande d'information pour un remboursement SNCF ? Des choses comme ça. Donc, là-dedans, on va retrouver notamment beaucoup de modèles d'IA générative. En fait, on dit que ça présente un risque systémique parce que, en fait, vu... parce qu'ils ont une capacité de faire plein plein de choses. Et donc là, en fait, on va appliquer à ces modèles-là des obligations particulières, telles que, encore une fois, l'analyse de risque, mais aussi des tests pour prévenir des effets de bord, les hallucinations, les dérives de modèles et des choses comme ça. Et on va aussi appliquer des obligations de reporting. D'où est-ce que je... Comment j'entraîne les modèles ? D'où viennent les données ? Et des choses comme ça. Donc, on va avoir cette pyramide des risques. Elle est importante parce qu'elle est très claire. Et en fait, là, pour le coup, on a des définitions qui sont assez univoques, qui permettent en fait... d'avoir la clarté sur... Alors, moi, quand je vais commencer à faire des... à utiliser des systèmes d'IA pour avoir des logiciels plus performants, des services à haute valeur ajoutée, enfin, ce que tu veux, en fait, je peux très bien me référer à ces critères-là. pour savoir en fait quelles sont les obligations auxquelles je serai assujettie dans ces cas-là. Et donc en fait, la majorité des obligations tombent en fait sur les fournisseurs ou développeurs de systèmes d'IA à haut risque. Dans l'IAC, on est vraiment là. Donc quand on dit fournisseurs ou développeurs, ce n'est pas les personnes qui développent. Enfin, tu vois, c'est... ce n'est pas ton développeur chez toi, c'est toute entité qui crée ces systèmes-là. Ça peut être une filiale de ton groupe qui fait ça et qui met ça sur le marché unique, sur le marché européen, donc qui le revend en fait à d'autres. Ça peut être toi qui le fais pour ton usage interne, mais pour des systèmes qui sont utilisés par des gens, que ce soit des employés ou des clients, etc. Et les utilisateurs sont définis comme des personnes physiques ou morales qui déploient des systèmes d'IA dans une démarche professionnelle. On ne parle pas de mamie qui va utiliser un chatbot, mais on va parler de la startup qui va déployer un chatbot basé sur ChatGPT. pour fournir typiquement des informations de remboursement. Donc, tes utilisateurs, ce n'est pas Mamie, tes utilisateurs concernés par l'IAC, ce n'est pas Mamie, c'est la startup qui va consommer le système d'IA et qui va le déployer. Donc, c'est un peu de façon très caricaturale, mais succincte, vraiment le cœur du sujet. qui est encore une fois dans une pure approche graduée européenne, qui diffère pour le coup beaucoup de l'approche américaine, qui est, on va vous expliquer étape par étape, quel est l'état de fonctionnement sain auquel on tend. Vous savez où vous allez. vous savez quels sont en gros l'état final désiré, démerdez-vous pour faire ça. Ce qui n'est pas la même que la culture américaine où tu vas avoir des guidelines très générales où on va te dire le premier barreau de l'échelle, c'est là. il est très très bas et par contre après on va disperser façon puzzle dans les différentes administrations et qui en fait empêchera aussi la compréhension et la big picture la compréhension à l'instant T de qu'est-ce qu'on applique exactement qui s'occupe de la mise en oeuvre, du suivi etc et c'était très parlant de voir par exemple comment le décret présidentiel de Biden était consommé, et donc mis en œuvre, 90 jours après sa publication, en fait, tu avais une liste, je crois, sur six pages, de toutes les initiatives, commencées par les différents départements, par les différentes administrations de l'État fédéral, etc., qui étaient, en fait, juste... C'est super compliqué de s'y repérer, alors qu'en Europe, tu as quelque chose de beaucoup plus centralisé. Par contre, avec un bureau IA, etc., qui va aussi assurer, qui est une entité de la commission, nouvellement créée spécifiquement pour ça, qui veille à la mise en application de l'IA Act sur tout le territoire de l'Union. Donc, l'approche, la culture, elle est encore une fois très différente des deux. Donc, c'est sûr, pour beaucoup, On va imaginer que le premier barreau de l'échelle en Europe, il douille un peu, il fait un peu mal, parce qu'on se prend une avalanche d'un règlement qui n'est quand même pas super simple, et plutôt bien fait, mais ça dépend à qui t'en parles. Je pense que Franck et moi, on s'intéresse au sujet, on a suivi l'élaboration, donc on comprend aussi pourquoi des choses sont formulées telles qu'elles le sont dans le texte final. Mais c'est sûr que pour des gens qui n'ont pas suivi les discussions, les logiques, etc., ça peut être un peu rebutant. Je reste subtile.

  • Speaker #3

    Mais c'est assez souvent comme ça. Si on ne comprend pas l'histoire et ce qui s'est passé derrière, forcément, la simple conclusion peut être un petit peu difficile à comprendre. France, tu voulais rajouter quelque chose ?

  • Speaker #0

    Oui, je pense qu'il faut prendre un peu sur le sport. On parle de la genèse, à quel moment ? Alors, à quel moment ça a commencé à être réfléchi ? C'est pas quelque chose de nouveau, c'est juste que c'est tombé pile poil au moment où on parle de Genial. Mais c'était mis au moment où il y avait l'essor, je dirais, du deep learning. Et justement, notamment avec les réseaux de neurones, et là, ce qu'on disait dès le début des réseaux de neurones, cette fameuse boîte noire. Les LRH, en fait, un peu comme GERG et DPR sont dans son temps, si on faisait la statistique proprement, si on faisait les modèles proprement, il n'y a rien d'exceptionnel, en fait. Ce qu'on explique, c'est juste, pour être compliant avec les LRH, c'est juste de dire, en gros, on suit des protocoles qui ont été utilisés depuis des années et des années. C'est-à-dire qu'on a un besoin de maîtriser ce qu'on fait, d'explicabilité. Je pense que ça serait ça, le vrai défi des LLM, c'est l'explicabilité. Honnêtement, il y a excessivement de surprises quand on regarde dedans. Comme les actes, les sorties, au moment où vous allez les sortir, il y a eu en effet toute cette vague de chat GPT qui arrive au même moment. Ils n'ont pas pour rajouter l'article 50 pour le GPI, comme tu l'as justement dit, Raina. Et voilà, mais fondamentalement, il n'y a rien d'exceptionnel. Je veux dire que je tiens à rassurer les personnes qui... écoute, tu peux avoir peur de réacte, si vous avez de l'IA en interne, à ton niveau de complexité, et que vous avez fait les choses un minimum proprement, vous allez être compliant. On parlait de risque crédit, le risque crédit, si on a en capacité d'expliquer pourquoi le modèle dit oui ou non, on log ça, on conserve les informations, on sait quels sont les paramètres, les impacts, le résultat, et qu'on le donne, enfin qu'on peut expliquer, on est bon. Si on n'utilise pas des données considérées non éthiques, alors je vais prendre les exemples des Américains, parce qu'il y a toujours plein d'exemples à prendre chez eux, c'est très fun. Tout à l'heure, je parlais justement des crédits. Eux, ça fait très longtemps qu'ils font du scoring crédit, QIFAC, si j'en passe, et ce qu'ils se rendent compte, c'est que les populations nord-américaines avaient des... des taux un peu plus élevés. Pourquoi ? Parce que le modèle prenait en compte le fait qu'ils étaient noirs et donc du coup forcément ils avaient un taux plus élevé, donc ça impactait directement leur vie, etc.

  • Speaker #1

    Et voilà,

  • Speaker #0

    donc ça, heureusement ou malheureusement, c'est un autre débat, on n'a pas le droit d'avoir ces données-là en Europe, mais techniquement, si on a tout ça, l'EAAC ne va pas faire mal. L'EAAC va faire un mal parce que justement, on utilise des modèles qui sont très complexes, de plus en plus complexes, et qu'on n'a jamais pensé dès le début sur comment réellement les monitorer, les comprendre. Et c'est ça le vrai point, et ça va être ça pour moi, l'évolution. ou la tension régulatoire de la GNI. Soit ils vont arriver à expliquer, de dire on est en capacité d'expliquer pourquoi la réponse a donné ça, soit il va y avoir une limitation sur son utilisation, soit tout simplement il va y avoir une tension au niveau régulatoire de comment est-ce qu'on va devoir évoluer les choses si on veut l'étendre à d'autres périmètres plus critiques.

  • Speaker #1

    Juste petit point, perso j'ai hâte de dire... ce qui va être OK, ce qui ne va pas être OK, parce qu'en fait, à vrai dire, aujourd'hui, on n'en sait rien. En fait, pourquoi je dis ça ? C'est parce que je me suis rendue compte que souvent, surtout quand, tu sais, on a cette aura, comme Nico tout à l'heure me présentait comme quelqu'un qui connaît les sujets, en fait, je me suis rendue compte que les gens utilisent souvent des choses que toi et moi, on peut dire de manière un peu raccourcie, un peu rapide. comme un outil de la décision. Et du coup, tu te dis, oh mince, non, non, mais moi, je pensais à autre chose. Et en fait, c'est pour ça que je suis très précautionneuse sur la manière de formuler les choses. Mais voilà, tu as raison, on a un vrai sujet sur l'explicabilité. Et ce sujet, en fait, va nous occuper pendant très longtemps. je laisse, parce qu'on a encore ça fait un moment qu'on discute, je laisse en fait mamie et papy et tout le monde avec deux sujets ouverts. Le premier ça va être les en fait qu'est-ce que c'est l'explicabilité des algorithmes, tu vois parce que en fait s'il suffisait d'ouvrir le code d'un algorithme ça fait longtemps en fait qu'on aurait réglé plein de questions. mais en fait, ce n'est pas aussi simple, voire simpliste que ça. Donc, on va voir ce qui m'amène à l'autre question, qui est celle de l'expertise, y compris de l'expertise technique, qui est en fait quelque chose sur lequel on doit être extrêmement vigilant, et donc à ne pas, parce que dans les discussions sur la gouvernance de l'IA en général, on a une très grande tendance à faire comme si la couche technique n'existait pas. Alors que là, pour le coup, en termes de couche technique, ça douille intellectuellement.

  • Speaker #3

    Elle s'impose. Oui,

  • Speaker #1

    elle est très importante. Elle est vraiment significative. Et on n'est pas si nombreux que ça à comprenez grand-chose au sujet. Donc, on a vraiment cet aspect-là qui va très rapidement devenir très sensible. Pourquoi ? Parce qu'en fait, on a de moins en moins de gens qui comprennent ces sujets-là, qui sont capables d'intervenir là-dessus, techniquement j'entends, et qui se font quand même pas mal braconner par des boîtes, notamment américaines, qui payent des salaires que nous en Europe, on ne peut pas se permettre. Et donc on va se retrouver aussi rapidement, parce que là, c'est ce que disaient typiquement des gens côté bureau de l'IA à la commission, c'est que Et pourtant, la commission, elle ne paye pas le SMIC. Elle paye de très bons salaires. Et même eux avaient du mal à attirer des experts techniques pour le bureau de l'IA. Donc, c'est un sujet qui, en tant que professionnel, nous concerne de plein fouet. Parce qu'en fait, on parle aussi de nos futurs collègues ou des collègues qu'on n'aura pas, mais aussi de tout l'investissement. qu'on devra faire en tant que professionnel, chef d'entreprise ou autre, dans la montée en compétences techniques de nos collaborateurs et collaboratrices sur ces sujets-là. Parce qu'on peut se raconter après tout ce qu'on veut sur le réglementaire. Quelqu'un doit faire ses analyses de risque, doit s'assurer que ce qu'on dit, c'est ce qu'on fait.

  • Speaker #0

    Et ça, à part de la magie, tu vois, sacrifier des poulets les nuits de pleine lune, faire du voodoo, il n'y a pas 30 000 façons de le faire. Il faut apprendre à faire. Donc, je laisse le sujet ouvert comme ça. Je pense que ça va remuer pas mal chez nos auditeurs et auditrices.

  • Speaker #1

    Exactement. Je pense que tu as résumé finalement un petit peu le mot de la fin. Si on résume finalement, c'est que, tu l'as dit d'une certaine manière, enfin vous l'avez dit, c'est une technologie. C'est comme toutes les technologies, il faut la maîtriser. Comme le feu, à un moment donné, il a fallu qu'on le maîtrise. Et c'est intimement lié avec le fait effectivement de vouloir protéger nos sociétés, de donner un sens aussi à ce qu'on veut faire. et donner des limitations justement pour faire en sorte que la technologie nous serve plutôt que nous desserve. Et je pense que c'est un petit peu la conclusion qu'on peut apporter à cette discussion. En tout cas, j'étais très heureux de vous avoir dans cet épisode de la cybersécurité expliquée à ma grand-mère. J'espère que cet épisode va éclairer bon nombre d'éditeurs et certainement aussi leur poser un certain nombre de questions. Et c'est là aussi pour ça. En tout cas, ma grand-mère me fait un gros bisou. Elle me dit que finalement, sa bouillarde pour faire le thé, par rapport à Tchad GPT, ça va encore. Il y a de la marge de manœuvre. Et puis, je te dis qu'elle va se mettre au vélo aussi pour générer de l'électricité, pour compenser son bilan carbone. Donc voilà, tout va bien. Elle a pris en considération tous les problématiques écologiques de l'utilisation de Tchad GPT. Encore un grand merci à vous. Et comme je le dis très souvent, pour certains, la cybersécurité est un enjeu du vieux de mort. C'est bien plus sérieux que ça.

Description

Avec Rayna STAMBOLIYSKA ( https://tech-est-politique.eu ) et Frantz ZIZZARI (Frantz Zizzari | LinkedIn).


Rayna et Frantz abordent la nécessité d'une réglementation pour encadrer l'utilisation de l'IA, en soulignant l'importance de la transparence et de la responsabilité des entreprises.

Ils évoquent également les défis liés à l'explicabilité des algorithmes et à la consommation énergétique de ces technologies.

Le débat met en lumière les différences culturelles entre l'Europe et les États-Unis en matière de réglementation, ainsi que les préoccupations éthiques et environnementales associées à l'IA.




Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour mamie, j'ai ramené un copain. Bonjour et bienvenue dans la cybersécurité expliquée à ma grand-mère, le podcast pour expliquer la cybersécurité à ceux qui ne comprennent rien. Il y a quelques temps, on avait fait un numéro spécial avec Nicolas Ruff, que je salue au passage, sur l'IA. Et j'avais envie de refaire un petit update sur ce sujet, parce qu'entre-temps, beaucoup de choses ont changé. On va parler de Tchadjepété, évidemment, mais il n'y a pas que ça qui a bouleversé, je pense, le monde de l'informatique dans les 12 derniers mois. Il y a aussi des éléments réglementaires qui sont assez importants. Et je pense que c'est le bon moment, finalement, de se retourner... quelques instants et puis de regarder l'évolution de ces technologies et de se poser un certain nombre de questions sur l'avenir de tout ça et surtout sur l'avenir en termes réglementaires parce que comme vous le savez en Europe c'est important, on aime réglementer les choses et c'est plutôt important parce qu'on a vu ce qu'elle s'est donné avec RGPD, c'est plutôt une grande fierté maintenant en Europe d'avoir ce type de réglementation que les Américains nous envient. C'était d'ailleurs... un peu la conclusion de Thierry Breton lors du dernier FIC, qui expliquait qu'en discutant avec ses homologues américains, il avait félicité pour réaliser quelque chose qu'eux-mêmes n'avaient pas réussi à faire. Et pour animer cette émission, j'ai deux personnes qui vont pouvoir nous éclairer et nous donner leur avis sur tout ça. Commençons par les dames. quelqu'un qui est déjà connu dans ce podcast, que ma grand-mère connaît déjà, Raina, qui est celle qui anime, entre autres, parce qu'elle a beaucoup d'activités, un blog qui s'appelle La Tech et Politique. Je vous conseille de lire ce qu'elle fait sur LinkedIn, entre autres. Mais il y a tout un ensemble de textes assez intéressants qui permettent de mieux comprendre le contexte réglementaire. et ces textes sont relativement faciles à repérer parce que souvent ils ont des titres on a l'impression que c'est des titres de romans de polars je suis sûr qu'un jour elle va sortir un titre du style le petit friseux et des lardons ou quelque chose comme ça enfin voilà Raina, bienvenue est-ce que tu peux te présenter rapidement et expliquer qui tu es et ce que tu fais merci Nicolas pour l'accueil et pour la présentation qui fait super envie

  • Speaker #1

    de mes écrits. Je m'appelle Arina et je fais du conseil. J'ai ma société de conseil qui s'appelle ARS Stratégie. J'interviens sur des sujets qui concernent notamment la protection de ce qui crée de la valeur au sein des organisations. C'est le volet cyber. Et aussi sur le volet de dans quel monde on évolue. Et ça, c'est le volet réglementaire. et en fait c'est aussi l'objectif de la Techie politique et d'autres offres que j'ai qui sont d'éduquer avant tout les gens qui prennent des décisions, qui créent des produits, qui créent des services, qui créent de la valeur à travers le numérique autour de ces sujets-là du réglementaire. Parce qu'au-delà d'une compte-rente, c'est surtout une opportunité et aussi une façon de faire société numérique.

  • Speaker #0

    D'accord, très bien, merci. Et à nouveau, que ma grand-mère ne connaît pas encore, France, que j'ai eu l'occasion de rencontrer au mois de juillet cet été. Et le discours qui tenait sur l'IM a beaucoup plu parce que ce n'était pas du tout le discours habituel qu'on entendait. C'est un peu à l'inverse des sales qui te vendent tout et n'importe quoi. C'était un discours qui était beaucoup plus réaliste et qui avait un sens assez profond sur l'IA. C'est pour ça qu'il a heureusement accepté mon invitation et je le remercie. Donc, Franz, est-ce que tu veux bien te présenter et nous expliquer ce que tu fais ?

  • Speaker #2

    Bonjour, merci de l'applaudir. Surtout que j'ai été sales dans ce métier. Donc moi je suis Franz Zary, je suis actuellement le lead AI, là où on travaille ensemble. Et avant ça justement, j'ai travaillé pour des boîtes de conseils, où je vendais justement toute cette partie de traitement de données et d'intelligence artificielle. Je n'ai pas commencé comme ça. Je suis économètre, j'ai fait moi-même les petits systèmes, j'ai moi-même éprouvé tous les petits problèmes par rapport à tous les beaux sujets théoriques, comme quoi à chaque fois, il y a un résoutout. Et on se rend compte que ce n'est pas aussi simple que ça, il y a toujours des problèmes de base, la fameuse donnée. Donc voilà, tout simplement, avec grand plaisir que je puisse te voir et voir ta grand-mère évidemment.

  • Speaker #0

    Ah bah écoute, elle est ravie, elle est ravie ! Elle piave d'impatience justement de pouvoir un petit peu mieux comprendre tout ça. Et j'ai envie de commencer par une première question déjà, c'est une petite rétrospective sur l'IA. Et donc Franz, est-ce que tu peux un petit peu nous expliquer quid de l'IA aujourd'hui dans les entreprises ? Parce que comme tu l'as signalé, effectivement on travaille tous les deux dans le monde de la finance. Alors justement, aujourd'hui l'IA dans les entreprises... C'est quoi ? Ça sert à quoi ? Qu'est-ce qu'on peut faire avec ? Est-ce que ça s'est vraiment adapté ou pas ? Enfin voilà, donne-nous un petit peu ta vision des choses.

  • Speaker #2

    Alors je pense que déjà, il faut peut-être se poser la question qu'est-ce que c'est vraiment l'IA ? Parce qu'on en parle beaucoup en ce moment, l'intelligence artificielle, c'est des robots qui réfléchissent. Avant tout, l'IA, il n'y a rien de réellement intelligent, je n'ai pas cité Luc Julia, qui n'existe pas. C'est avant tout de base des systèmes qui imitent un comportement humain. Et ça, en fait, quand on réfléchit à ces définitions, c'est loin de nouveau en fait. Ça existe depuis au moins 100 ans, je dirais. Même les premiers, même dans l'histoire de l'IA, on prend tout ce qui a parti d'Alan Turing dans les années 50. Par contre, quand on pense maintenant IA, je vais pouvoir répondre à ta question avec ça, c'est tout ce qui arrive sur la partie machine learning et plus loin le deep learning. Rapidement, qu'est-ce que c'est le machine learning ? C'est le fait que justement, il y a un modèle mathématique, rien de foufou au final, qui permet de prendre des décisions, ou plutôt donner un résultat avec des entrées, et que lui va calculer ce qu'on appelle des paramètres. des variables. C'est-à-dire, finalement, pour prendre la décision attendue, ces données ont plus d'intérêt ou pas. Si on résume, la majorité des IA, et même le LLM actuellement, le CHPT, viennent de ça. Et donc, quand on regarde ça, on se rend compte qu'il y a beaucoup de choses qui existent déjà dans... dans l'entreprise et je dirais même dans l'industrie, l'industrie est souvent plus précieuse. Je dirais qu'il y a deux secteurs, donc il y a l'industrie et il y a toute la partie crypto, enfin pas cryptocurrency en ce temps, cryptologie. Je citais Alan Turing qui est connu et on sait ce qu'il a fait notamment avec MachineGym. Pour décrypter MachineGym, finalement c'était de l'IA, avant qu'on l'appelle comme ça. Si on regarde, moi j'aime bien parler beaucoup plus d'industrie, parce que dans l'industrie, ils ont fait pas mal de choses. Donc typiquement, ils utilisaient l'IA dans l'industrie pour optimiser toutes les lignes de production, parce que derrière, on veut réduire à fond les coûts. Et donc, ils mettent en place plein de petits systèmes, alors plus ou moins intelligents, on pourrait dire. Mais typiquement, si on va sur une...... Les entreprises de recyclage, ce ne sont pas des gens qui font à la main. Il y a des machines qui détectent, par exemple, si c'est du plastique, ou autre chose, et qui y trient. Ça, c'est l'IA, tout simplement. Toutes ces choses-là. Il y a beaucoup d'usées pour tout ce qui est dans la chaîne d'approvisionnement, typiquement. Donc, de dire, en gros, d'automatiser toutes ces choses-là, d'éviter qu'il y ait un humain, parce que ce sont des choses qui sont très, je ne vais pas dire simples, mais prévisibles. Beaucoup de choses aussi, tout ce qui est dans la maintenance prédictive, ça c'est très très fun pour le coup. Typiquement, quand on vient sur l'industrie, l'un des points c'est toujours les coûts. Donc quand on dit qu'une pièce a une date de péremption... On peut remettre en question tout simplement, une pièce à une date de péremption a plutôt un nombre de consommations et donc typiquement il y a des modèles d'IA qui étaient déjà mises à plus longtemps pour dire comment est-ce qu'on peut maintenir cette pièce le plus longtemps possible. Et puis toute la partie qualité, contrôle, parler notamment justement des chaînes pour faire le triage, typiquement il y a la même chose avec détection. Et puis même, on peut remonter beaucoup de loin. Tous ces systèmes-là existent depuis très très longtemps. Je vous fais une aparté, mais on parle des voitures autonomes maintenant. Je me rappelle, moi, en première, je ne suis pas bien vieux, mais ça fait quand même déjà 20 ans, plus de 20 ans même d'ailleurs, mon Dieu. Et déjà en première, il y a déjà des gens qui avaient l'école des mines, qui avaient automatisé, c'était les grosses Renault familiales. Donc ça, l'industrie est souvent très prionnaire. Je sais qu'on a aussi beaucoup vu dernièrement dans les entrepôts d'Amazon, avec le petit robot qui porte les colis et autres. Voilà, eux, ils sont souvent beaucoup plus à la pointe. Maintenant, l'industrie du service, c'est différent. Dans l'industrie du service, je dirais qu'il y a eu beaucoup de choses qui ont été testées, beaucoup de choses qui ont échoué, typiquement dans tout ce qui est la santé. Si on se rappelle, on en parlera plus tard sur les limitations et autres, avec IBM Watson qui pouvait prédire justement les cancers et des trucs comme ça. C'était un flop total. D'ailleurs, la valeur a chuté et ils ont revendu ça pas très cher au final. Certaines quantités, mais pas très cher par rapport à l'investissement. C'est là où il y a quelques limitations. Par contre, dans beaucoup de systèmes, on travaille dans une banque typiquement, il y a beaucoup de systèmes qu'il y a dedans. Typiquement, les moteurs de crédit, finalement, c'est des éditions basées sur du risque. Et qu'est-ce que c'est du risque ? C'est un calcul de probabilité. Autrement dit, ce ne sont que des modèles d'intelligence artificielle, c'est juste qu'on ne les appelle pas comme ça. Et donc ça, il y a pas mal de petites choses qui font la vie de tous les jours. Ce qui d'ailleurs, je pense aussi, a été la genèse de pourquoi les AI actent tout simplement. Il y a plein de petites choses qui nous impactent directement ou indirectement. avec plus ou moins de forte, on va dire, plus ou moins de criticité. Je parlais du crédit, typiquement si le modèle mathématique derrière décide pour certains critères de ne pas accorder un crédit ou de donner des taux plus élevés, ce qui se passe aux Etats-Unis d'ailleurs, ce qui s'est passé aux Etats-Unis. ça peut impacter la vie. Donc dans l'industrie, enfin pardon, dans l'entreprise, dans le monde de l'entreprise, je pense qu'il y a toujours la vision très pragmatique et très avancée au niveau de l'industrie, avec les lignes de production, tous ces colis et ces choses-là. Et eux, ils cherchent vraiment la rentabilité de ce que l'IA va apporter. Et le service qui va juste amener des services plus ou moins plus ou moins complexe. Je pourrais parler comment déjà il y a de ça 10 ans, 15 ans, une bonne dizaine d'années pendant, où déjà pour faire du ciblage de clients, on mettait en place des petits moteurs qui permettaient de déterminer ce client-là, il a une appétence à ce produit. On parle de ça il y a 10 ans et à l'époque déjà on ne comprenait pas, ce n'est pas normal. C'est un peu comme ça. Ça ne peut pas être une machine qui dit ça. C'est pas une intelligence la machine. En fond, ils ont raison. Mais ces trucs-là sont loin d'être nouveaux. C'est juste la méthode et la puissance de calcul qui augmentent, je dirais, et qui rend les choses plus fortes.

  • Speaker #0

    Justement, tu viens de décrire assez rapidement, en quelques minutes, l'évolution de l'IA depuis l'industrie, les différents cas d'usage que tu as cités. Une question qui est assez importante, je pense, c'est de comprendre aussi un peu les limitations de tout ça. C'est-à-dire qu'il peut y avoir des cas d'usage dans l'industrie, dans la finance, un petit peu partout, avec des risques plus ou moins élevés. Par exemple, l'IA qui regarde le code postal sur une carte postale pour déterminer où il doit l'envoyer, s'il y a une erreur, ça peut... La lettre va peut-être mettre un petit peu plus de temps pour arriver, mais l'impact est quand même relativement faible. En revanche, l'exemple du crédit que tu as donné est quand même assez significatif. Il doit y avoir aussi une responsabilité de la part des entreprises pour pouvoir, dans certains cas, démontrer certaines choses. Un autre élément sur lequel tu as cité un petit peu à la fin de ton explication, c'est la puissance de calcul, qui peut être aussi un facteur limitant et qui peut devenir un enjeu géostratégique. puisque l'une des problématiques qu'on peut avoir aujourd'hui, si on veut faire de l'IA, c'est qu'il faut avoir des GPU, pour les neuf-fites, ce sont des puces qui sont dédiées à du calcul, il en faut beaucoup. Et donc du coup, ça devient une grande erreur, et ça devient même quelque chose de stratégique, puisque les États-Unis ont imposé un certain nombre de restrictions sur l'exportation de certains GPU, pour garder une forme de... d'avance technologique sur le reste du monde. C'est une petite note de bas de page. Justement, sur la partie limitation, est-ce que tu pourrais donner un peu plus d'informations, que ce soit des limitations un peu structurelles, des limitations en cas de visage, c'est-à-dire est-ce qu'on peut utiliser de l'IA dans tous les cas, ou alors dans certains cas, on est obligé de démontrer certaines choses et donc par conséquent, certains types d'IA ne sont pas utilisables, parce qu'elles utilisent trop, par exemple, d'éléments aléatoires. Tu pourrais nous donner ton point de vue là-dessus et nous donner cette limitation sur l'usage de l'IA aujourd'hui ?

  • Speaker #2

    Je pense qu'il y a plusieurs points, si on résume, on a trois gros blocs, je vais me faire un peu de tête. En effet, toute la partie modèle, les mathématiques derrière, il y a toute une partie physique, et il y a toute une partie, je dirais aussi, politique, et géopolitique, je crois qu'on y ira tout à l'heure. Alors, première, on va parler des modèles, et pareil, tout à l'heure, je parlais de Luc Julia. Si personne ne connaît, j'invite à connaître. Petit aparté, c'est le co-créateur de Siri, un français vachement intéressant comme Gaïa. Et il a écrit un bouquin sur le fait que l'IA n'existe pas. Et pourquoi ? Parce qu'il dit que de toute façon, la définition est erronée. Parce que tout est basé sur des algorithmes et des statistiques. Et donc ce n'est pas une intelligence comme l'humain. Et je dis ça parce que derrière, en fait, il y a finalement, du moins les moteurs, c'est des spécialités. C'est-à-dire qu'en gros, les outils, cette limitation qu'ils ont, c'est qu'ils sont très bon dans une chose. Et ils ne sont pas aussi, peut-être, versatiles, je dirais, qu'à l'être humain, d'être en capacité de faire plusieurs choses. On reviendra, c'est un peu le mythe du fameux modèle monde, mais l'IA a cette limitation. Elle est bonne dans une chose. Et alors on peut en parler de différents types, mais par exemple, on a tous été, enfin je me rappelle, moi j'aime bien les échecs par exemple, je me rappelle très bien de Gaspard Hoff, on parle de ça en 97 si je ne dis pas de bêtises, qui a été battu par une... machine pas impressionnant apparemment oui mais sauf que machine qui a fait ça a dit blue elle sait pas faire autre chose c'est juste vraiment pas faire autre chose on peut aller plus loin pour le jeu de go qui est arrivé avec alpha go 2006 je crois que c'est dans ces eaux là ou pareil plus impressionnant parce que c'est plus intuitif pareil la machine ne sait pas faire autre chose que ça Donc, la limitation, c'est qu'on a toujours cette vision de l'IA, je dirais, à Terminator ou je ne sais pas quoi, où en gros, elle est capable de se mentir. Et alors,

  • Speaker #0

    en plus, de tête, je faisais référence au Go, donc c'était lui, Sidol, je ne sais pas son nom, qui était champion du monde. Et quand il a perdu, justement, contre AlphaGo, il a fait une déclaration en disant que ce n'est pas lui qui avait perdu, c'était l'humanité tout entière. Ce qui donne, entre guillemets, un poids, quand même, à l'impact sur l'IA. Et d'ailleurs, j'ai ma petite théorie quand même dessus, c'est que Terminator a, d'une certaine manière, bridé toute une génération contre l'IA, parce que justement, tout le monde a vu Terminator avec une intelligence artificielle qui allait tuer beaucoup de monde, alors que finalement, pour la même génération dans d'autres pays, par exemple en Asie...

  • Speaker #1

    Ben oui, j'y vais.

  • Speaker #2

    Ça, c'est à côté. J'écoute la presse, j'ai même deux politiques. J'attends beaucoup de cette conférence de presse.

  • Speaker #0

    Ils sont beaucoup plus ouverts à la technologie et au fait d'enclin à utiliser l'intelligence artificielle, un peu moins la Terminator. Raina, tu voulais prendre la parole ?

  • Speaker #1

    Oui, c'est en fait... C'est toujours un peu compliqué d'apprécier l'impact d'œuvres de fiction, surtout dystopiques, surtout très négatives, comme ça, sur la psyché des gens. Parce qu'en fait, il faut aussi contextualiser à quel moment ce dont on parle, Kasparov, etc., s'est passé. C'était assez spectaculaire en termes de réalisation, parce qu'à l'époque, il y a plus de dix ans, on n'avait pas du tout une généralisation de ce genre de système, notamment avec une barrière à l'accès aussi ridiculement basse qu'on l'a aujourd'hui. Donc effectivement, le contraste était saisissant, et en fait, ce qu'on oublie de dire quand on parle de ça, c'est la... quantité de fois où en fait le système d'IA s'est entraîné sur les différentes stratégies pour gagner. Tu vois ce que je veux dire ? Et donc tu te retrouves avec un nombre d'entraînements qui est humainement impossible à faire, mais qui si on est cynique ou en tout cas pragmatique, si un humain pouvait s'entraîner autant de fois et apprendre de ces entraînements de la même manière qu'une IA, qu'un système d'IA de ce genre-là, il aurait un taux de réussite très important. Et après, tu as aussi un sujet qui, moi, m'interpelle toujours beaucoup quand on évoque des œuvres de fiction qui souvent poussent le... très loin grossissent le trait de façon particulière. Et ça, c'est le point de vue de quelqu'un qui fait beaucoup d'études de prospective stratégique et des choses comme ça. C'est en fait, quand on fait de la prospective, ce qu'on projette, ce sont des scénarios plausibles. Je ne dis pas possibles, je dis plausibles. Donc, quelque chose qui a des... qui pourrait se réaliser. Et en fait, souvent, on... on a tendance à faire des choses qui sont soit le best case, soit le cas idéal. C'est le truc que je désire le plus, le parfait. Soit le truc qui me fait le plus peur, le pire cas. Et les dystopies, c'est le pire cas. Sauf qu'en fait, quand tu réfléchis à ça, ces deux cas extrêmes présentent très peu d'intérêt parce que personne n'a de leçons à tirer. du paradis, où tout est lisse, où tout est parfait, et personne ne veut aller en enfer. C'est là où c'est le pire cas. Donc en fait, c'est toujours très particulier d'utiliser des cas extrêmes comme ça pour tirer des leçons, parce qu'en fait, c'est soit le cas idéal, donc personne n'a envie d'en sortir et qu'on est en gros tétanisé par l'impossibilité d'y parvenir. Soit c'est tellement atroce qu'on ne veut pas y aller. Mais en fait, l'apprentissage, les leçons qu'on apprend et là où on avance, c'est à partir de situations nuancées. Et donc, c'est là où, en fait, convoquer des... Comment dire ? des situations, des cas, des scénarios, des choses comme ça où le trait est exagéré n'est pas nécessairement la meilleure idée parce qu'on est très rapidement cantonné dans très peu de nuances où il y a en fait très peu de choses qui prêtent à la vraie réflexion et qui prêtent en fait, qui laissent la liberté d'imaginer, d'anticiper, voire même d'avoir un sentiment de peur. pouvoir intervenir. Parce qu'en fait, quand quelque chose est soit tellement bien ou tellement atroce, il y a aussi l'humain qui fait moi je ne peux pas, c'est trop, c'est trop pour moi Il y a aussi un côté où on te remet dans un attentisme qui est très problématique parce que finalement, tu abandonnes ta capacité d'agir. Et ça, on le voit aujourd'hui notamment. Tu vois, c'est... Je l'ai vu dans les discussions que je peux avoir dans le cadre de conférences de sensibilisation ou autre, où tu as beaucoup de gens pour qui chat GPT, par exemple, c'est de la magie. Et en fait, on leur rabâche les oreilles à longueur de journée qui vont se faire grand remplacer par ces systèmes-là et qui sont totalement démunis. et qui vivent dans une peur et dans une fatalité, qui ne sont pas ce qu'on veut de ces gens-là, et qui en gros attendent, qui sont tétanisés, qui attendent au final de perdre leur travail, etc. Je ne dis pas qu'il n'y a pas de risque, je dis que ça enlève toute capacité de se rencontrer, d'échanger, de s'écouter et de construire aussi à partir des mésententes, à partir du débat.

  • Speaker #0

    Mais je sais que Franz voulait... Oui, Franz, je vais donner la feuille d'un parle dans quelques secondes. Ce que tu dis, c'est marrant, mais quand tu t'es expliqué ça, je pensais à un philosophe, Schopenhauer. Et Schopenhauer disait finalement l'existence aussi entre l'ennui et la douleur. Alors pour lui, il n'y avait que deux extrêmes. Donc toi, tu prends le paradis et l'enfer, mais à peu de choses près, on y est. Et quelque chose d'intéressant aussi, c'est la peur de la technologie parce qu'on n'a pas la connaissance entre guillemets. Pour beaucoup de gens, c'est simplement magique. Mais simplement magique, c'est quand même un tour de magie. Mais une fois qu'on l'a compris, ça démythifie un peu forcément le propos.

  • Speaker #3

    Apparemment, McDonald's se serait lancé dans l'intelligence artificielle. Ah, très bien ! Ils proposent des menus personnalisés aux clients selon le temps qu'ils font, l'heure, les préférences qu'ils ont... Ben oui, ils ciblent quoi ! Ah oui, oui, oui, oui, en fonction de la personnalité du client. Oui, mais ça, économiquement, moi j'ai lu des trucs, de toute façon, l'intelligence artificielle, tu peux plus faire ça, hein, c'est l'avenir ! Ah ben oui,

  • Speaker #2

    c'est sûr !

  • Speaker #3

    Ça me donne envie de manger McDonald's. Mais de toute façon, cette boîte, c'est terrible. T'en parles, hop, t'as envie de manger, on croque dedans. On se fait une commande. Oh, chiche. Comme des ados, là. Hop, c'est parti. On va voir, hein. On va voir s'ils sont intelligents. Je me connais. Paf. C'est bon, hein. C'est parti.

  • Speaker #2

    Bonjour, Catherine. Toujours aussi élégante.

  • Speaker #3

    Oh ben dis donc, mais comme c'est bien, bien truqué ! Ah ben c'est tout moi, ils savent, c'est incroyable ! Bonjour, alors je voudrais 4 nuggets, un petit hamburger, des frites, petites, et une badoit.

  • Speaker #2

    Très bon choix Catherine,

  • Speaker #0

    vous ne changez pas vos habitudes,

  • Speaker #2

    vous êtes formidable !

  • Speaker #3

    Ah, merci, même fait du grain ! Je vois le truc, quoi, pour que je commande plus. Je vais lui faire plaisir. Alors, Edouard ? Je suis proche d'une glace.

  • Speaker #0

    Catherine, tu es une petite gourmande.

  • Speaker #3

    Ah ben ! Ha ha ha !

  • Speaker #2

    Gourmande !

  • Speaker #3

    Ha ha ha, oui ! Bon, stop ! Moi, toi, moi !

  • Speaker #0

    Et alors, juste dans la dystopie, pour continuer un petit peu sur ce sujet... D'une certaine manière aussi, ce que tu disais, c'était un peu la réduction des interactions avec les autres, la réduction du débat. Et c'est un peu ce qu'on a dans 1984, puisque quand on explique qu'on veut réduire le langage à ses plus simples expressions, c'est uniquement pour réduire justement la capacité d'explorer et de réfléchir, ce qui est une thèse ensuite reprise par Wittgenstein, puisqu'il disait ma langue est mon domaine c'est-à-dire que je ne peux pas… aller au-delà de ce que je peux décrire. C'est exactement cette idée de réduire finalement son champ d'activité et par conséquent finalement sa capacité à comprendre le monde et sa vision des choses. Donc Franz, tu voulais rebondir sur ce que disait Raina ?

  • Speaker #2

    Ah bah oui, je pense que c'est vrai que là on parle évidemment de chat GPT parce que c'est le sujet du moment. Alors attention, les transformeurs GPT c'est ça, le T c'est... transformeurs pas les petits robots c'est bon dès maintenant derrière mais donc c'est pas nouveau déjà ça a quand même déjà quatre ans le gpt 3 cela s'arrivait 2020 en 2022 par an c'était c'était encore mais c'est juste que ce qui est impressionnant avec avec ça c'est que ben on peut parler voilà On tape quelque chose et bon Dieu, on nous répond. Et ça semble vraisemblable. C'est le terme qu'il a. C'est vraisemblable. Et d'ailleurs, je parlais de Turing avec le fameux test IF, à savoir si on pouvait se faire tromper. Voilà, c'est ça. ça fonctionne très bien. Donc oui, c'est impressionnant. C'est impressionnant. Mathématiquement, c'est impressionnant aussi. On part sur des réseaux de neurones avec des milliards et des milliards de paramètres. C'est impressionnant. Ce n'est pas de la magie. Je ne suis absolument pas pour ça. mais je peux comprendre que n'importe qui peut se faire flouer. Et ça, on arrive quand même sur une nouvelle vague, parce que justement, on parlait des IA qui font les jeux vidéo, qui sont dans les jeux vidéo, ou simplement, enfin des jeux d'échecs et autres, et là on arrive à quelque chose où, quand je pose une question,

  • Speaker #0

    En face, une machine me répond avec toute l'intelligence qu'on lui a mise, avec tout ce qu'on lui a donné.

  • Speaker #1

    On se retrouve avec un élément assez particulier, c'est qu'il faut comprendre que les réponses de Tchadjepeté sont en réalité une réponse moyenne. D'ailleurs, on en discutait la dernière fois, justement, de ce fameux auteur de science-fiction, qui disait, si je veux savoir ce que je dois écrire, je demande à Tchadjepété de me faire l'histoire, et je vais exactement écrire l'inverse. ou quelque chose de totalement différent parce que JDPT va me donner l'histoire moyenne d'une intrigue moyenne et il faut s'en écarter. Donc d'une certaine manière ça aide à s'améliorer parce que ça permet de voir quelle est la réponse moyenne et donc d'avoir l'opportunité de faire un peu différemment. Juste pour revenir un tout petit peu sur ce qui a été dit au niveau de l'IA, sur la vraisemblance, donc effectivement les gens aujourd'hui ont le sentiment d'être compris par la machine, bien que ce sentiment de compréhension est quand même un peu discutable, est-ce qu'elle comprend vraiment ou pas, c'est une question presque philosophique. Mais justement, est-ce que ça ne fait pas partie des limites qu'on peut commencer à avoir avec les IA et aussi une forme de danger ? Je pense qu'on va développer ce thème un petit peu plus tard. au niveau de la réglementation. Mais de votre point de vue, est-ce que cette évolution de l'IA, je le rappelle, pour reprendre les propos de Franz au début, c'était plutôt quelque chose d'assez industriel. On ne pouvait pas forcément se laisser avoir. C'était plutôt du très structurel, très technique, alors que maintenant, l'IA commence à s'infiltrer un peu partout. On a de plus en plus de mal à faire la différence entre ce qui est réel de ce qui l'est moins, avec tous les problèmes évidemment de désinformation possible et imaginable, mais aussi il peut y avoir une certaine influence de l'IA dans les décisions prises. Et ça c'est quelque chose d'assez important dans notre société, puisqu'est-ce qu'on peut laisser une IA prendre des décisions importantes ou pas, jusqu'à quel niveau ? c'est un peu le thème aussi que j'ai envie de discuter avec vous dans cet épisode Raina, France honneur aux dames,

  • Speaker #2

    Raina il y a plein de choses en fait si tu veux dans cette approche, la première c'est un constat on va dire général qui est que l'accès à des technologies puissantes, si tu veux, aujourd'hui, est possible avec un coût d'entrée qui est risible. Je veux dire, je ne parle pas de coût d'entrée financier nécessairement. Et en fait, je me souviens d'un groupe de chercheurs danois qui, en fait, avait parlé de démocratisation de la destruction. En fait, ils ont parlé de la destruction Ce qui, pour eux, en associant ces termes-là, en fait, ce qu'ils font, c'est souligner que la prolifération de technologies, notamment émergentes, telles que les systèmes d'IA, de technologies diverses, en fait, change la donne. Et cette prolifération permet à des acteurs très divers et à des groupes très petits, et même à des individus, d'exercer, en fait, et de projeter un... pouvoir pour faire des choses que seules les éternations pouvaient faire avant. Ce qui fait aujourd'hui qu'on se retrouve avec notamment, par exemple, de la désinformation à grande échelle à travers des images très ficotées, tu vois, avec pas mal de choses de ce genre-là, avec des influenceuses Instagram, Instagram, complètement créé avec de l'IA générative et des choses comme ça, et donc qui crée aussi un effet financier. Et en fait, quand on parle de ça, quand on parle de comment je peux faire ça, on a une notion de barrière à l'utilisation qui est importante de comprendre, c'est qu'on a... trois types, si on veut, de seuil de compétences. Le premier, c'est un seuil de capacité cognitive de comprendre ce que fait un outil. Chat GPT, il fait quoi ? Je lui pose une question, il me donne une réponse. C'est très simple. Le deuxième seuil de capacité, c'est celle qui est d'accéder à l'information et comprendre comment l'outil fonctionne. Ça ne veut pas nécessairement dire comprendre comment on fait un LLM, comment on fait de l'entraînement et des choses comme ça. Ça veut dire comment est-ce que je peux me créer un compte sur Chat GPT et comment je fais un prompt. C'est ça le deuxième seuil. Et le troisième seuil de compétence, c'est la manière dont la personne transforme son savoir en savoir-faire. Je sais parler, je sais écrire, et donc je peux faire des promptes, je sais réfléchir plus ou moins correctement, de façon plus ou moins logique, et donc je peux créer, m'approprier la façon de créer un prompt qui produit plus ou moins ce que je veux. Et donc après, je peux écrire. je peux transformer ce prompt-là pour me créer, par exemple, non pas du texte, mais une image, etc. Et donc, c'est ça, en fait, si tu veux, quand tu regardes ces différents seuils de capacité, c'est là où, en fait, tu te rends compte qu'il est possible d'affecter une population significative avec un outil, a priori, anodin et avec un coût de mobilisation qui est très faible. Ce qui, en fait, est extrêmement différent. des outils qu'on avait avant. Parce que pour affecter une population significative de manière négative, j'entends, en fait, tu avais quoi ? Tu avais la bombe nucléaire. Quand tu regardes qui peut manipuler la bombe nucléaire, ce n'est pas n'importe qui. De comprendre comment ça marche, etc. Et donc, en fait, c'est ça, si tu veux, c'est cette capacité, cette possibilité. Et le fait que c'est donné un entraînement de plein de gens, c'est ce que tu expliquais en fait, mais de façon entre guillemets détournée, c'est-à-dire en donnant des exemples différents, c'est cette capacité-là qui amène à toutes les discussions sur une gouvernance de ces technologies-là. Et maintenant, tu vois, je vais glisser dans la jeunesse de l'IA Act.

  • Speaker #1

    Qu'est-ce que t'es habile !

  • Speaker #2

    Tu vois ? Mais c'est en fait parce que ce que tu décris, et tu vois que ce soit les sujets de facturation, que ce soit des sujets en fait très, entre guillemets, quotidiens, où on peut mobiliser de l'aide ou des leviers d'automatisation, en fait ce sont parfois, voire souvent, des actions, des activités qui vont produire des effets sur les personnes humaines, et souvent ce qu'on appelle des effets judiciaires, c'est-à-dire que ça va avoir un impact. Il se passe quoi si, je sais pas moi, j'estime que tu n'as pas facturé assez et donc que de façon autonome, je produise une facture d'un montant très important et que j'impose le paiement de ce montant-là à un artisan qui n'en a absolument pas les moyens de l'honorer. Il se passe quoi en fait ? Donc, tu as un enchaînement. de conséquences qui est extrêmement qui parfois peut être imprévisible mais surtout qui peut avoir un impact significatif sur les personnes sur qui ils s'appliquent et donc c'est dans cette optique là, quand tu regardes l'abaissement des seuils d'accès et donc d'utilisation et de mobilisation de ces technos et les effets parfois inattendus parfois des effets de bord et des choses comme ça que ça peut produire... C'est là, en fait, que toutes ces histoires de gouvernance, etc. sont arrivées et que c'est comme ça que la réponse de l'Union européenne a été de faire un texte réglementaire qui répond, en fait, à ces préoccupations-là.

  • Speaker #1

    Alors, juste avant qu'on aille vraiment sur la partie texte européen, etc., il y a quand même, pour moi, un grand paradoxe dans tout ça. Pendant des années, on a expliqué à tout le monde qu'il fallait investir dans l'informatique, qu'il fallait commencer à comprendre comment programmer, qu'il fallait libérer les ressources. C'est d'ailleurs un peu le fond d'Internet. Si Internet a été libéralisé et utilisé à très grande échelle de manière très extensive, c'était justement pour partager ses ressources. accélérer le transfert d'informations et donc vraiment dans cet esprit alors il ya un autre élément aussi qui rentre qui est un bon exemple c'est les crypto monnaie puisque à la base c'était avoir un système monétaire qui sont indépendants des états alors ensuite quand on regarde un petit peu plus près les origines des crypto monnaie avec les ciphers punk bon il semblerait que le fondement soit plutôt libertariens enfin quand je veux dire c'était plutôt pour ne plus subir entre guillemets le gouvernant donc c'était pas forcément dans un optique dans une optique très bienveillante mais bon ils ont quand même développé ce genre de choses donc on est capable de développer des technologies qui a priori peuvent être bénéfiques pour tout le monde mais malheureusement en même temps peut poser aussi d'énormes problèmes de déontologie enfin tout ce que tu as expliqué aussi Reina de cette façon là donc Il y a quand même un petit peu un paradoxe dans tout ça. On veut pousser la technologie d'un côté, mais d'un autre côté, on est obligé de réglementer parce qu'on voit qu'il y a des mésusages. Et donc, il faut maintenir cet équilibre subtil entre la techno et son utilisation. Franz, tu voulais prendre la parole.

  • Speaker #0

    Oui, je pense que... Je pense que c'est marrant. Je suis tout à fait d'accord avec tout ce que tu dis. Je pense que ça ne va pas s'arrêter. Ça ira de plus en plus. L'étape numéro 2 pour les agents, c'est tous les parties agents et quand ça va faire des actions, là ça va faire peur. Par exemple, il y a un gars qui a fait planter son système Unix parce qu'il l'avait automatisé. Bref, les agents ont tout le monde. Et ça ne leur donne rien. Non, mais j'aime bien par contre la partie sur la crypto, parce que je pense qu'il y a ce concept de, je ne vais pas faire de politique, de l'anarchisme jusqu'au libertarianisme, et que... comment dire, les cryptos, il y a quelques temps, pas si longtemps que ça, ont traché, pas mal de personnes sur le paille, et ces mêmes personnes qui prenaient justement cette liberté, cet excès de liberté, ont été les premiers à demander justement quels états régulent pour pouvoir les cadrer, ce qui est un set paradoxal. Et je pense qu'en fait, tous, il y a le premier, auront le même point. Alors, nous... Alors, je dis nous, je parle des Européens. Assez paradoxalement, on a mis en place les actes qui, loin d'être jeunes, ça date depuis quand même quelques temps, je ne dirais pas loin de... Si on regarde, je pense que déjà en 2018, on discutait déjà, parce qu'en 2020, il y avait le Transform AI Framework. Et ça sort un peu comme un feu sur la soupe au moment où les LLM, les modèles transformeurs, arrivent. Et donc ça, je trouve ça assez marrant parce qu'on peut voir justement que d'autres pays, continents, n'ont pas pensé à ça, ou du moins plutôt. n'ont pas l'implémenté, les Etats-Unis typiquement, ou la Chine, et que la question qu'on se pose, c'est on va être en retard face à ces deux poids lourds, parce que nous, on a une régulation qui embête. On pourrait en parler de la régulation, je pense qu'on va en parler, mais... typiquement, ce qui va se passer, c'est que je pense que, des deux côtés, tôt ou tard, ça va arriver à avoir un problème et avoir une demande de régulation. Maintenant, on a un cas unique, je dirais, parce que là, clairement, il y a quand même un bond au niveau de l'IA. On a un cas unique où on a justement une réglementation qui arrive pile-poil sur une avance assez majeure, technologiquement parlant. On pourrait parler d'armes à rapprets. Mais, c'est... On a un cas majeur où, pour une fois, on a une réglementation qui arrive au même moment qu'une évolution majeure sur une technologie, face à deux mastodontes qui, eux, n'ont pas de régulation et qui, à mon avis, vont avoir des vrais problèmes dans le futur et qui vont impacter vraiment les gens. Et donc, la question va se poser de, lequel des deux aura eu raison ? Et quand on dit raison, ce n'est pas forcément d'un point de vue sociologique, mais d'un point de vue économique.

  • Speaker #1

    Alors, reste question, si on reprend Schopenhauer, le monde aussi entre la technologie sauvage et la réglementation à outrance. Alors justement... Raina, tu es quand même ultra spécialisée dans ce type de questions puisque tu as étudié ça jour et nuit. Et tu connais très bien aussi la communauté européenne et tout ce qui tourne autour. Alors justement, quel est ton point de vue par rapport à ça, l'EIA Act ? Est-ce que tu peux nous en parler et nous expliquer ce que c'est déjà ?

  • Speaker #2

    Alors déjà… Avant de te parler de l'IAC, spécifiquement, je vais juste rebondir sur les propos de France, parce que j'avoue que je suis assez mal à l'aise avec ce genre de propos qui, en fait, nous viennent très souvent des GAFAM, où il y a un leitmotiv récurrent qui est de dire que la régulation nuit à l'innovation. Et d'ailleurs, toi, Nicolas, qui es… qui est abonné à la Décay Politique, tu sais très bien que j'en ai fait un cas, en fait, un casus belli, et que j'ai une édition particulière, enfin dédiée, à des cas, en fait, très concrets, où le réglementaire crée un appel d'air, business, qui permet des levées de fonds, des développements de techno, etc. Et donc, parce que pour l'instant, personne ne m'a jamais donné un argument concret avec un cas illustré, un cas d'usage spécifique illustré où le réglementaire aurait empêché quelqu'un de faire du business. Donc, j'insiste là-dessus parce que c'est une vision civilisationnelle, cette histoire de réglementaire. Parce que le réglementaire, c'est quoi ? C'est les règles. de vie en société. C'est pour ça que je disais tout à l'heure dans la présentation, c'est comment on fait société numérique. Et donc, on ne peut pas, en fait, d'un côté, avoir des règles pour la qualité de la nourriture dans les supermarchés, tu vois, où la sécurité retire, et dire que ça, ça empêche l'innovation. Tu vois, c'est juste pas possible, quoi. Mais on a la même chose avec le numérique, où, en fait, on se retrouve... dans une situation où il y a un développement très important technologique, quelle que soit la techno en question, la cyber, ce que tu veux, et où on a très peu de règles spécifiques pour la responsabilité des gens qui mettent ces technologies-là sur le marché et donc qui ont une responsabilité vis-à-vis de nous, utilisateurs. parce qu'on est tous l'utilisateur final de quelqu'un, au final. Et donc, c'est là où le réglementaire intervient. Et j'aimerais quand même rappeler que le RGPD est arrivé. La Chine a un boîtel pas. Et alors, autant nous, en Europe, on a des sanctions pécuniaires pour non-respect. En Chine, c'est la tol. Je veux dire, ils ne font pas dans la demi-mesure. Aux US... Il y a un mouvement extrêmement important pour créer un RGPD fédéral. Et en fait, la structure de l'État est différente par rapport à l'Europe, mais aussi la culture des règles est différente. On n'a pas la même approche du tout entre les US et l'Europe. On peut en parler peut-être, mais surtout. Aux USA, il y a aussi un réglementaire par État et il y a beaucoup d'États aux États-Unis qui ont déjà adopté des cadres réglementaires qui rassemblent beaucoup à du RGPD. Et d'ailleurs, pour plein de raisons politiques, le texte fédéral Privacy aux États-Unis… a été un peu stoppée dans son élan, mais il y avait quand même de grandes chances qu'il soit adopté avant la fin du mandat de Biden. Bon, bref, je ne vais pas revenir sur les sujets spécifiquement politiques des US. Voilà, il y a en fait un mouvement très fort de protéger justement des actifs stratégiques. Et c'est là où... On a une différence dans ce qui est stratégique, dans l'appréciation de ce qui est stratégique. Aux US, on va toujours entendre parler de la sécurité nationale, par exemple. Alors qu'en Europe, on va avoir une approche différente. Mais la manière dont ça va se décliner... va beaucoup varier. Et sur l'IA spécifiquement, il y a un truc qui s'appelle SB1047, qui est l'équivalent de l'IA Act en Californie, qui a été récemment sanctionné par le gouverneur de Californie suite à une pression absolument dingue à de certaines boîtes que je n'aimerais pas, mais auxquelles je pense très très fort.

  • Speaker #1

    Vous êtes en Californie, justement.

  • Speaker #2

    Voilà. Mais en revanche, il y a... énormément de cadres sectoriels déjà adoptés. Typiquement, on mentionnait les véhicules autonomes tout à l'heure. Il y a déjà eu pas mal de frameworks réglementaires aux US, dans certains États, qui concernent spécifiquement les systèmes de reconnaissance, de signalement, de marquage de sol, enfin bref, de ces trucs-là. intégrés dans les véhicules. Il y en a plein, plein, en fait, qui sont intégrés. Et c'est juste l'approche d'application des règles qui est aussi très différente aux US, qui, en fait, passe par beaucoup de contentieux et c'est une culture du contentieux qu'on n'a pas du tout en Europe. Je vois que Franz voulait réagir, donc avant d'enchaîner sur l'IAC, je te laisse réagir.

  • Speaker #0

    Il y a beaucoup de choses à dire. Autant personnellement, je suis partisan que les régulations à une certaine dose, évidemment, et les actes, et bien dosés. je tiens à le dire, peuvent aider, clairement. Autant, je pense que le point, c'est une question sociétale, et une question aussi de comment est-ce qu'on parle des US. Je ne connais pas assez bien la Chine pour en parler, mais les US par rapport à l'Europe, il y en a un qui pense à la cause, et l'autre qui pense après la conséquence. Si on regarde nos actuelles, justement, on parle de RGPD, je pense que tout le monde sur la planète en est même. Je ne peux pas parler de tout le monde, mais je pense que les grands pays en sont d'accord. avec plus ou moins de raisons et peut-être pas pour les mêmes raisons va dire mais à l'heure actuelle les grands patrons ceux qui ont vraiment le cash qui dirige la snévola sont américains parce qu'ils ont commencé sur le fait qu'ils ont fait leur business sur la donnée complètement non régulé alors personnellement je trouve ça pas cool et ça c'est un point mais il est là, c'est qu'après, ils ont la puissance pour adapter aux besoins. L'Europe ne fonctionne que comme un marché, malheureusement. Et ça, c'est un vrai problème. Donc, à quel moment ils peuvent bloquer l'accès au marché, à quel moment ils peuvent aller sur d'autres marchés ? Et c'est ça le point. La chance qu'on a sur l'IA, c'est que les grands pensants de l'IA, la majorité sont européens et beaucoup sont français. Mais la question, c'est à quel moment... on va pouvoir se créer une autonomie sur le sujet qui est en capacité de rivaliser avec les autres. Et c'est ça le vrai point. Moi, je pense que le cadre, c'est pas ce qui va cadrer et qui va aider, parce que ces problématiques-là, pour tout un chacun, vont arriver plus tôt ou plus tard, vont être là. Maintenant, la question, c'est est-ce que de mettre en place dès maintenant toutes les...... Ce ne sont pas des complications. Si je peux, j'en parle un petit peu. Que demandent les actes pour attaquer des marchés qui ne sont pas régulés par ça ? Ça, c'est le vrai point. Et justement, je vais t'aider le propos. Le point, c'est que quand on parle des LLM, je pense que le point numéro un qui est spécifié dans les actes, c'est le fait... être en capacité d'expliquer la décision. Alors sur des trucs avec des milliards de paramètres, on n'y est pas. Et donc le point, c'est justement, il y a des choses qui vont rendre les LMS difficile à marketer, au moins sur certains secteurs, ou sinon dans l'armée, ils ont tous les droits, bon investissement, les HREC donnent beaucoup de liberté sur tout ce qui est militaire, mais face à d'autres qui ne considèrent pas ça, et notamment... Toute la partie des données, une donnée qui rentre dans un modèle, quand il l'a appris, il ne peut plus le retirer. Sauf que nous, en Europe, on pense à une manière de dire que nos données, c'est notre bien privé, etc. Les Américains, ils pensent que c'est un bien commercial. Ce n'est pas la même chose. même perception, mais du coup ça crée des champions qui peuvent attaquer d'autres marchés. Et donc le point, c'est ça.

  • Speaker #1

    Justement, parce que je crois que tu as mis le doigt sur quelque chose, c'est important, c'est les données. Est-ce que c'est un bien commercial ou un bien personnel ? Donc, grande question.

  • Speaker #2

    C'est tout là. En fait, il y a une vraie différence, c'est pour ça que je ne voulais pas du tout rentrer là-dedans quand j'ai dit qu'il y a une vraie différence de perception et de culture et de tout ce que tu veux. C'est qu'en fait, Le RGPD, puisqu'on parlait de ça, il est fondamental à plein de niveaux. Aussi parce que le RGPD, ce n'est pas un machin qui fait des cookie walls. Ce n'est pas un truc. C'est comme ça. C'est l'autre boudin qu'on a eu à la fin avec une implémentation et une mise en œuvre absolument déplorable. Mais ce n'est pas son objectif principal. Son objectif principal, c'est de protéger les droits et libertés fondamentaux des gens. Attends. En fait, en Europe, la... compréhension et qu'on a, en fait, la perception qu'on a des données à caractère personnel, et je dis bien à caractère personnel, c'est que ce sont des attributs de la personne humaine, au même titre que tes organes. Alors qu'aux US, on parle de consommateurs et de personally identifying data des données qui identifient des personnes. Ce n'est pas du tout la même perception, ce qui fait en fait que tu as ces mouvements-là et cette approche de patrimonialisation, c'est-à-dire de créer des droits de consommation, de commodification, de choses qui, pour nous, n'ont pas du tout le même statut. Et donc, quand les gens en Europe me parlent de mettre des droits voisins, type droits d'auteur, sur les données à caractère personnel, en fait, moi, la question que je pose à chaque fois, c'est est-ce que tu ferais la même chose avec les données sur les organes des gens ? Et on me regarde comme si j'avais perdu la tête. En fait, parce que l'analogie, c'est qu'elle est comme ça. Ce sont des attributs de la personne humaine. Donc, tu ne peux pas faire ça. Et donc, toute la question de comment on approche l'innovation et de comment on crée des champions, si on veut, elle est là. C'est qu'on a des approches éthiques ou en tout cas, on ne veut pas faire n'importe quoi juste pour gagner des sous. C'est pour ça, en fait, que quand on a cette discussion de créer des champions européens, d'avoir une autonomie, etc., en fait, la question qu'on pose derrière, c'est comment on les crée ? Est-ce qu'on veut, en fait, avoir une approche prédatrice ? telle qu'elle est ailleurs, ou non ? Parce que, tu vois, quand tu regardes, on parle de chat GPT depuis tout à l'heure, en fait, ça me fait marrer quand je vois des gens qui m'expliquent qu'ils font un usage éthique de l'IA en utilisant chat GPT, en fait, sachant que derrière, tu as énormément de digital labor, donc de gens sous-payés, des travailleurs du clic, etc. Donc, tu as une exploitation humaine derrière. mais que tu as des mecs qui m'expliquent qu'ils font un usage éthique de Chachipiti.

  • Speaker #1

    Le Chachipiti, c'est le Nutella du numérique.

  • Speaker #2

    Mais c'est ça. Et en fait, avant de te passer la parole, Franz, parce que j'ai vu que tu avais une petite remarque, mais tu vois, tu as aussi une vraie question et c'est là-dessus que j'insiste sur cette vision civilisationnelle et de valeur. C'est qu'en fait, c'est qu'est-ce qu'on veut construire ? Bien sûr qu'on a envie de prospérité et de vivre bien, etc. Mais en fait, on le fait comment ? Quels sont les modèles économiques ? Quel est le substrat qu'on va utiliser ? Elle est là, la question.

  • Speaker #1

    C'est ça. À quel prix ?

  • Speaker #2

    Et à quel prix, bien évidemment.

  • Speaker #1

    France ?

  • Speaker #0

    Oui, c'est vrai que... Un truc très intéressant, c'est l'histoire de droit, le droit d'appréhender, le droit à l'image, ce qui est bizarrement très cher aux Américains aussi. Mais je pense que les Américains ont comme plus grand défenseur leur plus grand prédateur, qui sont les entreprises. Et on le voit très bien, justement, sur ce qui se passe avec le PNRI, qu'autant prendre de la donnée des gens, bon... C'est pas grave, c'est bon. Par contre, de s'attaquer à des grosses entreprises qui possèdent justement de l'IP, pardon, de l'IP, de l'information personnelle, donc tout ce qui est... toutes les images dans Mickey et autres, typiquement, le New York Times qui s'est vu faire voler on ne sait combien d'articles par OpenAI, là, il y a des attaques en justice. Et donc, du côté américain, je pense que ça va être de cet aspect-là que ça se passera en premier d'abord, sur l'acclaration des LLM. C'était une petite remarque. Et je voulais rebondir, c'est juste en faisant partie éthique, je pense que c'est très très bon, parce qu'on arrive aussi beaucoup sur cet aspect en ce moment de penser à l'écologie. Je vais parler sur le greenwashing, j'en passe. Mais je prends le greenwashing comme étant aussi des fois, malheureusement, impulsant une inaction. On va dire ça comme ça. Et ce qu'on ne se rend pas compte, c'est la consommation colossale ! que ça amène. Si on parle en termes d'électricité, pour donner un peu de chiffres, on est à peu près, je crois que j'avais lu un article d'ici 2027, vers 85 à 135 TWh par an. Pour donner une image, pour que ta grand-mère réalise. En France, on consomme au total, en toute la France, 450 à 500 TWh. C'est-à-dire qu'un quart de la consommation française ne servirait uniquement qu'à faire tourner des modèles d'IA.

  • Speaker #1

    Sans parler de la consommation d'eau, tu vois.

  • Speaker #0

    Ça, on parlait de la consommation d'eau qui est de 50 centilitres par conversation de chat de GPT. Je veux dire, on a des stades comme ça. Et si on parle de l'énergie, qui est pour moi le vrai débat derrière, la vraie limitation, c'est… Tout est parlé du lieu des limitations, on n'a pas parlé d'imitation physique, avec la loi de Moore et j'en passe, mais si on parle en termes d'énergie, il faut bien voir que… Le monde a atteint un pic énergétique, on a une capacité maximum qui arrive. Et ce qui est consommé comme énergie à l'heure actuelle n'est pas produit par du nucléaire. Je crois que le nucléaire représente à peu près 10%, même pas dans le mix énergétique mondial. La majorité, c'est des centrales à charbon. Donc, on parle que, d'un point de vue écologique, c'est dramatique. C'est dramatique, tout ça pour faire des petites recherches, pour s'amuser avec le CHGPT ou faire les deep tech et j'en passe. Alors, je ne vais pas faire mon... écologistes ou quoi que ce soit, mais c'est un vrai problème à ce niveau-là. Et on va tomber tant sur des aspects écologiques, économiques, parce que derrière le coût de l'énergie, c'est faramineux, et l'énergie, je pense qu'il est mieux dépensé pour les industries, qui vraiment sont en train de pleurer sur le coût de l'électricité. Et donc, on va avoir un vrai problème à ce niveau-là.

  • Speaker #1

    Donc,

  • Speaker #0

    ça, c'est bizarre, c'est que très peu de personnes en parlent, et pourtant, c'est le nerf de la guerre, parce que ça va être une délimitation.

  • Speaker #2

    Moi, ça ne m'inquiète pas plus que ça, le réchauffement climatique, parce que je ne suis pas écolo. Mais c'est vrai qu'il y a des gens que ça inquiète. Je ne suis pas écolo, moi. Je ne suis pas écolo du tout. Je n'ai pas d'enfant, moi. Pour moi, la vie s'arrête à la mienne. Et même si ça va un peu plus vite que prévu, je n'aime pas le ski, de toute façon. Non, je déteste les sports d'hiver. Vraiment, c'est monter, descendre, monter, descendre. Je n'ai pas besoin de faire un sport qui me rappelle que je suis bipolaire. Merci. Je déteste le ski. Les sports d'hiver et le soir, observer des couples qui s'engueulent en chuchotant dans des restos qui puent le fromage. Merci. Non,

  • Speaker #0

    avant. Je serais vraiment curieux de voir comment ça va impacter la perception si les gens ont plus connaissance de ça. Ce qui se passe... les débats sur l'écologie et même sur l'industrie.

  • Speaker #1

    Tu as beaucoup de gens, enfin, ça commence à arriver beaucoup dans la conversation, notamment parce que, typiquement, des gens comme Google ont perdu leur truc neutrin carbone, tu sais, qu'ils mettaient depuis des plombes, là, qui était, oui, oui, on a juste acheté beaucoup de crédit carbone, tu vois, mais ça commence, en fait, à arriver dans la conversation aussi, mais par un angle un peu bizarre, parfois, qui est de dire que, vu les coûts, dont tu viens de parler, en fait, on ne peut pas arriver à une intelligence artificielle générale, c'est le truc à la Skynet, quoi, parce que en fait, on ne produit pas assez d'électricité et d'eau pour l'entraînement de ce truc-là. Et donc, c'est comme ça, en fait, que les gens arrivent à discuter de cette histoire, qui est, en fait, de dire que, tu vois, on fait fondre deux icebergs pour résumer trois mails, quoi. Enfin, qui a... à peine exagéré en termes d'échelle.

  • Speaker #0

    Je suis tout à fait d'accord. Et justement, on parle juste de la puissance énergétique. A noter d'ailleurs, comparé aux crypto-monnaies, l'IA consomme… ou elles consomment à peu près à l'heure actuelle autant d'énergie que la crypto-monnaie. Ça va permettre de réfléchir au sein de la consommation de crypto. Mais il y a aussi un autre point. Tu parlais au tout début des puces à créer. Et il y a un problème physique. Alors, on parlait de la loi de Moore. qui disait qu'on réduisait tous les tenseurs. Et en fait, du coup, c'est devenu de plus en plus fin. On a atteint une limite physique, littéralement, où cette fois, c'est des électrons qui passent. Donc, c'est fini. On ne peut plus redescendre. Du coup, une technique que les chinois ont dit, ok, si on ne peut pas descendre, on va agrandir. C'est smart, ceci dit. Mais pareil, avec quelles ressources ? Avec quoi ? Donc, j'invite les gens, s'ils possèdent de l'ASML, c'est bien parce que c'est eux qui produisent, les machines qui produisent ça, c'est cool. on va arriver sur des limites physiques, écologiques, qui vont devoir revoir les choses. Et je pense que si on prend des lois de marché, Scale City va définir le prix. Et derrière, on va poser la vraie question d'utilisation. On est sur une hype, qui va déjà redescendre, je pense, légèrement. Parce qu'on va se rendre compte quel est le réel investissement qu'il y a là-dedans. On va parler de l'IA Act, mais derrière, juste pour clore sur le sujet de l'écologie, il y a aussi le fait que maintenant chaque entreprise doit donner sa consommation carbone, directe et indirecte. Qu'est-ce qu'on va dire quand finalement on est une boîte supérieure, on a tous 4 GPT et finalement on a une convention énorme ? Il ne manquerait plus que, comme avait été présenté cette petite série télé que j'invite à regarder qui s'appelle Parlement, où en gros ils amenaient un projet de loi qui disait que la consommation de carbone devait être intégrée dans la comptabilité. Donc il n'y a plus que ça arrive, mais alors là je pense qu'on peut repartir sur le débat depuis zéro.

  • Speaker #3

    Juste pour faire la transition au sujet qui nous intéresse tous, on a parlé de plein de choses, de l'environnement, de la société, de la protection des données et aussi de l'éthique, qui peut être parfois un peu discutable quand on parle de la manière dont certaines IA ont été créées. Alors justement, en quoi l'IA Act peut nous aider à améliorer un petit peu tout ça ? attirer bénéfice quand même de l'IA, mais avec peut-être des contraintes qui permettraient de recentrer un usage et de border un petit peu et de mettre des limites là où il en faut finalement. Donc Raina, est-ce que tu peux nous éclairer ?

  • Speaker #1

    Je vais essayer de faire de mon mieux. Donc l'IA Act, si tu veux, déjà c'est un règlement européen, donc il est d'application directe et certaines de ses dispositions s'appliquent depuis le 1er août. 2024, by the way. Petite mention pour ceux et celles au fond de la classe, ce serait bien de vous y intéresser. Donc, de quoi ça parle ? L'idée, c'est justement ce que je disais tout à l'heure, c'est d'introduire une notion de gouvernance, donc de ces systèmes IA, de leurs usages. Comment je les fais ? Qu'est-ce qu'ils peuvent faire ? comment je les intègre dans l'activité de mon entreprise, etc. Et comme souvent, en fait, il y a beaucoup de choses qui sont permises dans l'IACT et il y a certaines choses qui sont interdites. Je vais y revenir dans un instant. L'idée, en fait, c'est de prendre une approche par les risques. C'est ça l'idée de l'IACT, c'est de dire qu'il y a des systèmes très divers. Certains ne posent pas de problème en termes d'effets négatifs sur les gens. D'autres systèmes peuvent avoir ces effets-là, donc on y fera attention. Et puis... Pour justement arrêter avec cette histoire de ces indistinguables de la magie, on va introduire des exigences de transparence pour que les gens sachent, en fait. Est-ce que j'ai quelque chose ? Est-ce que la photo du pape avec la doudoune, c'est le pape lui-même ? Ou ça a été généré par un chat GPT-like, par Midjourney ou autre ? Et on va avoir un certain cas d'usage qui vont être interdits, parce qu'on estime que ces cas d'usage-là portent un préjudice immédiat, portent en fait un effet judiciaire négatif sur les droits et libertés fondamentaux des gens. Et donc c'est là où on va avoir, ça les gens l'ont peut-être vu, Mamie l'a peut-être vu aussi, on va avoir cette pyramide des risques avec au plus bas niveau le risque dit minimal qui est ne présente pas. pas de risques pour les droits et libertés fondamentaux des personnes. Donc là, là-dedans, on va trouver des systèmes d'IA qu'on connaît pour le coup depuis un moment, qui sont par exemple des filtres antispas. Pour donner un exemple, ou pour les gens qui aiment bien jouer aux jeux vidéo, ce sont les... les systèmes d'IA utilisés pour les personnages non-joueurs, les PNJ. Donc ça, typiquement, c'est un système d'IA qui, d'après l'IA Act, c'est un système d'IA à risque minimal. Tu vois, parce qu'en fait, voilà. Donc, il n'y a pas d'obligation particulière de conformité ou machin sur ces systèmes-là. Un risque plus élevé ? c'est ce qu'on appelle les systèmes avec un risque limité, qui présentent un risque limité sur les personnes. Donc là... Un exemple de ça, c'est des chatbots. Typiquement, je ne sais pas si vous avez vu passer le truc, le chatbot d'une compagnie aérienne qui disait que la compagnie va vous rembourser votre billet, alors que les CGU de la compagnie aérienne disaient le contraire. Là, on a l'idée du risque minimal, c'est justement que ça produit des effets comme ça. Et donc là, les obligations applicables sont transparence, dire qu'on utilise un système automatisé et veiller à tout ce qui est droit d'auteur. Cette histoire, ce côté très épineux qui est de faire attention aux droits de propriété intellectuelle, pour le dire très vite, qui sont liés à des productions créatives, artistiques ou autres. Donc, ils ne veulent pas faire de la contraffaçon, ce que font nos amis américains quand ils scrapent comme des porcs et qu'ils entraînent leur gros modèle de langage dessus. Donc, le New York Times dont il s'agissait, dont Franz parlait tout à l'heure. On va voir ensuite le haut risque, donc les systèmes d'IA à haut risque. Ça, il y a en fait dans l'IACTE… Tu verras, il y a les annexes 2 et 3 qui listent des cas d'usage qui tombent là-dedans. Typiquement, la notation d'examen ou l'évaluation de solvabilité. Je crois que France mentionnait quelque chose là-dessus tout à l'heure. Donc ça, ce sont des systèmes en risque parce qu'en fait, ça produit encore une fois des effets judiciaires, c'est-à-dire sur l'évaluation de solvabilité, je peux te refuser par exemple un prêt pour acquérir ta résidence principale. Et tout ça, c'est de la décision autonome, c'est-à-dire sans qu'un humain apprécie les particularismes de la situation, etc. Notation d'examen, c'est la même chose. Ça peut en fait prévenir quelqu'un d'aller faire des études que la personne souhaite faire. Et donc là, les modèles, pardon, les obligations sont strictes. Donc, on va avoir notamment une analyse de risque avant conception. et quand on va parler d'analyse de risque c'est nos amis de la cyber pense ISO 27005 et là on va être en fait dans une démarche qui pour le coup se rapproche un peu de l'analyse de risque qu'on a dans le RGPD parce que les risques auxquels on va faire attention sont ceux qui pèsent sur les droits fondamentaux des personnes des individus donc On n'est pas dans un truc, est-ce que quelqu'un peut choper mes identifiants et envoyer des mails à ma place ? On est dans, est-ce que ça risque de détruire ma vie ? Est-ce que ça risque de m'empêcher d'accéder à l'espace public, d'accéder à la propriété, à l'éducation, etc. Et donc, au plus haut niveau, on va avoir... les modèles qui sont nommés à l'article 5, pour le coup, de l'IACT, qui présentent en fait des risques dits inacceptables. Et donc, là-dedans, on va avoir typiquement tous les systèmes qui sont de calcul de crédit social, tu vois, un peu à la chinoise, ou de reconnaissance automatisée des émotions. Donc, tous ces systèmes, ils sont listés sur le site de la commission. je peux fournir le lien pour les personnes qui souhaitent aller regarder parce que c'est très clair, c'est très court. Et donc, tous ces systèmes-là sont interdits d'utilisation. Il n'y a pas de oui, j'ai bien fait mon analyse de risque, s'il te plaît, sois sympa Non, c'est non. Et il y a quelque chose que moi, j'inclue quand je fais cette pyramide, y compris dans mes formations, etc. Quand je fais cette pyramide, j'inclue un autre risque, en fait, qui est le risque systémique. qui n'est pas identifiée à part entière comme ça dans le texte, mais qui surnte, si tu veux, toutes les dispositions du règlement. Donc, le risque systémique, ça concerne notamment les modèles qui ont un impact significatif, typiquement les grands modèles de langage, ou les modèles dits GPI, c'est-à-dire un modèle à usage général. L'idée, en fait, là-dedans, c'est qu'on va avoir des... des systèmes d'IA qui sont entraînés sur une très grande quantité de données, qui utilisent l'autosupervision en termes d'entraînement, mais qui sont tellement généralistes qu'ils ont en capacité d'exécuter un très large éventail de tâches distinctes. Et là, on va encadrer leur intégration dans des systèmes divers et variés. Je ne sais pas, moi, ton chat GPT, comment est-ce que tu vas l'intégrer dans la facturation ou autre ? Ou dans la demande d'information pour un remboursement SNCF ? Des choses comme ça. Donc, là-dedans, on va retrouver notamment beaucoup de modèles d'IA générative. En fait, on dit que ça présente un risque systémique parce que, en fait, vu... parce qu'ils ont une capacité de faire plein plein de choses. Et donc là, en fait, on va appliquer à ces modèles-là des obligations particulières, telles que, encore une fois, l'analyse de risque, mais aussi des tests pour prévenir des effets de bord, les hallucinations, les dérives de modèles et des choses comme ça. Et on va aussi appliquer des obligations de reporting. D'où est-ce que je... Comment j'entraîne les modèles ? D'où viennent les données ? Et des choses comme ça. Donc, on va avoir cette pyramide des risques. Elle est importante parce qu'elle est très claire. Et en fait, là, pour le coup, on a des définitions qui sont assez univoques, qui permettent en fait... d'avoir la clarté sur... Alors, moi, quand je vais commencer à faire des... à utiliser des systèmes d'IA pour avoir des logiciels plus performants, des services à haute valeur ajoutée, enfin, ce que tu veux, en fait, je peux très bien me référer à ces critères-là. pour savoir en fait quelles sont les obligations auxquelles je serai assujettie dans ces cas-là. Et donc en fait, la majorité des obligations tombent en fait sur les fournisseurs ou développeurs de systèmes d'IA à haut risque. Dans l'IAC, on est vraiment là. Donc quand on dit fournisseurs ou développeurs, ce n'est pas les personnes qui développent. Enfin, tu vois, c'est... ce n'est pas ton développeur chez toi, c'est toute entité qui crée ces systèmes-là. Ça peut être une filiale de ton groupe qui fait ça et qui met ça sur le marché unique, sur le marché européen, donc qui le revend en fait à d'autres. Ça peut être toi qui le fais pour ton usage interne, mais pour des systèmes qui sont utilisés par des gens, que ce soit des employés ou des clients, etc. Et les utilisateurs sont définis comme des personnes physiques ou morales qui déploient des systèmes d'IA dans une démarche professionnelle. On ne parle pas de mamie qui va utiliser un chatbot, mais on va parler de la startup qui va déployer un chatbot basé sur ChatGPT. pour fournir typiquement des informations de remboursement. Donc, tes utilisateurs, ce n'est pas Mamie, tes utilisateurs concernés par l'IAC, ce n'est pas Mamie, c'est la startup qui va consommer le système d'IA et qui va le déployer. Donc, c'est un peu de façon très caricaturale, mais succincte, vraiment le cœur du sujet. qui est encore une fois dans une pure approche graduée européenne, qui diffère pour le coup beaucoup de l'approche américaine, qui est, on va vous expliquer étape par étape, quel est l'état de fonctionnement sain auquel on tend. Vous savez où vous allez. vous savez quels sont en gros l'état final désiré, démerdez-vous pour faire ça. Ce qui n'est pas la même que la culture américaine où tu vas avoir des guidelines très générales où on va te dire le premier barreau de l'échelle, c'est là. il est très très bas et par contre après on va disperser façon puzzle dans les différentes administrations et qui en fait empêchera aussi la compréhension et la big picture la compréhension à l'instant T de qu'est-ce qu'on applique exactement qui s'occupe de la mise en oeuvre, du suivi etc et c'était très parlant de voir par exemple comment le décret présidentiel de Biden était consommé, et donc mis en œuvre, 90 jours après sa publication, en fait, tu avais une liste, je crois, sur six pages, de toutes les initiatives, commencées par les différents départements, par les différentes administrations de l'État fédéral, etc., qui étaient, en fait, juste... C'est super compliqué de s'y repérer, alors qu'en Europe, tu as quelque chose de beaucoup plus centralisé. Par contre, avec un bureau IA, etc., qui va aussi assurer, qui est une entité de la commission, nouvellement créée spécifiquement pour ça, qui veille à la mise en application de l'IA Act sur tout le territoire de l'Union. Donc, l'approche, la culture, elle est encore une fois très différente des deux. Donc, c'est sûr, pour beaucoup, On va imaginer que le premier barreau de l'échelle en Europe, il douille un peu, il fait un peu mal, parce qu'on se prend une avalanche d'un règlement qui n'est quand même pas super simple, et plutôt bien fait, mais ça dépend à qui t'en parles. Je pense que Franck et moi, on s'intéresse au sujet, on a suivi l'élaboration, donc on comprend aussi pourquoi des choses sont formulées telles qu'elles le sont dans le texte final. Mais c'est sûr que pour des gens qui n'ont pas suivi les discussions, les logiques, etc., ça peut être un peu rebutant. Je reste subtile.

  • Speaker #3

    Mais c'est assez souvent comme ça. Si on ne comprend pas l'histoire et ce qui s'est passé derrière, forcément, la simple conclusion peut être un petit peu difficile à comprendre. France, tu voulais rajouter quelque chose ?

  • Speaker #0

    Oui, je pense qu'il faut prendre un peu sur le sport. On parle de la genèse, à quel moment ? Alors, à quel moment ça a commencé à être réfléchi ? C'est pas quelque chose de nouveau, c'est juste que c'est tombé pile poil au moment où on parle de Genial. Mais c'était mis au moment où il y avait l'essor, je dirais, du deep learning. Et justement, notamment avec les réseaux de neurones, et là, ce qu'on disait dès le début des réseaux de neurones, cette fameuse boîte noire. Les LRH, en fait, un peu comme GERG et DPR sont dans son temps, si on faisait la statistique proprement, si on faisait les modèles proprement, il n'y a rien d'exceptionnel, en fait. Ce qu'on explique, c'est juste, pour être compliant avec les LRH, c'est juste de dire, en gros, on suit des protocoles qui ont été utilisés depuis des années et des années. C'est-à-dire qu'on a un besoin de maîtriser ce qu'on fait, d'explicabilité. Je pense que ça serait ça, le vrai défi des LLM, c'est l'explicabilité. Honnêtement, il y a excessivement de surprises quand on regarde dedans. Comme les actes, les sorties, au moment où vous allez les sortir, il y a eu en effet toute cette vague de chat GPT qui arrive au même moment. Ils n'ont pas pour rajouter l'article 50 pour le GPI, comme tu l'as justement dit, Raina. Et voilà, mais fondamentalement, il n'y a rien d'exceptionnel. Je veux dire que je tiens à rassurer les personnes qui... écoute, tu peux avoir peur de réacte, si vous avez de l'IA en interne, à ton niveau de complexité, et que vous avez fait les choses un minimum proprement, vous allez être compliant. On parlait de risque crédit, le risque crédit, si on a en capacité d'expliquer pourquoi le modèle dit oui ou non, on log ça, on conserve les informations, on sait quels sont les paramètres, les impacts, le résultat, et qu'on le donne, enfin qu'on peut expliquer, on est bon. Si on n'utilise pas des données considérées non éthiques, alors je vais prendre les exemples des Américains, parce qu'il y a toujours plein d'exemples à prendre chez eux, c'est très fun. Tout à l'heure, je parlais justement des crédits. Eux, ça fait très longtemps qu'ils font du scoring crédit, QIFAC, si j'en passe, et ce qu'ils se rendent compte, c'est que les populations nord-américaines avaient des... des taux un peu plus élevés. Pourquoi ? Parce que le modèle prenait en compte le fait qu'ils étaient noirs et donc du coup forcément ils avaient un taux plus élevé, donc ça impactait directement leur vie, etc.

  • Speaker #1

    Et voilà,

  • Speaker #0

    donc ça, heureusement ou malheureusement, c'est un autre débat, on n'a pas le droit d'avoir ces données-là en Europe, mais techniquement, si on a tout ça, l'EAAC ne va pas faire mal. L'EAAC va faire un mal parce que justement, on utilise des modèles qui sont très complexes, de plus en plus complexes, et qu'on n'a jamais pensé dès le début sur comment réellement les monitorer, les comprendre. Et c'est ça le vrai point, et ça va être ça pour moi, l'évolution. ou la tension régulatoire de la GNI. Soit ils vont arriver à expliquer, de dire on est en capacité d'expliquer pourquoi la réponse a donné ça, soit il va y avoir une limitation sur son utilisation, soit tout simplement il va y avoir une tension au niveau régulatoire de comment est-ce qu'on va devoir évoluer les choses si on veut l'étendre à d'autres périmètres plus critiques.

  • Speaker #1

    Juste petit point, perso j'ai hâte de dire... ce qui va être OK, ce qui ne va pas être OK, parce qu'en fait, à vrai dire, aujourd'hui, on n'en sait rien. En fait, pourquoi je dis ça ? C'est parce que je me suis rendue compte que souvent, surtout quand, tu sais, on a cette aura, comme Nico tout à l'heure me présentait comme quelqu'un qui connaît les sujets, en fait, je me suis rendue compte que les gens utilisent souvent des choses que toi et moi, on peut dire de manière un peu raccourcie, un peu rapide. comme un outil de la décision. Et du coup, tu te dis, oh mince, non, non, mais moi, je pensais à autre chose. Et en fait, c'est pour ça que je suis très précautionneuse sur la manière de formuler les choses. Mais voilà, tu as raison, on a un vrai sujet sur l'explicabilité. Et ce sujet, en fait, va nous occuper pendant très longtemps. je laisse, parce qu'on a encore ça fait un moment qu'on discute, je laisse en fait mamie et papy et tout le monde avec deux sujets ouverts. Le premier ça va être les en fait qu'est-ce que c'est l'explicabilité des algorithmes, tu vois parce que en fait s'il suffisait d'ouvrir le code d'un algorithme ça fait longtemps en fait qu'on aurait réglé plein de questions. mais en fait, ce n'est pas aussi simple, voire simpliste que ça. Donc, on va voir ce qui m'amène à l'autre question, qui est celle de l'expertise, y compris de l'expertise technique, qui est en fait quelque chose sur lequel on doit être extrêmement vigilant, et donc à ne pas, parce que dans les discussions sur la gouvernance de l'IA en général, on a une très grande tendance à faire comme si la couche technique n'existait pas. Alors que là, pour le coup, en termes de couche technique, ça douille intellectuellement.

  • Speaker #3

    Elle s'impose. Oui,

  • Speaker #1

    elle est très importante. Elle est vraiment significative. Et on n'est pas si nombreux que ça à comprenez grand-chose au sujet. Donc, on a vraiment cet aspect-là qui va très rapidement devenir très sensible. Pourquoi ? Parce qu'en fait, on a de moins en moins de gens qui comprennent ces sujets-là, qui sont capables d'intervenir là-dessus, techniquement j'entends, et qui se font quand même pas mal braconner par des boîtes, notamment américaines, qui payent des salaires que nous en Europe, on ne peut pas se permettre. Et donc on va se retrouver aussi rapidement, parce que là, c'est ce que disaient typiquement des gens côté bureau de l'IA à la commission, c'est que Et pourtant, la commission, elle ne paye pas le SMIC. Elle paye de très bons salaires. Et même eux avaient du mal à attirer des experts techniques pour le bureau de l'IA. Donc, c'est un sujet qui, en tant que professionnel, nous concerne de plein fouet. Parce qu'en fait, on parle aussi de nos futurs collègues ou des collègues qu'on n'aura pas, mais aussi de tout l'investissement. qu'on devra faire en tant que professionnel, chef d'entreprise ou autre, dans la montée en compétences techniques de nos collaborateurs et collaboratrices sur ces sujets-là. Parce qu'on peut se raconter après tout ce qu'on veut sur le réglementaire. Quelqu'un doit faire ses analyses de risque, doit s'assurer que ce qu'on dit, c'est ce qu'on fait.

  • Speaker #0

    Et ça, à part de la magie, tu vois, sacrifier des poulets les nuits de pleine lune, faire du voodoo, il n'y a pas 30 000 façons de le faire. Il faut apprendre à faire. Donc, je laisse le sujet ouvert comme ça. Je pense que ça va remuer pas mal chez nos auditeurs et auditrices.

  • Speaker #1

    Exactement. Je pense que tu as résumé finalement un petit peu le mot de la fin. Si on résume finalement, c'est que, tu l'as dit d'une certaine manière, enfin vous l'avez dit, c'est une technologie. C'est comme toutes les technologies, il faut la maîtriser. Comme le feu, à un moment donné, il a fallu qu'on le maîtrise. Et c'est intimement lié avec le fait effectivement de vouloir protéger nos sociétés, de donner un sens aussi à ce qu'on veut faire. et donner des limitations justement pour faire en sorte que la technologie nous serve plutôt que nous desserve. Et je pense que c'est un petit peu la conclusion qu'on peut apporter à cette discussion. En tout cas, j'étais très heureux de vous avoir dans cet épisode de la cybersécurité expliquée à ma grand-mère. J'espère que cet épisode va éclairer bon nombre d'éditeurs et certainement aussi leur poser un certain nombre de questions. Et c'est là aussi pour ça. En tout cas, ma grand-mère me fait un gros bisou. Elle me dit que finalement, sa bouillarde pour faire le thé, par rapport à Tchad GPT, ça va encore. Il y a de la marge de manœuvre. Et puis, je te dis qu'elle va se mettre au vélo aussi pour générer de l'électricité, pour compenser son bilan carbone. Donc voilà, tout va bien. Elle a pris en considération tous les problématiques écologiques de l'utilisation de Tchad GPT. Encore un grand merci à vous. Et comme je le dis très souvent, pour certains, la cybersécurité est un enjeu du vieux de mort. C'est bien plus sérieux que ça.

Share

Embed

You may also like