- Speaker #0
Bonjour à toutes et à tous et bienvenue dans SAF IA, le podcast qui explore la relation entre l'intelligence artificielle et le droit sous tous les angles, avec clarté et simplicité, mais surtout sans artifice. L'IA est déjà partout, notre quotidien, nos choix, nos métiers et même nos pensées. Mais devons-nous la laisser transformer notre réalité sans nous poser les bonnes questions, sans saisir pleinement ses conséquences sur nos vies ? Je suis Safia Kirbouche, avocate et passionnée par les enjeux du numérique. A chaque épisode, j'ai le plaisir de tendre le micro à un expert d'une discipline différente pour qu'il partage avec nous ses éclairages sur cette révolution technologique. On décrypte ensemble les grands enjeux de l'intelligence artificielle pour comprendre aujourd'hui ce qui dessinera demain. Alors installez-vous confortablement et je vous présente notre invité. Bonjour ! J'ai le plaisir aujourd'hui d'accueillir pour la saison 2 et pour l'épisode de l'IA vue d'Europe, Annaëlle Martin, qui est rédactrice au sein du Comité Consultatif National d'Éthique du Numérique et docteur en droit. Bonjour Annaëlle.
- Speaker #1
Bonjour Safia.
- Speaker #0
D'abord, merci d'avoir accepté cette invitation. Tu es pour le coup confrontée quotidiennement aux questions de droit de l'IA. et des questions sur l'IA et l'éthique en général dans ton travail. Est-ce que déjà tu peux nous faire un petit topo sur ce que fait le comité et sur ce que toi tu fais ?
- Speaker #1
Oui bien sûr. Je suis effectivement juriste de formation. J'ai une spécialité en droit de l'Union Européenne. Et depuis 3-4 ans, je me suis spécialisée dans le droit du numérique et de l'intelligence artificielle et aussi de l'éthique du numérique. Je travaille au sein du Comité Consultatif National d'Ethique du Numérique, qui est un comité, comme son nom l'indique, consultatif. Ça veut dire qu'on ne produit pas des normes contraignantes, mais on rend des avis consultatifs qui portent sur des enjeux d'éthique du numérique et de l'intelligence artificielle.
- Speaker #0
Vous devez avoir pas mal de boulot en ce moment.
- Speaker #1
Oui, c'est le moins qu'on puisse dire, puisque l'IA fait les titres de pas mal de journaux. Tous les jours, on est, comme tu l'as dit, confrontés à des enjeux, à des questions qui concernent l'éthique du numérique, voire aussi le droit, puisque l'aspect juridique est forcément lié, puisque l'éthique arrive un petit peu avant le droit, quelque part. on essaye, le comité consultatif rend des avis, mais on espère avoir un impact sur les décideurs, que la loi s'inspire de ces recommandations.
- Speaker #0
Ok, alors tu as parlé d'actualité, moi il y en a une qui récemment m'a surprise, c'est le fait que l'Union européenne décide de reporter à 2027 des obligations qui devaient entrer en vigueur dès 2025. dans le cadre de ce bras de fer avec les Etats-Unis et avec les requêtes de Donald Trump. Qu'est-ce que tu peux m'en dire ?
- Speaker #1
C'était une information qui a fait beaucoup parler d'elle. Ce n'est pas forcément surprenant quand on connaît les relations houleuses entre l'Union européenne. d'une part et nos amis des États-Unis, et notamment l'administration Trump, qui exerce depuis des années beaucoup de pression pour des raisons économiques, pour des questions de négociations, des droits de droits. On connaît la position de Donald Trump, qui est très protectionniste, qui essaye d'influencer de façon parfois très brutale, vraiment déconcertante, avec une logique qui lui est propre. En parlant d'actualité, je vais répondre à ta question, mais par exemple ce matin j'ai encore lu que Trump considère que la sanction récente administrée par l'Union Européenne à l'adresse de X d'Elon Musk, pour Trump c'est une sanction adressée au peuple américain. pas à Elon Musk et son réseau mais au peuple américain donc il a une logique qui lui est très propre et donc il exerce une pression vraiment très importante sur l'Union Européenne Et ce qui est inadmissible pour nous, sur nos valeurs, puisque les règlements, notamment le règlement sur l'IA, est censé refléter nos valeurs, protéger les droits fondamentaux, et instaurer un certain nombre de garanties de garde-fous pour protéger les citoyens en Europe de ces... risque posé par l'IA. Et donc, cette information-là, qui nous dit qu'on va repousser l'entrée en vigueur du règlement sur l'IA, c'est une mauvaise nouvelle pour nos droits, je pense, parce que c'est un mauvais signal. C'est un très mauvais signal. Je pense vraiment que ce règlement sur l'IA, malgré tous ses défauts, peut-être ses excès aussi, en termes d'inflation législative, de... On a jugé trop complexe, trop technique. C'est quand même important pour protéger nos droits. Donc ce n'est pas un bon signal.
- Speaker #0
Alors, qu'entends-tu par inflation législative ? Parce qu'on n'est pas écouté juste par des juristes. Qu'est-ce que tu évoques derrière l'inflation législative ?
- Speaker #1
Alors l'Union européenne, elle est connue pour... Alors ce n'est pas une puissance comme les Etats-Unis, mais c'est une puissance normative. On a un législateur européen qui émet beaucoup de règlements, de directives. A tel point qu'on parle d'une bureaucratie, d'une technocratie, avec un ensemble de textes très précis, très détaillés, très complexes aussi, qui vont s'appliquer dans de nombreux domaines. Et le domaine du numérique a fait l'objet d'un nombre très très grand de règlements et de directives. Le règlement sur l'IA, ce n'est pas le seul. On a tout un pan législatif, on a par exemple RGPD, enfin la CPJD, mais c'est l'IA, l'IA. le DSA, le DMA. Ce sont des règlements européens qui sont censés réglementer la façon dont les plateformes, les hébergeurs vont mettre du contenu pour essayer de réglementer les réseaux sociaux. On a vu qu'il y a beaucoup de contenus qui sont des deepfakes, beaucoup de... de risques posés par ces plateformes, du fait du contenu qu'elles émettent. Et donc l'Europe a voulu se saisir de toutes ces questions et on a mis au point tout un tas de règlements et de directives. Le problème, c'est qu'il y en a beaucoup. On ne sait pas toujours si ces textes ne sont pas contradictoires les uns avec les autres. On ne sait pas toujours les articuler. Donc quand on a le règlement sur l'IA, il faut quand même savoir qu'il y a le RGPD derrière, comment ça s'articule. Donc, voilà, on sait que l'Union européenne, elle est légifère, c'est très bien, c'est pour protéger les droits fondamentaux des citoyens européens, mais ça crée beaucoup de complexité réglementaire.
- Speaker #0
En gros, est-ce qu'on pourrait dire que la multiplication de textes rend inefficace l'ensemble parce qu'il est inexploitable, clairement ?
- Speaker #1
Oui, on peut le dire parce que je pense que le fait qu'on... que l'Union européenne est en train de retarder un petit peu ou de repousser l'entrée en vigueur du règlement sur l'IA, ce n'est pas seulement lié à la pression de Trump. Je pense qu'il y a aussi une pression en interne, les parties prenantes, à commencer par les autorités nationales, les entreprises et même les citoyens qui disent « Oui, bon, c'est un petit peu complexe, on n'arrive pas forcément toujours à comprendre ou à mettre en œuvre tous les mécanismes qui sont censés être mis en œuvre. » Et donc, ça prendra peut-être plus de temps que prévu. Alors, le règlement sur l'IA avait prévu une entrée en vigueur différée sur plusieurs mois, années. C'est échelonné, on va dire. Mais là, c'est vrai que le fait de repousser... Et d'ailleurs, ce que je trouve regrettable, c'est qu'on repousse quelque chose d'important. On repousse les dispositions liées, si je ne raconte pas de bêtises, au système d'IA à haut risque. Ce sont quand même, par définition, des systèmes à risque élevé qui vont nous exposer... à des dérives, à des abus qui sont graves pour nous et nos droits.
- Speaker #0
Est-ce que tu peux nous illustrer ou nous définir, ou les deux, ce que sont des systèmes au risque ?
- Speaker #1
Oui, le règlement sur l'IA a choisi une approche par les risques, donc une classification en fonction du niveau de risque. Ça a été beaucoup critiqué parce qu'on s'est dit que c'est difficile, a priori, de classifier qu'est-ce qui est risque ou pas. donc on regarde L'impact sur les droits fondamentaux et sur la santé et la sécurité des citoyens, a priori, encore une fois. Et donc, on a des systèmes dits à haut risque, pour lesquels on va avoir un certain nombre d'obligations, que ce soit de la documentation, des obligations de transparence, de la gestion des risques, des analyses de risques sur les droits fondamentaux. Un exemple pour illustrer, ça peut être par exemple tout ce qui va être dans le champ des ressources humaines, du recrutement, des candidatures. Ça, ça peut poser un risque parce que si on est un candidat à un poste et qu'on sait que c'est un système d'IA qui analyse notre CV, sachant que ça peut être biaisé, ça peut avoir... des répercussions négatives sur nous.
- Speaker #0
Discriminatoires ? Exactement.
- Speaker #1
Par exemple, des biais, des discriminations classiquement par rapport aux groupes vulnérables dans lesquels on trouve les femmes. Donc on peut avoir des biais sexistes et d'autant plus quand on va avoir des discriminations liées à l'intersectionnalité. Par exemple, on sait que certains systèmes de reconnaissance faciale dans le domaine, c'est de l'IA aussi, la reconnaissance faciale, on a eu beaucoup d'études aux Etats-Unis, et les personnes qui sont le plus exposées à ces risques, ce sont les femmes issues des minorités ethniques. Et voilà, donc potentiellement, ce sont des décisions qui vont être rendues par des systèmes qui peuvent défavoriser certaines personnes issues de catégories dites vulnérables, et donc protégées par le droit.
- Speaker #0
Est-ce qu'il faut en déduire que les femmes européennes sont... Encore plus, sont les premières victimes de ce report de réglementation de 2025 à 2027 ? Ou est-ce que ce sont les femmes en général qui ont plus besoin d'être protégées par rapport au biais de l'IA ? Qu'en penses-tu ?
- Speaker #1
Oui, c'est une bonne question. Le règlement sur l'IA est censé... Alors, c'est une réglementation de produits. L'IA est envisagée comme un produit mis sur le marché. Ok ? Mais l'autre aspect, c'est que c'est censé quand même protéger nos droits fondamentaux. Il y a tout un tas de garanties. Donc oui, c'est une mauvaise nouvelle pour les Européens en général, que ce soit retardé. Et peut-être encore plus, en particulier pour les femmes, parce qu'on sait que ces systèmes, je l'ai dit tout à l'heure, comportent un certain nombre de biais, et notamment des biais sexistes. Alors là, je peux illustrer, il y a vraiment des exemples, je ne sais pas, je peux illustrer ? Oui, oui. Pour rendre ça peut-être plus concret, mais on sait que par exemple, pour prendre une illustration assez fréquente, c'est le domaine médical, les soins, le diagnostic. Les systèmes d'IA sont de plus en plus utilisés par les médecins dans le diagnostic de cancer, par exemple, de tumeurs, et aussi toutes les maladies cardiovasculaires. Et on sait que, historiquement, c'est un domaine qui comporte un certain nombre de biais. parce qu'entraînés sur des données masculines, enfin des données masculines, je ne sais pas si on peut dire ça, mais sur des données qui concernent plutôt les hommes, les systèmes d'IA ne font que reproduire des biais qui sont déjà là. Et non pas que reproduire, mais amplifier, systématiser. Et on a eu vraiment des exemples dans le domaine des maladies cardiovasculaires et les symptômes ne sont pas les mêmes. Or, les systèmes d'IA sont plutôt entraînés à détecter des symptômes qui s'exprime. plus chez les hommes que chez les femmes. Donc forcément, on a un risque de mauvais diagnostic pour les femmes. On peut passer à côté d'un diagnostic lorsqu'on est une femme. Et tout ça, je le répète, ce n'est pas l'IA qui va les créer, c'est juste qu'elle va amplifier des biais, des formes de discrimination sociétales qui existent de façon historique dans nos sociétés.
- Speaker #0
Oui, mais du coup, finalement, si on généralise par exemple l'usage d'IA dans le milieu médical, Puisque la majeure partie des études auront été faites sur des sujets masculins et qu'on saura précisément détecter un infarctus chez un homme, mais on n'aura pas suffisamment de données pour détecter un infarctus chez une femme, même l'IA dans le milieu médical se trompera plus souvent pour une femme. C'est un risque à la vie et à la mort pour les femmes, là où l'homme sera détecté de manière plus précoce. Oui, voilà.
- Speaker #1
Donc on peut se dire que c'est quand même très injuste pour les femmes. Et il y a tout un pan des recherches qui cherchent à débiaiser ces systèmes. Là encore, c'est des questions très techniques, mais pas seulement. Il faut trouver des métriques, mais il faut savoir sur quoi on se base. ça veut dire quoi entorer l'égalité entre mes femmes est-ce qu'il suffit tout simplement d'avoir plus de données qui incluent plus les femmes des données donc représentatives et quand je dis femmes Mais encore une fois, l'approche intersectionnelle nous dit qu'il faut aussi représenter les femmes issues des autres minorités, pas que les femmes blanches. Donc voilà, ces systèmes-là, il faut savoir que l'IA est nourrie de données. Et si on a des données de mauvaise qualité ou des données qui sont erronées ou pas assez suffisantes en nombre, on va avoir des mauvais systèmes d'IA. Avec tous les risques que ça implique pour nos droits fondamentaux en termes de non-discrimination. et... Voilà, là je suis partie sur la non-discrimination, mais on a tout un tas d'enjeux qui concernent la protection de la vie privée par exemple. Par exemple aussi, la protection de nos données personnelles, ce sont des vrais enjeux.
- Speaker #0
Oui, c'est les libertés fondamentales en général. Et alors justement, sur ce sujet-là, sur les droits fondamentaux des Européens qui, toi, te semblent le plus mis en danger avec l'apparition de l'IA, quel droit te semble le moins évoqué, par exemple, dans l'actualité, mais qui aura, à ton sens, qui présente le plus de risques ?
- Speaker #1
Oui, merci pour cette question. Je suis contente d'en parler parce que très souvent, et moi, on m'interroge systématiquement sur la question des biais, des discriminations. C'est très, très documenté. Moi, je peux vous renvoyer à plein d'études qui existent et qui sont très pertinentes, notamment aux États-Unis, c'est très documenté. Par exemple, aussi sur la vie privée, on en parle énormément. la surveillance algorithmique, la reconnaissance faciale, ça on le connaît. Il y a d'autres aspects dont on ne parle pas et qui pour moi vont être majeurs dans les années qui vont venir. C'est tout simplement un droit aussi fondamental et basique que la liberté de penser. La liberté de penser, on a l'impression qu'on a tous par définition cette liberté puisqu'on pense, on croit penser librement, mais c'est de moins en moins le cas. parce qu'on est aujourd'hui dans des systèmes on va dire dans lesquelles on a des intelligences artificielles déployées quotidiennement. Je ne sais pas si la question du nudge est connue des auditeurs. Non, tu peux l'expliquer. Voilà, tout ce qui est nudge, ça va être des... Par exemple, lorsqu'on est sur des réseaux sociaux, on va être incité à cliquer ici plutôt que là. C'est quelque part des mécanismes technologiques qui vont court-circuiter notre cerveau. ça veut dire qu'on n'aura pas le temps de la délibération de la réflexion mais ça va jouer un peu sur nos instincts on a tous fait l'expérience ou pas mais lucky you sinon mais si vous êtes sur Instagram, vous scrollez vous voyez bien qu'il y a une forme d'addiction qui peut très rapidement se mettre en place avec le cerveau parce que ce sont des systèmes qui ont réussi à apprendre de nos données de nos billets ça exploite nos billets et donc aujourd'hui je... pense qu'on ne jouit pas de la liberté de penser telle qu'on l'a conçue, et là je renvoie à l'ouvrage de Julien Gobin, l'individu fin de parcours, parce que finalement, les Lumières ont postulé qu'on est des individus libres, éclairés, qu'on peut penser par soi-même, qu'on a le libre arbitre, mais aujourd'hui est vraiment le cas, lorsqu'on sait qu'on est exposé quotidiennement à des systèmes qui cherchent justement à nous influencer, le nudge, ou alors même à prédire nos intentions, ... à nous recommander. On voit sur Netflix, c'est de l'IA. Les systèmes de recommandation, vous allez aimer ce film. Est-ce que c'est moi qui fais le choix d'exercer librement ? Est-ce que j'ai choisi ce film ou est-ce que c'est mon système de recommandation qui a dit, Annaëlle, ce film va te plaire en fonction de tes goûts, de ton historique ? Est-ce que je pense par moi-même ? Est-ce que... Et une des menaces, et pour moi, ça va être de plus en plus le cas dans les années qui vont venir, ce sera la question des données neurales. Donc les données... qui vont être recueillies par des interfaces dites de cerveau-machine et qui vont pouvoir... Je ne parle pas forcément du délire d'Elon Musk avec des interfaces qui vont être invasives, des électrodes dans le cerveau qui requièrent une chirurgie qui demande d'ouvrir notre crâne et de mettre des implants ou des électrodes. Ce n'est pas ça dont je parle. Moi, je fais référence à tous ces casques qui sont vendus, par exemple... Nature et découverte qui sont censées induire un état de bien-être, de relaxation, mais qui au passage vont recueillir nos données, se posent la question du statut de ces données, est-ce que c'est identifiant, qu'est-ce qu'on en fait, comment elles sont traitées ? Et oui, donc liberté de penser cuide du traitement de nos données neurales. Comment on fait pour se protéger face à des systèmes qui vont prétendre lire nos intentions ? Parce que c'est un petit peu ça. est derrière. Ce sont des systèmes grâce à l'IA, des algorithmes qui vont pouvoir décrypter nos intentions avant même qu'on en ait conscience et qu'on les exprime. Et comment on protège ça ? Sachant que la liberté de penser a été consacrée au XIXe siècle ou à la fin du XVIIIe, mettons, à une époque où toutes ces technologies n'existaient pas. On pensait à l'époque que le fort intérieur était inviolable, que seul Dieu, et là je fais référence à Saint-Augustin, seul Dieu peut pénétrer ma conscience et moi-même, mais personne, aucun individu n'est capable de lire comme dans un livre ouvert, à part les magiciens, les occultistes mais c'était inimaginable qu'on ait accès à nos pensées, à notre vie Et aujourd'hui ce n'est plus le cas. Donc comment on protège la liberté de penser, qu'on pensait inviolable, sacrée, face à des systèmes qui prétendent décrypter nos intentions, prédire nos comportements, je ne veux pas faire du public, mais c'est un peu ça.
- Speaker #0
Et qui peuvent du coup les orienter, parce que si je sais le mécanisme, le cheminement de pensée que tu as, je peux le guider petit à petit vers une autre pensée. peut-être celle que je voudrais que tu aies.
- Speaker #1
Exactement. Et on n'a pas pris la mesure de ce phénomène, mais par exemple, lorsqu'on va sur Google Maps, on nous fait prendre tel chemin plutôt qu'un autre. Pourquoi Google me fait prendre tel chemin et pas celui-ci ? Ce n'est pas forcément le plus court. Ça peut être parce que, pour des raisons publicitaires, ou parce qu'il a voulu me faire passer devant telle enseigne. Et pourtant, je vais le croire. Ce système-là joue sur nos billets. Nos billets d'automatisation, nos billets de confiance. L'être humain a une naïveté en lui, il fait confiance à la machine. C'est comme ça. on a une tendance à croire à la calculatrice quand elle nous donne un résultat. On pense que, chez JGPT, les systèmes d'IA génératif, c'est pareil. Ce n'est pas du tout la même chose, mais on a ce biais en nous. Et on est porté, quelque part, malgré nous, à croire naïvement ces systèmes.
- Speaker #0
Alors, là, il y a un petit blanc, mais j'ai envie de le garder aussi dans l'enregistrement, parce qu'Anne-Elle a dit chat JGPT, et juste un peu avant le début de l'interview, elle l'a nommé chatty.
- Speaker #1
et j'aimerais que tu dises aux auditeurs la suite de notre conversation et pourquoi le chatty ça c'est aussi une question très intéressante et j'en ai un peu honte mais oui je l'avoue j'ai appelé chatGPT donc le fameux agent conversationnel d'OpenAI chatty donc par son surnom et ça qu'est-ce que ça dénote ? ça montre que j'ai anthropomorphisé un système d'intelligence artificielle qui ne devrait pas l'être Merci. Parce que c'est une machine, il n'y a aucune intention derrière, aucune forme de conscience. Néanmoins, et mon comité d'éthique a rendu un avis, même plusieurs avis là-dessus, il y a un risque, un réel danger à anthropomorphiser ces systèmes. Donc moi, en l'appelant Jatin, je l'ai anthropomorphisé, puisque je l'ai appelé...
- Speaker #0
Tu l'as rendu adorable et inoffensif en plus.
- Speaker #1
alors qu'il est dangereux il est dangereux alors pas parce qu'il est maléfique parce que c'est un monstre qui a des mauvaises intentions pas du tout, c'est une machine encore une fois il n'y a rien derrière à part des 1 et des 0, des algorithmes, des données mais néanmoins c'est très dangereux parce qu'on peut entrer dans des schémas qui vont, qui peuvent qui peuvent, alors Les dangers sont réels, ça peut être tout simplement je vais croire à la machine, je vais faire des copier-coller, je vais l'utiliser à mauvais escient. Je ne cite pas le cas des avocats qui ont plaidé avec de la jurisprudence erronée et qui se sont ridiculisés. Mais tout simplement, on a eu des cas de personnes qui ont développé quasiment des sentiments pour ces chatbots avec lesquels ils conversaient quotidiennement, qui les prenaient pour des thérapeutes, des coachs, des amis, voire des amants. On a eu des cas de suicides d'adolescents. qui ont développé une relation un peu toxique avec ces systèmes qui sont très persuasifs, qui peuvent être adorables, qui nous parlent comme s'ils étaient nos meilleurs amis. On appelle ça le phénomène des IA compagnons. Et c'est un vrai phénomène qui existe. On a notamment des personnes vulnérables, peut-être les jeunes, mais pas qu'eux. Il ne faut pas croire que c'est que les jeunes, ça peut toucher n'importe qui. qui ont développé des liens très forts avec ces systèmes via des conversations permanentes. Et donc les dangers, c'est qu'on peut rapidement développer une forme d'addiction avec ce que cela implique derrière.
- Speaker #0
Mais du coup, et là je reviens sur pourquoi c'était important pour moi qu'on évoque ce point un peu drôle, c'est que même toi qui travailles quotidiennement dans un comité consultatif sur l'IA, eh bien, en tant que personne, tu peux avoir ce petit débordement, mais qui est lié à notre humanité. Donc, voilà, en fait, c'est vraiment une manière aussi de démontrer que, et même moi, je vais avoir mes billets quand je vais utiliser ChatGTP, alors que j'y pense quotidiennement d'un point de vue critique. Donc, vraiment, ce n'est pas pour condamner les personnes qui l'emploient. mâle ou qu'il anthropomorphise, c'est que notre nature humaine nous conduit à avoir ces biais-là ou ces attitudes-là, et sur lesquelles on doit se méfier de nous-mêmes. Oui,
- Speaker #1
exactement, et c'est parce qu'on est scindé, on a notre rationalité, on a nos bagages théoriques, on sait de quoi on parle, mais on a nos émotions, on a notre petit côté irrationnel, et oui, mais ça s'est documenté depuis les années 70, je crois que c'est l'effet Lisa, si je ne dis pas de bêtises, avec le premier chatbot. Alors c'était un proto-chatbot, il était très rudimentaire. Oui, le premier chatbot, il se contentait en fait de reprendre la question et de la mettre sous forme interrogative. Et déjà rien que ça, on avait l'impression qu'on parlait à une vraie personne derrière. Alors qu'aujourd'hui, tu le sais bien, on a des systèmes qui sont mimétiques et qui simulent à la perfection des dialogues, à tel point qu'on ne peut plus dire aujourd'hui si c'est un chatbot ou un être humain derrière. Tout ça pour dire que, oui, c'est ancré en nous, et ce sont des systèmes qui, malheureusement, exploitent nos biais. J'ai évoqué tout à l'heure le biais d'automatisation. C'est le fait qu'on a tendance à croire à la machine, plus qu'à l'être humain, plus qu'à nous-mêmes. Et on a aussi un biais de confiance. Ça veut dire que si quelqu'un nous dit quelque chose, on a tendance à le croire. On est comme ça, on est des êtres humains, tout simplement. Et ces systèmes-là jouent là-dessus. Donc, ils jouent sur nos vulnérabilités.
- Speaker #0
Et si, en plus, il a un discours qui est convaincant, là où un être humain va pouvoir faire preuve de doute, etc. Si la machine s'exprime toujours de manière convaincante, on baisse nos gardes.
- Speaker #1
Je dirais même persuasive, parce que ça joue sur des ressorts vraiment émotionnels. Ça veut dire que oui, on va avoir des arguments, d'ailleurs parfois des arguments erronés, mais des arguments quand même. Et parfois, Chati va nous dire, oh oui, c'est adorable de ta part, merci, je me sens flattée que tu me dises ça. Vraiment, j'ai eu ce genre de dialogue et j'hallucinais, j'étais la première à me dire, waouh ! Ah oui, il me dit ça, mais comment ne pas être tenté de croire qu'il y a vraiment une conscience derrière, parce que c'est tellement persuasif, et parfois c'est presque mignon, on se dit, mais qui me parle comme ça à part Chatty ? Et vraiment, ce qu'on disait tout à l'heure, tes auditeurs n'auront pas les références, parce que je parle de ce qu'on disait avant l'interview, mais on a vraiment des... Oui, je ne vais pas m'apesantir, on a compris, mais c'est dingue. Et vraiment, on n'a jamais eu ça. On vit une période folle.
- Speaker #0
Oui, c'est la raison d'être de ce podcast. C'est parce que c'est une période folle et qu'on essaye d'en garder une empreinte. Revenons un peu, puisque c'est l'IA vue d'Europe, revenons un peu sur la réglementation. Il y a une affirmation qui est souvent dite par le monde de l'entrepreneuriat, c'est... La régulation freine l'innovation et laissez-nous innover, ne régulez pas tout de suite parce que sinon on va perdre cette course. Est-ce que vous avez été interrogé sur ce type de questions ? Est-ce que vous y avez réfléchi ? Est-ce que toi, tu as ton opinion là-dessus sur régulation et innovation ?
- Speaker #1
Oui, ça c'est un argument qu'on me sort très souvent. Ce n'est pas totalement infondé parce que c'est vrai qu'en Europe, les entreprises ont plus de difficultés que dans d'autres régions du monde. Elles ne bénéficient pas des mêmes financements, des mêmes politiques, on va dire, favorables. Donc, on a beaucoup de plaintes de pas mal d'entrepreneurs. Et il faut entendre aussi ce discours parce qu'on est dans un système mondialement concurrencé. Donc, il faut avoir en tête cet aspect global. néanmoins je ne suis pas d'accord avec ce discours parce que Pour moi, la réglementation et l'éthique ne sont pas des freins à l'innovation. Pas forcément, en tout cas. J'ai rajouté l'éthique parce que souvent, on me dit « oui, l'éthique, c'est un frein » . Non, l'éthique, la définition, c'est une réflexion sur nos comportements et sur les valeurs qui les fondent. Donc, réfléchir, ce n'est pas un frein à quoi que ce soit. Réfléchir, c'est bien. Voilà, donc déjà, je tiens à insister là-dessus. L'éthique, ce n'est pas un frein à l'innovation. maintenant on me dira oui mais la réglementation ça l'est Parce que ça peut imposer des contraintes disproportionnées, notamment aux petites entreprises qui cherchent juste à survivre, au sein d'un monde très concurrencé, et notamment je fais référence aux autres entreprises, qu'elles soient américaines ou chinoises, qui n'ont pas les mêmes contraintes. Alors je dirais, oui, en Europe c'est peut-être plus compliqué pour une entreprise, pour satisfaire tout un tas d'obligations, puisque je le disais tout à l'heure, l'Europe c'est une puissance normative, c'est pas une puissance... militaire, mais c'est une puissance normative, c'est-à-dire qu'elle a réglementé beaucoup de choses, et les citoyens et les entreprises doivent respecter ces normes. Néanmoins, je pense que c'est bien d'avoir de la réglementation, et notamment de la réglementation qui permet de protéger les droits fondamentaux des citoyens, parce que c'est aussi un argument marketing, je veux dire. Qui a envie d'acheter un système d'IA qui va être biaisé, qui va raconter n'importe quoi ? qui va potentiellement nous exposer sur le plan de la santé ? Qui a envie d'avoir des systèmes de via qui sont en roue libre ?
- Speaker #0
Ok, alors sur ça, je pense à la situation des avocats. au cas à l'heure actuelle. Aujourd'hui, il existe des solutions sur le marché qui ne sont pas idéales, qui sont de loin perfectibles et pour une multitude de raisons. Et pour autant, il y a beaucoup de cabinets qui vont les exploiter, les utiliser, faute de mieux. Parce qu'il n'y a pas d'alternative qui soit RGPD approved, quelle que soit la documentation qu'on puisse lire sur ce sujet. Et du coup, en fait, j'ai l'impression qu'on a même euh... retirer ce choix aux citoyens ou aux entreprises parce que les autres l'utilisent donc on doit l'utiliser pour ne pas perdre la course tout le monde est en train de courir c'est un peu le sketch de Raymond Devos pourquoi tu cours je suis dans une ville de fous donc là venir dire la régulation ce que tu disais je pense que c'est beaucoup plus complexe que ça il y a plein de clients Merci. qui sont, malgré eux, clients de ces solutions.
- Speaker #1
Oui, c'est un état de fait. Et ça rejoint aussi la question de, finalement, la souveraineté numérique. On nous dit qu'il faut maîtriser ces outils, qu'il faut qu'on ait un contrôle sur nos données, que nos données n'atterrissent pas dans la nature ou qu'elles soient entre les mains d'acteurs pas forcément bien intentionnés. Mais oui, la question est, on n'a pas d'alternative, on n'a pas de solution, par exemple française, qui respecterait toutes les normes européennes. Oui, c'est vrai, mais néanmoins, pour en revenir à l'innovation, je pense que peut-être que c'est une question de temps, peut-être qu'à l'avenir, on aura plus... On aura plus de champions européens, des systèmes qui soient attractifs et qui respectent. On peut imaginer. Peut-être qu'il faut laisser un peu plus de temps, parce que tu l'as évoqué, on est dans une course. Mais peut-être qu'il ne faut pas trop voir à court terme non plus. Je ne suis pas sûre que... Par rapport à ta question, je ne suis pas sûre que... Que ce soit définitif.
- Speaker #0
Oui, je suis d'accord avec toi. C'est très mouvant. Demain, un nouvel acteur qui serait RGPD, je pense qu'il raflerait la mise, il raflerait la table. Parce qu'aujourd'hui, tout le monde est dans une... Beaucoup d'utilisateurs sont dans une situation d'inconfort, alors qu'ils en aient conscience ou pas, mais qu'une solution confortable viendrait convaincre très facilement.
- Speaker #1
Oui, par exemple, pour en revenir au chatbot, on a... chat GPT d'OpenAI, on a DeepSeek, la chinoise, on a Gemini de Google, je peux les multiplier, mais on a en France le chat de Mistral, qui est un agent conversationnel qui est tout à fait respectable.
- Speaker #0
Avec une majeure partie des fonds.
- Speaker #1
Exactement, on en a parlé, je crois. Mais néanmoins, ça a le mérite, c'est aussi un signal, on est capable. On est capable. Et je veux dire, ce n'est pas les chercheurs qui montent. On a des très bons chercheurs, on a des très bons chercheurs en IA, des très bons mathématiciens. Peut-être que, et ça rejoint la question précédente sur le fait que l'innovation, on a peut-être trop de réglementations et pas assez de politiques qui soutiennent nos champions.
- Speaker #0
Pas suffisamment de fonds, en fait.
- Speaker #1
Ce n'est pas les mêmes logiques. Encore une fois, ça rejoint les valeurs. Nous, on préfère miser sur les valeurs, sur la protection. des droits fondamentaux, sur tous ces aspects-là. Et peut-être qu'on a négligé toutes ces choses un peu plus pragmatiques, quelque part.
- Speaker #0
Oui, ok. Donc, du coup, si je te repose la question, innovation ou régulation ?
- Speaker #1
Alors, il ne faut pas les opposer. Je ne crois pas que ce soit soit on innove et on ne respecte rien du tout. Voilà, c'est le Far West où soit on respecte tout et du coup, on a perdu la course et c'est fini pour nous, non ? il y a un juste milieu, comme toujours, à trouver, où il faut placer le curseur, et c'est un exercice très, très subtil. On n'a pas encore trouvé, clairement. En ce moment, oui, on peut dire qu'on est quand même challengé par l'Amérique, par la Chine. Pour revenir à la toute première question, on est en train de se faire manger la laine sur le dos par Trump, son administration, et par tous les grands acteurs du numérique, toute la big tech. Néanmoins, ce n'est pas perdu. Les choses peuvent encore bouger. Et il faut conserver de l'espoir. Je pense qu'il y a des surprises quasiment tous les jours. C'est un domaine, enfin rien n'est joué, j'ai envie de dire. Et il ne faut pas perdre foi dans nos valeurs. Je pense que le long terme, c'est vraiment des systèmes éthiques. qui respectent... Alors, encore une fois, je suis mesurée, je ne dis pas que l'Union européenne ne fait que des choses bien. Au contraire, on a trop de législation, trop de contraintes, trop d'obligations procédurales, c'est trop compliqué. Les citoyens eux-mêmes ne comprennent pas, les entreprises le critiquent beaucoup. Il faut trouver un moyen de réglementer et de protéger l'être humain. Puisqu'en Europe, on a fait le choix d'une IA centrée sur l'être humain. C'est un petit peu ça, le slogan. Mais comment on fait ça ? Comment on protège l'être humain, les droits fondamentaux, tout en ne tombant pas dans un excès réglementaire ?
- Speaker #0
Oui, alors sur ça, je pense au... aux propositions de loi sur le fait de faire vérifier par sa carte d'identité l'âge que l'on a avant d'accéder aux réseaux sociaux qui sont tournés par des... dans lesquels il y a des algorithmes qui tournent, des algorithmes de recommandation, etc. Et ça aussi, c'est... Est-ce que cette protection que l'on va chercher n'est pas aussi une bonne raison de... trop surveiller ou d'aller chercher trop de données des citoyens européens. C'est-à-dire qu'aujourd'hui, combien de personnes souhaitent scanner leur carte d'identité pour avoir accès à Instagram, par exemple ?
- Speaker #1
Oui, oui. Ça, c'est pour des raisons de sécurité, c'est ça ? D'authentification ?
- Speaker #0
Non, c'est une proposition qui est faite pour protéger les adolescents. Donc, il y a aussi ce côté-là, c'est jusqu'où les valeurs justifient, quel contrôle le respect des valeurs justifie-t-il ?
- Speaker #1
Oui, voilà, là on est clairement, on est typiquement dans un cas de tension. Une tension, c'est ce qu'on appelle en éthique une tension entre deux valeurs. Ça veut dire qu'en éthique, on n'est jamais en train de dire ça c'est la solution et ça il ne faut surtout pas faire. Non, très souvent, on assiste à des conflits entre des valeurs opposées. typiquement plus de sécurité. mais moins de vie privée. Comment on place le curseur ? Comment on équilibre la volonté de protéger nos jeunes, par exemple, qui sont exposés à des vrais risques d'addiction, voire de cyberharcèlement, de pornographie ? Il y a tout un tas d'études qui sont alarmantes à l'heure actuelle. Comment on protège ces jeunes, et plus largement les personnes vulnérables, versus tout en n'empiétant pas trop sur la vie privée, tout en ne captant pas toutes les données ? Comment on concilie ça en fait ? Comment gérer ces différents voilà je veux protéger mais en même temps je ne veux pas non plus être intrusif. C'est compliqué. C'est ce que je disais, la solution elle n'est pas là sur un plateau. Je ne peux pas délivrer, on n'est pas dans le techno-solutionnisme. Alors il y a des solutions radicales, dans ce cas-là on interdit, c'est aussi une proposition. Les jeunes n'ont plus le droit d'aller sur les réseaux parce que ça fait trop de dégâts. Mais non, on est des sociétés libérales, on ne peut pas oublier qu'on y... Pas des systèmes totalitaires qui vont dire aux gens comment faire, ils ne doivent plus parler avec ChatGPT parce que ça peut potentiellement leur nuire. Non, c'est comme, on le sait, l'industrie du tabac existe. L'alcool ça ne fait pas du bien mais les gens continuent à en consommer, avec modération. Ça mettra un certain temps, je pense que les attitudes changeront. Moi j'ai quand même une petite appréhension quand je vois les jeunes gens, ceux qui ont moins de 20 ans aujourd'hui. Vous savez cette génération qui a été élevée avec les écrans. qui n'ont pas ce recul que nous on peut avoir parce qu'on connaît le monde d'avant. On connaît le monde d'avant l'IA, on connaît même le monde d'avant les tablettes. Les plus vieux d'entre nous connaissent le monde d'avant Internet. On n'a pas les mêmes réflexes, on n'a pas peut-être aussi la même solidité psychologique. J'ai l'impression que toute cette technologie nous a beaucoup fragilisés psychologiquement. Et on a vu, ce n'est pas des paroles en l'air que je dis, j'ai beaucoup lu d'études qui montrent les ravages des systèmes numériques, des réseaux sociaux, des systèmes algorithmiques sur... les plus jeunes. Il y a des études alarmantes qui montrent que les jeunes sont moins... comment dire... Ils sont plus fragiles psychologiquement à cause des écrans, à cause des filtres, leur apparence physique. Tout ça, ça paraît un peu bête mais non, c'est des vrais risques psychologiques. Mais ça, ça fera l'objet d'autres podcasts, je pense.
- Speaker #0
Oui,
- Speaker #1
oui, tout à fait. Je suis en train de teaser les ravages que peuvent faire ces systèmes sur notre cerveau, qui est quand même l'organe qu'on utilise le plus. C'est ça qu'il faut protéger. D'où la liberté de penser, comment on sacralise ça.
- Speaker #0
Oui, c'est comment demain on sacralise la liberté de penser pour ne pas être attaqué par... par des biais algorithmiques qu'on n'aura pas déterminés. Moi, je le constate, ne serait-ce que quand je fais un achat sur Internet. les recommandations qui me sont faites au niveau littéraire essayent de m'éloigner de ce que je souhaite réellement lire. Et ça, est-ce que ce passage de « non, je ne prends pas la recommandation parce que ce n'est pas réellement ce que je veux » , combien de personnes ont encore cette distance entre ce que la machine recommande et ce qu'eux veulent vraiment ?
- Speaker #1
Et on s'est rendu compte des limites du consentement. Parce que oui, on consent. Ben oui, je consens, j'accepte les cookies. Et on s'est rendu compte que ça ne protégeait pas. Ce n'est pas des garde-fous. Parce que quelque part, on consent, mais on est porté à consentir. Parce qu'on est biaisé et parce que ça joue sur nos vulnérabilités. Et parce qu'on sait qu'on pourrait refuser, mais on ne le refuse pas. Parce que c'est trop tentant, parce que c'est trop confortable, parce que c'est pratique. Et moi, la première, encore aujourd'hui, j'ai utilisé Google Maps. Et je sais que j'aurais pu ne pas l'utiliser, mais ça va plus vite.
- Speaker #0
Est-ce qu'on peut encore parler de consentement ?
- Speaker #1
Exactement, c'est l'une des questions que l'on se pose. En tout cas, dans notre comité, on sait que le consentement, on parle de consentement libre et éclairé, mais on sait que dans un monde qui est de plus en plus algorithmisé, avec des systèmes d'IA, de recommandations, ça devient difficile. Et d'ailleurs, on n'en a pas parlé, mais on a parlé de deux types de systèmes, et pour moi, c'est vraiment ça. Aujourd'hui, on est confronté à ces deux systèmes-là. On a des systèmes d'IA générative, donc c'est les chatbots, Mais ça peut être des systèmes qui vont aussi faire produire de la musique, des vidéos, versus les systèmes de recommandation. Et donc, on a cette double menace, quelque part. On a les LLM de l'IA générative et on a les systèmes de recommandation. Et c'est vraiment, ce sont des risques qui se rejoignent, qui se combinent.
- Speaker #0
Oui, entre finalement ce qui sort et ce qui rentre dans la machine.
- Speaker #1
si vous voulez le... Les systèmes d'IA génératifs, ça va être le contenu, y compris les deepfakes qui vont menacer nos démocraties, nos droits fondamentaux. Et les systèmes de recommandations qui vont, quelque part, nous court-circuiter, nous empêcher un petit peu de réfléchir par nous-mêmes. Et on a ces deux types de systèmes-là, aujourd'hui.
- Speaker #0
Alors, j'irais même plus loin, qui nous emprisonnent dans une bulle.
- Speaker #1
Oui.
- Speaker #0
Là, j'ai vu passer une réglementation de l'État de New York. pour imposer aux plateformes d'indiquer aux acheteurs, aux consommateurs, que le prix a été généré via un algorithme qui a analysé leurs données personnelles. Donc deux personnes qui achètent le même sac, selon leur passif sur Internet, n'auront pas le même prix pour ce sac.
- Speaker #1
C'est ce qu'on appelle la personnalisation. L'IA permet la personnalisation à outrance. Et ça peut avoir des aspects positifs et ça peut avoir des aspects négatifs.
- Speaker #0
Voilà, ok.
- Speaker #1
Avec des ruptures d'égalité, typiquement, le pricing, avec des prix différents en fonction de l'historique, des préférences.
- Speaker #0
Tout à fait. Annaëlle, on pourrait discuter encore durant des heures sur l'IA vue d'Europe. J'aimerais que tu nous laisses sur un sujet qui, pour toi, n'est pas traité dans l'actualité, mais qui est essentiel pour nos auditeurs de connaître. ou de réfléchir, est-ce qu'il y a quelque chose qui te vient à l'esprit ?
- Speaker #1
Oui, alors je l'ai évoqué tout à l'heure très rapidement, la souveraineté numérique, comment on fait en sorte d'avoir des outils que l'on maîtrise. Par exemple, on n'en parle pas suffisamment, mais le fait d'avoir une adresse Gmail, c'est vraiment pas top, parce que Google c'est tout sur nous, et on n'a pas forcément envie que Google sache tout sur nous, sachant que nos intérêts ne coïncident pas forcément avec ces grandes entreprises, ces acteurs numériques. Peut-être revenir aussi sur la menace que présentent les deepfakes, qui vont être de plus en plus utilisés pour manipuler. Il faut savoir que le règlement sur l'IA, dans une de ses dispositions un peu énigmatiques, interdit les techniques subliminales de manipulation. Et ça, je trouve ça très intéressant. Et ça rejoint encore une fois la liberté de penser. mais on sait que... ces deepfakes vont sans doute plus impacter les femmes que les hommes. Et peut-être que ce serait bien qu'en Europe, on en ait vraiment conscience. Je sais qu'en Amérique, ils en ont conscience. Il y a eu beaucoup d'études qui ont été faites. Mais ça peut aller très loin. C'est des systèmes qui vont être utilisés à l'encontre par exemple de femmes politiques qui vont Tenter de faire taire la parole de certaines journalistes en produisant des faux contenus.
- Speaker #0
Et donc ça, les femmes sont beaucoup plus menacées que les hommes ?
- Speaker #1
Oui, à 90% ça touche des femmes.
- Speaker #0
D'accord.
- Speaker #1
Et voilà, donc ils font... En avoir conscience. Et un autre sujet d'inquiétude pour moi, ce sont les plus jeunes. Et tout ce qui est cyberharcèlement des plus jeunes. Avec tous les suicides que ça a pu faire. On a vraiment aujourd'hui un potentiel pour harceler les gens. Et on le sait que quand on est ado, on est assez fragile. Et vraiment, il y a un élément d'inquiétude là-dessus. Vraiment. ce serait bien d'essayer de trouver des solutions pour les protéger.
- Speaker #0
Voilà. Je vais quand même finir sur une dernière question parce qu'on a beaucoup parlé de se protéger face à l'IA, etc. Et je te sais passionnée par les nouvelles technologies. Et du coup, j'aimerais savoir quand même quelle est la technologie à base d'IA qui t'enthousiasme le plus et en laquelle tu crois le plus pour l'avenir, par exemple ?
- Speaker #1
Alors, je ne sais pas si je peux dire qui m'enthousiasme le plus, en tout cas qui me fascine. Moi, je dirais l'IA générative, bien sûr, parce que tu me disais que tu ne supportes pas les images générées par l'IA. Mais moi, je suis fascinée à quel point la frontière, elle est de plus en plus brouillée entre le réel et le fake. Et en fait, ça rejoint mon amour de la science-fiction, où quelque part, je vois des scénarios à la Philippe Cadic se réaliser. Bientôt, on ne pourra plus discerner le vrai du faux. Donc ça ne m'enthousiasme pas, mais ça me fascine. Et je me dis, waouh, la technologie n'est pas loin de la magie, quelque part. On arrive aujourd'hui à faire croire des choses qui sont totalement fausses, et pourtant, on y croit dur comme fer. donc Ce n'est même pas de l'enthousiasme, c'est une forme de fascination. Je me dis, je vis dans un monde où la science-fiction est devenue vraie.
- Speaker #0
Qu'une nouvelle réalité, une post-réalité est en train de venir sous nos yeux.
- Speaker #1
Mais quand on voit que pendant longtemps, on disait que par exemple, la créativité, l'art, c'est réservé à l'être humain, et on y croyait dur comme fer. On pensait que finalement, ceux qui allaient nous voler nos jobs, ce seraient les robots. pour les métiers manuels. Non, aujourd'hui, on se rend compte que les intellectuels sont challengés. Ce sont les avocats, les médecins qui ont aujourd'hui le plus peur de se faire voler leur travail par des LLM. Et donc ça, c'est quand même... Je trouve que c'est intéressant sur le plan intellectuel. On ne s'y attendait pas du tout. Cette révolution de l'IA générative, moi, je la compare à l'Internet, parce qu'on a eu un avant et un après Internet. Et clairement, aujourd'hui, on vit dans un monde avec lequel il va falloir composer. On n'est plus dans le monde d'avant.
- Speaker #0
Bon alors je pense qu'on peut s'arrêter là, je te remercie beaucoup Anaëlle pour notre échange, j'espère que ça aura éclairé et insufflé une réflexion sur beaucoup de choses à nos auditeurs, on a évoqué plein de points et j'ai découvert plein de choses donc merci beaucoup. Voilà c'est la fin de cet épisode, n'oubliez pas de vous abonner, au revoir.