- France Charruyer
Bonjour à tous et bonne année 2025. Entre mythes et réalités, Data Ring, Association d'intérêt général, loi 1901, s'emploie à nourrir un débat toujours citoyen autour du rôle du numérique dans la protection des droits fondamentaux, mais aussi de l'innovation. Afin de nous éclairer sur les enjeux... économique de l'intelligence artificielle, de la tension entre innovation et contrôle, de la tension entre innovation et productivité, et bien un principe de réalité pour démarrer l'année. J'ai choisi d'inviter Nathalie Lanneret. Bonjour Nathalie.
- Nathalie Laneret
Bonjour France, bonne année.
- France Charruyer
Bonne année. Vous êtes vice-présidente des affaires publiques et gouvernementales de Criteo. Criteo est le premier fournisseur indépendant de technologies publicitaires. Vous étiez également avocate inscrite au barreau de Paris et de New York. et membre du comité juridique de l'IAPP, International Association of Privacy Professionals, et du board de Women for Privacy. On est très heureux de vous accueillir aujourd'hui dans les causeries d'ATA. Nous n'avons pas beaucoup de femmes, et quand on les invite, nous les savons les mettre en valeur. Alors nous souhaiterions que vous nous éclairiez, quand une de votre expérience passée de déléguée à la protection des données, de vos enjeux en tant que femme sur la privacy, mais également en tant que femme engagée autour de la... compétitivité de nos territoires. Et sur ce principe de réalité, au-delà de ce que peut faire la norme, j'ai besoin d'avoir votre avis de praticienne sur l'actualité réglementaire. On en a beaucoup. On en a peut-être un peu trop. Alors on a des publications du CEPD, de la Commission européenne, de l'ACNIL, avec une volonté de bien faire. Mais est-ce qu'on n'est pas en train de surtransposer ? Est-ce qu'on n'a pas un risque d'asphyxie de nos entreprises ? Où est-ce qu'on va se trouver un chemin ? entre la norme, les usages, la protection. Alors j'ai toujours l'habitude de demander à mes invités, lorsqu'on aborde le sujet complexe de l'intelligence artificielle, de nous donner déjà leur propre définition de l'IA avant qu'on aborde les enjeux qui les occupent en tant que praticien de la donnée et de l'intelligence artificielle. Alors pour vous Nathalie, c'est quoi l'IA ?
- Nathalie Laneret
C'est une très bonne question et je ne suis pas sûre que le podcast nous suffirait pour épuiser le sujet. Cela étant, je peux vous parler de ce que c'est l'IA chez Criteo. Et vous commencez par vous expliquer en fait que Criteo, c'est d'abord une boîte d'IA avant d'être le premier fournisseur indépendant de technologies publicitaires.
- France Charruyer
Alors comment on aborde l'IA chez Criteo ?
- Nathalie Laneret
Alors déjà, l'IA chez Criteo, elle est partout. Elle est partout. puisque au départ, c'est trois ingénieurs en 2005 qui ont mis au point un algorithme de recommandation, qu'ils ont essayé de commercialiser pour recommander des films. Mais personne n'était vraiment intéressé par cette application et ils ont donc rencontré la publicité personnalisée. Et là, depuis 2008, ça a vraiment été et c'est toujours d'ailleurs un mariage heureux entre l'IA et... et la publicité ciblée. Alors, j'utilise le terme IA, mais peut-être pour répondre un peu à votre question originale. Chez Criteo, ce qu'on fait, c'est du machine learning, c'est-à-dire qu'on entraîne des algorithmes sur une grande quantité de données et ensuite, on les utilise pour permettre, par exemple, de définir quelle est la meilleure publicité à montrer au meilleur moment à la meilleure personne. C'est aussi utiliser l'IA, par exemple, pour développer des chatbots à destination de nos clients pour mieux interagir avec eux. Ça va être aussi utiliser l'IA pour lutter contre la fraude. Mais l'IA, c'est le cœur de la machinerie de Criteo et c'est vraiment un vrai bloc technologique au sein de la société. Alors, Criteo ne commercialise pas de l'IA en tant que telle. mais l'utilise pour améliorer ses produits. Et puis évidemment, comme toute société qui se respecte aujourd'hui, utilise aussi l'IA pour améliorer son efficacité opérationnelle en tant qu'outil de productivité.
- France Charruyer
Comment vous l'utilisez chez Criteo de manière responsable ? Puisqu'on sait qu'on a une régulation dans l'IA, donc chez Criteo, vous régulez quoi ? La donnée, le modèle, l'algorithme, le système, l'inconnu, comment ça se passe ? Parce que l'encadrement justement de l'IA au sein d'une organisation telle que Criteo.
- Nathalie Laneret
Chez Criteo, on a déjà des politiques très strictes en matière de publicité à destination des annonceurs avec qui on travaille, mais aussi des éditeurs. Donc il y a déjà un certain nombre de choses que l'on s'interdit de faire, quoi qu'il arrive. Et puis, on a un comité d'éthique produit. dont la mission est véritablement d'anticiper les problématiques en amont, y compris sur des sujets liés à l'IA et forcément aussi liés à la donnée, puisqu'il est difficile de séparer les deux. On sait bien que, notamment en matière de machine learning, si on n'a pas de données, on ne peut pas vraiment faire de l'IA. Et donc, c'est vraiment la base de notre proposition, c'est d'anticiper les problématiques. En avance de phase, par le biais de réflexions impliquant toutes les parties prenantes de l'entreprise, pour effectivement proposer des produits responsables et une IA qui est contrôlée.
- France Charruyer
En matière d'IA, et on le voit puisqu'on a une actualité chargée, on a toujours tendance à surestimer les effets d'une technologie à court terme et à les sous-estimer à long terme. C'est ce qu'on appelle la loi d'Amera, c'est ce qui nous permet de comprendre et d'appréhender. tous les fantasmes et toutes les resticences vis-à-vis des nouvelles technologies, en particulier quand on parle d'intelligence artificielle. Alors, quel est votre avis pour vous sur l'IA, notamment l'IA générative ? Est-ce que vous pensez que c'est une technologie de rupture ? Puis ensuite, vous allez nous parler, vous, des IA que vous utilisez. C'est une technologie comme une autre. Est-ce que c'est véritablement quelque chose qui change tout ou pas ? Ou est-ce qu'on ne l'a pas toujours fait, en fait ? On n'a pas toujours cherché justement à promouvoir ses propres produits du mieux que l'on pouvait, en utilisant les moyens qui nous sont donnés.
- Nathalie Laneret
Alors, c'est intéressant parce qu'effectivement, nous, on ne fait pas d'IA générative. Nous, ce qu'on fait, c'est de l'IA discriminante, c'est-à-dire qu'on va utiliser un algorithme qu'on aura préentraîné pour qu'à un moment donné, il prenne en fait une décision sur la base de plusieurs choix qui vont lui être faits de publicité à présenter à un instant T. Mais cette publicité, elle est déjà prédéfinie. Donc, ce n'est pas de l'IA générative au sens où, en fait, un algorithme va pouvoir générer soit un son, soit une image, soit du contenu.
- France Charruyer
Voilà, c'est exactement ce que je voulais entendre.
- Nathalie Laneret
Et d'ailleurs, ce que je trouve un peu regrettable actuellement, c'est que parfois, on réduit l'IA à l'IA générative et on se limite exclusivement à ce qui fait la une des journaux. alors que l'IA c'est bien plus vaste que ce qu'il n'y paraît. Et voilà, nous ça fait, je vous dis, ça fait 20 ans qu'on fait de l'IA. Et à l'époque d'ailleurs, ça ne s'appelait pas de l'IA, ça s'appelait du machine learning. Donc ça c'est la première chose. La deuxième chose bien évidemment, c'est qu'on utilise l'IA générative et que le futur de la publicité va être impacté aussi par l'IA générative qui va permettre... de générer du contenu en temps réel. Mais pour le moment, on fait plutôt ce que l'on appelle de l'IA discriminante.
- France Charruyer
Compte tenu du fait des multiples définitions que nous avons aujourd'hui, puisque personne n'arrive à se mettre d'accord, on a une définition en termes du règlement européen sur l'intelligence artificielle, le RIA ou l'AI Act. On nous explique que c'est un système basé sur une machine. qui est conçu pour fonctionner avec différents niveaux d'autonomie, qui peut s'adapter après son déploiement et qui, pour des objectifs explicites ou implicites, déduit à partir des données qu'il reçoit comment générer des résultats, tels que, dans le cas qui vous occupe, des prédictions ou d'autres du contenu, des recommandations, là aussi, dans le cas qui vous occupe, et des décisions qui peuvent influencer des environnements physiques ou virtuels. À partir de cela, qu'est-ce qui va changer pour Criteo ? avec la mise en œuvre de l'AI Act et de cette définition ?
- Nathalie Laneret
Alors, de façon très intéressante, en fait, on a cette définition dans l'AI Act, mais on ne va pas jusqu'au bout de la logique si on ne précise pas que l'objectif de l'EI Act, c'est de traiter les cas d'usage les plus impactants pour les individus et pour la société.
- France Charruyer
C'est une réglementation produit qui est censée encourager l'innovation, tandis que le RGPD, c'est une réglementation plutôt... individuel qui est axé sur la protection. La différence entre les deux, est-ce que vous pouvez nous l'expliquer, du moins dans l'approche ?
- Nathalie Laneret
Je ne suis pas forcément d'accord avec cette dichotomie, si je peux parler de cette façon, parce qu'il y a toute une partie de l'AI Act qui est vraiment destinée aussi à protéger les droits fondamentaux des individus, la santé, la sécurité. Donc en fait, je dirais plutôt que c'est une réglementation hybride et qui essaye de concilier ces deux aspects, ce qui fait qu'on arrive à ce niveau de complexité. Alors... Sur la partie réglementation produit, qui vise à réglementer les cas où l'IA est utilisé, est intégré dans un produit donné, nous, on n'est pas directement concerné. Par contre, on serait peut-être éventuellement plutôt concerné par les cas d'usage qui visent à protéger les droits fondamentaux, cela étant de façon logique, j'ai envie de dire. L'annexe 3 qui définit ces cas d'usage qui sont considérés comme étant très impactants pour la société ou les individus ne contient pas en tant que telle la publicité en ligne. Pourquoi ? Parce que le fait de voir s'afficher une publicité quelques secondes en cours de navigation n'est pas impactant pour les individus, à une seule exception près dans les IACTS qui est la personnalisation de publicité à des fins d'emploi. Mais de façon générale, la publicité en ligne ne fait pas partie de cette annexe 3. Ça ne veut pas dire que Criteo n'est pas concerné par l'AI Act, puisque Criteo n'est pas que producteur d'IA, mais aussi utilisateur d'IA. Donc, comme un certain nombre de sociétés, encore une fois en tant qu'outil de productivité, il y aura des secteurs où on sera impacté, notamment l'utilisation de l'IA par exemple de recrutement en matière de gestion des ressources humaines. Et puis, il y a aussi toute une série d'IA qui vont être soumises à des obligations de transparence, et notamment l'utilisation de chatbots. On attend de voir quelles seront les guidelines édictées par la Commission européenne sur ces sujets, mais on sera aussi impactés. On n'est pas en plein dans le mille, mais on suit ce texte de façon très précise.
- France Charruyer
Alors ça, c'est important puisqu'on sait que le RIA a vocation à s'appliquer, mais on sait aussi que c'est le RGPD qui va rester le pilier. Donc comment peut-on appréhender justement ces doubles analyses de risques auxquelles vont devoir se livrer les opérateurs économiques ? D'abord le RGPD, quand il y a du traitement de données personnelles. Ensuite, le RIA, comment on peut éviter les redondances ? Là, on voit passer des analyses d'impact. Dans la dernière sur Copilot, dans ce que j'ai vu, 213 pages, ce sont les Suédois sur l'utilisation de Copilot en matière de formation, d'enseignement. Est-ce que les opérateurs économiques ont tous les moyens de faire des risk assessments de plus de 300 pages ? Donc, on a aujourd'hui des enjeux de réalisme sur la compliance. conformité, c'est-à-dire l'accompagnement juridique, le nécessaire encadrement juridique, mais également l'attention autour de l'innovation. Donc j'ai un souci d'échelle, c'est-à-dire que, est-ce que l'IAG va faire mieux que le RGPD en matière d'organisation, mais est-ce que je n'ai pas déjà une réglementation du RGPD sur l'intelligence artificielle ? Comment je vais articuler, moi, ces deux textes ? Parce que je suis un opérateur économique. Je dois et je souhaite déployer et augmenter ma productivité et je me retrouve avec un déploiement d'IA sur étagère ou pas, comme vous l'avez très bien dit, on va tous se retrouver à utiliser au sein des organisations des outils à base d'IA. Comment je gère moi mon risque ?
- Nathalie Laneret
Alors, c'est pareil, je pense que la réponse pourrait se faire en plusieurs, pourrait faire peut-être l'objet d'une thèse. En tout cas, je pense qu'il faut repartir aux fondamentaux. En ce qui concerne le RGPD, il faut faire attention à ne pas glisser sur un terrain dangereux qui serait de se dire que le RGPD réglemente l'IA quand elle n'est utilisée que comme un moyen de traitement et non comme une finalité. C'est-à-dire qu'en fait, il faut distinguer deux cas d'usage. Premièrement, quand j'entraîne mon modèle d'IA, effectivement, j'ai une finalité qui est l'entraînement du modèle d'IA en soi. Donc là, il va falloir que je respecte toutes les dispositions du RGPD, et notamment définir une base légale, inscrire une ligne dans mon registre, et puis tout ce qui va avec. Ça, il n'y a pas de discussion. Par contre... Quand l'IA est utilisée à des fins, par exemple, de gestion de la fraude, ou de publicité, ou de définition d'allocation des tâches, elle n'est pas une finalité en soi, elle n'est qu'un moyen du traitement. Donc dans ce cas-là, je ne pense pas qu'il faille repartir au début et recréer une ligne spécifique dans son registre. et définir une finalité précise. Mais il faut uniquement se limiter à inscrire dans le registre, au niveau des moyens utilisés, pour une finalité précise, l'IA en tant que telle. Quand on a déjà fait cette clarification, je pense que ça va permettre de simplifier pas mal de cas d'usage pour les entreprises. Et que vont rester en fait, comme étant problématique, les... cas d'espèce où les entreprises entraînent elles-mêmes leur propre algorithme et créent et développent leur propre IA ou alors font ce que l'on appelle et ce que Criteo aussi fait beaucoup, du fine tuning, de l'affinage de modèles préenregistrés pour ses propres finalités. Mais quand elle n'est utilisée que comme un moyen de traitement, je ne vois pas de complexité particulière.
- France Charruyer
Donc en fait, il faut se simplifier la vie et utiliser véritablement le RGPD comme le pilier, c'est-à-dire ne pas faire de la surtransposition, de ne pas trop en faire, et donc de s'attacher à l'esprit du texte, si je vous suis. Est-ce que les derniers travaux du CEPD, dont notamment le dernier avis, celui qui était très attendu du 17 décembre 2024, nous apportent plus de clarté ? Là, on voit qu'on a, sur des bases légales... des précisions sur l'utilisation de l'intérêt légitime. Qu'est-ce que vous pensez des avis ? Est-ce que finalement l'avis répond à toutes les problématiques ? Il se réfère plus de 15 fois à une analyse au cas par cas. Il nous donne des standards à atteindre en matière d'anonymisation assez élevée. Qu'est-ce que vous en pensez des travaux récents et des avis qui viennent de nous être apportés pour qu'on puisse arriver à encadrer le déploiement de l'IA ?
- Nathalie Laneret
Alors justement, ça me permet de faire un lien avec ce que j'ai dit précédemment, il faut remettre les choses dans leur contexte, c'est-à-dire que cet avis, il est rédigé à la demande de l'autorité de protection des données personnelles irlandaises, dans le cadre de la mise en œuvre du modèle de méta, qui a l'intention d'entraîner ces large language models à partir des données de Facebook et d'Instagram. Donc c'est pas... le cas d'usage de n'importe quel PME ou n'importe quelle entreprise.
- France Charruyer
Mais qui nous intéresse beaucoup.
- Nathalie Laneret
Bien sûr, il nous intéresse beaucoup, mais ce que je veux dire, c'est qu'il ne va pas concerner toutes les entreprises. Il va peut-être leur donner des orientations, mais il répond à des questions très précises qui sont prédéfinies. Il ne faut pas voir ça comme un avis général sur comment est-ce que le RGPD doit être décliné en matière d'IA. de façon générale. Pour ça, il faut peut-être, pour avoir ce type de réponse, il faut peut-être plutôt aller voir les travaux que fait actuellement la CNIL et les consultations qu'elle a lancées. C'est très intéressant. Voilà. Mais en tout cas, sur ces avis du CEPD, c'est vrai que, bon, déjà, moi, j'ai deux regrets principaux. C'est que, d'une part, sur les questions posées, il y avait trois questions qui étaient posées notamment une question sur est-ce que les modèles peuvent être considérés comme anonymes ou pas, est-ce qu'on peut utiliser la base légale de l'intérêt légitime, et quelles sont les conséquences de l'entraînement illégal d'un modèle sur l'utilisation de ce modèle. Ce qui est dommage, c'est que de façon générale, le CEPD renvoie à l'appréciation des autorités au cas par cas. Donc, on attendait en fait une position harmonisée et cohérente du CEPD. Et au final, quand on nous dit que ça va se régler au cas par cas, ça n'apporte pas beaucoup de sécurité juridique.
- France Charruyer
Et puis, il n'y a pas de distinction claire par rapport à l'entraînement d'un modèle d'IA en phase de développement qui est une finalité en soi, et lorsque l'IA est un moyen du traitement en phase de développement.
- Nathalie Laneret
Exactement. Il y a cette difficulté-là aussi. cette distinction qui n'est pas bien faite, mais il y a aussi une quasi-absence de mention du règlement sur l'IA, alors que le règlement sur l'IA, justement, pourrait être un outil très utile pour évaluer les risques. C'est-à-dire que quand on est dans un cas d'usage qui est déjà classifié comme étant un cas d'usage à haut risque dans le règlement sur l'IA, Quand on fait son évaluation au titre du RGPD, ça donne déjà pas mal d'indications sur le profil de risque du cas d'usage en espèce. Et ça répond un peu à votre question précédente sur comment fait-on pour appréhender cette complexité et ces différentes analyses de risque. Et malheureusement, le CEPD reste uniquement sur le sujet du... du RGPD sans créer de pont avec les I-Acts ?
- France Charruyer
Alors qu'on nous a annoncé qu'on aurait un pont, c'est-à-dire pour éviter une redondance ou un surcoût de la régulation, est-ce qu'on n'a pas l'impression que le CEPD met un peu la charrue avant les bœufs en définissant ce qu'est un modèle d'IA anonyme, alors qu'on n'a toujours pas les lignes directrices mises à jour sur la définition des données anonymisées ? Ça nous permettrait de définir les limites du RGPD. On a ensuite une utilisation de données hautement personnelles. dans la vie, mais ça ne pousse pas la logique jusqu'au bout, puisqu'on a aussi la notion de données faiblement personnelles, c'est-à-dire quand le risque de réidentification est négligeable. Nous, on a besoin de lignes directrices qui soient extrêmement claires pour nos opérateurs économiques. Tout le monde n'a pas les moyens, peut-être de Criteo ou d'autres, d'avoir une équipe de fins spécialistes, qu'il s'agisse de spécialistes en protection des données ou qu'il s'agisse de spécialistes... en encadrement de l'intelligence artificielle ou d'équipes de compliance affûtées, on a besoin d'être aidé sur le déploiement et sur la recherche de retours sur investissement en matière d'intelligence artificielle. Donc où est-ce que je place le curseur ? Parce qu'on a des choses qui sont intéressantes dans les avis du CEPD sur cette dichotomie entre données hautement personnelles et faiblement personnelles, mais j'ai besoin d'avoir là aussi une boussole. Qu'est-ce que vous en pensez ? Qu'est-ce qu'on peut faire par rapport à ça ?
- Nathalie Laneret
Effectivement, la question du caractère anonyme ou non des modèles, en fait, ça crée énormément d'insécurité juridique. On a l'impression que le CEPD part du principe que de toute façon, il y aura très peu de modèles qui pourront être considérés comme anonymes, puisque quand le responsable de traitement va devoir faire son analyse, il va devoir toujours se baser sur le scénario le pire. Donc... imaginer potentiellement tout ce qui pourra arriver au modèle, et notamment les possibles attaques qui pourraient amener le modèle à faire ce que l'on appelle de la régurgitation de données personnelles, qui voudrait signifier que ce modèle est une donnée personnelle. Ce qui veut dire que potentiellement, aucun modèle ou très peu de modèles pourront être considérés comme étant anonymes. Et ce qui est encore plus facteur d'insécurité juridique, c'est que... On ne sait pas en fait à quel stade cette évaluation devra être faite. Est-ce qu'on va avoir par exemple des bacs à sable réglementaires qui vont être ouverts de façon beaucoup plus importante qu'actuellement pour permettre aux entreprises de venir quelque part discuter de leur modèle avec les autorités ? Est-ce qu'on va avoir des codes de conduite qui vont être adoptés ? Est-ce qu'on va avoir des référentiels de certification ? Ça, ça serait la situation idéale. Ou est-ce que tout ça, ça va se faire au moment de la mise en œuvre du texte et au moment où le régulateur viendra enquêter et que l'on aura deux positions différentes, celle de l'entreprise qui dira mais non, moi je considère que mon modèle est anonyme et le régulateur qui aura une position différente. Et là, je pense que ce n'est pas du tout facteur de sécurité juridique et que ça risque vraiment d'entraver les initiatives et l'innovation.
- France Charruyer
On avait une position du tribunal de Hambourg qui était intéressante sur le fait que finalement il n'y avait pas de données personnelles puisqu'on considérait que l'IA ne comprenait même pas ce qu'elle était en train de faire. Si on considère que les modèles d'IA sont formés à partir de données personnelles, qu'ils les prennent en entrée et qu'ils les produisent en sortie, est-ce qu'on peut dire que le modèle en lui-même est une donnée personnelle ? Moi j'en doute personnellement, mais qu'est-ce que vous en pensez de cela ?
- Nathalie Laneret
Mais en fait, il y a plusieurs approches, mais c'est vrai que c'est toujours pareil, il y a tellement d'IA différentes que c'est très difficile de donner une réponse simple et définitive. Mais quand vous prenez... les systèmes d'IA générative et que vous êtes par exemple pour vous citer un cas concret le député Eric Bautorel qui interroge Tchad GPT et qui demande qui est Eric Bautorel à Tchad GPT et voit que Tchad GPT lui sort en fait ce qu'on appelle des hallucinations en lui expliquant que Eric Bautorel n'est pas député des Côtes d'Armor comme c'est véritablement le cas mais d'un autre département et j'en passe et des meilleurs on peut considérer qu'il est légitime quand même à demander que ces données soient rectifiées. Et donc, quand on se rend compte qu'il y a ces données qui ne sont pas exactes, qui sont conduites par un système d'intelligence artificielle, c'est vrai qu'ensuite, c'est un peu difficile d'argumenter que le modèle ne contient pas de données personnelles. Donc ça, c'est un premier élément de réponse. Mais en même temps, un modèle, ce ne sont pas des données personnelles. C'est une représentation mathématique de données personnelles, mais les données en tant que telles ne sont pas dans le modèle. Donc effectivement, ça milite aussi pour le fait de dire que ces modèles n'ont pas de données personnelles. Mais encore une fois, il est très difficile de prendre en compte toute la complexité de ce que c'est l'IA, et peut-être d'ailleurs que l'avis du CEPD récent aurait peut-être dû limiter son analyse à l'IA générative.
- France Charruyer
Oui, je pense.
- Nathalie Laneret
Voilà, nous par exemple chez Criteo, On ne considère pas que nos modèles contiennent des données personnelles. On entraîne les modèles sur des données qui sont déjà hautement pseudonymisées et qu'on ne peut pas réidentifier nous-mêmes. On a énormément de mesures de sécurité qui sont en place et il n'y a aucun risque de régurgitation. Donc selon nous, nos modèles ne contiennent pas de données personnelles.
- France Charruyer
Mais est-ce qu'on n'a pas en fait une question de problème de posture ? Est-ce qu'il ne faut pas être un peu plus modeste à force de vouloir ?crier au loup de vouloir faire de la norme parce que c'est peut-être la seule loi qu'on maîtrise en Europe. Est-ce qu'on n'est pas en train de se tirer une balle dans le pied ? C'est-à-dire que là, finalement, on sait que le sujet de l'IA est un sujet complexe, qu'on a des IA génératives, on a des IA prédictives, on a des IA discriminantes, on a des IA symboliques, on va en avoir tout plein, comme s'il en pleuvait. Mais on oublie toujours que, par exemple, s'agissant de l'IA générative, elle ne donne pas... elle-même de sens en elle-même aux résultats produits, elle n'est pas en mesure d'évaluer les résultats de sa propre réponse, c'est qu'une suite de probabilités calculées à partir des données qu'il alimente, et que seul l'utilisateur humain va donner une signification au contenu généré par le modèle. Donc on a des limites qui sont inhérentes à l'IA générative. Est-ce qu'il ne faut pas peut-être davantage raisonner en termes d'exercice de droit, comme vous l'avez dit tout à l'heure ? En termes de accountability c'est-à-dire responsabilisation, régulation, est-ce qu'on n'a pas justement le fait de faire confiance aux acteurs économiques, mais de leur dire aussi attention, s'il y a des risques, vous nous dites que là, il n'y aura pas de régurgitation, mais s'il y en a, vous devez être prêts à en assumer les conséquences.
- Nathalie Laneret
Déjà, il ne faut pas demander à l'IA plus qu'on en demande à l'humain, puisqu'on part du principe que l'IA devrait être parfaite alors que… et elle est entraînée sur des données historiques qui ne le sont pas, donc on lui en demande peut-être un peu trop d'une part, et d'autre part, comme si on avait cette volonté de réglementer l'inconnu, et de contrôler et prévenir tous les risques en amont, pour être un peu, si vous permettez, ceinture et bretelle, et s'assurer que rien ne va se produire, et qu'il faut donc toujours envisager le scénario du pire, qui doit être la référence pour évaluer les risques. Mais si on fait ça, on tombe vraiment dans ce que l'on appelle le principe de précaution qui est selon moi complètement antinomique à l'innovation, mais aussi au principe même de la recherche, de la R&D, qui est d'émettre des hypothèses et les évaluer, tester leur évaluation et leur véracité. Donc il y a forcément une part d'inconnu, il y a forcément une part de risque. Donc cette culture du risque zéro, pour moi, n'est pas réaliste.
- France Charruyer
Mais on a quand même une méta-technologie. qui est quand même transformatrice, c'est-à-dire qu'elle nous fabrique, on ne peut pas l'occulter. Donc, est-ce qu'on n'est pas finalement en train de se poser les mauvaises questions ? C'est-à-dire que l'IA comme un algorithme, on a l'illusion de la transparence, on a l'illusion du vivant, on a l'illusion de la maîtrise, on a l'illusion de la raison. Sans s'attacher à la sémantique, ce qui est important, c'est de savoir ce que l'on fait avec cela, c'est-à-dire réglementation sur l'usage. Et donc dans l'interaction, dans l'interface homme-machine, les garde-fous que je dois mettre en place, les standards que je dois appliquer, il faut qu'ils soient lisibles, il faut qu'ils soient explicables, il faut qu'ils soient accessibles pour les petits opérateurs économiques et pas simplement pour les gros. Donc quelles sont les alternatives, moi, dont je dispose en tant qu'opérateur économique ? Je ne vais pas systématiquement m'acharner à lire des avis. du CEPD dans lequel j'essaie de comprendre. Oui, on m'explique à chaque fois qu'il faut que je fasse une analyse au cas par cas, mais les standards à atteindre en matière d'anonymisation sont extrêmement élevés. Ça veut dire qu'en pratique, les petits opérateurs ne pourront pas utiliser de l'IA. Est-ce que ça doit être réservé seuls aux gros qui ont peut-être les moyens d'avoir de la pseudonymisation assez fine ou des super techniques d'anonymisation ? Ça veut dire qu'on va avoir aussi un effet de concentration du marché. et qu'on va avoir une réglementation qui va se retrouver à générer une fermeture du marché. Moi, je ne pense pas au principe de précaution. Le principe de précaution, c'est en matière environnementale. La problématique, c'est qu'on a un rapport à la norme, qui est peut-être un peu trop anxiogène, et qu'il faut peut-être qu'on s'attache à la valeur des choses. C'est-à-dire que la accountability, c'est aussi se poser la question de la valorisation de ma base de données, ce que j'en fais. Je l'enrichis, je la protège, je la pseudonymise, je mets des mesures de sécurité et je suis dans une mécanique de redevabilité. Je dois rendre compte de ce que j'ai fait. Pour vous paraphraser, ce n'est pas la même chose de dire je vais cibler quelqu'un pour savoir s'il aime les yaourts à la fraise ou à la framboise que de savoir à quel moment il va avoir un cancer et de savoir son score de solvabilité ou autre. Donc dans les usages, est-ce qu'on ne peut pas essayer de faire œuvre de modestie et de simplicité ? Quelles seraient les alternatives aujourd'hui si on souhaitait, dans un rêve, de remettre la réglementation un peu à l'endroit et de stimuler l'innovation et les opérateurs économiques sans générer de la fermeture du marché pour les plus petits ?
- Nathalie Laneret
En fait, l'objectif de IA Act, tel qu'il avait été pensé par la Commission européenne, était très bon en fait, puisque au départ... L'idée, c'était vraiment de se limiter sur ces cas d'usage à haut risque qui sont définis dans cette annexe 3 et qui sont vraiment les cas les plus impactants, à la fois d'un point de vue sociétal, mais aussi d'un point de vue individuel. Donc, est-ce que l'IA va me permettre ou pas d'aller à la fac, va me permettre ou pas de pouvoir rentrer dans un pays, va me permettre ou pas d'avoir un crédit ? va me faire en sorte que je sois licenciée, recrutée ou promue. Ça, c'est vraiment des choses impactantes. Et par ailleurs, le texte de départ avait pour objectif de ne réglementer qu'à peu près 15 à 20 des systèmes d'IA, avec 80 des autres systèmes qui tombaient dans la catégorie de l'IA à faible risque, donc non réglementée. Donc, c'est vrai que... Je pense qu'il faut vraiment s'appuyer sur ce texte. Alors effectivement, il a été un petit peu modifié, forcément, au moment des discussions du Trilogue avec le Parlement et le Conseil, et puis aussi parce que ChatGPT est arrivé à ce moment-là et on s'est rendu compte que le sujet de l'IA générative et à usage général n'avait pas été traité par le texte. Mais... De façon générale, je pense que cet annexe et ces différents cas d'usage peuvent constituer une boussole pour se repérer un peu dans toute cette complexité réglementaire et identifier vraiment les cas sur lesquels il faut passer le plus de temps. Et peut-être les cas sur lesquels il va falloir faire, comme vous l'avez mentionné, une analyse d'impact et vraiment creuser le sujet. Parce que là, il y a un vrai impact pour les personnes. Ce qu'on voit, c'est qu'on a un véritable travail d'accompagnement aujourd'hui de la CNIL. Il y a eu beaucoup de réunions, il y a eu beaucoup de déplacements des équipes, il faut savoir le dire, également en région. Et on essaie d'apporter des solutions. Quand on regarde les cahiers pratiques, c'est vraiment intéressant. Les Q&A qu'il y a, les questions-réponses. On voit qu'il y a la volonté d'essayer d'obtenir, de donner ces petites boussoles, mais mieux que cela, de donner des outils de fonctionnement. On a le chemin. La problématique, c'est qu'on est en train d'évoluer, qu'on le veuille ou non, vers une société de transparence. Donc, que va-t-il rester de notre vie privée ? Qu'est-ce qu'il va nous rester à nous, là, face à ce déluge ? de technologies assez invasives quand même. Est-ce que, on va dire, cette évolution, cette déferlante du système algorithmique ne va pas sonner le glas de la protection de ma vie privée et de mon intimité ou est-ce qu'il ne faut pas que je réfléchisse un peu différemment ?
- France Charruyer
Vous voulez dire par rapport à l'exercice des droits des personnes ?
- Nathalie Laneret
Par rapport déjà à l'exercice aux droits des personnes, puisqu'il ne peut pas y avoir de loyauté de l'algorithme sans exercice de droit ou recours effectif. C'est-à-dire qu'en fait la question c'est de se dire, est-ce que l'IA sonne le glas des droits des personnes sur leurs données ? Je ne le pense pas. Est-ce qu'on n'a pas justement des boussoles qui nous sont données pour qu'on exerce effectivement nos droits ? On a des nouvelles techniques de protection de la vie privée. L'IA, c'est une technologie. Il faut vraiment la prendre pour ce qu'elle est. C'est-à-dire que c'est une technologie qui est au service de l'humain. Donc l'humain, c'est l'humain qui en fera, qu'elle deviendra et qui aura à gérer les conséquences de l'utilisation qui en sera faite. En tout cas, il ne faut surtout pas que les principes fondamentaux du RGPD soient remis en cause, mais il faut que le RGPD soit interprété. à la lumière des évolutions sociétales, technologiques, comme tous les textes de loi qui sont adoptés. Donc, pour répondre à votre question, quand l'IA produit des hallucinations et vient créer de fausses informations personnelles, il faut que les droits des personnes puissent s'exercer. Par contre, il va falloir aussi se poser la question du, peut-être jusqu'au boutisme, si vous permettez le terme, de l'exercice des droits dans un certain nombre de cas, et notamment par exemple en ce qui concerne les demandes de suppression des données. Et notamment le fait que pour vraiment supprimer définitivement une donnée, mais aussi son influence dans un algorithme, c'est-à-dire en fait, alors c'est pas... Dans l'algorithme, on n'a pas la donnée en tant que telle, on a ce qu'on appelle un point, qui est vraiment la représentation de la donnée dans l'algorithme. Donc, est-ce qu'il faut aller jusqu'à supprimer le point au sein de l'algorithme ? Ce qui veut dire réentraîner l'algorithme. Ce qui veut dire engager des ressources informatiques très importantes avec un impact environnemental pour un effet au final sur les personnes. quasi nulle, puisqu'il y a des techniques aujourd'hui qui ne sont pas encore à l'échelle, mais sur lesquelles il y a des recherches, notamment qui s'appellent le désapprentissage, qui permettent à l'algorithme d'ignorer un certain nombre de points qui vont rester dans l'algorithme et qui ne vont pas être pris en compte. Donc, est-ce qu'on ne pourrait pas s'accommoder et accepter de faire un certain nombre de concessions ? Parce qu'il y a un moment aussi où on ne va pas pouvoir... uniquement prendre en compte la vie privée, mais qu'il y a d'autres intérêts tout aussi importants que la vie privée. Et je ne pense pas qu'on puisse faire une quelconque hiérarchie, mais qui sont à prendre en compte et qui, par exemple, dans le cas que j'ai cité, qui est la protection de l'environnement.
- France Charruyer
C'est-à-dire les enjeux de soutenabilité, c'est-à-dire qu'on réfléchisse à réintroduire un principe de proportionnalité.
- Nathalie Laneret
Exactement.
- France Charruyer
Quelles sont les techniques de protection de la vie privée, ce qu'on appelle les Privacy Enhancing Technologies ? En quoi ça pourrait contribuer à une IA de confiance pour ceux qui nous écoutent ? Qu'est-ce que c'est les PETS ?
- Nathalie Laneret
Alors, les Privacy Enhancing Technologies, c'est toute une série de techniques qui vont... Alors, c'est des termes un peu barbares, de l'apprentissage fédéré, l'utilisation de données synthétiques ou du calcul multipartite sécurisé. Au final, ce sont des technologies qui reposent... au premier chef sur des techniques de pseudonymisation, c'est-à-dire qui vise en fait à donner accès à des insights, le terme en français m'échappe, sans donner accès à la donnée en tant que telle.
- France Charruyer
D'accord. Et ces techniques, est-ce qu'elles sont accessibles à tous ou pour juste quelques Happy Few ?
- Nathalie Laneret
Alors, ces techniques sont en cours de déploiement et elles sont timidement déployées dans certains secteurs, mais malheureusement, elles ne sont pas encore à l'échelle. Mais en tout cas... Pour revenir aux fondamentaux, on a une technique qui est simple, peu coûteuse et à disposition du plus grand nombre, qui est la technique de pseudonymisation, qui permet de séparer le caractère identifiant des données et du contenu produit par cette donnée, et qui sont d'ailleurs citées de façon très importante par la CNIL, par le CEPD. par les NISA, mais aussi même reconnus par les tribunaux et même par le Conseil d'État comme des techniques qui permettent de réduire les risques et de mieux protéger la vie privée des personnes.
- France Charruyer
Donc en fait, ce que vous êtes en train de nous dire, c'est qu'il faut qu'on soit acteur de notre protection aussi, c'est-à-dire de se saisir de ces techniques, de se former au-delà de l'acceptabilité, c'est-à-dire de ne pas se retrouver dans une forme de servilité passive, c'est de passer à l'action. et de se dire, écoutez, j'ai des solutions qui sont assez innovantes, qui sont à ma disposition pour monitorer mon niveau de confidentialité, d'intimité en fonction des usages que je veux mener. Mais ça, ça va supposer un très gros travail d'acculturation et puis on a quand même une fracture numérique. Donc dans les perspectives et dans les recommandations, vous, qu'est-ce que vous aimeriez sur la régulation ? Pas simplement en... en tant que représentante de Criteo, mais en tant que femme de la tech ? Parce que vous êtes une femme de la tech et vous connaissez par cœur ces sujets de privacy. On va essayer de raisonner un peu plus haut. Qu'est-ce qu'il nous faudrait sur la régulation pour finir ?
- Nathalie Laneret
Je pense qu'il faut une plus grande interaction, communication, accompagnement, dialogue entre le monde de l'entreprise et le régulateur. On est sur des sujets éminemment complexes où chacun doit apprendre de l'autre et non pas rester sur ses positions et attendre que le coup prétombe. Donc sur ces sujets-là, il faut vraiment du pragmatisme, il faut avoir une approche constructive et se dire qu'est-ce qui marche et qu'est-ce qui pourrait permettre de bâtir cette IA de confiance ensemble, notamment peut-être par la mise au point d'un référentiel. de certification qui permettrait aux entreprises de savoir comment elles peuvent mettre au point des systèmes de pseudonymisation des données suffisamment robustes pour réduire le risque à un niveau complètement résiduel. Et d'ailleurs, on voit bien qu'en matière de cybersécurité, cette notion de risque résiduel existe et elle est acceptée. Alors pourquoi n'existerait-elle pas en matière de pseudonymisation des données ? Donc au final, vraiment, plus de travail la main dans la main.
- France Charruyer
Donc en fait, qu'on arrête de jouer Ausha et à la souris, et qu'on arrête les faux semblants. C'est-à-dire qu'on ne peut plus jouer sur des promesses de tout régler par la norme, des promesses de tout régler par la technologie, d'essayer de mieux se comprendre, mais surtout d'être acteur, et non servile. C'est peut-être la leçon à tirer de cet entretien. Aujourd'hui, promouvoir les innovations, ce n'est pas embellir la réalité, c'est peut-être faire preuve de réalisme. Aujourd'hui, on est sur ce tapis roulant. Est-ce qu'on va continuer à regarder les autres pays avancés et nous rester à la traîne, à se gargariser de nos belles normes ? Mais est-ce qu'il ne faut pas aussi faire un choix de société ? Ce sont des décisions qui sont complexes. Donc nous continuerons à aborder ces entretiens avec différents profils. Je vous remercie vraiment Nathalie de votre éclairage, mais ce n'est pas fini, nous en aurons besoin à nouveau d'un autre sur ces notions autour du consentement. Et c'est le sujet que nous aurons toutes les deux très certainement à traiter, notamment en matière de publicité. A très bientôt, merci beaucoup Nathalie. Merci, bonne soirée.
- Nathalie Laneret
Au revoir. Au revoir.