undefined cover
undefined cover
undefined cover
undefined cover
undefined cover
undefined cover
Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux cover
Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux cover
Code'Cast - Parlons droit !

Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux

Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux

16min |02/04/2025|

54

Play
undefined cover
undefined cover
undefined cover
undefined cover
undefined cover
undefined cover
Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux cover
Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux cover
Code'Cast - Parlons droit !

Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux

Code'Cast : IA et lutte contre la désinformation : nouveaux enjeux

16min |02/04/2025|

54

Play

Description

L’intelligence artificielle transforme notre rapport à l’information… mais avec quels risques ? Dans cet épisode de Code'Cast, nous explorons l’impact des contenus générés par l’IA sur la diffusion de fake news et les deepfake et les défis qu’ils posent en matière de régulation. Pour décrypter ces enjeux, nous accueillons Monsieur Florian Barbaro, fondateur d’Uncov AI, une plateforme spécialisée dans la détection des contenus générés par intelligence artificielle, et Monsieur Philippe Mouron, professeur de droit privé et directeur du master droit des communications électroniques. Un épisode incontournable pour mieux comprendre l’avenir de la régulation du numérique face aux nouveaux défis de l’IA.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Codecast, podcast juridique de la Faculté de droit et de sciences politiques d'Aix-Marseille Université. Bonjour à toutes et à tous, Codecast est de retour pour un épisode consacré à la détection des contenus générés par l'intelligence artificielle. ainsi qu'à l'usage de l'IA en matière d'information et de communication, notamment sur l'IA et les fake news. Pour nous éclairer sur cette question, nous avons le plaisir d'accueillir Florian Barbaro, fondateur et directeur général d'Uncov AI, une plateforme de détection des contenus générés par l'intelligence artificielle. Nous recevons également Philippe Mouron, professeur de droit privé et responsable du Master 2, droit des communications électroniques. Alors on va commencer directement avec la première question. Comment la désinformation et les fake news sont-elles définies et encadrées en droit français Plus brièvement, qu'est-ce que cela peut changer et quels risques sont liés à la génération ou à la propagation de fake news par une IA

  • Speaker #1

    Alors bonjour, pour répondre à cette question, il faut savoir qu'il n'existe pas de définition, alors je dirais unitaire, des fausses informations ou fake news en droit français. En fait, il en existe plusieurs. Pourquoi Parce qu'il existe plusieurs types de fausses informations. Pour remonter un peu dans le temps, il faut savoir qu'une loi, la loi du 22 décembre 2018, a été spécifiquement consacrée à la lutte contre la manipulation de l'information. Et cette loi n'a pas ajouté de véritable définition consacrée aux fausses informations. Elle a seulement créé de nouvelles obligations à la charge, notamment des services de médias audiovisuels, des plateformes également. Tout juste peut-on trouver un nouveau pouvoir de référé qui a été créé à l'article L163-2, qui permet au juge des référés d'ordonner le retrait de fausses informations qui sont partagées de manière délibérée, artificielle ou automatisée. Et précisément, elle donne ce qui semble être une définition, elle parle d'allégations ou imputations inexactes ou trompeuses. qui sont de nature à altérer la sincérité du scrutin. Et là-dessus, il faut savoir que le Conseil constitutionnel, dans sa décision du 20 décembre, a précisé que ce pouvoir d'ordonner une mesure en référé ne concerne que les fausses informations dont le caractère apparaît manifeste. Autrement, il existait déjà, avant cette loi du 22 décembre 2018, un certain nombre de dispositions, notamment en matière pénale, qui ont pour objet ou pour effet de réprimer la diffusion de fausses informations. Mais alors que... qui elles-mêmes peuvent être entendues de manière assez diverse. En soi, la diffamation, la diffamation publique peut être considérée comme une catégorie de fausses informations, puisqu'il s'agit bien d'allégations qui sont faites à l'égard d'une personne et qui portent sur des faits ou des propos qu'elle n'a pas commis ou qu'elle n'a pas tenus. On pense également à l'infraction qui figure à l'article 226-8 du Code pénal, qui, déjà avant la loi de 2018... Réprimer le montage photographique ou le montage des paroles d'une personne de nature justement à tromper le public. Le code électoral aussi contenait déjà des mesures répressives de manipulation. On en trouve également dans le code monétaire et financier. Enfin, il existe déjà un arsenal pénal assez important qui permet de réprimer ce qu'on appelle communément des fausses informations. J'oubliais encore l'article 27 de la loi du 29 juillet 1881 relative à la liberté de la presse qui réprime historiquement la diffusion de fausses nouvelles. Donc le droit français est déjà bien pourvu en la matière, mais en vérité ne contient pas de définition unitaire de ce que sont les fausses informations. Parce qu'en vérité, il n'y a pas une seule catégorie de fausses informations. Qu'est-ce qui va changer avec l'intelligence artificielle Je dirais que la différence va être essentiellement d'échelle. C'est-à-dire que les systèmes d'intelligence artificielle permettent de fabriquer beaucoup plus rapidement et beaucoup plus facilement des contenus qui sont faux. Alors ça peut être notamment les deepfakes. On pense beaucoup à ça. Donc les deepfakes, c'est contenus qui utilisent l'image ou la voix d'une personne pour lui faire dire ou lui faire faire, entre guillemets, des propos ou des choses qui évidemment sont fausses, des propos qu'elle n'a jamais tenus ou des choses qu'elle n'a jamais commises. Il sera également possible de diffuser beaucoup plus rapidement et de manière beaucoup plus massive ces contenus. Je dirais que les systèmes d'intelligence artificielle, sur le fond, ne changent pas grand-chose par rapport à ce qu'on connaissait déjà, mais vont être simplement des facteurs d'accélération et vont permettre de diffuser de tels contenus à une échelle beaucoup plus large qu'auparavant.

  • Speaker #2

    Quant à vous, M. Barbaro, qu'est-ce qui vous a conduit à vous intéresser à la détection des contenus générés par IA

  • Speaker #3

    En gros, j'ai eu un doctorat en mathématiques appliquées et analyse du langage naturel à Paris 1 en juin 2022. Après, je suis parti travailler aux États-Unis pour une start-up et on était contracteur du ministère de la Santé américaine pour lequel on étudiait la désinformation liée au Covid et à sa propagation. Et après, en fait, en parallèle... Sur mon temps personnel, j'ai étudié la désinformation russe et sa propagation et mettre en place des outils pour lutter contre elle. Et en fait, plus j'analysais certains types de réseaux, notamment des réseaux sociaux free speech, je me suis aperçu que certains voulaient commencer à générer et mettre en place des modèles génératifs dits non woke pour en fait propager certaines idées politiques. et des contenus de désinformation. Et c'est là où je me suis posé la question, est-ce qu'il est possible de détecter ce type de contenu Et donc, j'ai commencé à faire un état de l'art, à voir ce qui se faisait. Je me suis aperçu que tout le monde utilisait le même type de modèle basé sur du deep learning. En fait, j'ai choisi une autre voie en créant mon propre modèle basé sur des modèles mathématiques qui permet d'avoir un modèle qui soit plus léger, donc plus scalable et beaucoup plus flexible. C'est-à-dire qu'on peut l'adapter facilement à de nouvelles langues et de nouveaux types de médias.

  • Speaker #2

    Ok, merci beaucoup. Et quelles incohérences peuvent être introduites dans les informations en ligne par les contenus générés par IA

  • Speaker #3

    Donc en fait, peut-être pour vraiment aller sur un exemple, il y a une recherche de la BBC qui montre qu'en utilisant des modèles génératifs, et notamment dans le cadre de cette étude, ils ont utilisé quatre modèles qui sont Gimini, OpenAI... Copilot et Perplexity. Et en fait, ils ont demandé pendant six mois à ces modèles de récupérer de l'information. Et dans 51% des cas, cette information était au minimum de la mésinformation, donc avec des problèmes de vocabulaire qui voulaient exprimer d'autres idées. Et dans le pire des cas, dans 20% des cas, c'était totalement de la désinformation. Et en fait, ce qu'on voit, c'est que par exemple, on travaille avec un journal régional. et il y a de la reprise de contenu fait par des personnes qui vont régénérer ces articles-là. Et en fait, le modèle n'a pas conscience des informations qu'il va générer. Et donc, par exemple, on avait le cas avec un accident. Dans l'article originel, l'accident avait eu lieu à 15h30, et dans l'article régénéré, il avait eu lieu à 15h45. Donc, dans ce cadre-là, il n'y a pas mort d'homme, puisque ça va être une différence de 15 minutes. Par contre... Petit à petit, et c'est un peu le choix de la volonté de certaines politiques, notamment aux États-Unis, où ils veulent enlever et détruire Wikipédia, donc une source d'accès libre et qui essaye d'être autonome pour promouvoir l'histoire telle qu'elle est, et de promouvoir justement l'utilisation de modèles génératifs pour récupérer cette information. Et on voit que, par exemple, il y a une autre étude qui est sortie hier, dans 93% des cas, l'information de groc est de mauvaise qualité et donc en fait si on se base sur des faits qui sont faux on va juste être transporté dans une réalité parallèle et cette réalité parallèle petit à petit va devenir la réalité réelle et donc ça sera problématique pour nos futures générations.

  • Speaker #0

    Alors justement l'usage de ces deepfakes en politique il est préoccupant. On On l'a vu lors de la campagne de Donald Trump, notamment avec l'exemple de Taylor Swift. En France, existe-t-il une définition légale de ce deepfake Une personne qui va être victime d'un deepfake malveillant dispose-t-elle d'un recours efficace en droit français, voire à l'échelle européenne

  • Speaker #1

    Alors, c'est une bonne question qui, justement, a fait l'actualité pas plus tard qu'en 2024. On parlait tout à l'heure de l'article 226-8 du Code pénal. qui historiquement réprime le montage de l'image d'une personne ou des paroles d'une personne. Depuis la loi du 21 mai 2024, cet article sanctionne désormais les deepfakes, alors entendus comme les contenus visuels ou sonores qui sont générés par un traitement algorithmique et qui utilisent l'image ou les paroles d'une personne sans son consentement. Donc de tel contenu, la fabrication de tel contenu ou la diffusion de tel contenu est désormais punie d'un an d'emprisonnement et de... 15 000 euros d'amende, qui peuvent être portées à deux ans d'emprisonnement et 45 000 euros d'amende lorsque ces contenus sont diffusés via un service de communication en ligne, comme une plateforme. Mais attention, tous les deepfakes ne sont pas sanctionnés. Cet article précise que l'infraction n'est commise que lorsqu'il n'apparaît pas évident qu'il s'agit d'un deepfake. Donc entre guillemets, si le deepfake est réaliste, qui est susceptible de tromper le public, c'est le seul cas où il pourrait être sanctionné. De même, s'il est expressément fait mention qu'il s'agit d'un deepfake, l'infraction n'est pas constituée. Donc deux cas de figure qui expliquent qu'en fait, la diffusion de certains deepfakes peut être considérée comme parfaitement licite, par exemple parce qu'il relève du droit à l'information du public, du droit à l'humour. Et en soi, l'utilisation de deepfake peut trouver des raisons parfaitement licites, tout comme, je dirais, les effets spéciaux qu'on connaît en matière cinématographique. Il peut y avoir des raisons légitimes de faire un deepfake dans le cadre d'un reportage d'actualité, s'il est bien précisé qu'il s'agit d'un deepfake ou si celui-ci, justement, est présenté tel quel.

  • Speaker #2

    D'accord. Et quelles solutions ont été mises en place par les plateformes comme Instagram et LinkedIn pour lutter contre la désinformation générée par IA

  • Speaker #3

    Aucune.

  • Speaker #2

    Très rapide.

  • Speaker #3

    Non, pour LinkedIn, ils ont mis en place une certification qui s'appelle C2PA, qui est poussée par Adobe, Microsoft et des gros comme ça, Reporters sans frontières. Et nous-mêmes, à NCOVEA, on est membre justement de cette certification. Le problème, c'est qu'avec la nouvelle élection de... président américain, il y a vraiment un changement d'orientation politique et un retour en arrière et notamment par exemple pour le cas de Meta et donc d'Instagram il y a un choix, par exemple quand on va poster une image, on a le choix de faire d'être déclaratif dans le sens où on peut dire cette image a été générée ou cette image est humaine le problème c'est que dans leur business modèle Les gens n'ont pas intérêt à dire qu'une image est générée parce que ça va être viral. Et donc, les réseaux sociaux ont tout à gagner de cette viralité au niveau business. Donc, actuellement, il n'y a pas grand-chose. Et avec la dernière élection américaine, je dirais qu'on est retourné en arrière, justement, avec la suppression du service de fact-checking chez Meta, notamment. Et donc, ça va poser de plus en plus de problèmes. Je pense que... Les réseaux sociaux, il n'y aura aucune régulation par eux-mêmes. Il va falloir vraiment mettre en place, au niveau des États et du cadre européen au moins pour commencer, à imposer certaines restrictions aux réseaux et mettre en place des outils qui soient capables de flaguer justement ce type de contenu.

  • Speaker #2

    Ok.

  • Speaker #0

    Alors en bref, la régulation européenne est-elle suffisamment armée face à cette prolifération des contenus trompeurs qui sont générés par l'IA.

  • Speaker #1

    Alors justement, ça a été encore un sujet d'actualité en 2024. Vous avez parlé du deepfake de Taylor Swift. Il y en a eu aussi au sein de l'Union européenne. En 2023, lors des élections législatives organisées en Slovaquie, un deepfake sonore a été diffusé la veille du scrutin. Deepfake sonore d'une prétendue conversation entre la tête de liste qui était favori... des sondages et une journaliste laissant entendre qu'ils s'organisaient pour provoquer une fraude électorale. Et c'est finalement une autre liste qui est arrivée en tête des résultats, ce qui laisse penser que cette manipulation ait pu avoir un impact sur le scrutin. Alors justement, l'Union européenne s'est saisie du problème. C'est pour cette raison que l'article 35 du règlement sur les services numériques, le fameux Digital Services Act, incite les plateformes à identifier... les contenus qui sont générés par intelligence artificielle. Alors dans le DSA, ça n'est qu'une mesure recommandée à l'égard des très grandes plateformes, mais on espère évidemment qu'elles vont pouvoir se saisir de cet outil. Et c'est là évidemment qu'on aura besoin de moyens techniques, qui permettent a posteriori, après leur diffusion, d'identifier plus facilement ces contenus et de les marquer. Le règlement sur l'intelligence artificielle de 2024, lui, est allé encore plus loin. puisqu'il impose aux déployeurs et aux fournisseurs de systèmes d'IA d'intégrer ces dispositifs de marquage dès leur conception, de sorte qu'il sera possible de générer des deepfakes, mais ceux-ci seront ou devraient être automatiquement identifiés, comme ayant été créés, par intelligence artificielle, de sorte qu'il ne soit pas de nature, évidemment, à tromper le public, notamment en période électorale, ce qui est un grand sujet de préoccupation.

  • Speaker #2

    Quel est l'avenir du projet Uncov en matière de détection des contenus générés par IA, notamment dans les domaines de l'audio, de la vidéo

  • Speaker #3

    Donc là, on est une petite équipe et on va commencer à recruter. On a été labellisé Deep Tech par la BPI, donc ça permet d'avoir des premiers financements publics. Là, on va commencer à recruter justement pour développer le modèle d'audio. Suite au développement du modèle audio, le but sera de développer un modèle vidéo. Comme ça, ça nous permettra d'avoir une solution horizontale pour couvrir texte, image, audio et vidéo. Après, le but, c'est de travailler, que ce soit avec des entreprises, et des gouvernements pour justement les aider à authentifier l'origine d'un contenu, et après toujours aider le citoyen à prendre un peu d'abstraction devant les informations qu'il va consommer, que ce soit sur les réseaux, en ligne ou autre, pour justement radoucir un peu la société et éviter tous ces biais qui sont en train d'être propagés par différents partis politiques, par exemple.

  • Speaker #0

    Merci pour votre réponse. Merci M. Barbaro et M. Mouron pour votre participation. Nous espérons que cet épisode vous a intéressé. N'hésitez pas à le partager autour de vous, à nous faire part de vos retours et nous suggérer des thématiques pour les prochains épisodes. A très bientôt pour un nouvel épisode de CodeCast.

Description

L’intelligence artificielle transforme notre rapport à l’information… mais avec quels risques ? Dans cet épisode de Code'Cast, nous explorons l’impact des contenus générés par l’IA sur la diffusion de fake news et les deepfake et les défis qu’ils posent en matière de régulation. Pour décrypter ces enjeux, nous accueillons Monsieur Florian Barbaro, fondateur d’Uncov AI, une plateforme spécialisée dans la détection des contenus générés par intelligence artificielle, et Monsieur Philippe Mouron, professeur de droit privé et directeur du master droit des communications électroniques. Un épisode incontournable pour mieux comprendre l’avenir de la régulation du numérique face aux nouveaux défis de l’IA.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Codecast, podcast juridique de la Faculté de droit et de sciences politiques d'Aix-Marseille Université. Bonjour à toutes et à tous, Codecast est de retour pour un épisode consacré à la détection des contenus générés par l'intelligence artificielle. ainsi qu'à l'usage de l'IA en matière d'information et de communication, notamment sur l'IA et les fake news. Pour nous éclairer sur cette question, nous avons le plaisir d'accueillir Florian Barbaro, fondateur et directeur général d'Uncov AI, une plateforme de détection des contenus générés par l'intelligence artificielle. Nous recevons également Philippe Mouron, professeur de droit privé et responsable du Master 2, droit des communications électroniques. Alors on va commencer directement avec la première question. Comment la désinformation et les fake news sont-elles définies et encadrées en droit français Plus brièvement, qu'est-ce que cela peut changer et quels risques sont liés à la génération ou à la propagation de fake news par une IA

  • Speaker #1

    Alors bonjour, pour répondre à cette question, il faut savoir qu'il n'existe pas de définition, alors je dirais unitaire, des fausses informations ou fake news en droit français. En fait, il en existe plusieurs. Pourquoi Parce qu'il existe plusieurs types de fausses informations. Pour remonter un peu dans le temps, il faut savoir qu'une loi, la loi du 22 décembre 2018, a été spécifiquement consacrée à la lutte contre la manipulation de l'information. Et cette loi n'a pas ajouté de véritable définition consacrée aux fausses informations. Elle a seulement créé de nouvelles obligations à la charge, notamment des services de médias audiovisuels, des plateformes également. Tout juste peut-on trouver un nouveau pouvoir de référé qui a été créé à l'article L163-2, qui permet au juge des référés d'ordonner le retrait de fausses informations qui sont partagées de manière délibérée, artificielle ou automatisée. Et précisément, elle donne ce qui semble être une définition, elle parle d'allégations ou imputations inexactes ou trompeuses. qui sont de nature à altérer la sincérité du scrutin. Et là-dessus, il faut savoir que le Conseil constitutionnel, dans sa décision du 20 décembre, a précisé que ce pouvoir d'ordonner une mesure en référé ne concerne que les fausses informations dont le caractère apparaît manifeste. Autrement, il existait déjà, avant cette loi du 22 décembre 2018, un certain nombre de dispositions, notamment en matière pénale, qui ont pour objet ou pour effet de réprimer la diffusion de fausses informations. Mais alors que... qui elles-mêmes peuvent être entendues de manière assez diverse. En soi, la diffamation, la diffamation publique peut être considérée comme une catégorie de fausses informations, puisqu'il s'agit bien d'allégations qui sont faites à l'égard d'une personne et qui portent sur des faits ou des propos qu'elle n'a pas commis ou qu'elle n'a pas tenus. On pense également à l'infraction qui figure à l'article 226-8 du Code pénal, qui, déjà avant la loi de 2018... Réprimer le montage photographique ou le montage des paroles d'une personne de nature justement à tromper le public. Le code électoral aussi contenait déjà des mesures répressives de manipulation. On en trouve également dans le code monétaire et financier. Enfin, il existe déjà un arsenal pénal assez important qui permet de réprimer ce qu'on appelle communément des fausses informations. J'oubliais encore l'article 27 de la loi du 29 juillet 1881 relative à la liberté de la presse qui réprime historiquement la diffusion de fausses nouvelles. Donc le droit français est déjà bien pourvu en la matière, mais en vérité ne contient pas de définition unitaire de ce que sont les fausses informations. Parce qu'en vérité, il n'y a pas une seule catégorie de fausses informations. Qu'est-ce qui va changer avec l'intelligence artificielle Je dirais que la différence va être essentiellement d'échelle. C'est-à-dire que les systèmes d'intelligence artificielle permettent de fabriquer beaucoup plus rapidement et beaucoup plus facilement des contenus qui sont faux. Alors ça peut être notamment les deepfakes. On pense beaucoup à ça. Donc les deepfakes, c'est contenus qui utilisent l'image ou la voix d'une personne pour lui faire dire ou lui faire faire, entre guillemets, des propos ou des choses qui évidemment sont fausses, des propos qu'elle n'a jamais tenus ou des choses qu'elle n'a jamais commises. Il sera également possible de diffuser beaucoup plus rapidement et de manière beaucoup plus massive ces contenus. Je dirais que les systèmes d'intelligence artificielle, sur le fond, ne changent pas grand-chose par rapport à ce qu'on connaissait déjà, mais vont être simplement des facteurs d'accélération et vont permettre de diffuser de tels contenus à une échelle beaucoup plus large qu'auparavant.

  • Speaker #2

    Quant à vous, M. Barbaro, qu'est-ce qui vous a conduit à vous intéresser à la détection des contenus générés par IA

  • Speaker #3

    En gros, j'ai eu un doctorat en mathématiques appliquées et analyse du langage naturel à Paris 1 en juin 2022. Après, je suis parti travailler aux États-Unis pour une start-up et on était contracteur du ministère de la Santé américaine pour lequel on étudiait la désinformation liée au Covid et à sa propagation. Et après, en fait, en parallèle... Sur mon temps personnel, j'ai étudié la désinformation russe et sa propagation et mettre en place des outils pour lutter contre elle. Et en fait, plus j'analysais certains types de réseaux, notamment des réseaux sociaux free speech, je me suis aperçu que certains voulaient commencer à générer et mettre en place des modèles génératifs dits non woke pour en fait propager certaines idées politiques. et des contenus de désinformation. Et c'est là où je me suis posé la question, est-ce qu'il est possible de détecter ce type de contenu Et donc, j'ai commencé à faire un état de l'art, à voir ce qui se faisait. Je me suis aperçu que tout le monde utilisait le même type de modèle basé sur du deep learning. En fait, j'ai choisi une autre voie en créant mon propre modèle basé sur des modèles mathématiques qui permet d'avoir un modèle qui soit plus léger, donc plus scalable et beaucoup plus flexible. C'est-à-dire qu'on peut l'adapter facilement à de nouvelles langues et de nouveaux types de médias.

  • Speaker #2

    Ok, merci beaucoup. Et quelles incohérences peuvent être introduites dans les informations en ligne par les contenus générés par IA

  • Speaker #3

    Donc en fait, peut-être pour vraiment aller sur un exemple, il y a une recherche de la BBC qui montre qu'en utilisant des modèles génératifs, et notamment dans le cadre de cette étude, ils ont utilisé quatre modèles qui sont Gimini, OpenAI... Copilot et Perplexity. Et en fait, ils ont demandé pendant six mois à ces modèles de récupérer de l'information. Et dans 51% des cas, cette information était au minimum de la mésinformation, donc avec des problèmes de vocabulaire qui voulaient exprimer d'autres idées. Et dans le pire des cas, dans 20% des cas, c'était totalement de la désinformation. Et en fait, ce qu'on voit, c'est que par exemple, on travaille avec un journal régional. et il y a de la reprise de contenu fait par des personnes qui vont régénérer ces articles-là. Et en fait, le modèle n'a pas conscience des informations qu'il va générer. Et donc, par exemple, on avait le cas avec un accident. Dans l'article originel, l'accident avait eu lieu à 15h30, et dans l'article régénéré, il avait eu lieu à 15h45. Donc, dans ce cadre-là, il n'y a pas mort d'homme, puisque ça va être une différence de 15 minutes. Par contre... Petit à petit, et c'est un peu le choix de la volonté de certaines politiques, notamment aux États-Unis, où ils veulent enlever et détruire Wikipédia, donc une source d'accès libre et qui essaye d'être autonome pour promouvoir l'histoire telle qu'elle est, et de promouvoir justement l'utilisation de modèles génératifs pour récupérer cette information. Et on voit que, par exemple, il y a une autre étude qui est sortie hier, dans 93% des cas, l'information de groc est de mauvaise qualité et donc en fait si on se base sur des faits qui sont faux on va juste être transporté dans une réalité parallèle et cette réalité parallèle petit à petit va devenir la réalité réelle et donc ça sera problématique pour nos futures générations.

  • Speaker #0

    Alors justement l'usage de ces deepfakes en politique il est préoccupant. On On l'a vu lors de la campagne de Donald Trump, notamment avec l'exemple de Taylor Swift. En France, existe-t-il une définition légale de ce deepfake Une personne qui va être victime d'un deepfake malveillant dispose-t-elle d'un recours efficace en droit français, voire à l'échelle européenne

  • Speaker #1

    Alors, c'est une bonne question qui, justement, a fait l'actualité pas plus tard qu'en 2024. On parlait tout à l'heure de l'article 226-8 du Code pénal. qui historiquement réprime le montage de l'image d'une personne ou des paroles d'une personne. Depuis la loi du 21 mai 2024, cet article sanctionne désormais les deepfakes, alors entendus comme les contenus visuels ou sonores qui sont générés par un traitement algorithmique et qui utilisent l'image ou les paroles d'une personne sans son consentement. Donc de tel contenu, la fabrication de tel contenu ou la diffusion de tel contenu est désormais punie d'un an d'emprisonnement et de... 15 000 euros d'amende, qui peuvent être portées à deux ans d'emprisonnement et 45 000 euros d'amende lorsque ces contenus sont diffusés via un service de communication en ligne, comme une plateforme. Mais attention, tous les deepfakes ne sont pas sanctionnés. Cet article précise que l'infraction n'est commise que lorsqu'il n'apparaît pas évident qu'il s'agit d'un deepfake. Donc entre guillemets, si le deepfake est réaliste, qui est susceptible de tromper le public, c'est le seul cas où il pourrait être sanctionné. De même, s'il est expressément fait mention qu'il s'agit d'un deepfake, l'infraction n'est pas constituée. Donc deux cas de figure qui expliquent qu'en fait, la diffusion de certains deepfakes peut être considérée comme parfaitement licite, par exemple parce qu'il relève du droit à l'information du public, du droit à l'humour. Et en soi, l'utilisation de deepfake peut trouver des raisons parfaitement licites, tout comme, je dirais, les effets spéciaux qu'on connaît en matière cinématographique. Il peut y avoir des raisons légitimes de faire un deepfake dans le cadre d'un reportage d'actualité, s'il est bien précisé qu'il s'agit d'un deepfake ou si celui-ci, justement, est présenté tel quel.

  • Speaker #2

    D'accord. Et quelles solutions ont été mises en place par les plateformes comme Instagram et LinkedIn pour lutter contre la désinformation générée par IA

  • Speaker #3

    Aucune.

  • Speaker #2

    Très rapide.

  • Speaker #3

    Non, pour LinkedIn, ils ont mis en place une certification qui s'appelle C2PA, qui est poussée par Adobe, Microsoft et des gros comme ça, Reporters sans frontières. Et nous-mêmes, à NCOVEA, on est membre justement de cette certification. Le problème, c'est qu'avec la nouvelle élection de... président américain, il y a vraiment un changement d'orientation politique et un retour en arrière et notamment par exemple pour le cas de Meta et donc d'Instagram il y a un choix, par exemple quand on va poster une image, on a le choix de faire d'être déclaratif dans le sens où on peut dire cette image a été générée ou cette image est humaine le problème c'est que dans leur business modèle Les gens n'ont pas intérêt à dire qu'une image est générée parce que ça va être viral. Et donc, les réseaux sociaux ont tout à gagner de cette viralité au niveau business. Donc, actuellement, il n'y a pas grand-chose. Et avec la dernière élection américaine, je dirais qu'on est retourné en arrière, justement, avec la suppression du service de fact-checking chez Meta, notamment. Et donc, ça va poser de plus en plus de problèmes. Je pense que... Les réseaux sociaux, il n'y aura aucune régulation par eux-mêmes. Il va falloir vraiment mettre en place, au niveau des États et du cadre européen au moins pour commencer, à imposer certaines restrictions aux réseaux et mettre en place des outils qui soient capables de flaguer justement ce type de contenu.

  • Speaker #2

    Ok.

  • Speaker #0

    Alors en bref, la régulation européenne est-elle suffisamment armée face à cette prolifération des contenus trompeurs qui sont générés par l'IA.

  • Speaker #1

    Alors justement, ça a été encore un sujet d'actualité en 2024. Vous avez parlé du deepfake de Taylor Swift. Il y en a eu aussi au sein de l'Union européenne. En 2023, lors des élections législatives organisées en Slovaquie, un deepfake sonore a été diffusé la veille du scrutin. Deepfake sonore d'une prétendue conversation entre la tête de liste qui était favori... des sondages et une journaliste laissant entendre qu'ils s'organisaient pour provoquer une fraude électorale. Et c'est finalement une autre liste qui est arrivée en tête des résultats, ce qui laisse penser que cette manipulation ait pu avoir un impact sur le scrutin. Alors justement, l'Union européenne s'est saisie du problème. C'est pour cette raison que l'article 35 du règlement sur les services numériques, le fameux Digital Services Act, incite les plateformes à identifier... les contenus qui sont générés par intelligence artificielle. Alors dans le DSA, ça n'est qu'une mesure recommandée à l'égard des très grandes plateformes, mais on espère évidemment qu'elles vont pouvoir se saisir de cet outil. Et c'est là évidemment qu'on aura besoin de moyens techniques, qui permettent a posteriori, après leur diffusion, d'identifier plus facilement ces contenus et de les marquer. Le règlement sur l'intelligence artificielle de 2024, lui, est allé encore plus loin. puisqu'il impose aux déployeurs et aux fournisseurs de systèmes d'IA d'intégrer ces dispositifs de marquage dès leur conception, de sorte qu'il sera possible de générer des deepfakes, mais ceux-ci seront ou devraient être automatiquement identifiés, comme ayant été créés, par intelligence artificielle, de sorte qu'il ne soit pas de nature, évidemment, à tromper le public, notamment en période électorale, ce qui est un grand sujet de préoccupation.

  • Speaker #2

    Quel est l'avenir du projet Uncov en matière de détection des contenus générés par IA, notamment dans les domaines de l'audio, de la vidéo

  • Speaker #3

    Donc là, on est une petite équipe et on va commencer à recruter. On a été labellisé Deep Tech par la BPI, donc ça permet d'avoir des premiers financements publics. Là, on va commencer à recruter justement pour développer le modèle d'audio. Suite au développement du modèle audio, le but sera de développer un modèle vidéo. Comme ça, ça nous permettra d'avoir une solution horizontale pour couvrir texte, image, audio et vidéo. Après, le but, c'est de travailler, que ce soit avec des entreprises, et des gouvernements pour justement les aider à authentifier l'origine d'un contenu, et après toujours aider le citoyen à prendre un peu d'abstraction devant les informations qu'il va consommer, que ce soit sur les réseaux, en ligne ou autre, pour justement radoucir un peu la société et éviter tous ces biais qui sont en train d'être propagés par différents partis politiques, par exemple.

  • Speaker #0

    Merci pour votre réponse. Merci M. Barbaro et M. Mouron pour votre participation. Nous espérons que cet épisode vous a intéressé. N'hésitez pas à le partager autour de vous, à nous faire part de vos retours et nous suggérer des thématiques pour les prochains épisodes. A très bientôt pour un nouvel épisode de CodeCast.

Share

Embed

You may also like

Description

L’intelligence artificielle transforme notre rapport à l’information… mais avec quels risques ? Dans cet épisode de Code'Cast, nous explorons l’impact des contenus générés par l’IA sur la diffusion de fake news et les deepfake et les défis qu’ils posent en matière de régulation. Pour décrypter ces enjeux, nous accueillons Monsieur Florian Barbaro, fondateur d’Uncov AI, une plateforme spécialisée dans la détection des contenus générés par intelligence artificielle, et Monsieur Philippe Mouron, professeur de droit privé et directeur du master droit des communications électroniques. Un épisode incontournable pour mieux comprendre l’avenir de la régulation du numérique face aux nouveaux défis de l’IA.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Codecast, podcast juridique de la Faculté de droit et de sciences politiques d'Aix-Marseille Université. Bonjour à toutes et à tous, Codecast est de retour pour un épisode consacré à la détection des contenus générés par l'intelligence artificielle. ainsi qu'à l'usage de l'IA en matière d'information et de communication, notamment sur l'IA et les fake news. Pour nous éclairer sur cette question, nous avons le plaisir d'accueillir Florian Barbaro, fondateur et directeur général d'Uncov AI, une plateforme de détection des contenus générés par l'intelligence artificielle. Nous recevons également Philippe Mouron, professeur de droit privé et responsable du Master 2, droit des communications électroniques. Alors on va commencer directement avec la première question. Comment la désinformation et les fake news sont-elles définies et encadrées en droit français Plus brièvement, qu'est-ce que cela peut changer et quels risques sont liés à la génération ou à la propagation de fake news par une IA

  • Speaker #1

    Alors bonjour, pour répondre à cette question, il faut savoir qu'il n'existe pas de définition, alors je dirais unitaire, des fausses informations ou fake news en droit français. En fait, il en existe plusieurs. Pourquoi Parce qu'il existe plusieurs types de fausses informations. Pour remonter un peu dans le temps, il faut savoir qu'une loi, la loi du 22 décembre 2018, a été spécifiquement consacrée à la lutte contre la manipulation de l'information. Et cette loi n'a pas ajouté de véritable définition consacrée aux fausses informations. Elle a seulement créé de nouvelles obligations à la charge, notamment des services de médias audiovisuels, des plateformes également. Tout juste peut-on trouver un nouveau pouvoir de référé qui a été créé à l'article L163-2, qui permet au juge des référés d'ordonner le retrait de fausses informations qui sont partagées de manière délibérée, artificielle ou automatisée. Et précisément, elle donne ce qui semble être une définition, elle parle d'allégations ou imputations inexactes ou trompeuses. qui sont de nature à altérer la sincérité du scrutin. Et là-dessus, il faut savoir que le Conseil constitutionnel, dans sa décision du 20 décembre, a précisé que ce pouvoir d'ordonner une mesure en référé ne concerne que les fausses informations dont le caractère apparaît manifeste. Autrement, il existait déjà, avant cette loi du 22 décembre 2018, un certain nombre de dispositions, notamment en matière pénale, qui ont pour objet ou pour effet de réprimer la diffusion de fausses informations. Mais alors que... qui elles-mêmes peuvent être entendues de manière assez diverse. En soi, la diffamation, la diffamation publique peut être considérée comme une catégorie de fausses informations, puisqu'il s'agit bien d'allégations qui sont faites à l'égard d'une personne et qui portent sur des faits ou des propos qu'elle n'a pas commis ou qu'elle n'a pas tenus. On pense également à l'infraction qui figure à l'article 226-8 du Code pénal, qui, déjà avant la loi de 2018... Réprimer le montage photographique ou le montage des paroles d'une personne de nature justement à tromper le public. Le code électoral aussi contenait déjà des mesures répressives de manipulation. On en trouve également dans le code monétaire et financier. Enfin, il existe déjà un arsenal pénal assez important qui permet de réprimer ce qu'on appelle communément des fausses informations. J'oubliais encore l'article 27 de la loi du 29 juillet 1881 relative à la liberté de la presse qui réprime historiquement la diffusion de fausses nouvelles. Donc le droit français est déjà bien pourvu en la matière, mais en vérité ne contient pas de définition unitaire de ce que sont les fausses informations. Parce qu'en vérité, il n'y a pas une seule catégorie de fausses informations. Qu'est-ce qui va changer avec l'intelligence artificielle Je dirais que la différence va être essentiellement d'échelle. C'est-à-dire que les systèmes d'intelligence artificielle permettent de fabriquer beaucoup plus rapidement et beaucoup plus facilement des contenus qui sont faux. Alors ça peut être notamment les deepfakes. On pense beaucoup à ça. Donc les deepfakes, c'est contenus qui utilisent l'image ou la voix d'une personne pour lui faire dire ou lui faire faire, entre guillemets, des propos ou des choses qui évidemment sont fausses, des propos qu'elle n'a jamais tenus ou des choses qu'elle n'a jamais commises. Il sera également possible de diffuser beaucoup plus rapidement et de manière beaucoup plus massive ces contenus. Je dirais que les systèmes d'intelligence artificielle, sur le fond, ne changent pas grand-chose par rapport à ce qu'on connaissait déjà, mais vont être simplement des facteurs d'accélération et vont permettre de diffuser de tels contenus à une échelle beaucoup plus large qu'auparavant.

  • Speaker #2

    Quant à vous, M. Barbaro, qu'est-ce qui vous a conduit à vous intéresser à la détection des contenus générés par IA

  • Speaker #3

    En gros, j'ai eu un doctorat en mathématiques appliquées et analyse du langage naturel à Paris 1 en juin 2022. Après, je suis parti travailler aux États-Unis pour une start-up et on était contracteur du ministère de la Santé américaine pour lequel on étudiait la désinformation liée au Covid et à sa propagation. Et après, en fait, en parallèle... Sur mon temps personnel, j'ai étudié la désinformation russe et sa propagation et mettre en place des outils pour lutter contre elle. Et en fait, plus j'analysais certains types de réseaux, notamment des réseaux sociaux free speech, je me suis aperçu que certains voulaient commencer à générer et mettre en place des modèles génératifs dits non woke pour en fait propager certaines idées politiques. et des contenus de désinformation. Et c'est là où je me suis posé la question, est-ce qu'il est possible de détecter ce type de contenu Et donc, j'ai commencé à faire un état de l'art, à voir ce qui se faisait. Je me suis aperçu que tout le monde utilisait le même type de modèle basé sur du deep learning. En fait, j'ai choisi une autre voie en créant mon propre modèle basé sur des modèles mathématiques qui permet d'avoir un modèle qui soit plus léger, donc plus scalable et beaucoup plus flexible. C'est-à-dire qu'on peut l'adapter facilement à de nouvelles langues et de nouveaux types de médias.

  • Speaker #2

    Ok, merci beaucoup. Et quelles incohérences peuvent être introduites dans les informations en ligne par les contenus générés par IA

  • Speaker #3

    Donc en fait, peut-être pour vraiment aller sur un exemple, il y a une recherche de la BBC qui montre qu'en utilisant des modèles génératifs, et notamment dans le cadre de cette étude, ils ont utilisé quatre modèles qui sont Gimini, OpenAI... Copilot et Perplexity. Et en fait, ils ont demandé pendant six mois à ces modèles de récupérer de l'information. Et dans 51% des cas, cette information était au minimum de la mésinformation, donc avec des problèmes de vocabulaire qui voulaient exprimer d'autres idées. Et dans le pire des cas, dans 20% des cas, c'était totalement de la désinformation. Et en fait, ce qu'on voit, c'est que par exemple, on travaille avec un journal régional. et il y a de la reprise de contenu fait par des personnes qui vont régénérer ces articles-là. Et en fait, le modèle n'a pas conscience des informations qu'il va générer. Et donc, par exemple, on avait le cas avec un accident. Dans l'article originel, l'accident avait eu lieu à 15h30, et dans l'article régénéré, il avait eu lieu à 15h45. Donc, dans ce cadre-là, il n'y a pas mort d'homme, puisque ça va être une différence de 15 minutes. Par contre... Petit à petit, et c'est un peu le choix de la volonté de certaines politiques, notamment aux États-Unis, où ils veulent enlever et détruire Wikipédia, donc une source d'accès libre et qui essaye d'être autonome pour promouvoir l'histoire telle qu'elle est, et de promouvoir justement l'utilisation de modèles génératifs pour récupérer cette information. Et on voit que, par exemple, il y a une autre étude qui est sortie hier, dans 93% des cas, l'information de groc est de mauvaise qualité et donc en fait si on se base sur des faits qui sont faux on va juste être transporté dans une réalité parallèle et cette réalité parallèle petit à petit va devenir la réalité réelle et donc ça sera problématique pour nos futures générations.

  • Speaker #0

    Alors justement l'usage de ces deepfakes en politique il est préoccupant. On On l'a vu lors de la campagne de Donald Trump, notamment avec l'exemple de Taylor Swift. En France, existe-t-il une définition légale de ce deepfake Une personne qui va être victime d'un deepfake malveillant dispose-t-elle d'un recours efficace en droit français, voire à l'échelle européenne

  • Speaker #1

    Alors, c'est une bonne question qui, justement, a fait l'actualité pas plus tard qu'en 2024. On parlait tout à l'heure de l'article 226-8 du Code pénal. qui historiquement réprime le montage de l'image d'une personne ou des paroles d'une personne. Depuis la loi du 21 mai 2024, cet article sanctionne désormais les deepfakes, alors entendus comme les contenus visuels ou sonores qui sont générés par un traitement algorithmique et qui utilisent l'image ou les paroles d'une personne sans son consentement. Donc de tel contenu, la fabrication de tel contenu ou la diffusion de tel contenu est désormais punie d'un an d'emprisonnement et de... 15 000 euros d'amende, qui peuvent être portées à deux ans d'emprisonnement et 45 000 euros d'amende lorsque ces contenus sont diffusés via un service de communication en ligne, comme une plateforme. Mais attention, tous les deepfakes ne sont pas sanctionnés. Cet article précise que l'infraction n'est commise que lorsqu'il n'apparaît pas évident qu'il s'agit d'un deepfake. Donc entre guillemets, si le deepfake est réaliste, qui est susceptible de tromper le public, c'est le seul cas où il pourrait être sanctionné. De même, s'il est expressément fait mention qu'il s'agit d'un deepfake, l'infraction n'est pas constituée. Donc deux cas de figure qui expliquent qu'en fait, la diffusion de certains deepfakes peut être considérée comme parfaitement licite, par exemple parce qu'il relève du droit à l'information du public, du droit à l'humour. Et en soi, l'utilisation de deepfake peut trouver des raisons parfaitement licites, tout comme, je dirais, les effets spéciaux qu'on connaît en matière cinématographique. Il peut y avoir des raisons légitimes de faire un deepfake dans le cadre d'un reportage d'actualité, s'il est bien précisé qu'il s'agit d'un deepfake ou si celui-ci, justement, est présenté tel quel.

  • Speaker #2

    D'accord. Et quelles solutions ont été mises en place par les plateformes comme Instagram et LinkedIn pour lutter contre la désinformation générée par IA

  • Speaker #3

    Aucune.

  • Speaker #2

    Très rapide.

  • Speaker #3

    Non, pour LinkedIn, ils ont mis en place une certification qui s'appelle C2PA, qui est poussée par Adobe, Microsoft et des gros comme ça, Reporters sans frontières. Et nous-mêmes, à NCOVEA, on est membre justement de cette certification. Le problème, c'est qu'avec la nouvelle élection de... président américain, il y a vraiment un changement d'orientation politique et un retour en arrière et notamment par exemple pour le cas de Meta et donc d'Instagram il y a un choix, par exemple quand on va poster une image, on a le choix de faire d'être déclaratif dans le sens où on peut dire cette image a été générée ou cette image est humaine le problème c'est que dans leur business modèle Les gens n'ont pas intérêt à dire qu'une image est générée parce que ça va être viral. Et donc, les réseaux sociaux ont tout à gagner de cette viralité au niveau business. Donc, actuellement, il n'y a pas grand-chose. Et avec la dernière élection américaine, je dirais qu'on est retourné en arrière, justement, avec la suppression du service de fact-checking chez Meta, notamment. Et donc, ça va poser de plus en plus de problèmes. Je pense que... Les réseaux sociaux, il n'y aura aucune régulation par eux-mêmes. Il va falloir vraiment mettre en place, au niveau des États et du cadre européen au moins pour commencer, à imposer certaines restrictions aux réseaux et mettre en place des outils qui soient capables de flaguer justement ce type de contenu.

  • Speaker #2

    Ok.

  • Speaker #0

    Alors en bref, la régulation européenne est-elle suffisamment armée face à cette prolifération des contenus trompeurs qui sont générés par l'IA.

  • Speaker #1

    Alors justement, ça a été encore un sujet d'actualité en 2024. Vous avez parlé du deepfake de Taylor Swift. Il y en a eu aussi au sein de l'Union européenne. En 2023, lors des élections législatives organisées en Slovaquie, un deepfake sonore a été diffusé la veille du scrutin. Deepfake sonore d'une prétendue conversation entre la tête de liste qui était favori... des sondages et une journaliste laissant entendre qu'ils s'organisaient pour provoquer une fraude électorale. Et c'est finalement une autre liste qui est arrivée en tête des résultats, ce qui laisse penser que cette manipulation ait pu avoir un impact sur le scrutin. Alors justement, l'Union européenne s'est saisie du problème. C'est pour cette raison que l'article 35 du règlement sur les services numériques, le fameux Digital Services Act, incite les plateformes à identifier... les contenus qui sont générés par intelligence artificielle. Alors dans le DSA, ça n'est qu'une mesure recommandée à l'égard des très grandes plateformes, mais on espère évidemment qu'elles vont pouvoir se saisir de cet outil. Et c'est là évidemment qu'on aura besoin de moyens techniques, qui permettent a posteriori, après leur diffusion, d'identifier plus facilement ces contenus et de les marquer. Le règlement sur l'intelligence artificielle de 2024, lui, est allé encore plus loin. puisqu'il impose aux déployeurs et aux fournisseurs de systèmes d'IA d'intégrer ces dispositifs de marquage dès leur conception, de sorte qu'il sera possible de générer des deepfakes, mais ceux-ci seront ou devraient être automatiquement identifiés, comme ayant été créés, par intelligence artificielle, de sorte qu'il ne soit pas de nature, évidemment, à tromper le public, notamment en période électorale, ce qui est un grand sujet de préoccupation.

  • Speaker #2

    Quel est l'avenir du projet Uncov en matière de détection des contenus générés par IA, notamment dans les domaines de l'audio, de la vidéo

  • Speaker #3

    Donc là, on est une petite équipe et on va commencer à recruter. On a été labellisé Deep Tech par la BPI, donc ça permet d'avoir des premiers financements publics. Là, on va commencer à recruter justement pour développer le modèle d'audio. Suite au développement du modèle audio, le but sera de développer un modèle vidéo. Comme ça, ça nous permettra d'avoir une solution horizontale pour couvrir texte, image, audio et vidéo. Après, le but, c'est de travailler, que ce soit avec des entreprises, et des gouvernements pour justement les aider à authentifier l'origine d'un contenu, et après toujours aider le citoyen à prendre un peu d'abstraction devant les informations qu'il va consommer, que ce soit sur les réseaux, en ligne ou autre, pour justement radoucir un peu la société et éviter tous ces biais qui sont en train d'être propagés par différents partis politiques, par exemple.

  • Speaker #0

    Merci pour votre réponse. Merci M. Barbaro et M. Mouron pour votre participation. Nous espérons que cet épisode vous a intéressé. N'hésitez pas à le partager autour de vous, à nous faire part de vos retours et nous suggérer des thématiques pour les prochains épisodes. A très bientôt pour un nouvel épisode de CodeCast.

Description

L’intelligence artificielle transforme notre rapport à l’information… mais avec quels risques ? Dans cet épisode de Code'Cast, nous explorons l’impact des contenus générés par l’IA sur la diffusion de fake news et les deepfake et les défis qu’ils posent en matière de régulation. Pour décrypter ces enjeux, nous accueillons Monsieur Florian Barbaro, fondateur d’Uncov AI, une plateforme spécialisée dans la détection des contenus générés par intelligence artificielle, et Monsieur Philippe Mouron, professeur de droit privé et directeur du master droit des communications électroniques. Un épisode incontournable pour mieux comprendre l’avenir de la régulation du numérique face aux nouveaux défis de l’IA.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Codecast, podcast juridique de la Faculté de droit et de sciences politiques d'Aix-Marseille Université. Bonjour à toutes et à tous, Codecast est de retour pour un épisode consacré à la détection des contenus générés par l'intelligence artificielle. ainsi qu'à l'usage de l'IA en matière d'information et de communication, notamment sur l'IA et les fake news. Pour nous éclairer sur cette question, nous avons le plaisir d'accueillir Florian Barbaro, fondateur et directeur général d'Uncov AI, une plateforme de détection des contenus générés par l'intelligence artificielle. Nous recevons également Philippe Mouron, professeur de droit privé et responsable du Master 2, droit des communications électroniques. Alors on va commencer directement avec la première question. Comment la désinformation et les fake news sont-elles définies et encadrées en droit français Plus brièvement, qu'est-ce que cela peut changer et quels risques sont liés à la génération ou à la propagation de fake news par une IA

  • Speaker #1

    Alors bonjour, pour répondre à cette question, il faut savoir qu'il n'existe pas de définition, alors je dirais unitaire, des fausses informations ou fake news en droit français. En fait, il en existe plusieurs. Pourquoi Parce qu'il existe plusieurs types de fausses informations. Pour remonter un peu dans le temps, il faut savoir qu'une loi, la loi du 22 décembre 2018, a été spécifiquement consacrée à la lutte contre la manipulation de l'information. Et cette loi n'a pas ajouté de véritable définition consacrée aux fausses informations. Elle a seulement créé de nouvelles obligations à la charge, notamment des services de médias audiovisuels, des plateformes également. Tout juste peut-on trouver un nouveau pouvoir de référé qui a été créé à l'article L163-2, qui permet au juge des référés d'ordonner le retrait de fausses informations qui sont partagées de manière délibérée, artificielle ou automatisée. Et précisément, elle donne ce qui semble être une définition, elle parle d'allégations ou imputations inexactes ou trompeuses. qui sont de nature à altérer la sincérité du scrutin. Et là-dessus, il faut savoir que le Conseil constitutionnel, dans sa décision du 20 décembre, a précisé que ce pouvoir d'ordonner une mesure en référé ne concerne que les fausses informations dont le caractère apparaît manifeste. Autrement, il existait déjà, avant cette loi du 22 décembre 2018, un certain nombre de dispositions, notamment en matière pénale, qui ont pour objet ou pour effet de réprimer la diffusion de fausses informations. Mais alors que... qui elles-mêmes peuvent être entendues de manière assez diverse. En soi, la diffamation, la diffamation publique peut être considérée comme une catégorie de fausses informations, puisqu'il s'agit bien d'allégations qui sont faites à l'égard d'une personne et qui portent sur des faits ou des propos qu'elle n'a pas commis ou qu'elle n'a pas tenus. On pense également à l'infraction qui figure à l'article 226-8 du Code pénal, qui, déjà avant la loi de 2018... Réprimer le montage photographique ou le montage des paroles d'une personne de nature justement à tromper le public. Le code électoral aussi contenait déjà des mesures répressives de manipulation. On en trouve également dans le code monétaire et financier. Enfin, il existe déjà un arsenal pénal assez important qui permet de réprimer ce qu'on appelle communément des fausses informations. J'oubliais encore l'article 27 de la loi du 29 juillet 1881 relative à la liberté de la presse qui réprime historiquement la diffusion de fausses nouvelles. Donc le droit français est déjà bien pourvu en la matière, mais en vérité ne contient pas de définition unitaire de ce que sont les fausses informations. Parce qu'en vérité, il n'y a pas une seule catégorie de fausses informations. Qu'est-ce qui va changer avec l'intelligence artificielle Je dirais que la différence va être essentiellement d'échelle. C'est-à-dire que les systèmes d'intelligence artificielle permettent de fabriquer beaucoup plus rapidement et beaucoup plus facilement des contenus qui sont faux. Alors ça peut être notamment les deepfakes. On pense beaucoup à ça. Donc les deepfakes, c'est contenus qui utilisent l'image ou la voix d'une personne pour lui faire dire ou lui faire faire, entre guillemets, des propos ou des choses qui évidemment sont fausses, des propos qu'elle n'a jamais tenus ou des choses qu'elle n'a jamais commises. Il sera également possible de diffuser beaucoup plus rapidement et de manière beaucoup plus massive ces contenus. Je dirais que les systèmes d'intelligence artificielle, sur le fond, ne changent pas grand-chose par rapport à ce qu'on connaissait déjà, mais vont être simplement des facteurs d'accélération et vont permettre de diffuser de tels contenus à une échelle beaucoup plus large qu'auparavant.

  • Speaker #2

    Quant à vous, M. Barbaro, qu'est-ce qui vous a conduit à vous intéresser à la détection des contenus générés par IA

  • Speaker #3

    En gros, j'ai eu un doctorat en mathématiques appliquées et analyse du langage naturel à Paris 1 en juin 2022. Après, je suis parti travailler aux États-Unis pour une start-up et on était contracteur du ministère de la Santé américaine pour lequel on étudiait la désinformation liée au Covid et à sa propagation. Et après, en fait, en parallèle... Sur mon temps personnel, j'ai étudié la désinformation russe et sa propagation et mettre en place des outils pour lutter contre elle. Et en fait, plus j'analysais certains types de réseaux, notamment des réseaux sociaux free speech, je me suis aperçu que certains voulaient commencer à générer et mettre en place des modèles génératifs dits non woke pour en fait propager certaines idées politiques. et des contenus de désinformation. Et c'est là où je me suis posé la question, est-ce qu'il est possible de détecter ce type de contenu Et donc, j'ai commencé à faire un état de l'art, à voir ce qui se faisait. Je me suis aperçu que tout le monde utilisait le même type de modèle basé sur du deep learning. En fait, j'ai choisi une autre voie en créant mon propre modèle basé sur des modèles mathématiques qui permet d'avoir un modèle qui soit plus léger, donc plus scalable et beaucoup plus flexible. C'est-à-dire qu'on peut l'adapter facilement à de nouvelles langues et de nouveaux types de médias.

  • Speaker #2

    Ok, merci beaucoup. Et quelles incohérences peuvent être introduites dans les informations en ligne par les contenus générés par IA

  • Speaker #3

    Donc en fait, peut-être pour vraiment aller sur un exemple, il y a une recherche de la BBC qui montre qu'en utilisant des modèles génératifs, et notamment dans le cadre de cette étude, ils ont utilisé quatre modèles qui sont Gimini, OpenAI... Copilot et Perplexity. Et en fait, ils ont demandé pendant six mois à ces modèles de récupérer de l'information. Et dans 51% des cas, cette information était au minimum de la mésinformation, donc avec des problèmes de vocabulaire qui voulaient exprimer d'autres idées. Et dans le pire des cas, dans 20% des cas, c'était totalement de la désinformation. Et en fait, ce qu'on voit, c'est que par exemple, on travaille avec un journal régional. et il y a de la reprise de contenu fait par des personnes qui vont régénérer ces articles-là. Et en fait, le modèle n'a pas conscience des informations qu'il va générer. Et donc, par exemple, on avait le cas avec un accident. Dans l'article originel, l'accident avait eu lieu à 15h30, et dans l'article régénéré, il avait eu lieu à 15h45. Donc, dans ce cadre-là, il n'y a pas mort d'homme, puisque ça va être une différence de 15 minutes. Par contre... Petit à petit, et c'est un peu le choix de la volonté de certaines politiques, notamment aux États-Unis, où ils veulent enlever et détruire Wikipédia, donc une source d'accès libre et qui essaye d'être autonome pour promouvoir l'histoire telle qu'elle est, et de promouvoir justement l'utilisation de modèles génératifs pour récupérer cette information. Et on voit que, par exemple, il y a une autre étude qui est sortie hier, dans 93% des cas, l'information de groc est de mauvaise qualité et donc en fait si on se base sur des faits qui sont faux on va juste être transporté dans une réalité parallèle et cette réalité parallèle petit à petit va devenir la réalité réelle et donc ça sera problématique pour nos futures générations.

  • Speaker #0

    Alors justement l'usage de ces deepfakes en politique il est préoccupant. On On l'a vu lors de la campagne de Donald Trump, notamment avec l'exemple de Taylor Swift. En France, existe-t-il une définition légale de ce deepfake Une personne qui va être victime d'un deepfake malveillant dispose-t-elle d'un recours efficace en droit français, voire à l'échelle européenne

  • Speaker #1

    Alors, c'est une bonne question qui, justement, a fait l'actualité pas plus tard qu'en 2024. On parlait tout à l'heure de l'article 226-8 du Code pénal. qui historiquement réprime le montage de l'image d'une personne ou des paroles d'une personne. Depuis la loi du 21 mai 2024, cet article sanctionne désormais les deepfakes, alors entendus comme les contenus visuels ou sonores qui sont générés par un traitement algorithmique et qui utilisent l'image ou les paroles d'une personne sans son consentement. Donc de tel contenu, la fabrication de tel contenu ou la diffusion de tel contenu est désormais punie d'un an d'emprisonnement et de... 15 000 euros d'amende, qui peuvent être portées à deux ans d'emprisonnement et 45 000 euros d'amende lorsque ces contenus sont diffusés via un service de communication en ligne, comme une plateforme. Mais attention, tous les deepfakes ne sont pas sanctionnés. Cet article précise que l'infraction n'est commise que lorsqu'il n'apparaît pas évident qu'il s'agit d'un deepfake. Donc entre guillemets, si le deepfake est réaliste, qui est susceptible de tromper le public, c'est le seul cas où il pourrait être sanctionné. De même, s'il est expressément fait mention qu'il s'agit d'un deepfake, l'infraction n'est pas constituée. Donc deux cas de figure qui expliquent qu'en fait, la diffusion de certains deepfakes peut être considérée comme parfaitement licite, par exemple parce qu'il relève du droit à l'information du public, du droit à l'humour. Et en soi, l'utilisation de deepfake peut trouver des raisons parfaitement licites, tout comme, je dirais, les effets spéciaux qu'on connaît en matière cinématographique. Il peut y avoir des raisons légitimes de faire un deepfake dans le cadre d'un reportage d'actualité, s'il est bien précisé qu'il s'agit d'un deepfake ou si celui-ci, justement, est présenté tel quel.

  • Speaker #2

    D'accord. Et quelles solutions ont été mises en place par les plateformes comme Instagram et LinkedIn pour lutter contre la désinformation générée par IA

  • Speaker #3

    Aucune.

  • Speaker #2

    Très rapide.

  • Speaker #3

    Non, pour LinkedIn, ils ont mis en place une certification qui s'appelle C2PA, qui est poussée par Adobe, Microsoft et des gros comme ça, Reporters sans frontières. Et nous-mêmes, à NCOVEA, on est membre justement de cette certification. Le problème, c'est qu'avec la nouvelle élection de... président américain, il y a vraiment un changement d'orientation politique et un retour en arrière et notamment par exemple pour le cas de Meta et donc d'Instagram il y a un choix, par exemple quand on va poster une image, on a le choix de faire d'être déclaratif dans le sens où on peut dire cette image a été générée ou cette image est humaine le problème c'est que dans leur business modèle Les gens n'ont pas intérêt à dire qu'une image est générée parce que ça va être viral. Et donc, les réseaux sociaux ont tout à gagner de cette viralité au niveau business. Donc, actuellement, il n'y a pas grand-chose. Et avec la dernière élection américaine, je dirais qu'on est retourné en arrière, justement, avec la suppression du service de fact-checking chez Meta, notamment. Et donc, ça va poser de plus en plus de problèmes. Je pense que... Les réseaux sociaux, il n'y aura aucune régulation par eux-mêmes. Il va falloir vraiment mettre en place, au niveau des États et du cadre européen au moins pour commencer, à imposer certaines restrictions aux réseaux et mettre en place des outils qui soient capables de flaguer justement ce type de contenu.

  • Speaker #2

    Ok.

  • Speaker #0

    Alors en bref, la régulation européenne est-elle suffisamment armée face à cette prolifération des contenus trompeurs qui sont générés par l'IA.

  • Speaker #1

    Alors justement, ça a été encore un sujet d'actualité en 2024. Vous avez parlé du deepfake de Taylor Swift. Il y en a eu aussi au sein de l'Union européenne. En 2023, lors des élections législatives organisées en Slovaquie, un deepfake sonore a été diffusé la veille du scrutin. Deepfake sonore d'une prétendue conversation entre la tête de liste qui était favori... des sondages et une journaliste laissant entendre qu'ils s'organisaient pour provoquer une fraude électorale. Et c'est finalement une autre liste qui est arrivée en tête des résultats, ce qui laisse penser que cette manipulation ait pu avoir un impact sur le scrutin. Alors justement, l'Union européenne s'est saisie du problème. C'est pour cette raison que l'article 35 du règlement sur les services numériques, le fameux Digital Services Act, incite les plateformes à identifier... les contenus qui sont générés par intelligence artificielle. Alors dans le DSA, ça n'est qu'une mesure recommandée à l'égard des très grandes plateformes, mais on espère évidemment qu'elles vont pouvoir se saisir de cet outil. Et c'est là évidemment qu'on aura besoin de moyens techniques, qui permettent a posteriori, après leur diffusion, d'identifier plus facilement ces contenus et de les marquer. Le règlement sur l'intelligence artificielle de 2024, lui, est allé encore plus loin. puisqu'il impose aux déployeurs et aux fournisseurs de systèmes d'IA d'intégrer ces dispositifs de marquage dès leur conception, de sorte qu'il sera possible de générer des deepfakes, mais ceux-ci seront ou devraient être automatiquement identifiés, comme ayant été créés, par intelligence artificielle, de sorte qu'il ne soit pas de nature, évidemment, à tromper le public, notamment en période électorale, ce qui est un grand sujet de préoccupation.

  • Speaker #2

    Quel est l'avenir du projet Uncov en matière de détection des contenus générés par IA, notamment dans les domaines de l'audio, de la vidéo

  • Speaker #3

    Donc là, on est une petite équipe et on va commencer à recruter. On a été labellisé Deep Tech par la BPI, donc ça permet d'avoir des premiers financements publics. Là, on va commencer à recruter justement pour développer le modèle d'audio. Suite au développement du modèle audio, le but sera de développer un modèle vidéo. Comme ça, ça nous permettra d'avoir une solution horizontale pour couvrir texte, image, audio et vidéo. Après, le but, c'est de travailler, que ce soit avec des entreprises, et des gouvernements pour justement les aider à authentifier l'origine d'un contenu, et après toujours aider le citoyen à prendre un peu d'abstraction devant les informations qu'il va consommer, que ce soit sur les réseaux, en ligne ou autre, pour justement radoucir un peu la société et éviter tous ces biais qui sont en train d'être propagés par différents partis politiques, par exemple.

  • Speaker #0

    Merci pour votre réponse. Merci M. Barbaro et M. Mouron pour votre participation. Nous espérons que cet épisode vous a intéressé. N'hésitez pas à le partager autour de vous, à nous faire part de vos retours et nous suggérer des thématiques pour les prochains épisodes. A très bientôt pour un nouvel épisode de CodeCast.

Share

Embed

You may also like

undefined cover
undefined cover