- Speaker #0
Code'cast, podcast juridique de la Faculté de droit et de sciences politiques d'Aix-Marseille Université.
- Speaker #1
Bonjour à toutes et à tous et bienvenue dans ce nouvel épisode de Codcast. Aujourd'hui, dans le cadre de la semaine de lutte contre le racisme et l'antisémitisme, nous abordons la question de la haine en ligne avec M. Mario Stasi, président de la LICRA, et Tina Theallet, responsable du service juridique de la LICRA. Bonjour et merci d'avoir accepté notre invitation. Quel est le rôle des associations comme la LICRA dans la lutte contre la haine en ligne ?
- Speaker #2
C'est un rôle qui consiste, en effet, vous avez parlé d'universalisme, à combattre le racisme, l'antisémitisme et les discriminations et à faire respecter la loi. C'est-à-dire que ce qui relève de la loi est du domaine du délit, lorsque celle-ci est violée, et ce qui relève de la liberté d'expression est une opinion, et nous avons, y compris sur la ligne, sur les réseaux sociaux notamment, à être vigilants, dénoncer, faire respecter ce qui est dissible et de ce qui ne l'est pas. C'est-à-dire la liberté d'expression. mais cette liberté de expression jusqu'à sa limite, c'est-à-dire le moment où la loi est violée et où on passe de l'opinion au racisme, à l'antisémitisme, ou à l'homophobie, ou à la discrimination. Donc c'est un travail de vigilance, de dénonciation, et j'insiste beaucoup, d'éducation et de formation.
- Speaker #1
Quelles infractions le droit français prévoit-il pour sanctionner les contenus haineux ? Ces infractions diffèrent-elles selon qu'elles concernent des actes en ligne ou hors ligne ? Existe-t-il des spécificités juridiques liées à la haine ? Justement, en ligne par rapport à les comportements similaires dans le monde physique ?
- Speaker #0
Effectivement, les infractions ne diffèrent pas que l'acte soit fait en ligne ou hors ligne, ou en tout cas les propos, puisque en général, dans le monde hors ligne, il s'agit de propos qui peuvent être à caractère raciste ou antisémite. Et en général, ces propos-là, ils sont réprimés par la loi de 1881 sur la liberté de la presse. qui, justement, fait la liste des infractions, d'injures, provocations à la haine, diffamations, et qui sont aggravées par, justement, le fait qu'elles soient racistes ou antisémites, par exemple. En fait, on se rend compte, et nous, spécifiquement dans notre pratique quotidienne de lutte contre la haine en ligne, qu'il y a une porosité, finalement, entre les propos qui sont décomplexés, qui sont tenus sur les réseaux sociaux, notamment les très grandes plateformes, Par exemple, X, Facebook, Meta, Instagram, il y a un propos, une parole qui est décomplexée et qui, effectivement, cette impunité finalement qui est là sur les réseaux, se retrouve dans le monde physique. On se rend compte qu'on a de nombreux signalements dans les écoles, notamment de victimes justement de propos racistes ou antisémites dans les écoles. Parce qu'effectivement, il y a une idée, une impunité qui se fait dans l'opinion publique, puisqu'il n'y a pas de punition visible sur les réseaux sociaux. C'est pour ça qu'on voit une augmentation dans notre sphère d'activité, que ce soit dans le monde en ligne ou physique, des signalements de manière générale des propos de haine raciste et antisémite.
- Speaker #2
Ce que dit Tina est tout à fait exact. Pendant très longtemps, lorsqu'on me posait la question de savoir quel était le rôle que tenaient les réseaux sociaux dans la propagation de la parole raciste ou antisémite. Et je disais, je répondais souvent et systématiquement que c'est plutôt un rôle amplificateur. Comme le disait Tina, l'impunité qu'offrent les réseaux sociaux, par porosité, se diffuse dans le corps social. Et on a pu voir, notamment du temps du Covid et des manifestations, et puis après cette période particulière, des manifestations physiques dans les rues où ceux qui avaient l'habitude de se cacher pour dire « sale juif, tu crèves » ou inconsciemment du fait de l'impunité, puisque les mêmes avaient cette parole désinhibée. Je ne parle pas de libération de la parole, je parle de la parole désinhibée, la parole sans limite sur les réseaux sociaux et sans sanctions. Ils ont exporté leur habitude d'expression publique, non sanctionnée et pourtant délictuelle, dans le monde physique, dans les manifestations, dans des espaces communs que sont l'école, le voisinage et autres, et ces réseaux sociaux. non seulement ont été l'amplificateur, mais quelque part aussi la source d'un antisémitisme et d'un racisme qui se propagent. D'où la nécessité impérieuse de sa régulation.
- Speaker #1
D'accord, on comprend bien cette porosité entre les deux. Et quelles sanctions encourt les auteurs ? Quel recours existe pour les victimes ? Quelle est par exemple la procédure type ?
- Speaker #0
Les sanctions sont identiques, que vous soyez dans le monde réel ou dans le monde en ligne. Monde réel, pardon, je m'exprime mal, mais c'est dans le monde physique, on va dire. Et quels sont les types de procédures ? Quand vous êtes victime de cyberharcèlement ou que vous recevez effectivement un message à caractère raciste ou antisémite sur les réseaux sociaux, eh bien nous, ce qu'on conseille, en tout cas au service d'accueil des victimes... c'est de déposer plainte, effectivement. Il ne faut pas oublier que, effectivement, le monde virtuel, ça ne veut pas dire qu'il n'y a pas d'impunité, qu'il n'y a pas de qualification juridique à apporter à des propos racistes ou antisémites sur les réseaux sociaux. Donc de déposer plainte et d'envoyer cette plainte aussi au pôle national de lutte contre la haine en ligne, puisque le parquet de Paris a un... pôle spécifique dédié à la haine en ligne et qui, notamment, prend en charge tous les cas de cyberharcèlement. Ensuite, il y a d'autres moyens, évidemment, de ne pas hésiter à se faire aider par un service juridique d'une association. Là, c'est la haine raciste, antisémite, donc je vous parlerai de notre service. d'accueil des victimes à la LICRA, mais vous pouvez également pour la LGBTphobie, par exemple, contacter des associations qui sont spécialistes, etc. Et pareil pour le sexisme, pour vous donner un ordre d'idée. Donc les recours, ils existent pour les victimes. C'est vrai que de se faire aider par une association, ça peut permettre de s'orienter plus pratiquement. Donc je pense que c'est le conseil numéro 1 que je donnerais aux victimes.
- Speaker #2
L'accompagnement est d'autant plus important que ce sont des législations très précises, très réglementées, et que les procédures à suivre pour se voir reconnaître comme victime jusqu'à l'aboutissement par une décision judiciaire nécessitent un respect des codes et des codes de procédure pénale notamment, et loi de 1881, loi de 1972, d'où l'intérêt, j'insiste vraiment, de se rapprocher d'une association qui accompagnera notamment par son service judiciaire, c'est primordial, parce que... D'une part, la victime n'est pas toujours suffisamment au fait de la procédure, c'est normal. D'autre part, les services d'enquête qui recueillent la parole de la victime ne sont pas eux aussi ces services aussi compétents, souvent, que nous souhaitons qu'ils le soient. Et donc, nous sommes là pour les associations compétentes, pour veiller à ce qu'il n'y ait pas de faute de procédure, que la procédure a son terme, qu'elle soit bien assistée, en plus qu'elle doit être accompagnée, ces victimes. Et j'ajouterai enfin que... S'il est vrai que dans l'objet même de la LICRA, qui est racisme, antisémitisme, discrimination, nous avons un spectre déjà assez large qui nous permet d'accompagner les victimes dans un processus judiciaire, il est des domaines comme l'homophobie, par exemple, où nous ne sommes pas, par notre objet même, compétents à les assister devant les tribunaux, mais nous travaillons avec des associations partenaires régulièrement, et nous travaillons ensemble et nous orientons, comme nous recevons d'ailleurs aussi des plaintes d'autres associations, de victimes d'autres associations, nous orientons vers les... les associations compétentes. Voilà ce que je voulais compléter.
- Speaker #1
Et avant la question de la sanction, il y a celle aussi de la modération. Comment on pourrait améliorer la modération des contenus ? Bon, question difficile, mais est-ce que l'IA, l'intelligence artificielle, serait une solution efficace ?
- Speaker #0
On pourrait tout à fait améliorer la modération des contenus, ça c'est sans aucun doute. À savoir si l'IA est une solution efficace, il faudrait au moins s'assurer que cette IA serait bien entraînée, qu'elle n'aurait pas de biais, puisqu'on le voit, et notamment là, plus spécifiquement dans l'affaire qui est d'actualité de l'affiche de Cyril Hanouna, qui a été faite par le parti politique des LFI, visiblement avec l'aide de l'application d'IA de X-Grok. on se rend compte que visiblement, il y a des IA qui ont des biais, qui ont des biais racistes, qui ont des biais antisémites, et sur lesquels il faudrait jouer pour voir si un contenu peut être effectivement bien modéré par une IA. Aujourd'hui, les contenus sont modérés de manière générale par un robot. C'est des méthodes qui sont automatisées. Il arrive qu'il y ait un humain derrière la modération, mais on n'a pas forcément trop de... de transparence. Pour vous donner un ordre d'idée, avec ma collègue du service international, avant justement notre rencontre, on a un peu épluché les derniers rapports de transparence des grandes plateformes, qui font partie des obligations, selon le DSA, de rendre effectivement des rapports de transparence. C'est des obligations des très grandes plateformes d'être transparentes sur leur modération, sur tous ces éléments algorithmiques, etc. permettent de modérer les contenus, on se rend compte qu'il y a une disparité dans les informations qui sont données, qu'il n'y a pas effectivement de transparence sur le nombre de robots qui sont utilisés, sur quels contenus illicites sont effectivement modérés par des robots. Et aujourd'hui, je pense que la modération, effectivement, elle doit être améliorée. C'est aux grandes plateformes de nous donner des solutions pour permettre cette meilleure modération. Et d'ailleurs, ça fait partie de leurs responsabilités dans le cadre du DSA qui apporte en fait une garantie et oblige en fait les plateformes à réguler et à lutter aussi contre les contenus illicites.
- Speaker #2
La modération ne doit plus être commerciale, elle doit être éthique. Et tout l'enjeu de la réglementation européenne et de la transcription dans les droits nationaux, c'est de forcer les plateformes à changer de logiciel et considérer que la modération qui vaille dans ce monde européen, Convention européenne des droits de l'homme, liberté d'expression jusqu'à une certaine limite, ça ne peut plus être une modération commerciale telle que les États-Unis, en tout cas l'encouragent, ou telle que les mastodontes aux États-Unis l'encouragent. C'est donc le vrai défi. de notre société, c'est d'imposer une modération légale dans le respect de la légalité telle que fixée par la Cour européenne des droits de l'homme, Convention européenne des droits de l'homme et des droits nationaux, et non plus une modération qui, encore aujourd'hui, est principalement commerciale.
- Speaker #1
Modération légale, vous avez dit, par rapport aux plateformes. Et justement, on va reparler du DSA après, mais avec quels acteurs la LICRA est-elle en contact ? Quel est le rôle des plateformes dans la modération des contenus haineux ? Et quelles sont justement leurs obligations légales ?
- Speaker #0
Alors nous on est en contact avec de nombreuses plateformes, parmi lesquelles des très grandes plateformes. Donc on a un lien privilégié qui nous permet effectivement de signaler en priorité des contenus. Aujourd'hui on a aussi des liens avec les services du ministère de l'Intérieur, notamment la plateforme Pharos, qui nous permet effectivement... aussi de signaler rapidement des contenus qui sont urgents et qui ont une portée haineuse importante et c'est comme ça qu'on fonctionne quand on signale à Pharos des contenus. Aujourd'hui, le rôle des plateformes dans la modération elle est essentielle. Ils ont des obligations qui sont imposées par le DSA et il leur appartient de respecter ces obligations. Visiblement, ce n'est pas forcément encore le cas, même si la mise en conformité, l'entrée en vigueur du DSA est récente. Cette entrée en vigueur le 17 février 2024 et qu'il y a un temps de mise en conformité. Cependant, il y a quand même déjà, il me semble que c'est au moins dix enquêtes en cours auprès de la Commission européenne sur... différentes très grandes plateformes qui ont des garanties à donner sur le fait qu'elles respectent bien leurs obligations de modération des contenus illicites, y compris des contenus haineux et y compris aussi des contenus désinformationnels, puisqu'il y a aussi cette question-là du complotisme et de la désinformation en ligne qui prospère en fait sur toutes ces plateformes.
- Speaker #2
Avec quels acteurs la LICRA est-elle en contact ? Il y a aussi tout un... une prise de contact, j'allais dire, plus politique. Nous dénonçons, nous surveillons, mais nous agissons aussi auprès des députés, auprès des ministères compétents. Nous avons agi auprès de la Commission européenne notamment, depuis de nombreuses années, afin qu'il y ait un vrai élan, un vrai mouvement, une vraie prise de conscience politique de régulation des réseaux sociaux et qu'on arrête de nous dire qu'il s'agit de censure. Il s'agit simplement de mettre ces réseaux sociaux... sont adaptées en compatibilité avec les règles fixées par la Cour européenne des droits de l'homme, la Convention européenne des droits de l'homme notamment, et notre droit interne. Donc les acteurs, ce sont aussi ceux qui permettent de faire évoluer la loi. Nous avons par exemple, il y avait une proposition de loi de Mme Avia il y a quelques années, qui certes a été retoquée, mais qui a été quand même un premier pas vers une prise de conscience politique, et nous avions été consultés et parties prenantes. Toutes nos suggestions n'avaient pas été reprises, d'où la censure, mais nous avons été parties prenantes. à l'élaboration d'une réglementation qui, loin d'être une censure, vise à une pleine liberté d'expression jusqu'au moment où le délit est commis. Et donc la prise de contact, elle n'est pas simplement dans la dénonciation et dans la vigilance, elle est aussi dans l'élaboration et dans une certaine forme de lobbying pour résister à celui et des plateformes et de cet État Elon Muskien qui est en train de voir nous imposer une liberté sans limite, c'est-à-dire plus de liberté du tout.
- Speaker #1
Le DSA change-t-il quelque chose pour le rôle de la LICRA ? Celle-ci aspire-t-elle au statut de signaleur de confiance ?
- Speaker #0
Alors effectivement, le DSA prévoit que certaines organisations peuvent être des signaleurs de confiance. Donc ça veut dire qu'elles pourraient, ces organisations-là, signaler des contenus à caractère illicite qui seraient traités en priorité par les grandes plateformes, et en l'occurrence les très grandes plateformes. C'est un statut qui est un peu plus ancien que le DSA, sauf qu'il était informel. Ça a été mis en place il y a quelques années avec certaines grandes plateformes, et à l'époque notamment Meta qui a été précurseur, et ensuite ce procédé s'est élargi à toutes les grandes plateformes à vrai dire, et la LICRA avait ce statut privilégié avec les très grandes plateformes. Donc on l'a toujours, bien qu'il ne soit pas formalisé au sens du DSA, et que donc... Pour avoir ce statut de signaleur de confiance au sens du DSA, il faut remplir un dossier qui est très très long auprès de l'ARCOM, qui demande des garanties, des garanties des exigences en termes de moyens humains, d'expertise aussi, il faut prouver. Et donc on aspire à le faire, on est en cours d'élaboration de ce dossier, et pour l'instant il n'y a à ce jour qu'un seul signaleur de confiance qui a été... désignée comme telle par l'Arcom, c'est e-Enfance qui est une association sur les droits des enfants.
- Speaker #1
Merci beaucoup.
- Speaker #2
J'invite chacun de ceux qui nous ont écoutés, si ça les intéresse, à nous rejoindre. C'est passionnant, c'est en mouvement et c'est vraiment le cœur de la République. Savoir ce qu'on a le droit de dire et pas le droit de dire et comment l'interdire sans être censeur, comment faire respecter la loi sans être dans la morale, qu'est-ce que l'éthique, qu'est-ce que la légalité, qu'est-ce qui est disciple, indiscible, qu'est-ce qu'on a le droit de penser, qu'est-ce qu'on a le droit d'écrire, qu'est-ce qu'on a le droit de dire ou le dire, comment le dire. C'est passionnant et on est en... plein milieu de ce qui fait une civilisation. Voilà.
- Speaker #1
Merci, un sujet d'actualité. Merci Madame Theallet et Monsieur Stasi. Nous espérons que cet épisode vous aura intéressé. N'hésitez pas à le partager autour de vous, à nous faire part de vos retours, et pourquoi pas, à nous suggérer des thématiques futures. A très bientôt pour un nouvel épisode de Codecast. Merci à toutes et à tous. Au revoir.