undefined cover
undefined cover
L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang cover
L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang cover
Échange Climatique

L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang

L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang

1h09 |24/05/2024
Play
undefined cover
undefined cover
L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang cover
L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang cover
Échange Climatique

L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang

L'intelligence artificielle : Pire que le changement climatique ? Avec Lê Nguyen Hoang

1h09 |24/05/2024
Play

Description

Dans cet épisode, nous parlons des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des États autoritaires et ont pour objectif de retenir le plus possible notre attention. Les conséquences pour nous, individus, mais aussi nos sociétés sont énormes : détérioration de la santé mentale, de la cohésion sociale, ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lê Nguyen Hoang. Il est chercheur en intelligence artificielle, co-auteur du livre “La dictature des algorithmes”.


L’IA, pire que le climat ? C’est le thème de ce nouvel épisode d’Échange Climatique.


Infos: https://linktr.ee/echangeclimatique

Contact: echangesclimatiques@gmail.com

Production: https://onetwo-onetwo.com/


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Si j'ai lancé ce podcast, c'est parce que je ressentais le besoin d'alerter sur le changement climatique. Et c'est pour cette même raison qu'aujourd'hui, on va parler d'intelligence artificielle. Mais pas de générateur de textes ou d'images comme ChatGPT ou Midjournée, parce que vous en avez déjà beaucoup entendu parler, et aussi parce que je pense qu'il y a plus grave. Je veux parler des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des états autoritaires, et ont pour objectif de retenir notre attention le plus possible. Les conséquences pour nous, individus ou nos sociétés, sont éliminantes. D'intérioration de la santé mentale, de la cohésion sociale... ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lei Nguyen-Wang. Il est chercheur en intelligence artificielle et co-auteur du livre La dictature des algorithmes L'IA, pire que le climat, c'est le thème de ce nouvel épisode d'Échange climatique. Bonjour Lei.

  • Speaker #1

    Bonjour !

  • Speaker #0

    Je sais que ce n'est pas une question facile, est-ce que tu peux nous dire ce que c'est qu'un algorithme de recommandation ?

  • Speaker #1

    Ouais, peut-être même encore plus facile qu'un algorithme. Un algorithme, c'est un ensemble de règles, c'est une suite d'instructions. C'est vraiment un synonyme de règles, instructions, procédures, protocoles, toutes ces choses qui décrivent des suites de choses à suivre. Et en particulier les algorithmes de recommandation, donc vraiment c'est ceux qu'on considère être les plus importants dans notre livre avec Jean-Louis Fourquet. Donc pour vraiment le comprendre, il faut vraiment se rendre compte que l'utilisation aujourd'hui du numérique, c'est vraiment beaucoup plus le téléphone. La plupart du temps, il y a 7 fois plus de vues sur téléphone, de vues YouTube sur téléphone, que de vues YouTube sur laptop, enfin desktop. Sur téléphone, le truc c'est que c'est très difficile de taper, c'est plus compliqué de taper que sur un ordinateur. Et du coup les gens vont être beaucoup moins dans la recherche. En fait ça fait depuis 2016 qu'il y a plus de vues sur Youtube que de recherches sur Google. Vous pensez que Google est le portail du web, c'est une vision très vieille en fait, très erronée aujourd'hui de l'utilisation du web. Et donc la plupart du temps, quand on utilise le web, quand la plupart de nos concitoyens naviguent sur, utilisent le numérique, ils sont sur un téléphone en train de cliquer, de swiper, de scroller. Et à chaque fois qu'on fait ces actions... enfin pas à chaque fois mais la plupart du temps, sur les réseaux sociaux, quand on clique sur l'application de réseaux sociaux, qu'on scrolle, qu'on swipe, il y a un algorithme de recommandation qui va répondre à notre action. Ce sont ces algorithmes qui vont choisir, par exemple sur un réseau social, sur TikTok, à chaque fois que vous vous swipez, c'est un algorithme de recommandation qui va choisir quel contenu va être diffusé juste après sur votre téléphone.

  • Speaker #0

    Du coup, ces algorithmes, quels sont leurs buts ? J'imagine qu'il y a le but officiel, on va dire, qui était de proposer le meilleur contenu à l'utilisateur. Pourquoi les entreprises les ont mis en place ? Qu'est-ce que c'est qu'un bon algorithme d'un point de vue de l'entreprise ?

  • Speaker #1

    Même officiellement, déjà, ils ont un peu basculé. YouTube, je crois que c'est vers 2019, ont commencé à parler du fait que leur... maximise ce qu'ils appellent le user engagement, l'activité de l'utilisateur sur la plateforme. Et en tout cas, ce qu'on peut inférer de la manière dont ça fonctionne, c'est que vraiment, il y a une dimension de captation de l'attention qui est énorme. Et ça, c'est vraiment très lié au modèle d'affaires. Aujourd'hui, le numérique, beaucoup de très grandes entreprises du numérique, c'est Google, Facebook, TikTok, Twitter ou autres, ces grandes entreprises numériques, leur modèle d'affaires, c'est la publicité ciblée. Et si on veut vendre des publicités ciblées, il y a deux choses à faire. La première, c'est d'avoir l'attention des utilisateurs pour pouvoir montrer des publicités. Et après, la deuxième, c'est d'être capable de cibler, et ça, ça va impliquer... la collecte massive d'informations sur différents utilisateurs, et ensuite la conception d'algorithmes qui sont capables d'utiliser ces données pour savoir quelle est la publicité qui sera la plus efficace pour les différents utilisateurs.

  • Speaker #0

    Ici, on est sur une chaîne de climat. Forcément, on va aborder ce thème un mot en autre. Toi aussi, tu es très conscient des problèmes du changement climatique. Tu fais beaucoup aussi à l'échelle individuelle. Je crois que j'ai entendu que tu prenais que des douches froides.

  • Speaker #1

    Oui, pas que, parce que parfois il y a des contextes où après un match de foot, il n'y a qu'une douche et elle est chaude. Mais oui, chez moi, je prends que des douche-froid.

  • Speaker #0

    Et en gros, pourquoi je te pose cette question, c'est parce que je voudrais savoir si tu es plus inquiet par rapport au climat. ou par rapport aux algorithmes de recommandation ?

  • Speaker #1

    Moi, je suis clairement beaucoup plus inquiet par rapport aux algorithmes de recommandation assez largement. Mais il n'y a pas besoin d'en arriver là. Je pense qu'un écologiste doit se préoccuper des algorithmes de recommandation, même si sa préoccupation principale, c'est le climat. Ça, on le voit très bien sur Twitter. Sur Twitter, il y a eu une désertion des scientifiques du climat parce que les scientifiques du climat ont subi des vagues de harcèlement sur Twitter. Et du coup, la production d'informations, la qualité informationnelle sur les sujets du climat sur Twitter a été complètement ravagée. Ça, on le voit également sur des plateformes comme TikTok où des sujets climato-dénialistes sont très mis en avant. Il y a très peu d'audits. Et du coup, la lutte informationnelle, parce que finalement le climat c'est en grande partie une lutte informationnelle, la raison pour laquelle on fait un podcast, enfin, peut-être pas ce podcast, mais la raison pour laquelle tu fais cette émission, c'est pas mal pour des raisons de sensibilisation sur les sujets climatiques, et il y a des gros problèmes aussi de qualité de l'information, même au sein du mouvement écologiste, et donc l'information est vraiment clé, et donc il y a une lutte informationnelle, et l'arbitre aujourd'hui de l'information... Ce sont les algorithmes de recommandation. C'est pour ça que même si on est terrifié par le climat, uniquement, les algorithmes de recommandation devraient être un aspect important de la réflexion sur la lutte climatique.

  • Speaker #0

    Tu viens d'en parler un petit peu, mais comment est-ce que les algorithmes concrètement affectent la lutte contre le changement climatique ? Est-ce que c'est en partageant un maximum de fake news, par exemple ?

  • Speaker #1

    Il ne faut vraiment pas réduire ça au problème des fake news. C'est un aspect, en effet, il y a encore beaucoup de climato-dénialisme sur différents réseaux sociaux. Ça me permet de parler d'un autre aspect important de la désinformation, des stratégies de désinformation en ligne. C'est qu'une façon de désinformer, ce n'est pas de produire des fausses informations, mais d'amplifier massivement ceux qui produisent un discours qui va dans l'autre sens. Une des choses qu'on voit beaucoup, c'est des agences spécialisées dans la création, la crédibilisation et la mise en activité d'un grand nombre de faux comptes sur les réseaux sociaux qui vont se mettre typiquement à liker, à retweeter, à partager des contenus qui vont dans leur sens ou qui commencent à aller dans leur sens. avec notamment une intention non seulement d'amplifier ces contenus mais aussi de manipuler les créateurs de contenu donc ça on le voit vraiment, je pense que c'est un des aspects les plus importants en fait c'est la manipulation des créateurs de contenu pas forcément de la consommation, pas directement de la consommation mais plus des gens qui produisent l'information. Parce qu'on le sait très bien en tant que youtubeur, on est encore plus, si notre salaire dépend du nombre de vues que l'on fait, on est très sensible à ces chiffres. Du coup, si on voit que notre contenu fait plus de vues lorsqu'on parle d'un sujet, ça va nous pousser consciemment ou inconsciemment à parler davantage de ce sujet.

  • Speaker #0

    Derrière, est-ce qu'on peut dire qu'il y a des compagnies pétrolières qui font la stratégie du doute ou alors c'est juste que ça marche et donc Google le met en avant ?

  • Speaker #1

    C'est difficile de savoir exactement ce que fait l'industrie du doute aujourd'hui parce qu'ils ont aussi tout intérêt à ce qu'on ne le sache pas. Mais on sait ce qu'ils ont fait. Il y a beaucoup de choses qu'ils ont fait dans le passé qui sont très documentées. Je vous renvoie vers le livre du marchand de doute qui documente beaucoup de stratégies de ce style. Mais dans le cas de l'intelligence artificielle, qui est beaucoup plus mon domaine, on sait qu'il y a eu des interventions explicites des grandes entreprises de la tech pour modifier la manière dont les scientifiques s'expriment dans les publications scientifiques. Google a demandé explicitement à ses propres chercheurs d'adopter un ton positif sur la recherche en intelligence artificielle pour ne pas parler des risques, ainsi de suite. Moi, j'ai un article de recherche co-écrit avec un chercheur de Google. dont la publication a été retardée de plus d'un an et demi par le processus de revue en interne de Google qui ne voulait pas qu'on soumette un article qui soulignait les problèmes de sécurité qui sont très importants à mettre en avant de ces systèmes. Et donc, d'habitude, je dis plus qu'il faut regarder ce qui est fait dans le monde du climat pour deviner ce qui se fait dans le monde de la tech. J'ai envie de dire, il faut faire l'inverse. Sachant ce qui se fait dans le monde de la tech, il faut s'attendre à ce que toutes les industries, y compris pétrolières, utilisent des stratégies de la sorte.

  • Speaker #0

    Et or, dans la recherche sur les algorithmes, ce sont majoritairement financés justement par les big tech. Ce n'est pas comme si c'était du 50-50.

  • Speaker #1

    Ah oui, dans le monde de la big tech, c'est vraiment catastrophique. C'est-à-dire que, par exemple, si on prend le tabac également, le tabac... Dans les pires heures du lobby du tabac, il y avait 10% des chercheurs qui étaient financés par l'industrie du tabac et ils ont trouvé ça scandaleux. Aujourd'hui, dans le monde de Big Tech, en intelligence artificielle, en gros, l'écrasante majorité, si ce n'est la quasi-unanimité des chercheurs, ont des conflits d'intérêts avec Big Tech. Ça peut être des financements directs, ça peut être des financements indirects. En France, il y a des systèmes de thèse-chiffres qui font que beaucoup de chercheurs ont des doctorants qui sont payés par Big Tech. Et si on a un bon superviseur de thèse... et qu'on se préoccupe, ce n'est pas le cas de tous les super-gérards des thèses, mais si on se préoccupe vraiment du bien-être de son étudiant en thèse, forcément, le conflit d'intérêt va être énorme parce qu'on ne veut pas que mettre en danger son propre étudiant. Donc, c'est là où c'est assez vicieux.

  • Speaker #0

    On a parlé tout à l'heure des fake news. Dans votre livre, vous parlez aussi des mute news. Qu'est-ce que ça veut dire concrètement concernant, par exemple, le climat ?

  • Speaker #1

    Oui, donc ça c'est un des autres aspects. J'ai parlé de la mise en avant des contenus problématiques, mais une autre façon... Et ça, ça conduit aussi au fait que les contenus qui sont en concurrence auront moins de visibilité. Donc ça vient du fait que l'attention humaine est limitée et qu'il y a une guerre de l'attention. Et si on est militant écologiste, mais militant à peu près de n'importe quelle cause, on se rend compte qu'en fait, une grosse partie du militantisme, c'est capter de l'attention. Et donc, si on n'y arrive pas, c'est que notre cause est, en tout cas selon le militant, une newt news, en le sens où c'est une nouvelle qui ne reçoit pas assez d'attention et qui est rendue silencieuse, notamment par la compétition, la concurrence ou l'arbitrage qui peut être fait notamment par les algorithmes de recommandation. Donc ça, c'est un aspect assez important à comprendre. Aujourd'hui, une proportion, à mon sens, déraisonnable de l'attention sur les problèmes informationnels en ligne sont portés sur les fausses informations, les fake news, ce genre de choses. Mais si on considère qu'en fait le problème des mute news est plus important encore, par exemple l'inattention au climat, ou l'inattention aux algorithmes de recommandation, ou l'inattention à la cybersécurité, en fait notre combat n'est plus sur la vérité de l'information. Notre combat, c'est sur mettre en avant, prioriser des messages qui sont plus importants que d'autres messages potentiellement factuels, mais qui nous semblent d'importance moindre.

  • Speaker #0

    Typiquement, là, c'est la campagne des élections européennes et on parle très peu des algorithmes.

  • Speaker #1

    Oui, typiquement, sur les élections européennes, alors que c'est un enjeu énorme. Aux États-Unis, il y a un ultimatum qui a été passé à TikTok, donc la question monte un petit peu. Il y a eu des problèmes de cybersécurité énormes autour de Microsoft. qui ont mis en danger vraiment la sécurité nationale, puisqu'il y a des gouvernements... De France ? Non, je parle aux États-Unis. Mais en France, on utilise beaucoup Microsoft. Donc, on est aussi client beaucoup de Microsoft. Et malheureusement, le manque d'attention à cela est très grand. Et puis après, sur les algues de recondondation, malheureusement, je pense que là, on peut vraiment parler d'une mutinuse énorme.

  • Speaker #0

    Je pense qu'on l'a compris. Jusqu'à présent, on a parlé surtout des algorithmes de recommandation. Quand on parle d'IA, on parle plutôt des IA génératives comme ChatGPT, MidJournée. Pour toi, là aussi, on met beaucoup trop d'importance sur ces ChatGPT, MidJournée, que sur les algorithmes de recommandation.

  • Speaker #1

    Oui, donc pourquoi est-ce qu'on pense que c'est beaucoup plus dangereux les algorithmes de recommandation ? C'est parce qu'encore une fois, c'est ceux qui interagissent vraiment avec la plupart des humains. Parler à chat GPT sur un téléphone, ça reste plus compliqué que de swiper ou scroller sur une application TikTok. Après, je ne veux pas minimiser l'importance non plus de ces autres problèmes. Chat GPT est en train de créer toutes sortes de problèmes, notamment parce que c'est réutilisé massivement par le cybercrime, et notamment par la désinformation, le cyberharcèlement. ce genre de choses.

  • Speaker #0

    Pour créer des faux comptes.

  • Speaker #1

    Pour créer des faux comptes, automatiser la création de faux comptes, ainsi de suite. Et les algorithmes générateurs d'images sont encore plus préoccupants, à mon sens, en termes de risque systémique pour la société, à travers le problème des deepfakes pornographiques. Ça, c'est un problème qui monte déjà. Il y a déjà beaucoup de cas aux Etats-Unis. Mais il faut imaginer que si n'importe quel gamin a accès à la capacité, en quelques clics, à faire des defects pornographiques de ses camarades de classe, on risque d'observer beaucoup de traumatismes psychologiques. Il faut vraiment voir que ces armes sont des armes de destruction psychologique qui ont déjà été utilisées massivement contre des journalistes femmes. C'est aussi un moyen d'intimidation et de déstabilisation qui, à mon sens, est extrêmement préoccupant.

  • Speaker #0

    On va revenir sur les algorithmes de recommandation. Je ne connais pas les chiffres et puis je pense qu'il faut les prendre avec des pincettes, mais je crois qu'un adolescent aujourd'hui passe en moyenne deux heures sur TikTok par jour, seulement sur TikTok. Donc il faut rajouter les autres réseaux sociaux. Moi, j'ai supprimé mes applications où il y avait un algorithme de recommandation. Donc j'ai supprimé Twitter, Instagram, TikTok que je n'avais pas, YouTube à cause des shorts notamment. qui me prenait beaucoup trop de temps, mais parce que j'avais ce truc que dès que mon micro-ondes tournait, que je devais attendre 30 secondes pour chanter le téléphone, dès que j'attendais mon ascenseur qui arrive, je chantais mon téléphone, ça devenait un peu compulsif et donc je suis loin d'être le seul. Qu'est-ce qui se passe dans notre cerveau pour que les algorithmes de recommandation arrivent à nous happer aussi efficacement ?

  • Speaker #1

    Ça, c'est vraiment une question pour un psychologue, idéalement. C'est des questions qui sont vraiment...

  • Speaker #0

    Mais dans le livre, vous parlez de système 1, système

  • Speaker #1

    2. Oui. Mais en tout cas, ce que disent les psychologues, c'est vraiment qu'un des aspects de ces algorithmes, c'est vraiment qu'ils sont optimisés pour capter l'attention. Et ce qu'on sait également, c'est que Google a embauché beaucoup de psychologues pour pouvoir... être aussi bon que possible à cette tâche. C'était pas mal révélé par un ancien de Google, Tristan Harris. Notamment, ils avaient beaucoup d'inspiration des jeux de casino, des machines à sous. Les machines à sous, ça paraît vraiment... pas être le truc super sophistiqué a priori, mais il y a quelques principes de base qui font que ça suffit à être à rendre accro un grand nombre d'utilisateurs et qui sont prêts même à mettre leur vie en tout cas au moins leur finance en danger à cause de ces mécanismes psychologiques Et donc, il y a une grande préoccupation de beaucoup de psychologues sur le fait que ces systèmes sont en train d'amplifier massivement, voire de créer d'une certaine manière, une grosse partie de la crise mentale qui est vraiment montante aujourd'hui, surtout chez les jeunes générations.

  • Speaker #0

    Et dans le livre, par exemple, vous dites que quand... On télécharge une app et qu'on se crée un compte. On doit suivre, par exemple, des 2-3 comptes, histoire que l'app comprenne, sans rien savoir de nous, quelles sont les grandes directions vers lesquelles elles doivent nous amener. Par exemple, sur TikTok, il faut suivre 2-3 comptes au début, je crois, sur Twitter. Donc, on peut choisir des tweets qui parlent de science, d'histoire, de... Et en fait, c'est plutôt notre... côté raisonné dans le livre, vous avez appelé ça le système 2 celui qui prend un peu de temps avant de s'exprimer et en fait très vite on remarque avec l'onglet For You notamment, enfin pour toi notamment de, je crois qu'il a été inventé par TikTok et qui a été repris depuis par Twitter et aussi les shorts aussi, en fait ne prennent pas du tout en compte ce qu'on leur a dit mais plutôt nous proposent des vidéos qui vont plaire à un autre côté de notre cerveau qui est lui beaucoup plus instinctif.

  • Speaker #1

    Oui, tout à fait. Encore une fois, le système 1 est beaucoup plus réactif. Système 1, système 2, c'est une terminologie qui vient de Daniel Kahneman, qui est malheureusement décédé récemment. C'est vraiment cette idée qu'il y a une partie de notre cerveau qui réagit beaucoup plus de façon peu réfléchie, instantanée sur le moment. On le voit vraiment sur le téléphone quand on est fatigué et tout ça. On a tendance à avoir une utilisation des réseaux sociaux qui est... pas vraiment ultra raisonnée et dans le livre on le distingue pas mal de ça, de ce qu'on appelle parfois l'abolition c'est ce qu'on voudrait vouloir, donc l'exemple que je prends tout le temps c'est pour moi les vidéos de football c'est vraiment ça donc une vidéo de football c'est une vidéo que je veux voir et je clique souvent dessus et malheureusement j'ai des marées de passer après des heures dessus et être fatigué et à pas dormir euh Et à l'inverse, je voudrais vouloir ne pas avoir cette envie. Je voudrais ne pas vouloir cliquer sur cette vidéo. C'est un peu une réflexion du second ordre. Et donc, d'une certaine manière, les réseaux sociaux aujourd'hui sont, si j'oublie le problème des faux comptes et du potentiel biais introduit par les développeurs à l'intérieur de ces algorithmes, j'oublie pas mal de choses, mais si j'oublie ça, les algorithmes sont en un sens assez démocratiques déjà. dans le sens où ils font voter de certaine manière la population ils font sortir ce qui est populaire mais un des problèmes c'est que c'est un vote vraiment des systèmes 1 c'est un vote des réflexions des préférences instinctives Et ce qu'on voudrait peut-être plus pour nos démocraties, pour bien gouverner nos sociétés, en tout cas la priorisation d'informations dans nos sociétés, c'est peut-être beaucoup plus un vote des parties réflexives, d'évolution réfléchie. Et donc, il faut mettre en place beaucoup de choses pour en arriver là. Mais malheureusement, aujourd'hui, avec les modèles économiques les plus lucratifs aujourd'hui et l'absence de régulation, ça fait que les systèmes qui vont miser beaucoup plus sur la partie préférence instinctive sont beaucoup plus... plus utilisés.

  • Speaker #0

    Parce que le problème c'est que tous ces apps sont en compétition les unes les autres donc il y a un peu un dilemme du prisonnier, si Youtube se met à promouvoir du contenu beaucoup plus pédagogique du coup que ça marche un peu moins bien au niveau des chiffres, les gens vont se tourner sur TikTok et au final Youtube aura tout perdu et ça aura servi pas grand chose.

  • Speaker #1

    Il y a un problème vraiment similaire au climat en termes de coordination et... Et en particulier, le problème dans les deux cas réside beaucoup dans ce que les économistes appellent les externalités négatives. Donc les externalités négatives, c'est quoi ? C'est quand il y a un échange de biens entre un producteur et un consommateur, mais qu'il y a une pollution qui va affecter le reste de la population ou une autre sous-partie de la population. Et donc ça, on le voit beaucoup sur les réseaux sociaux. C'est-à-dire que peut-être qu'à la limite, certains sont prêts à utiliser... Peut-être vouloir vraiment utiliser les réseaux sociaux en tant que distraction. Mais ce qui est dérangeant, c'est plus quand Facebook recommande des appels à la haine ou au meurtre ou de la désinformation sur des sujets importants comme le climat, à d'autres personnes massivement. À ce moment-là, le producteur ou même le diffuseur sont contents, ils ont produit le contenu, ils ont été rémunérés. Le consommateur est content, il a consommé un truc qui lui a fait plaisir. Mais par contre, le reste de la société va subir les conséquences parce que ça va appeler à la haine. Potentiellement, le reste de la société... On prend en introduction le cas des Rohingyas au Myanmar où les Rohingyas ont subi un génocide, notamment parce que, d'après un site international, Facebook avait contribué à amplifier massivement auprès des Birmans des appels au meurtre envers les Rohingyas.

  • Speaker #0

    Sans le vouloir, mais parce que ça faisait du chiffre.

  • Speaker #1

    C'est ça. Là où l'accusation est forte, c'est que Facebook a été mis au courant de manière répétée depuis 2012 de ce problème. Et Facebook n'a pas... pris les mesures, pas du tout pris des mesures satisfaisantes pour pouvoir contrer ce problème.

  • Speaker #0

    Donc, en fait, un peu en toute impunité, et c'est ce qui fait aussi que ce problème des big tech est un peu une mute news, parce que si ça arrivait, je ne sais pas, sur un médicament ou sur une marque d'avion, au hasard, Boeing, qui se crache tous les 4 matins, on en parlerait tout le temps. Alors que là...

  • Speaker #1

    Là, on parle d'un génocide, donc c'est grave. Mais c'est un génocide lointain, donc peut-être que malheureusement, beaucoup de gens ne sont pas ultra sensibilisés à cela, ou s'en manquent un petit peu. Mais dans le cas de la France, ou en tout cas de nos démocraties, on voit un affaiblissement des démocraties généralisées. Et là où c'est vraiment préoccupant, et là ça va me permettre vraiment de répondre à la question pourquoi est-ce que les algorithmes de recommandation me préoccupent beaucoup plus que le climat, c'est qu'en termes d'échelle de temps, on voit que depuis 2012, il y a eu un déclin des démocraties, au lendemain des printemps arabes, et que ce déclin s'accélère. Et que vraiment, on parle de montée de populisme, de montée de régime autoritaire, déclin des institutions, de la confiance dans les institutions. Et on voit vraiment concrètement avec des exemples spectaculaires. aux États-Unis, au Brésil, en Argentine, en Italie, en Hongrie. Malheureusement, la liste des exemples, ce n'est pas du tout ce qui manque. Et donc, le déclin des démocraties, pour moi, c'est vraiment une préoccupation énorme qu'il faut avoir. C'est pour ça que je pense que c'est un problème plus important aujourd'hui que le changement climatique. On parle vraiment des prochaines européennes, des prochaines élections à travers le monde, des prochaines élections aux États-Unis qui peuvent complètement changer le paysage géopolitique. Et à cela, en plus, se rajoute de la haine inter-pays. C'est un peu intra-pays, mais inter-pays. On a de plus en plus de guerres à travers le monde, mais également des tensions exacerbées. avec des risques de conflits, d'escalade. Sachant tout ça, je considère que les algorithmes de recommandation sont beaucoup plus préoccupants aujourd'hui que le climat.

  • Speaker #0

    Comment on attribue ça ? Ce n'est pas la seule cause. Trump, c'était déjà un farfelu avant qu'il y ait les algorithmes de recommandation. Mais comment on attribue ça aux algorithmes ? Est-ce que c'est parce que les algorithmes... ont compris, consciemment ou pas, qu'une des émotions qui crée le plus de user engagement, comme tu disais au début, c'était les émotions négatives et notamment la colère.

  • Speaker #1

    Oui, donc ces systèmes, il ne faut vraiment pas les sous-estimer. Les systèmes d'intelligence artificielle sont extrêmement sophistiqués. Ce sont les intelligences artificielles, dans le sens les plus sophistiquées, beaucoup plus sophistiquées encore que chez la GPT, notamment parce qu'elles font du profilage psychologique de 2 milliards d'humains. Elles ont appris à voir ce qui fait réagir. Elles ont fait énormément de, ce qu'on appelle en jargon, du A-B testing. Elles ont testé beaucoup. Elles ont testé, qu'est-ce qui se passe quand je recommande ça, quand je recommande ci. Et petit à petit, elles ont appris ce qu'on appelle des features, des caractéristiques des contenus qui font que telle ou telle caractéristique d'utilisateur se met à interagir ou pas avec ces contenus. Et en fait, il n'y a pas besoin que ces caractéristiques soient... explicité par l'humain pour que l'algorithme néanmoins arrive à les identifier et il n'y a même pas besoin qu'elles correspondent à des choses que nous humains, sur lesquelles on met des mots. Et donc bien souvent c'est avec des choses assez abstraites, difficiles à interpréter mais après nous, en voyant le comportement de ces algorithmes, on voit que en effet Quand c'est des contenus de haine, elles ont tendance à davantage les mettre en avant, à davantage leur donner de visibilité. C'est une mécanique qui n'est pas forcément complètement construite pas à pas. C'est vraiment beaucoup plus à la place d'apprentissage, d'essais et d'erreurs. Et à partir de ça, les algorithmes arrivent à faire une représentation mentale de ce qui fait réagir les différents utilisateurs.

  • Speaker #0

    Parce qu'au premier jour des réseaux sociaux, on se souvient, il y a quelques années, on nous disait que les réseaux sociaux nous plongeaient dans des bulles de filtres. Donc en gros, on ne voyait que du contenu qui nous plaisait. Mais on pouvait un petit peu se... On était coupé des autres opinions et en fait, maintenant, aujourd'hui, on se rend compte que ce n'est pas du tout vrai. On est mis face à des opinions contraires et souvent, c'est ce que vous dites dans le livre, je trouve ça super intéressant, c'est face à des caricatures, des arguments adverses et ce qui polarise la société énormément.

  • Speaker #1

    Oui, c'est ça. C'est exactement ce que tu as dit. Historiquement, on a vraiment pensé qu'il y avait ces problèmes de bulles, de filtres. Mais en fait, ce qu'on se rend compte, c'est que sur Internet, on est beaucoup plus souvent exposé à des avis contraires que dans la vraie vie. Et du coup, ça pose la question, est-ce que vraiment l'Internet polarise ? En fait, il y a plusieurs études, comme on le cite dans le livre, qui montrent qu'en fait, être exposé aux pires avis, en particulier du coin adverse, Ce n'est pas ça qui va réduire la polarisation. En fait, ça peut même l'exacerber. En particulier, ça va augmenter pas mal ce que différents chercheurs appellent la polarisation affective. C'est-à-dire que même des gens qui sont très proches de nous, avec qui on partage 99% des idées, des gens qui sont en même parti politique que nous, on peut finir par vraiment les détester, avoir un sentiment de haine vers eux. Et un autre aspect, c'est que la colère est une émotion contagieuse. Beaucoup de choses sont contagieuses en termes cognitifs, et notamment, si on est entouré de gens en colère, ça va nous pousser à être plus souvent en colère. Du coup, juste le fait de normaliser la colère...

  • Speaker #0

    le fait qu'à chaque fois qu'on va sur un réseau social, sur Twitter en particulier, on est régulièrement exposé à de la colère, ça peut monter le niveau de colère global dans la société, y compris pour pas grand-chose, j'ai envie de dire.

  • Speaker #1

    Oui. On le retrouve tellement dans la bulle ou dans la sphère climat, en fait, où, comme tu dis, on est d'accord avec 99%, mais on s'étripe sur les 1%, et honnêtement, il y en a qui font... leur beurre dessus. Il y a beaucoup de comptes qui font des 10 000, 20 000, 30 000 abonnés parce qu'ils ont compris que taper sur un tel ou un tel, c'était fructueux. Il y a une phrase d'Albert Camus que j'aime bien, je trouve qu'il s'applique bien à la situation, c'est qu'il dit la démesure est un confort toujours et une carrière parfois. Et je trouve qu'avec les réseaux sociaux, en fait, on est en plein dans, et là, c'est juste leur carrière. C'est marrant parce que tu nommes la Chine comme un ennemi, Alors qu'aujourd'hui quand on écoute les politiques, ils ne sont pas du tout sur cette ligne-là. Pour eux l'ennemi c'est la Russie, c'est l'Iran, mais la Chine n'est pas du tout représentée comme un ennemi, peut-être parce que les guerres sont plus indirectes, ne sont pas avec des bombes, mais avec comme tu disais des algorithmes qui façonnent un peu les cultures. Et c'est un autre problème finalement des algorithmes de recommandation, on a dit que ça polarisait, on a dit que ça ne mettait pas forcément le contenu le plus... instructif en avant, mais il y a aussi ce problème de guerre, ce que vous appelez des guerres cognitives. Est-ce que tu peux nous donner des exemples récents de guerres cognitives en France ou aux Etats-Unis ?

  • Speaker #0

    Par exemple, un des cas récents d'attaque informationnelle de la Russie, c'est qu'on suspecte pas mal la Russie d'avoir amplifié massivement la polarisation émotionnelle, en particulier au moment de la révolte des agriculteurs. On les suspecte aussi d'avoir été pas mal derrière, encore une fois, pas mal amplifié, le message sur les punaises de lit. On sait beaucoup plus, assez clairement, notamment via la chaîne Oshua Today, que sur le sujet de la vaccination, ils ont beaucoup cherché à diviser et à amplifier les contenus antivaccinaux, qui étaient critiques de la position notamment des institutions publiques pour pouvoir décrédibiliser les institutions publiques. Tout ça, c'est des attaques informationnelles très très très forte de la Russie. Aux États-Unis, on sait qu'il y a beaucoup eu d'interventionnismes sur d'ingérences lors de chacune des élections. Pour donner quelques chiffres, il y avait une étude qui avait été relé notamment par le MIT Technology Review qui montrait que sur les 20 comptes catholiques américains les plus suivis sur Facebook, 19 étaient sous le contrôle d'une IP russe. D'accord. Et un autre chiffre encore, chaque année, Facebook retire autour de 7 milliards de faux comptes. Ça montre vraiment l'ampleur de toutes ces campagnes d'influence. La France, l'Institut de recherche stratégique de l'école militaire, a publié aussi un rapport sur les campagnes d'influence chinoises. et qui montraient vraiment une ampleur énorme. Ils estimaient à 2 millions le nombre de Chinois payés pour produire de la désinformation.

  • Speaker #1

    Sur TikTok, notamment, vous, vous appelez ça carrément une arme de destruction massive.

  • Speaker #0

    Oui. Donc, il faut vraiment voir qu'aujourd'hui, la stabilité des démocraties, la confiance en nos institutions, l'absence de corruption, la capacité de dénoncer, de mettre en avant ces corruptions et de lutter contre, c'est vraiment ce qui protège nos sociétés. C'est ce qui fait que... La démocratie, c'est quelque chose de précieux et de rare dans l'histoire de l'humanité, y compris dans l'histoire de la France. Et donc, avoir un outil qui est capable de... mettre à mal ça, de vraiment détruire cela, ça me semble être extrêmement préoccupant.

  • Speaker #1

    Dans le bouquin, vous dites, pour juger la valeur de la démocratie, il faut se rappeler ce qui s'est passé entre 1789, la révolution, et je ne sais plus jusqu'à où on est allé, mais plus de 100 ans. Oui,

  • Speaker #0

    c'est ça, c'est la question. Quand est-ce que la démocratie est devenue stable en France ? Il y a eu la révolution française en 1789, qu'on célèbre beaucoup, à raison. Mais il a fallu attendre 1870, pour pouvoir avoir une démocratie stable, la Troisième République. Et entre-temps, en fait, il ne s'est pas rien passé. Ce n'est pas juste qu'on a eu un coup de bol, c'est qu'il y a eu beaucoup de compréhension de l'importance de toutes sortes d'infrastructures démocratiques, institutionnelles. Donc, je pense en particulier à l'éducation nationale, à l'indépendance de la justice, à la liberté de la presse. qui sont vraiment des composants indispensables pour avoir une démocratie stable. Malheureusement, le web a beaucoup balayé ça d'un revers de la main, en tout cas sur Internet, et les a affaiblis également en dehors, hors ligne. Ce qui fait qu'il y a beaucoup de travail qui me semble indispensable de reconstruire vraiment ces institutions à l'ère du numérique, de les mettre en ligne, de les renforcer, d'ajouter beaucoup plus de transparence et de reddition des comptes. pour que non seulement ces institutions existent, non seulement soient fiables, mais également soient de confiance et qu'on construise une conscience justifiée par le peuple pour ce genre d'institution.

  • Speaker #1

    Tu as parlé des bauches, de lois, mais aujourd'hui, on est naïf encore en France. Je pense que ça se joue plutôt à l'échelle européenne, c'est ça ?

  • Speaker #0

    Oui, ça se joue beaucoup plus à l'échelle européenne. Donc, il y a différentes régulations. Il y a eu un travail formidable qui a été fait par beaucoup de juristes. Ça a beaucoup avancé. C'est un travail très difficile. Mais il y a beaucoup de choses qui ont avancé, notamment le RGPD, le Règlement pour la protection des données personnelles. Il y a eu ensuite le DSA, le Digital Services Act, le Digital Markets Act, maintenant le AI Act à venir, le Cyber Resilience Act peut-être à venir également. Donc il y a différentes régulations qui ont été mises en place. Pour augmenter la transparence, augmenter la capacité de, par exemple, les lois extraterritoriales sur le stockage des données européennes, le genre de choses qui ont été mises en place. Et il y a eu des amendes qui sont tombées, il y a eu de 1,2 milliard, si je me souviens bien, d'euros d'amende pour Meta, pour avoir stocké des données de citoyens européens sur le territoire américain. Il y a un mec, un peu un super héros dans ce domaine, Max Schrems, qui a beaucoup oeuvré pour faire appliquer ces lois. Et puis il y a aussi beaucoup de lois préexistantes. C'est-à-dire qu'en France, il y a des lois sur l'interdiction de l'appel à la haine, incitation à la haine raciale. Il y a des lois sur les propriétés intellectuelles. Et c'est des lois qui parfois ont été utilisées pour des procès. notamment aux Etats-Unis. En Europe, on a beaucoup plus la tendance à vouloir d'abord bien poser les cadres et ensuite les faire appliquer. Aux Etats-Unis, il y a un peu plus un côté les procès, c'est un peu plus à base de procès, ça pose aussi des problèmes parce qu'il faut être riche pour lancer un procès, mais lancer un procès, c'est beaucoup plus classique et il y a des procès en cours contre Open AI, notamment le New York Times a dit que c'est un peu plus à excuser OpenAI, en particulier chez la GPT, de vol de propriété intellectuelle. Le GPT est capable de donner quasiment verbatim les contenus d'articles du New York Times qui sont sous paywall, donc ça pose forcément des problèmes. Ça veut dire que le paysage juridique est loin d'être vierge. Il y a beaucoup de choses qui peuvent être utilisées. Le plus gros défi, à mon sens, au niveau législatif... Il y a besoin de nouvelles lois, de meilleures lois, ce genre de choses. Il y a aussi des gros problèmes de corruption, j'en ai pas parlé, mais ça mériterait aussi beaucoup de choses. Il y a au moins de lobbying. Le lobbying de Big Tech est énorme à l'échelle européenne et pas que Big Tech. La France aussi a été un moteur énorme pour affaiblir les réglementations à l'échelle européenne. Pourquoi ? Pourquoi ? Parce que d'un côté... D'un côté, on a un président qui est très libéral. D'un autre côté, on a quelques start-up françaises ou pseudo-françaises, on va dire, comme Mistraléa, qui ont été défendues.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et puis, d'un autre côté, il y a aussi tout le côté surveillance pour les Jeux Olympiques. Donc, il y a des problèmes de sécurité nationale qui sont... considérée importante par les dirigeants français qui ont fait que beaucoup de réglementations sur les conditions de surveillance, de cybersurveillance ont été combattues par la France.

  • Speaker #1

    D'accord, il y a eu des intérêts communs entre les big tech et le gouvernement français sur la protection des données. Oui. Ok.

  • Speaker #0

    Mais au-delà de tout ça, ça fait déjà pas mal de problèmes, mais un autre problème, c'est surtout, pour moi, la mise en vigueur, l'application, le enforcement, on dirait en anglais.

  • Speaker #1

    Oui, l'application.

  • Speaker #0

    Le fait que les lois soient vraiment appliquées. Et par exemple, pour moi, un cas concret, chaque GPT viole le plan de loi existante. C'est sûr. C'est tellement sûr que même le PDG d'OpenAid l'a reconnu. Il a dit que ce serait impossible de faire ce qu'on fait sans utiliser des droits qui ne sont pas libres de droits. Des données qui ne sont pas libres de droits. Et donc, la question se pose. Aujourd'hui, dans le numérique, si vous êtes une startup, si vous lancez un produit, il y a vraiment la question est-ce qu'on viole la loi ? Tout le monde le fait. est-ce qu'on reste derrière ou est-ce qu'on n'achète pas aussi des produits qui clairement violent la loi ? La question se pose. Open AI est acheté par beaucoup d'entreprises françaises. Si on a un temps soit peu réaliste par rapport à ça, on sait que ça viole des lois, est-ce qu'on achète des produits dont on sait qu'ils sont illégaux, même si ils n'ont pas été jugés illégaux ?

  • Speaker #1

    Par exemple, dans le livre, vous dites que Open AI a fait du lobbying auprès des députés européens, ça c'est acté quoi.

  • Speaker #0

    Ça c'est acté, ça a été, il y a un article du Time là-dessus, mais ouais...

  • Speaker #1

    Pour édulcorer une loi.

  • Speaker #0

    Pour édulcorer une loi, en fait le plus gros lobbyiste, OpenAI a clairement agi, mais le plus gros lobbyiste, c'est pas OpenAI, c'est beaucoup plus Mistral AI, l'entreprise, alors j'ai dit pseudo-française, parce qu'elle a des investissements américains. Californien depuis le début et que en plus récemment elle a fait un partenariat avec Microsoft. Donc ça pose la question de est-ce que c'est vraiment français.

  • Speaker #1

    Ok. Il y a des pays comme l'Inde par exemple qui ont carrément interdit TikTok. TikTok lui-même je crois qu'il est limité à 40 minutes par jour pour les moins de 14 ans et il est aussi interdit entre 22h et 6h du matin alors en France ça ne serait pas forcément applicable mais là-bas c'est possible en France donc je disais tout à l'heure les ados passent en moyenne 2h par jour, est-ce que c'est des choses qui sont envisageables, les Etats-Unis envisagent par exemple de l'interdire ?

  • Speaker #0

    Oui, j'irais même plus loin juste sur la distinction entre la Chine en Chine en fait ils ont leur propre application TikTok n'est pas utilisé en Chine ils ont une autre application qui s'appelle Douyin et Douyin fait des recommandations très différentes de TikTok ça pose la question, on est en train d'utiliser un produit que le producteur ne veut pas utiliser c'est des recommandations qui sont plus,

  • Speaker #1

    je crois, pédagogiques c'est ça,

  • Speaker #0

    des recommandations plus pédagogiques en fait,

  • Speaker #1

    ils abrutissent tout le monde mais eux, ils ne veulent pas s'empoisonner avec c'est ça,

  • Speaker #0

    c'est un peu ça ça rappelle un peu l'industrie de la drogue...

  • Speaker #1

    Les guerres de l'opium.

  • Speaker #0

    Les guerres de l'opium. Typiquement, un dealer de drogue, peut-être, ne consomme pas autant que les personnes à qui il vend. Et donc, la réponse à ça, ça a été la réglementation. Les drogues sont très régulées. Beaucoup de drogues, en tout cas, sont très régulées dans beaucoup de pays. Et donc, oui, je pense... Après, si en plus on adopte des... si on considère qu'il y a vraiment une guerre cognitive qui a lieu, une guerre d'influence au moins enfin une guerre d'influence je pense que tout le monde s'y accorde et qu'en plus il y a même une guerre de déstabilisation des pays lutte d'influence à l'échelle du pouvoir politique, des partis ainsi que des gouvernements. Je pense qu'il faut être vraiment terrifié par TikTok.

  • Speaker #1

    Comment le Parti communiste chinois utilise TikTok comme une arme ? Par exemple, en Inde, ils l'ont interdit. Il devait y avoir une bonne raison, j'imagine.

  • Speaker #0

    Oui, l'Inde se méfie beaucoup de la Chine. Il y a encore des territoires disputés.

  • Speaker #1

    Mais c'est à cause de ça ? Oui,

  • Speaker #0

    je pense que c'est pas mal lié à ça. Et à l'inverse, la Chine a interdit récemment WhatsApp et Thread.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et ils ont aussi enlevé, enfin, ils n'ont pas communiqué là-dessus, mais il y a eu des applications, je crois que c'est Signal et Telegram, qui ont été enlevées de l'App Store en Chine. Donc, la Chine est vraiment en mode cyberguerre, en mode guerre informationnelle. L'été dernier, Microsoft a attribué à la Chine un hack de leur système massif. En France aussi, il y a cet état d'esprit. Le général Burckhardt, chef d'état-major des armées, disait en 2021, je crois, qu'il faut gagner la guerre avant la guerre. et se préparer au pire. Mais vraiment, gagner la guerre avant la guerre, c'est faire en sorte qu'en termes de lutte informationnelle, on soit solide, on fasse peur, et on ne donne pas envie à quiconque de nous attaquer. Et voir, on montre aux autres qu'on est capable de les déstabiliser. Aujourd'hui, la Russie et la Chine ont des moyens de pression sur les... Ils peuvent déstabiliser vraiment beaucoup de démocraties. Et ça les met en position de force, même pour négocier autre chose, des choses économiques ou autres. Donc si on se place dans un esprit de guerre informationnelle, TikTok est une arme surpuissante. Quand on voit ce qui se passe à Taïwan...

  • Speaker #1

    Ouais, on peut parler de Taïwan. Vous en parlez beaucoup dans le bouquin. Et puis, c'est un point chaud, évidemment, du monde aujourd'hui. Et je pense qu'il résume bien un petit peu ce qui se passe dans le monde entier.

  • Speaker #0

    Oui, Taïwan, c'est... Alors, nous, on prend vraiment ça comme un exemple, parce qu'au cours des dix dernières années, comme je l'ai dit, il y a beaucoup de déclin démocratique. Il y a beaucoup de choses qui sont déprimantes quand on regarde le paysage numérique et démocratique à travers le monde au cours des dix dernières années. Mais il y a Taïwan. Et Taïwan... Donne beaucoup d'espoir, et en particulier beaucoup d'inspiration, parce que ce qu'a fait Taïwan, c'est qu'il y a eu un mouvement étudiant en 2014, qu'on appelle le mouvement des tournesols, et le mouvement des tournesols a beaucoup été porté par des jeunes qui demandaient plus de démocratie, mais également beaucoup par des geeks, des informaticiens, des gens qui sont très à l'aise avec le numérique. Un des aspects au cœur de la stratégie du mouvement des tournesols, c'était d'utiliser le numérique comme une force pour la démocratie, comme une arme démocratique. Et donc ça, ça transparaît dans différentes manières. Par exemple, un des aspects, c'est beaucoup plus de transparence sur les choses qui sont censées être transparentes. Donc le gouvernement français est au service des Français. Il est censé travailler pour les Français. Donc beaucoup de choses que fait le gouvernement français, même par la loi, sont censées être accessibles à n'importe quel Français. Mais aujourd'hui, il y a certains documents qui sont horriblement difficiles à obtenir parce qu'il n'y a pas un système d'information qui a été mis en place pour rendre ces informations très accessibles aux citoyens français. Ça, c'est quelque chose contre lequel Taouan a beaucoup lutté. Par exemple, l'allocation des budgets du gouvernement. ce genre de choses est facilement visualisable sur des sites taïwanais du gouvernement.

  • Speaker #1

    Peut-être je peux abonder par expérience. Par exemple, pour savoir ce qu'a voté un certain nombre de députés, un groupe de députés, loi par loi, etc. C'est possible, techniquement on peut le faire, mais pour récupérer ces données de manière plus industrielle, pour en faire quelque chose, c'est beaucoup plus compliqué et on peut penser que c'est fait à dessein. par le gouvernement pour compliquer les choses.

  • Speaker #0

    Un autre exemple qui a été frappant, c'est le cas de APB, ex-Parcoursup. C'était un algorithme, il y avait un algorithme, en tout cas, dans APB, et l'algorithme n'était pas transparent, n'était pas open, on ne pouvait pas y accéder. Et donc, il y a eu une association de lycéens qui ont demandé à La publication de ce code, qui est vraiment un truc public, qui devrait vraiment être fait en open source, sous licence libre.

  • Speaker #1

    Et qui détermine l'avenir de millions de lycéens.

  • Speaker #0

    Qui détermine l'avenir tellement de jeunes. Et le gouvernement avait envoyé le code de cet algorithme par courrier, par courrier physique. complètement inexploitable, vraiment compliqué. Il y a vraiment un progrès énorme à utiliser beaucoup plus le numérique comme une force pour augmenter la transparence dans ce genre d'initiatives. Un des autres aspects qu'a fait Taïwan, c'est aussi qu'ils ont compris très vite qu'ils étaient en guerre cognitive avec la Chine et qu'ils étaient bombardés par de la désinformation. de Chine. Un des aspects qu'ils ont fait, c'est mettre en place des plateformes de pré-banking, des solutions de pré-banking, de lutte contre la désinformation avant même qu'elle soit consommée autant que possible. Un des aspects intéressants, c'est qu'ils ont intégré une application qui s'appelle Polis, pol.is, qui est une plateforme de délibération qui a été introduite en 2012 pour d'autres raisons. Mais qui a permis, en fait, c'est une plateforme où vous pouvez délibérer, donc avoir un groupe qui va mettre des propositions.

  • Speaker #1

    Une agora citoyenne en ligne.

  • Speaker #0

    C'est ça. Et par contre, il y a des règles un peu spéciales. Je reviens sur le fait qu'algorithme, ça veut dire règle, donc ça régit la manière dont on interagit. Et donc, on peut vraiment réfléchir à des algorithmes démocratiques ou plus démocratiques. Là, en l'occurrence, Polis, ce qu'il faisait, c'est que il... ils ne permettaient pas les réponses. Ça peut être un peu bizarre, mais chacun fait des propositions, et tout ce que les autres peuvent faire, c'est mettre un pouce vers le haut ou un pouce vers le bas. Et donc ça, ça permet de récolter les avis des différentes personnes sur différentes propositions. Et ça permet de construire ensuite une carte de l'ensemble des avis sur différentes propositions. Ça, c'est intéressant pour voir les désaccords, mais c'est intéressant surtout pour voir les consensus, voir les choses sur lesquelles les interventions, qui peuvent être assez radicales, mais sur lesquelles on est tous d'accord. Donc ça a été pas mal utilisé à Taouane, et de façon intéressante, ça a été utilisé aussi récemment en France. Donc il y a eu une expérience qui a été mise en place. Au lendemain, suite aux violences policières, aux conflits violences policières, violences des grands lieux, il y avait des questions de qu'est-ce qu'on fait par rapport à la police, quelles sont les interventions qu'on doit faire par rapport à la police, sujet ô combien controversé qu'ils vont aller.

  • Speaker #1

    Oui, voilà. Donc sur Twitter, par exemple, c'est des embrouilles.

  • Speaker #0

    Sur Twitter, on dit un demi-mot et paf, tout de suite, ça part en flamme. Et néanmoins, ce qui était intéressant avec Police, c'est qu'on a permis de se rendre compte qu'il y avait des consensus. Même sur ce sujet au combien controversé, il y avait en fait des consensus à travers la population et notamment tous voulaient beaucoup plus investir dans la formation des policiers et dans la police de proximité. Et donc, c'est quand même remarquable qu'on peut se mettre tous derrière ces consensus et lutter pour la mise en place de ces consensus et pour le suivi de ces consensus. Et ça fait une action qui non seulement est active, qui va permettre vraiment de faire progresser le sujet, mais qui est aussi unificatrice. On a vu qu'une des grosses stratégies de désinformation des pays étrangers, c'est de pliver, de diviser la population. Donc là, ça permet de beaucoup plus unifier, d'apaiser, et de travailler ensemble pour vraiment améliorer les choses, même si on sait qu'il y a des sujets sur lesquels on n'est pas d'accord.

  • Speaker #1

    Donc là, c'est carrément un négatif de ce qui se passe aujourd'hui sur Twitter. Qu'est-ce qu'on peut faire d'autre ? pour mettre en place ce que vous appelez vous cette gouvernance algorithmique enfin démocratique qu'est-ce que vous proposez en gros ce serait que tous ces algorithmes qui appartiennent à des entreprises privées soient des algorithmes publics à l'échelle mondiale débattus comment ça marche ?

  • Speaker #0

    Il y a pas mal de choses à faire énormément de choses à faire qui peuvent être faites de façon euh... Je veux dire concurrentes au sens... En parallèle, pas forcément en concurrence, en compétition. Et donc un des... Alors, peut-être une chose à dire, c'est que c'est un peu illusoire d'espérer résoudre le problème du jour au lendemain. Donc, il ne faut pas avoir un truc tout fait. Enfin, il ne faut pas espérer avoir un truc tout fait. On va déployer ça demain et tout va être résolu. Donc, il faut vraiment avancer pas à pas, faire des concessions sur le chemin, en espérant atteindre un état qui soit vraiment satisfaisant, in fine.

  • Speaker #1

    Un autre point commun avec le climat, d'ailleurs.

  • Speaker #0

    Un autre point tout à fait avec le climat. Par exemple, une des propositions qu'on fait, c'est beaucoup plus respecter un principe démocratique qui est une personne, une voix. Aujourd'hui, typiquement, ça voudrait dire quoi ? C'est-à-dire que le pouvoir d'influence qu'on a sur l'algorithme soit beaucoup plus une personne, une voix, et en particulier des personnes qui ne sont pas résidents français, on va dire. Les termes peuvent être débattus, ou citoyens français, ou résidents européens. Les termes peuvent être débattus, mais ça serait bien que quelqu'un qui, au moins, ne soit pas humain, n'ait pas un pouvoir disproportionné sur le comportement de ses algorithmes. Aujourd'hui, c'est le cas. On a vu avec Shadjepet et compagnie, il y a des compagnes de désinformation qui ont des armées de faux comptes qui sont capables de manipuler beaucoup plus les algorithmes de recommandation que le citoyen français. Et donc, réarmer beaucoup plus les citoyens français dans le contrôle de ces algorithmes, donc ça c'est une chose.

  • Speaker #1

    En gros dans la vraie vie la démocratie sur ce point de vue là est respectée il n'y a pas de bourrage d'urne en France par des ingérences étrangères mais par contre en ligne il y a un peu ça qui se passe

  • Speaker #0

    Exactement, c'est vraiment cette analogie et donc on peut se demander comment est-ce qu'en ligne on peut faire pour que chacun ait une voix, enfin chaque citoyen en français on va dire, ait une voix et donc il y a des idées, il y a des initiatives comme France Connect qui permettent d'identifier les personnes en ligne Un des problèmes de France Connect, tel qu'il est aujourd'hui, c'est qu'il identifie pleinement la personne en ligne. Donc si on se connectait avec notre compte Google et qu'on certifiait via France Connect qu'on est un citoyen français, Google saura exactement lequel de ces citoyens on est et le gouvernement français saura exactement quel compte Google on a. Et donc il est capable de suivre, de retracer ce que chacun dit et potentiellement, si on n'a pas confiance dans le gouvernement, on pourrait avoir des problèmes. Donc ça c'est une solution qui n'est pas idéale, mais par contre un truc qui pourrait être fait c'est de combiner ça avec des techniques de cryptographie moderne, ce qu'on appelle le zero knowledge proof, la preuve à divulgation nulle de connaissances pour ceux qui connaissent. mais qui permettrait de certifier qu'un compte est possédé par un citoyen français, mais sans que ni le gouvernement ni la plateforme ne sachent quel est ce citoyen en question. Et ensuite, ce qu'on pourrait exiger, c'est que les algorithmes de recommandation, même du privé, même de YouTube par exemple, n'apprennent que des données des citoyens français en France, ou des citoyens européens en Europe, par exemple, quelque chose comme ça. Et donc ça, ça limiterait beaucoup la capacité d'ingérence. des pays étrangers.

  • Speaker #1

    Et une fois qu'on aurait cette possibilité de voter, c'est quoi la suite en fait ? On vote comment ? Pourquoi ?

  • Speaker #0

    Oui. Une autre difficulté, c'est lié à ce dont on a parlé plus tôt, c'est qu'aujourd'hui, c'est un vote des préférences instinctives. Si on fait juste ce que j'ai dit, on risque... diminuerait beaucoup les problèmes d'ingérence étrangère, mais on risque quand même d'avoir le fait que les contenus les plus populaires ne sont pas les sujets importants. Oui. Et donc, si on veut changer cet état de fait, il va falloir faire ce qu'on appelle une démocratie d'évolution, plutôt qu'une démocratie des préférences instinctives.

  • Speaker #1

    Tu disais tout à l'heure, c'est ce que je voudrais voir.

  • Speaker #0

    Vouloir, quelque chose de beaucoup plus réfléchi. Oui. Et c'est des choses qui sont déjà un peu poussées par la démocratie telle qu'elle est aujourd'hui. Par exemple, il y a certaines lois, je ne sais plus le numéro de cette loi, mais il y a une loi qui dit que le jour d'une élection, les partis politiques n'ont pas le droit de continuer leur campagne.

  • Speaker #1

    Même 48 heures, je crois.

  • Speaker #0

    Même 48 heures, oui. C'est une façon de faire en sorte qu'on ne soit pas influencé au dernier moment par la dernière réplique. et qu'on n'ait pas un truc plus instinctif au moment de voter. Donc ça nous force 48 heures où on est un peu plus en mode méditation. Même si, bien sûr, on ne le sera jamais complètement en pratique. Et donc, on pourrait instaurer des choses similaires sur le web. C'est des choses d'initiatives... J'ai l'impression de dire beaucoup de mal des entreprises privées. Enfin, je le fais. Mais il y a eu des initiatives par certaines équipes de ces entreprises privées qui sont très louables. Notamment chez YouTube. Il y avait cette fonctionnalité à un moment où vous pouviez donner, qui existe encore aujourd'hui, où vous pouvez donner votre avis sur une vidéo que vous avez vue la veille.

  • Speaker #1

    D'accord.

  • Speaker #0

    C'est ce genre de mécanisme.

  • Speaker #1

    Donc, en ayant à tête reposée.

  • Speaker #0

    À tête reposée et en ayant passé la nuit, au moins, c'est possible de bien dormir. Et en tout cas, ça fait un jugement d'une autre partie de nous, pas possiblement un parti plus réfléchi. Et donc ce sont des initiatives qui sont intéressantes.

  • Speaker #1

    Il y a Twitter aussi. En gros, je voulais te demander, c'est une question, lesquelles les réseaux sociaux sont les moins pires ? Enfin, on sait que Twitter maintenant, c'est un peu le... C'est à peauri en termes de qualité du débat, mais vous dites dans le livre qu'ils font quand même des choses comme des community notes, et à un moment donné, avant de retweeter, ils nous demandaient si on avait bien lu l'article qu'on retweetait, des choses comme ça. Ça te semble intéressant ? C'est un coup d'épée dans l'eau ?

  • Speaker #0

    Oui, Twitter, en fait, avant l'arrivée de Musk, avait vraiment une équipe de safety qui était très active et très soutenue. C'est vraiment ça, en fait. La question, c'est à quel point est-ce que les équipes d'éthique et de sécurité sont soutenues. Et du coup, ils avaient fait pas mal d'initiatives, et notamment les community notes. Donc, il y a plusieurs aspects intéressants dans les community notes. Donc, ça, c'est les notes contextuelles que vous voyez peut-être parfois si vous utilisez Twitter, qui vont s'attacher à un poste et qui vont être votées par la communauté des community notes. pour savoir quel contenu afficher, donc ça va être typiquement des correctifs, des mises en contexte aussi. Et l'une des approches intéressantes de ces community notes, c'est que c'est une approche démocratique, en sens où ces tuteurs n'ont en principe pas son mot à dire sur quelles sont les notes qui vont être affichées, c'est vraiment les membres des community notes. Il faut candidater. J'ai l'impression que c'est de plus en plus facile de devenir membre des community notes. Et c'est un problème parce que du coup, ça a été complètement infiltré par des campagnes de désinformation. Donc, il y avait des problèmes de sécurité autour des community notes. Mais l'idée de base était intéressante. Et en particulier, un des aspects intéressants des community notes, c'est qu'ils implémentaient cette idée de consensus. C'est-à-dire qu'une note est affichée si elle est jugée consensuellement utile. par la communauté.

  • Speaker #1

    Par des gens qui sont de camps différents. C'est ça,

  • Speaker #0

    des tubors.

  • Speaker #1

    Je ne sais pas trop comment ils définissent les camps, d'ailleurs,

  • Speaker #0

    mais bon. Alors, il y a des façons de... Enfin, à base de machine learning, pour essayer d'identifier ça, mais intuitivement, ce qui se passe, c'est que l'un des problèmes, par exemple, d'une vidéo YouTube, c'est que si vous regardez que le pourcentage de likes, en fait, c'est le pourcentage des likes des gens qui ont vu la vidéo YouTube qui sont souvent des fans de la chaîne. Donc, si une vidéo a un énorme taux de likes, ça ne veut pas dire qu'elle serait consensuellement jugée bonne. Tout le monde l'avait évalué. Mais il y a des techniques, typiquement on peut voir, par exemple dans ce cas, on peut voir si quelqu'un n'a pas du tout l'habitude de consommer cette vidéo, ça regarde même des vidéos qui vont pas du tout dans ce sens, si elle like néanmoins cette vidéo, ça donne un indice que la vidéo sera peut-être consensuelle au-delà, et donc s'il y a pas mal de personnes qui font ça, là on peut commencer à juger le contenu consensuel.

  • Speaker #1

    Peut-être juste sur cette histoire de consensus, je sais que ça peut un peu... On rebutait certains, mais on cherche à créer un consensus, on cherche à arrondir les angles. C'est pas du tout ça, en fait.

  • Speaker #0

    Non, c'est pas du tout ça. Donc, il y a vraiment cette idée de fabriquer le consensus. Et donc là, c'est plus lié à la manipulation. Mais là, l'idée, c'est plus de trouver des consensus qui existent déjà dans la société. Ouais. Et un des aspects importants, c'est qu'on a tendance à tellement sous-estimer ce consensus qu'on ne se rend pas compte qu'il y a des mesures extrêmement radicales qui sont en fait consensuelles. par exemple taxer massivement les milliardaires est très certainement consensuel le problème des inégalités est globalement jugé consensuel ralentir le développement des intelligences artificielles est aussi consensuel y compris chez des gens qui sont enthousiastes de l'IA j'ai donné quelques exemples ici mais il ne faut vraiment pas sous-estimer il ne faut pas opposer consensuel et radical qui va beaucoup plonger les choses merci

  • Speaker #1

    Donc, on a parlé de quelques pistes de solutions. Est-ce qu'il y en a d'autres que tu voudrais aborder ? Est-ce que tu veux nous parler de votre projet Tournesol ? Oui,

  • Speaker #0

    je veux bien parler de ce que je fais, de ce projet qui me tient beaucoup à cœur. Donc, Tournesol, c'est un projet qu'on a vraiment lancé en 2020. C'est vraiment lié à des années de réflexion sur ces sujets. Moi, j'ai fait ma thèse en théorie. des votes notamment, je me suis beaucoup intéressé au scrutin, donc c'est vraiment des sujets qui m'intéressent depuis 15 ans maintenant on va dire et en particulier tournesol c'est vraiment l'appliquer au cas en particulier des algorithmes de recommandation qu'on considère être les plus influents et donc l'idée de tournesol c'est vraiment de faire un algorithme de recommandation donc aujourd'hui on s'intéresse beaucoup aux vidéos youtube exclusivement aux vidéos YouTube. Et donc la question qu'on se pose, c'est si on se mettait ensemble, autour d'une table ou pas, quels seraient les contenus qu'on voudrait recommander le plus aux utilisateurs de TourSol, même au-delà ? Quels sont les contenus qui devraient être le plus recommandés sur Internet ? Un des aspects intéressants de poser la question comme ça, c'est que les vidéos vont forcément être en concurrence parce que l'attention est limitée. Et donc il ne s'agit absolument pas juste de noter la fiabilité d'une vidéo. La question ce n'est pas est-ce qu'une vidéo est vraie ou fausse, la question c'est à quel point elle devrait être plus recommandée que d'autres vidéos. Et donc pour pouvoir obtenir cette information, ce qu'on fait c'est qu'on demande aux utilisateurs des jugements comparatifs. Donc on leur demande de sélectionner des vidéos sur YouTube. Donc n'importe qui peut créer un compte sur Tournesol. Et ensuite, choisir des vidéos, n'importe laquelle vidéo sur YouTube, l'importer du coup sur Tournesol, et dire entre deux vidéos qu'il a vues par exemple, laquelle devrait être plus souvent recommandée par l'algorithme de Tournesol. Et c'est intéressant parce que ça force des arbitrages entre des vidéos sur des sujets radicalement différents.

  • Speaker #1

    On compare les choux et les patates un peu.

  • Speaker #0

    On compare les choux et les patates, mais on est un peu obligé parce que l'espace informationnel est limité.

  • Speaker #1

    Autant dans le climat, on perçoit des améliorations, des tendances, des courbes qui fléchissent. Autant sur les algorithmes, donc Twitter, il y avait du mieux, puis ça a été racheté. Il y a 6 000 personnes qui ont été virées sur 8 000, ou un truc comme ça. Facebook, je crois, a viré aussi son comité éthique, c'est ce que vous dites dans le livre. TikTok est plus grand que jamais, et c'est pire que ses prédécesseurs. En gros, on connaissait Instagram pour le mal-être que ça donnait notamment aux adolescentes. TikTok, c'est pire carrément. Ils shadowban les filles qui sont moins belles et mettent en valeur celles qui sont plus belles, donc en gros voilà. Là pour le coup on est un peu dans chaque jour est pire que le précédent. Qu'est-ce qui... qu'est-ce qui pousse votre équipe à faire un petit projet, enfin petit, je veux dire, en toute... C'est pas pour dénigrer le projet qui est beau, mais je veux dire, il n'a pas le budget de YouTube, de TikTok, il n'a pas un parti derrière qui le pousse, etc. Qu'est-ce qui vous donne envie de continuer ? Et peut-être pour les gens qui nous écoutent, qui ont des enfants notamment, on n'a pas parlé des enfants, mais bon, c'est les principales victimes. qu'est-ce qui pousse à entrevoir peut-être ou pas un avenir plus radieux ?

  • Speaker #0

    Donc ça, c'est vraiment la troisième partie de notre livre. Et c'est vraiment Jean-Loup qui a vraiment beaucoup mûri ses idées et qui m'a beaucoup convaincu. Et c'est une difficulté qu'on a vraiment au quotidien. Je prends tous les jours quasiment des gifles en me disant En fait, c'est pire que ce que je croyais, les choses vont mal. Je reçois aussi beaucoup de choses... Ce qui vaut dans le bon sens. Tout n'est pas négatif, loin de là. Il y a beaucoup de bonnes initiatives, ne serait-ce que les régulations à échelle européenne. De plus en plus de chercheurs s'intéressent à tout le sol. Donc il y a aussi beaucoup de signaux positifs. Maintenant, je vais être très honnête, je ne vois pas comment les choses vont pouvoir ne pas se dégrader dans les mois et les années à venir. La trajectoire est extrêmement préoccupante et l'inattention est encore gravissime. La disproportion des moyens est juste effrayante, y compris au niveau de la recherche.

  • Speaker #1

    Juste une petite parenthèse, excuse-moi de te couper, mais on invite encore quelqu'un comme Yann Lecun, qui travaille sur l'intelligence artificielle chez Facebook, qui est contributeur de... À son échelle, évidemment, mais quand même une belle échelle, c'est Facebook, de tout ce qu'on vient de raconter. Et qui est invité dans les médias, et de tous les médias pour le coup, Mediapart, n'importe même ce qu'on pourrait penser un peu plus zérudit. Et il est invité comme un chercheur indépendant, etc. Donc en fait, il a ses...

  • Speaker #0

    Directeur de la recherche chez Facebook. Imaginez inviter le directeur de la recherche chez Total Energy de vous parler de la régulation de la taxe carbone. Oui. sans être contradié, sans être signalé chercheur de Total Energy. C'est l'état des choses aujourd'hui. C'est pour ça que ça rend très... Ça force à être très pessimiste. La trajectoire n'est vraiment pas bonne. Moi, je ne m'attends pas à ce que les choses s'améliorent dans l'année à venir ou dans les quelques années à venir. Mais j'espère qu'il y ait beaucoup de mobilisation pour atténuer la catastrophe. Une analogie évidente avec le changement climatique. C'est qu'il faut vraiment comparer à l'alternative où vraiment personne n'agirait, personne ne se combattrait la tendance actuelle. À ce moment-là, les choses pourraient être bien pires. Et moi, je vois quand même beaucoup de gens se mobiliser sur les questions algorithmiques. Pas assez. Mais de plus en plus, notamment les chercheurs s'intéressent de plus en plus à ces questions, les journalistes s'intéressent de plus en plus à ces questions. Il y a de plus en plus de commissions qui sont mises en place. Donc même les politiciens, pas suffisamment encore une fois à mon goût, mais s'intéressent de plus en plus à ces questions. Et du coup, on atténue une catastrophe. Les États-Unis vont peut-être interdire TikTok. Donc il y a quand même des choses qui vont dans le bon sens. Donc j'ai envie de dire, chaque dixième de degré compte, comme pour le climat. Et si on peut éviter que l'extrême droite monte trop vite aux prochaines élections européennes, ce sera toujours ça de gagné, même s'ils vont probablement pas mal monter par rapport aux précédentes. Donc chaque deuxième degré compte, c'est une des raisons pour lesquelles on se bat, et ça protège des vies. Et puis l'autre raison qui est beaucoup plus inspirante à mes yeux, même si elle est moins... moins concrète, on va dire, c'est le fait qu'à travers Tournesol, à travers toutes ces réflexions, à travers la recherche sur ces domaines, on contribue à concevoir des briques élémentaires qui pourront être réutilisées par les démocraties lorsqu'elles seront prêtes. Il faut bien voir que ces briques n'existent pas aujourd'hui. On n'a pas les outils aujourd'hui pour pouvoir passer à une démocratie numérique, même si on le voulait. C'est un des trucs très frustrants. C'est que Tournesol, ça fait trois ans qu'on travaille dessus, c'est construit à partir de des décennies de recherches sur le sujet, mais c'est très insuffisant ce qu'on a fait.

  • Speaker #1

    Pour faire encore un parallèle, c'est comme si aujourd'hui on n'avait pas... on n'avait pas de panneaux solaires, d'éoliennes et de soins nucléaires.

  • Speaker #0

    Et qu'on nous demandait une transition énergétique. Ce serait bien de développer ces outils. On les a beaucoup développés. Et puis même si on les avait aujourd'hui, réduire les coûts reste un enjeu énorme. Après, ça passera plus aux problèmes d'industrialisation. Malheureusement, je vais vous dire qu'on n'est pas encore nous dans le monde numérique. Mais voilà, il y a une trajectoire également qu'il faut suivre. Et donc, travailler sur l'élaboration de ces outils, Paul East n'a pas été développé pour Taïwan, mais beaucoup il est Taïwan. Donc, si on pouvait avoir un algorithme de recommandation qui sera utilisable, qui sera beaucoup plus sécurisé, avec typiquement les choses de proof of...... de citoyenneté française en ligne qu'on développerait en France, ça, il faut absolument les rendre open source et libres d'accès parce qu'il faut que toutes les démocraties les utilisent. Et ça, ça renforcera tout le monde et à long terme, à moyen terme, peut-être, en espérant, ça pourra beaucoup remporter nos démocraties et construire des gouvernances en lesquelles on a confiance. Ce qui, aujourd'hui, malheureusement, est encore difficile.

  • Speaker #1

    Merci, Lé.

  • Speaker #0

    Avec plaisir.

Description

Dans cet épisode, nous parlons des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des États autoritaires et ont pour objectif de retenir le plus possible notre attention. Les conséquences pour nous, individus, mais aussi nos sociétés sont énormes : détérioration de la santé mentale, de la cohésion sociale, ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lê Nguyen Hoang. Il est chercheur en intelligence artificielle, co-auteur du livre “La dictature des algorithmes”.


L’IA, pire que le climat ? C’est le thème de ce nouvel épisode d’Échange Climatique.


Infos: https://linktr.ee/echangeclimatique

Contact: echangesclimatiques@gmail.com

Production: https://onetwo-onetwo.com/


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Si j'ai lancé ce podcast, c'est parce que je ressentais le besoin d'alerter sur le changement climatique. Et c'est pour cette même raison qu'aujourd'hui, on va parler d'intelligence artificielle. Mais pas de générateur de textes ou d'images comme ChatGPT ou Midjournée, parce que vous en avez déjà beaucoup entendu parler, et aussi parce que je pense qu'il y a plus grave. Je veux parler des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des états autoritaires, et ont pour objectif de retenir notre attention le plus possible. Les conséquences pour nous, individus ou nos sociétés, sont éliminantes. D'intérioration de la santé mentale, de la cohésion sociale... ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lei Nguyen-Wang. Il est chercheur en intelligence artificielle et co-auteur du livre La dictature des algorithmes L'IA, pire que le climat, c'est le thème de ce nouvel épisode d'Échange climatique. Bonjour Lei.

  • Speaker #1

    Bonjour !

  • Speaker #0

    Je sais que ce n'est pas une question facile, est-ce que tu peux nous dire ce que c'est qu'un algorithme de recommandation ?

  • Speaker #1

    Ouais, peut-être même encore plus facile qu'un algorithme. Un algorithme, c'est un ensemble de règles, c'est une suite d'instructions. C'est vraiment un synonyme de règles, instructions, procédures, protocoles, toutes ces choses qui décrivent des suites de choses à suivre. Et en particulier les algorithmes de recommandation, donc vraiment c'est ceux qu'on considère être les plus importants dans notre livre avec Jean-Louis Fourquet. Donc pour vraiment le comprendre, il faut vraiment se rendre compte que l'utilisation aujourd'hui du numérique, c'est vraiment beaucoup plus le téléphone. La plupart du temps, il y a 7 fois plus de vues sur téléphone, de vues YouTube sur téléphone, que de vues YouTube sur laptop, enfin desktop. Sur téléphone, le truc c'est que c'est très difficile de taper, c'est plus compliqué de taper que sur un ordinateur. Et du coup les gens vont être beaucoup moins dans la recherche. En fait ça fait depuis 2016 qu'il y a plus de vues sur Youtube que de recherches sur Google. Vous pensez que Google est le portail du web, c'est une vision très vieille en fait, très erronée aujourd'hui de l'utilisation du web. Et donc la plupart du temps, quand on utilise le web, quand la plupart de nos concitoyens naviguent sur, utilisent le numérique, ils sont sur un téléphone en train de cliquer, de swiper, de scroller. Et à chaque fois qu'on fait ces actions... enfin pas à chaque fois mais la plupart du temps, sur les réseaux sociaux, quand on clique sur l'application de réseaux sociaux, qu'on scrolle, qu'on swipe, il y a un algorithme de recommandation qui va répondre à notre action. Ce sont ces algorithmes qui vont choisir, par exemple sur un réseau social, sur TikTok, à chaque fois que vous vous swipez, c'est un algorithme de recommandation qui va choisir quel contenu va être diffusé juste après sur votre téléphone.

  • Speaker #0

    Du coup, ces algorithmes, quels sont leurs buts ? J'imagine qu'il y a le but officiel, on va dire, qui était de proposer le meilleur contenu à l'utilisateur. Pourquoi les entreprises les ont mis en place ? Qu'est-ce que c'est qu'un bon algorithme d'un point de vue de l'entreprise ?

  • Speaker #1

    Même officiellement, déjà, ils ont un peu basculé. YouTube, je crois que c'est vers 2019, ont commencé à parler du fait que leur... maximise ce qu'ils appellent le user engagement, l'activité de l'utilisateur sur la plateforme. Et en tout cas, ce qu'on peut inférer de la manière dont ça fonctionne, c'est que vraiment, il y a une dimension de captation de l'attention qui est énorme. Et ça, c'est vraiment très lié au modèle d'affaires. Aujourd'hui, le numérique, beaucoup de très grandes entreprises du numérique, c'est Google, Facebook, TikTok, Twitter ou autres, ces grandes entreprises numériques, leur modèle d'affaires, c'est la publicité ciblée. Et si on veut vendre des publicités ciblées, il y a deux choses à faire. La première, c'est d'avoir l'attention des utilisateurs pour pouvoir montrer des publicités. Et après, la deuxième, c'est d'être capable de cibler, et ça, ça va impliquer... la collecte massive d'informations sur différents utilisateurs, et ensuite la conception d'algorithmes qui sont capables d'utiliser ces données pour savoir quelle est la publicité qui sera la plus efficace pour les différents utilisateurs.

  • Speaker #0

    Ici, on est sur une chaîne de climat. Forcément, on va aborder ce thème un mot en autre. Toi aussi, tu es très conscient des problèmes du changement climatique. Tu fais beaucoup aussi à l'échelle individuelle. Je crois que j'ai entendu que tu prenais que des douches froides.

  • Speaker #1

    Oui, pas que, parce que parfois il y a des contextes où après un match de foot, il n'y a qu'une douche et elle est chaude. Mais oui, chez moi, je prends que des douche-froid.

  • Speaker #0

    Et en gros, pourquoi je te pose cette question, c'est parce que je voudrais savoir si tu es plus inquiet par rapport au climat. ou par rapport aux algorithmes de recommandation ?

  • Speaker #1

    Moi, je suis clairement beaucoup plus inquiet par rapport aux algorithmes de recommandation assez largement. Mais il n'y a pas besoin d'en arriver là. Je pense qu'un écologiste doit se préoccuper des algorithmes de recommandation, même si sa préoccupation principale, c'est le climat. Ça, on le voit très bien sur Twitter. Sur Twitter, il y a eu une désertion des scientifiques du climat parce que les scientifiques du climat ont subi des vagues de harcèlement sur Twitter. Et du coup, la production d'informations, la qualité informationnelle sur les sujets du climat sur Twitter a été complètement ravagée. Ça, on le voit également sur des plateformes comme TikTok où des sujets climato-dénialistes sont très mis en avant. Il y a très peu d'audits. Et du coup, la lutte informationnelle, parce que finalement le climat c'est en grande partie une lutte informationnelle, la raison pour laquelle on fait un podcast, enfin, peut-être pas ce podcast, mais la raison pour laquelle tu fais cette émission, c'est pas mal pour des raisons de sensibilisation sur les sujets climatiques, et il y a des gros problèmes aussi de qualité de l'information, même au sein du mouvement écologiste, et donc l'information est vraiment clé, et donc il y a une lutte informationnelle, et l'arbitre aujourd'hui de l'information... Ce sont les algorithmes de recommandation. C'est pour ça que même si on est terrifié par le climat, uniquement, les algorithmes de recommandation devraient être un aspect important de la réflexion sur la lutte climatique.

  • Speaker #0

    Tu viens d'en parler un petit peu, mais comment est-ce que les algorithmes concrètement affectent la lutte contre le changement climatique ? Est-ce que c'est en partageant un maximum de fake news, par exemple ?

  • Speaker #1

    Il ne faut vraiment pas réduire ça au problème des fake news. C'est un aspect, en effet, il y a encore beaucoup de climato-dénialisme sur différents réseaux sociaux. Ça me permet de parler d'un autre aspect important de la désinformation, des stratégies de désinformation en ligne. C'est qu'une façon de désinformer, ce n'est pas de produire des fausses informations, mais d'amplifier massivement ceux qui produisent un discours qui va dans l'autre sens. Une des choses qu'on voit beaucoup, c'est des agences spécialisées dans la création, la crédibilisation et la mise en activité d'un grand nombre de faux comptes sur les réseaux sociaux qui vont se mettre typiquement à liker, à retweeter, à partager des contenus qui vont dans leur sens ou qui commencent à aller dans leur sens. avec notamment une intention non seulement d'amplifier ces contenus mais aussi de manipuler les créateurs de contenu donc ça on le voit vraiment, je pense que c'est un des aspects les plus importants en fait c'est la manipulation des créateurs de contenu pas forcément de la consommation, pas directement de la consommation mais plus des gens qui produisent l'information. Parce qu'on le sait très bien en tant que youtubeur, on est encore plus, si notre salaire dépend du nombre de vues que l'on fait, on est très sensible à ces chiffres. Du coup, si on voit que notre contenu fait plus de vues lorsqu'on parle d'un sujet, ça va nous pousser consciemment ou inconsciemment à parler davantage de ce sujet.

  • Speaker #0

    Derrière, est-ce qu'on peut dire qu'il y a des compagnies pétrolières qui font la stratégie du doute ou alors c'est juste que ça marche et donc Google le met en avant ?

  • Speaker #1

    C'est difficile de savoir exactement ce que fait l'industrie du doute aujourd'hui parce qu'ils ont aussi tout intérêt à ce qu'on ne le sache pas. Mais on sait ce qu'ils ont fait. Il y a beaucoup de choses qu'ils ont fait dans le passé qui sont très documentées. Je vous renvoie vers le livre du marchand de doute qui documente beaucoup de stratégies de ce style. Mais dans le cas de l'intelligence artificielle, qui est beaucoup plus mon domaine, on sait qu'il y a eu des interventions explicites des grandes entreprises de la tech pour modifier la manière dont les scientifiques s'expriment dans les publications scientifiques. Google a demandé explicitement à ses propres chercheurs d'adopter un ton positif sur la recherche en intelligence artificielle pour ne pas parler des risques, ainsi de suite. Moi, j'ai un article de recherche co-écrit avec un chercheur de Google. dont la publication a été retardée de plus d'un an et demi par le processus de revue en interne de Google qui ne voulait pas qu'on soumette un article qui soulignait les problèmes de sécurité qui sont très importants à mettre en avant de ces systèmes. Et donc, d'habitude, je dis plus qu'il faut regarder ce qui est fait dans le monde du climat pour deviner ce qui se fait dans le monde de la tech. J'ai envie de dire, il faut faire l'inverse. Sachant ce qui se fait dans le monde de la tech, il faut s'attendre à ce que toutes les industries, y compris pétrolières, utilisent des stratégies de la sorte.

  • Speaker #0

    Et or, dans la recherche sur les algorithmes, ce sont majoritairement financés justement par les big tech. Ce n'est pas comme si c'était du 50-50.

  • Speaker #1

    Ah oui, dans le monde de la big tech, c'est vraiment catastrophique. C'est-à-dire que, par exemple, si on prend le tabac également, le tabac... Dans les pires heures du lobby du tabac, il y avait 10% des chercheurs qui étaient financés par l'industrie du tabac et ils ont trouvé ça scandaleux. Aujourd'hui, dans le monde de Big Tech, en intelligence artificielle, en gros, l'écrasante majorité, si ce n'est la quasi-unanimité des chercheurs, ont des conflits d'intérêts avec Big Tech. Ça peut être des financements directs, ça peut être des financements indirects. En France, il y a des systèmes de thèse-chiffres qui font que beaucoup de chercheurs ont des doctorants qui sont payés par Big Tech. Et si on a un bon superviseur de thèse... et qu'on se préoccupe, ce n'est pas le cas de tous les super-gérards des thèses, mais si on se préoccupe vraiment du bien-être de son étudiant en thèse, forcément, le conflit d'intérêt va être énorme parce qu'on ne veut pas que mettre en danger son propre étudiant. Donc, c'est là où c'est assez vicieux.

  • Speaker #0

    On a parlé tout à l'heure des fake news. Dans votre livre, vous parlez aussi des mute news. Qu'est-ce que ça veut dire concrètement concernant, par exemple, le climat ?

  • Speaker #1

    Oui, donc ça c'est un des autres aspects. J'ai parlé de la mise en avant des contenus problématiques, mais une autre façon... Et ça, ça conduit aussi au fait que les contenus qui sont en concurrence auront moins de visibilité. Donc ça vient du fait que l'attention humaine est limitée et qu'il y a une guerre de l'attention. Et si on est militant écologiste, mais militant à peu près de n'importe quelle cause, on se rend compte qu'en fait, une grosse partie du militantisme, c'est capter de l'attention. Et donc, si on n'y arrive pas, c'est que notre cause est, en tout cas selon le militant, une newt news, en le sens où c'est une nouvelle qui ne reçoit pas assez d'attention et qui est rendue silencieuse, notamment par la compétition, la concurrence ou l'arbitrage qui peut être fait notamment par les algorithmes de recommandation. Donc ça, c'est un aspect assez important à comprendre. Aujourd'hui, une proportion, à mon sens, déraisonnable de l'attention sur les problèmes informationnels en ligne sont portés sur les fausses informations, les fake news, ce genre de choses. Mais si on considère qu'en fait le problème des mute news est plus important encore, par exemple l'inattention au climat, ou l'inattention aux algorithmes de recommandation, ou l'inattention à la cybersécurité, en fait notre combat n'est plus sur la vérité de l'information. Notre combat, c'est sur mettre en avant, prioriser des messages qui sont plus importants que d'autres messages potentiellement factuels, mais qui nous semblent d'importance moindre.

  • Speaker #0

    Typiquement, là, c'est la campagne des élections européennes et on parle très peu des algorithmes.

  • Speaker #1

    Oui, typiquement, sur les élections européennes, alors que c'est un enjeu énorme. Aux États-Unis, il y a un ultimatum qui a été passé à TikTok, donc la question monte un petit peu. Il y a eu des problèmes de cybersécurité énormes autour de Microsoft. qui ont mis en danger vraiment la sécurité nationale, puisqu'il y a des gouvernements... De France ? Non, je parle aux États-Unis. Mais en France, on utilise beaucoup Microsoft. Donc, on est aussi client beaucoup de Microsoft. Et malheureusement, le manque d'attention à cela est très grand. Et puis après, sur les algues de recondondation, malheureusement, je pense que là, on peut vraiment parler d'une mutinuse énorme.

  • Speaker #0

    Je pense qu'on l'a compris. Jusqu'à présent, on a parlé surtout des algorithmes de recommandation. Quand on parle d'IA, on parle plutôt des IA génératives comme ChatGPT, MidJournée. Pour toi, là aussi, on met beaucoup trop d'importance sur ces ChatGPT, MidJournée, que sur les algorithmes de recommandation.

  • Speaker #1

    Oui, donc pourquoi est-ce qu'on pense que c'est beaucoup plus dangereux les algorithmes de recommandation ? C'est parce qu'encore une fois, c'est ceux qui interagissent vraiment avec la plupart des humains. Parler à chat GPT sur un téléphone, ça reste plus compliqué que de swiper ou scroller sur une application TikTok. Après, je ne veux pas minimiser l'importance non plus de ces autres problèmes. Chat GPT est en train de créer toutes sortes de problèmes, notamment parce que c'est réutilisé massivement par le cybercrime, et notamment par la désinformation, le cyberharcèlement. ce genre de choses.

  • Speaker #0

    Pour créer des faux comptes.

  • Speaker #1

    Pour créer des faux comptes, automatiser la création de faux comptes, ainsi de suite. Et les algorithmes générateurs d'images sont encore plus préoccupants, à mon sens, en termes de risque systémique pour la société, à travers le problème des deepfakes pornographiques. Ça, c'est un problème qui monte déjà. Il y a déjà beaucoup de cas aux Etats-Unis. Mais il faut imaginer que si n'importe quel gamin a accès à la capacité, en quelques clics, à faire des defects pornographiques de ses camarades de classe, on risque d'observer beaucoup de traumatismes psychologiques. Il faut vraiment voir que ces armes sont des armes de destruction psychologique qui ont déjà été utilisées massivement contre des journalistes femmes. C'est aussi un moyen d'intimidation et de déstabilisation qui, à mon sens, est extrêmement préoccupant.

  • Speaker #0

    On va revenir sur les algorithmes de recommandation. Je ne connais pas les chiffres et puis je pense qu'il faut les prendre avec des pincettes, mais je crois qu'un adolescent aujourd'hui passe en moyenne deux heures sur TikTok par jour, seulement sur TikTok. Donc il faut rajouter les autres réseaux sociaux. Moi, j'ai supprimé mes applications où il y avait un algorithme de recommandation. Donc j'ai supprimé Twitter, Instagram, TikTok que je n'avais pas, YouTube à cause des shorts notamment. qui me prenait beaucoup trop de temps, mais parce que j'avais ce truc que dès que mon micro-ondes tournait, que je devais attendre 30 secondes pour chanter le téléphone, dès que j'attendais mon ascenseur qui arrive, je chantais mon téléphone, ça devenait un peu compulsif et donc je suis loin d'être le seul. Qu'est-ce qui se passe dans notre cerveau pour que les algorithmes de recommandation arrivent à nous happer aussi efficacement ?

  • Speaker #1

    Ça, c'est vraiment une question pour un psychologue, idéalement. C'est des questions qui sont vraiment...

  • Speaker #0

    Mais dans le livre, vous parlez de système 1, système

  • Speaker #1

    2. Oui. Mais en tout cas, ce que disent les psychologues, c'est vraiment qu'un des aspects de ces algorithmes, c'est vraiment qu'ils sont optimisés pour capter l'attention. Et ce qu'on sait également, c'est que Google a embauché beaucoup de psychologues pour pouvoir... être aussi bon que possible à cette tâche. C'était pas mal révélé par un ancien de Google, Tristan Harris. Notamment, ils avaient beaucoup d'inspiration des jeux de casino, des machines à sous. Les machines à sous, ça paraît vraiment... pas être le truc super sophistiqué a priori, mais il y a quelques principes de base qui font que ça suffit à être à rendre accro un grand nombre d'utilisateurs et qui sont prêts même à mettre leur vie en tout cas au moins leur finance en danger à cause de ces mécanismes psychologiques Et donc, il y a une grande préoccupation de beaucoup de psychologues sur le fait que ces systèmes sont en train d'amplifier massivement, voire de créer d'une certaine manière, une grosse partie de la crise mentale qui est vraiment montante aujourd'hui, surtout chez les jeunes générations.

  • Speaker #0

    Et dans le livre, par exemple, vous dites que quand... On télécharge une app et qu'on se crée un compte. On doit suivre, par exemple, des 2-3 comptes, histoire que l'app comprenne, sans rien savoir de nous, quelles sont les grandes directions vers lesquelles elles doivent nous amener. Par exemple, sur TikTok, il faut suivre 2-3 comptes au début, je crois, sur Twitter. Donc, on peut choisir des tweets qui parlent de science, d'histoire, de... Et en fait, c'est plutôt notre... côté raisonné dans le livre, vous avez appelé ça le système 2 celui qui prend un peu de temps avant de s'exprimer et en fait très vite on remarque avec l'onglet For You notamment, enfin pour toi notamment de, je crois qu'il a été inventé par TikTok et qui a été repris depuis par Twitter et aussi les shorts aussi, en fait ne prennent pas du tout en compte ce qu'on leur a dit mais plutôt nous proposent des vidéos qui vont plaire à un autre côté de notre cerveau qui est lui beaucoup plus instinctif.

  • Speaker #1

    Oui, tout à fait. Encore une fois, le système 1 est beaucoup plus réactif. Système 1, système 2, c'est une terminologie qui vient de Daniel Kahneman, qui est malheureusement décédé récemment. C'est vraiment cette idée qu'il y a une partie de notre cerveau qui réagit beaucoup plus de façon peu réfléchie, instantanée sur le moment. On le voit vraiment sur le téléphone quand on est fatigué et tout ça. On a tendance à avoir une utilisation des réseaux sociaux qui est... pas vraiment ultra raisonnée et dans le livre on le distingue pas mal de ça, de ce qu'on appelle parfois l'abolition c'est ce qu'on voudrait vouloir, donc l'exemple que je prends tout le temps c'est pour moi les vidéos de football c'est vraiment ça donc une vidéo de football c'est une vidéo que je veux voir et je clique souvent dessus et malheureusement j'ai des marées de passer après des heures dessus et être fatigué et à pas dormir euh Et à l'inverse, je voudrais vouloir ne pas avoir cette envie. Je voudrais ne pas vouloir cliquer sur cette vidéo. C'est un peu une réflexion du second ordre. Et donc, d'une certaine manière, les réseaux sociaux aujourd'hui sont, si j'oublie le problème des faux comptes et du potentiel biais introduit par les développeurs à l'intérieur de ces algorithmes, j'oublie pas mal de choses, mais si j'oublie ça, les algorithmes sont en un sens assez démocratiques déjà. dans le sens où ils font voter de certaine manière la population ils font sortir ce qui est populaire mais un des problèmes c'est que c'est un vote vraiment des systèmes 1 c'est un vote des réflexions des préférences instinctives Et ce qu'on voudrait peut-être plus pour nos démocraties, pour bien gouverner nos sociétés, en tout cas la priorisation d'informations dans nos sociétés, c'est peut-être beaucoup plus un vote des parties réflexives, d'évolution réfléchie. Et donc, il faut mettre en place beaucoup de choses pour en arriver là. Mais malheureusement, aujourd'hui, avec les modèles économiques les plus lucratifs aujourd'hui et l'absence de régulation, ça fait que les systèmes qui vont miser beaucoup plus sur la partie préférence instinctive sont beaucoup plus... plus utilisés.

  • Speaker #0

    Parce que le problème c'est que tous ces apps sont en compétition les unes les autres donc il y a un peu un dilemme du prisonnier, si Youtube se met à promouvoir du contenu beaucoup plus pédagogique du coup que ça marche un peu moins bien au niveau des chiffres, les gens vont se tourner sur TikTok et au final Youtube aura tout perdu et ça aura servi pas grand chose.

  • Speaker #1

    Il y a un problème vraiment similaire au climat en termes de coordination et... Et en particulier, le problème dans les deux cas réside beaucoup dans ce que les économistes appellent les externalités négatives. Donc les externalités négatives, c'est quoi ? C'est quand il y a un échange de biens entre un producteur et un consommateur, mais qu'il y a une pollution qui va affecter le reste de la population ou une autre sous-partie de la population. Et donc ça, on le voit beaucoup sur les réseaux sociaux. C'est-à-dire que peut-être qu'à la limite, certains sont prêts à utiliser... Peut-être vouloir vraiment utiliser les réseaux sociaux en tant que distraction. Mais ce qui est dérangeant, c'est plus quand Facebook recommande des appels à la haine ou au meurtre ou de la désinformation sur des sujets importants comme le climat, à d'autres personnes massivement. À ce moment-là, le producteur ou même le diffuseur sont contents, ils ont produit le contenu, ils ont été rémunérés. Le consommateur est content, il a consommé un truc qui lui a fait plaisir. Mais par contre, le reste de la société va subir les conséquences parce que ça va appeler à la haine. Potentiellement, le reste de la société... On prend en introduction le cas des Rohingyas au Myanmar où les Rohingyas ont subi un génocide, notamment parce que, d'après un site international, Facebook avait contribué à amplifier massivement auprès des Birmans des appels au meurtre envers les Rohingyas.

  • Speaker #0

    Sans le vouloir, mais parce que ça faisait du chiffre.

  • Speaker #1

    C'est ça. Là où l'accusation est forte, c'est que Facebook a été mis au courant de manière répétée depuis 2012 de ce problème. Et Facebook n'a pas... pris les mesures, pas du tout pris des mesures satisfaisantes pour pouvoir contrer ce problème.

  • Speaker #0

    Donc, en fait, un peu en toute impunité, et c'est ce qui fait aussi que ce problème des big tech est un peu une mute news, parce que si ça arrivait, je ne sais pas, sur un médicament ou sur une marque d'avion, au hasard, Boeing, qui se crache tous les 4 matins, on en parlerait tout le temps. Alors que là...

  • Speaker #1

    Là, on parle d'un génocide, donc c'est grave. Mais c'est un génocide lointain, donc peut-être que malheureusement, beaucoup de gens ne sont pas ultra sensibilisés à cela, ou s'en manquent un petit peu. Mais dans le cas de la France, ou en tout cas de nos démocraties, on voit un affaiblissement des démocraties généralisées. Et là où c'est vraiment préoccupant, et là ça va me permettre vraiment de répondre à la question pourquoi est-ce que les algorithmes de recommandation me préoccupent beaucoup plus que le climat, c'est qu'en termes d'échelle de temps, on voit que depuis 2012, il y a eu un déclin des démocraties, au lendemain des printemps arabes, et que ce déclin s'accélère. Et que vraiment, on parle de montée de populisme, de montée de régime autoritaire, déclin des institutions, de la confiance dans les institutions. Et on voit vraiment concrètement avec des exemples spectaculaires. aux États-Unis, au Brésil, en Argentine, en Italie, en Hongrie. Malheureusement, la liste des exemples, ce n'est pas du tout ce qui manque. Et donc, le déclin des démocraties, pour moi, c'est vraiment une préoccupation énorme qu'il faut avoir. C'est pour ça que je pense que c'est un problème plus important aujourd'hui que le changement climatique. On parle vraiment des prochaines européennes, des prochaines élections à travers le monde, des prochaines élections aux États-Unis qui peuvent complètement changer le paysage géopolitique. Et à cela, en plus, se rajoute de la haine inter-pays. C'est un peu intra-pays, mais inter-pays. On a de plus en plus de guerres à travers le monde, mais également des tensions exacerbées. avec des risques de conflits, d'escalade. Sachant tout ça, je considère que les algorithmes de recommandation sont beaucoup plus préoccupants aujourd'hui que le climat.

  • Speaker #0

    Comment on attribue ça ? Ce n'est pas la seule cause. Trump, c'était déjà un farfelu avant qu'il y ait les algorithmes de recommandation. Mais comment on attribue ça aux algorithmes ? Est-ce que c'est parce que les algorithmes... ont compris, consciemment ou pas, qu'une des émotions qui crée le plus de user engagement, comme tu disais au début, c'était les émotions négatives et notamment la colère.

  • Speaker #1

    Oui, donc ces systèmes, il ne faut vraiment pas les sous-estimer. Les systèmes d'intelligence artificielle sont extrêmement sophistiqués. Ce sont les intelligences artificielles, dans le sens les plus sophistiquées, beaucoup plus sophistiquées encore que chez la GPT, notamment parce qu'elles font du profilage psychologique de 2 milliards d'humains. Elles ont appris à voir ce qui fait réagir. Elles ont fait énormément de, ce qu'on appelle en jargon, du A-B testing. Elles ont testé beaucoup. Elles ont testé, qu'est-ce qui se passe quand je recommande ça, quand je recommande ci. Et petit à petit, elles ont appris ce qu'on appelle des features, des caractéristiques des contenus qui font que telle ou telle caractéristique d'utilisateur se met à interagir ou pas avec ces contenus. Et en fait, il n'y a pas besoin que ces caractéristiques soient... explicité par l'humain pour que l'algorithme néanmoins arrive à les identifier et il n'y a même pas besoin qu'elles correspondent à des choses que nous humains, sur lesquelles on met des mots. Et donc bien souvent c'est avec des choses assez abstraites, difficiles à interpréter mais après nous, en voyant le comportement de ces algorithmes, on voit que en effet Quand c'est des contenus de haine, elles ont tendance à davantage les mettre en avant, à davantage leur donner de visibilité. C'est une mécanique qui n'est pas forcément complètement construite pas à pas. C'est vraiment beaucoup plus à la place d'apprentissage, d'essais et d'erreurs. Et à partir de ça, les algorithmes arrivent à faire une représentation mentale de ce qui fait réagir les différents utilisateurs.

  • Speaker #0

    Parce qu'au premier jour des réseaux sociaux, on se souvient, il y a quelques années, on nous disait que les réseaux sociaux nous plongeaient dans des bulles de filtres. Donc en gros, on ne voyait que du contenu qui nous plaisait. Mais on pouvait un petit peu se... On était coupé des autres opinions et en fait, maintenant, aujourd'hui, on se rend compte que ce n'est pas du tout vrai. On est mis face à des opinions contraires et souvent, c'est ce que vous dites dans le livre, je trouve ça super intéressant, c'est face à des caricatures, des arguments adverses et ce qui polarise la société énormément.

  • Speaker #1

    Oui, c'est ça. C'est exactement ce que tu as dit. Historiquement, on a vraiment pensé qu'il y avait ces problèmes de bulles, de filtres. Mais en fait, ce qu'on se rend compte, c'est que sur Internet, on est beaucoup plus souvent exposé à des avis contraires que dans la vraie vie. Et du coup, ça pose la question, est-ce que vraiment l'Internet polarise ? En fait, il y a plusieurs études, comme on le cite dans le livre, qui montrent qu'en fait, être exposé aux pires avis, en particulier du coin adverse, Ce n'est pas ça qui va réduire la polarisation. En fait, ça peut même l'exacerber. En particulier, ça va augmenter pas mal ce que différents chercheurs appellent la polarisation affective. C'est-à-dire que même des gens qui sont très proches de nous, avec qui on partage 99% des idées, des gens qui sont en même parti politique que nous, on peut finir par vraiment les détester, avoir un sentiment de haine vers eux. Et un autre aspect, c'est que la colère est une émotion contagieuse. Beaucoup de choses sont contagieuses en termes cognitifs, et notamment, si on est entouré de gens en colère, ça va nous pousser à être plus souvent en colère. Du coup, juste le fait de normaliser la colère...

  • Speaker #0

    le fait qu'à chaque fois qu'on va sur un réseau social, sur Twitter en particulier, on est régulièrement exposé à de la colère, ça peut monter le niveau de colère global dans la société, y compris pour pas grand-chose, j'ai envie de dire.

  • Speaker #1

    Oui. On le retrouve tellement dans la bulle ou dans la sphère climat, en fait, où, comme tu dis, on est d'accord avec 99%, mais on s'étripe sur les 1%, et honnêtement, il y en a qui font... leur beurre dessus. Il y a beaucoup de comptes qui font des 10 000, 20 000, 30 000 abonnés parce qu'ils ont compris que taper sur un tel ou un tel, c'était fructueux. Il y a une phrase d'Albert Camus que j'aime bien, je trouve qu'il s'applique bien à la situation, c'est qu'il dit la démesure est un confort toujours et une carrière parfois. Et je trouve qu'avec les réseaux sociaux, en fait, on est en plein dans, et là, c'est juste leur carrière. C'est marrant parce que tu nommes la Chine comme un ennemi, Alors qu'aujourd'hui quand on écoute les politiques, ils ne sont pas du tout sur cette ligne-là. Pour eux l'ennemi c'est la Russie, c'est l'Iran, mais la Chine n'est pas du tout représentée comme un ennemi, peut-être parce que les guerres sont plus indirectes, ne sont pas avec des bombes, mais avec comme tu disais des algorithmes qui façonnent un peu les cultures. Et c'est un autre problème finalement des algorithmes de recommandation, on a dit que ça polarisait, on a dit que ça ne mettait pas forcément le contenu le plus... instructif en avant, mais il y a aussi ce problème de guerre, ce que vous appelez des guerres cognitives. Est-ce que tu peux nous donner des exemples récents de guerres cognitives en France ou aux Etats-Unis ?

  • Speaker #0

    Par exemple, un des cas récents d'attaque informationnelle de la Russie, c'est qu'on suspecte pas mal la Russie d'avoir amplifié massivement la polarisation émotionnelle, en particulier au moment de la révolte des agriculteurs. On les suspecte aussi d'avoir été pas mal derrière, encore une fois, pas mal amplifié, le message sur les punaises de lit. On sait beaucoup plus, assez clairement, notamment via la chaîne Oshua Today, que sur le sujet de la vaccination, ils ont beaucoup cherché à diviser et à amplifier les contenus antivaccinaux, qui étaient critiques de la position notamment des institutions publiques pour pouvoir décrédibiliser les institutions publiques. Tout ça, c'est des attaques informationnelles très très très forte de la Russie. Aux États-Unis, on sait qu'il y a beaucoup eu d'interventionnismes sur d'ingérences lors de chacune des élections. Pour donner quelques chiffres, il y avait une étude qui avait été relé notamment par le MIT Technology Review qui montrait que sur les 20 comptes catholiques américains les plus suivis sur Facebook, 19 étaient sous le contrôle d'une IP russe. D'accord. Et un autre chiffre encore, chaque année, Facebook retire autour de 7 milliards de faux comptes. Ça montre vraiment l'ampleur de toutes ces campagnes d'influence. La France, l'Institut de recherche stratégique de l'école militaire, a publié aussi un rapport sur les campagnes d'influence chinoises. et qui montraient vraiment une ampleur énorme. Ils estimaient à 2 millions le nombre de Chinois payés pour produire de la désinformation.

  • Speaker #1

    Sur TikTok, notamment, vous, vous appelez ça carrément une arme de destruction massive.

  • Speaker #0

    Oui. Donc, il faut vraiment voir qu'aujourd'hui, la stabilité des démocraties, la confiance en nos institutions, l'absence de corruption, la capacité de dénoncer, de mettre en avant ces corruptions et de lutter contre, c'est vraiment ce qui protège nos sociétés. C'est ce qui fait que... La démocratie, c'est quelque chose de précieux et de rare dans l'histoire de l'humanité, y compris dans l'histoire de la France. Et donc, avoir un outil qui est capable de... mettre à mal ça, de vraiment détruire cela, ça me semble être extrêmement préoccupant.

  • Speaker #1

    Dans le bouquin, vous dites, pour juger la valeur de la démocratie, il faut se rappeler ce qui s'est passé entre 1789, la révolution, et je ne sais plus jusqu'à où on est allé, mais plus de 100 ans. Oui,

  • Speaker #0

    c'est ça, c'est la question. Quand est-ce que la démocratie est devenue stable en France ? Il y a eu la révolution française en 1789, qu'on célèbre beaucoup, à raison. Mais il a fallu attendre 1870, pour pouvoir avoir une démocratie stable, la Troisième République. Et entre-temps, en fait, il ne s'est pas rien passé. Ce n'est pas juste qu'on a eu un coup de bol, c'est qu'il y a eu beaucoup de compréhension de l'importance de toutes sortes d'infrastructures démocratiques, institutionnelles. Donc, je pense en particulier à l'éducation nationale, à l'indépendance de la justice, à la liberté de la presse. qui sont vraiment des composants indispensables pour avoir une démocratie stable. Malheureusement, le web a beaucoup balayé ça d'un revers de la main, en tout cas sur Internet, et les a affaiblis également en dehors, hors ligne. Ce qui fait qu'il y a beaucoup de travail qui me semble indispensable de reconstruire vraiment ces institutions à l'ère du numérique, de les mettre en ligne, de les renforcer, d'ajouter beaucoup plus de transparence et de reddition des comptes. pour que non seulement ces institutions existent, non seulement soient fiables, mais également soient de confiance et qu'on construise une conscience justifiée par le peuple pour ce genre d'institution.

  • Speaker #1

    Tu as parlé des bauches, de lois, mais aujourd'hui, on est naïf encore en France. Je pense que ça se joue plutôt à l'échelle européenne, c'est ça ?

  • Speaker #0

    Oui, ça se joue beaucoup plus à l'échelle européenne. Donc, il y a différentes régulations. Il y a eu un travail formidable qui a été fait par beaucoup de juristes. Ça a beaucoup avancé. C'est un travail très difficile. Mais il y a beaucoup de choses qui ont avancé, notamment le RGPD, le Règlement pour la protection des données personnelles. Il y a eu ensuite le DSA, le Digital Services Act, le Digital Markets Act, maintenant le AI Act à venir, le Cyber Resilience Act peut-être à venir également. Donc il y a différentes régulations qui ont été mises en place. Pour augmenter la transparence, augmenter la capacité de, par exemple, les lois extraterritoriales sur le stockage des données européennes, le genre de choses qui ont été mises en place. Et il y a eu des amendes qui sont tombées, il y a eu de 1,2 milliard, si je me souviens bien, d'euros d'amende pour Meta, pour avoir stocké des données de citoyens européens sur le territoire américain. Il y a un mec, un peu un super héros dans ce domaine, Max Schrems, qui a beaucoup oeuvré pour faire appliquer ces lois. Et puis il y a aussi beaucoup de lois préexistantes. C'est-à-dire qu'en France, il y a des lois sur l'interdiction de l'appel à la haine, incitation à la haine raciale. Il y a des lois sur les propriétés intellectuelles. Et c'est des lois qui parfois ont été utilisées pour des procès. notamment aux Etats-Unis. En Europe, on a beaucoup plus la tendance à vouloir d'abord bien poser les cadres et ensuite les faire appliquer. Aux Etats-Unis, il y a un peu plus un côté les procès, c'est un peu plus à base de procès, ça pose aussi des problèmes parce qu'il faut être riche pour lancer un procès, mais lancer un procès, c'est beaucoup plus classique et il y a des procès en cours contre Open AI, notamment le New York Times a dit que c'est un peu plus à excuser OpenAI, en particulier chez la GPT, de vol de propriété intellectuelle. Le GPT est capable de donner quasiment verbatim les contenus d'articles du New York Times qui sont sous paywall, donc ça pose forcément des problèmes. Ça veut dire que le paysage juridique est loin d'être vierge. Il y a beaucoup de choses qui peuvent être utilisées. Le plus gros défi, à mon sens, au niveau législatif... Il y a besoin de nouvelles lois, de meilleures lois, ce genre de choses. Il y a aussi des gros problèmes de corruption, j'en ai pas parlé, mais ça mériterait aussi beaucoup de choses. Il y a au moins de lobbying. Le lobbying de Big Tech est énorme à l'échelle européenne et pas que Big Tech. La France aussi a été un moteur énorme pour affaiblir les réglementations à l'échelle européenne. Pourquoi ? Pourquoi ? Parce que d'un côté... D'un côté, on a un président qui est très libéral. D'un autre côté, on a quelques start-up françaises ou pseudo-françaises, on va dire, comme Mistraléa, qui ont été défendues.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et puis, d'un autre côté, il y a aussi tout le côté surveillance pour les Jeux Olympiques. Donc, il y a des problèmes de sécurité nationale qui sont... considérée importante par les dirigeants français qui ont fait que beaucoup de réglementations sur les conditions de surveillance, de cybersurveillance ont été combattues par la France.

  • Speaker #1

    D'accord, il y a eu des intérêts communs entre les big tech et le gouvernement français sur la protection des données. Oui. Ok.

  • Speaker #0

    Mais au-delà de tout ça, ça fait déjà pas mal de problèmes, mais un autre problème, c'est surtout, pour moi, la mise en vigueur, l'application, le enforcement, on dirait en anglais.

  • Speaker #1

    Oui, l'application.

  • Speaker #0

    Le fait que les lois soient vraiment appliquées. Et par exemple, pour moi, un cas concret, chaque GPT viole le plan de loi existante. C'est sûr. C'est tellement sûr que même le PDG d'OpenAid l'a reconnu. Il a dit que ce serait impossible de faire ce qu'on fait sans utiliser des droits qui ne sont pas libres de droits. Des données qui ne sont pas libres de droits. Et donc, la question se pose. Aujourd'hui, dans le numérique, si vous êtes une startup, si vous lancez un produit, il y a vraiment la question est-ce qu'on viole la loi ? Tout le monde le fait. est-ce qu'on reste derrière ou est-ce qu'on n'achète pas aussi des produits qui clairement violent la loi ? La question se pose. Open AI est acheté par beaucoup d'entreprises françaises. Si on a un temps soit peu réaliste par rapport à ça, on sait que ça viole des lois, est-ce qu'on achète des produits dont on sait qu'ils sont illégaux, même si ils n'ont pas été jugés illégaux ?

  • Speaker #1

    Par exemple, dans le livre, vous dites que Open AI a fait du lobbying auprès des députés européens, ça c'est acté quoi.

  • Speaker #0

    Ça c'est acté, ça a été, il y a un article du Time là-dessus, mais ouais...

  • Speaker #1

    Pour édulcorer une loi.

  • Speaker #0

    Pour édulcorer une loi, en fait le plus gros lobbyiste, OpenAI a clairement agi, mais le plus gros lobbyiste, c'est pas OpenAI, c'est beaucoup plus Mistral AI, l'entreprise, alors j'ai dit pseudo-française, parce qu'elle a des investissements américains. Californien depuis le début et que en plus récemment elle a fait un partenariat avec Microsoft. Donc ça pose la question de est-ce que c'est vraiment français.

  • Speaker #1

    Ok. Il y a des pays comme l'Inde par exemple qui ont carrément interdit TikTok. TikTok lui-même je crois qu'il est limité à 40 minutes par jour pour les moins de 14 ans et il est aussi interdit entre 22h et 6h du matin alors en France ça ne serait pas forcément applicable mais là-bas c'est possible en France donc je disais tout à l'heure les ados passent en moyenne 2h par jour, est-ce que c'est des choses qui sont envisageables, les Etats-Unis envisagent par exemple de l'interdire ?

  • Speaker #0

    Oui, j'irais même plus loin juste sur la distinction entre la Chine en Chine en fait ils ont leur propre application TikTok n'est pas utilisé en Chine ils ont une autre application qui s'appelle Douyin et Douyin fait des recommandations très différentes de TikTok ça pose la question, on est en train d'utiliser un produit que le producteur ne veut pas utiliser c'est des recommandations qui sont plus,

  • Speaker #1

    je crois, pédagogiques c'est ça,

  • Speaker #0

    des recommandations plus pédagogiques en fait,

  • Speaker #1

    ils abrutissent tout le monde mais eux, ils ne veulent pas s'empoisonner avec c'est ça,

  • Speaker #0

    c'est un peu ça ça rappelle un peu l'industrie de la drogue...

  • Speaker #1

    Les guerres de l'opium.

  • Speaker #0

    Les guerres de l'opium. Typiquement, un dealer de drogue, peut-être, ne consomme pas autant que les personnes à qui il vend. Et donc, la réponse à ça, ça a été la réglementation. Les drogues sont très régulées. Beaucoup de drogues, en tout cas, sont très régulées dans beaucoup de pays. Et donc, oui, je pense... Après, si en plus on adopte des... si on considère qu'il y a vraiment une guerre cognitive qui a lieu, une guerre d'influence au moins enfin une guerre d'influence je pense que tout le monde s'y accorde et qu'en plus il y a même une guerre de déstabilisation des pays lutte d'influence à l'échelle du pouvoir politique, des partis ainsi que des gouvernements. Je pense qu'il faut être vraiment terrifié par TikTok.

  • Speaker #1

    Comment le Parti communiste chinois utilise TikTok comme une arme ? Par exemple, en Inde, ils l'ont interdit. Il devait y avoir une bonne raison, j'imagine.

  • Speaker #0

    Oui, l'Inde se méfie beaucoup de la Chine. Il y a encore des territoires disputés.

  • Speaker #1

    Mais c'est à cause de ça ? Oui,

  • Speaker #0

    je pense que c'est pas mal lié à ça. Et à l'inverse, la Chine a interdit récemment WhatsApp et Thread.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et ils ont aussi enlevé, enfin, ils n'ont pas communiqué là-dessus, mais il y a eu des applications, je crois que c'est Signal et Telegram, qui ont été enlevées de l'App Store en Chine. Donc, la Chine est vraiment en mode cyberguerre, en mode guerre informationnelle. L'été dernier, Microsoft a attribué à la Chine un hack de leur système massif. En France aussi, il y a cet état d'esprit. Le général Burckhardt, chef d'état-major des armées, disait en 2021, je crois, qu'il faut gagner la guerre avant la guerre. et se préparer au pire. Mais vraiment, gagner la guerre avant la guerre, c'est faire en sorte qu'en termes de lutte informationnelle, on soit solide, on fasse peur, et on ne donne pas envie à quiconque de nous attaquer. Et voir, on montre aux autres qu'on est capable de les déstabiliser. Aujourd'hui, la Russie et la Chine ont des moyens de pression sur les... Ils peuvent déstabiliser vraiment beaucoup de démocraties. Et ça les met en position de force, même pour négocier autre chose, des choses économiques ou autres. Donc si on se place dans un esprit de guerre informationnelle, TikTok est une arme surpuissante. Quand on voit ce qui se passe à Taïwan...

  • Speaker #1

    Ouais, on peut parler de Taïwan. Vous en parlez beaucoup dans le bouquin. Et puis, c'est un point chaud, évidemment, du monde aujourd'hui. Et je pense qu'il résume bien un petit peu ce qui se passe dans le monde entier.

  • Speaker #0

    Oui, Taïwan, c'est... Alors, nous, on prend vraiment ça comme un exemple, parce qu'au cours des dix dernières années, comme je l'ai dit, il y a beaucoup de déclin démocratique. Il y a beaucoup de choses qui sont déprimantes quand on regarde le paysage numérique et démocratique à travers le monde au cours des dix dernières années. Mais il y a Taïwan. Et Taïwan... Donne beaucoup d'espoir, et en particulier beaucoup d'inspiration, parce que ce qu'a fait Taïwan, c'est qu'il y a eu un mouvement étudiant en 2014, qu'on appelle le mouvement des tournesols, et le mouvement des tournesols a beaucoup été porté par des jeunes qui demandaient plus de démocratie, mais également beaucoup par des geeks, des informaticiens, des gens qui sont très à l'aise avec le numérique. Un des aspects au cœur de la stratégie du mouvement des tournesols, c'était d'utiliser le numérique comme une force pour la démocratie, comme une arme démocratique. Et donc ça, ça transparaît dans différentes manières. Par exemple, un des aspects, c'est beaucoup plus de transparence sur les choses qui sont censées être transparentes. Donc le gouvernement français est au service des Français. Il est censé travailler pour les Français. Donc beaucoup de choses que fait le gouvernement français, même par la loi, sont censées être accessibles à n'importe quel Français. Mais aujourd'hui, il y a certains documents qui sont horriblement difficiles à obtenir parce qu'il n'y a pas un système d'information qui a été mis en place pour rendre ces informations très accessibles aux citoyens français. Ça, c'est quelque chose contre lequel Taouan a beaucoup lutté. Par exemple, l'allocation des budgets du gouvernement. ce genre de choses est facilement visualisable sur des sites taïwanais du gouvernement.

  • Speaker #1

    Peut-être je peux abonder par expérience. Par exemple, pour savoir ce qu'a voté un certain nombre de députés, un groupe de députés, loi par loi, etc. C'est possible, techniquement on peut le faire, mais pour récupérer ces données de manière plus industrielle, pour en faire quelque chose, c'est beaucoup plus compliqué et on peut penser que c'est fait à dessein. par le gouvernement pour compliquer les choses.

  • Speaker #0

    Un autre exemple qui a été frappant, c'est le cas de APB, ex-Parcoursup. C'était un algorithme, il y avait un algorithme, en tout cas, dans APB, et l'algorithme n'était pas transparent, n'était pas open, on ne pouvait pas y accéder. Et donc, il y a eu une association de lycéens qui ont demandé à La publication de ce code, qui est vraiment un truc public, qui devrait vraiment être fait en open source, sous licence libre.

  • Speaker #1

    Et qui détermine l'avenir de millions de lycéens.

  • Speaker #0

    Qui détermine l'avenir tellement de jeunes. Et le gouvernement avait envoyé le code de cet algorithme par courrier, par courrier physique. complètement inexploitable, vraiment compliqué. Il y a vraiment un progrès énorme à utiliser beaucoup plus le numérique comme une force pour augmenter la transparence dans ce genre d'initiatives. Un des autres aspects qu'a fait Taïwan, c'est aussi qu'ils ont compris très vite qu'ils étaient en guerre cognitive avec la Chine et qu'ils étaient bombardés par de la désinformation. de Chine. Un des aspects qu'ils ont fait, c'est mettre en place des plateformes de pré-banking, des solutions de pré-banking, de lutte contre la désinformation avant même qu'elle soit consommée autant que possible. Un des aspects intéressants, c'est qu'ils ont intégré une application qui s'appelle Polis, pol.is, qui est une plateforme de délibération qui a été introduite en 2012 pour d'autres raisons. Mais qui a permis, en fait, c'est une plateforme où vous pouvez délibérer, donc avoir un groupe qui va mettre des propositions.

  • Speaker #1

    Une agora citoyenne en ligne.

  • Speaker #0

    C'est ça. Et par contre, il y a des règles un peu spéciales. Je reviens sur le fait qu'algorithme, ça veut dire règle, donc ça régit la manière dont on interagit. Et donc, on peut vraiment réfléchir à des algorithmes démocratiques ou plus démocratiques. Là, en l'occurrence, Polis, ce qu'il faisait, c'est que il... ils ne permettaient pas les réponses. Ça peut être un peu bizarre, mais chacun fait des propositions, et tout ce que les autres peuvent faire, c'est mettre un pouce vers le haut ou un pouce vers le bas. Et donc ça, ça permet de récolter les avis des différentes personnes sur différentes propositions. Et ça permet de construire ensuite une carte de l'ensemble des avis sur différentes propositions. Ça, c'est intéressant pour voir les désaccords, mais c'est intéressant surtout pour voir les consensus, voir les choses sur lesquelles les interventions, qui peuvent être assez radicales, mais sur lesquelles on est tous d'accord. Donc ça a été pas mal utilisé à Taouane, et de façon intéressante, ça a été utilisé aussi récemment en France. Donc il y a eu une expérience qui a été mise en place. Au lendemain, suite aux violences policières, aux conflits violences policières, violences des grands lieux, il y avait des questions de qu'est-ce qu'on fait par rapport à la police, quelles sont les interventions qu'on doit faire par rapport à la police, sujet ô combien controversé qu'ils vont aller.

  • Speaker #1

    Oui, voilà. Donc sur Twitter, par exemple, c'est des embrouilles.

  • Speaker #0

    Sur Twitter, on dit un demi-mot et paf, tout de suite, ça part en flamme. Et néanmoins, ce qui était intéressant avec Police, c'est qu'on a permis de se rendre compte qu'il y avait des consensus. Même sur ce sujet au combien controversé, il y avait en fait des consensus à travers la population et notamment tous voulaient beaucoup plus investir dans la formation des policiers et dans la police de proximité. Et donc, c'est quand même remarquable qu'on peut se mettre tous derrière ces consensus et lutter pour la mise en place de ces consensus et pour le suivi de ces consensus. Et ça fait une action qui non seulement est active, qui va permettre vraiment de faire progresser le sujet, mais qui est aussi unificatrice. On a vu qu'une des grosses stratégies de désinformation des pays étrangers, c'est de pliver, de diviser la population. Donc là, ça permet de beaucoup plus unifier, d'apaiser, et de travailler ensemble pour vraiment améliorer les choses, même si on sait qu'il y a des sujets sur lesquels on n'est pas d'accord.

  • Speaker #1

    Donc là, c'est carrément un négatif de ce qui se passe aujourd'hui sur Twitter. Qu'est-ce qu'on peut faire d'autre ? pour mettre en place ce que vous appelez vous cette gouvernance algorithmique enfin démocratique qu'est-ce que vous proposez en gros ce serait que tous ces algorithmes qui appartiennent à des entreprises privées soient des algorithmes publics à l'échelle mondiale débattus comment ça marche ?

  • Speaker #0

    Il y a pas mal de choses à faire énormément de choses à faire qui peuvent être faites de façon euh... Je veux dire concurrentes au sens... En parallèle, pas forcément en concurrence, en compétition. Et donc un des... Alors, peut-être une chose à dire, c'est que c'est un peu illusoire d'espérer résoudre le problème du jour au lendemain. Donc, il ne faut pas avoir un truc tout fait. Enfin, il ne faut pas espérer avoir un truc tout fait. On va déployer ça demain et tout va être résolu. Donc, il faut vraiment avancer pas à pas, faire des concessions sur le chemin, en espérant atteindre un état qui soit vraiment satisfaisant, in fine.

  • Speaker #1

    Un autre point commun avec le climat, d'ailleurs.

  • Speaker #0

    Un autre point tout à fait avec le climat. Par exemple, une des propositions qu'on fait, c'est beaucoup plus respecter un principe démocratique qui est une personne, une voix. Aujourd'hui, typiquement, ça voudrait dire quoi ? C'est-à-dire que le pouvoir d'influence qu'on a sur l'algorithme soit beaucoup plus une personne, une voix, et en particulier des personnes qui ne sont pas résidents français, on va dire. Les termes peuvent être débattus, ou citoyens français, ou résidents européens. Les termes peuvent être débattus, mais ça serait bien que quelqu'un qui, au moins, ne soit pas humain, n'ait pas un pouvoir disproportionné sur le comportement de ses algorithmes. Aujourd'hui, c'est le cas. On a vu avec Shadjepet et compagnie, il y a des compagnes de désinformation qui ont des armées de faux comptes qui sont capables de manipuler beaucoup plus les algorithmes de recommandation que le citoyen français. Et donc, réarmer beaucoup plus les citoyens français dans le contrôle de ces algorithmes, donc ça c'est une chose.

  • Speaker #1

    En gros dans la vraie vie la démocratie sur ce point de vue là est respectée il n'y a pas de bourrage d'urne en France par des ingérences étrangères mais par contre en ligne il y a un peu ça qui se passe

  • Speaker #0

    Exactement, c'est vraiment cette analogie et donc on peut se demander comment est-ce qu'en ligne on peut faire pour que chacun ait une voix, enfin chaque citoyen en français on va dire, ait une voix et donc il y a des idées, il y a des initiatives comme France Connect qui permettent d'identifier les personnes en ligne Un des problèmes de France Connect, tel qu'il est aujourd'hui, c'est qu'il identifie pleinement la personne en ligne. Donc si on se connectait avec notre compte Google et qu'on certifiait via France Connect qu'on est un citoyen français, Google saura exactement lequel de ces citoyens on est et le gouvernement français saura exactement quel compte Google on a. Et donc il est capable de suivre, de retracer ce que chacun dit et potentiellement, si on n'a pas confiance dans le gouvernement, on pourrait avoir des problèmes. Donc ça c'est une solution qui n'est pas idéale, mais par contre un truc qui pourrait être fait c'est de combiner ça avec des techniques de cryptographie moderne, ce qu'on appelle le zero knowledge proof, la preuve à divulgation nulle de connaissances pour ceux qui connaissent. mais qui permettrait de certifier qu'un compte est possédé par un citoyen français, mais sans que ni le gouvernement ni la plateforme ne sachent quel est ce citoyen en question. Et ensuite, ce qu'on pourrait exiger, c'est que les algorithmes de recommandation, même du privé, même de YouTube par exemple, n'apprennent que des données des citoyens français en France, ou des citoyens européens en Europe, par exemple, quelque chose comme ça. Et donc ça, ça limiterait beaucoup la capacité d'ingérence. des pays étrangers.

  • Speaker #1

    Et une fois qu'on aurait cette possibilité de voter, c'est quoi la suite en fait ? On vote comment ? Pourquoi ?

  • Speaker #0

    Oui. Une autre difficulté, c'est lié à ce dont on a parlé plus tôt, c'est qu'aujourd'hui, c'est un vote des préférences instinctives. Si on fait juste ce que j'ai dit, on risque... diminuerait beaucoup les problèmes d'ingérence étrangère, mais on risque quand même d'avoir le fait que les contenus les plus populaires ne sont pas les sujets importants. Oui. Et donc, si on veut changer cet état de fait, il va falloir faire ce qu'on appelle une démocratie d'évolution, plutôt qu'une démocratie des préférences instinctives.

  • Speaker #1

    Tu disais tout à l'heure, c'est ce que je voudrais voir.

  • Speaker #0

    Vouloir, quelque chose de beaucoup plus réfléchi. Oui. Et c'est des choses qui sont déjà un peu poussées par la démocratie telle qu'elle est aujourd'hui. Par exemple, il y a certaines lois, je ne sais plus le numéro de cette loi, mais il y a une loi qui dit que le jour d'une élection, les partis politiques n'ont pas le droit de continuer leur campagne.

  • Speaker #1

    Même 48 heures, je crois.

  • Speaker #0

    Même 48 heures, oui. C'est une façon de faire en sorte qu'on ne soit pas influencé au dernier moment par la dernière réplique. et qu'on n'ait pas un truc plus instinctif au moment de voter. Donc ça nous force 48 heures où on est un peu plus en mode méditation. Même si, bien sûr, on ne le sera jamais complètement en pratique. Et donc, on pourrait instaurer des choses similaires sur le web. C'est des choses d'initiatives... J'ai l'impression de dire beaucoup de mal des entreprises privées. Enfin, je le fais. Mais il y a eu des initiatives par certaines équipes de ces entreprises privées qui sont très louables. Notamment chez YouTube. Il y avait cette fonctionnalité à un moment où vous pouviez donner, qui existe encore aujourd'hui, où vous pouvez donner votre avis sur une vidéo que vous avez vue la veille.

  • Speaker #1

    D'accord.

  • Speaker #0

    C'est ce genre de mécanisme.

  • Speaker #1

    Donc, en ayant à tête reposée.

  • Speaker #0

    À tête reposée et en ayant passé la nuit, au moins, c'est possible de bien dormir. Et en tout cas, ça fait un jugement d'une autre partie de nous, pas possiblement un parti plus réfléchi. Et donc ce sont des initiatives qui sont intéressantes.

  • Speaker #1

    Il y a Twitter aussi. En gros, je voulais te demander, c'est une question, lesquelles les réseaux sociaux sont les moins pires ? Enfin, on sait que Twitter maintenant, c'est un peu le... C'est à peauri en termes de qualité du débat, mais vous dites dans le livre qu'ils font quand même des choses comme des community notes, et à un moment donné, avant de retweeter, ils nous demandaient si on avait bien lu l'article qu'on retweetait, des choses comme ça. Ça te semble intéressant ? C'est un coup d'épée dans l'eau ?

  • Speaker #0

    Oui, Twitter, en fait, avant l'arrivée de Musk, avait vraiment une équipe de safety qui était très active et très soutenue. C'est vraiment ça, en fait. La question, c'est à quel point est-ce que les équipes d'éthique et de sécurité sont soutenues. Et du coup, ils avaient fait pas mal d'initiatives, et notamment les community notes. Donc, il y a plusieurs aspects intéressants dans les community notes. Donc, ça, c'est les notes contextuelles que vous voyez peut-être parfois si vous utilisez Twitter, qui vont s'attacher à un poste et qui vont être votées par la communauté des community notes. pour savoir quel contenu afficher, donc ça va être typiquement des correctifs, des mises en contexte aussi. Et l'une des approches intéressantes de ces community notes, c'est que c'est une approche démocratique, en sens où ces tuteurs n'ont en principe pas son mot à dire sur quelles sont les notes qui vont être affichées, c'est vraiment les membres des community notes. Il faut candidater. J'ai l'impression que c'est de plus en plus facile de devenir membre des community notes. Et c'est un problème parce que du coup, ça a été complètement infiltré par des campagnes de désinformation. Donc, il y avait des problèmes de sécurité autour des community notes. Mais l'idée de base était intéressante. Et en particulier, un des aspects intéressants des community notes, c'est qu'ils implémentaient cette idée de consensus. C'est-à-dire qu'une note est affichée si elle est jugée consensuellement utile. par la communauté.

  • Speaker #1

    Par des gens qui sont de camps différents. C'est ça,

  • Speaker #0

    des tubors.

  • Speaker #1

    Je ne sais pas trop comment ils définissent les camps, d'ailleurs,

  • Speaker #0

    mais bon. Alors, il y a des façons de... Enfin, à base de machine learning, pour essayer d'identifier ça, mais intuitivement, ce qui se passe, c'est que l'un des problèmes, par exemple, d'une vidéo YouTube, c'est que si vous regardez que le pourcentage de likes, en fait, c'est le pourcentage des likes des gens qui ont vu la vidéo YouTube qui sont souvent des fans de la chaîne. Donc, si une vidéo a un énorme taux de likes, ça ne veut pas dire qu'elle serait consensuellement jugée bonne. Tout le monde l'avait évalué. Mais il y a des techniques, typiquement on peut voir, par exemple dans ce cas, on peut voir si quelqu'un n'a pas du tout l'habitude de consommer cette vidéo, ça regarde même des vidéos qui vont pas du tout dans ce sens, si elle like néanmoins cette vidéo, ça donne un indice que la vidéo sera peut-être consensuelle au-delà, et donc s'il y a pas mal de personnes qui font ça, là on peut commencer à juger le contenu consensuel.

  • Speaker #1

    Peut-être juste sur cette histoire de consensus, je sais que ça peut un peu... On rebutait certains, mais on cherche à créer un consensus, on cherche à arrondir les angles. C'est pas du tout ça, en fait.

  • Speaker #0

    Non, c'est pas du tout ça. Donc, il y a vraiment cette idée de fabriquer le consensus. Et donc là, c'est plus lié à la manipulation. Mais là, l'idée, c'est plus de trouver des consensus qui existent déjà dans la société. Ouais. Et un des aspects importants, c'est qu'on a tendance à tellement sous-estimer ce consensus qu'on ne se rend pas compte qu'il y a des mesures extrêmement radicales qui sont en fait consensuelles. par exemple taxer massivement les milliardaires est très certainement consensuel le problème des inégalités est globalement jugé consensuel ralentir le développement des intelligences artificielles est aussi consensuel y compris chez des gens qui sont enthousiastes de l'IA j'ai donné quelques exemples ici mais il ne faut vraiment pas sous-estimer il ne faut pas opposer consensuel et radical qui va beaucoup plonger les choses merci

  • Speaker #1

    Donc, on a parlé de quelques pistes de solutions. Est-ce qu'il y en a d'autres que tu voudrais aborder ? Est-ce que tu veux nous parler de votre projet Tournesol ? Oui,

  • Speaker #0

    je veux bien parler de ce que je fais, de ce projet qui me tient beaucoup à cœur. Donc, Tournesol, c'est un projet qu'on a vraiment lancé en 2020. C'est vraiment lié à des années de réflexion sur ces sujets. Moi, j'ai fait ma thèse en théorie. des votes notamment, je me suis beaucoup intéressé au scrutin, donc c'est vraiment des sujets qui m'intéressent depuis 15 ans maintenant on va dire et en particulier tournesol c'est vraiment l'appliquer au cas en particulier des algorithmes de recommandation qu'on considère être les plus influents et donc l'idée de tournesol c'est vraiment de faire un algorithme de recommandation donc aujourd'hui on s'intéresse beaucoup aux vidéos youtube exclusivement aux vidéos YouTube. Et donc la question qu'on se pose, c'est si on se mettait ensemble, autour d'une table ou pas, quels seraient les contenus qu'on voudrait recommander le plus aux utilisateurs de TourSol, même au-delà ? Quels sont les contenus qui devraient être le plus recommandés sur Internet ? Un des aspects intéressants de poser la question comme ça, c'est que les vidéos vont forcément être en concurrence parce que l'attention est limitée. Et donc il ne s'agit absolument pas juste de noter la fiabilité d'une vidéo. La question ce n'est pas est-ce qu'une vidéo est vraie ou fausse, la question c'est à quel point elle devrait être plus recommandée que d'autres vidéos. Et donc pour pouvoir obtenir cette information, ce qu'on fait c'est qu'on demande aux utilisateurs des jugements comparatifs. Donc on leur demande de sélectionner des vidéos sur YouTube. Donc n'importe qui peut créer un compte sur Tournesol. Et ensuite, choisir des vidéos, n'importe laquelle vidéo sur YouTube, l'importer du coup sur Tournesol, et dire entre deux vidéos qu'il a vues par exemple, laquelle devrait être plus souvent recommandée par l'algorithme de Tournesol. Et c'est intéressant parce que ça force des arbitrages entre des vidéos sur des sujets radicalement différents.

  • Speaker #1

    On compare les choux et les patates un peu.

  • Speaker #0

    On compare les choux et les patates, mais on est un peu obligé parce que l'espace informationnel est limité.

  • Speaker #1

    Autant dans le climat, on perçoit des améliorations, des tendances, des courbes qui fléchissent. Autant sur les algorithmes, donc Twitter, il y avait du mieux, puis ça a été racheté. Il y a 6 000 personnes qui ont été virées sur 8 000, ou un truc comme ça. Facebook, je crois, a viré aussi son comité éthique, c'est ce que vous dites dans le livre. TikTok est plus grand que jamais, et c'est pire que ses prédécesseurs. En gros, on connaissait Instagram pour le mal-être que ça donnait notamment aux adolescentes. TikTok, c'est pire carrément. Ils shadowban les filles qui sont moins belles et mettent en valeur celles qui sont plus belles, donc en gros voilà. Là pour le coup on est un peu dans chaque jour est pire que le précédent. Qu'est-ce qui... qu'est-ce qui pousse votre équipe à faire un petit projet, enfin petit, je veux dire, en toute... C'est pas pour dénigrer le projet qui est beau, mais je veux dire, il n'a pas le budget de YouTube, de TikTok, il n'a pas un parti derrière qui le pousse, etc. Qu'est-ce qui vous donne envie de continuer ? Et peut-être pour les gens qui nous écoutent, qui ont des enfants notamment, on n'a pas parlé des enfants, mais bon, c'est les principales victimes. qu'est-ce qui pousse à entrevoir peut-être ou pas un avenir plus radieux ?

  • Speaker #0

    Donc ça, c'est vraiment la troisième partie de notre livre. Et c'est vraiment Jean-Loup qui a vraiment beaucoup mûri ses idées et qui m'a beaucoup convaincu. Et c'est une difficulté qu'on a vraiment au quotidien. Je prends tous les jours quasiment des gifles en me disant En fait, c'est pire que ce que je croyais, les choses vont mal. Je reçois aussi beaucoup de choses... Ce qui vaut dans le bon sens. Tout n'est pas négatif, loin de là. Il y a beaucoup de bonnes initiatives, ne serait-ce que les régulations à échelle européenne. De plus en plus de chercheurs s'intéressent à tout le sol. Donc il y a aussi beaucoup de signaux positifs. Maintenant, je vais être très honnête, je ne vois pas comment les choses vont pouvoir ne pas se dégrader dans les mois et les années à venir. La trajectoire est extrêmement préoccupante et l'inattention est encore gravissime. La disproportion des moyens est juste effrayante, y compris au niveau de la recherche.

  • Speaker #1

    Juste une petite parenthèse, excuse-moi de te couper, mais on invite encore quelqu'un comme Yann Lecun, qui travaille sur l'intelligence artificielle chez Facebook, qui est contributeur de... À son échelle, évidemment, mais quand même une belle échelle, c'est Facebook, de tout ce qu'on vient de raconter. Et qui est invité dans les médias, et de tous les médias pour le coup, Mediapart, n'importe même ce qu'on pourrait penser un peu plus zérudit. Et il est invité comme un chercheur indépendant, etc. Donc en fait, il a ses...

  • Speaker #0

    Directeur de la recherche chez Facebook. Imaginez inviter le directeur de la recherche chez Total Energy de vous parler de la régulation de la taxe carbone. Oui. sans être contradié, sans être signalé chercheur de Total Energy. C'est l'état des choses aujourd'hui. C'est pour ça que ça rend très... Ça force à être très pessimiste. La trajectoire n'est vraiment pas bonne. Moi, je ne m'attends pas à ce que les choses s'améliorent dans l'année à venir ou dans les quelques années à venir. Mais j'espère qu'il y ait beaucoup de mobilisation pour atténuer la catastrophe. Une analogie évidente avec le changement climatique. C'est qu'il faut vraiment comparer à l'alternative où vraiment personne n'agirait, personne ne se combattrait la tendance actuelle. À ce moment-là, les choses pourraient être bien pires. Et moi, je vois quand même beaucoup de gens se mobiliser sur les questions algorithmiques. Pas assez. Mais de plus en plus, notamment les chercheurs s'intéressent de plus en plus à ces questions, les journalistes s'intéressent de plus en plus à ces questions. Il y a de plus en plus de commissions qui sont mises en place. Donc même les politiciens, pas suffisamment encore une fois à mon goût, mais s'intéressent de plus en plus à ces questions. Et du coup, on atténue une catastrophe. Les États-Unis vont peut-être interdire TikTok. Donc il y a quand même des choses qui vont dans le bon sens. Donc j'ai envie de dire, chaque dixième de degré compte, comme pour le climat. Et si on peut éviter que l'extrême droite monte trop vite aux prochaines élections européennes, ce sera toujours ça de gagné, même s'ils vont probablement pas mal monter par rapport aux précédentes. Donc chaque deuxième degré compte, c'est une des raisons pour lesquelles on se bat, et ça protège des vies. Et puis l'autre raison qui est beaucoup plus inspirante à mes yeux, même si elle est moins... moins concrète, on va dire, c'est le fait qu'à travers Tournesol, à travers toutes ces réflexions, à travers la recherche sur ces domaines, on contribue à concevoir des briques élémentaires qui pourront être réutilisées par les démocraties lorsqu'elles seront prêtes. Il faut bien voir que ces briques n'existent pas aujourd'hui. On n'a pas les outils aujourd'hui pour pouvoir passer à une démocratie numérique, même si on le voulait. C'est un des trucs très frustrants. C'est que Tournesol, ça fait trois ans qu'on travaille dessus, c'est construit à partir de des décennies de recherches sur le sujet, mais c'est très insuffisant ce qu'on a fait.

  • Speaker #1

    Pour faire encore un parallèle, c'est comme si aujourd'hui on n'avait pas... on n'avait pas de panneaux solaires, d'éoliennes et de soins nucléaires.

  • Speaker #0

    Et qu'on nous demandait une transition énergétique. Ce serait bien de développer ces outils. On les a beaucoup développés. Et puis même si on les avait aujourd'hui, réduire les coûts reste un enjeu énorme. Après, ça passera plus aux problèmes d'industrialisation. Malheureusement, je vais vous dire qu'on n'est pas encore nous dans le monde numérique. Mais voilà, il y a une trajectoire également qu'il faut suivre. Et donc, travailler sur l'élaboration de ces outils, Paul East n'a pas été développé pour Taïwan, mais beaucoup il est Taïwan. Donc, si on pouvait avoir un algorithme de recommandation qui sera utilisable, qui sera beaucoup plus sécurisé, avec typiquement les choses de proof of...... de citoyenneté française en ligne qu'on développerait en France, ça, il faut absolument les rendre open source et libres d'accès parce qu'il faut que toutes les démocraties les utilisent. Et ça, ça renforcera tout le monde et à long terme, à moyen terme, peut-être, en espérant, ça pourra beaucoup remporter nos démocraties et construire des gouvernances en lesquelles on a confiance. Ce qui, aujourd'hui, malheureusement, est encore difficile.

  • Speaker #1

    Merci, Lé.

  • Speaker #0

    Avec plaisir.

Share

Embed

You may also like

Description

Dans cet épisode, nous parlons des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des États autoritaires et ont pour objectif de retenir le plus possible notre attention. Les conséquences pour nous, individus, mais aussi nos sociétés sont énormes : détérioration de la santé mentale, de la cohésion sociale, ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lê Nguyen Hoang. Il est chercheur en intelligence artificielle, co-auteur du livre “La dictature des algorithmes”.


L’IA, pire que le climat ? C’est le thème de ce nouvel épisode d’Échange Climatique.


Infos: https://linktr.ee/echangeclimatique

Contact: echangesclimatiques@gmail.com

Production: https://onetwo-onetwo.com/


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Si j'ai lancé ce podcast, c'est parce que je ressentais le besoin d'alerter sur le changement climatique. Et c'est pour cette même raison qu'aujourd'hui, on va parler d'intelligence artificielle. Mais pas de générateur de textes ou d'images comme ChatGPT ou Midjournée, parce que vous en avez déjà beaucoup entendu parler, et aussi parce que je pense qu'il y a plus grave. Je veux parler des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des états autoritaires, et ont pour objectif de retenir notre attention le plus possible. Les conséquences pour nous, individus ou nos sociétés, sont éliminantes. D'intérioration de la santé mentale, de la cohésion sociale... ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lei Nguyen-Wang. Il est chercheur en intelligence artificielle et co-auteur du livre La dictature des algorithmes L'IA, pire que le climat, c'est le thème de ce nouvel épisode d'Échange climatique. Bonjour Lei.

  • Speaker #1

    Bonjour !

  • Speaker #0

    Je sais que ce n'est pas une question facile, est-ce que tu peux nous dire ce que c'est qu'un algorithme de recommandation ?

  • Speaker #1

    Ouais, peut-être même encore plus facile qu'un algorithme. Un algorithme, c'est un ensemble de règles, c'est une suite d'instructions. C'est vraiment un synonyme de règles, instructions, procédures, protocoles, toutes ces choses qui décrivent des suites de choses à suivre. Et en particulier les algorithmes de recommandation, donc vraiment c'est ceux qu'on considère être les plus importants dans notre livre avec Jean-Louis Fourquet. Donc pour vraiment le comprendre, il faut vraiment se rendre compte que l'utilisation aujourd'hui du numérique, c'est vraiment beaucoup plus le téléphone. La plupart du temps, il y a 7 fois plus de vues sur téléphone, de vues YouTube sur téléphone, que de vues YouTube sur laptop, enfin desktop. Sur téléphone, le truc c'est que c'est très difficile de taper, c'est plus compliqué de taper que sur un ordinateur. Et du coup les gens vont être beaucoup moins dans la recherche. En fait ça fait depuis 2016 qu'il y a plus de vues sur Youtube que de recherches sur Google. Vous pensez que Google est le portail du web, c'est une vision très vieille en fait, très erronée aujourd'hui de l'utilisation du web. Et donc la plupart du temps, quand on utilise le web, quand la plupart de nos concitoyens naviguent sur, utilisent le numérique, ils sont sur un téléphone en train de cliquer, de swiper, de scroller. Et à chaque fois qu'on fait ces actions... enfin pas à chaque fois mais la plupart du temps, sur les réseaux sociaux, quand on clique sur l'application de réseaux sociaux, qu'on scrolle, qu'on swipe, il y a un algorithme de recommandation qui va répondre à notre action. Ce sont ces algorithmes qui vont choisir, par exemple sur un réseau social, sur TikTok, à chaque fois que vous vous swipez, c'est un algorithme de recommandation qui va choisir quel contenu va être diffusé juste après sur votre téléphone.

  • Speaker #0

    Du coup, ces algorithmes, quels sont leurs buts ? J'imagine qu'il y a le but officiel, on va dire, qui était de proposer le meilleur contenu à l'utilisateur. Pourquoi les entreprises les ont mis en place ? Qu'est-ce que c'est qu'un bon algorithme d'un point de vue de l'entreprise ?

  • Speaker #1

    Même officiellement, déjà, ils ont un peu basculé. YouTube, je crois que c'est vers 2019, ont commencé à parler du fait que leur... maximise ce qu'ils appellent le user engagement, l'activité de l'utilisateur sur la plateforme. Et en tout cas, ce qu'on peut inférer de la manière dont ça fonctionne, c'est que vraiment, il y a une dimension de captation de l'attention qui est énorme. Et ça, c'est vraiment très lié au modèle d'affaires. Aujourd'hui, le numérique, beaucoup de très grandes entreprises du numérique, c'est Google, Facebook, TikTok, Twitter ou autres, ces grandes entreprises numériques, leur modèle d'affaires, c'est la publicité ciblée. Et si on veut vendre des publicités ciblées, il y a deux choses à faire. La première, c'est d'avoir l'attention des utilisateurs pour pouvoir montrer des publicités. Et après, la deuxième, c'est d'être capable de cibler, et ça, ça va impliquer... la collecte massive d'informations sur différents utilisateurs, et ensuite la conception d'algorithmes qui sont capables d'utiliser ces données pour savoir quelle est la publicité qui sera la plus efficace pour les différents utilisateurs.

  • Speaker #0

    Ici, on est sur une chaîne de climat. Forcément, on va aborder ce thème un mot en autre. Toi aussi, tu es très conscient des problèmes du changement climatique. Tu fais beaucoup aussi à l'échelle individuelle. Je crois que j'ai entendu que tu prenais que des douches froides.

  • Speaker #1

    Oui, pas que, parce que parfois il y a des contextes où après un match de foot, il n'y a qu'une douche et elle est chaude. Mais oui, chez moi, je prends que des douche-froid.

  • Speaker #0

    Et en gros, pourquoi je te pose cette question, c'est parce que je voudrais savoir si tu es plus inquiet par rapport au climat. ou par rapport aux algorithmes de recommandation ?

  • Speaker #1

    Moi, je suis clairement beaucoup plus inquiet par rapport aux algorithmes de recommandation assez largement. Mais il n'y a pas besoin d'en arriver là. Je pense qu'un écologiste doit se préoccuper des algorithmes de recommandation, même si sa préoccupation principale, c'est le climat. Ça, on le voit très bien sur Twitter. Sur Twitter, il y a eu une désertion des scientifiques du climat parce que les scientifiques du climat ont subi des vagues de harcèlement sur Twitter. Et du coup, la production d'informations, la qualité informationnelle sur les sujets du climat sur Twitter a été complètement ravagée. Ça, on le voit également sur des plateformes comme TikTok où des sujets climato-dénialistes sont très mis en avant. Il y a très peu d'audits. Et du coup, la lutte informationnelle, parce que finalement le climat c'est en grande partie une lutte informationnelle, la raison pour laquelle on fait un podcast, enfin, peut-être pas ce podcast, mais la raison pour laquelle tu fais cette émission, c'est pas mal pour des raisons de sensibilisation sur les sujets climatiques, et il y a des gros problèmes aussi de qualité de l'information, même au sein du mouvement écologiste, et donc l'information est vraiment clé, et donc il y a une lutte informationnelle, et l'arbitre aujourd'hui de l'information... Ce sont les algorithmes de recommandation. C'est pour ça que même si on est terrifié par le climat, uniquement, les algorithmes de recommandation devraient être un aspect important de la réflexion sur la lutte climatique.

  • Speaker #0

    Tu viens d'en parler un petit peu, mais comment est-ce que les algorithmes concrètement affectent la lutte contre le changement climatique ? Est-ce que c'est en partageant un maximum de fake news, par exemple ?

  • Speaker #1

    Il ne faut vraiment pas réduire ça au problème des fake news. C'est un aspect, en effet, il y a encore beaucoup de climato-dénialisme sur différents réseaux sociaux. Ça me permet de parler d'un autre aspect important de la désinformation, des stratégies de désinformation en ligne. C'est qu'une façon de désinformer, ce n'est pas de produire des fausses informations, mais d'amplifier massivement ceux qui produisent un discours qui va dans l'autre sens. Une des choses qu'on voit beaucoup, c'est des agences spécialisées dans la création, la crédibilisation et la mise en activité d'un grand nombre de faux comptes sur les réseaux sociaux qui vont se mettre typiquement à liker, à retweeter, à partager des contenus qui vont dans leur sens ou qui commencent à aller dans leur sens. avec notamment une intention non seulement d'amplifier ces contenus mais aussi de manipuler les créateurs de contenu donc ça on le voit vraiment, je pense que c'est un des aspects les plus importants en fait c'est la manipulation des créateurs de contenu pas forcément de la consommation, pas directement de la consommation mais plus des gens qui produisent l'information. Parce qu'on le sait très bien en tant que youtubeur, on est encore plus, si notre salaire dépend du nombre de vues que l'on fait, on est très sensible à ces chiffres. Du coup, si on voit que notre contenu fait plus de vues lorsqu'on parle d'un sujet, ça va nous pousser consciemment ou inconsciemment à parler davantage de ce sujet.

  • Speaker #0

    Derrière, est-ce qu'on peut dire qu'il y a des compagnies pétrolières qui font la stratégie du doute ou alors c'est juste que ça marche et donc Google le met en avant ?

  • Speaker #1

    C'est difficile de savoir exactement ce que fait l'industrie du doute aujourd'hui parce qu'ils ont aussi tout intérêt à ce qu'on ne le sache pas. Mais on sait ce qu'ils ont fait. Il y a beaucoup de choses qu'ils ont fait dans le passé qui sont très documentées. Je vous renvoie vers le livre du marchand de doute qui documente beaucoup de stratégies de ce style. Mais dans le cas de l'intelligence artificielle, qui est beaucoup plus mon domaine, on sait qu'il y a eu des interventions explicites des grandes entreprises de la tech pour modifier la manière dont les scientifiques s'expriment dans les publications scientifiques. Google a demandé explicitement à ses propres chercheurs d'adopter un ton positif sur la recherche en intelligence artificielle pour ne pas parler des risques, ainsi de suite. Moi, j'ai un article de recherche co-écrit avec un chercheur de Google. dont la publication a été retardée de plus d'un an et demi par le processus de revue en interne de Google qui ne voulait pas qu'on soumette un article qui soulignait les problèmes de sécurité qui sont très importants à mettre en avant de ces systèmes. Et donc, d'habitude, je dis plus qu'il faut regarder ce qui est fait dans le monde du climat pour deviner ce qui se fait dans le monde de la tech. J'ai envie de dire, il faut faire l'inverse. Sachant ce qui se fait dans le monde de la tech, il faut s'attendre à ce que toutes les industries, y compris pétrolières, utilisent des stratégies de la sorte.

  • Speaker #0

    Et or, dans la recherche sur les algorithmes, ce sont majoritairement financés justement par les big tech. Ce n'est pas comme si c'était du 50-50.

  • Speaker #1

    Ah oui, dans le monde de la big tech, c'est vraiment catastrophique. C'est-à-dire que, par exemple, si on prend le tabac également, le tabac... Dans les pires heures du lobby du tabac, il y avait 10% des chercheurs qui étaient financés par l'industrie du tabac et ils ont trouvé ça scandaleux. Aujourd'hui, dans le monde de Big Tech, en intelligence artificielle, en gros, l'écrasante majorité, si ce n'est la quasi-unanimité des chercheurs, ont des conflits d'intérêts avec Big Tech. Ça peut être des financements directs, ça peut être des financements indirects. En France, il y a des systèmes de thèse-chiffres qui font que beaucoup de chercheurs ont des doctorants qui sont payés par Big Tech. Et si on a un bon superviseur de thèse... et qu'on se préoccupe, ce n'est pas le cas de tous les super-gérards des thèses, mais si on se préoccupe vraiment du bien-être de son étudiant en thèse, forcément, le conflit d'intérêt va être énorme parce qu'on ne veut pas que mettre en danger son propre étudiant. Donc, c'est là où c'est assez vicieux.

  • Speaker #0

    On a parlé tout à l'heure des fake news. Dans votre livre, vous parlez aussi des mute news. Qu'est-ce que ça veut dire concrètement concernant, par exemple, le climat ?

  • Speaker #1

    Oui, donc ça c'est un des autres aspects. J'ai parlé de la mise en avant des contenus problématiques, mais une autre façon... Et ça, ça conduit aussi au fait que les contenus qui sont en concurrence auront moins de visibilité. Donc ça vient du fait que l'attention humaine est limitée et qu'il y a une guerre de l'attention. Et si on est militant écologiste, mais militant à peu près de n'importe quelle cause, on se rend compte qu'en fait, une grosse partie du militantisme, c'est capter de l'attention. Et donc, si on n'y arrive pas, c'est que notre cause est, en tout cas selon le militant, une newt news, en le sens où c'est une nouvelle qui ne reçoit pas assez d'attention et qui est rendue silencieuse, notamment par la compétition, la concurrence ou l'arbitrage qui peut être fait notamment par les algorithmes de recommandation. Donc ça, c'est un aspect assez important à comprendre. Aujourd'hui, une proportion, à mon sens, déraisonnable de l'attention sur les problèmes informationnels en ligne sont portés sur les fausses informations, les fake news, ce genre de choses. Mais si on considère qu'en fait le problème des mute news est plus important encore, par exemple l'inattention au climat, ou l'inattention aux algorithmes de recommandation, ou l'inattention à la cybersécurité, en fait notre combat n'est plus sur la vérité de l'information. Notre combat, c'est sur mettre en avant, prioriser des messages qui sont plus importants que d'autres messages potentiellement factuels, mais qui nous semblent d'importance moindre.

  • Speaker #0

    Typiquement, là, c'est la campagne des élections européennes et on parle très peu des algorithmes.

  • Speaker #1

    Oui, typiquement, sur les élections européennes, alors que c'est un enjeu énorme. Aux États-Unis, il y a un ultimatum qui a été passé à TikTok, donc la question monte un petit peu. Il y a eu des problèmes de cybersécurité énormes autour de Microsoft. qui ont mis en danger vraiment la sécurité nationale, puisqu'il y a des gouvernements... De France ? Non, je parle aux États-Unis. Mais en France, on utilise beaucoup Microsoft. Donc, on est aussi client beaucoup de Microsoft. Et malheureusement, le manque d'attention à cela est très grand. Et puis après, sur les algues de recondondation, malheureusement, je pense que là, on peut vraiment parler d'une mutinuse énorme.

  • Speaker #0

    Je pense qu'on l'a compris. Jusqu'à présent, on a parlé surtout des algorithmes de recommandation. Quand on parle d'IA, on parle plutôt des IA génératives comme ChatGPT, MidJournée. Pour toi, là aussi, on met beaucoup trop d'importance sur ces ChatGPT, MidJournée, que sur les algorithmes de recommandation.

  • Speaker #1

    Oui, donc pourquoi est-ce qu'on pense que c'est beaucoup plus dangereux les algorithmes de recommandation ? C'est parce qu'encore une fois, c'est ceux qui interagissent vraiment avec la plupart des humains. Parler à chat GPT sur un téléphone, ça reste plus compliqué que de swiper ou scroller sur une application TikTok. Après, je ne veux pas minimiser l'importance non plus de ces autres problèmes. Chat GPT est en train de créer toutes sortes de problèmes, notamment parce que c'est réutilisé massivement par le cybercrime, et notamment par la désinformation, le cyberharcèlement. ce genre de choses.

  • Speaker #0

    Pour créer des faux comptes.

  • Speaker #1

    Pour créer des faux comptes, automatiser la création de faux comptes, ainsi de suite. Et les algorithmes générateurs d'images sont encore plus préoccupants, à mon sens, en termes de risque systémique pour la société, à travers le problème des deepfakes pornographiques. Ça, c'est un problème qui monte déjà. Il y a déjà beaucoup de cas aux Etats-Unis. Mais il faut imaginer que si n'importe quel gamin a accès à la capacité, en quelques clics, à faire des defects pornographiques de ses camarades de classe, on risque d'observer beaucoup de traumatismes psychologiques. Il faut vraiment voir que ces armes sont des armes de destruction psychologique qui ont déjà été utilisées massivement contre des journalistes femmes. C'est aussi un moyen d'intimidation et de déstabilisation qui, à mon sens, est extrêmement préoccupant.

  • Speaker #0

    On va revenir sur les algorithmes de recommandation. Je ne connais pas les chiffres et puis je pense qu'il faut les prendre avec des pincettes, mais je crois qu'un adolescent aujourd'hui passe en moyenne deux heures sur TikTok par jour, seulement sur TikTok. Donc il faut rajouter les autres réseaux sociaux. Moi, j'ai supprimé mes applications où il y avait un algorithme de recommandation. Donc j'ai supprimé Twitter, Instagram, TikTok que je n'avais pas, YouTube à cause des shorts notamment. qui me prenait beaucoup trop de temps, mais parce que j'avais ce truc que dès que mon micro-ondes tournait, que je devais attendre 30 secondes pour chanter le téléphone, dès que j'attendais mon ascenseur qui arrive, je chantais mon téléphone, ça devenait un peu compulsif et donc je suis loin d'être le seul. Qu'est-ce qui se passe dans notre cerveau pour que les algorithmes de recommandation arrivent à nous happer aussi efficacement ?

  • Speaker #1

    Ça, c'est vraiment une question pour un psychologue, idéalement. C'est des questions qui sont vraiment...

  • Speaker #0

    Mais dans le livre, vous parlez de système 1, système

  • Speaker #1

    2. Oui. Mais en tout cas, ce que disent les psychologues, c'est vraiment qu'un des aspects de ces algorithmes, c'est vraiment qu'ils sont optimisés pour capter l'attention. Et ce qu'on sait également, c'est que Google a embauché beaucoup de psychologues pour pouvoir... être aussi bon que possible à cette tâche. C'était pas mal révélé par un ancien de Google, Tristan Harris. Notamment, ils avaient beaucoup d'inspiration des jeux de casino, des machines à sous. Les machines à sous, ça paraît vraiment... pas être le truc super sophistiqué a priori, mais il y a quelques principes de base qui font que ça suffit à être à rendre accro un grand nombre d'utilisateurs et qui sont prêts même à mettre leur vie en tout cas au moins leur finance en danger à cause de ces mécanismes psychologiques Et donc, il y a une grande préoccupation de beaucoup de psychologues sur le fait que ces systèmes sont en train d'amplifier massivement, voire de créer d'une certaine manière, une grosse partie de la crise mentale qui est vraiment montante aujourd'hui, surtout chez les jeunes générations.

  • Speaker #0

    Et dans le livre, par exemple, vous dites que quand... On télécharge une app et qu'on se crée un compte. On doit suivre, par exemple, des 2-3 comptes, histoire que l'app comprenne, sans rien savoir de nous, quelles sont les grandes directions vers lesquelles elles doivent nous amener. Par exemple, sur TikTok, il faut suivre 2-3 comptes au début, je crois, sur Twitter. Donc, on peut choisir des tweets qui parlent de science, d'histoire, de... Et en fait, c'est plutôt notre... côté raisonné dans le livre, vous avez appelé ça le système 2 celui qui prend un peu de temps avant de s'exprimer et en fait très vite on remarque avec l'onglet For You notamment, enfin pour toi notamment de, je crois qu'il a été inventé par TikTok et qui a été repris depuis par Twitter et aussi les shorts aussi, en fait ne prennent pas du tout en compte ce qu'on leur a dit mais plutôt nous proposent des vidéos qui vont plaire à un autre côté de notre cerveau qui est lui beaucoup plus instinctif.

  • Speaker #1

    Oui, tout à fait. Encore une fois, le système 1 est beaucoup plus réactif. Système 1, système 2, c'est une terminologie qui vient de Daniel Kahneman, qui est malheureusement décédé récemment. C'est vraiment cette idée qu'il y a une partie de notre cerveau qui réagit beaucoup plus de façon peu réfléchie, instantanée sur le moment. On le voit vraiment sur le téléphone quand on est fatigué et tout ça. On a tendance à avoir une utilisation des réseaux sociaux qui est... pas vraiment ultra raisonnée et dans le livre on le distingue pas mal de ça, de ce qu'on appelle parfois l'abolition c'est ce qu'on voudrait vouloir, donc l'exemple que je prends tout le temps c'est pour moi les vidéos de football c'est vraiment ça donc une vidéo de football c'est une vidéo que je veux voir et je clique souvent dessus et malheureusement j'ai des marées de passer après des heures dessus et être fatigué et à pas dormir euh Et à l'inverse, je voudrais vouloir ne pas avoir cette envie. Je voudrais ne pas vouloir cliquer sur cette vidéo. C'est un peu une réflexion du second ordre. Et donc, d'une certaine manière, les réseaux sociaux aujourd'hui sont, si j'oublie le problème des faux comptes et du potentiel biais introduit par les développeurs à l'intérieur de ces algorithmes, j'oublie pas mal de choses, mais si j'oublie ça, les algorithmes sont en un sens assez démocratiques déjà. dans le sens où ils font voter de certaine manière la population ils font sortir ce qui est populaire mais un des problèmes c'est que c'est un vote vraiment des systèmes 1 c'est un vote des réflexions des préférences instinctives Et ce qu'on voudrait peut-être plus pour nos démocraties, pour bien gouverner nos sociétés, en tout cas la priorisation d'informations dans nos sociétés, c'est peut-être beaucoup plus un vote des parties réflexives, d'évolution réfléchie. Et donc, il faut mettre en place beaucoup de choses pour en arriver là. Mais malheureusement, aujourd'hui, avec les modèles économiques les plus lucratifs aujourd'hui et l'absence de régulation, ça fait que les systèmes qui vont miser beaucoup plus sur la partie préférence instinctive sont beaucoup plus... plus utilisés.

  • Speaker #0

    Parce que le problème c'est que tous ces apps sont en compétition les unes les autres donc il y a un peu un dilemme du prisonnier, si Youtube se met à promouvoir du contenu beaucoup plus pédagogique du coup que ça marche un peu moins bien au niveau des chiffres, les gens vont se tourner sur TikTok et au final Youtube aura tout perdu et ça aura servi pas grand chose.

  • Speaker #1

    Il y a un problème vraiment similaire au climat en termes de coordination et... Et en particulier, le problème dans les deux cas réside beaucoup dans ce que les économistes appellent les externalités négatives. Donc les externalités négatives, c'est quoi ? C'est quand il y a un échange de biens entre un producteur et un consommateur, mais qu'il y a une pollution qui va affecter le reste de la population ou une autre sous-partie de la population. Et donc ça, on le voit beaucoup sur les réseaux sociaux. C'est-à-dire que peut-être qu'à la limite, certains sont prêts à utiliser... Peut-être vouloir vraiment utiliser les réseaux sociaux en tant que distraction. Mais ce qui est dérangeant, c'est plus quand Facebook recommande des appels à la haine ou au meurtre ou de la désinformation sur des sujets importants comme le climat, à d'autres personnes massivement. À ce moment-là, le producteur ou même le diffuseur sont contents, ils ont produit le contenu, ils ont été rémunérés. Le consommateur est content, il a consommé un truc qui lui a fait plaisir. Mais par contre, le reste de la société va subir les conséquences parce que ça va appeler à la haine. Potentiellement, le reste de la société... On prend en introduction le cas des Rohingyas au Myanmar où les Rohingyas ont subi un génocide, notamment parce que, d'après un site international, Facebook avait contribué à amplifier massivement auprès des Birmans des appels au meurtre envers les Rohingyas.

  • Speaker #0

    Sans le vouloir, mais parce que ça faisait du chiffre.

  • Speaker #1

    C'est ça. Là où l'accusation est forte, c'est que Facebook a été mis au courant de manière répétée depuis 2012 de ce problème. Et Facebook n'a pas... pris les mesures, pas du tout pris des mesures satisfaisantes pour pouvoir contrer ce problème.

  • Speaker #0

    Donc, en fait, un peu en toute impunité, et c'est ce qui fait aussi que ce problème des big tech est un peu une mute news, parce que si ça arrivait, je ne sais pas, sur un médicament ou sur une marque d'avion, au hasard, Boeing, qui se crache tous les 4 matins, on en parlerait tout le temps. Alors que là...

  • Speaker #1

    Là, on parle d'un génocide, donc c'est grave. Mais c'est un génocide lointain, donc peut-être que malheureusement, beaucoup de gens ne sont pas ultra sensibilisés à cela, ou s'en manquent un petit peu. Mais dans le cas de la France, ou en tout cas de nos démocraties, on voit un affaiblissement des démocraties généralisées. Et là où c'est vraiment préoccupant, et là ça va me permettre vraiment de répondre à la question pourquoi est-ce que les algorithmes de recommandation me préoccupent beaucoup plus que le climat, c'est qu'en termes d'échelle de temps, on voit que depuis 2012, il y a eu un déclin des démocraties, au lendemain des printemps arabes, et que ce déclin s'accélère. Et que vraiment, on parle de montée de populisme, de montée de régime autoritaire, déclin des institutions, de la confiance dans les institutions. Et on voit vraiment concrètement avec des exemples spectaculaires. aux États-Unis, au Brésil, en Argentine, en Italie, en Hongrie. Malheureusement, la liste des exemples, ce n'est pas du tout ce qui manque. Et donc, le déclin des démocraties, pour moi, c'est vraiment une préoccupation énorme qu'il faut avoir. C'est pour ça que je pense que c'est un problème plus important aujourd'hui que le changement climatique. On parle vraiment des prochaines européennes, des prochaines élections à travers le monde, des prochaines élections aux États-Unis qui peuvent complètement changer le paysage géopolitique. Et à cela, en plus, se rajoute de la haine inter-pays. C'est un peu intra-pays, mais inter-pays. On a de plus en plus de guerres à travers le monde, mais également des tensions exacerbées. avec des risques de conflits, d'escalade. Sachant tout ça, je considère que les algorithmes de recommandation sont beaucoup plus préoccupants aujourd'hui que le climat.

  • Speaker #0

    Comment on attribue ça ? Ce n'est pas la seule cause. Trump, c'était déjà un farfelu avant qu'il y ait les algorithmes de recommandation. Mais comment on attribue ça aux algorithmes ? Est-ce que c'est parce que les algorithmes... ont compris, consciemment ou pas, qu'une des émotions qui crée le plus de user engagement, comme tu disais au début, c'était les émotions négatives et notamment la colère.

  • Speaker #1

    Oui, donc ces systèmes, il ne faut vraiment pas les sous-estimer. Les systèmes d'intelligence artificielle sont extrêmement sophistiqués. Ce sont les intelligences artificielles, dans le sens les plus sophistiquées, beaucoup plus sophistiquées encore que chez la GPT, notamment parce qu'elles font du profilage psychologique de 2 milliards d'humains. Elles ont appris à voir ce qui fait réagir. Elles ont fait énormément de, ce qu'on appelle en jargon, du A-B testing. Elles ont testé beaucoup. Elles ont testé, qu'est-ce qui se passe quand je recommande ça, quand je recommande ci. Et petit à petit, elles ont appris ce qu'on appelle des features, des caractéristiques des contenus qui font que telle ou telle caractéristique d'utilisateur se met à interagir ou pas avec ces contenus. Et en fait, il n'y a pas besoin que ces caractéristiques soient... explicité par l'humain pour que l'algorithme néanmoins arrive à les identifier et il n'y a même pas besoin qu'elles correspondent à des choses que nous humains, sur lesquelles on met des mots. Et donc bien souvent c'est avec des choses assez abstraites, difficiles à interpréter mais après nous, en voyant le comportement de ces algorithmes, on voit que en effet Quand c'est des contenus de haine, elles ont tendance à davantage les mettre en avant, à davantage leur donner de visibilité. C'est une mécanique qui n'est pas forcément complètement construite pas à pas. C'est vraiment beaucoup plus à la place d'apprentissage, d'essais et d'erreurs. Et à partir de ça, les algorithmes arrivent à faire une représentation mentale de ce qui fait réagir les différents utilisateurs.

  • Speaker #0

    Parce qu'au premier jour des réseaux sociaux, on se souvient, il y a quelques années, on nous disait que les réseaux sociaux nous plongeaient dans des bulles de filtres. Donc en gros, on ne voyait que du contenu qui nous plaisait. Mais on pouvait un petit peu se... On était coupé des autres opinions et en fait, maintenant, aujourd'hui, on se rend compte que ce n'est pas du tout vrai. On est mis face à des opinions contraires et souvent, c'est ce que vous dites dans le livre, je trouve ça super intéressant, c'est face à des caricatures, des arguments adverses et ce qui polarise la société énormément.

  • Speaker #1

    Oui, c'est ça. C'est exactement ce que tu as dit. Historiquement, on a vraiment pensé qu'il y avait ces problèmes de bulles, de filtres. Mais en fait, ce qu'on se rend compte, c'est que sur Internet, on est beaucoup plus souvent exposé à des avis contraires que dans la vraie vie. Et du coup, ça pose la question, est-ce que vraiment l'Internet polarise ? En fait, il y a plusieurs études, comme on le cite dans le livre, qui montrent qu'en fait, être exposé aux pires avis, en particulier du coin adverse, Ce n'est pas ça qui va réduire la polarisation. En fait, ça peut même l'exacerber. En particulier, ça va augmenter pas mal ce que différents chercheurs appellent la polarisation affective. C'est-à-dire que même des gens qui sont très proches de nous, avec qui on partage 99% des idées, des gens qui sont en même parti politique que nous, on peut finir par vraiment les détester, avoir un sentiment de haine vers eux. Et un autre aspect, c'est que la colère est une émotion contagieuse. Beaucoup de choses sont contagieuses en termes cognitifs, et notamment, si on est entouré de gens en colère, ça va nous pousser à être plus souvent en colère. Du coup, juste le fait de normaliser la colère...

  • Speaker #0

    le fait qu'à chaque fois qu'on va sur un réseau social, sur Twitter en particulier, on est régulièrement exposé à de la colère, ça peut monter le niveau de colère global dans la société, y compris pour pas grand-chose, j'ai envie de dire.

  • Speaker #1

    Oui. On le retrouve tellement dans la bulle ou dans la sphère climat, en fait, où, comme tu dis, on est d'accord avec 99%, mais on s'étripe sur les 1%, et honnêtement, il y en a qui font... leur beurre dessus. Il y a beaucoup de comptes qui font des 10 000, 20 000, 30 000 abonnés parce qu'ils ont compris que taper sur un tel ou un tel, c'était fructueux. Il y a une phrase d'Albert Camus que j'aime bien, je trouve qu'il s'applique bien à la situation, c'est qu'il dit la démesure est un confort toujours et une carrière parfois. Et je trouve qu'avec les réseaux sociaux, en fait, on est en plein dans, et là, c'est juste leur carrière. C'est marrant parce que tu nommes la Chine comme un ennemi, Alors qu'aujourd'hui quand on écoute les politiques, ils ne sont pas du tout sur cette ligne-là. Pour eux l'ennemi c'est la Russie, c'est l'Iran, mais la Chine n'est pas du tout représentée comme un ennemi, peut-être parce que les guerres sont plus indirectes, ne sont pas avec des bombes, mais avec comme tu disais des algorithmes qui façonnent un peu les cultures. Et c'est un autre problème finalement des algorithmes de recommandation, on a dit que ça polarisait, on a dit que ça ne mettait pas forcément le contenu le plus... instructif en avant, mais il y a aussi ce problème de guerre, ce que vous appelez des guerres cognitives. Est-ce que tu peux nous donner des exemples récents de guerres cognitives en France ou aux Etats-Unis ?

  • Speaker #0

    Par exemple, un des cas récents d'attaque informationnelle de la Russie, c'est qu'on suspecte pas mal la Russie d'avoir amplifié massivement la polarisation émotionnelle, en particulier au moment de la révolte des agriculteurs. On les suspecte aussi d'avoir été pas mal derrière, encore une fois, pas mal amplifié, le message sur les punaises de lit. On sait beaucoup plus, assez clairement, notamment via la chaîne Oshua Today, que sur le sujet de la vaccination, ils ont beaucoup cherché à diviser et à amplifier les contenus antivaccinaux, qui étaient critiques de la position notamment des institutions publiques pour pouvoir décrédibiliser les institutions publiques. Tout ça, c'est des attaques informationnelles très très très forte de la Russie. Aux États-Unis, on sait qu'il y a beaucoup eu d'interventionnismes sur d'ingérences lors de chacune des élections. Pour donner quelques chiffres, il y avait une étude qui avait été relé notamment par le MIT Technology Review qui montrait que sur les 20 comptes catholiques américains les plus suivis sur Facebook, 19 étaient sous le contrôle d'une IP russe. D'accord. Et un autre chiffre encore, chaque année, Facebook retire autour de 7 milliards de faux comptes. Ça montre vraiment l'ampleur de toutes ces campagnes d'influence. La France, l'Institut de recherche stratégique de l'école militaire, a publié aussi un rapport sur les campagnes d'influence chinoises. et qui montraient vraiment une ampleur énorme. Ils estimaient à 2 millions le nombre de Chinois payés pour produire de la désinformation.

  • Speaker #1

    Sur TikTok, notamment, vous, vous appelez ça carrément une arme de destruction massive.

  • Speaker #0

    Oui. Donc, il faut vraiment voir qu'aujourd'hui, la stabilité des démocraties, la confiance en nos institutions, l'absence de corruption, la capacité de dénoncer, de mettre en avant ces corruptions et de lutter contre, c'est vraiment ce qui protège nos sociétés. C'est ce qui fait que... La démocratie, c'est quelque chose de précieux et de rare dans l'histoire de l'humanité, y compris dans l'histoire de la France. Et donc, avoir un outil qui est capable de... mettre à mal ça, de vraiment détruire cela, ça me semble être extrêmement préoccupant.

  • Speaker #1

    Dans le bouquin, vous dites, pour juger la valeur de la démocratie, il faut se rappeler ce qui s'est passé entre 1789, la révolution, et je ne sais plus jusqu'à où on est allé, mais plus de 100 ans. Oui,

  • Speaker #0

    c'est ça, c'est la question. Quand est-ce que la démocratie est devenue stable en France ? Il y a eu la révolution française en 1789, qu'on célèbre beaucoup, à raison. Mais il a fallu attendre 1870, pour pouvoir avoir une démocratie stable, la Troisième République. Et entre-temps, en fait, il ne s'est pas rien passé. Ce n'est pas juste qu'on a eu un coup de bol, c'est qu'il y a eu beaucoup de compréhension de l'importance de toutes sortes d'infrastructures démocratiques, institutionnelles. Donc, je pense en particulier à l'éducation nationale, à l'indépendance de la justice, à la liberté de la presse. qui sont vraiment des composants indispensables pour avoir une démocratie stable. Malheureusement, le web a beaucoup balayé ça d'un revers de la main, en tout cas sur Internet, et les a affaiblis également en dehors, hors ligne. Ce qui fait qu'il y a beaucoup de travail qui me semble indispensable de reconstruire vraiment ces institutions à l'ère du numérique, de les mettre en ligne, de les renforcer, d'ajouter beaucoup plus de transparence et de reddition des comptes. pour que non seulement ces institutions existent, non seulement soient fiables, mais également soient de confiance et qu'on construise une conscience justifiée par le peuple pour ce genre d'institution.

  • Speaker #1

    Tu as parlé des bauches, de lois, mais aujourd'hui, on est naïf encore en France. Je pense que ça se joue plutôt à l'échelle européenne, c'est ça ?

  • Speaker #0

    Oui, ça se joue beaucoup plus à l'échelle européenne. Donc, il y a différentes régulations. Il y a eu un travail formidable qui a été fait par beaucoup de juristes. Ça a beaucoup avancé. C'est un travail très difficile. Mais il y a beaucoup de choses qui ont avancé, notamment le RGPD, le Règlement pour la protection des données personnelles. Il y a eu ensuite le DSA, le Digital Services Act, le Digital Markets Act, maintenant le AI Act à venir, le Cyber Resilience Act peut-être à venir également. Donc il y a différentes régulations qui ont été mises en place. Pour augmenter la transparence, augmenter la capacité de, par exemple, les lois extraterritoriales sur le stockage des données européennes, le genre de choses qui ont été mises en place. Et il y a eu des amendes qui sont tombées, il y a eu de 1,2 milliard, si je me souviens bien, d'euros d'amende pour Meta, pour avoir stocké des données de citoyens européens sur le territoire américain. Il y a un mec, un peu un super héros dans ce domaine, Max Schrems, qui a beaucoup oeuvré pour faire appliquer ces lois. Et puis il y a aussi beaucoup de lois préexistantes. C'est-à-dire qu'en France, il y a des lois sur l'interdiction de l'appel à la haine, incitation à la haine raciale. Il y a des lois sur les propriétés intellectuelles. Et c'est des lois qui parfois ont été utilisées pour des procès. notamment aux Etats-Unis. En Europe, on a beaucoup plus la tendance à vouloir d'abord bien poser les cadres et ensuite les faire appliquer. Aux Etats-Unis, il y a un peu plus un côté les procès, c'est un peu plus à base de procès, ça pose aussi des problèmes parce qu'il faut être riche pour lancer un procès, mais lancer un procès, c'est beaucoup plus classique et il y a des procès en cours contre Open AI, notamment le New York Times a dit que c'est un peu plus à excuser OpenAI, en particulier chez la GPT, de vol de propriété intellectuelle. Le GPT est capable de donner quasiment verbatim les contenus d'articles du New York Times qui sont sous paywall, donc ça pose forcément des problèmes. Ça veut dire que le paysage juridique est loin d'être vierge. Il y a beaucoup de choses qui peuvent être utilisées. Le plus gros défi, à mon sens, au niveau législatif... Il y a besoin de nouvelles lois, de meilleures lois, ce genre de choses. Il y a aussi des gros problèmes de corruption, j'en ai pas parlé, mais ça mériterait aussi beaucoup de choses. Il y a au moins de lobbying. Le lobbying de Big Tech est énorme à l'échelle européenne et pas que Big Tech. La France aussi a été un moteur énorme pour affaiblir les réglementations à l'échelle européenne. Pourquoi ? Pourquoi ? Parce que d'un côté... D'un côté, on a un président qui est très libéral. D'un autre côté, on a quelques start-up françaises ou pseudo-françaises, on va dire, comme Mistraléa, qui ont été défendues.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et puis, d'un autre côté, il y a aussi tout le côté surveillance pour les Jeux Olympiques. Donc, il y a des problèmes de sécurité nationale qui sont... considérée importante par les dirigeants français qui ont fait que beaucoup de réglementations sur les conditions de surveillance, de cybersurveillance ont été combattues par la France.

  • Speaker #1

    D'accord, il y a eu des intérêts communs entre les big tech et le gouvernement français sur la protection des données. Oui. Ok.

  • Speaker #0

    Mais au-delà de tout ça, ça fait déjà pas mal de problèmes, mais un autre problème, c'est surtout, pour moi, la mise en vigueur, l'application, le enforcement, on dirait en anglais.

  • Speaker #1

    Oui, l'application.

  • Speaker #0

    Le fait que les lois soient vraiment appliquées. Et par exemple, pour moi, un cas concret, chaque GPT viole le plan de loi existante. C'est sûr. C'est tellement sûr que même le PDG d'OpenAid l'a reconnu. Il a dit que ce serait impossible de faire ce qu'on fait sans utiliser des droits qui ne sont pas libres de droits. Des données qui ne sont pas libres de droits. Et donc, la question se pose. Aujourd'hui, dans le numérique, si vous êtes une startup, si vous lancez un produit, il y a vraiment la question est-ce qu'on viole la loi ? Tout le monde le fait. est-ce qu'on reste derrière ou est-ce qu'on n'achète pas aussi des produits qui clairement violent la loi ? La question se pose. Open AI est acheté par beaucoup d'entreprises françaises. Si on a un temps soit peu réaliste par rapport à ça, on sait que ça viole des lois, est-ce qu'on achète des produits dont on sait qu'ils sont illégaux, même si ils n'ont pas été jugés illégaux ?

  • Speaker #1

    Par exemple, dans le livre, vous dites que Open AI a fait du lobbying auprès des députés européens, ça c'est acté quoi.

  • Speaker #0

    Ça c'est acté, ça a été, il y a un article du Time là-dessus, mais ouais...

  • Speaker #1

    Pour édulcorer une loi.

  • Speaker #0

    Pour édulcorer une loi, en fait le plus gros lobbyiste, OpenAI a clairement agi, mais le plus gros lobbyiste, c'est pas OpenAI, c'est beaucoup plus Mistral AI, l'entreprise, alors j'ai dit pseudo-française, parce qu'elle a des investissements américains. Californien depuis le début et que en plus récemment elle a fait un partenariat avec Microsoft. Donc ça pose la question de est-ce que c'est vraiment français.

  • Speaker #1

    Ok. Il y a des pays comme l'Inde par exemple qui ont carrément interdit TikTok. TikTok lui-même je crois qu'il est limité à 40 minutes par jour pour les moins de 14 ans et il est aussi interdit entre 22h et 6h du matin alors en France ça ne serait pas forcément applicable mais là-bas c'est possible en France donc je disais tout à l'heure les ados passent en moyenne 2h par jour, est-ce que c'est des choses qui sont envisageables, les Etats-Unis envisagent par exemple de l'interdire ?

  • Speaker #0

    Oui, j'irais même plus loin juste sur la distinction entre la Chine en Chine en fait ils ont leur propre application TikTok n'est pas utilisé en Chine ils ont une autre application qui s'appelle Douyin et Douyin fait des recommandations très différentes de TikTok ça pose la question, on est en train d'utiliser un produit que le producteur ne veut pas utiliser c'est des recommandations qui sont plus,

  • Speaker #1

    je crois, pédagogiques c'est ça,

  • Speaker #0

    des recommandations plus pédagogiques en fait,

  • Speaker #1

    ils abrutissent tout le monde mais eux, ils ne veulent pas s'empoisonner avec c'est ça,

  • Speaker #0

    c'est un peu ça ça rappelle un peu l'industrie de la drogue...

  • Speaker #1

    Les guerres de l'opium.

  • Speaker #0

    Les guerres de l'opium. Typiquement, un dealer de drogue, peut-être, ne consomme pas autant que les personnes à qui il vend. Et donc, la réponse à ça, ça a été la réglementation. Les drogues sont très régulées. Beaucoup de drogues, en tout cas, sont très régulées dans beaucoup de pays. Et donc, oui, je pense... Après, si en plus on adopte des... si on considère qu'il y a vraiment une guerre cognitive qui a lieu, une guerre d'influence au moins enfin une guerre d'influence je pense que tout le monde s'y accorde et qu'en plus il y a même une guerre de déstabilisation des pays lutte d'influence à l'échelle du pouvoir politique, des partis ainsi que des gouvernements. Je pense qu'il faut être vraiment terrifié par TikTok.

  • Speaker #1

    Comment le Parti communiste chinois utilise TikTok comme une arme ? Par exemple, en Inde, ils l'ont interdit. Il devait y avoir une bonne raison, j'imagine.

  • Speaker #0

    Oui, l'Inde se méfie beaucoup de la Chine. Il y a encore des territoires disputés.

  • Speaker #1

    Mais c'est à cause de ça ? Oui,

  • Speaker #0

    je pense que c'est pas mal lié à ça. Et à l'inverse, la Chine a interdit récemment WhatsApp et Thread.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et ils ont aussi enlevé, enfin, ils n'ont pas communiqué là-dessus, mais il y a eu des applications, je crois que c'est Signal et Telegram, qui ont été enlevées de l'App Store en Chine. Donc, la Chine est vraiment en mode cyberguerre, en mode guerre informationnelle. L'été dernier, Microsoft a attribué à la Chine un hack de leur système massif. En France aussi, il y a cet état d'esprit. Le général Burckhardt, chef d'état-major des armées, disait en 2021, je crois, qu'il faut gagner la guerre avant la guerre. et se préparer au pire. Mais vraiment, gagner la guerre avant la guerre, c'est faire en sorte qu'en termes de lutte informationnelle, on soit solide, on fasse peur, et on ne donne pas envie à quiconque de nous attaquer. Et voir, on montre aux autres qu'on est capable de les déstabiliser. Aujourd'hui, la Russie et la Chine ont des moyens de pression sur les... Ils peuvent déstabiliser vraiment beaucoup de démocraties. Et ça les met en position de force, même pour négocier autre chose, des choses économiques ou autres. Donc si on se place dans un esprit de guerre informationnelle, TikTok est une arme surpuissante. Quand on voit ce qui se passe à Taïwan...

  • Speaker #1

    Ouais, on peut parler de Taïwan. Vous en parlez beaucoup dans le bouquin. Et puis, c'est un point chaud, évidemment, du monde aujourd'hui. Et je pense qu'il résume bien un petit peu ce qui se passe dans le monde entier.

  • Speaker #0

    Oui, Taïwan, c'est... Alors, nous, on prend vraiment ça comme un exemple, parce qu'au cours des dix dernières années, comme je l'ai dit, il y a beaucoup de déclin démocratique. Il y a beaucoup de choses qui sont déprimantes quand on regarde le paysage numérique et démocratique à travers le monde au cours des dix dernières années. Mais il y a Taïwan. Et Taïwan... Donne beaucoup d'espoir, et en particulier beaucoup d'inspiration, parce que ce qu'a fait Taïwan, c'est qu'il y a eu un mouvement étudiant en 2014, qu'on appelle le mouvement des tournesols, et le mouvement des tournesols a beaucoup été porté par des jeunes qui demandaient plus de démocratie, mais également beaucoup par des geeks, des informaticiens, des gens qui sont très à l'aise avec le numérique. Un des aspects au cœur de la stratégie du mouvement des tournesols, c'était d'utiliser le numérique comme une force pour la démocratie, comme une arme démocratique. Et donc ça, ça transparaît dans différentes manières. Par exemple, un des aspects, c'est beaucoup plus de transparence sur les choses qui sont censées être transparentes. Donc le gouvernement français est au service des Français. Il est censé travailler pour les Français. Donc beaucoup de choses que fait le gouvernement français, même par la loi, sont censées être accessibles à n'importe quel Français. Mais aujourd'hui, il y a certains documents qui sont horriblement difficiles à obtenir parce qu'il n'y a pas un système d'information qui a été mis en place pour rendre ces informations très accessibles aux citoyens français. Ça, c'est quelque chose contre lequel Taouan a beaucoup lutté. Par exemple, l'allocation des budgets du gouvernement. ce genre de choses est facilement visualisable sur des sites taïwanais du gouvernement.

  • Speaker #1

    Peut-être je peux abonder par expérience. Par exemple, pour savoir ce qu'a voté un certain nombre de députés, un groupe de députés, loi par loi, etc. C'est possible, techniquement on peut le faire, mais pour récupérer ces données de manière plus industrielle, pour en faire quelque chose, c'est beaucoup plus compliqué et on peut penser que c'est fait à dessein. par le gouvernement pour compliquer les choses.

  • Speaker #0

    Un autre exemple qui a été frappant, c'est le cas de APB, ex-Parcoursup. C'était un algorithme, il y avait un algorithme, en tout cas, dans APB, et l'algorithme n'était pas transparent, n'était pas open, on ne pouvait pas y accéder. Et donc, il y a eu une association de lycéens qui ont demandé à La publication de ce code, qui est vraiment un truc public, qui devrait vraiment être fait en open source, sous licence libre.

  • Speaker #1

    Et qui détermine l'avenir de millions de lycéens.

  • Speaker #0

    Qui détermine l'avenir tellement de jeunes. Et le gouvernement avait envoyé le code de cet algorithme par courrier, par courrier physique. complètement inexploitable, vraiment compliqué. Il y a vraiment un progrès énorme à utiliser beaucoup plus le numérique comme une force pour augmenter la transparence dans ce genre d'initiatives. Un des autres aspects qu'a fait Taïwan, c'est aussi qu'ils ont compris très vite qu'ils étaient en guerre cognitive avec la Chine et qu'ils étaient bombardés par de la désinformation. de Chine. Un des aspects qu'ils ont fait, c'est mettre en place des plateformes de pré-banking, des solutions de pré-banking, de lutte contre la désinformation avant même qu'elle soit consommée autant que possible. Un des aspects intéressants, c'est qu'ils ont intégré une application qui s'appelle Polis, pol.is, qui est une plateforme de délibération qui a été introduite en 2012 pour d'autres raisons. Mais qui a permis, en fait, c'est une plateforme où vous pouvez délibérer, donc avoir un groupe qui va mettre des propositions.

  • Speaker #1

    Une agora citoyenne en ligne.

  • Speaker #0

    C'est ça. Et par contre, il y a des règles un peu spéciales. Je reviens sur le fait qu'algorithme, ça veut dire règle, donc ça régit la manière dont on interagit. Et donc, on peut vraiment réfléchir à des algorithmes démocratiques ou plus démocratiques. Là, en l'occurrence, Polis, ce qu'il faisait, c'est que il... ils ne permettaient pas les réponses. Ça peut être un peu bizarre, mais chacun fait des propositions, et tout ce que les autres peuvent faire, c'est mettre un pouce vers le haut ou un pouce vers le bas. Et donc ça, ça permet de récolter les avis des différentes personnes sur différentes propositions. Et ça permet de construire ensuite une carte de l'ensemble des avis sur différentes propositions. Ça, c'est intéressant pour voir les désaccords, mais c'est intéressant surtout pour voir les consensus, voir les choses sur lesquelles les interventions, qui peuvent être assez radicales, mais sur lesquelles on est tous d'accord. Donc ça a été pas mal utilisé à Taouane, et de façon intéressante, ça a été utilisé aussi récemment en France. Donc il y a eu une expérience qui a été mise en place. Au lendemain, suite aux violences policières, aux conflits violences policières, violences des grands lieux, il y avait des questions de qu'est-ce qu'on fait par rapport à la police, quelles sont les interventions qu'on doit faire par rapport à la police, sujet ô combien controversé qu'ils vont aller.

  • Speaker #1

    Oui, voilà. Donc sur Twitter, par exemple, c'est des embrouilles.

  • Speaker #0

    Sur Twitter, on dit un demi-mot et paf, tout de suite, ça part en flamme. Et néanmoins, ce qui était intéressant avec Police, c'est qu'on a permis de se rendre compte qu'il y avait des consensus. Même sur ce sujet au combien controversé, il y avait en fait des consensus à travers la population et notamment tous voulaient beaucoup plus investir dans la formation des policiers et dans la police de proximité. Et donc, c'est quand même remarquable qu'on peut se mettre tous derrière ces consensus et lutter pour la mise en place de ces consensus et pour le suivi de ces consensus. Et ça fait une action qui non seulement est active, qui va permettre vraiment de faire progresser le sujet, mais qui est aussi unificatrice. On a vu qu'une des grosses stratégies de désinformation des pays étrangers, c'est de pliver, de diviser la population. Donc là, ça permet de beaucoup plus unifier, d'apaiser, et de travailler ensemble pour vraiment améliorer les choses, même si on sait qu'il y a des sujets sur lesquels on n'est pas d'accord.

  • Speaker #1

    Donc là, c'est carrément un négatif de ce qui se passe aujourd'hui sur Twitter. Qu'est-ce qu'on peut faire d'autre ? pour mettre en place ce que vous appelez vous cette gouvernance algorithmique enfin démocratique qu'est-ce que vous proposez en gros ce serait que tous ces algorithmes qui appartiennent à des entreprises privées soient des algorithmes publics à l'échelle mondiale débattus comment ça marche ?

  • Speaker #0

    Il y a pas mal de choses à faire énormément de choses à faire qui peuvent être faites de façon euh... Je veux dire concurrentes au sens... En parallèle, pas forcément en concurrence, en compétition. Et donc un des... Alors, peut-être une chose à dire, c'est que c'est un peu illusoire d'espérer résoudre le problème du jour au lendemain. Donc, il ne faut pas avoir un truc tout fait. Enfin, il ne faut pas espérer avoir un truc tout fait. On va déployer ça demain et tout va être résolu. Donc, il faut vraiment avancer pas à pas, faire des concessions sur le chemin, en espérant atteindre un état qui soit vraiment satisfaisant, in fine.

  • Speaker #1

    Un autre point commun avec le climat, d'ailleurs.

  • Speaker #0

    Un autre point tout à fait avec le climat. Par exemple, une des propositions qu'on fait, c'est beaucoup plus respecter un principe démocratique qui est une personne, une voix. Aujourd'hui, typiquement, ça voudrait dire quoi ? C'est-à-dire que le pouvoir d'influence qu'on a sur l'algorithme soit beaucoup plus une personne, une voix, et en particulier des personnes qui ne sont pas résidents français, on va dire. Les termes peuvent être débattus, ou citoyens français, ou résidents européens. Les termes peuvent être débattus, mais ça serait bien que quelqu'un qui, au moins, ne soit pas humain, n'ait pas un pouvoir disproportionné sur le comportement de ses algorithmes. Aujourd'hui, c'est le cas. On a vu avec Shadjepet et compagnie, il y a des compagnes de désinformation qui ont des armées de faux comptes qui sont capables de manipuler beaucoup plus les algorithmes de recommandation que le citoyen français. Et donc, réarmer beaucoup plus les citoyens français dans le contrôle de ces algorithmes, donc ça c'est une chose.

  • Speaker #1

    En gros dans la vraie vie la démocratie sur ce point de vue là est respectée il n'y a pas de bourrage d'urne en France par des ingérences étrangères mais par contre en ligne il y a un peu ça qui se passe

  • Speaker #0

    Exactement, c'est vraiment cette analogie et donc on peut se demander comment est-ce qu'en ligne on peut faire pour que chacun ait une voix, enfin chaque citoyen en français on va dire, ait une voix et donc il y a des idées, il y a des initiatives comme France Connect qui permettent d'identifier les personnes en ligne Un des problèmes de France Connect, tel qu'il est aujourd'hui, c'est qu'il identifie pleinement la personne en ligne. Donc si on se connectait avec notre compte Google et qu'on certifiait via France Connect qu'on est un citoyen français, Google saura exactement lequel de ces citoyens on est et le gouvernement français saura exactement quel compte Google on a. Et donc il est capable de suivre, de retracer ce que chacun dit et potentiellement, si on n'a pas confiance dans le gouvernement, on pourrait avoir des problèmes. Donc ça c'est une solution qui n'est pas idéale, mais par contre un truc qui pourrait être fait c'est de combiner ça avec des techniques de cryptographie moderne, ce qu'on appelle le zero knowledge proof, la preuve à divulgation nulle de connaissances pour ceux qui connaissent. mais qui permettrait de certifier qu'un compte est possédé par un citoyen français, mais sans que ni le gouvernement ni la plateforme ne sachent quel est ce citoyen en question. Et ensuite, ce qu'on pourrait exiger, c'est que les algorithmes de recommandation, même du privé, même de YouTube par exemple, n'apprennent que des données des citoyens français en France, ou des citoyens européens en Europe, par exemple, quelque chose comme ça. Et donc ça, ça limiterait beaucoup la capacité d'ingérence. des pays étrangers.

  • Speaker #1

    Et une fois qu'on aurait cette possibilité de voter, c'est quoi la suite en fait ? On vote comment ? Pourquoi ?

  • Speaker #0

    Oui. Une autre difficulté, c'est lié à ce dont on a parlé plus tôt, c'est qu'aujourd'hui, c'est un vote des préférences instinctives. Si on fait juste ce que j'ai dit, on risque... diminuerait beaucoup les problèmes d'ingérence étrangère, mais on risque quand même d'avoir le fait que les contenus les plus populaires ne sont pas les sujets importants. Oui. Et donc, si on veut changer cet état de fait, il va falloir faire ce qu'on appelle une démocratie d'évolution, plutôt qu'une démocratie des préférences instinctives.

  • Speaker #1

    Tu disais tout à l'heure, c'est ce que je voudrais voir.

  • Speaker #0

    Vouloir, quelque chose de beaucoup plus réfléchi. Oui. Et c'est des choses qui sont déjà un peu poussées par la démocratie telle qu'elle est aujourd'hui. Par exemple, il y a certaines lois, je ne sais plus le numéro de cette loi, mais il y a une loi qui dit que le jour d'une élection, les partis politiques n'ont pas le droit de continuer leur campagne.

  • Speaker #1

    Même 48 heures, je crois.

  • Speaker #0

    Même 48 heures, oui. C'est une façon de faire en sorte qu'on ne soit pas influencé au dernier moment par la dernière réplique. et qu'on n'ait pas un truc plus instinctif au moment de voter. Donc ça nous force 48 heures où on est un peu plus en mode méditation. Même si, bien sûr, on ne le sera jamais complètement en pratique. Et donc, on pourrait instaurer des choses similaires sur le web. C'est des choses d'initiatives... J'ai l'impression de dire beaucoup de mal des entreprises privées. Enfin, je le fais. Mais il y a eu des initiatives par certaines équipes de ces entreprises privées qui sont très louables. Notamment chez YouTube. Il y avait cette fonctionnalité à un moment où vous pouviez donner, qui existe encore aujourd'hui, où vous pouvez donner votre avis sur une vidéo que vous avez vue la veille.

  • Speaker #1

    D'accord.

  • Speaker #0

    C'est ce genre de mécanisme.

  • Speaker #1

    Donc, en ayant à tête reposée.

  • Speaker #0

    À tête reposée et en ayant passé la nuit, au moins, c'est possible de bien dormir. Et en tout cas, ça fait un jugement d'une autre partie de nous, pas possiblement un parti plus réfléchi. Et donc ce sont des initiatives qui sont intéressantes.

  • Speaker #1

    Il y a Twitter aussi. En gros, je voulais te demander, c'est une question, lesquelles les réseaux sociaux sont les moins pires ? Enfin, on sait que Twitter maintenant, c'est un peu le... C'est à peauri en termes de qualité du débat, mais vous dites dans le livre qu'ils font quand même des choses comme des community notes, et à un moment donné, avant de retweeter, ils nous demandaient si on avait bien lu l'article qu'on retweetait, des choses comme ça. Ça te semble intéressant ? C'est un coup d'épée dans l'eau ?

  • Speaker #0

    Oui, Twitter, en fait, avant l'arrivée de Musk, avait vraiment une équipe de safety qui était très active et très soutenue. C'est vraiment ça, en fait. La question, c'est à quel point est-ce que les équipes d'éthique et de sécurité sont soutenues. Et du coup, ils avaient fait pas mal d'initiatives, et notamment les community notes. Donc, il y a plusieurs aspects intéressants dans les community notes. Donc, ça, c'est les notes contextuelles que vous voyez peut-être parfois si vous utilisez Twitter, qui vont s'attacher à un poste et qui vont être votées par la communauté des community notes. pour savoir quel contenu afficher, donc ça va être typiquement des correctifs, des mises en contexte aussi. Et l'une des approches intéressantes de ces community notes, c'est que c'est une approche démocratique, en sens où ces tuteurs n'ont en principe pas son mot à dire sur quelles sont les notes qui vont être affichées, c'est vraiment les membres des community notes. Il faut candidater. J'ai l'impression que c'est de plus en plus facile de devenir membre des community notes. Et c'est un problème parce que du coup, ça a été complètement infiltré par des campagnes de désinformation. Donc, il y avait des problèmes de sécurité autour des community notes. Mais l'idée de base était intéressante. Et en particulier, un des aspects intéressants des community notes, c'est qu'ils implémentaient cette idée de consensus. C'est-à-dire qu'une note est affichée si elle est jugée consensuellement utile. par la communauté.

  • Speaker #1

    Par des gens qui sont de camps différents. C'est ça,

  • Speaker #0

    des tubors.

  • Speaker #1

    Je ne sais pas trop comment ils définissent les camps, d'ailleurs,

  • Speaker #0

    mais bon. Alors, il y a des façons de... Enfin, à base de machine learning, pour essayer d'identifier ça, mais intuitivement, ce qui se passe, c'est que l'un des problèmes, par exemple, d'une vidéo YouTube, c'est que si vous regardez que le pourcentage de likes, en fait, c'est le pourcentage des likes des gens qui ont vu la vidéo YouTube qui sont souvent des fans de la chaîne. Donc, si une vidéo a un énorme taux de likes, ça ne veut pas dire qu'elle serait consensuellement jugée bonne. Tout le monde l'avait évalué. Mais il y a des techniques, typiquement on peut voir, par exemple dans ce cas, on peut voir si quelqu'un n'a pas du tout l'habitude de consommer cette vidéo, ça regarde même des vidéos qui vont pas du tout dans ce sens, si elle like néanmoins cette vidéo, ça donne un indice que la vidéo sera peut-être consensuelle au-delà, et donc s'il y a pas mal de personnes qui font ça, là on peut commencer à juger le contenu consensuel.

  • Speaker #1

    Peut-être juste sur cette histoire de consensus, je sais que ça peut un peu... On rebutait certains, mais on cherche à créer un consensus, on cherche à arrondir les angles. C'est pas du tout ça, en fait.

  • Speaker #0

    Non, c'est pas du tout ça. Donc, il y a vraiment cette idée de fabriquer le consensus. Et donc là, c'est plus lié à la manipulation. Mais là, l'idée, c'est plus de trouver des consensus qui existent déjà dans la société. Ouais. Et un des aspects importants, c'est qu'on a tendance à tellement sous-estimer ce consensus qu'on ne se rend pas compte qu'il y a des mesures extrêmement radicales qui sont en fait consensuelles. par exemple taxer massivement les milliardaires est très certainement consensuel le problème des inégalités est globalement jugé consensuel ralentir le développement des intelligences artificielles est aussi consensuel y compris chez des gens qui sont enthousiastes de l'IA j'ai donné quelques exemples ici mais il ne faut vraiment pas sous-estimer il ne faut pas opposer consensuel et radical qui va beaucoup plonger les choses merci

  • Speaker #1

    Donc, on a parlé de quelques pistes de solutions. Est-ce qu'il y en a d'autres que tu voudrais aborder ? Est-ce que tu veux nous parler de votre projet Tournesol ? Oui,

  • Speaker #0

    je veux bien parler de ce que je fais, de ce projet qui me tient beaucoup à cœur. Donc, Tournesol, c'est un projet qu'on a vraiment lancé en 2020. C'est vraiment lié à des années de réflexion sur ces sujets. Moi, j'ai fait ma thèse en théorie. des votes notamment, je me suis beaucoup intéressé au scrutin, donc c'est vraiment des sujets qui m'intéressent depuis 15 ans maintenant on va dire et en particulier tournesol c'est vraiment l'appliquer au cas en particulier des algorithmes de recommandation qu'on considère être les plus influents et donc l'idée de tournesol c'est vraiment de faire un algorithme de recommandation donc aujourd'hui on s'intéresse beaucoup aux vidéos youtube exclusivement aux vidéos YouTube. Et donc la question qu'on se pose, c'est si on se mettait ensemble, autour d'une table ou pas, quels seraient les contenus qu'on voudrait recommander le plus aux utilisateurs de TourSol, même au-delà ? Quels sont les contenus qui devraient être le plus recommandés sur Internet ? Un des aspects intéressants de poser la question comme ça, c'est que les vidéos vont forcément être en concurrence parce que l'attention est limitée. Et donc il ne s'agit absolument pas juste de noter la fiabilité d'une vidéo. La question ce n'est pas est-ce qu'une vidéo est vraie ou fausse, la question c'est à quel point elle devrait être plus recommandée que d'autres vidéos. Et donc pour pouvoir obtenir cette information, ce qu'on fait c'est qu'on demande aux utilisateurs des jugements comparatifs. Donc on leur demande de sélectionner des vidéos sur YouTube. Donc n'importe qui peut créer un compte sur Tournesol. Et ensuite, choisir des vidéos, n'importe laquelle vidéo sur YouTube, l'importer du coup sur Tournesol, et dire entre deux vidéos qu'il a vues par exemple, laquelle devrait être plus souvent recommandée par l'algorithme de Tournesol. Et c'est intéressant parce que ça force des arbitrages entre des vidéos sur des sujets radicalement différents.

  • Speaker #1

    On compare les choux et les patates un peu.

  • Speaker #0

    On compare les choux et les patates, mais on est un peu obligé parce que l'espace informationnel est limité.

  • Speaker #1

    Autant dans le climat, on perçoit des améliorations, des tendances, des courbes qui fléchissent. Autant sur les algorithmes, donc Twitter, il y avait du mieux, puis ça a été racheté. Il y a 6 000 personnes qui ont été virées sur 8 000, ou un truc comme ça. Facebook, je crois, a viré aussi son comité éthique, c'est ce que vous dites dans le livre. TikTok est plus grand que jamais, et c'est pire que ses prédécesseurs. En gros, on connaissait Instagram pour le mal-être que ça donnait notamment aux adolescentes. TikTok, c'est pire carrément. Ils shadowban les filles qui sont moins belles et mettent en valeur celles qui sont plus belles, donc en gros voilà. Là pour le coup on est un peu dans chaque jour est pire que le précédent. Qu'est-ce qui... qu'est-ce qui pousse votre équipe à faire un petit projet, enfin petit, je veux dire, en toute... C'est pas pour dénigrer le projet qui est beau, mais je veux dire, il n'a pas le budget de YouTube, de TikTok, il n'a pas un parti derrière qui le pousse, etc. Qu'est-ce qui vous donne envie de continuer ? Et peut-être pour les gens qui nous écoutent, qui ont des enfants notamment, on n'a pas parlé des enfants, mais bon, c'est les principales victimes. qu'est-ce qui pousse à entrevoir peut-être ou pas un avenir plus radieux ?

  • Speaker #0

    Donc ça, c'est vraiment la troisième partie de notre livre. Et c'est vraiment Jean-Loup qui a vraiment beaucoup mûri ses idées et qui m'a beaucoup convaincu. Et c'est une difficulté qu'on a vraiment au quotidien. Je prends tous les jours quasiment des gifles en me disant En fait, c'est pire que ce que je croyais, les choses vont mal. Je reçois aussi beaucoup de choses... Ce qui vaut dans le bon sens. Tout n'est pas négatif, loin de là. Il y a beaucoup de bonnes initiatives, ne serait-ce que les régulations à échelle européenne. De plus en plus de chercheurs s'intéressent à tout le sol. Donc il y a aussi beaucoup de signaux positifs. Maintenant, je vais être très honnête, je ne vois pas comment les choses vont pouvoir ne pas se dégrader dans les mois et les années à venir. La trajectoire est extrêmement préoccupante et l'inattention est encore gravissime. La disproportion des moyens est juste effrayante, y compris au niveau de la recherche.

  • Speaker #1

    Juste une petite parenthèse, excuse-moi de te couper, mais on invite encore quelqu'un comme Yann Lecun, qui travaille sur l'intelligence artificielle chez Facebook, qui est contributeur de... À son échelle, évidemment, mais quand même une belle échelle, c'est Facebook, de tout ce qu'on vient de raconter. Et qui est invité dans les médias, et de tous les médias pour le coup, Mediapart, n'importe même ce qu'on pourrait penser un peu plus zérudit. Et il est invité comme un chercheur indépendant, etc. Donc en fait, il a ses...

  • Speaker #0

    Directeur de la recherche chez Facebook. Imaginez inviter le directeur de la recherche chez Total Energy de vous parler de la régulation de la taxe carbone. Oui. sans être contradié, sans être signalé chercheur de Total Energy. C'est l'état des choses aujourd'hui. C'est pour ça que ça rend très... Ça force à être très pessimiste. La trajectoire n'est vraiment pas bonne. Moi, je ne m'attends pas à ce que les choses s'améliorent dans l'année à venir ou dans les quelques années à venir. Mais j'espère qu'il y ait beaucoup de mobilisation pour atténuer la catastrophe. Une analogie évidente avec le changement climatique. C'est qu'il faut vraiment comparer à l'alternative où vraiment personne n'agirait, personne ne se combattrait la tendance actuelle. À ce moment-là, les choses pourraient être bien pires. Et moi, je vois quand même beaucoup de gens se mobiliser sur les questions algorithmiques. Pas assez. Mais de plus en plus, notamment les chercheurs s'intéressent de plus en plus à ces questions, les journalistes s'intéressent de plus en plus à ces questions. Il y a de plus en plus de commissions qui sont mises en place. Donc même les politiciens, pas suffisamment encore une fois à mon goût, mais s'intéressent de plus en plus à ces questions. Et du coup, on atténue une catastrophe. Les États-Unis vont peut-être interdire TikTok. Donc il y a quand même des choses qui vont dans le bon sens. Donc j'ai envie de dire, chaque dixième de degré compte, comme pour le climat. Et si on peut éviter que l'extrême droite monte trop vite aux prochaines élections européennes, ce sera toujours ça de gagné, même s'ils vont probablement pas mal monter par rapport aux précédentes. Donc chaque deuxième degré compte, c'est une des raisons pour lesquelles on se bat, et ça protège des vies. Et puis l'autre raison qui est beaucoup plus inspirante à mes yeux, même si elle est moins... moins concrète, on va dire, c'est le fait qu'à travers Tournesol, à travers toutes ces réflexions, à travers la recherche sur ces domaines, on contribue à concevoir des briques élémentaires qui pourront être réutilisées par les démocraties lorsqu'elles seront prêtes. Il faut bien voir que ces briques n'existent pas aujourd'hui. On n'a pas les outils aujourd'hui pour pouvoir passer à une démocratie numérique, même si on le voulait. C'est un des trucs très frustrants. C'est que Tournesol, ça fait trois ans qu'on travaille dessus, c'est construit à partir de des décennies de recherches sur le sujet, mais c'est très insuffisant ce qu'on a fait.

  • Speaker #1

    Pour faire encore un parallèle, c'est comme si aujourd'hui on n'avait pas... on n'avait pas de panneaux solaires, d'éoliennes et de soins nucléaires.

  • Speaker #0

    Et qu'on nous demandait une transition énergétique. Ce serait bien de développer ces outils. On les a beaucoup développés. Et puis même si on les avait aujourd'hui, réduire les coûts reste un enjeu énorme. Après, ça passera plus aux problèmes d'industrialisation. Malheureusement, je vais vous dire qu'on n'est pas encore nous dans le monde numérique. Mais voilà, il y a une trajectoire également qu'il faut suivre. Et donc, travailler sur l'élaboration de ces outils, Paul East n'a pas été développé pour Taïwan, mais beaucoup il est Taïwan. Donc, si on pouvait avoir un algorithme de recommandation qui sera utilisable, qui sera beaucoup plus sécurisé, avec typiquement les choses de proof of...... de citoyenneté française en ligne qu'on développerait en France, ça, il faut absolument les rendre open source et libres d'accès parce qu'il faut que toutes les démocraties les utilisent. Et ça, ça renforcera tout le monde et à long terme, à moyen terme, peut-être, en espérant, ça pourra beaucoup remporter nos démocraties et construire des gouvernances en lesquelles on a confiance. Ce qui, aujourd'hui, malheureusement, est encore difficile.

  • Speaker #1

    Merci, Lé.

  • Speaker #0

    Avec plaisir.

Description

Dans cet épisode, nous parlons des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des États autoritaires et ont pour objectif de retenir le plus possible notre attention. Les conséquences pour nous, individus, mais aussi nos sociétés sont énormes : détérioration de la santé mentale, de la cohésion sociale, ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lê Nguyen Hoang. Il est chercheur en intelligence artificielle, co-auteur du livre “La dictature des algorithmes”.


L’IA, pire que le climat ? C’est le thème de ce nouvel épisode d’Échange Climatique.


Infos: https://linktr.ee/echangeclimatique

Contact: echangesclimatiques@gmail.com

Production: https://onetwo-onetwo.com/


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Si j'ai lancé ce podcast, c'est parce que je ressentais le besoin d'alerter sur le changement climatique. Et c'est pour cette même raison qu'aujourd'hui, on va parler d'intelligence artificielle. Mais pas de générateur de textes ou d'images comme ChatGPT ou Midjournée, parce que vous en avez déjà beaucoup entendu parler, et aussi parce que je pense qu'il y a plus grave. Je veux parler des algorithmes de recommandation des réseaux sociaux. Ils appartiennent à des multinationales ou des états autoritaires, et ont pour objectif de retenir notre attention le plus possible. Les conséquences pour nous, individus ou nos sociétés, sont éliminantes. D'intérioration de la santé mentale, de la cohésion sociale... ou encore de la lutte contre le changement climatique. Mon invité pour évoquer ces sujets est Lei Nguyen-Wang. Il est chercheur en intelligence artificielle et co-auteur du livre La dictature des algorithmes L'IA, pire que le climat, c'est le thème de ce nouvel épisode d'Échange climatique. Bonjour Lei.

  • Speaker #1

    Bonjour !

  • Speaker #0

    Je sais que ce n'est pas une question facile, est-ce que tu peux nous dire ce que c'est qu'un algorithme de recommandation ?

  • Speaker #1

    Ouais, peut-être même encore plus facile qu'un algorithme. Un algorithme, c'est un ensemble de règles, c'est une suite d'instructions. C'est vraiment un synonyme de règles, instructions, procédures, protocoles, toutes ces choses qui décrivent des suites de choses à suivre. Et en particulier les algorithmes de recommandation, donc vraiment c'est ceux qu'on considère être les plus importants dans notre livre avec Jean-Louis Fourquet. Donc pour vraiment le comprendre, il faut vraiment se rendre compte que l'utilisation aujourd'hui du numérique, c'est vraiment beaucoup plus le téléphone. La plupart du temps, il y a 7 fois plus de vues sur téléphone, de vues YouTube sur téléphone, que de vues YouTube sur laptop, enfin desktop. Sur téléphone, le truc c'est que c'est très difficile de taper, c'est plus compliqué de taper que sur un ordinateur. Et du coup les gens vont être beaucoup moins dans la recherche. En fait ça fait depuis 2016 qu'il y a plus de vues sur Youtube que de recherches sur Google. Vous pensez que Google est le portail du web, c'est une vision très vieille en fait, très erronée aujourd'hui de l'utilisation du web. Et donc la plupart du temps, quand on utilise le web, quand la plupart de nos concitoyens naviguent sur, utilisent le numérique, ils sont sur un téléphone en train de cliquer, de swiper, de scroller. Et à chaque fois qu'on fait ces actions... enfin pas à chaque fois mais la plupart du temps, sur les réseaux sociaux, quand on clique sur l'application de réseaux sociaux, qu'on scrolle, qu'on swipe, il y a un algorithme de recommandation qui va répondre à notre action. Ce sont ces algorithmes qui vont choisir, par exemple sur un réseau social, sur TikTok, à chaque fois que vous vous swipez, c'est un algorithme de recommandation qui va choisir quel contenu va être diffusé juste après sur votre téléphone.

  • Speaker #0

    Du coup, ces algorithmes, quels sont leurs buts ? J'imagine qu'il y a le but officiel, on va dire, qui était de proposer le meilleur contenu à l'utilisateur. Pourquoi les entreprises les ont mis en place ? Qu'est-ce que c'est qu'un bon algorithme d'un point de vue de l'entreprise ?

  • Speaker #1

    Même officiellement, déjà, ils ont un peu basculé. YouTube, je crois que c'est vers 2019, ont commencé à parler du fait que leur... maximise ce qu'ils appellent le user engagement, l'activité de l'utilisateur sur la plateforme. Et en tout cas, ce qu'on peut inférer de la manière dont ça fonctionne, c'est que vraiment, il y a une dimension de captation de l'attention qui est énorme. Et ça, c'est vraiment très lié au modèle d'affaires. Aujourd'hui, le numérique, beaucoup de très grandes entreprises du numérique, c'est Google, Facebook, TikTok, Twitter ou autres, ces grandes entreprises numériques, leur modèle d'affaires, c'est la publicité ciblée. Et si on veut vendre des publicités ciblées, il y a deux choses à faire. La première, c'est d'avoir l'attention des utilisateurs pour pouvoir montrer des publicités. Et après, la deuxième, c'est d'être capable de cibler, et ça, ça va impliquer... la collecte massive d'informations sur différents utilisateurs, et ensuite la conception d'algorithmes qui sont capables d'utiliser ces données pour savoir quelle est la publicité qui sera la plus efficace pour les différents utilisateurs.

  • Speaker #0

    Ici, on est sur une chaîne de climat. Forcément, on va aborder ce thème un mot en autre. Toi aussi, tu es très conscient des problèmes du changement climatique. Tu fais beaucoup aussi à l'échelle individuelle. Je crois que j'ai entendu que tu prenais que des douches froides.

  • Speaker #1

    Oui, pas que, parce que parfois il y a des contextes où après un match de foot, il n'y a qu'une douche et elle est chaude. Mais oui, chez moi, je prends que des douche-froid.

  • Speaker #0

    Et en gros, pourquoi je te pose cette question, c'est parce que je voudrais savoir si tu es plus inquiet par rapport au climat. ou par rapport aux algorithmes de recommandation ?

  • Speaker #1

    Moi, je suis clairement beaucoup plus inquiet par rapport aux algorithmes de recommandation assez largement. Mais il n'y a pas besoin d'en arriver là. Je pense qu'un écologiste doit se préoccuper des algorithmes de recommandation, même si sa préoccupation principale, c'est le climat. Ça, on le voit très bien sur Twitter. Sur Twitter, il y a eu une désertion des scientifiques du climat parce que les scientifiques du climat ont subi des vagues de harcèlement sur Twitter. Et du coup, la production d'informations, la qualité informationnelle sur les sujets du climat sur Twitter a été complètement ravagée. Ça, on le voit également sur des plateformes comme TikTok où des sujets climato-dénialistes sont très mis en avant. Il y a très peu d'audits. Et du coup, la lutte informationnelle, parce que finalement le climat c'est en grande partie une lutte informationnelle, la raison pour laquelle on fait un podcast, enfin, peut-être pas ce podcast, mais la raison pour laquelle tu fais cette émission, c'est pas mal pour des raisons de sensibilisation sur les sujets climatiques, et il y a des gros problèmes aussi de qualité de l'information, même au sein du mouvement écologiste, et donc l'information est vraiment clé, et donc il y a une lutte informationnelle, et l'arbitre aujourd'hui de l'information... Ce sont les algorithmes de recommandation. C'est pour ça que même si on est terrifié par le climat, uniquement, les algorithmes de recommandation devraient être un aspect important de la réflexion sur la lutte climatique.

  • Speaker #0

    Tu viens d'en parler un petit peu, mais comment est-ce que les algorithmes concrètement affectent la lutte contre le changement climatique ? Est-ce que c'est en partageant un maximum de fake news, par exemple ?

  • Speaker #1

    Il ne faut vraiment pas réduire ça au problème des fake news. C'est un aspect, en effet, il y a encore beaucoup de climato-dénialisme sur différents réseaux sociaux. Ça me permet de parler d'un autre aspect important de la désinformation, des stratégies de désinformation en ligne. C'est qu'une façon de désinformer, ce n'est pas de produire des fausses informations, mais d'amplifier massivement ceux qui produisent un discours qui va dans l'autre sens. Une des choses qu'on voit beaucoup, c'est des agences spécialisées dans la création, la crédibilisation et la mise en activité d'un grand nombre de faux comptes sur les réseaux sociaux qui vont se mettre typiquement à liker, à retweeter, à partager des contenus qui vont dans leur sens ou qui commencent à aller dans leur sens. avec notamment une intention non seulement d'amplifier ces contenus mais aussi de manipuler les créateurs de contenu donc ça on le voit vraiment, je pense que c'est un des aspects les plus importants en fait c'est la manipulation des créateurs de contenu pas forcément de la consommation, pas directement de la consommation mais plus des gens qui produisent l'information. Parce qu'on le sait très bien en tant que youtubeur, on est encore plus, si notre salaire dépend du nombre de vues que l'on fait, on est très sensible à ces chiffres. Du coup, si on voit que notre contenu fait plus de vues lorsqu'on parle d'un sujet, ça va nous pousser consciemment ou inconsciemment à parler davantage de ce sujet.

  • Speaker #0

    Derrière, est-ce qu'on peut dire qu'il y a des compagnies pétrolières qui font la stratégie du doute ou alors c'est juste que ça marche et donc Google le met en avant ?

  • Speaker #1

    C'est difficile de savoir exactement ce que fait l'industrie du doute aujourd'hui parce qu'ils ont aussi tout intérêt à ce qu'on ne le sache pas. Mais on sait ce qu'ils ont fait. Il y a beaucoup de choses qu'ils ont fait dans le passé qui sont très documentées. Je vous renvoie vers le livre du marchand de doute qui documente beaucoup de stratégies de ce style. Mais dans le cas de l'intelligence artificielle, qui est beaucoup plus mon domaine, on sait qu'il y a eu des interventions explicites des grandes entreprises de la tech pour modifier la manière dont les scientifiques s'expriment dans les publications scientifiques. Google a demandé explicitement à ses propres chercheurs d'adopter un ton positif sur la recherche en intelligence artificielle pour ne pas parler des risques, ainsi de suite. Moi, j'ai un article de recherche co-écrit avec un chercheur de Google. dont la publication a été retardée de plus d'un an et demi par le processus de revue en interne de Google qui ne voulait pas qu'on soumette un article qui soulignait les problèmes de sécurité qui sont très importants à mettre en avant de ces systèmes. Et donc, d'habitude, je dis plus qu'il faut regarder ce qui est fait dans le monde du climat pour deviner ce qui se fait dans le monde de la tech. J'ai envie de dire, il faut faire l'inverse. Sachant ce qui se fait dans le monde de la tech, il faut s'attendre à ce que toutes les industries, y compris pétrolières, utilisent des stratégies de la sorte.

  • Speaker #0

    Et or, dans la recherche sur les algorithmes, ce sont majoritairement financés justement par les big tech. Ce n'est pas comme si c'était du 50-50.

  • Speaker #1

    Ah oui, dans le monde de la big tech, c'est vraiment catastrophique. C'est-à-dire que, par exemple, si on prend le tabac également, le tabac... Dans les pires heures du lobby du tabac, il y avait 10% des chercheurs qui étaient financés par l'industrie du tabac et ils ont trouvé ça scandaleux. Aujourd'hui, dans le monde de Big Tech, en intelligence artificielle, en gros, l'écrasante majorité, si ce n'est la quasi-unanimité des chercheurs, ont des conflits d'intérêts avec Big Tech. Ça peut être des financements directs, ça peut être des financements indirects. En France, il y a des systèmes de thèse-chiffres qui font que beaucoup de chercheurs ont des doctorants qui sont payés par Big Tech. Et si on a un bon superviseur de thèse... et qu'on se préoccupe, ce n'est pas le cas de tous les super-gérards des thèses, mais si on se préoccupe vraiment du bien-être de son étudiant en thèse, forcément, le conflit d'intérêt va être énorme parce qu'on ne veut pas que mettre en danger son propre étudiant. Donc, c'est là où c'est assez vicieux.

  • Speaker #0

    On a parlé tout à l'heure des fake news. Dans votre livre, vous parlez aussi des mute news. Qu'est-ce que ça veut dire concrètement concernant, par exemple, le climat ?

  • Speaker #1

    Oui, donc ça c'est un des autres aspects. J'ai parlé de la mise en avant des contenus problématiques, mais une autre façon... Et ça, ça conduit aussi au fait que les contenus qui sont en concurrence auront moins de visibilité. Donc ça vient du fait que l'attention humaine est limitée et qu'il y a une guerre de l'attention. Et si on est militant écologiste, mais militant à peu près de n'importe quelle cause, on se rend compte qu'en fait, une grosse partie du militantisme, c'est capter de l'attention. Et donc, si on n'y arrive pas, c'est que notre cause est, en tout cas selon le militant, une newt news, en le sens où c'est une nouvelle qui ne reçoit pas assez d'attention et qui est rendue silencieuse, notamment par la compétition, la concurrence ou l'arbitrage qui peut être fait notamment par les algorithmes de recommandation. Donc ça, c'est un aspect assez important à comprendre. Aujourd'hui, une proportion, à mon sens, déraisonnable de l'attention sur les problèmes informationnels en ligne sont portés sur les fausses informations, les fake news, ce genre de choses. Mais si on considère qu'en fait le problème des mute news est plus important encore, par exemple l'inattention au climat, ou l'inattention aux algorithmes de recommandation, ou l'inattention à la cybersécurité, en fait notre combat n'est plus sur la vérité de l'information. Notre combat, c'est sur mettre en avant, prioriser des messages qui sont plus importants que d'autres messages potentiellement factuels, mais qui nous semblent d'importance moindre.

  • Speaker #0

    Typiquement, là, c'est la campagne des élections européennes et on parle très peu des algorithmes.

  • Speaker #1

    Oui, typiquement, sur les élections européennes, alors que c'est un enjeu énorme. Aux États-Unis, il y a un ultimatum qui a été passé à TikTok, donc la question monte un petit peu. Il y a eu des problèmes de cybersécurité énormes autour de Microsoft. qui ont mis en danger vraiment la sécurité nationale, puisqu'il y a des gouvernements... De France ? Non, je parle aux États-Unis. Mais en France, on utilise beaucoup Microsoft. Donc, on est aussi client beaucoup de Microsoft. Et malheureusement, le manque d'attention à cela est très grand. Et puis après, sur les algues de recondondation, malheureusement, je pense que là, on peut vraiment parler d'une mutinuse énorme.

  • Speaker #0

    Je pense qu'on l'a compris. Jusqu'à présent, on a parlé surtout des algorithmes de recommandation. Quand on parle d'IA, on parle plutôt des IA génératives comme ChatGPT, MidJournée. Pour toi, là aussi, on met beaucoup trop d'importance sur ces ChatGPT, MidJournée, que sur les algorithmes de recommandation.

  • Speaker #1

    Oui, donc pourquoi est-ce qu'on pense que c'est beaucoup plus dangereux les algorithmes de recommandation ? C'est parce qu'encore une fois, c'est ceux qui interagissent vraiment avec la plupart des humains. Parler à chat GPT sur un téléphone, ça reste plus compliqué que de swiper ou scroller sur une application TikTok. Après, je ne veux pas minimiser l'importance non plus de ces autres problèmes. Chat GPT est en train de créer toutes sortes de problèmes, notamment parce que c'est réutilisé massivement par le cybercrime, et notamment par la désinformation, le cyberharcèlement. ce genre de choses.

  • Speaker #0

    Pour créer des faux comptes.

  • Speaker #1

    Pour créer des faux comptes, automatiser la création de faux comptes, ainsi de suite. Et les algorithmes générateurs d'images sont encore plus préoccupants, à mon sens, en termes de risque systémique pour la société, à travers le problème des deepfakes pornographiques. Ça, c'est un problème qui monte déjà. Il y a déjà beaucoup de cas aux Etats-Unis. Mais il faut imaginer que si n'importe quel gamin a accès à la capacité, en quelques clics, à faire des defects pornographiques de ses camarades de classe, on risque d'observer beaucoup de traumatismes psychologiques. Il faut vraiment voir que ces armes sont des armes de destruction psychologique qui ont déjà été utilisées massivement contre des journalistes femmes. C'est aussi un moyen d'intimidation et de déstabilisation qui, à mon sens, est extrêmement préoccupant.

  • Speaker #0

    On va revenir sur les algorithmes de recommandation. Je ne connais pas les chiffres et puis je pense qu'il faut les prendre avec des pincettes, mais je crois qu'un adolescent aujourd'hui passe en moyenne deux heures sur TikTok par jour, seulement sur TikTok. Donc il faut rajouter les autres réseaux sociaux. Moi, j'ai supprimé mes applications où il y avait un algorithme de recommandation. Donc j'ai supprimé Twitter, Instagram, TikTok que je n'avais pas, YouTube à cause des shorts notamment. qui me prenait beaucoup trop de temps, mais parce que j'avais ce truc que dès que mon micro-ondes tournait, que je devais attendre 30 secondes pour chanter le téléphone, dès que j'attendais mon ascenseur qui arrive, je chantais mon téléphone, ça devenait un peu compulsif et donc je suis loin d'être le seul. Qu'est-ce qui se passe dans notre cerveau pour que les algorithmes de recommandation arrivent à nous happer aussi efficacement ?

  • Speaker #1

    Ça, c'est vraiment une question pour un psychologue, idéalement. C'est des questions qui sont vraiment...

  • Speaker #0

    Mais dans le livre, vous parlez de système 1, système

  • Speaker #1

    2. Oui. Mais en tout cas, ce que disent les psychologues, c'est vraiment qu'un des aspects de ces algorithmes, c'est vraiment qu'ils sont optimisés pour capter l'attention. Et ce qu'on sait également, c'est que Google a embauché beaucoup de psychologues pour pouvoir... être aussi bon que possible à cette tâche. C'était pas mal révélé par un ancien de Google, Tristan Harris. Notamment, ils avaient beaucoup d'inspiration des jeux de casino, des machines à sous. Les machines à sous, ça paraît vraiment... pas être le truc super sophistiqué a priori, mais il y a quelques principes de base qui font que ça suffit à être à rendre accro un grand nombre d'utilisateurs et qui sont prêts même à mettre leur vie en tout cas au moins leur finance en danger à cause de ces mécanismes psychologiques Et donc, il y a une grande préoccupation de beaucoup de psychologues sur le fait que ces systèmes sont en train d'amplifier massivement, voire de créer d'une certaine manière, une grosse partie de la crise mentale qui est vraiment montante aujourd'hui, surtout chez les jeunes générations.

  • Speaker #0

    Et dans le livre, par exemple, vous dites que quand... On télécharge une app et qu'on se crée un compte. On doit suivre, par exemple, des 2-3 comptes, histoire que l'app comprenne, sans rien savoir de nous, quelles sont les grandes directions vers lesquelles elles doivent nous amener. Par exemple, sur TikTok, il faut suivre 2-3 comptes au début, je crois, sur Twitter. Donc, on peut choisir des tweets qui parlent de science, d'histoire, de... Et en fait, c'est plutôt notre... côté raisonné dans le livre, vous avez appelé ça le système 2 celui qui prend un peu de temps avant de s'exprimer et en fait très vite on remarque avec l'onglet For You notamment, enfin pour toi notamment de, je crois qu'il a été inventé par TikTok et qui a été repris depuis par Twitter et aussi les shorts aussi, en fait ne prennent pas du tout en compte ce qu'on leur a dit mais plutôt nous proposent des vidéos qui vont plaire à un autre côté de notre cerveau qui est lui beaucoup plus instinctif.

  • Speaker #1

    Oui, tout à fait. Encore une fois, le système 1 est beaucoup plus réactif. Système 1, système 2, c'est une terminologie qui vient de Daniel Kahneman, qui est malheureusement décédé récemment. C'est vraiment cette idée qu'il y a une partie de notre cerveau qui réagit beaucoup plus de façon peu réfléchie, instantanée sur le moment. On le voit vraiment sur le téléphone quand on est fatigué et tout ça. On a tendance à avoir une utilisation des réseaux sociaux qui est... pas vraiment ultra raisonnée et dans le livre on le distingue pas mal de ça, de ce qu'on appelle parfois l'abolition c'est ce qu'on voudrait vouloir, donc l'exemple que je prends tout le temps c'est pour moi les vidéos de football c'est vraiment ça donc une vidéo de football c'est une vidéo que je veux voir et je clique souvent dessus et malheureusement j'ai des marées de passer après des heures dessus et être fatigué et à pas dormir euh Et à l'inverse, je voudrais vouloir ne pas avoir cette envie. Je voudrais ne pas vouloir cliquer sur cette vidéo. C'est un peu une réflexion du second ordre. Et donc, d'une certaine manière, les réseaux sociaux aujourd'hui sont, si j'oublie le problème des faux comptes et du potentiel biais introduit par les développeurs à l'intérieur de ces algorithmes, j'oublie pas mal de choses, mais si j'oublie ça, les algorithmes sont en un sens assez démocratiques déjà. dans le sens où ils font voter de certaine manière la population ils font sortir ce qui est populaire mais un des problèmes c'est que c'est un vote vraiment des systèmes 1 c'est un vote des réflexions des préférences instinctives Et ce qu'on voudrait peut-être plus pour nos démocraties, pour bien gouverner nos sociétés, en tout cas la priorisation d'informations dans nos sociétés, c'est peut-être beaucoup plus un vote des parties réflexives, d'évolution réfléchie. Et donc, il faut mettre en place beaucoup de choses pour en arriver là. Mais malheureusement, aujourd'hui, avec les modèles économiques les plus lucratifs aujourd'hui et l'absence de régulation, ça fait que les systèmes qui vont miser beaucoup plus sur la partie préférence instinctive sont beaucoup plus... plus utilisés.

  • Speaker #0

    Parce que le problème c'est que tous ces apps sont en compétition les unes les autres donc il y a un peu un dilemme du prisonnier, si Youtube se met à promouvoir du contenu beaucoup plus pédagogique du coup que ça marche un peu moins bien au niveau des chiffres, les gens vont se tourner sur TikTok et au final Youtube aura tout perdu et ça aura servi pas grand chose.

  • Speaker #1

    Il y a un problème vraiment similaire au climat en termes de coordination et... Et en particulier, le problème dans les deux cas réside beaucoup dans ce que les économistes appellent les externalités négatives. Donc les externalités négatives, c'est quoi ? C'est quand il y a un échange de biens entre un producteur et un consommateur, mais qu'il y a une pollution qui va affecter le reste de la population ou une autre sous-partie de la population. Et donc ça, on le voit beaucoup sur les réseaux sociaux. C'est-à-dire que peut-être qu'à la limite, certains sont prêts à utiliser... Peut-être vouloir vraiment utiliser les réseaux sociaux en tant que distraction. Mais ce qui est dérangeant, c'est plus quand Facebook recommande des appels à la haine ou au meurtre ou de la désinformation sur des sujets importants comme le climat, à d'autres personnes massivement. À ce moment-là, le producteur ou même le diffuseur sont contents, ils ont produit le contenu, ils ont été rémunérés. Le consommateur est content, il a consommé un truc qui lui a fait plaisir. Mais par contre, le reste de la société va subir les conséquences parce que ça va appeler à la haine. Potentiellement, le reste de la société... On prend en introduction le cas des Rohingyas au Myanmar où les Rohingyas ont subi un génocide, notamment parce que, d'après un site international, Facebook avait contribué à amplifier massivement auprès des Birmans des appels au meurtre envers les Rohingyas.

  • Speaker #0

    Sans le vouloir, mais parce que ça faisait du chiffre.

  • Speaker #1

    C'est ça. Là où l'accusation est forte, c'est que Facebook a été mis au courant de manière répétée depuis 2012 de ce problème. Et Facebook n'a pas... pris les mesures, pas du tout pris des mesures satisfaisantes pour pouvoir contrer ce problème.

  • Speaker #0

    Donc, en fait, un peu en toute impunité, et c'est ce qui fait aussi que ce problème des big tech est un peu une mute news, parce que si ça arrivait, je ne sais pas, sur un médicament ou sur une marque d'avion, au hasard, Boeing, qui se crache tous les 4 matins, on en parlerait tout le temps. Alors que là...

  • Speaker #1

    Là, on parle d'un génocide, donc c'est grave. Mais c'est un génocide lointain, donc peut-être que malheureusement, beaucoup de gens ne sont pas ultra sensibilisés à cela, ou s'en manquent un petit peu. Mais dans le cas de la France, ou en tout cas de nos démocraties, on voit un affaiblissement des démocraties généralisées. Et là où c'est vraiment préoccupant, et là ça va me permettre vraiment de répondre à la question pourquoi est-ce que les algorithmes de recommandation me préoccupent beaucoup plus que le climat, c'est qu'en termes d'échelle de temps, on voit que depuis 2012, il y a eu un déclin des démocraties, au lendemain des printemps arabes, et que ce déclin s'accélère. Et que vraiment, on parle de montée de populisme, de montée de régime autoritaire, déclin des institutions, de la confiance dans les institutions. Et on voit vraiment concrètement avec des exemples spectaculaires. aux États-Unis, au Brésil, en Argentine, en Italie, en Hongrie. Malheureusement, la liste des exemples, ce n'est pas du tout ce qui manque. Et donc, le déclin des démocraties, pour moi, c'est vraiment une préoccupation énorme qu'il faut avoir. C'est pour ça que je pense que c'est un problème plus important aujourd'hui que le changement climatique. On parle vraiment des prochaines européennes, des prochaines élections à travers le monde, des prochaines élections aux États-Unis qui peuvent complètement changer le paysage géopolitique. Et à cela, en plus, se rajoute de la haine inter-pays. C'est un peu intra-pays, mais inter-pays. On a de plus en plus de guerres à travers le monde, mais également des tensions exacerbées. avec des risques de conflits, d'escalade. Sachant tout ça, je considère que les algorithmes de recommandation sont beaucoup plus préoccupants aujourd'hui que le climat.

  • Speaker #0

    Comment on attribue ça ? Ce n'est pas la seule cause. Trump, c'était déjà un farfelu avant qu'il y ait les algorithmes de recommandation. Mais comment on attribue ça aux algorithmes ? Est-ce que c'est parce que les algorithmes... ont compris, consciemment ou pas, qu'une des émotions qui crée le plus de user engagement, comme tu disais au début, c'était les émotions négatives et notamment la colère.

  • Speaker #1

    Oui, donc ces systèmes, il ne faut vraiment pas les sous-estimer. Les systèmes d'intelligence artificielle sont extrêmement sophistiqués. Ce sont les intelligences artificielles, dans le sens les plus sophistiquées, beaucoup plus sophistiquées encore que chez la GPT, notamment parce qu'elles font du profilage psychologique de 2 milliards d'humains. Elles ont appris à voir ce qui fait réagir. Elles ont fait énormément de, ce qu'on appelle en jargon, du A-B testing. Elles ont testé beaucoup. Elles ont testé, qu'est-ce qui se passe quand je recommande ça, quand je recommande ci. Et petit à petit, elles ont appris ce qu'on appelle des features, des caractéristiques des contenus qui font que telle ou telle caractéristique d'utilisateur se met à interagir ou pas avec ces contenus. Et en fait, il n'y a pas besoin que ces caractéristiques soient... explicité par l'humain pour que l'algorithme néanmoins arrive à les identifier et il n'y a même pas besoin qu'elles correspondent à des choses que nous humains, sur lesquelles on met des mots. Et donc bien souvent c'est avec des choses assez abstraites, difficiles à interpréter mais après nous, en voyant le comportement de ces algorithmes, on voit que en effet Quand c'est des contenus de haine, elles ont tendance à davantage les mettre en avant, à davantage leur donner de visibilité. C'est une mécanique qui n'est pas forcément complètement construite pas à pas. C'est vraiment beaucoup plus à la place d'apprentissage, d'essais et d'erreurs. Et à partir de ça, les algorithmes arrivent à faire une représentation mentale de ce qui fait réagir les différents utilisateurs.

  • Speaker #0

    Parce qu'au premier jour des réseaux sociaux, on se souvient, il y a quelques années, on nous disait que les réseaux sociaux nous plongeaient dans des bulles de filtres. Donc en gros, on ne voyait que du contenu qui nous plaisait. Mais on pouvait un petit peu se... On était coupé des autres opinions et en fait, maintenant, aujourd'hui, on se rend compte que ce n'est pas du tout vrai. On est mis face à des opinions contraires et souvent, c'est ce que vous dites dans le livre, je trouve ça super intéressant, c'est face à des caricatures, des arguments adverses et ce qui polarise la société énormément.

  • Speaker #1

    Oui, c'est ça. C'est exactement ce que tu as dit. Historiquement, on a vraiment pensé qu'il y avait ces problèmes de bulles, de filtres. Mais en fait, ce qu'on se rend compte, c'est que sur Internet, on est beaucoup plus souvent exposé à des avis contraires que dans la vraie vie. Et du coup, ça pose la question, est-ce que vraiment l'Internet polarise ? En fait, il y a plusieurs études, comme on le cite dans le livre, qui montrent qu'en fait, être exposé aux pires avis, en particulier du coin adverse, Ce n'est pas ça qui va réduire la polarisation. En fait, ça peut même l'exacerber. En particulier, ça va augmenter pas mal ce que différents chercheurs appellent la polarisation affective. C'est-à-dire que même des gens qui sont très proches de nous, avec qui on partage 99% des idées, des gens qui sont en même parti politique que nous, on peut finir par vraiment les détester, avoir un sentiment de haine vers eux. Et un autre aspect, c'est que la colère est une émotion contagieuse. Beaucoup de choses sont contagieuses en termes cognitifs, et notamment, si on est entouré de gens en colère, ça va nous pousser à être plus souvent en colère. Du coup, juste le fait de normaliser la colère...

  • Speaker #0

    le fait qu'à chaque fois qu'on va sur un réseau social, sur Twitter en particulier, on est régulièrement exposé à de la colère, ça peut monter le niveau de colère global dans la société, y compris pour pas grand-chose, j'ai envie de dire.

  • Speaker #1

    Oui. On le retrouve tellement dans la bulle ou dans la sphère climat, en fait, où, comme tu dis, on est d'accord avec 99%, mais on s'étripe sur les 1%, et honnêtement, il y en a qui font... leur beurre dessus. Il y a beaucoup de comptes qui font des 10 000, 20 000, 30 000 abonnés parce qu'ils ont compris que taper sur un tel ou un tel, c'était fructueux. Il y a une phrase d'Albert Camus que j'aime bien, je trouve qu'il s'applique bien à la situation, c'est qu'il dit la démesure est un confort toujours et une carrière parfois. Et je trouve qu'avec les réseaux sociaux, en fait, on est en plein dans, et là, c'est juste leur carrière. C'est marrant parce que tu nommes la Chine comme un ennemi, Alors qu'aujourd'hui quand on écoute les politiques, ils ne sont pas du tout sur cette ligne-là. Pour eux l'ennemi c'est la Russie, c'est l'Iran, mais la Chine n'est pas du tout représentée comme un ennemi, peut-être parce que les guerres sont plus indirectes, ne sont pas avec des bombes, mais avec comme tu disais des algorithmes qui façonnent un peu les cultures. Et c'est un autre problème finalement des algorithmes de recommandation, on a dit que ça polarisait, on a dit que ça ne mettait pas forcément le contenu le plus... instructif en avant, mais il y a aussi ce problème de guerre, ce que vous appelez des guerres cognitives. Est-ce que tu peux nous donner des exemples récents de guerres cognitives en France ou aux Etats-Unis ?

  • Speaker #0

    Par exemple, un des cas récents d'attaque informationnelle de la Russie, c'est qu'on suspecte pas mal la Russie d'avoir amplifié massivement la polarisation émotionnelle, en particulier au moment de la révolte des agriculteurs. On les suspecte aussi d'avoir été pas mal derrière, encore une fois, pas mal amplifié, le message sur les punaises de lit. On sait beaucoup plus, assez clairement, notamment via la chaîne Oshua Today, que sur le sujet de la vaccination, ils ont beaucoup cherché à diviser et à amplifier les contenus antivaccinaux, qui étaient critiques de la position notamment des institutions publiques pour pouvoir décrédibiliser les institutions publiques. Tout ça, c'est des attaques informationnelles très très très forte de la Russie. Aux États-Unis, on sait qu'il y a beaucoup eu d'interventionnismes sur d'ingérences lors de chacune des élections. Pour donner quelques chiffres, il y avait une étude qui avait été relé notamment par le MIT Technology Review qui montrait que sur les 20 comptes catholiques américains les plus suivis sur Facebook, 19 étaient sous le contrôle d'une IP russe. D'accord. Et un autre chiffre encore, chaque année, Facebook retire autour de 7 milliards de faux comptes. Ça montre vraiment l'ampleur de toutes ces campagnes d'influence. La France, l'Institut de recherche stratégique de l'école militaire, a publié aussi un rapport sur les campagnes d'influence chinoises. et qui montraient vraiment une ampleur énorme. Ils estimaient à 2 millions le nombre de Chinois payés pour produire de la désinformation.

  • Speaker #1

    Sur TikTok, notamment, vous, vous appelez ça carrément une arme de destruction massive.

  • Speaker #0

    Oui. Donc, il faut vraiment voir qu'aujourd'hui, la stabilité des démocraties, la confiance en nos institutions, l'absence de corruption, la capacité de dénoncer, de mettre en avant ces corruptions et de lutter contre, c'est vraiment ce qui protège nos sociétés. C'est ce qui fait que... La démocratie, c'est quelque chose de précieux et de rare dans l'histoire de l'humanité, y compris dans l'histoire de la France. Et donc, avoir un outil qui est capable de... mettre à mal ça, de vraiment détruire cela, ça me semble être extrêmement préoccupant.

  • Speaker #1

    Dans le bouquin, vous dites, pour juger la valeur de la démocratie, il faut se rappeler ce qui s'est passé entre 1789, la révolution, et je ne sais plus jusqu'à où on est allé, mais plus de 100 ans. Oui,

  • Speaker #0

    c'est ça, c'est la question. Quand est-ce que la démocratie est devenue stable en France ? Il y a eu la révolution française en 1789, qu'on célèbre beaucoup, à raison. Mais il a fallu attendre 1870, pour pouvoir avoir une démocratie stable, la Troisième République. Et entre-temps, en fait, il ne s'est pas rien passé. Ce n'est pas juste qu'on a eu un coup de bol, c'est qu'il y a eu beaucoup de compréhension de l'importance de toutes sortes d'infrastructures démocratiques, institutionnelles. Donc, je pense en particulier à l'éducation nationale, à l'indépendance de la justice, à la liberté de la presse. qui sont vraiment des composants indispensables pour avoir une démocratie stable. Malheureusement, le web a beaucoup balayé ça d'un revers de la main, en tout cas sur Internet, et les a affaiblis également en dehors, hors ligne. Ce qui fait qu'il y a beaucoup de travail qui me semble indispensable de reconstruire vraiment ces institutions à l'ère du numérique, de les mettre en ligne, de les renforcer, d'ajouter beaucoup plus de transparence et de reddition des comptes. pour que non seulement ces institutions existent, non seulement soient fiables, mais également soient de confiance et qu'on construise une conscience justifiée par le peuple pour ce genre d'institution.

  • Speaker #1

    Tu as parlé des bauches, de lois, mais aujourd'hui, on est naïf encore en France. Je pense que ça se joue plutôt à l'échelle européenne, c'est ça ?

  • Speaker #0

    Oui, ça se joue beaucoup plus à l'échelle européenne. Donc, il y a différentes régulations. Il y a eu un travail formidable qui a été fait par beaucoup de juristes. Ça a beaucoup avancé. C'est un travail très difficile. Mais il y a beaucoup de choses qui ont avancé, notamment le RGPD, le Règlement pour la protection des données personnelles. Il y a eu ensuite le DSA, le Digital Services Act, le Digital Markets Act, maintenant le AI Act à venir, le Cyber Resilience Act peut-être à venir également. Donc il y a différentes régulations qui ont été mises en place. Pour augmenter la transparence, augmenter la capacité de, par exemple, les lois extraterritoriales sur le stockage des données européennes, le genre de choses qui ont été mises en place. Et il y a eu des amendes qui sont tombées, il y a eu de 1,2 milliard, si je me souviens bien, d'euros d'amende pour Meta, pour avoir stocké des données de citoyens européens sur le territoire américain. Il y a un mec, un peu un super héros dans ce domaine, Max Schrems, qui a beaucoup oeuvré pour faire appliquer ces lois. Et puis il y a aussi beaucoup de lois préexistantes. C'est-à-dire qu'en France, il y a des lois sur l'interdiction de l'appel à la haine, incitation à la haine raciale. Il y a des lois sur les propriétés intellectuelles. Et c'est des lois qui parfois ont été utilisées pour des procès. notamment aux Etats-Unis. En Europe, on a beaucoup plus la tendance à vouloir d'abord bien poser les cadres et ensuite les faire appliquer. Aux Etats-Unis, il y a un peu plus un côté les procès, c'est un peu plus à base de procès, ça pose aussi des problèmes parce qu'il faut être riche pour lancer un procès, mais lancer un procès, c'est beaucoup plus classique et il y a des procès en cours contre Open AI, notamment le New York Times a dit que c'est un peu plus à excuser OpenAI, en particulier chez la GPT, de vol de propriété intellectuelle. Le GPT est capable de donner quasiment verbatim les contenus d'articles du New York Times qui sont sous paywall, donc ça pose forcément des problèmes. Ça veut dire que le paysage juridique est loin d'être vierge. Il y a beaucoup de choses qui peuvent être utilisées. Le plus gros défi, à mon sens, au niveau législatif... Il y a besoin de nouvelles lois, de meilleures lois, ce genre de choses. Il y a aussi des gros problèmes de corruption, j'en ai pas parlé, mais ça mériterait aussi beaucoup de choses. Il y a au moins de lobbying. Le lobbying de Big Tech est énorme à l'échelle européenne et pas que Big Tech. La France aussi a été un moteur énorme pour affaiblir les réglementations à l'échelle européenne. Pourquoi ? Pourquoi ? Parce que d'un côté... D'un côté, on a un président qui est très libéral. D'un autre côté, on a quelques start-up françaises ou pseudo-françaises, on va dire, comme Mistraléa, qui ont été défendues.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et puis, d'un autre côté, il y a aussi tout le côté surveillance pour les Jeux Olympiques. Donc, il y a des problèmes de sécurité nationale qui sont... considérée importante par les dirigeants français qui ont fait que beaucoup de réglementations sur les conditions de surveillance, de cybersurveillance ont été combattues par la France.

  • Speaker #1

    D'accord, il y a eu des intérêts communs entre les big tech et le gouvernement français sur la protection des données. Oui. Ok.

  • Speaker #0

    Mais au-delà de tout ça, ça fait déjà pas mal de problèmes, mais un autre problème, c'est surtout, pour moi, la mise en vigueur, l'application, le enforcement, on dirait en anglais.

  • Speaker #1

    Oui, l'application.

  • Speaker #0

    Le fait que les lois soient vraiment appliquées. Et par exemple, pour moi, un cas concret, chaque GPT viole le plan de loi existante. C'est sûr. C'est tellement sûr que même le PDG d'OpenAid l'a reconnu. Il a dit que ce serait impossible de faire ce qu'on fait sans utiliser des droits qui ne sont pas libres de droits. Des données qui ne sont pas libres de droits. Et donc, la question se pose. Aujourd'hui, dans le numérique, si vous êtes une startup, si vous lancez un produit, il y a vraiment la question est-ce qu'on viole la loi ? Tout le monde le fait. est-ce qu'on reste derrière ou est-ce qu'on n'achète pas aussi des produits qui clairement violent la loi ? La question se pose. Open AI est acheté par beaucoup d'entreprises françaises. Si on a un temps soit peu réaliste par rapport à ça, on sait que ça viole des lois, est-ce qu'on achète des produits dont on sait qu'ils sont illégaux, même si ils n'ont pas été jugés illégaux ?

  • Speaker #1

    Par exemple, dans le livre, vous dites que Open AI a fait du lobbying auprès des députés européens, ça c'est acté quoi.

  • Speaker #0

    Ça c'est acté, ça a été, il y a un article du Time là-dessus, mais ouais...

  • Speaker #1

    Pour édulcorer une loi.

  • Speaker #0

    Pour édulcorer une loi, en fait le plus gros lobbyiste, OpenAI a clairement agi, mais le plus gros lobbyiste, c'est pas OpenAI, c'est beaucoup plus Mistral AI, l'entreprise, alors j'ai dit pseudo-française, parce qu'elle a des investissements américains. Californien depuis le début et que en plus récemment elle a fait un partenariat avec Microsoft. Donc ça pose la question de est-ce que c'est vraiment français.

  • Speaker #1

    Ok. Il y a des pays comme l'Inde par exemple qui ont carrément interdit TikTok. TikTok lui-même je crois qu'il est limité à 40 minutes par jour pour les moins de 14 ans et il est aussi interdit entre 22h et 6h du matin alors en France ça ne serait pas forcément applicable mais là-bas c'est possible en France donc je disais tout à l'heure les ados passent en moyenne 2h par jour, est-ce que c'est des choses qui sont envisageables, les Etats-Unis envisagent par exemple de l'interdire ?

  • Speaker #0

    Oui, j'irais même plus loin juste sur la distinction entre la Chine en Chine en fait ils ont leur propre application TikTok n'est pas utilisé en Chine ils ont une autre application qui s'appelle Douyin et Douyin fait des recommandations très différentes de TikTok ça pose la question, on est en train d'utiliser un produit que le producteur ne veut pas utiliser c'est des recommandations qui sont plus,

  • Speaker #1

    je crois, pédagogiques c'est ça,

  • Speaker #0

    des recommandations plus pédagogiques en fait,

  • Speaker #1

    ils abrutissent tout le monde mais eux, ils ne veulent pas s'empoisonner avec c'est ça,

  • Speaker #0

    c'est un peu ça ça rappelle un peu l'industrie de la drogue...

  • Speaker #1

    Les guerres de l'opium.

  • Speaker #0

    Les guerres de l'opium. Typiquement, un dealer de drogue, peut-être, ne consomme pas autant que les personnes à qui il vend. Et donc, la réponse à ça, ça a été la réglementation. Les drogues sont très régulées. Beaucoup de drogues, en tout cas, sont très régulées dans beaucoup de pays. Et donc, oui, je pense... Après, si en plus on adopte des... si on considère qu'il y a vraiment une guerre cognitive qui a lieu, une guerre d'influence au moins enfin une guerre d'influence je pense que tout le monde s'y accorde et qu'en plus il y a même une guerre de déstabilisation des pays lutte d'influence à l'échelle du pouvoir politique, des partis ainsi que des gouvernements. Je pense qu'il faut être vraiment terrifié par TikTok.

  • Speaker #1

    Comment le Parti communiste chinois utilise TikTok comme une arme ? Par exemple, en Inde, ils l'ont interdit. Il devait y avoir une bonne raison, j'imagine.

  • Speaker #0

    Oui, l'Inde se méfie beaucoup de la Chine. Il y a encore des territoires disputés.

  • Speaker #1

    Mais c'est à cause de ça ? Oui,

  • Speaker #0

    je pense que c'est pas mal lié à ça. Et à l'inverse, la Chine a interdit récemment WhatsApp et Thread.

  • Speaker #1

    D'accord.

  • Speaker #0

    Et ils ont aussi enlevé, enfin, ils n'ont pas communiqué là-dessus, mais il y a eu des applications, je crois que c'est Signal et Telegram, qui ont été enlevées de l'App Store en Chine. Donc, la Chine est vraiment en mode cyberguerre, en mode guerre informationnelle. L'été dernier, Microsoft a attribué à la Chine un hack de leur système massif. En France aussi, il y a cet état d'esprit. Le général Burckhardt, chef d'état-major des armées, disait en 2021, je crois, qu'il faut gagner la guerre avant la guerre. et se préparer au pire. Mais vraiment, gagner la guerre avant la guerre, c'est faire en sorte qu'en termes de lutte informationnelle, on soit solide, on fasse peur, et on ne donne pas envie à quiconque de nous attaquer. Et voir, on montre aux autres qu'on est capable de les déstabiliser. Aujourd'hui, la Russie et la Chine ont des moyens de pression sur les... Ils peuvent déstabiliser vraiment beaucoup de démocraties. Et ça les met en position de force, même pour négocier autre chose, des choses économiques ou autres. Donc si on se place dans un esprit de guerre informationnelle, TikTok est une arme surpuissante. Quand on voit ce qui se passe à Taïwan...

  • Speaker #1

    Ouais, on peut parler de Taïwan. Vous en parlez beaucoup dans le bouquin. Et puis, c'est un point chaud, évidemment, du monde aujourd'hui. Et je pense qu'il résume bien un petit peu ce qui se passe dans le monde entier.

  • Speaker #0

    Oui, Taïwan, c'est... Alors, nous, on prend vraiment ça comme un exemple, parce qu'au cours des dix dernières années, comme je l'ai dit, il y a beaucoup de déclin démocratique. Il y a beaucoup de choses qui sont déprimantes quand on regarde le paysage numérique et démocratique à travers le monde au cours des dix dernières années. Mais il y a Taïwan. Et Taïwan... Donne beaucoup d'espoir, et en particulier beaucoup d'inspiration, parce que ce qu'a fait Taïwan, c'est qu'il y a eu un mouvement étudiant en 2014, qu'on appelle le mouvement des tournesols, et le mouvement des tournesols a beaucoup été porté par des jeunes qui demandaient plus de démocratie, mais également beaucoup par des geeks, des informaticiens, des gens qui sont très à l'aise avec le numérique. Un des aspects au cœur de la stratégie du mouvement des tournesols, c'était d'utiliser le numérique comme une force pour la démocratie, comme une arme démocratique. Et donc ça, ça transparaît dans différentes manières. Par exemple, un des aspects, c'est beaucoup plus de transparence sur les choses qui sont censées être transparentes. Donc le gouvernement français est au service des Français. Il est censé travailler pour les Français. Donc beaucoup de choses que fait le gouvernement français, même par la loi, sont censées être accessibles à n'importe quel Français. Mais aujourd'hui, il y a certains documents qui sont horriblement difficiles à obtenir parce qu'il n'y a pas un système d'information qui a été mis en place pour rendre ces informations très accessibles aux citoyens français. Ça, c'est quelque chose contre lequel Taouan a beaucoup lutté. Par exemple, l'allocation des budgets du gouvernement. ce genre de choses est facilement visualisable sur des sites taïwanais du gouvernement.

  • Speaker #1

    Peut-être je peux abonder par expérience. Par exemple, pour savoir ce qu'a voté un certain nombre de députés, un groupe de députés, loi par loi, etc. C'est possible, techniquement on peut le faire, mais pour récupérer ces données de manière plus industrielle, pour en faire quelque chose, c'est beaucoup plus compliqué et on peut penser que c'est fait à dessein. par le gouvernement pour compliquer les choses.

  • Speaker #0

    Un autre exemple qui a été frappant, c'est le cas de APB, ex-Parcoursup. C'était un algorithme, il y avait un algorithme, en tout cas, dans APB, et l'algorithme n'était pas transparent, n'était pas open, on ne pouvait pas y accéder. Et donc, il y a eu une association de lycéens qui ont demandé à La publication de ce code, qui est vraiment un truc public, qui devrait vraiment être fait en open source, sous licence libre.

  • Speaker #1

    Et qui détermine l'avenir de millions de lycéens.

  • Speaker #0

    Qui détermine l'avenir tellement de jeunes. Et le gouvernement avait envoyé le code de cet algorithme par courrier, par courrier physique. complètement inexploitable, vraiment compliqué. Il y a vraiment un progrès énorme à utiliser beaucoup plus le numérique comme une force pour augmenter la transparence dans ce genre d'initiatives. Un des autres aspects qu'a fait Taïwan, c'est aussi qu'ils ont compris très vite qu'ils étaient en guerre cognitive avec la Chine et qu'ils étaient bombardés par de la désinformation. de Chine. Un des aspects qu'ils ont fait, c'est mettre en place des plateformes de pré-banking, des solutions de pré-banking, de lutte contre la désinformation avant même qu'elle soit consommée autant que possible. Un des aspects intéressants, c'est qu'ils ont intégré une application qui s'appelle Polis, pol.is, qui est une plateforme de délibération qui a été introduite en 2012 pour d'autres raisons. Mais qui a permis, en fait, c'est une plateforme où vous pouvez délibérer, donc avoir un groupe qui va mettre des propositions.

  • Speaker #1

    Une agora citoyenne en ligne.

  • Speaker #0

    C'est ça. Et par contre, il y a des règles un peu spéciales. Je reviens sur le fait qu'algorithme, ça veut dire règle, donc ça régit la manière dont on interagit. Et donc, on peut vraiment réfléchir à des algorithmes démocratiques ou plus démocratiques. Là, en l'occurrence, Polis, ce qu'il faisait, c'est que il... ils ne permettaient pas les réponses. Ça peut être un peu bizarre, mais chacun fait des propositions, et tout ce que les autres peuvent faire, c'est mettre un pouce vers le haut ou un pouce vers le bas. Et donc ça, ça permet de récolter les avis des différentes personnes sur différentes propositions. Et ça permet de construire ensuite une carte de l'ensemble des avis sur différentes propositions. Ça, c'est intéressant pour voir les désaccords, mais c'est intéressant surtout pour voir les consensus, voir les choses sur lesquelles les interventions, qui peuvent être assez radicales, mais sur lesquelles on est tous d'accord. Donc ça a été pas mal utilisé à Taouane, et de façon intéressante, ça a été utilisé aussi récemment en France. Donc il y a eu une expérience qui a été mise en place. Au lendemain, suite aux violences policières, aux conflits violences policières, violences des grands lieux, il y avait des questions de qu'est-ce qu'on fait par rapport à la police, quelles sont les interventions qu'on doit faire par rapport à la police, sujet ô combien controversé qu'ils vont aller.

  • Speaker #1

    Oui, voilà. Donc sur Twitter, par exemple, c'est des embrouilles.

  • Speaker #0

    Sur Twitter, on dit un demi-mot et paf, tout de suite, ça part en flamme. Et néanmoins, ce qui était intéressant avec Police, c'est qu'on a permis de se rendre compte qu'il y avait des consensus. Même sur ce sujet au combien controversé, il y avait en fait des consensus à travers la population et notamment tous voulaient beaucoup plus investir dans la formation des policiers et dans la police de proximité. Et donc, c'est quand même remarquable qu'on peut se mettre tous derrière ces consensus et lutter pour la mise en place de ces consensus et pour le suivi de ces consensus. Et ça fait une action qui non seulement est active, qui va permettre vraiment de faire progresser le sujet, mais qui est aussi unificatrice. On a vu qu'une des grosses stratégies de désinformation des pays étrangers, c'est de pliver, de diviser la population. Donc là, ça permet de beaucoup plus unifier, d'apaiser, et de travailler ensemble pour vraiment améliorer les choses, même si on sait qu'il y a des sujets sur lesquels on n'est pas d'accord.

  • Speaker #1

    Donc là, c'est carrément un négatif de ce qui se passe aujourd'hui sur Twitter. Qu'est-ce qu'on peut faire d'autre ? pour mettre en place ce que vous appelez vous cette gouvernance algorithmique enfin démocratique qu'est-ce que vous proposez en gros ce serait que tous ces algorithmes qui appartiennent à des entreprises privées soient des algorithmes publics à l'échelle mondiale débattus comment ça marche ?

  • Speaker #0

    Il y a pas mal de choses à faire énormément de choses à faire qui peuvent être faites de façon euh... Je veux dire concurrentes au sens... En parallèle, pas forcément en concurrence, en compétition. Et donc un des... Alors, peut-être une chose à dire, c'est que c'est un peu illusoire d'espérer résoudre le problème du jour au lendemain. Donc, il ne faut pas avoir un truc tout fait. Enfin, il ne faut pas espérer avoir un truc tout fait. On va déployer ça demain et tout va être résolu. Donc, il faut vraiment avancer pas à pas, faire des concessions sur le chemin, en espérant atteindre un état qui soit vraiment satisfaisant, in fine.

  • Speaker #1

    Un autre point commun avec le climat, d'ailleurs.

  • Speaker #0

    Un autre point tout à fait avec le climat. Par exemple, une des propositions qu'on fait, c'est beaucoup plus respecter un principe démocratique qui est une personne, une voix. Aujourd'hui, typiquement, ça voudrait dire quoi ? C'est-à-dire que le pouvoir d'influence qu'on a sur l'algorithme soit beaucoup plus une personne, une voix, et en particulier des personnes qui ne sont pas résidents français, on va dire. Les termes peuvent être débattus, ou citoyens français, ou résidents européens. Les termes peuvent être débattus, mais ça serait bien que quelqu'un qui, au moins, ne soit pas humain, n'ait pas un pouvoir disproportionné sur le comportement de ses algorithmes. Aujourd'hui, c'est le cas. On a vu avec Shadjepet et compagnie, il y a des compagnes de désinformation qui ont des armées de faux comptes qui sont capables de manipuler beaucoup plus les algorithmes de recommandation que le citoyen français. Et donc, réarmer beaucoup plus les citoyens français dans le contrôle de ces algorithmes, donc ça c'est une chose.

  • Speaker #1

    En gros dans la vraie vie la démocratie sur ce point de vue là est respectée il n'y a pas de bourrage d'urne en France par des ingérences étrangères mais par contre en ligne il y a un peu ça qui se passe

  • Speaker #0

    Exactement, c'est vraiment cette analogie et donc on peut se demander comment est-ce qu'en ligne on peut faire pour que chacun ait une voix, enfin chaque citoyen en français on va dire, ait une voix et donc il y a des idées, il y a des initiatives comme France Connect qui permettent d'identifier les personnes en ligne Un des problèmes de France Connect, tel qu'il est aujourd'hui, c'est qu'il identifie pleinement la personne en ligne. Donc si on se connectait avec notre compte Google et qu'on certifiait via France Connect qu'on est un citoyen français, Google saura exactement lequel de ces citoyens on est et le gouvernement français saura exactement quel compte Google on a. Et donc il est capable de suivre, de retracer ce que chacun dit et potentiellement, si on n'a pas confiance dans le gouvernement, on pourrait avoir des problèmes. Donc ça c'est une solution qui n'est pas idéale, mais par contre un truc qui pourrait être fait c'est de combiner ça avec des techniques de cryptographie moderne, ce qu'on appelle le zero knowledge proof, la preuve à divulgation nulle de connaissances pour ceux qui connaissent. mais qui permettrait de certifier qu'un compte est possédé par un citoyen français, mais sans que ni le gouvernement ni la plateforme ne sachent quel est ce citoyen en question. Et ensuite, ce qu'on pourrait exiger, c'est que les algorithmes de recommandation, même du privé, même de YouTube par exemple, n'apprennent que des données des citoyens français en France, ou des citoyens européens en Europe, par exemple, quelque chose comme ça. Et donc ça, ça limiterait beaucoup la capacité d'ingérence. des pays étrangers.

  • Speaker #1

    Et une fois qu'on aurait cette possibilité de voter, c'est quoi la suite en fait ? On vote comment ? Pourquoi ?

  • Speaker #0

    Oui. Une autre difficulté, c'est lié à ce dont on a parlé plus tôt, c'est qu'aujourd'hui, c'est un vote des préférences instinctives. Si on fait juste ce que j'ai dit, on risque... diminuerait beaucoup les problèmes d'ingérence étrangère, mais on risque quand même d'avoir le fait que les contenus les plus populaires ne sont pas les sujets importants. Oui. Et donc, si on veut changer cet état de fait, il va falloir faire ce qu'on appelle une démocratie d'évolution, plutôt qu'une démocratie des préférences instinctives.

  • Speaker #1

    Tu disais tout à l'heure, c'est ce que je voudrais voir.

  • Speaker #0

    Vouloir, quelque chose de beaucoup plus réfléchi. Oui. Et c'est des choses qui sont déjà un peu poussées par la démocratie telle qu'elle est aujourd'hui. Par exemple, il y a certaines lois, je ne sais plus le numéro de cette loi, mais il y a une loi qui dit que le jour d'une élection, les partis politiques n'ont pas le droit de continuer leur campagne.

  • Speaker #1

    Même 48 heures, je crois.

  • Speaker #0

    Même 48 heures, oui. C'est une façon de faire en sorte qu'on ne soit pas influencé au dernier moment par la dernière réplique. et qu'on n'ait pas un truc plus instinctif au moment de voter. Donc ça nous force 48 heures où on est un peu plus en mode méditation. Même si, bien sûr, on ne le sera jamais complètement en pratique. Et donc, on pourrait instaurer des choses similaires sur le web. C'est des choses d'initiatives... J'ai l'impression de dire beaucoup de mal des entreprises privées. Enfin, je le fais. Mais il y a eu des initiatives par certaines équipes de ces entreprises privées qui sont très louables. Notamment chez YouTube. Il y avait cette fonctionnalité à un moment où vous pouviez donner, qui existe encore aujourd'hui, où vous pouvez donner votre avis sur une vidéo que vous avez vue la veille.

  • Speaker #1

    D'accord.

  • Speaker #0

    C'est ce genre de mécanisme.

  • Speaker #1

    Donc, en ayant à tête reposée.

  • Speaker #0

    À tête reposée et en ayant passé la nuit, au moins, c'est possible de bien dormir. Et en tout cas, ça fait un jugement d'une autre partie de nous, pas possiblement un parti plus réfléchi. Et donc ce sont des initiatives qui sont intéressantes.

  • Speaker #1

    Il y a Twitter aussi. En gros, je voulais te demander, c'est une question, lesquelles les réseaux sociaux sont les moins pires ? Enfin, on sait que Twitter maintenant, c'est un peu le... C'est à peauri en termes de qualité du débat, mais vous dites dans le livre qu'ils font quand même des choses comme des community notes, et à un moment donné, avant de retweeter, ils nous demandaient si on avait bien lu l'article qu'on retweetait, des choses comme ça. Ça te semble intéressant ? C'est un coup d'épée dans l'eau ?

  • Speaker #0

    Oui, Twitter, en fait, avant l'arrivée de Musk, avait vraiment une équipe de safety qui était très active et très soutenue. C'est vraiment ça, en fait. La question, c'est à quel point est-ce que les équipes d'éthique et de sécurité sont soutenues. Et du coup, ils avaient fait pas mal d'initiatives, et notamment les community notes. Donc, il y a plusieurs aspects intéressants dans les community notes. Donc, ça, c'est les notes contextuelles que vous voyez peut-être parfois si vous utilisez Twitter, qui vont s'attacher à un poste et qui vont être votées par la communauté des community notes. pour savoir quel contenu afficher, donc ça va être typiquement des correctifs, des mises en contexte aussi. Et l'une des approches intéressantes de ces community notes, c'est que c'est une approche démocratique, en sens où ces tuteurs n'ont en principe pas son mot à dire sur quelles sont les notes qui vont être affichées, c'est vraiment les membres des community notes. Il faut candidater. J'ai l'impression que c'est de plus en plus facile de devenir membre des community notes. Et c'est un problème parce que du coup, ça a été complètement infiltré par des campagnes de désinformation. Donc, il y avait des problèmes de sécurité autour des community notes. Mais l'idée de base était intéressante. Et en particulier, un des aspects intéressants des community notes, c'est qu'ils implémentaient cette idée de consensus. C'est-à-dire qu'une note est affichée si elle est jugée consensuellement utile. par la communauté.

  • Speaker #1

    Par des gens qui sont de camps différents. C'est ça,

  • Speaker #0

    des tubors.

  • Speaker #1

    Je ne sais pas trop comment ils définissent les camps, d'ailleurs,

  • Speaker #0

    mais bon. Alors, il y a des façons de... Enfin, à base de machine learning, pour essayer d'identifier ça, mais intuitivement, ce qui se passe, c'est que l'un des problèmes, par exemple, d'une vidéo YouTube, c'est que si vous regardez que le pourcentage de likes, en fait, c'est le pourcentage des likes des gens qui ont vu la vidéo YouTube qui sont souvent des fans de la chaîne. Donc, si une vidéo a un énorme taux de likes, ça ne veut pas dire qu'elle serait consensuellement jugée bonne. Tout le monde l'avait évalué. Mais il y a des techniques, typiquement on peut voir, par exemple dans ce cas, on peut voir si quelqu'un n'a pas du tout l'habitude de consommer cette vidéo, ça regarde même des vidéos qui vont pas du tout dans ce sens, si elle like néanmoins cette vidéo, ça donne un indice que la vidéo sera peut-être consensuelle au-delà, et donc s'il y a pas mal de personnes qui font ça, là on peut commencer à juger le contenu consensuel.

  • Speaker #1

    Peut-être juste sur cette histoire de consensus, je sais que ça peut un peu... On rebutait certains, mais on cherche à créer un consensus, on cherche à arrondir les angles. C'est pas du tout ça, en fait.

  • Speaker #0

    Non, c'est pas du tout ça. Donc, il y a vraiment cette idée de fabriquer le consensus. Et donc là, c'est plus lié à la manipulation. Mais là, l'idée, c'est plus de trouver des consensus qui existent déjà dans la société. Ouais. Et un des aspects importants, c'est qu'on a tendance à tellement sous-estimer ce consensus qu'on ne se rend pas compte qu'il y a des mesures extrêmement radicales qui sont en fait consensuelles. par exemple taxer massivement les milliardaires est très certainement consensuel le problème des inégalités est globalement jugé consensuel ralentir le développement des intelligences artificielles est aussi consensuel y compris chez des gens qui sont enthousiastes de l'IA j'ai donné quelques exemples ici mais il ne faut vraiment pas sous-estimer il ne faut pas opposer consensuel et radical qui va beaucoup plonger les choses merci

  • Speaker #1

    Donc, on a parlé de quelques pistes de solutions. Est-ce qu'il y en a d'autres que tu voudrais aborder ? Est-ce que tu veux nous parler de votre projet Tournesol ? Oui,

  • Speaker #0

    je veux bien parler de ce que je fais, de ce projet qui me tient beaucoup à cœur. Donc, Tournesol, c'est un projet qu'on a vraiment lancé en 2020. C'est vraiment lié à des années de réflexion sur ces sujets. Moi, j'ai fait ma thèse en théorie. des votes notamment, je me suis beaucoup intéressé au scrutin, donc c'est vraiment des sujets qui m'intéressent depuis 15 ans maintenant on va dire et en particulier tournesol c'est vraiment l'appliquer au cas en particulier des algorithmes de recommandation qu'on considère être les plus influents et donc l'idée de tournesol c'est vraiment de faire un algorithme de recommandation donc aujourd'hui on s'intéresse beaucoup aux vidéos youtube exclusivement aux vidéos YouTube. Et donc la question qu'on se pose, c'est si on se mettait ensemble, autour d'une table ou pas, quels seraient les contenus qu'on voudrait recommander le plus aux utilisateurs de TourSol, même au-delà ? Quels sont les contenus qui devraient être le plus recommandés sur Internet ? Un des aspects intéressants de poser la question comme ça, c'est que les vidéos vont forcément être en concurrence parce que l'attention est limitée. Et donc il ne s'agit absolument pas juste de noter la fiabilité d'une vidéo. La question ce n'est pas est-ce qu'une vidéo est vraie ou fausse, la question c'est à quel point elle devrait être plus recommandée que d'autres vidéos. Et donc pour pouvoir obtenir cette information, ce qu'on fait c'est qu'on demande aux utilisateurs des jugements comparatifs. Donc on leur demande de sélectionner des vidéos sur YouTube. Donc n'importe qui peut créer un compte sur Tournesol. Et ensuite, choisir des vidéos, n'importe laquelle vidéo sur YouTube, l'importer du coup sur Tournesol, et dire entre deux vidéos qu'il a vues par exemple, laquelle devrait être plus souvent recommandée par l'algorithme de Tournesol. Et c'est intéressant parce que ça force des arbitrages entre des vidéos sur des sujets radicalement différents.

  • Speaker #1

    On compare les choux et les patates un peu.

  • Speaker #0

    On compare les choux et les patates, mais on est un peu obligé parce que l'espace informationnel est limité.

  • Speaker #1

    Autant dans le climat, on perçoit des améliorations, des tendances, des courbes qui fléchissent. Autant sur les algorithmes, donc Twitter, il y avait du mieux, puis ça a été racheté. Il y a 6 000 personnes qui ont été virées sur 8 000, ou un truc comme ça. Facebook, je crois, a viré aussi son comité éthique, c'est ce que vous dites dans le livre. TikTok est plus grand que jamais, et c'est pire que ses prédécesseurs. En gros, on connaissait Instagram pour le mal-être que ça donnait notamment aux adolescentes. TikTok, c'est pire carrément. Ils shadowban les filles qui sont moins belles et mettent en valeur celles qui sont plus belles, donc en gros voilà. Là pour le coup on est un peu dans chaque jour est pire que le précédent. Qu'est-ce qui... qu'est-ce qui pousse votre équipe à faire un petit projet, enfin petit, je veux dire, en toute... C'est pas pour dénigrer le projet qui est beau, mais je veux dire, il n'a pas le budget de YouTube, de TikTok, il n'a pas un parti derrière qui le pousse, etc. Qu'est-ce qui vous donne envie de continuer ? Et peut-être pour les gens qui nous écoutent, qui ont des enfants notamment, on n'a pas parlé des enfants, mais bon, c'est les principales victimes. qu'est-ce qui pousse à entrevoir peut-être ou pas un avenir plus radieux ?

  • Speaker #0

    Donc ça, c'est vraiment la troisième partie de notre livre. Et c'est vraiment Jean-Loup qui a vraiment beaucoup mûri ses idées et qui m'a beaucoup convaincu. Et c'est une difficulté qu'on a vraiment au quotidien. Je prends tous les jours quasiment des gifles en me disant En fait, c'est pire que ce que je croyais, les choses vont mal. Je reçois aussi beaucoup de choses... Ce qui vaut dans le bon sens. Tout n'est pas négatif, loin de là. Il y a beaucoup de bonnes initiatives, ne serait-ce que les régulations à échelle européenne. De plus en plus de chercheurs s'intéressent à tout le sol. Donc il y a aussi beaucoup de signaux positifs. Maintenant, je vais être très honnête, je ne vois pas comment les choses vont pouvoir ne pas se dégrader dans les mois et les années à venir. La trajectoire est extrêmement préoccupante et l'inattention est encore gravissime. La disproportion des moyens est juste effrayante, y compris au niveau de la recherche.

  • Speaker #1

    Juste une petite parenthèse, excuse-moi de te couper, mais on invite encore quelqu'un comme Yann Lecun, qui travaille sur l'intelligence artificielle chez Facebook, qui est contributeur de... À son échelle, évidemment, mais quand même une belle échelle, c'est Facebook, de tout ce qu'on vient de raconter. Et qui est invité dans les médias, et de tous les médias pour le coup, Mediapart, n'importe même ce qu'on pourrait penser un peu plus zérudit. Et il est invité comme un chercheur indépendant, etc. Donc en fait, il a ses...

  • Speaker #0

    Directeur de la recherche chez Facebook. Imaginez inviter le directeur de la recherche chez Total Energy de vous parler de la régulation de la taxe carbone. Oui. sans être contradié, sans être signalé chercheur de Total Energy. C'est l'état des choses aujourd'hui. C'est pour ça que ça rend très... Ça force à être très pessimiste. La trajectoire n'est vraiment pas bonne. Moi, je ne m'attends pas à ce que les choses s'améliorent dans l'année à venir ou dans les quelques années à venir. Mais j'espère qu'il y ait beaucoup de mobilisation pour atténuer la catastrophe. Une analogie évidente avec le changement climatique. C'est qu'il faut vraiment comparer à l'alternative où vraiment personne n'agirait, personne ne se combattrait la tendance actuelle. À ce moment-là, les choses pourraient être bien pires. Et moi, je vois quand même beaucoup de gens se mobiliser sur les questions algorithmiques. Pas assez. Mais de plus en plus, notamment les chercheurs s'intéressent de plus en plus à ces questions, les journalistes s'intéressent de plus en plus à ces questions. Il y a de plus en plus de commissions qui sont mises en place. Donc même les politiciens, pas suffisamment encore une fois à mon goût, mais s'intéressent de plus en plus à ces questions. Et du coup, on atténue une catastrophe. Les États-Unis vont peut-être interdire TikTok. Donc il y a quand même des choses qui vont dans le bon sens. Donc j'ai envie de dire, chaque dixième de degré compte, comme pour le climat. Et si on peut éviter que l'extrême droite monte trop vite aux prochaines élections européennes, ce sera toujours ça de gagné, même s'ils vont probablement pas mal monter par rapport aux précédentes. Donc chaque deuxième degré compte, c'est une des raisons pour lesquelles on se bat, et ça protège des vies. Et puis l'autre raison qui est beaucoup plus inspirante à mes yeux, même si elle est moins... moins concrète, on va dire, c'est le fait qu'à travers Tournesol, à travers toutes ces réflexions, à travers la recherche sur ces domaines, on contribue à concevoir des briques élémentaires qui pourront être réutilisées par les démocraties lorsqu'elles seront prêtes. Il faut bien voir que ces briques n'existent pas aujourd'hui. On n'a pas les outils aujourd'hui pour pouvoir passer à une démocratie numérique, même si on le voulait. C'est un des trucs très frustrants. C'est que Tournesol, ça fait trois ans qu'on travaille dessus, c'est construit à partir de des décennies de recherches sur le sujet, mais c'est très insuffisant ce qu'on a fait.

  • Speaker #1

    Pour faire encore un parallèle, c'est comme si aujourd'hui on n'avait pas... on n'avait pas de panneaux solaires, d'éoliennes et de soins nucléaires.

  • Speaker #0

    Et qu'on nous demandait une transition énergétique. Ce serait bien de développer ces outils. On les a beaucoup développés. Et puis même si on les avait aujourd'hui, réduire les coûts reste un enjeu énorme. Après, ça passera plus aux problèmes d'industrialisation. Malheureusement, je vais vous dire qu'on n'est pas encore nous dans le monde numérique. Mais voilà, il y a une trajectoire également qu'il faut suivre. Et donc, travailler sur l'élaboration de ces outils, Paul East n'a pas été développé pour Taïwan, mais beaucoup il est Taïwan. Donc, si on pouvait avoir un algorithme de recommandation qui sera utilisable, qui sera beaucoup plus sécurisé, avec typiquement les choses de proof of...... de citoyenneté française en ligne qu'on développerait en France, ça, il faut absolument les rendre open source et libres d'accès parce qu'il faut que toutes les démocraties les utilisent. Et ça, ça renforcera tout le monde et à long terme, à moyen terme, peut-être, en espérant, ça pourra beaucoup remporter nos démocraties et construire des gouvernances en lesquelles on a confiance. Ce qui, aujourd'hui, malheureusement, est encore difficile.

  • Speaker #1

    Merci, Lé.

  • Speaker #0

    Avec plaisir.

Share

Embed

You may also like