Moi, mes datas et l'IA cover
Moi, mes datas et l'IA cover
Détour vers le futur

Moi, mes datas et l'IA

Moi, mes datas et l'IA

36min |05/06/2024|

166

Play
Moi, mes datas et l'IA cover
Moi, mes datas et l'IA cover
Détour vers le futur

Moi, mes datas et l'IA

Moi, mes datas et l'IA

36min |05/06/2024|

166

Play

Description

On dit de nos données personnelles qu’elles sont le carburant de l’économie numérique, et encore plus à l’heure de l’IA. Décryptage des enjeux dans ce numéro de Détour vers le futur !

Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur Internet, ou même l’utilisation du GPS sur nos smartphones, nous laissons tous les jours, souvent sans en avoir conscience, quantité d’informations personnelles. 

Que deviennent-elles ? Qui peut les utiliser ? Avec les puissances de calcul de l’IA, jusqu’où peut-on aller dans leur exploitation ? Ces usages sont-ils cadrés, et par qui ?


Avec :

Jessica Pidoux, sociologue du numérique à l'Université de Neuchâtel, Institut de sociologie. En tant que chercheuse postdoctorale, elle mène des enquêtes à l'intersection de la sociologie des algorithmes et de la sociologie du travail, en utilisant des méthodes de sciences participatives. Elle est titulaire d'un master en sociologie de l'Université de Lausanne et d'un doctorat en humanités numériques de l'École polytechnique fédérale de Lausanne (EPFL). Ses recherches sur la dynamique des rencontres en ligne ont porté sur les algorithmes d'appariement, les pratiques des développeurs et les expériences des utilisateurs et utilisatrices, mettant en évidence divers types de biais algorithmiques et contribuant aux connaissances sur les processus de communication entre l'humain et la machine. Elle est également directrice de PersonalData.IO, une ONG suisse spécialisée dans l'exercice des droits d’accès aux données personnelles et de protection de la vie privée. À ce titre, elle a mené des audits algorithmiques sur des plateformes de travail telles que Deliveroo et Uber, contribuant ainsi à l'instauration de conditions de travail équitables pour les travailleurs, plus largement, aux débats sur les politiques publiques de régulation du numérique.


Bertrand Monthubert, président du Conseil National de l'Information Géolocalisée, qui regroupe des représentants de la très grande variété d’acteurs qui composent l’écosystème de la géo-donnée en France. Il est également président d'Ekitia, une association regroupant des acteurs publics et privés désireux de créer un cadre de confiance pour l'économie de la donnée.

Il  préside OPenIG, la plateforme régionale d'Occitanie pour l'information géographique. Il est aussi co-président du groupe de travail sur la gouvernance des données au sein du partenariat mondial de l'intelligence artificielle (Global Partnership on Artificial Intelligence, GPAI).

C'est un acteur du développement de l'usage des données au niveau territorial, national et international, au service des usages citoyens et des politiques publiques. À ce titre il est co-auteur d'un rapport, avec Christine Hennion et Magali Altounian, sur le thème "Data et Territoires", remis en novembre 2023 à Stanislas Guérini, Ministre de la Transformation et de la Fonction Publiques.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    On dit de nos données personnelles qu'elles sont le carburant de l'économie numérique, et encore plus aujourd'hui, à l'heure de l'IA. Décryptage des enjeux dans ce numéro de Détour vers le futur.

  • Speaker #1

    Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur internet ou même l'utilisation du GPS sur nos smartphones, nous laissons souvent, sans en avoir conscience, quantité d'informations personnelles. Que deviennent-elles ? Avec les puissances de calcul de l'IA, jusqu'où peut-on aller dans leur exploitation ? Et ces usages sont-ils cadrés ? Et par qui ?

  • Speaker #0

    Alors, pour discuter de toutes ces questions, nous recevons Jessica Pidou, chercheuse à l'Institut de sociologie de l'Université de Neuchâtel en Suisse, directrice de l'association Personnel Data.io, spécialiste numérique. Bonjour Jessica !

  • Speaker #2

    Bonjour.

  • Speaker #0

    Et Bertrand Montuber, mathématicien, président du groupe de travail d'experts sur la gouvernance des données dans le cadre d'un partenariat mondial pour l'intelligence artificielle. Bonjour Bertrand.

  • Speaker #3

    Bonjour.

  • Speaker #1

    On pourrait commencer par redéfinir ce qu'on appelle nos données personnelles sur Internet. Est-ce qu'il s'agit juste de nos noms, prénoms, dates de naissance, adresses, ce genre de choses, ou est-ce qu'il y a d'autres types d'informations ? Peut-être Bertrand Montuber ?

  • Speaker #3

    Mais en fait, tout ce qui peut se rattacher à la personne, qu'elle l'ait déposée de manière volontaire ou involontaire, ou en tout cas inconsciente, et vous avez donné des exemples, des très bons exemples. Moi, quand je suis venu ce matin, ok les savoirs, mon téléphone, très probablement, a déposé des données qui sont des données de localisation de là où je suis. Des données d'ailleurs qui peuvent être utiles. On peut trouver ça sympa d'avoir le récapitulatif de ces trajets. Tiens, j'avais oublié que j'étais à tel endroit ou bien j'ai fait autant de kilomètres dans le mois. Et effectivement, elle peut être aussi un petit peu angoissante. Mince, comment ça se fait que mon smartphone, aujourd'hui, me présente une publicité qui est sacrément en lien avec quelque chose... dont j'ai parlé, sur lesquels je me suis renseigné, ou bien à proximité de là où j'étais. Tout ça, c'est des données personnelles et c'est plein d'usages, effectivement, de ces données.

  • Speaker #1

    Alors là, on parle de données qui viennent des smartphones ou des discussions qu'on a eues à proximité des smartphones. Est-ce que les outils type carte bancaire, carte de transport en commun, abonnement, etc., c'est des choses qui collectent également le même type de données ?

  • Speaker #3

    Bien sûr, par exemple, si vous avez une carte de transport qui aujourd'hui, sont beaucoup plus rarement un ticket de métro, ça existe encore un petit peu, mais enfin, de moins en moins, il y en a plus beaucoup. Dès que vous êtes longtemps dans la même ville, et encore maintenant, quand vous êtes dans les villes, vous allez même peut-être pouvoir payer directement avec votre carte bancaire. Oui, il y a de la donnée personnelle, effectivement, qui est collectée. Et donc, le point c'est que ces données, elles sont toujours collectées dans un... Normalement, elles sont collectées dans un cadre juridique, on y reviendra peut-être, mais très souvent, on n'est pas forcément conscient, quand on signe des accords, quand on installe une appli sur son téléphone ou quoi que ce soit, de ce qu'il y a comme données personnelles derrière.

  • Speaker #0

    Jessica, les données personnelles, c'est aussi des données qu'on pose consciemment, je pense par exemple aux photos, je pense quand on fait des likes sur des réseaux sociaux, tout ça, ça constitue aussi des données personnelles ?

  • Speaker #2

    Effectivement, il y a la notion des données qui peut être vue comme toute information ou trace qu'on laisse autant dans l'espace physique et en ligne. C'est important à dire parce qu'effectivement, quand on est en train de se déplacer sur une route, notre téléphone va dire des informations sur nous et notre contexte physique, mais aussi quand on fait un achat dans un supermarché, dans toute entreprise physique. il y a des données collectées sur nous qui après sont digitalisées, etc. Il y a des données qui sont natives digitales, on va dire, parce que ce sont des informations que lorsqu'on est en train de parcourir un site web, quand on s'inscrit en ligne, même sur un système du gouvernement, qui est aujourd'hui beaucoup dans le format digital, on est en train de laisser des traces sur nous. Et ces traces, en fait, on... Ils peuvent être personnels ou non, et ça, ça dépend de la définition juridique qui a été donnée, notamment dans le règlement européen de la protection des données personnelles. Et des données personnelles ? veut dire toute information qui peut identifier un individu. Par exemple, l'âge, le sexe va nous identifier, notre adresse va nous identifier facilement. D'autres informations comme un like sur votre podcast va peut-être plus difficilement dire qui on est.

  • Speaker #0

    Oui, c'est ça, on a du mal à comprendre, par exemple, des recherches sur Internet aussi. On dit que, avec, je ne sais plus si c'est 6 ou 7 recherches différentes qu'on fait, on peut remonter quasiment à la personne, on peut identifier la personne. On a du mal à comprendre ça. Comment on peut se rendre compte, en tant qu'utilisateur citoyen, de toutes les données qui sont récoltées à notre insu ?

  • Speaker #2

    Oui, bonne question. Il y a bien cette différence que Bertrand a mentionné, c'est qu'il y a des informations que l'on déclare et il y en a d'autres qui sont collectées sans qu'on les sache. Et c'est pour ça que je rajoute juste qu'il y a deux aspects importants dans la définition des données, c'est qu'il y a une définition technique, c'est comment... On définit en amont quelles données sont collectées. Et ça ce sont des choix d'une entreprise, d'un système informatique qui dit on va collecter l'âge pour tous les individus. Mais on décide aussi de collecter l'âge de l'organisation, mais par l'ethnicité. Donc des choix en amont, techniques. Et il y a aussi l'aspect social. Ça veut dire que toutes nos informations sont agrégées, mises en commun avec les informations des autres personnes. Et là, on parle plus d'écologie des données, en fait, ou écosystème des données, parce que nos données individuelles, elles vont dire peu de choses sur nous et notre comportement si elles ne sont pas comparées avec les données et les informations des autres personnes. Donc, ça veut dire, pour répondre à votre question, que cette masse de données, elle est très grande, elle est collectée en permanence avec nos téléphones portables, avec des objets connectés, des caméras de surveillance. sur l'autoroute, nos ordinateurs au travail, à la maison, etc. Et donc cette masse de données, une fois qu'elle est collectée de manière collective, en fait elle devient très grande et difficile à retrouver, à tracer ce qui est dit, collecté sur nous, en général. Parce que ces informations vont dire quelque chose de nous. pour les marques, pour les entreprises, pour le gouvernement, etc. Et alors du coup,

  • Speaker #1

    qu'est-ce qu'on en fait ? Comment elles sont exploitées ces données ? Parce qu'on en laisse plein, ils en collectent plein. J'imagine que ça doit être une capacité de stockage hallucinante, mais c'est bien pour en faire quelque chose.

  • Speaker #3

    Elles sont utilisées effectivement pour de multiples motifs. Parler d'un motif qu'on connaît tous, ou en tout cas dont on perçoit le résultat, encore une fois, je l'évoquais tout à l'heure avec l'histoire de la publicité personnalisée, qui est au fond un des grands vecteurs, sinon le vecteur d'ailleurs, du développement de l'économie numérique.

  • Speaker #0

    C'est pour ça qu'on dit qu'il y a un plus grand de l'économie numérique.

  • Speaker #3

    Alors la donnée oui, après la publicité, le fait que ce soit la publicité personnalisée, ça c'est aussi un choix de modèle économique. On peut y revenir si vous voulez. En tout cas, il faut en être conscient. Effectivement, et comme le disait Jessica très justement, le point c'est qu'il va y avoir beaucoup de collecte de données qui vont permettre par exemple de comparer à d'autres personnes, mais aussi qui vont permettre d'apparier, d'augmenter finalement la connaissance de chacun des individus. Si vous avez une entreprise qui a collecté des données parce qu'elle a un service, j'en sais rien, de transport, parce qu'il y a des billets de train, etc. et que ces données sont utilisées par quelqu'un qui vend quelque chose, je n'en sais rien, des bagageries. Voilà. On va croiser ça et on va savoir par exemple que vous Marina, vous avez fait une recherche sur tel endroit. Peut-être que vous allez en voyage et peut-être qu'on va vous proposer de la maroquinerie pour pouvoir faire un voyage qui soit plus plaisant. Ça, c'est quelque chose qui est fait à très grande échelle. Une manière de s'en rendre compte, de manière très concrète en fait, par chacun d'entre nous. Vous allez sur un site internet, on vous demande quasiment tout le temps ce que vous voulez faire par rapport aux cookies.

  • Speaker #1

    Les fameux.

  • Speaker #3

    Les fameux cookies.

  • Speaker #0

    Acceptez-vous ou pas les cookies.

  • Speaker #3

    Acceptez-vous ou pas les cookies. Et, et ça c'est d'ailleurs quelque chose qui a progressé ces dernières années, même si on ne s'est pas complètement débarrassé du sujet, c'est que on peut... on va vous montrer quels sont les cookies et quels sont les acteurs qui sont derrière.

  • Speaker #1

    Et combien il y en a ?

  • Speaker #3

    Exactement. Et vous allez voir qu'il y a des centaines d'entreprises qui sont derrière les cookies qui sont développés, déposés sur quasiment n'importe quoi.

  • Speaker #0

    En deux mots, c'est quoi ? C'est des petits programmes qui récupèrent les données ?

  • Speaker #3

    Voilà, c'est des petites données. C'est très pratique d'ailleurs, les cookies. Ce qui fait que vous n'avez pas besoin de vous réidentifier à chaque fois que vous allez voir. Si vous êtes abonné à un service d'information, par exemple, ou vous êtes connecté une fois, vous n'avez peut-être pas envie de vous reconnecter à chaque fois, le cookie permet d'éviter ça. Bon voilà, par exemple. Mais ça permet de voir, de faire des statistiques d'usage. Est-ce que les gens vont sur quelle page ? C'est quoi le podcast du Quai des Savoirs qui a été le plus écouté ? C'est quoi les parties du site qui sont les plus regardées ? Voilà, mais ça peut servir aussi à des fins marketing, et donc de ciblage publicitaire. Et là, vous verrez, il peut y avoir des fois 800. crée sa terre derrière. Donc oui Marina, vous avez raison. Bien sûr, il y a beaucoup de gens et d'entreprises qui les utilisent. Maintenant, il ne faut pas se dire que l'utilisation est forcément négative. Il peut y avoir aussi des utilisations tout à fait positives. Les données personnelles, ce qui est important, c'est qu'on puisse les contrôler. Je pense qu'on y reviendra. Tout à fait. Avoir de la régulation. Faire en sorte d'éviter les abus, notamment les abus vis-à-vis de la vie privée, évidemment. Mais il y a aussi beaucoup de choses sur lesquelles on a besoin de données personnelles, par exemple pour faire des progrès en santé, dans le domaine de la transition.

  • Speaker #0

    Est-ce qu'on peut dire que sur un plan technologique, les progrès en intelligence artificielle ont aussi fait exploser ce... Ce domaine, quel est le lien en fait entre ces grosses masses de données qu'on appelle les big data souvent, et puis les progrès en intelligence artificielle ? Est-ce qu'aujourd'hui, c'est ce qu'on posait la question en introduction, est-ce qu'aujourd'hui avec l'évolution de l'intelligence artificielle, il y a vraiment un changement de nature ou en tous les cas d'échelle de l'exploitation de ces données ?

  • Speaker #3

    En fait, c'est un mouvement continu. Dans les années 2010, il y a eu un tournant, effectivement, avec le fait qu'une technologie, ou plus précisément une approche mathématique qu'on appelle les réseaux neuronaux, a pu être implémentée sur des ordinateurs, pour faire simple. Et en particulier, grâce à des nouvelles plus graphiques, d'une entreprise qui s'appelle Nvidia, et qui aujourd'hui est une des plus grandes capitalisations mondiales. À l'époque, on parlait beaucoup de big data. Alors le terme d'intelligence artificielle existait déjà auparavant, sous des formes différentes, plus classiques. Au milieu des années 2010, on parlait beaucoup de big data, et effectivement tout ce travail qu'on pouvait faire grâce à ces données. Et en particulier, on pouvait mettre en place ce qu'on appelle de l'apprentissage. On apprend avec quoi ? On apprend avec des données. Et ce qui est à la base de l'intelligence artificielle, c'est justement ces techniques d'apprentissage à partir de ces données. Donc les données sont effectivement le carburant de l'intelligence artificielle. Et donc, pour prendre un exemple très concret, j'étais en décembre au sommet mondial de l'IA à New Delhi. Et dans les acteurs qui étaient présents, très, très, très souvent, ce qu'ils mettaient comme challenge numéro un, c'est l'accès aux données. Comment on accède aux données ?

  • Speaker #0

    On ne peut pas parler aussi de données personnelles sans évoquer une histoire assez dramatique qui était l'affaire Cambridge Analytica. Évidemment, vous vous souvenez sûrement de ce scandale qui a éclaté en 2018 lorsque nous avons appris de la bouche d'un des ingénieurs même de cette société anglaise que son entreprise avait récupéré les données de plusieurs millions d'utilisateurs de Facebook pour les utiliser au service de l'extrême droite américaine et des pro-Brexit.

  • Speaker #1

    Cette ingénieure lanceur d'alerte, c'était Christopher Wiley. Je vous propose de l'écouter, d'écouter un court extrait de son témoignage. C'était au micro de France Inter, dans l'émission de Sonia De Villers, l'instant M. On était le 11 mars 2020, et une des grandes questions de cette affaire, c'était la responsabilité de Facebook. Est-ce que la plateforme était au courant du siphonnage de données réalisé par Cambridge Analytica ?

  • Speaker #4

    C'était faire la grande question derrière tout ça. Ça dépend de qui vous parlez à Facebook et vous avez des réponses différentes. Mais ce que nous savons, c'est que Cambridge Analytica, son application, ont été soumis au système de Facebook. Autrement, ça n'aurait pas pu marcher. De toute façon, ils avaient l'obligation de s'assurer ce qui se passait sur leur plateforme et surtout que ce qui se passe sur cette plateforme soit en accord avec ce qu'ils disaient à leurs utilisateurs sur la sécurité et sur la légalité des informations.

  • Speaker #1

    Cette affaire a réellement pointé le rôle des plateformes et interrogé leurs responsabilités dans le contrôle du traitement des données personnelles. Depuis 2018, est-ce que les choses ont changé ?

  • Speaker #2

    Oui, le cas est très important pour nous au sein de l'association parce que le fondateur de l'association PersonalData.io, Paul-Olivier Dewey, était le premier à aider des Nord-Américains à exercer le droit d'accès pour amener des preuves et éclairer le cas de Cambridge Analytica au Parlement européen. Donc, il a montré comment… Deux facteurs importants pour ce cas, c'est… D'abord, le potentiel d'influence des données personnelles, lorsqu'on laisse des traces comme les likes. Avant, on disait que le like ne nous permettait pas d'identifier, mais en fait, Cambridge Analytica, avec des techniques d'intelligence artificielle, a permis de comprendre la personnalité des citoyens et citoyennes nord-américaines et les influencer pour voter. Voilà, donc ils ont influencé l'orientation politique.

  • Speaker #0

    Ils ont modélisé en fait comment ils pensaient à travers leurs likes, etc. C'est ça que vous voulez dire.

  • Speaker #2

    Exact. Comment les gens se comportaient sur Facebook en train de liker certains groupes, en train de regarder certaines publicités, quelles étaient leurs... profils sociodémographiques, quels sont les contenus de conversation qu'ils avaient en ligne. Donc, l'ensemble de toutes ces données, agrégées avec d'autres personnes aussi qui étaient en ligne, a permis de créer un profil de personnalité et les cibler pour les influencer vers certaines orientations. politique. Donc pouvoir d'influence démontré, très grand, très alarmant pour tous les pays, les politiciens, etc. dans le monde entier. Et deuxième facteur important, on a mis en évidence dans l'association qu'on a des droits d'accès aux données, que ces droits digitaux vont nous protéger et nous donner de l'autonomie sur notre vie digitale et physique. Parce que vous voyez là dans ce cas de Cambridge Analytica que notre comportement en ligne et ce qui est collecté et dit sur nous, sur les données en ligne, va affecter notre comportement dans le monde physique.

  • Speaker #1

    C'est assez édifiant, effectivement. Là, on vient de beaucoup parler de l'utilisation des données des clients ou des consommateurs, des applications. Est-ce qu'on pourrait parler maintenant un petit peu du cas des professionnels qui utilisent ces plateformes comme un outil de travail ? C'est le cas notamment de Uber, sur lequel vous travaillez, Jessica Pidou, et vous parlez d'une forme de management d'un nouveau type, un management algorithmique. Comment est-ce que ça se passe ?

  • Speaker #2

    C'est la littérature en management et en sociologie du travail qui développe le concept de management algorithmique. Ça veut dire qu'aujourd'hui, les systèmes automatisés des entreprises, des plateformes comme Uber, vont remplacer des fonctions managériales faites par les humains, normalement avec un hiérarchique qui est en train de manager les employés. Ces fonctions managériales vont être en fait ces fonctions. déléguée aux algorithmes ou opérations automatisées des plateformes où il y a un contrôle, une surveillance qui est beaucoup plus sévère et granulaire, puisqu'elle repose sur les données qui sont collectées des travailleurs. C'est bien différent de lorsque l'on travaille dans un bureau, quel type de données sont collectées sur nous, alors que... On travaille via une plateforme, par exemple les chauffeurs Uber ont la géolocalisation connectée pour savoir où ils sont à un moment précis et donc les renvoyer vers un client et leur point de destination. Alors on va suivre tous ces comportements, toutes ces traces que les chauffeurs laissent pour faire le calcul de leur tarif, de leur temps de travail et donc revenus à la fin.

  • Speaker #0

    Oui, donc la problématique, en fait, c'est qu'ils sont dits travailleurs indépendants, mais ils dépendent complètement de la plateforme, de l'algorithme de la plateforme, qui, comme vous venez de le dire, ce n'est plus un humain qui va leur donner les ordres, les courses, les consignes, c'est la machine qui automatiquement va générer ça. Et ils ne savent pas du tout, et comme effet cet algorithme non plus, de leur côté, et ils sont totalement tributaires.

  • Speaker #2

    Exact. Donc ces systèmes sont opaques, reviennent à la propriété intellectuelle des entreprises. On a peu encore d'accès, de visibilité sur ce système, même s'il y a des inspections de travail possibles, etc. Mais il y a un manque général de compétences, de connaissances techniques et des outils pour comprendre ce système qui évolue en permanence. Bertrand a parlé de comment il y a un système qui alimente un contenu des données de la big data et comment les systèmes d'intelligence artificielle et les dispositifs techniques s'actualisent, parce qu'on est gourmand des données, pour avoir des meilleurs résultats. Et dans cette collecte massive de données, en fait, les chauffeurs Uber sont infectés parce qu'on ne sait plus sur eux, mais eux, ils ont moins de contrôle de visibilité sur comment s'organiser. Ils ne savent pas, par exemple, combien de chauffeurs il y a dans le marché local à Paris, pour savoir combien ils sont en compétition. à quel horaire c'est plus profitable de sortir ou non à travailler.

  • Speaker #0

    Oui, en fait, ils n'ont pas beaucoup de latitude individuelle pour décider de leur propre stratégie. Ils sont complètement soumis à cet algorithme de la plateforme. Les choses sont en train de changer néanmoins, puisque actuellement, au niveau européen, il y a une directive qui a été votée pour renforcer leurs droits et peut-être même revoir la nature de la relation entre la plateforme et les travailleurs. C'est-à-dire qu'ils seraient plutôt considérés comme des employés que comme des travailleurs indépendants. C'est ça ?

  • Speaker #2

    Oui, alors il y a plusieurs procédures en cours. Il y a au niveau national, il y a la régulation des plateformes et du travail. Et en fait, à Paris, au cours de justice, a été déclaré que les chauffeurs Uber, ce sont des employés et non pas des indépendants. Ils avaient alors avant un contrat en tant qu'indépendants, mais dans la pratique c'est encore plus. Les chauffeurs doivent aller au cas par cas, au prud'homme et défendre leur statut d'emploi. Maintenant, au niveau de l'Union européenne, il y a la directive européenne du travail des plateformes qui vient d'être acceptée, votée. Elle est passée, mais bien sûr, c'est un standard où chaque pays va l'adapter, l'implémenter selon ses spécificités. Et ce que dit la directive, à mon avis, est très important parce que ça reconnaît beaucoup de problèmes propres au secteur du travail des plateformes, dont le management algorithmique. qui n'étaient pas présentes dans un contexte professionnel traditionnel avant. Et en fait, c'est très important parce que ça ne touche pas seulement les chauffeurs Uber, ça touche la population entière, à mon avis, par exemple, du fait qu'on fait du télétravail beaucoup plus maintenant. Le fait que dans les intrépôts de logistique, les travailleurs sont placés à la seconde sur leur mouvement, par exemple en train d'inventorier la marchandise. Donc le travail des plateformes est en train de se généraliser pour beaucoup de professions et cette directive européenne marque un bon début. donner plus de pouvoir collectif aussi aux travailleurs affectés par la digitalisation.

  • Speaker #1

    Qui ne sont pas seuls en fait, ils sont effectivement plein d'unités qui n'ont pas d'interface les unes avec les autres, mais pour autant en fait, à eux tous, ils font quand même un grand nombre. Alors on a un peu l'impression dans ce que vous êtes en train de dire que la plateforme elle est conçue pas du tout pour les travailleurs qui sont associés à cette plateforme, mais plutôt pour les consommateurs. Sauf qu'en fait, ce n'est pas si simple que ça, parce qu'au niveau du client, c'est pareil, ce n'est pas très transparent pour reprendre le cas d'Uber par exemple. Dans vos recherches, vous avez pu mettre en évidence qu'il y avait un certain nombre de facteurs qui rentraient dans la construction du tarif de la course qui va s'appliquer à un client, à un client donné, à un instant donné. Et ça, en fait, on ne le sait pas, nous, en tant que client. Il y a quoi, par exemple, comme élément ou comment ça se construit, ça ? Est-ce que vous avez pu un peu décrypter cela ?

  • Speaker #2

    Oui, alors, c'est l'un des problèmes de l'économie des plateformes, ou l'économie des données aussi. Ce sont deux termes utilisés dans la littérature. En fait, l'économie des plateformes crée une asymétrie d'informations et des pouvoirs entre la plateforme qui est l'employeur et les chauffeurs ou les travailleurs, et de l'autre côté entre les travailleurs et les clients. Et ça veut dire que ça nous met à distance et on ne sait pas ce qui se passe de l'un côté ou de l'autre. Et c'est là où Uber, et ça a été démontré avec des études très récentes, joue avec, par exemple, un tarif qui a été affiché par un client. Ensuite, le chauffeur se rend compte que ce tarif est différent pour lui. Ça veut dire qu'il reçoit moins de revenus par rapport au même tarif qui a été donné au client. Et il y a aussi pour deux clients, même point A, point B des destinations, le tarif varie. Uber dit dans des termes très généraux que ça dépend de... par exemple les heures piques des demandes, etc. Donc on peut dire que de manière générale, ça dépend de l'offre et la demande. Et c'est d'où l'invention d'Uber, c'est que l'application fait un travail d'intermédiation entre le marché, c'est-à-dire la demande et l'offre. Et ça varie, ça varie d'un jour à l'autre, d'une heure à l'autre. Et c'est seulement Uber qui a la visibilité sur les fluctuations du marché. Et les chauffeurs, alors qu'ils étaient considérés comme des autonomes et indépendants, n'ont aucune visibilité sur ce marché pour mitiger le risque financier qu'ils sont en train de prendre.

  • Speaker #0

    Alors, puisqu'on parle d'utilisation de ces plateformes, je vous propose d'écouter notre feuilleton de science-fiction dans des tours vers le futur. Cette fois-ci, l'ICAM et François Donato ont imaginé comment nous pourrions faire nos courses dans un futur plus ou moins désirable, mais en tout cas en musique.

  • Speaker #5

    J'accepte. Êtes-vous toujours une femme ?

  • Speaker #3

    Oui.

  • Speaker #5

    Avez-vous toujours deux enfants ?

  • Speaker #3

    Oui.

  • Speaker #5

    Votre activité principale est-elle toujours veilleuse de forêt ?

  • Speaker #2

    Oui.

  • Speaker #5

    Merci de votre confiance. Nous avons remarqué que vous ne fréquentiez plus notre application de rencontre. Nous vous offrons une remise de 5 euros si vous vous y rendez maintenant. Souhaitez-vous avoir accès à notre application de rencontre ? Non. Nous testons actuellement l'attrait de plusieurs produits sur nos abonnés. Le visionnage de publicité vous octroiera une remise de 5 euros. Si vous acceptez, nous vous demandons d'activer votre caméra pour que nous puissions jauler vos réactions.

  • Speaker #2

    Non.

  • Speaker #5

    Que recherchez-vous ? Nous avons élaboré une liste de courses personnalisées en fonction de vos achats précédents. Souhaitez-vous y recourir ? Merci de votre confiance. Un drone terrestre va vous livrer dans l'heure. La totalité de vos achats, remises complices, s'élèvent à 147 euros. Souhaitez-vous payer en monnaie ou préférez-vous que la plateforme vous attribue des heures de ménage d'atteint pour le même montant ?

  • Speaker #2

    Ménage Merci de votre attention.

  • Speaker #0

    Alors dans ce futur de fiction, l'algorithme il est tout de même assez transparent avec l'utilisatrice. Est-ce que d'après vous Bertrand Montubert, on se dirige vers ce genre d'application ? Qu'est-ce qui est mis en place en fait comme type de mesure pour réglementer la protection de l'utilisation des données personnelles en fait ?

  • Speaker #3

    En tout cas même si c'est une fiction, on voit que la personne qui a commencé par dire oui, a commencé à dire non de manière de plus en plus agacée. Donc je ne suis pas complètement sûr du succès à terme de ce genre de choses qui peut passablement irriter. D'ailleurs on a parlé de Cambridge Analytica, c'est très intéressant de voir comment il y a eu... Il y a eu une évolution dans la population par rapport à la question des données personnelles, l'utilisation des données personnelles par les services, à partir de 2016 et de Cambridge Analytica. On a fait une enquête dans le cadre d'Equitia, une association que je préside, qui travaille sur la construction d'un espace de confiance éthique et souverain pour le partage de la donnée, justement sur la relation des citoyens avec la donnée. Et on a complété ça avec une étude avec Aniti, le pôle d'intelligence artificielle de Toulouse, la grande enquête Cocacia, plus de 3 700 réponses. Et ce qu'on voit dans ces différentes enquêtes, c'est que la population est très partagée. sur la question d'utilisation des données personnelles. Mais qu'est-ce que ça veut dire utiliser des données personnelles si on ne dit pas pourquoi ?

  • Speaker #1

    C'est ça.

  • Speaker #3

    Si c'est pour me rappeler que quand je fais mes courses, très souvent j'achète du lait et telle marque de yaourt, à la limite c'est peut-être pratique.

  • Speaker #1

    C'est assez pratique, on gagne du temps.

  • Speaker #3

    C'est peut-être assez pratique, peut-être qu'on gagne du temps, on sait des choses sur moi, c'est peut-être pas dramatique, ça dépend, ça dépend de chacun, mais en tout cas voilà. Je comprends qu'il y ait des gens qui trouvent que c'est pratique. Si c'est pour me dire, au fait, ça fait deux mois que tu n'es pas allé sur la petite rencontre, qu'est-ce qui se passe ? Et j'ai des gens à te proposer, c'est peut-être un peu intrusif. Donc la question de l'usage, elle est très importante. La question de qui le fait est aussi extrêmement importante. Et ça, je pense qu'il faut vraiment qu'on en parle. Parce que quand on parle des questions de régulation, encore une fois, je pense qu'il y a des régulations qui se mettent en place au niveau européen et qui vont dans le bon sens. On connaît tous le RGPD, il a aussi ses limites, évidemment, le RGPD, mais je pense que c'est...

  • Speaker #0

    Le Réglement général de protection des Merci,

  • Speaker #3

    merci beaucoup, bien sûr, le Réglement général de protection des données, c'est important. Encore une fois, la question c'est aussi le qui. On a parlé Uber, on a parlé Facebook, on a parlé derrière en fait des très grands opérateurs numériques, les GAFA, Google, Apple, Facebook, etc. Est-ce qu'il y a la place pour faire un usage responsable de données personnelles pour des usages d'intérêts publics ? de problématiques, encore une fois, de santé, par exemple, sur lesquelles on a besoin de choses. Je vais vous donner un exemple très concret. Dans le cadre de la santé, moi, dans mon activité professionnelle, je travaille autour de la question de l'autisme. J'étais récemment dans un colloque du groupement d'intérêt scientifique sur l'autisme, et puis un chercheur en génétique. nous disait qu'on a un gros problème parce qu'on a besoin d'accéder à des échantillons génétiques pour faire progresser la recherche, pour mieux comprendre quels sont les mécanismes sous-jacents. Et on nous oppose que ce sont des données personnelles qu'on ne pourrait pas réutiliser. Et dans la salle, il y avait une personne concernée, une personne autiste, dans une association, et qui disait, Mais nous, en tant qu'association, nous considérons que vos travaux sont importants et nous souhaitons qu'ils puissent se faire.

  • Speaker #0

    Donc on voit bien que la question n'est pas si simple.

  • Speaker #1

    D'où l'enjeu de repréciser l'usage à chaque fois,

  • Speaker #0

    pourquoi on veut utiliser l'usage et l'utilisateur. Et par qui ? C'est évidemment pas la même chose qu'un chercheur à l'Institut Pasteur utilise ces données-là et que ça soit une compagnie d'assurance qui les utilise à des fins qui seront peut-être augmenter votre prime d'assurance. Évidemment. Donc il faut mettre un certain nombre de choses en place. Donc les régulations, les réglementations, les lois, les directives européennes, c'est une chose et c'est important. Mais il y a aussi tout le cadre... éthique, qui est absolument essentielle. Comment on se dirige, en fait, dans ce maquis ? Parce que, on va être honnête, on a utilisé, là, depuis le début de l'émission, des beaux exemples, mais des exemples sur lesquels c'est pas compliqué de se positionner. Voilà, Cambridge Analytica, c'est pas compliqué de dire, franchement, c'est lamentable. Et ça doit être interdit, ça doit pas se reproduire, et malheureusement, c'est en train de se reproduire, d'ailleurs. Mais... Mais il y a des cas sur lesquels c'est beaucoup plus complexe. Comment on en juge ? Est-ce que c'est moi, citoyen, à chaque fois qui dois en juger tout seul ? Est-ce que je revenais sur les cookies ? Moi je fais l'effort ? Sur tous les sites internet où je vais, d'aller regarder les cookies, savoir ce que j'accepte et ce que je refuse. Honnêtement, c'est pénible. Je ne suis pas sûr. On est une majorité de la population à faire ça, d'accord ? Donc comment on simplifie les choses ? Et là, il y a des cadres éthiques qui peuvent être mis, il y a des labels éthiques. On a créé un label éthique sur des solutions numériques, justement, pour pouvoir analyser quels sont... les usages des données, dans quelle logique c'est fait, pour quelle utilisation, est-ce qu'il y a des risques, est-ce qu'il y a des risques de discrimination, est-ce que ça va dans le sens des objectifs du développement durable, etc. Est-ce qu'il y a un partage équitable de la valeur ? Plein d'actions. Ce n'est pas moi, simple citoyen, qui suis capable d'aller analyser.

  • Speaker #2

    On ne va pas aller chercher les codes, la propriété intellectuelle ou les algorithmes qu'ils utilisent,

  • Speaker #0

    c'est évident. Exactement. Et donc, il y a besoin, en plus de la régulation, il y a besoin justement de structuration, ce qu'on appelle la soft law, souvent. Il y a la loi dure et puis il y a la loi molle, ça ne veut pas dire qu'elle est inintéressante. Et je crois que faire en sorte qu'en tant que citoyen, on se mobilise derrière des outils de soft law qui nous permettent d'y voir plus clair, c'est un peu comme le Nutri-Score. Voilà, ça ne règle pas tout. Non, mais ça donne une indication. Mais ça donne une indication.

  • Speaker #1

    On pourrait imaginer une labellisation des sites internet, des réseaux sociaux, des services de plateforme.

  • Speaker #0

    Des labels existent, il y a un label aussi sur le numérique responsable, et c'est quelque chose qui est en train effectivement de se structurer, on a un certain nombre d'acteurs à le faire.

  • Speaker #2

    Une question qui me taraude un peu, parce que là on parle d'Europe, directive européenne, on parle de la France. Mais comment ça se passe dans le monde ? Parce que je pars en vacances en Afrique du Sud, mes données, elles sont soumises à qui du coup ? Parce que, admettons, j'utilise Uber en Afrique du Sud, du coup mes données, elles sont où ? Elles sont à qui ? Elles sont sous quelle juridiction ?

  • Speaker #1

    En tant que citoyenne européenne, Jessica ? Comment on peut répondre à ça ?

  • Speaker #3

    RGPD, le groupe européen de la protection des données, ou OTEJ en tant que citoyenne européenne. Mais partout dans le monde ?

  • Speaker #2

    Même si je suis en Afrique du Sud ou ailleurs.

  • Speaker #3

    Mais un principe, si même un citoyen de l'Afrique du Sud utilise un service qui est dans le territoire européen, Et c'est le règlement aussi, le RGPD européen, qui peut protéger, par exemple, pour exercer son droit d'accès aux données. Donc, en fait, ça dépend d'où l'entreprise est localisée, où la personne est localisée, et où les données sont en train de voyager d'un pays à un autre.

  • Speaker #2

    Voilà, donc moi, je sors des frontières de l'Europe, mais pas les réglementations sur mes données. C'est rassurant, quelque part.

  • Speaker #1

    Pour terminer, et puis essayer peut-être d'aller vers une conclusion, même si on a bien compris que ce sujet est hautement complexe, qu'est-ce que vous pourriez donner, et l'un et l'autre, comme conseil à nous, citoyens, citoyennes, utilisateurs, utilisatrices de ces plateformes, pour essayer de maîtriser au mieux, finalement, mes données, mes datas à l'époque de l'IA ? Bertrand ?

  • Speaker #0

    Je dirais quelque chose de base, c'est... On n'est pas face à un univers magique. On est face à des mécanismes où il y a de la science, où il y a de l'économie, où il y a de la politique. Et donc, comme pour toutes les grandes choses finalement de notre quotidien, il faut... En connaître un petit peu. Ça ne veut pas dire, il ne faut pas se tromper là-dessus, le sujet ce n'est pas, est-ce que vous allez devenir capable de programmer un algorithme en tout temps ? Ce n'est pas du tout le sujet. Ce n'est pas du tout le sujet.

  • Speaker #2

    Une chance.

  • Speaker #1

    Heureusement.

  • Speaker #0

    Oui, non, non, heureusement, heureusement. Par contre, effectivement, avoir des notions de base sur ce qui se passe, se dire encore une fois à chaque fois que tout ça n'est pas magique. Vous pouvez comprendre beaucoup, beaucoup de choses, même sans rentrer, encore une fois, dans toute la technicité. Et encore une fois, si vous ne le faites pas, vous allez être manipulé. Il faut que ce sujet, qui est un sujet politique, on arrive à le placer sur la place publique. Et que ça ne soit pas un sujet de spécialiste.

  • Speaker #1

    Jessica ?

  • Speaker #3

    Oui, alors pour moi... Je pense qu'il faut aller au-delà des actions individuelles et faire plus des actions collectives. On a besoin d'un pouvoir collectif, d'une mobilisation collective. Évidemment, on s'est renseigné à apprendre auprès des associations qui sont dans la sensibilisation, avec des outils, des techniques, des savoirs, parce que comprendre l'économie des données, en fait, demande beaucoup. C'est assez complexe et comme on l'a vu, c'est assez opaque encore. Donc il faut s'associer à de nouvelles connaissances techniques, mais il faut être prêt. C'est pour ça que c'est important d'apprendre, d'acquérir de nouveaux savoirs. Il faut être prêt à avoir des propositions pour le bien commun et pour créer de nouvelles chaînes de distribution de la valeur des données.

  • Speaker #1

    Exactement, comme disait Bertrand, c'est vrai, rendre le problème politique, rendre la question des données politiques.

  • Speaker #2

    Détour vers le futur, c'est terminé pour aujourd'hui. Un grand merci à nos deux invités, Jessica Pidou et Bertrand Montuber.

  • Speaker #1

    Merci à nos partenaires de l'INA pour la recherche documentaire et merci aussi à l'ICAM et François Donato pour son texte et la création sonore.

  • Speaker #2

    Détour vers le futur, un podcast présenté par Laurent Chicoineau et Marina Léonard, préparé avec l'aide de Françoise Vissac.

  • Speaker #1

    Réalisation Arnaud Maisonneuve à la prise de son Laurent Caudoule. Abonnez-vous à Détour vers le futur sur Apple Podcasts, Spotify ou votre plateforme préférée. On en parlait justement des plateformes pour écouter nos prochains épisodes. Et d'ici là, restez curieux.

  • Speaker #4

    Ciao !

Description

On dit de nos données personnelles qu’elles sont le carburant de l’économie numérique, et encore plus à l’heure de l’IA. Décryptage des enjeux dans ce numéro de Détour vers le futur !

Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur Internet, ou même l’utilisation du GPS sur nos smartphones, nous laissons tous les jours, souvent sans en avoir conscience, quantité d’informations personnelles. 

Que deviennent-elles ? Qui peut les utiliser ? Avec les puissances de calcul de l’IA, jusqu’où peut-on aller dans leur exploitation ? Ces usages sont-ils cadrés, et par qui ?


Avec :

Jessica Pidoux, sociologue du numérique à l'Université de Neuchâtel, Institut de sociologie. En tant que chercheuse postdoctorale, elle mène des enquêtes à l'intersection de la sociologie des algorithmes et de la sociologie du travail, en utilisant des méthodes de sciences participatives. Elle est titulaire d'un master en sociologie de l'Université de Lausanne et d'un doctorat en humanités numériques de l'École polytechnique fédérale de Lausanne (EPFL). Ses recherches sur la dynamique des rencontres en ligne ont porté sur les algorithmes d'appariement, les pratiques des développeurs et les expériences des utilisateurs et utilisatrices, mettant en évidence divers types de biais algorithmiques et contribuant aux connaissances sur les processus de communication entre l'humain et la machine. Elle est également directrice de PersonalData.IO, une ONG suisse spécialisée dans l'exercice des droits d’accès aux données personnelles et de protection de la vie privée. À ce titre, elle a mené des audits algorithmiques sur des plateformes de travail telles que Deliveroo et Uber, contribuant ainsi à l'instauration de conditions de travail équitables pour les travailleurs, plus largement, aux débats sur les politiques publiques de régulation du numérique.


Bertrand Monthubert, président du Conseil National de l'Information Géolocalisée, qui regroupe des représentants de la très grande variété d’acteurs qui composent l’écosystème de la géo-donnée en France. Il est également président d'Ekitia, une association regroupant des acteurs publics et privés désireux de créer un cadre de confiance pour l'économie de la donnée.

Il  préside OPenIG, la plateforme régionale d'Occitanie pour l'information géographique. Il est aussi co-président du groupe de travail sur la gouvernance des données au sein du partenariat mondial de l'intelligence artificielle (Global Partnership on Artificial Intelligence, GPAI).

C'est un acteur du développement de l'usage des données au niveau territorial, national et international, au service des usages citoyens et des politiques publiques. À ce titre il est co-auteur d'un rapport, avec Christine Hennion et Magali Altounian, sur le thème "Data et Territoires", remis en novembre 2023 à Stanislas Guérini, Ministre de la Transformation et de la Fonction Publiques.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    On dit de nos données personnelles qu'elles sont le carburant de l'économie numérique, et encore plus aujourd'hui, à l'heure de l'IA. Décryptage des enjeux dans ce numéro de Détour vers le futur.

  • Speaker #1

    Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur internet ou même l'utilisation du GPS sur nos smartphones, nous laissons souvent, sans en avoir conscience, quantité d'informations personnelles. Que deviennent-elles ? Avec les puissances de calcul de l'IA, jusqu'où peut-on aller dans leur exploitation ? Et ces usages sont-ils cadrés ? Et par qui ?

  • Speaker #0

    Alors, pour discuter de toutes ces questions, nous recevons Jessica Pidou, chercheuse à l'Institut de sociologie de l'Université de Neuchâtel en Suisse, directrice de l'association Personnel Data.io, spécialiste numérique. Bonjour Jessica !

  • Speaker #2

    Bonjour.

  • Speaker #0

    Et Bertrand Montuber, mathématicien, président du groupe de travail d'experts sur la gouvernance des données dans le cadre d'un partenariat mondial pour l'intelligence artificielle. Bonjour Bertrand.

  • Speaker #3

    Bonjour.

  • Speaker #1

    On pourrait commencer par redéfinir ce qu'on appelle nos données personnelles sur Internet. Est-ce qu'il s'agit juste de nos noms, prénoms, dates de naissance, adresses, ce genre de choses, ou est-ce qu'il y a d'autres types d'informations ? Peut-être Bertrand Montuber ?

  • Speaker #3

    Mais en fait, tout ce qui peut se rattacher à la personne, qu'elle l'ait déposée de manière volontaire ou involontaire, ou en tout cas inconsciente, et vous avez donné des exemples, des très bons exemples. Moi, quand je suis venu ce matin, ok les savoirs, mon téléphone, très probablement, a déposé des données qui sont des données de localisation de là où je suis. Des données d'ailleurs qui peuvent être utiles. On peut trouver ça sympa d'avoir le récapitulatif de ces trajets. Tiens, j'avais oublié que j'étais à tel endroit ou bien j'ai fait autant de kilomètres dans le mois. Et effectivement, elle peut être aussi un petit peu angoissante. Mince, comment ça se fait que mon smartphone, aujourd'hui, me présente une publicité qui est sacrément en lien avec quelque chose... dont j'ai parlé, sur lesquels je me suis renseigné, ou bien à proximité de là où j'étais. Tout ça, c'est des données personnelles et c'est plein d'usages, effectivement, de ces données.

  • Speaker #1

    Alors là, on parle de données qui viennent des smartphones ou des discussions qu'on a eues à proximité des smartphones. Est-ce que les outils type carte bancaire, carte de transport en commun, abonnement, etc., c'est des choses qui collectent également le même type de données ?

  • Speaker #3

    Bien sûr, par exemple, si vous avez une carte de transport qui aujourd'hui, sont beaucoup plus rarement un ticket de métro, ça existe encore un petit peu, mais enfin, de moins en moins, il y en a plus beaucoup. Dès que vous êtes longtemps dans la même ville, et encore maintenant, quand vous êtes dans les villes, vous allez même peut-être pouvoir payer directement avec votre carte bancaire. Oui, il y a de la donnée personnelle, effectivement, qui est collectée. Et donc, le point c'est que ces données, elles sont toujours collectées dans un... Normalement, elles sont collectées dans un cadre juridique, on y reviendra peut-être, mais très souvent, on n'est pas forcément conscient, quand on signe des accords, quand on installe une appli sur son téléphone ou quoi que ce soit, de ce qu'il y a comme données personnelles derrière.

  • Speaker #0

    Jessica, les données personnelles, c'est aussi des données qu'on pose consciemment, je pense par exemple aux photos, je pense quand on fait des likes sur des réseaux sociaux, tout ça, ça constitue aussi des données personnelles ?

  • Speaker #2

    Effectivement, il y a la notion des données qui peut être vue comme toute information ou trace qu'on laisse autant dans l'espace physique et en ligne. C'est important à dire parce qu'effectivement, quand on est en train de se déplacer sur une route, notre téléphone va dire des informations sur nous et notre contexte physique, mais aussi quand on fait un achat dans un supermarché, dans toute entreprise physique. il y a des données collectées sur nous qui après sont digitalisées, etc. Il y a des données qui sont natives digitales, on va dire, parce que ce sont des informations que lorsqu'on est en train de parcourir un site web, quand on s'inscrit en ligne, même sur un système du gouvernement, qui est aujourd'hui beaucoup dans le format digital, on est en train de laisser des traces sur nous. Et ces traces, en fait, on... Ils peuvent être personnels ou non, et ça, ça dépend de la définition juridique qui a été donnée, notamment dans le règlement européen de la protection des données personnelles. Et des données personnelles ? veut dire toute information qui peut identifier un individu. Par exemple, l'âge, le sexe va nous identifier, notre adresse va nous identifier facilement. D'autres informations comme un like sur votre podcast va peut-être plus difficilement dire qui on est.

  • Speaker #0

    Oui, c'est ça, on a du mal à comprendre, par exemple, des recherches sur Internet aussi. On dit que, avec, je ne sais plus si c'est 6 ou 7 recherches différentes qu'on fait, on peut remonter quasiment à la personne, on peut identifier la personne. On a du mal à comprendre ça. Comment on peut se rendre compte, en tant qu'utilisateur citoyen, de toutes les données qui sont récoltées à notre insu ?

  • Speaker #2

    Oui, bonne question. Il y a bien cette différence que Bertrand a mentionné, c'est qu'il y a des informations que l'on déclare et il y en a d'autres qui sont collectées sans qu'on les sache. Et c'est pour ça que je rajoute juste qu'il y a deux aspects importants dans la définition des données, c'est qu'il y a une définition technique, c'est comment... On définit en amont quelles données sont collectées. Et ça ce sont des choix d'une entreprise, d'un système informatique qui dit on va collecter l'âge pour tous les individus. Mais on décide aussi de collecter l'âge de l'organisation, mais par l'ethnicité. Donc des choix en amont, techniques. Et il y a aussi l'aspect social. Ça veut dire que toutes nos informations sont agrégées, mises en commun avec les informations des autres personnes. Et là, on parle plus d'écologie des données, en fait, ou écosystème des données, parce que nos données individuelles, elles vont dire peu de choses sur nous et notre comportement si elles ne sont pas comparées avec les données et les informations des autres personnes. Donc, ça veut dire, pour répondre à votre question, que cette masse de données, elle est très grande, elle est collectée en permanence avec nos téléphones portables, avec des objets connectés, des caméras de surveillance. sur l'autoroute, nos ordinateurs au travail, à la maison, etc. Et donc cette masse de données, une fois qu'elle est collectée de manière collective, en fait elle devient très grande et difficile à retrouver, à tracer ce qui est dit, collecté sur nous, en général. Parce que ces informations vont dire quelque chose de nous. pour les marques, pour les entreprises, pour le gouvernement, etc. Et alors du coup,

  • Speaker #1

    qu'est-ce qu'on en fait ? Comment elles sont exploitées ces données ? Parce qu'on en laisse plein, ils en collectent plein. J'imagine que ça doit être une capacité de stockage hallucinante, mais c'est bien pour en faire quelque chose.

  • Speaker #3

    Elles sont utilisées effectivement pour de multiples motifs. Parler d'un motif qu'on connaît tous, ou en tout cas dont on perçoit le résultat, encore une fois, je l'évoquais tout à l'heure avec l'histoire de la publicité personnalisée, qui est au fond un des grands vecteurs, sinon le vecteur d'ailleurs, du développement de l'économie numérique.

  • Speaker #0

    C'est pour ça qu'on dit qu'il y a un plus grand de l'économie numérique.

  • Speaker #3

    Alors la donnée oui, après la publicité, le fait que ce soit la publicité personnalisée, ça c'est aussi un choix de modèle économique. On peut y revenir si vous voulez. En tout cas, il faut en être conscient. Effectivement, et comme le disait Jessica très justement, le point c'est qu'il va y avoir beaucoup de collecte de données qui vont permettre par exemple de comparer à d'autres personnes, mais aussi qui vont permettre d'apparier, d'augmenter finalement la connaissance de chacun des individus. Si vous avez une entreprise qui a collecté des données parce qu'elle a un service, j'en sais rien, de transport, parce qu'il y a des billets de train, etc. et que ces données sont utilisées par quelqu'un qui vend quelque chose, je n'en sais rien, des bagageries. Voilà. On va croiser ça et on va savoir par exemple que vous Marina, vous avez fait une recherche sur tel endroit. Peut-être que vous allez en voyage et peut-être qu'on va vous proposer de la maroquinerie pour pouvoir faire un voyage qui soit plus plaisant. Ça, c'est quelque chose qui est fait à très grande échelle. Une manière de s'en rendre compte, de manière très concrète en fait, par chacun d'entre nous. Vous allez sur un site internet, on vous demande quasiment tout le temps ce que vous voulez faire par rapport aux cookies.

  • Speaker #1

    Les fameux.

  • Speaker #3

    Les fameux cookies.

  • Speaker #0

    Acceptez-vous ou pas les cookies.

  • Speaker #3

    Acceptez-vous ou pas les cookies. Et, et ça c'est d'ailleurs quelque chose qui a progressé ces dernières années, même si on ne s'est pas complètement débarrassé du sujet, c'est que on peut... on va vous montrer quels sont les cookies et quels sont les acteurs qui sont derrière.

  • Speaker #1

    Et combien il y en a ?

  • Speaker #3

    Exactement. Et vous allez voir qu'il y a des centaines d'entreprises qui sont derrière les cookies qui sont développés, déposés sur quasiment n'importe quoi.

  • Speaker #0

    En deux mots, c'est quoi ? C'est des petits programmes qui récupèrent les données ?

  • Speaker #3

    Voilà, c'est des petites données. C'est très pratique d'ailleurs, les cookies. Ce qui fait que vous n'avez pas besoin de vous réidentifier à chaque fois que vous allez voir. Si vous êtes abonné à un service d'information, par exemple, ou vous êtes connecté une fois, vous n'avez peut-être pas envie de vous reconnecter à chaque fois, le cookie permet d'éviter ça. Bon voilà, par exemple. Mais ça permet de voir, de faire des statistiques d'usage. Est-ce que les gens vont sur quelle page ? C'est quoi le podcast du Quai des Savoirs qui a été le plus écouté ? C'est quoi les parties du site qui sont les plus regardées ? Voilà, mais ça peut servir aussi à des fins marketing, et donc de ciblage publicitaire. Et là, vous verrez, il peut y avoir des fois 800. crée sa terre derrière. Donc oui Marina, vous avez raison. Bien sûr, il y a beaucoup de gens et d'entreprises qui les utilisent. Maintenant, il ne faut pas se dire que l'utilisation est forcément négative. Il peut y avoir aussi des utilisations tout à fait positives. Les données personnelles, ce qui est important, c'est qu'on puisse les contrôler. Je pense qu'on y reviendra. Tout à fait. Avoir de la régulation. Faire en sorte d'éviter les abus, notamment les abus vis-à-vis de la vie privée, évidemment. Mais il y a aussi beaucoup de choses sur lesquelles on a besoin de données personnelles, par exemple pour faire des progrès en santé, dans le domaine de la transition.

  • Speaker #0

    Est-ce qu'on peut dire que sur un plan technologique, les progrès en intelligence artificielle ont aussi fait exploser ce... Ce domaine, quel est le lien en fait entre ces grosses masses de données qu'on appelle les big data souvent, et puis les progrès en intelligence artificielle ? Est-ce qu'aujourd'hui, c'est ce qu'on posait la question en introduction, est-ce qu'aujourd'hui avec l'évolution de l'intelligence artificielle, il y a vraiment un changement de nature ou en tous les cas d'échelle de l'exploitation de ces données ?

  • Speaker #3

    En fait, c'est un mouvement continu. Dans les années 2010, il y a eu un tournant, effectivement, avec le fait qu'une technologie, ou plus précisément une approche mathématique qu'on appelle les réseaux neuronaux, a pu être implémentée sur des ordinateurs, pour faire simple. Et en particulier, grâce à des nouvelles plus graphiques, d'une entreprise qui s'appelle Nvidia, et qui aujourd'hui est une des plus grandes capitalisations mondiales. À l'époque, on parlait beaucoup de big data. Alors le terme d'intelligence artificielle existait déjà auparavant, sous des formes différentes, plus classiques. Au milieu des années 2010, on parlait beaucoup de big data, et effectivement tout ce travail qu'on pouvait faire grâce à ces données. Et en particulier, on pouvait mettre en place ce qu'on appelle de l'apprentissage. On apprend avec quoi ? On apprend avec des données. Et ce qui est à la base de l'intelligence artificielle, c'est justement ces techniques d'apprentissage à partir de ces données. Donc les données sont effectivement le carburant de l'intelligence artificielle. Et donc, pour prendre un exemple très concret, j'étais en décembre au sommet mondial de l'IA à New Delhi. Et dans les acteurs qui étaient présents, très, très, très souvent, ce qu'ils mettaient comme challenge numéro un, c'est l'accès aux données. Comment on accède aux données ?

  • Speaker #0

    On ne peut pas parler aussi de données personnelles sans évoquer une histoire assez dramatique qui était l'affaire Cambridge Analytica. Évidemment, vous vous souvenez sûrement de ce scandale qui a éclaté en 2018 lorsque nous avons appris de la bouche d'un des ingénieurs même de cette société anglaise que son entreprise avait récupéré les données de plusieurs millions d'utilisateurs de Facebook pour les utiliser au service de l'extrême droite américaine et des pro-Brexit.

  • Speaker #1

    Cette ingénieure lanceur d'alerte, c'était Christopher Wiley. Je vous propose de l'écouter, d'écouter un court extrait de son témoignage. C'était au micro de France Inter, dans l'émission de Sonia De Villers, l'instant M. On était le 11 mars 2020, et une des grandes questions de cette affaire, c'était la responsabilité de Facebook. Est-ce que la plateforme était au courant du siphonnage de données réalisé par Cambridge Analytica ?

  • Speaker #4

    C'était faire la grande question derrière tout ça. Ça dépend de qui vous parlez à Facebook et vous avez des réponses différentes. Mais ce que nous savons, c'est que Cambridge Analytica, son application, ont été soumis au système de Facebook. Autrement, ça n'aurait pas pu marcher. De toute façon, ils avaient l'obligation de s'assurer ce qui se passait sur leur plateforme et surtout que ce qui se passe sur cette plateforme soit en accord avec ce qu'ils disaient à leurs utilisateurs sur la sécurité et sur la légalité des informations.

  • Speaker #1

    Cette affaire a réellement pointé le rôle des plateformes et interrogé leurs responsabilités dans le contrôle du traitement des données personnelles. Depuis 2018, est-ce que les choses ont changé ?

  • Speaker #2

    Oui, le cas est très important pour nous au sein de l'association parce que le fondateur de l'association PersonalData.io, Paul-Olivier Dewey, était le premier à aider des Nord-Américains à exercer le droit d'accès pour amener des preuves et éclairer le cas de Cambridge Analytica au Parlement européen. Donc, il a montré comment… Deux facteurs importants pour ce cas, c'est… D'abord, le potentiel d'influence des données personnelles, lorsqu'on laisse des traces comme les likes. Avant, on disait que le like ne nous permettait pas d'identifier, mais en fait, Cambridge Analytica, avec des techniques d'intelligence artificielle, a permis de comprendre la personnalité des citoyens et citoyennes nord-américaines et les influencer pour voter. Voilà, donc ils ont influencé l'orientation politique.

  • Speaker #0

    Ils ont modélisé en fait comment ils pensaient à travers leurs likes, etc. C'est ça que vous voulez dire.

  • Speaker #2

    Exact. Comment les gens se comportaient sur Facebook en train de liker certains groupes, en train de regarder certaines publicités, quelles étaient leurs... profils sociodémographiques, quels sont les contenus de conversation qu'ils avaient en ligne. Donc, l'ensemble de toutes ces données, agrégées avec d'autres personnes aussi qui étaient en ligne, a permis de créer un profil de personnalité et les cibler pour les influencer vers certaines orientations. politique. Donc pouvoir d'influence démontré, très grand, très alarmant pour tous les pays, les politiciens, etc. dans le monde entier. Et deuxième facteur important, on a mis en évidence dans l'association qu'on a des droits d'accès aux données, que ces droits digitaux vont nous protéger et nous donner de l'autonomie sur notre vie digitale et physique. Parce que vous voyez là dans ce cas de Cambridge Analytica que notre comportement en ligne et ce qui est collecté et dit sur nous, sur les données en ligne, va affecter notre comportement dans le monde physique.

  • Speaker #1

    C'est assez édifiant, effectivement. Là, on vient de beaucoup parler de l'utilisation des données des clients ou des consommateurs, des applications. Est-ce qu'on pourrait parler maintenant un petit peu du cas des professionnels qui utilisent ces plateformes comme un outil de travail ? C'est le cas notamment de Uber, sur lequel vous travaillez, Jessica Pidou, et vous parlez d'une forme de management d'un nouveau type, un management algorithmique. Comment est-ce que ça se passe ?

  • Speaker #2

    C'est la littérature en management et en sociologie du travail qui développe le concept de management algorithmique. Ça veut dire qu'aujourd'hui, les systèmes automatisés des entreprises, des plateformes comme Uber, vont remplacer des fonctions managériales faites par les humains, normalement avec un hiérarchique qui est en train de manager les employés. Ces fonctions managériales vont être en fait ces fonctions. déléguée aux algorithmes ou opérations automatisées des plateformes où il y a un contrôle, une surveillance qui est beaucoup plus sévère et granulaire, puisqu'elle repose sur les données qui sont collectées des travailleurs. C'est bien différent de lorsque l'on travaille dans un bureau, quel type de données sont collectées sur nous, alors que... On travaille via une plateforme, par exemple les chauffeurs Uber ont la géolocalisation connectée pour savoir où ils sont à un moment précis et donc les renvoyer vers un client et leur point de destination. Alors on va suivre tous ces comportements, toutes ces traces que les chauffeurs laissent pour faire le calcul de leur tarif, de leur temps de travail et donc revenus à la fin.

  • Speaker #0

    Oui, donc la problématique, en fait, c'est qu'ils sont dits travailleurs indépendants, mais ils dépendent complètement de la plateforme, de l'algorithme de la plateforme, qui, comme vous venez de le dire, ce n'est plus un humain qui va leur donner les ordres, les courses, les consignes, c'est la machine qui automatiquement va générer ça. Et ils ne savent pas du tout, et comme effet cet algorithme non plus, de leur côté, et ils sont totalement tributaires.

  • Speaker #2

    Exact. Donc ces systèmes sont opaques, reviennent à la propriété intellectuelle des entreprises. On a peu encore d'accès, de visibilité sur ce système, même s'il y a des inspections de travail possibles, etc. Mais il y a un manque général de compétences, de connaissances techniques et des outils pour comprendre ce système qui évolue en permanence. Bertrand a parlé de comment il y a un système qui alimente un contenu des données de la big data et comment les systèmes d'intelligence artificielle et les dispositifs techniques s'actualisent, parce qu'on est gourmand des données, pour avoir des meilleurs résultats. Et dans cette collecte massive de données, en fait, les chauffeurs Uber sont infectés parce qu'on ne sait plus sur eux, mais eux, ils ont moins de contrôle de visibilité sur comment s'organiser. Ils ne savent pas, par exemple, combien de chauffeurs il y a dans le marché local à Paris, pour savoir combien ils sont en compétition. à quel horaire c'est plus profitable de sortir ou non à travailler.

  • Speaker #0

    Oui, en fait, ils n'ont pas beaucoup de latitude individuelle pour décider de leur propre stratégie. Ils sont complètement soumis à cet algorithme de la plateforme. Les choses sont en train de changer néanmoins, puisque actuellement, au niveau européen, il y a une directive qui a été votée pour renforcer leurs droits et peut-être même revoir la nature de la relation entre la plateforme et les travailleurs. C'est-à-dire qu'ils seraient plutôt considérés comme des employés que comme des travailleurs indépendants. C'est ça ?

  • Speaker #2

    Oui, alors il y a plusieurs procédures en cours. Il y a au niveau national, il y a la régulation des plateformes et du travail. Et en fait, à Paris, au cours de justice, a été déclaré que les chauffeurs Uber, ce sont des employés et non pas des indépendants. Ils avaient alors avant un contrat en tant qu'indépendants, mais dans la pratique c'est encore plus. Les chauffeurs doivent aller au cas par cas, au prud'homme et défendre leur statut d'emploi. Maintenant, au niveau de l'Union européenne, il y a la directive européenne du travail des plateformes qui vient d'être acceptée, votée. Elle est passée, mais bien sûr, c'est un standard où chaque pays va l'adapter, l'implémenter selon ses spécificités. Et ce que dit la directive, à mon avis, est très important parce que ça reconnaît beaucoup de problèmes propres au secteur du travail des plateformes, dont le management algorithmique. qui n'étaient pas présentes dans un contexte professionnel traditionnel avant. Et en fait, c'est très important parce que ça ne touche pas seulement les chauffeurs Uber, ça touche la population entière, à mon avis, par exemple, du fait qu'on fait du télétravail beaucoup plus maintenant. Le fait que dans les intrépôts de logistique, les travailleurs sont placés à la seconde sur leur mouvement, par exemple en train d'inventorier la marchandise. Donc le travail des plateformes est en train de se généraliser pour beaucoup de professions et cette directive européenne marque un bon début. donner plus de pouvoir collectif aussi aux travailleurs affectés par la digitalisation.

  • Speaker #1

    Qui ne sont pas seuls en fait, ils sont effectivement plein d'unités qui n'ont pas d'interface les unes avec les autres, mais pour autant en fait, à eux tous, ils font quand même un grand nombre. Alors on a un peu l'impression dans ce que vous êtes en train de dire que la plateforme elle est conçue pas du tout pour les travailleurs qui sont associés à cette plateforme, mais plutôt pour les consommateurs. Sauf qu'en fait, ce n'est pas si simple que ça, parce qu'au niveau du client, c'est pareil, ce n'est pas très transparent pour reprendre le cas d'Uber par exemple. Dans vos recherches, vous avez pu mettre en évidence qu'il y avait un certain nombre de facteurs qui rentraient dans la construction du tarif de la course qui va s'appliquer à un client, à un client donné, à un instant donné. Et ça, en fait, on ne le sait pas, nous, en tant que client. Il y a quoi, par exemple, comme élément ou comment ça se construit, ça ? Est-ce que vous avez pu un peu décrypter cela ?

  • Speaker #2

    Oui, alors, c'est l'un des problèmes de l'économie des plateformes, ou l'économie des données aussi. Ce sont deux termes utilisés dans la littérature. En fait, l'économie des plateformes crée une asymétrie d'informations et des pouvoirs entre la plateforme qui est l'employeur et les chauffeurs ou les travailleurs, et de l'autre côté entre les travailleurs et les clients. Et ça veut dire que ça nous met à distance et on ne sait pas ce qui se passe de l'un côté ou de l'autre. Et c'est là où Uber, et ça a été démontré avec des études très récentes, joue avec, par exemple, un tarif qui a été affiché par un client. Ensuite, le chauffeur se rend compte que ce tarif est différent pour lui. Ça veut dire qu'il reçoit moins de revenus par rapport au même tarif qui a été donné au client. Et il y a aussi pour deux clients, même point A, point B des destinations, le tarif varie. Uber dit dans des termes très généraux que ça dépend de... par exemple les heures piques des demandes, etc. Donc on peut dire que de manière générale, ça dépend de l'offre et la demande. Et c'est d'où l'invention d'Uber, c'est que l'application fait un travail d'intermédiation entre le marché, c'est-à-dire la demande et l'offre. Et ça varie, ça varie d'un jour à l'autre, d'une heure à l'autre. Et c'est seulement Uber qui a la visibilité sur les fluctuations du marché. Et les chauffeurs, alors qu'ils étaient considérés comme des autonomes et indépendants, n'ont aucune visibilité sur ce marché pour mitiger le risque financier qu'ils sont en train de prendre.

  • Speaker #0

    Alors, puisqu'on parle d'utilisation de ces plateformes, je vous propose d'écouter notre feuilleton de science-fiction dans des tours vers le futur. Cette fois-ci, l'ICAM et François Donato ont imaginé comment nous pourrions faire nos courses dans un futur plus ou moins désirable, mais en tout cas en musique.

  • Speaker #5

    J'accepte. Êtes-vous toujours une femme ?

  • Speaker #3

    Oui.

  • Speaker #5

    Avez-vous toujours deux enfants ?

  • Speaker #3

    Oui.

  • Speaker #5

    Votre activité principale est-elle toujours veilleuse de forêt ?

  • Speaker #2

    Oui.

  • Speaker #5

    Merci de votre confiance. Nous avons remarqué que vous ne fréquentiez plus notre application de rencontre. Nous vous offrons une remise de 5 euros si vous vous y rendez maintenant. Souhaitez-vous avoir accès à notre application de rencontre ? Non. Nous testons actuellement l'attrait de plusieurs produits sur nos abonnés. Le visionnage de publicité vous octroiera une remise de 5 euros. Si vous acceptez, nous vous demandons d'activer votre caméra pour que nous puissions jauler vos réactions.

  • Speaker #2

    Non.

  • Speaker #5

    Que recherchez-vous ? Nous avons élaboré une liste de courses personnalisées en fonction de vos achats précédents. Souhaitez-vous y recourir ? Merci de votre confiance. Un drone terrestre va vous livrer dans l'heure. La totalité de vos achats, remises complices, s'élèvent à 147 euros. Souhaitez-vous payer en monnaie ou préférez-vous que la plateforme vous attribue des heures de ménage d'atteint pour le même montant ?

  • Speaker #2

    Ménage Merci de votre attention.

  • Speaker #0

    Alors dans ce futur de fiction, l'algorithme il est tout de même assez transparent avec l'utilisatrice. Est-ce que d'après vous Bertrand Montubert, on se dirige vers ce genre d'application ? Qu'est-ce qui est mis en place en fait comme type de mesure pour réglementer la protection de l'utilisation des données personnelles en fait ?

  • Speaker #3

    En tout cas même si c'est une fiction, on voit que la personne qui a commencé par dire oui, a commencé à dire non de manière de plus en plus agacée. Donc je ne suis pas complètement sûr du succès à terme de ce genre de choses qui peut passablement irriter. D'ailleurs on a parlé de Cambridge Analytica, c'est très intéressant de voir comment il y a eu... Il y a eu une évolution dans la population par rapport à la question des données personnelles, l'utilisation des données personnelles par les services, à partir de 2016 et de Cambridge Analytica. On a fait une enquête dans le cadre d'Equitia, une association que je préside, qui travaille sur la construction d'un espace de confiance éthique et souverain pour le partage de la donnée, justement sur la relation des citoyens avec la donnée. Et on a complété ça avec une étude avec Aniti, le pôle d'intelligence artificielle de Toulouse, la grande enquête Cocacia, plus de 3 700 réponses. Et ce qu'on voit dans ces différentes enquêtes, c'est que la population est très partagée. sur la question d'utilisation des données personnelles. Mais qu'est-ce que ça veut dire utiliser des données personnelles si on ne dit pas pourquoi ?

  • Speaker #1

    C'est ça.

  • Speaker #3

    Si c'est pour me rappeler que quand je fais mes courses, très souvent j'achète du lait et telle marque de yaourt, à la limite c'est peut-être pratique.

  • Speaker #1

    C'est assez pratique, on gagne du temps.

  • Speaker #3

    C'est peut-être assez pratique, peut-être qu'on gagne du temps, on sait des choses sur moi, c'est peut-être pas dramatique, ça dépend, ça dépend de chacun, mais en tout cas voilà. Je comprends qu'il y ait des gens qui trouvent que c'est pratique. Si c'est pour me dire, au fait, ça fait deux mois que tu n'es pas allé sur la petite rencontre, qu'est-ce qui se passe ? Et j'ai des gens à te proposer, c'est peut-être un peu intrusif. Donc la question de l'usage, elle est très importante. La question de qui le fait est aussi extrêmement importante. Et ça, je pense qu'il faut vraiment qu'on en parle. Parce que quand on parle des questions de régulation, encore une fois, je pense qu'il y a des régulations qui se mettent en place au niveau européen et qui vont dans le bon sens. On connaît tous le RGPD, il a aussi ses limites, évidemment, le RGPD, mais je pense que c'est...

  • Speaker #0

    Le Réglement général de protection des Merci,

  • Speaker #3

    merci beaucoup, bien sûr, le Réglement général de protection des données, c'est important. Encore une fois, la question c'est aussi le qui. On a parlé Uber, on a parlé Facebook, on a parlé derrière en fait des très grands opérateurs numériques, les GAFA, Google, Apple, Facebook, etc. Est-ce qu'il y a la place pour faire un usage responsable de données personnelles pour des usages d'intérêts publics ? de problématiques, encore une fois, de santé, par exemple, sur lesquelles on a besoin de choses. Je vais vous donner un exemple très concret. Dans le cadre de la santé, moi, dans mon activité professionnelle, je travaille autour de la question de l'autisme. J'étais récemment dans un colloque du groupement d'intérêt scientifique sur l'autisme, et puis un chercheur en génétique. nous disait qu'on a un gros problème parce qu'on a besoin d'accéder à des échantillons génétiques pour faire progresser la recherche, pour mieux comprendre quels sont les mécanismes sous-jacents. Et on nous oppose que ce sont des données personnelles qu'on ne pourrait pas réutiliser. Et dans la salle, il y avait une personne concernée, une personne autiste, dans une association, et qui disait, Mais nous, en tant qu'association, nous considérons que vos travaux sont importants et nous souhaitons qu'ils puissent se faire.

  • Speaker #0

    Donc on voit bien que la question n'est pas si simple.

  • Speaker #1

    D'où l'enjeu de repréciser l'usage à chaque fois,

  • Speaker #0

    pourquoi on veut utiliser l'usage et l'utilisateur. Et par qui ? C'est évidemment pas la même chose qu'un chercheur à l'Institut Pasteur utilise ces données-là et que ça soit une compagnie d'assurance qui les utilise à des fins qui seront peut-être augmenter votre prime d'assurance. Évidemment. Donc il faut mettre un certain nombre de choses en place. Donc les régulations, les réglementations, les lois, les directives européennes, c'est une chose et c'est important. Mais il y a aussi tout le cadre... éthique, qui est absolument essentielle. Comment on se dirige, en fait, dans ce maquis ? Parce que, on va être honnête, on a utilisé, là, depuis le début de l'émission, des beaux exemples, mais des exemples sur lesquels c'est pas compliqué de se positionner. Voilà, Cambridge Analytica, c'est pas compliqué de dire, franchement, c'est lamentable. Et ça doit être interdit, ça doit pas se reproduire, et malheureusement, c'est en train de se reproduire, d'ailleurs. Mais... Mais il y a des cas sur lesquels c'est beaucoup plus complexe. Comment on en juge ? Est-ce que c'est moi, citoyen, à chaque fois qui dois en juger tout seul ? Est-ce que je revenais sur les cookies ? Moi je fais l'effort ? Sur tous les sites internet où je vais, d'aller regarder les cookies, savoir ce que j'accepte et ce que je refuse. Honnêtement, c'est pénible. Je ne suis pas sûr. On est une majorité de la population à faire ça, d'accord ? Donc comment on simplifie les choses ? Et là, il y a des cadres éthiques qui peuvent être mis, il y a des labels éthiques. On a créé un label éthique sur des solutions numériques, justement, pour pouvoir analyser quels sont... les usages des données, dans quelle logique c'est fait, pour quelle utilisation, est-ce qu'il y a des risques, est-ce qu'il y a des risques de discrimination, est-ce que ça va dans le sens des objectifs du développement durable, etc. Est-ce qu'il y a un partage équitable de la valeur ? Plein d'actions. Ce n'est pas moi, simple citoyen, qui suis capable d'aller analyser.

  • Speaker #2

    On ne va pas aller chercher les codes, la propriété intellectuelle ou les algorithmes qu'ils utilisent,

  • Speaker #0

    c'est évident. Exactement. Et donc, il y a besoin, en plus de la régulation, il y a besoin justement de structuration, ce qu'on appelle la soft law, souvent. Il y a la loi dure et puis il y a la loi molle, ça ne veut pas dire qu'elle est inintéressante. Et je crois que faire en sorte qu'en tant que citoyen, on se mobilise derrière des outils de soft law qui nous permettent d'y voir plus clair, c'est un peu comme le Nutri-Score. Voilà, ça ne règle pas tout. Non, mais ça donne une indication. Mais ça donne une indication.

  • Speaker #1

    On pourrait imaginer une labellisation des sites internet, des réseaux sociaux, des services de plateforme.

  • Speaker #0

    Des labels existent, il y a un label aussi sur le numérique responsable, et c'est quelque chose qui est en train effectivement de se structurer, on a un certain nombre d'acteurs à le faire.

  • Speaker #2

    Une question qui me taraude un peu, parce que là on parle d'Europe, directive européenne, on parle de la France. Mais comment ça se passe dans le monde ? Parce que je pars en vacances en Afrique du Sud, mes données, elles sont soumises à qui du coup ? Parce que, admettons, j'utilise Uber en Afrique du Sud, du coup mes données, elles sont où ? Elles sont à qui ? Elles sont sous quelle juridiction ?

  • Speaker #1

    En tant que citoyenne européenne, Jessica ? Comment on peut répondre à ça ?

  • Speaker #3

    RGPD, le groupe européen de la protection des données, ou OTEJ en tant que citoyenne européenne. Mais partout dans le monde ?

  • Speaker #2

    Même si je suis en Afrique du Sud ou ailleurs.

  • Speaker #3

    Mais un principe, si même un citoyen de l'Afrique du Sud utilise un service qui est dans le territoire européen, Et c'est le règlement aussi, le RGPD européen, qui peut protéger, par exemple, pour exercer son droit d'accès aux données. Donc, en fait, ça dépend d'où l'entreprise est localisée, où la personne est localisée, et où les données sont en train de voyager d'un pays à un autre.

  • Speaker #2

    Voilà, donc moi, je sors des frontières de l'Europe, mais pas les réglementations sur mes données. C'est rassurant, quelque part.

  • Speaker #1

    Pour terminer, et puis essayer peut-être d'aller vers une conclusion, même si on a bien compris que ce sujet est hautement complexe, qu'est-ce que vous pourriez donner, et l'un et l'autre, comme conseil à nous, citoyens, citoyennes, utilisateurs, utilisatrices de ces plateformes, pour essayer de maîtriser au mieux, finalement, mes données, mes datas à l'époque de l'IA ? Bertrand ?

  • Speaker #0

    Je dirais quelque chose de base, c'est... On n'est pas face à un univers magique. On est face à des mécanismes où il y a de la science, où il y a de l'économie, où il y a de la politique. Et donc, comme pour toutes les grandes choses finalement de notre quotidien, il faut... En connaître un petit peu. Ça ne veut pas dire, il ne faut pas se tromper là-dessus, le sujet ce n'est pas, est-ce que vous allez devenir capable de programmer un algorithme en tout temps ? Ce n'est pas du tout le sujet. Ce n'est pas du tout le sujet.

  • Speaker #2

    Une chance.

  • Speaker #1

    Heureusement.

  • Speaker #0

    Oui, non, non, heureusement, heureusement. Par contre, effectivement, avoir des notions de base sur ce qui se passe, se dire encore une fois à chaque fois que tout ça n'est pas magique. Vous pouvez comprendre beaucoup, beaucoup de choses, même sans rentrer, encore une fois, dans toute la technicité. Et encore une fois, si vous ne le faites pas, vous allez être manipulé. Il faut que ce sujet, qui est un sujet politique, on arrive à le placer sur la place publique. Et que ça ne soit pas un sujet de spécialiste.

  • Speaker #1

    Jessica ?

  • Speaker #3

    Oui, alors pour moi... Je pense qu'il faut aller au-delà des actions individuelles et faire plus des actions collectives. On a besoin d'un pouvoir collectif, d'une mobilisation collective. Évidemment, on s'est renseigné à apprendre auprès des associations qui sont dans la sensibilisation, avec des outils, des techniques, des savoirs, parce que comprendre l'économie des données, en fait, demande beaucoup. C'est assez complexe et comme on l'a vu, c'est assez opaque encore. Donc il faut s'associer à de nouvelles connaissances techniques, mais il faut être prêt. C'est pour ça que c'est important d'apprendre, d'acquérir de nouveaux savoirs. Il faut être prêt à avoir des propositions pour le bien commun et pour créer de nouvelles chaînes de distribution de la valeur des données.

  • Speaker #1

    Exactement, comme disait Bertrand, c'est vrai, rendre le problème politique, rendre la question des données politiques.

  • Speaker #2

    Détour vers le futur, c'est terminé pour aujourd'hui. Un grand merci à nos deux invités, Jessica Pidou et Bertrand Montuber.

  • Speaker #1

    Merci à nos partenaires de l'INA pour la recherche documentaire et merci aussi à l'ICAM et François Donato pour son texte et la création sonore.

  • Speaker #2

    Détour vers le futur, un podcast présenté par Laurent Chicoineau et Marina Léonard, préparé avec l'aide de Françoise Vissac.

  • Speaker #1

    Réalisation Arnaud Maisonneuve à la prise de son Laurent Caudoule. Abonnez-vous à Détour vers le futur sur Apple Podcasts, Spotify ou votre plateforme préférée. On en parlait justement des plateformes pour écouter nos prochains épisodes. Et d'ici là, restez curieux.

  • Speaker #4

    Ciao !

Share

Embed

You may also like

Description

On dit de nos données personnelles qu’elles sont le carburant de l’économie numérique, et encore plus à l’heure de l’IA. Décryptage des enjeux dans ce numéro de Détour vers le futur !

Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur Internet, ou même l’utilisation du GPS sur nos smartphones, nous laissons tous les jours, souvent sans en avoir conscience, quantité d’informations personnelles. 

Que deviennent-elles ? Qui peut les utiliser ? Avec les puissances de calcul de l’IA, jusqu’où peut-on aller dans leur exploitation ? Ces usages sont-ils cadrés, et par qui ?


Avec :

Jessica Pidoux, sociologue du numérique à l'Université de Neuchâtel, Institut de sociologie. En tant que chercheuse postdoctorale, elle mène des enquêtes à l'intersection de la sociologie des algorithmes et de la sociologie du travail, en utilisant des méthodes de sciences participatives. Elle est titulaire d'un master en sociologie de l'Université de Lausanne et d'un doctorat en humanités numériques de l'École polytechnique fédérale de Lausanne (EPFL). Ses recherches sur la dynamique des rencontres en ligne ont porté sur les algorithmes d'appariement, les pratiques des développeurs et les expériences des utilisateurs et utilisatrices, mettant en évidence divers types de biais algorithmiques et contribuant aux connaissances sur les processus de communication entre l'humain et la machine. Elle est également directrice de PersonalData.IO, une ONG suisse spécialisée dans l'exercice des droits d’accès aux données personnelles et de protection de la vie privée. À ce titre, elle a mené des audits algorithmiques sur des plateformes de travail telles que Deliveroo et Uber, contribuant ainsi à l'instauration de conditions de travail équitables pour les travailleurs, plus largement, aux débats sur les politiques publiques de régulation du numérique.


Bertrand Monthubert, président du Conseil National de l'Information Géolocalisée, qui regroupe des représentants de la très grande variété d’acteurs qui composent l’écosystème de la géo-donnée en France. Il est également président d'Ekitia, une association regroupant des acteurs publics et privés désireux de créer un cadre de confiance pour l'économie de la donnée.

Il  préside OPenIG, la plateforme régionale d'Occitanie pour l'information géographique. Il est aussi co-président du groupe de travail sur la gouvernance des données au sein du partenariat mondial de l'intelligence artificielle (Global Partnership on Artificial Intelligence, GPAI).

C'est un acteur du développement de l'usage des données au niveau territorial, national et international, au service des usages citoyens et des politiques publiques. À ce titre il est co-auteur d'un rapport, avec Christine Hennion et Magali Altounian, sur le thème "Data et Territoires", remis en novembre 2023 à Stanislas Guérini, Ministre de la Transformation et de la Fonction Publiques.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    On dit de nos données personnelles qu'elles sont le carburant de l'économie numérique, et encore plus aujourd'hui, à l'heure de l'IA. Décryptage des enjeux dans ce numéro de Détour vers le futur.

  • Speaker #1

    Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur internet ou même l'utilisation du GPS sur nos smartphones, nous laissons souvent, sans en avoir conscience, quantité d'informations personnelles. Que deviennent-elles ? Avec les puissances de calcul de l'IA, jusqu'où peut-on aller dans leur exploitation ? Et ces usages sont-ils cadrés ? Et par qui ?

  • Speaker #0

    Alors, pour discuter de toutes ces questions, nous recevons Jessica Pidou, chercheuse à l'Institut de sociologie de l'Université de Neuchâtel en Suisse, directrice de l'association Personnel Data.io, spécialiste numérique. Bonjour Jessica !

  • Speaker #2

    Bonjour.

  • Speaker #0

    Et Bertrand Montuber, mathématicien, président du groupe de travail d'experts sur la gouvernance des données dans le cadre d'un partenariat mondial pour l'intelligence artificielle. Bonjour Bertrand.

  • Speaker #3

    Bonjour.

  • Speaker #1

    On pourrait commencer par redéfinir ce qu'on appelle nos données personnelles sur Internet. Est-ce qu'il s'agit juste de nos noms, prénoms, dates de naissance, adresses, ce genre de choses, ou est-ce qu'il y a d'autres types d'informations ? Peut-être Bertrand Montuber ?

  • Speaker #3

    Mais en fait, tout ce qui peut se rattacher à la personne, qu'elle l'ait déposée de manière volontaire ou involontaire, ou en tout cas inconsciente, et vous avez donné des exemples, des très bons exemples. Moi, quand je suis venu ce matin, ok les savoirs, mon téléphone, très probablement, a déposé des données qui sont des données de localisation de là où je suis. Des données d'ailleurs qui peuvent être utiles. On peut trouver ça sympa d'avoir le récapitulatif de ces trajets. Tiens, j'avais oublié que j'étais à tel endroit ou bien j'ai fait autant de kilomètres dans le mois. Et effectivement, elle peut être aussi un petit peu angoissante. Mince, comment ça se fait que mon smartphone, aujourd'hui, me présente une publicité qui est sacrément en lien avec quelque chose... dont j'ai parlé, sur lesquels je me suis renseigné, ou bien à proximité de là où j'étais. Tout ça, c'est des données personnelles et c'est plein d'usages, effectivement, de ces données.

  • Speaker #1

    Alors là, on parle de données qui viennent des smartphones ou des discussions qu'on a eues à proximité des smartphones. Est-ce que les outils type carte bancaire, carte de transport en commun, abonnement, etc., c'est des choses qui collectent également le même type de données ?

  • Speaker #3

    Bien sûr, par exemple, si vous avez une carte de transport qui aujourd'hui, sont beaucoup plus rarement un ticket de métro, ça existe encore un petit peu, mais enfin, de moins en moins, il y en a plus beaucoup. Dès que vous êtes longtemps dans la même ville, et encore maintenant, quand vous êtes dans les villes, vous allez même peut-être pouvoir payer directement avec votre carte bancaire. Oui, il y a de la donnée personnelle, effectivement, qui est collectée. Et donc, le point c'est que ces données, elles sont toujours collectées dans un... Normalement, elles sont collectées dans un cadre juridique, on y reviendra peut-être, mais très souvent, on n'est pas forcément conscient, quand on signe des accords, quand on installe une appli sur son téléphone ou quoi que ce soit, de ce qu'il y a comme données personnelles derrière.

  • Speaker #0

    Jessica, les données personnelles, c'est aussi des données qu'on pose consciemment, je pense par exemple aux photos, je pense quand on fait des likes sur des réseaux sociaux, tout ça, ça constitue aussi des données personnelles ?

  • Speaker #2

    Effectivement, il y a la notion des données qui peut être vue comme toute information ou trace qu'on laisse autant dans l'espace physique et en ligne. C'est important à dire parce qu'effectivement, quand on est en train de se déplacer sur une route, notre téléphone va dire des informations sur nous et notre contexte physique, mais aussi quand on fait un achat dans un supermarché, dans toute entreprise physique. il y a des données collectées sur nous qui après sont digitalisées, etc. Il y a des données qui sont natives digitales, on va dire, parce que ce sont des informations que lorsqu'on est en train de parcourir un site web, quand on s'inscrit en ligne, même sur un système du gouvernement, qui est aujourd'hui beaucoup dans le format digital, on est en train de laisser des traces sur nous. Et ces traces, en fait, on... Ils peuvent être personnels ou non, et ça, ça dépend de la définition juridique qui a été donnée, notamment dans le règlement européen de la protection des données personnelles. Et des données personnelles ? veut dire toute information qui peut identifier un individu. Par exemple, l'âge, le sexe va nous identifier, notre adresse va nous identifier facilement. D'autres informations comme un like sur votre podcast va peut-être plus difficilement dire qui on est.

  • Speaker #0

    Oui, c'est ça, on a du mal à comprendre, par exemple, des recherches sur Internet aussi. On dit que, avec, je ne sais plus si c'est 6 ou 7 recherches différentes qu'on fait, on peut remonter quasiment à la personne, on peut identifier la personne. On a du mal à comprendre ça. Comment on peut se rendre compte, en tant qu'utilisateur citoyen, de toutes les données qui sont récoltées à notre insu ?

  • Speaker #2

    Oui, bonne question. Il y a bien cette différence que Bertrand a mentionné, c'est qu'il y a des informations que l'on déclare et il y en a d'autres qui sont collectées sans qu'on les sache. Et c'est pour ça que je rajoute juste qu'il y a deux aspects importants dans la définition des données, c'est qu'il y a une définition technique, c'est comment... On définit en amont quelles données sont collectées. Et ça ce sont des choix d'une entreprise, d'un système informatique qui dit on va collecter l'âge pour tous les individus. Mais on décide aussi de collecter l'âge de l'organisation, mais par l'ethnicité. Donc des choix en amont, techniques. Et il y a aussi l'aspect social. Ça veut dire que toutes nos informations sont agrégées, mises en commun avec les informations des autres personnes. Et là, on parle plus d'écologie des données, en fait, ou écosystème des données, parce que nos données individuelles, elles vont dire peu de choses sur nous et notre comportement si elles ne sont pas comparées avec les données et les informations des autres personnes. Donc, ça veut dire, pour répondre à votre question, que cette masse de données, elle est très grande, elle est collectée en permanence avec nos téléphones portables, avec des objets connectés, des caméras de surveillance. sur l'autoroute, nos ordinateurs au travail, à la maison, etc. Et donc cette masse de données, une fois qu'elle est collectée de manière collective, en fait elle devient très grande et difficile à retrouver, à tracer ce qui est dit, collecté sur nous, en général. Parce que ces informations vont dire quelque chose de nous. pour les marques, pour les entreprises, pour le gouvernement, etc. Et alors du coup,

  • Speaker #1

    qu'est-ce qu'on en fait ? Comment elles sont exploitées ces données ? Parce qu'on en laisse plein, ils en collectent plein. J'imagine que ça doit être une capacité de stockage hallucinante, mais c'est bien pour en faire quelque chose.

  • Speaker #3

    Elles sont utilisées effectivement pour de multiples motifs. Parler d'un motif qu'on connaît tous, ou en tout cas dont on perçoit le résultat, encore une fois, je l'évoquais tout à l'heure avec l'histoire de la publicité personnalisée, qui est au fond un des grands vecteurs, sinon le vecteur d'ailleurs, du développement de l'économie numérique.

  • Speaker #0

    C'est pour ça qu'on dit qu'il y a un plus grand de l'économie numérique.

  • Speaker #3

    Alors la donnée oui, après la publicité, le fait que ce soit la publicité personnalisée, ça c'est aussi un choix de modèle économique. On peut y revenir si vous voulez. En tout cas, il faut en être conscient. Effectivement, et comme le disait Jessica très justement, le point c'est qu'il va y avoir beaucoup de collecte de données qui vont permettre par exemple de comparer à d'autres personnes, mais aussi qui vont permettre d'apparier, d'augmenter finalement la connaissance de chacun des individus. Si vous avez une entreprise qui a collecté des données parce qu'elle a un service, j'en sais rien, de transport, parce qu'il y a des billets de train, etc. et que ces données sont utilisées par quelqu'un qui vend quelque chose, je n'en sais rien, des bagageries. Voilà. On va croiser ça et on va savoir par exemple que vous Marina, vous avez fait une recherche sur tel endroit. Peut-être que vous allez en voyage et peut-être qu'on va vous proposer de la maroquinerie pour pouvoir faire un voyage qui soit plus plaisant. Ça, c'est quelque chose qui est fait à très grande échelle. Une manière de s'en rendre compte, de manière très concrète en fait, par chacun d'entre nous. Vous allez sur un site internet, on vous demande quasiment tout le temps ce que vous voulez faire par rapport aux cookies.

  • Speaker #1

    Les fameux.

  • Speaker #3

    Les fameux cookies.

  • Speaker #0

    Acceptez-vous ou pas les cookies.

  • Speaker #3

    Acceptez-vous ou pas les cookies. Et, et ça c'est d'ailleurs quelque chose qui a progressé ces dernières années, même si on ne s'est pas complètement débarrassé du sujet, c'est que on peut... on va vous montrer quels sont les cookies et quels sont les acteurs qui sont derrière.

  • Speaker #1

    Et combien il y en a ?

  • Speaker #3

    Exactement. Et vous allez voir qu'il y a des centaines d'entreprises qui sont derrière les cookies qui sont développés, déposés sur quasiment n'importe quoi.

  • Speaker #0

    En deux mots, c'est quoi ? C'est des petits programmes qui récupèrent les données ?

  • Speaker #3

    Voilà, c'est des petites données. C'est très pratique d'ailleurs, les cookies. Ce qui fait que vous n'avez pas besoin de vous réidentifier à chaque fois que vous allez voir. Si vous êtes abonné à un service d'information, par exemple, ou vous êtes connecté une fois, vous n'avez peut-être pas envie de vous reconnecter à chaque fois, le cookie permet d'éviter ça. Bon voilà, par exemple. Mais ça permet de voir, de faire des statistiques d'usage. Est-ce que les gens vont sur quelle page ? C'est quoi le podcast du Quai des Savoirs qui a été le plus écouté ? C'est quoi les parties du site qui sont les plus regardées ? Voilà, mais ça peut servir aussi à des fins marketing, et donc de ciblage publicitaire. Et là, vous verrez, il peut y avoir des fois 800. crée sa terre derrière. Donc oui Marina, vous avez raison. Bien sûr, il y a beaucoup de gens et d'entreprises qui les utilisent. Maintenant, il ne faut pas se dire que l'utilisation est forcément négative. Il peut y avoir aussi des utilisations tout à fait positives. Les données personnelles, ce qui est important, c'est qu'on puisse les contrôler. Je pense qu'on y reviendra. Tout à fait. Avoir de la régulation. Faire en sorte d'éviter les abus, notamment les abus vis-à-vis de la vie privée, évidemment. Mais il y a aussi beaucoup de choses sur lesquelles on a besoin de données personnelles, par exemple pour faire des progrès en santé, dans le domaine de la transition.

  • Speaker #0

    Est-ce qu'on peut dire que sur un plan technologique, les progrès en intelligence artificielle ont aussi fait exploser ce... Ce domaine, quel est le lien en fait entre ces grosses masses de données qu'on appelle les big data souvent, et puis les progrès en intelligence artificielle ? Est-ce qu'aujourd'hui, c'est ce qu'on posait la question en introduction, est-ce qu'aujourd'hui avec l'évolution de l'intelligence artificielle, il y a vraiment un changement de nature ou en tous les cas d'échelle de l'exploitation de ces données ?

  • Speaker #3

    En fait, c'est un mouvement continu. Dans les années 2010, il y a eu un tournant, effectivement, avec le fait qu'une technologie, ou plus précisément une approche mathématique qu'on appelle les réseaux neuronaux, a pu être implémentée sur des ordinateurs, pour faire simple. Et en particulier, grâce à des nouvelles plus graphiques, d'une entreprise qui s'appelle Nvidia, et qui aujourd'hui est une des plus grandes capitalisations mondiales. À l'époque, on parlait beaucoup de big data. Alors le terme d'intelligence artificielle existait déjà auparavant, sous des formes différentes, plus classiques. Au milieu des années 2010, on parlait beaucoup de big data, et effectivement tout ce travail qu'on pouvait faire grâce à ces données. Et en particulier, on pouvait mettre en place ce qu'on appelle de l'apprentissage. On apprend avec quoi ? On apprend avec des données. Et ce qui est à la base de l'intelligence artificielle, c'est justement ces techniques d'apprentissage à partir de ces données. Donc les données sont effectivement le carburant de l'intelligence artificielle. Et donc, pour prendre un exemple très concret, j'étais en décembre au sommet mondial de l'IA à New Delhi. Et dans les acteurs qui étaient présents, très, très, très souvent, ce qu'ils mettaient comme challenge numéro un, c'est l'accès aux données. Comment on accède aux données ?

  • Speaker #0

    On ne peut pas parler aussi de données personnelles sans évoquer une histoire assez dramatique qui était l'affaire Cambridge Analytica. Évidemment, vous vous souvenez sûrement de ce scandale qui a éclaté en 2018 lorsque nous avons appris de la bouche d'un des ingénieurs même de cette société anglaise que son entreprise avait récupéré les données de plusieurs millions d'utilisateurs de Facebook pour les utiliser au service de l'extrême droite américaine et des pro-Brexit.

  • Speaker #1

    Cette ingénieure lanceur d'alerte, c'était Christopher Wiley. Je vous propose de l'écouter, d'écouter un court extrait de son témoignage. C'était au micro de France Inter, dans l'émission de Sonia De Villers, l'instant M. On était le 11 mars 2020, et une des grandes questions de cette affaire, c'était la responsabilité de Facebook. Est-ce que la plateforme était au courant du siphonnage de données réalisé par Cambridge Analytica ?

  • Speaker #4

    C'était faire la grande question derrière tout ça. Ça dépend de qui vous parlez à Facebook et vous avez des réponses différentes. Mais ce que nous savons, c'est que Cambridge Analytica, son application, ont été soumis au système de Facebook. Autrement, ça n'aurait pas pu marcher. De toute façon, ils avaient l'obligation de s'assurer ce qui se passait sur leur plateforme et surtout que ce qui se passe sur cette plateforme soit en accord avec ce qu'ils disaient à leurs utilisateurs sur la sécurité et sur la légalité des informations.

  • Speaker #1

    Cette affaire a réellement pointé le rôle des plateformes et interrogé leurs responsabilités dans le contrôle du traitement des données personnelles. Depuis 2018, est-ce que les choses ont changé ?

  • Speaker #2

    Oui, le cas est très important pour nous au sein de l'association parce que le fondateur de l'association PersonalData.io, Paul-Olivier Dewey, était le premier à aider des Nord-Américains à exercer le droit d'accès pour amener des preuves et éclairer le cas de Cambridge Analytica au Parlement européen. Donc, il a montré comment… Deux facteurs importants pour ce cas, c'est… D'abord, le potentiel d'influence des données personnelles, lorsqu'on laisse des traces comme les likes. Avant, on disait que le like ne nous permettait pas d'identifier, mais en fait, Cambridge Analytica, avec des techniques d'intelligence artificielle, a permis de comprendre la personnalité des citoyens et citoyennes nord-américaines et les influencer pour voter. Voilà, donc ils ont influencé l'orientation politique.

  • Speaker #0

    Ils ont modélisé en fait comment ils pensaient à travers leurs likes, etc. C'est ça que vous voulez dire.

  • Speaker #2

    Exact. Comment les gens se comportaient sur Facebook en train de liker certains groupes, en train de regarder certaines publicités, quelles étaient leurs... profils sociodémographiques, quels sont les contenus de conversation qu'ils avaient en ligne. Donc, l'ensemble de toutes ces données, agrégées avec d'autres personnes aussi qui étaient en ligne, a permis de créer un profil de personnalité et les cibler pour les influencer vers certaines orientations. politique. Donc pouvoir d'influence démontré, très grand, très alarmant pour tous les pays, les politiciens, etc. dans le monde entier. Et deuxième facteur important, on a mis en évidence dans l'association qu'on a des droits d'accès aux données, que ces droits digitaux vont nous protéger et nous donner de l'autonomie sur notre vie digitale et physique. Parce que vous voyez là dans ce cas de Cambridge Analytica que notre comportement en ligne et ce qui est collecté et dit sur nous, sur les données en ligne, va affecter notre comportement dans le monde physique.

  • Speaker #1

    C'est assez édifiant, effectivement. Là, on vient de beaucoup parler de l'utilisation des données des clients ou des consommateurs, des applications. Est-ce qu'on pourrait parler maintenant un petit peu du cas des professionnels qui utilisent ces plateformes comme un outil de travail ? C'est le cas notamment de Uber, sur lequel vous travaillez, Jessica Pidou, et vous parlez d'une forme de management d'un nouveau type, un management algorithmique. Comment est-ce que ça se passe ?

  • Speaker #2

    C'est la littérature en management et en sociologie du travail qui développe le concept de management algorithmique. Ça veut dire qu'aujourd'hui, les systèmes automatisés des entreprises, des plateformes comme Uber, vont remplacer des fonctions managériales faites par les humains, normalement avec un hiérarchique qui est en train de manager les employés. Ces fonctions managériales vont être en fait ces fonctions. déléguée aux algorithmes ou opérations automatisées des plateformes où il y a un contrôle, une surveillance qui est beaucoup plus sévère et granulaire, puisqu'elle repose sur les données qui sont collectées des travailleurs. C'est bien différent de lorsque l'on travaille dans un bureau, quel type de données sont collectées sur nous, alors que... On travaille via une plateforme, par exemple les chauffeurs Uber ont la géolocalisation connectée pour savoir où ils sont à un moment précis et donc les renvoyer vers un client et leur point de destination. Alors on va suivre tous ces comportements, toutes ces traces que les chauffeurs laissent pour faire le calcul de leur tarif, de leur temps de travail et donc revenus à la fin.

  • Speaker #0

    Oui, donc la problématique, en fait, c'est qu'ils sont dits travailleurs indépendants, mais ils dépendent complètement de la plateforme, de l'algorithme de la plateforme, qui, comme vous venez de le dire, ce n'est plus un humain qui va leur donner les ordres, les courses, les consignes, c'est la machine qui automatiquement va générer ça. Et ils ne savent pas du tout, et comme effet cet algorithme non plus, de leur côté, et ils sont totalement tributaires.

  • Speaker #2

    Exact. Donc ces systèmes sont opaques, reviennent à la propriété intellectuelle des entreprises. On a peu encore d'accès, de visibilité sur ce système, même s'il y a des inspections de travail possibles, etc. Mais il y a un manque général de compétences, de connaissances techniques et des outils pour comprendre ce système qui évolue en permanence. Bertrand a parlé de comment il y a un système qui alimente un contenu des données de la big data et comment les systèmes d'intelligence artificielle et les dispositifs techniques s'actualisent, parce qu'on est gourmand des données, pour avoir des meilleurs résultats. Et dans cette collecte massive de données, en fait, les chauffeurs Uber sont infectés parce qu'on ne sait plus sur eux, mais eux, ils ont moins de contrôle de visibilité sur comment s'organiser. Ils ne savent pas, par exemple, combien de chauffeurs il y a dans le marché local à Paris, pour savoir combien ils sont en compétition. à quel horaire c'est plus profitable de sortir ou non à travailler.

  • Speaker #0

    Oui, en fait, ils n'ont pas beaucoup de latitude individuelle pour décider de leur propre stratégie. Ils sont complètement soumis à cet algorithme de la plateforme. Les choses sont en train de changer néanmoins, puisque actuellement, au niveau européen, il y a une directive qui a été votée pour renforcer leurs droits et peut-être même revoir la nature de la relation entre la plateforme et les travailleurs. C'est-à-dire qu'ils seraient plutôt considérés comme des employés que comme des travailleurs indépendants. C'est ça ?

  • Speaker #2

    Oui, alors il y a plusieurs procédures en cours. Il y a au niveau national, il y a la régulation des plateformes et du travail. Et en fait, à Paris, au cours de justice, a été déclaré que les chauffeurs Uber, ce sont des employés et non pas des indépendants. Ils avaient alors avant un contrat en tant qu'indépendants, mais dans la pratique c'est encore plus. Les chauffeurs doivent aller au cas par cas, au prud'homme et défendre leur statut d'emploi. Maintenant, au niveau de l'Union européenne, il y a la directive européenne du travail des plateformes qui vient d'être acceptée, votée. Elle est passée, mais bien sûr, c'est un standard où chaque pays va l'adapter, l'implémenter selon ses spécificités. Et ce que dit la directive, à mon avis, est très important parce que ça reconnaît beaucoup de problèmes propres au secteur du travail des plateformes, dont le management algorithmique. qui n'étaient pas présentes dans un contexte professionnel traditionnel avant. Et en fait, c'est très important parce que ça ne touche pas seulement les chauffeurs Uber, ça touche la population entière, à mon avis, par exemple, du fait qu'on fait du télétravail beaucoup plus maintenant. Le fait que dans les intrépôts de logistique, les travailleurs sont placés à la seconde sur leur mouvement, par exemple en train d'inventorier la marchandise. Donc le travail des plateformes est en train de se généraliser pour beaucoup de professions et cette directive européenne marque un bon début. donner plus de pouvoir collectif aussi aux travailleurs affectés par la digitalisation.

  • Speaker #1

    Qui ne sont pas seuls en fait, ils sont effectivement plein d'unités qui n'ont pas d'interface les unes avec les autres, mais pour autant en fait, à eux tous, ils font quand même un grand nombre. Alors on a un peu l'impression dans ce que vous êtes en train de dire que la plateforme elle est conçue pas du tout pour les travailleurs qui sont associés à cette plateforme, mais plutôt pour les consommateurs. Sauf qu'en fait, ce n'est pas si simple que ça, parce qu'au niveau du client, c'est pareil, ce n'est pas très transparent pour reprendre le cas d'Uber par exemple. Dans vos recherches, vous avez pu mettre en évidence qu'il y avait un certain nombre de facteurs qui rentraient dans la construction du tarif de la course qui va s'appliquer à un client, à un client donné, à un instant donné. Et ça, en fait, on ne le sait pas, nous, en tant que client. Il y a quoi, par exemple, comme élément ou comment ça se construit, ça ? Est-ce que vous avez pu un peu décrypter cela ?

  • Speaker #2

    Oui, alors, c'est l'un des problèmes de l'économie des plateformes, ou l'économie des données aussi. Ce sont deux termes utilisés dans la littérature. En fait, l'économie des plateformes crée une asymétrie d'informations et des pouvoirs entre la plateforme qui est l'employeur et les chauffeurs ou les travailleurs, et de l'autre côté entre les travailleurs et les clients. Et ça veut dire que ça nous met à distance et on ne sait pas ce qui se passe de l'un côté ou de l'autre. Et c'est là où Uber, et ça a été démontré avec des études très récentes, joue avec, par exemple, un tarif qui a été affiché par un client. Ensuite, le chauffeur se rend compte que ce tarif est différent pour lui. Ça veut dire qu'il reçoit moins de revenus par rapport au même tarif qui a été donné au client. Et il y a aussi pour deux clients, même point A, point B des destinations, le tarif varie. Uber dit dans des termes très généraux que ça dépend de... par exemple les heures piques des demandes, etc. Donc on peut dire que de manière générale, ça dépend de l'offre et la demande. Et c'est d'où l'invention d'Uber, c'est que l'application fait un travail d'intermédiation entre le marché, c'est-à-dire la demande et l'offre. Et ça varie, ça varie d'un jour à l'autre, d'une heure à l'autre. Et c'est seulement Uber qui a la visibilité sur les fluctuations du marché. Et les chauffeurs, alors qu'ils étaient considérés comme des autonomes et indépendants, n'ont aucune visibilité sur ce marché pour mitiger le risque financier qu'ils sont en train de prendre.

  • Speaker #0

    Alors, puisqu'on parle d'utilisation de ces plateformes, je vous propose d'écouter notre feuilleton de science-fiction dans des tours vers le futur. Cette fois-ci, l'ICAM et François Donato ont imaginé comment nous pourrions faire nos courses dans un futur plus ou moins désirable, mais en tout cas en musique.

  • Speaker #5

    J'accepte. Êtes-vous toujours une femme ?

  • Speaker #3

    Oui.

  • Speaker #5

    Avez-vous toujours deux enfants ?

  • Speaker #3

    Oui.

  • Speaker #5

    Votre activité principale est-elle toujours veilleuse de forêt ?

  • Speaker #2

    Oui.

  • Speaker #5

    Merci de votre confiance. Nous avons remarqué que vous ne fréquentiez plus notre application de rencontre. Nous vous offrons une remise de 5 euros si vous vous y rendez maintenant. Souhaitez-vous avoir accès à notre application de rencontre ? Non. Nous testons actuellement l'attrait de plusieurs produits sur nos abonnés. Le visionnage de publicité vous octroiera une remise de 5 euros. Si vous acceptez, nous vous demandons d'activer votre caméra pour que nous puissions jauler vos réactions.

  • Speaker #2

    Non.

  • Speaker #5

    Que recherchez-vous ? Nous avons élaboré une liste de courses personnalisées en fonction de vos achats précédents. Souhaitez-vous y recourir ? Merci de votre confiance. Un drone terrestre va vous livrer dans l'heure. La totalité de vos achats, remises complices, s'élèvent à 147 euros. Souhaitez-vous payer en monnaie ou préférez-vous que la plateforme vous attribue des heures de ménage d'atteint pour le même montant ?

  • Speaker #2

    Ménage Merci de votre attention.

  • Speaker #0

    Alors dans ce futur de fiction, l'algorithme il est tout de même assez transparent avec l'utilisatrice. Est-ce que d'après vous Bertrand Montubert, on se dirige vers ce genre d'application ? Qu'est-ce qui est mis en place en fait comme type de mesure pour réglementer la protection de l'utilisation des données personnelles en fait ?

  • Speaker #3

    En tout cas même si c'est une fiction, on voit que la personne qui a commencé par dire oui, a commencé à dire non de manière de plus en plus agacée. Donc je ne suis pas complètement sûr du succès à terme de ce genre de choses qui peut passablement irriter. D'ailleurs on a parlé de Cambridge Analytica, c'est très intéressant de voir comment il y a eu... Il y a eu une évolution dans la population par rapport à la question des données personnelles, l'utilisation des données personnelles par les services, à partir de 2016 et de Cambridge Analytica. On a fait une enquête dans le cadre d'Equitia, une association que je préside, qui travaille sur la construction d'un espace de confiance éthique et souverain pour le partage de la donnée, justement sur la relation des citoyens avec la donnée. Et on a complété ça avec une étude avec Aniti, le pôle d'intelligence artificielle de Toulouse, la grande enquête Cocacia, plus de 3 700 réponses. Et ce qu'on voit dans ces différentes enquêtes, c'est que la population est très partagée. sur la question d'utilisation des données personnelles. Mais qu'est-ce que ça veut dire utiliser des données personnelles si on ne dit pas pourquoi ?

  • Speaker #1

    C'est ça.

  • Speaker #3

    Si c'est pour me rappeler que quand je fais mes courses, très souvent j'achète du lait et telle marque de yaourt, à la limite c'est peut-être pratique.

  • Speaker #1

    C'est assez pratique, on gagne du temps.

  • Speaker #3

    C'est peut-être assez pratique, peut-être qu'on gagne du temps, on sait des choses sur moi, c'est peut-être pas dramatique, ça dépend, ça dépend de chacun, mais en tout cas voilà. Je comprends qu'il y ait des gens qui trouvent que c'est pratique. Si c'est pour me dire, au fait, ça fait deux mois que tu n'es pas allé sur la petite rencontre, qu'est-ce qui se passe ? Et j'ai des gens à te proposer, c'est peut-être un peu intrusif. Donc la question de l'usage, elle est très importante. La question de qui le fait est aussi extrêmement importante. Et ça, je pense qu'il faut vraiment qu'on en parle. Parce que quand on parle des questions de régulation, encore une fois, je pense qu'il y a des régulations qui se mettent en place au niveau européen et qui vont dans le bon sens. On connaît tous le RGPD, il a aussi ses limites, évidemment, le RGPD, mais je pense que c'est...

  • Speaker #0

    Le Réglement général de protection des Merci,

  • Speaker #3

    merci beaucoup, bien sûr, le Réglement général de protection des données, c'est important. Encore une fois, la question c'est aussi le qui. On a parlé Uber, on a parlé Facebook, on a parlé derrière en fait des très grands opérateurs numériques, les GAFA, Google, Apple, Facebook, etc. Est-ce qu'il y a la place pour faire un usage responsable de données personnelles pour des usages d'intérêts publics ? de problématiques, encore une fois, de santé, par exemple, sur lesquelles on a besoin de choses. Je vais vous donner un exemple très concret. Dans le cadre de la santé, moi, dans mon activité professionnelle, je travaille autour de la question de l'autisme. J'étais récemment dans un colloque du groupement d'intérêt scientifique sur l'autisme, et puis un chercheur en génétique. nous disait qu'on a un gros problème parce qu'on a besoin d'accéder à des échantillons génétiques pour faire progresser la recherche, pour mieux comprendre quels sont les mécanismes sous-jacents. Et on nous oppose que ce sont des données personnelles qu'on ne pourrait pas réutiliser. Et dans la salle, il y avait une personne concernée, une personne autiste, dans une association, et qui disait, Mais nous, en tant qu'association, nous considérons que vos travaux sont importants et nous souhaitons qu'ils puissent se faire.

  • Speaker #0

    Donc on voit bien que la question n'est pas si simple.

  • Speaker #1

    D'où l'enjeu de repréciser l'usage à chaque fois,

  • Speaker #0

    pourquoi on veut utiliser l'usage et l'utilisateur. Et par qui ? C'est évidemment pas la même chose qu'un chercheur à l'Institut Pasteur utilise ces données-là et que ça soit une compagnie d'assurance qui les utilise à des fins qui seront peut-être augmenter votre prime d'assurance. Évidemment. Donc il faut mettre un certain nombre de choses en place. Donc les régulations, les réglementations, les lois, les directives européennes, c'est une chose et c'est important. Mais il y a aussi tout le cadre... éthique, qui est absolument essentielle. Comment on se dirige, en fait, dans ce maquis ? Parce que, on va être honnête, on a utilisé, là, depuis le début de l'émission, des beaux exemples, mais des exemples sur lesquels c'est pas compliqué de se positionner. Voilà, Cambridge Analytica, c'est pas compliqué de dire, franchement, c'est lamentable. Et ça doit être interdit, ça doit pas se reproduire, et malheureusement, c'est en train de se reproduire, d'ailleurs. Mais... Mais il y a des cas sur lesquels c'est beaucoup plus complexe. Comment on en juge ? Est-ce que c'est moi, citoyen, à chaque fois qui dois en juger tout seul ? Est-ce que je revenais sur les cookies ? Moi je fais l'effort ? Sur tous les sites internet où je vais, d'aller regarder les cookies, savoir ce que j'accepte et ce que je refuse. Honnêtement, c'est pénible. Je ne suis pas sûr. On est une majorité de la population à faire ça, d'accord ? Donc comment on simplifie les choses ? Et là, il y a des cadres éthiques qui peuvent être mis, il y a des labels éthiques. On a créé un label éthique sur des solutions numériques, justement, pour pouvoir analyser quels sont... les usages des données, dans quelle logique c'est fait, pour quelle utilisation, est-ce qu'il y a des risques, est-ce qu'il y a des risques de discrimination, est-ce que ça va dans le sens des objectifs du développement durable, etc. Est-ce qu'il y a un partage équitable de la valeur ? Plein d'actions. Ce n'est pas moi, simple citoyen, qui suis capable d'aller analyser.

  • Speaker #2

    On ne va pas aller chercher les codes, la propriété intellectuelle ou les algorithmes qu'ils utilisent,

  • Speaker #0

    c'est évident. Exactement. Et donc, il y a besoin, en plus de la régulation, il y a besoin justement de structuration, ce qu'on appelle la soft law, souvent. Il y a la loi dure et puis il y a la loi molle, ça ne veut pas dire qu'elle est inintéressante. Et je crois que faire en sorte qu'en tant que citoyen, on se mobilise derrière des outils de soft law qui nous permettent d'y voir plus clair, c'est un peu comme le Nutri-Score. Voilà, ça ne règle pas tout. Non, mais ça donne une indication. Mais ça donne une indication.

  • Speaker #1

    On pourrait imaginer une labellisation des sites internet, des réseaux sociaux, des services de plateforme.

  • Speaker #0

    Des labels existent, il y a un label aussi sur le numérique responsable, et c'est quelque chose qui est en train effectivement de se structurer, on a un certain nombre d'acteurs à le faire.

  • Speaker #2

    Une question qui me taraude un peu, parce que là on parle d'Europe, directive européenne, on parle de la France. Mais comment ça se passe dans le monde ? Parce que je pars en vacances en Afrique du Sud, mes données, elles sont soumises à qui du coup ? Parce que, admettons, j'utilise Uber en Afrique du Sud, du coup mes données, elles sont où ? Elles sont à qui ? Elles sont sous quelle juridiction ?

  • Speaker #1

    En tant que citoyenne européenne, Jessica ? Comment on peut répondre à ça ?

  • Speaker #3

    RGPD, le groupe européen de la protection des données, ou OTEJ en tant que citoyenne européenne. Mais partout dans le monde ?

  • Speaker #2

    Même si je suis en Afrique du Sud ou ailleurs.

  • Speaker #3

    Mais un principe, si même un citoyen de l'Afrique du Sud utilise un service qui est dans le territoire européen, Et c'est le règlement aussi, le RGPD européen, qui peut protéger, par exemple, pour exercer son droit d'accès aux données. Donc, en fait, ça dépend d'où l'entreprise est localisée, où la personne est localisée, et où les données sont en train de voyager d'un pays à un autre.

  • Speaker #2

    Voilà, donc moi, je sors des frontières de l'Europe, mais pas les réglementations sur mes données. C'est rassurant, quelque part.

  • Speaker #1

    Pour terminer, et puis essayer peut-être d'aller vers une conclusion, même si on a bien compris que ce sujet est hautement complexe, qu'est-ce que vous pourriez donner, et l'un et l'autre, comme conseil à nous, citoyens, citoyennes, utilisateurs, utilisatrices de ces plateformes, pour essayer de maîtriser au mieux, finalement, mes données, mes datas à l'époque de l'IA ? Bertrand ?

  • Speaker #0

    Je dirais quelque chose de base, c'est... On n'est pas face à un univers magique. On est face à des mécanismes où il y a de la science, où il y a de l'économie, où il y a de la politique. Et donc, comme pour toutes les grandes choses finalement de notre quotidien, il faut... En connaître un petit peu. Ça ne veut pas dire, il ne faut pas se tromper là-dessus, le sujet ce n'est pas, est-ce que vous allez devenir capable de programmer un algorithme en tout temps ? Ce n'est pas du tout le sujet. Ce n'est pas du tout le sujet.

  • Speaker #2

    Une chance.

  • Speaker #1

    Heureusement.

  • Speaker #0

    Oui, non, non, heureusement, heureusement. Par contre, effectivement, avoir des notions de base sur ce qui se passe, se dire encore une fois à chaque fois que tout ça n'est pas magique. Vous pouvez comprendre beaucoup, beaucoup de choses, même sans rentrer, encore une fois, dans toute la technicité. Et encore une fois, si vous ne le faites pas, vous allez être manipulé. Il faut que ce sujet, qui est un sujet politique, on arrive à le placer sur la place publique. Et que ça ne soit pas un sujet de spécialiste.

  • Speaker #1

    Jessica ?

  • Speaker #3

    Oui, alors pour moi... Je pense qu'il faut aller au-delà des actions individuelles et faire plus des actions collectives. On a besoin d'un pouvoir collectif, d'une mobilisation collective. Évidemment, on s'est renseigné à apprendre auprès des associations qui sont dans la sensibilisation, avec des outils, des techniques, des savoirs, parce que comprendre l'économie des données, en fait, demande beaucoup. C'est assez complexe et comme on l'a vu, c'est assez opaque encore. Donc il faut s'associer à de nouvelles connaissances techniques, mais il faut être prêt. C'est pour ça que c'est important d'apprendre, d'acquérir de nouveaux savoirs. Il faut être prêt à avoir des propositions pour le bien commun et pour créer de nouvelles chaînes de distribution de la valeur des données.

  • Speaker #1

    Exactement, comme disait Bertrand, c'est vrai, rendre le problème politique, rendre la question des données politiques.

  • Speaker #2

    Détour vers le futur, c'est terminé pour aujourd'hui. Un grand merci à nos deux invités, Jessica Pidou et Bertrand Montuber.

  • Speaker #1

    Merci à nos partenaires de l'INA pour la recherche documentaire et merci aussi à l'ICAM et François Donato pour son texte et la création sonore.

  • Speaker #2

    Détour vers le futur, un podcast présenté par Laurent Chicoineau et Marina Léonard, préparé avec l'aide de Françoise Vissac.

  • Speaker #1

    Réalisation Arnaud Maisonneuve à la prise de son Laurent Caudoule. Abonnez-vous à Détour vers le futur sur Apple Podcasts, Spotify ou votre plateforme préférée. On en parlait justement des plateformes pour écouter nos prochains épisodes. Et d'ici là, restez curieux.

  • Speaker #4

    Ciao !

Description

On dit de nos données personnelles qu’elles sont le carburant de l’économie numérique, et encore plus à l’heure de l’IA. Décryptage des enjeux dans ce numéro de Détour vers le futur !

Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur Internet, ou même l’utilisation du GPS sur nos smartphones, nous laissons tous les jours, souvent sans en avoir conscience, quantité d’informations personnelles. 

Que deviennent-elles ? Qui peut les utiliser ? Avec les puissances de calcul de l’IA, jusqu’où peut-on aller dans leur exploitation ? Ces usages sont-ils cadrés, et par qui ?


Avec :

Jessica Pidoux, sociologue du numérique à l'Université de Neuchâtel, Institut de sociologie. En tant que chercheuse postdoctorale, elle mène des enquêtes à l'intersection de la sociologie des algorithmes et de la sociologie du travail, en utilisant des méthodes de sciences participatives. Elle est titulaire d'un master en sociologie de l'Université de Lausanne et d'un doctorat en humanités numériques de l'École polytechnique fédérale de Lausanne (EPFL). Ses recherches sur la dynamique des rencontres en ligne ont porté sur les algorithmes d'appariement, les pratiques des développeurs et les expériences des utilisateurs et utilisatrices, mettant en évidence divers types de biais algorithmiques et contribuant aux connaissances sur les processus de communication entre l'humain et la machine. Elle est également directrice de PersonalData.IO, une ONG suisse spécialisée dans l'exercice des droits d’accès aux données personnelles et de protection de la vie privée. À ce titre, elle a mené des audits algorithmiques sur des plateformes de travail telles que Deliveroo et Uber, contribuant ainsi à l'instauration de conditions de travail équitables pour les travailleurs, plus largement, aux débats sur les politiques publiques de régulation du numérique.


Bertrand Monthubert, président du Conseil National de l'Information Géolocalisée, qui regroupe des représentants de la très grande variété d’acteurs qui composent l’écosystème de la géo-donnée en France. Il est également président d'Ekitia, une association regroupant des acteurs publics et privés désireux de créer un cadre de confiance pour l'économie de la donnée.

Il  préside OPenIG, la plateforme régionale d'Occitanie pour l'information géographique. Il est aussi co-président du groupe de travail sur la gouvernance des données au sein du partenariat mondial de l'intelligence artificielle (Global Partnership on Artificial Intelligence, GPAI).

C'est un acteur du développement de l'usage des données au niveau territorial, national et international, au service des usages citoyens et des politiques publiques. À ce titre il est co-auteur d'un rapport, avec Christine Hennion et Magali Altounian, sur le thème "Data et Territoires", remis en novembre 2023 à Stanislas Guérini, Ministre de la Transformation et de la Fonction Publiques.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    On dit de nos données personnelles qu'elles sont le carburant de l'économie numérique, et encore plus aujourd'hui, à l'heure de l'IA. Décryptage des enjeux dans ce numéro de Détour vers le futur.

  • Speaker #1

    Que ce soit par nos interactions sur les réseaux sociaux, nos recherches sur internet ou même l'utilisation du GPS sur nos smartphones, nous laissons souvent, sans en avoir conscience, quantité d'informations personnelles. Que deviennent-elles ? Avec les puissances de calcul de l'IA, jusqu'où peut-on aller dans leur exploitation ? Et ces usages sont-ils cadrés ? Et par qui ?

  • Speaker #0

    Alors, pour discuter de toutes ces questions, nous recevons Jessica Pidou, chercheuse à l'Institut de sociologie de l'Université de Neuchâtel en Suisse, directrice de l'association Personnel Data.io, spécialiste numérique. Bonjour Jessica !

  • Speaker #2

    Bonjour.

  • Speaker #0

    Et Bertrand Montuber, mathématicien, président du groupe de travail d'experts sur la gouvernance des données dans le cadre d'un partenariat mondial pour l'intelligence artificielle. Bonjour Bertrand.

  • Speaker #3

    Bonjour.

  • Speaker #1

    On pourrait commencer par redéfinir ce qu'on appelle nos données personnelles sur Internet. Est-ce qu'il s'agit juste de nos noms, prénoms, dates de naissance, adresses, ce genre de choses, ou est-ce qu'il y a d'autres types d'informations ? Peut-être Bertrand Montuber ?

  • Speaker #3

    Mais en fait, tout ce qui peut se rattacher à la personne, qu'elle l'ait déposée de manière volontaire ou involontaire, ou en tout cas inconsciente, et vous avez donné des exemples, des très bons exemples. Moi, quand je suis venu ce matin, ok les savoirs, mon téléphone, très probablement, a déposé des données qui sont des données de localisation de là où je suis. Des données d'ailleurs qui peuvent être utiles. On peut trouver ça sympa d'avoir le récapitulatif de ces trajets. Tiens, j'avais oublié que j'étais à tel endroit ou bien j'ai fait autant de kilomètres dans le mois. Et effectivement, elle peut être aussi un petit peu angoissante. Mince, comment ça se fait que mon smartphone, aujourd'hui, me présente une publicité qui est sacrément en lien avec quelque chose... dont j'ai parlé, sur lesquels je me suis renseigné, ou bien à proximité de là où j'étais. Tout ça, c'est des données personnelles et c'est plein d'usages, effectivement, de ces données.

  • Speaker #1

    Alors là, on parle de données qui viennent des smartphones ou des discussions qu'on a eues à proximité des smartphones. Est-ce que les outils type carte bancaire, carte de transport en commun, abonnement, etc., c'est des choses qui collectent également le même type de données ?

  • Speaker #3

    Bien sûr, par exemple, si vous avez une carte de transport qui aujourd'hui, sont beaucoup plus rarement un ticket de métro, ça existe encore un petit peu, mais enfin, de moins en moins, il y en a plus beaucoup. Dès que vous êtes longtemps dans la même ville, et encore maintenant, quand vous êtes dans les villes, vous allez même peut-être pouvoir payer directement avec votre carte bancaire. Oui, il y a de la donnée personnelle, effectivement, qui est collectée. Et donc, le point c'est que ces données, elles sont toujours collectées dans un... Normalement, elles sont collectées dans un cadre juridique, on y reviendra peut-être, mais très souvent, on n'est pas forcément conscient, quand on signe des accords, quand on installe une appli sur son téléphone ou quoi que ce soit, de ce qu'il y a comme données personnelles derrière.

  • Speaker #0

    Jessica, les données personnelles, c'est aussi des données qu'on pose consciemment, je pense par exemple aux photos, je pense quand on fait des likes sur des réseaux sociaux, tout ça, ça constitue aussi des données personnelles ?

  • Speaker #2

    Effectivement, il y a la notion des données qui peut être vue comme toute information ou trace qu'on laisse autant dans l'espace physique et en ligne. C'est important à dire parce qu'effectivement, quand on est en train de se déplacer sur une route, notre téléphone va dire des informations sur nous et notre contexte physique, mais aussi quand on fait un achat dans un supermarché, dans toute entreprise physique. il y a des données collectées sur nous qui après sont digitalisées, etc. Il y a des données qui sont natives digitales, on va dire, parce que ce sont des informations que lorsqu'on est en train de parcourir un site web, quand on s'inscrit en ligne, même sur un système du gouvernement, qui est aujourd'hui beaucoup dans le format digital, on est en train de laisser des traces sur nous. Et ces traces, en fait, on... Ils peuvent être personnels ou non, et ça, ça dépend de la définition juridique qui a été donnée, notamment dans le règlement européen de la protection des données personnelles. Et des données personnelles ? veut dire toute information qui peut identifier un individu. Par exemple, l'âge, le sexe va nous identifier, notre adresse va nous identifier facilement. D'autres informations comme un like sur votre podcast va peut-être plus difficilement dire qui on est.

  • Speaker #0

    Oui, c'est ça, on a du mal à comprendre, par exemple, des recherches sur Internet aussi. On dit que, avec, je ne sais plus si c'est 6 ou 7 recherches différentes qu'on fait, on peut remonter quasiment à la personne, on peut identifier la personne. On a du mal à comprendre ça. Comment on peut se rendre compte, en tant qu'utilisateur citoyen, de toutes les données qui sont récoltées à notre insu ?

  • Speaker #2

    Oui, bonne question. Il y a bien cette différence que Bertrand a mentionné, c'est qu'il y a des informations que l'on déclare et il y en a d'autres qui sont collectées sans qu'on les sache. Et c'est pour ça que je rajoute juste qu'il y a deux aspects importants dans la définition des données, c'est qu'il y a une définition technique, c'est comment... On définit en amont quelles données sont collectées. Et ça ce sont des choix d'une entreprise, d'un système informatique qui dit on va collecter l'âge pour tous les individus. Mais on décide aussi de collecter l'âge de l'organisation, mais par l'ethnicité. Donc des choix en amont, techniques. Et il y a aussi l'aspect social. Ça veut dire que toutes nos informations sont agrégées, mises en commun avec les informations des autres personnes. Et là, on parle plus d'écologie des données, en fait, ou écosystème des données, parce que nos données individuelles, elles vont dire peu de choses sur nous et notre comportement si elles ne sont pas comparées avec les données et les informations des autres personnes. Donc, ça veut dire, pour répondre à votre question, que cette masse de données, elle est très grande, elle est collectée en permanence avec nos téléphones portables, avec des objets connectés, des caméras de surveillance. sur l'autoroute, nos ordinateurs au travail, à la maison, etc. Et donc cette masse de données, une fois qu'elle est collectée de manière collective, en fait elle devient très grande et difficile à retrouver, à tracer ce qui est dit, collecté sur nous, en général. Parce que ces informations vont dire quelque chose de nous. pour les marques, pour les entreprises, pour le gouvernement, etc. Et alors du coup,

  • Speaker #1

    qu'est-ce qu'on en fait ? Comment elles sont exploitées ces données ? Parce qu'on en laisse plein, ils en collectent plein. J'imagine que ça doit être une capacité de stockage hallucinante, mais c'est bien pour en faire quelque chose.

  • Speaker #3

    Elles sont utilisées effectivement pour de multiples motifs. Parler d'un motif qu'on connaît tous, ou en tout cas dont on perçoit le résultat, encore une fois, je l'évoquais tout à l'heure avec l'histoire de la publicité personnalisée, qui est au fond un des grands vecteurs, sinon le vecteur d'ailleurs, du développement de l'économie numérique.

  • Speaker #0

    C'est pour ça qu'on dit qu'il y a un plus grand de l'économie numérique.

  • Speaker #3

    Alors la donnée oui, après la publicité, le fait que ce soit la publicité personnalisée, ça c'est aussi un choix de modèle économique. On peut y revenir si vous voulez. En tout cas, il faut en être conscient. Effectivement, et comme le disait Jessica très justement, le point c'est qu'il va y avoir beaucoup de collecte de données qui vont permettre par exemple de comparer à d'autres personnes, mais aussi qui vont permettre d'apparier, d'augmenter finalement la connaissance de chacun des individus. Si vous avez une entreprise qui a collecté des données parce qu'elle a un service, j'en sais rien, de transport, parce qu'il y a des billets de train, etc. et que ces données sont utilisées par quelqu'un qui vend quelque chose, je n'en sais rien, des bagageries. Voilà. On va croiser ça et on va savoir par exemple que vous Marina, vous avez fait une recherche sur tel endroit. Peut-être que vous allez en voyage et peut-être qu'on va vous proposer de la maroquinerie pour pouvoir faire un voyage qui soit plus plaisant. Ça, c'est quelque chose qui est fait à très grande échelle. Une manière de s'en rendre compte, de manière très concrète en fait, par chacun d'entre nous. Vous allez sur un site internet, on vous demande quasiment tout le temps ce que vous voulez faire par rapport aux cookies.

  • Speaker #1

    Les fameux.

  • Speaker #3

    Les fameux cookies.

  • Speaker #0

    Acceptez-vous ou pas les cookies.

  • Speaker #3

    Acceptez-vous ou pas les cookies. Et, et ça c'est d'ailleurs quelque chose qui a progressé ces dernières années, même si on ne s'est pas complètement débarrassé du sujet, c'est que on peut... on va vous montrer quels sont les cookies et quels sont les acteurs qui sont derrière.

  • Speaker #1

    Et combien il y en a ?

  • Speaker #3

    Exactement. Et vous allez voir qu'il y a des centaines d'entreprises qui sont derrière les cookies qui sont développés, déposés sur quasiment n'importe quoi.

  • Speaker #0

    En deux mots, c'est quoi ? C'est des petits programmes qui récupèrent les données ?

  • Speaker #3

    Voilà, c'est des petites données. C'est très pratique d'ailleurs, les cookies. Ce qui fait que vous n'avez pas besoin de vous réidentifier à chaque fois que vous allez voir. Si vous êtes abonné à un service d'information, par exemple, ou vous êtes connecté une fois, vous n'avez peut-être pas envie de vous reconnecter à chaque fois, le cookie permet d'éviter ça. Bon voilà, par exemple. Mais ça permet de voir, de faire des statistiques d'usage. Est-ce que les gens vont sur quelle page ? C'est quoi le podcast du Quai des Savoirs qui a été le plus écouté ? C'est quoi les parties du site qui sont les plus regardées ? Voilà, mais ça peut servir aussi à des fins marketing, et donc de ciblage publicitaire. Et là, vous verrez, il peut y avoir des fois 800. crée sa terre derrière. Donc oui Marina, vous avez raison. Bien sûr, il y a beaucoup de gens et d'entreprises qui les utilisent. Maintenant, il ne faut pas se dire que l'utilisation est forcément négative. Il peut y avoir aussi des utilisations tout à fait positives. Les données personnelles, ce qui est important, c'est qu'on puisse les contrôler. Je pense qu'on y reviendra. Tout à fait. Avoir de la régulation. Faire en sorte d'éviter les abus, notamment les abus vis-à-vis de la vie privée, évidemment. Mais il y a aussi beaucoup de choses sur lesquelles on a besoin de données personnelles, par exemple pour faire des progrès en santé, dans le domaine de la transition.

  • Speaker #0

    Est-ce qu'on peut dire que sur un plan technologique, les progrès en intelligence artificielle ont aussi fait exploser ce... Ce domaine, quel est le lien en fait entre ces grosses masses de données qu'on appelle les big data souvent, et puis les progrès en intelligence artificielle ? Est-ce qu'aujourd'hui, c'est ce qu'on posait la question en introduction, est-ce qu'aujourd'hui avec l'évolution de l'intelligence artificielle, il y a vraiment un changement de nature ou en tous les cas d'échelle de l'exploitation de ces données ?

  • Speaker #3

    En fait, c'est un mouvement continu. Dans les années 2010, il y a eu un tournant, effectivement, avec le fait qu'une technologie, ou plus précisément une approche mathématique qu'on appelle les réseaux neuronaux, a pu être implémentée sur des ordinateurs, pour faire simple. Et en particulier, grâce à des nouvelles plus graphiques, d'une entreprise qui s'appelle Nvidia, et qui aujourd'hui est une des plus grandes capitalisations mondiales. À l'époque, on parlait beaucoup de big data. Alors le terme d'intelligence artificielle existait déjà auparavant, sous des formes différentes, plus classiques. Au milieu des années 2010, on parlait beaucoup de big data, et effectivement tout ce travail qu'on pouvait faire grâce à ces données. Et en particulier, on pouvait mettre en place ce qu'on appelle de l'apprentissage. On apprend avec quoi ? On apprend avec des données. Et ce qui est à la base de l'intelligence artificielle, c'est justement ces techniques d'apprentissage à partir de ces données. Donc les données sont effectivement le carburant de l'intelligence artificielle. Et donc, pour prendre un exemple très concret, j'étais en décembre au sommet mondial de l'IA à New Delhi. Et dans les acteurs qui étaient présents, très, très, très souvent, ce qu'ils mettaient comme challenge numéro un, c'est l'accès aux données. Comment on accède aux données ?

  • Speaker #0

    On ne peut pas parler aussi de données personnelles sans évoquer une histoire assez dramatique qui était l'affaire Cambridge Analytica. Évidemment, vous vous souvenez sûrement de ce scandale qui a éclaté en 2018 lorsque nous avons appris de la bouche d'un des ingénieurs même de cette société anglaise que son entreprise avait récupéré les données de plusieurs millions d'utilisateurs de Facebook pour les utiliser au service de l'extrême droite américaine et des pro-Brexit.

  • Speaker #1

    Cette ingénieure lanceur d'alerte, c'était Christopher Wiley. Je vous propose de l'écouter, d'écouter un court extrait de son témoignage. C'était au micro de France Inter, dans l'émission de Sonia De Villers, l'instant M. On était le 11 mars 2020, et une des grandes questions de cette affaire, c'était la responsabilité de Facebook. Est-ce que la plateforme était au courant du siphonnage de données réalisé par Cambridge Analytica ?

  • Speaker #4

    C'était faire la grande question derrière tout ça. Ça dépend de qui vous parlez à Facebook et vous avez des réponses différentes. Mais ce que nous savons, c'est que Cambridge Analytica, son application, ont été soumis au système de Facebook. Autrement, ça n'aurait pas pu marcher. De toute façon, ils avaient l'obligation de s'assurer ce qui se passait sur leur plateforme et surtout que ce qui se passe sur cette plateforme soit en accord avec ce qu'ils disaient à leurs utilisateurs sur la sécurité et sur la légalité des informations.

  • Speaker #1

    Cette affaire a réellement pointé le rôle des plateformes et interrogé leurs responsabilités dans le contrôle du traitement des données personnelles. Depuis 2018, est-ce que les choses ont changé ?

  • Speaker #2

    Oui, le cas est très important pour nous au sein de l'association parce que le fondateur de l'association PersonalData.io, Paul-Olivier Dewey, était le premier à aider des Nord-Américains à exercer le droit d'accès pour amener des preuves et éclairer le cas de Cambridge Analytica au Parlement européen. Donc, il a montré comment… Deux facteurs importants pour ce cas, c'est… D'abord, le potentiel d'influence des données personnelles, lorsqu'on laisse des traces comme les likes. Avant, on disait que le like ne nous permettait pas d'identifier, mais en fait, Cambridge Analytica, avec des techniques d'intelligence artificielle, a permis de comprendre la personnalité des citoyens et citoyennes nord-américaines et les influencer pour voter. Voilà, donc ils ont influencé l'orientation politique.

  • Speaker #0

    Ils ont modélisé en fait comment ils pensaient à travers leurs likes, etc. C'est ça que vous voulez dire.

  • Speaker #2

    Exact. Comment les gens se comportaient sur Facebook en train de liker certains groupes, en train de regarder certaines publicités, quelles étaient leurs... profils sociodémographiques, quels sont les contenus de conversation qu'ils avaient en ligne. Donc, l'ensemble de toutes ces données, agrégées avec d'autres personnes aussi qui étaient en ligne, a permis de créer un profil de personnalité et les cibler pour les influencer vers certaines orientations. politique. Donc pouvoir d'influence démontré, très grand, très alarmant pour tous les pays, les politiciens, etc. dans le monde entier. Et deuxième facteur important, on a mis en évidence dans l'association qu'on a des droits d'accès aux données, que ces droits digitaux vont nous protéger et nous donner de l'autonomie sur notre vie digitale et physique. Parce que vous voyez là dans ce cas de Cambridge Analytica que notre comportement en ligne et ce qui est collecté et dit sur nous, sur les données en ligne, va affecter notre comportement dans le monde physique.

  • Speaker #1

    C'est assez édifiant, effectivement. Là, on vient de beaucoup parler de l'utilisation des données des clients ou des consommateurs, des applications. Est-ce qu'on pourrait parler maintenant un petit peu du cas des professionnels qui utilisent ces plateformes comme un outil de travail ? C'est le cas notamment de Uber, sur lequel vous travaillez, Jessica Pidou, et vous parlez d'une forme de management d'un nouveau type, un management algorithmique. Comment est-ce que ça se passe ?

  • Speaker #2

    C'est la littérature en management et en sociologie du travail qui développe le concept de management algorithmique. Ça veut dire qu'aujourd'hui, les systèmes automatisés des entreprises, des plateformes comme Uber, vont remplacer des fonctions managériales faites par les humains, normalement avec un hiérarchique qui est en train de manager les employés. Ces fonctions managériales vont être en fait ces fonctions. déléguée aux algorithmes ou opérations automatisées des plateformes où il y a un contrôle, une surveillance qui est beaucoup plus sévère et granulaire, puisqu'elle repose sur les données qui sont collectées des travailleurs. C'est bien différent de lorsque l'on travaille dans un bureau, quel type de données sont collectées sur nous, alors que... On travaille via une plateforme, par exemple les chauffeurs Uber ont la géolocalisation connectée pour savoir où ils sont à un moment précis et donc les renvoyer vers un client et leur point de destination. Alors on va suivre tous ces comportements, toutes ces traces que les chauffeurs laissent pour faire le calcul de leur tarif, de leur temps de travail et donc revenus à la fin.

  • Speaker #0

    Oui, donc la problématique, en fait, c'est qu'ils sont dits travailleurs indépendants, mais ils dépendent complètement de la plateforme, de l'algorithme de la plateforme, qui, comme vous venez de le dire, ce n'est plus un humain qui va leur donner les ordres, les courses, les consignes, c'est la machine qui automatiquement va générer ça. Et ils ne savent pas du tout, et comme effet cet algorithme non plus, de leur côté, et ils sont totalement tributaires.

  • Speaker #2

    Exact. Donc ces systèmes sont opaques, reviennent à la propriété intellectuelle des entreprises. On a peu encore d'accès, de visibilité sur ce système, même s'il y a des inspections de travail possibles, etc. Mais il y a un manque général de compétences, de connaissances techniques et des outils pour comprendre ce système qui évolue en permanence. Bertrand a parlé de comment il y a un système qui alimente un contenu des données de la big data et comment les systèmes d'intelligence artificielle et les dispositifs techniques s'actualisent, parce qu'on est gourmand des données, pour avoir des meilleurs résultats. Et dans cette collecte massive de données, en fait, les chauffeurs Uber sont infectés parce qu'on ne sait plus sur eux, mais eux, ils ont moins de contrôle de visibilité sur comment s'organiser. Ils ne savent pas, par exemple, combien de chauffeurs il y a dans le marché local à Paris, pour savoir combien ils sont en compétition. à quel horaire c'est plus profitable de sortir ou non à travailler.

  • Speaker #0

    Oui, en fait, ils n'ont pas beaucoup de latitude individuelle pour décider de leur propre stratégie. Ils sont complètement soumis à cet algorithme de la plateforme. Les choses sont en train de changer néanmoins, puisque actuellement, au niveau européen, il y a une directive qui a été votée pour renforcer leurs droits et peut-être même revoir la nature de la relation entre la plateforme et les travailleurs. C'est-à-dire qu'ils seraient plutôt considérés comme des employés que comme des travailleurs indépendants. C'est ça ?

  • Speaker #2

    Oui, alors il y a plusieurs procédures en cours. Il y a au niveau national, il y a la régulation des plateformes et du travail. Et en fait, à Paris, au cours de justice, a été déclaré que les chauffeurs Uber, ce sont des employés et non pas des indépendants. Ils avaient alors avant un contrat en tant qu'indépendants, mais dans la pratique c'est encore plus. Les chauffeurs doivent aller au cas par cas, au prud'homme et défendre leur statut d'emploi. Maintenant, au niveau de l'Union européenne, il y a la directive européenne du travail des plateformes qui vient d'être acceptée, votée. Elle est passée, mais bien sûr, c'est un standard où chaque pays va l'adapter, l'implémenter selon ses spécificités. Et ce que dit la directive, à mon avis, est très important parce que ça reconnaît beaucoup de problèmes propres au secteur du travail des plateformes, dont le management algorithmique. qui n'étaient pas présentes dans un contexte professionnel traditionnel avant. Et en fait, c'est très important parce que ça ne touche pas seulement les chauffeurs Uber, ça touche la population entière, à mon avis, par exemple, du fait qu'on fait du télétravail beaucoup plus maintenant. Le fait que dans les intrépôts de logistique, les travailleurs sont placés à la seconde sur leur mouvement, par exemple en train d'inventorier la marchandise. Donc le travail des plateformes est en train de se généraliser pour beaucoup de professions et cette directive européenne marque un bon début. donner plus de pouvoir collectif aussi aux travailleurs affectés par la digitalisation.

  • Speaker #1

    Qui ne sont pas seuls en fait, ils sont effectivement plein d'unités qui n'ont pas d'interface les unes avec les autres, mais pour autant en fait, à eux tous, ils font quand même un grand nombre. Alors on a un peu l'impression dans ce que vous êtes en train de dire que la plateforme elle est conçue pas du tout pour les travailleurs qui sont associés à cette plateforme, mais plutôt pour les consommateurs. Sauf qu'en fait, ce n'est pas si simple que ça, parce qu'au niveau du client, c'est pareil, ce n'est pas très transparent pour reprendre le cas d'Uber par exemple. Dans vos recherches, vous avez pu mettre en évidence qu'il y avait un certain nombre de facteurs qui rentraient dans la construction du tarif de la course qui va s'appliquer à un client, à un client donné, à un instant donné. Et ça, en fait, on ne le sait pas, nous, en tant que client. Il y a quoi, par exemple, comme élément ou comment ça se construit, ça ? Est-ce que vous avez pu un peu décrypter cela ?

  • Speaker #2

    Oui, alors, c'est l'un des problèmes de l'économie des plateformes, ou l'économie des données aussi. Ce sont deux termes utilisés dans la littérature. En fait, l'économie des plateformes crée une asymétrie d'informations et des pouvoirs entre la plateforme qui est l'employeur et les chauffeurs ou les travailleurs, et de l'autre côté entre les travailleurs et les clients. Et ça veut dire que ça nous met à distance et on ne sait pas ce qui se passe de l'un côté ou de l'autre. Et c'est là où Uber, et ça a été démontré avec des études très récentes, joue avec, par exemple, un tarif qui a été affiché par un client. Ensuite, le chauffeur se rend compte que ce tarif est différent pour lui. Ça veut dire qu'il reçoit moins de revenus par rapport au même tarif qui a été donné au client. Et il y a aussi pour deux clients, même point A, point B des destinations, le tarif varie. Uber dit dans des termes très généraux que ça dépend de... par exemple les heures piques des demandes, etc. Donc on peut dire que de manière générale, ça dépend de l'offre et la demande. Et c'est d'où l'invention d'Uber, c'est que l'application fait un travail d'intermédiation entre le marché, c'est-à-dire la demande et l'offre. Et ça varie, ça varie d'un jour à l'autre, d'une heure à l'autre. Et c'est seulement Uber qui a la visibilité sur les fluctuations du marché. Et les chauffeurs, alors qu'ils étaient considérés comme des autonomes et indépendants, n'ont aucune visibilité sur ce marché pour mitiger le risque financier qu'ils sont en train de prendre.

  • Speaker #0

    Alors, puisqu'on parle d'utilisation de ces plateformes, je vous propose d'écouter notre feuilleton de science-fiction dans des tours vers le futur. Cette fois-ci, l'ICAM et François Donato ont imaginé comment nous pourrions faire nos courses dans un futur plus ou moins désirable, mais en tout cas en musique.

  • Speaker #5

    J'accepte. Êtes-vous toujours une femme ?

  • Speaker #3

    Oui.

  • Speaker #5

    Avez-vous toujours deux enfants ?

  • Speaker #3

    Oui.

  • Speaker #5

    Votre activité principale est-elle toujours veilleuse de forêt ?

  • Speaker #2

    Oui.

  • Speaker #5

    Merci de votre confiance. Nous avons remarqué que vous ne fréquentiez plus notre application de rencontre. Nous vous offrons une remise de 5 euros si vous vous y rendez maintenant. Souhaitez-vous avoir accès à notre application de rencontre ? Non. Nous testons actuellement l'attrait de plusieurs produits sur nos abonnés. Le visionnage de publicité vous octroiera une remise de 5 euros. Si vous acceptez, nous vous demandons d'activer votre caméra pour que nous puissions jauler vos réactions.

  • Speaker #2

    Non.

  • Speaker #5

    Que recherchez-vous ? Nous avons élaboré une liste de courses personnalisées en fonction de vos achats précédents. Souhaitez-vous y recourir ? Merci de votre confiance. Un drone terrestre va vous livrer dans l'heure. La totalité de vos achats, remises complices, s'élèvent à 147 euros. Souhaitez-vous payer en monnaie ou préférez-vous que la plateforme vous attribue des heures de ménage d'atteint pour le même montant ?

  • Speaker #2

    Ménage Merci de votre attention.

  • Speaker #0

    Alors dans ce futur de fiction, l'algorithme il est tout de même assez transparent avec l'utilisatrice. Est-ce que d'après vous Bertrand Montubert, on se dirige vers ce genre d'application ? Qu'est-ce qui est mis en place en fait comme type de mesure pour réglementer la protection de l'utilisation des données personnelles en fait ?

  • Speaker #3

    En tout cas même si c'est une fiction, on voit que la personne qui a commencé par dire oui, a commencé à dire non de manière de plus en plus agacée. Donc je ne suis pas complètement sûr du succès à terme de ce genre de choses qui peut passablement irriter. D'ailleurs on a parlé de Cambridge Analytica, c'est très intéressant de voir comment il y a eu... Il y a eu une évolution dans la population par rapport à la question des données personnelles, l'utilisation des données personnelles par les services, à partir de 2016 et de Cambridge Analytica. On a fait une enquête dans le cadre d'Equitia, une association que je préside, qui travaille sur la construction d'un espace de confiance éthique et souverain pour le partage de la donnée, justement sur la relation des citoyens avec la donnée. Et on a complété ça avec une étude avec Aniti, le pôle d'intelligence artificielle de Toulouse, la grande enquête Cocacia, plus de 3 700 réponses. Et ce qu'on voit dans ces différentes enquêtes, c'est que la population est très partagée. sur la question d'utilisation des données personnelles. Mais qu'est-ce que ça veut dire utiliser des données personnelles si on ne dit pas pourquoi ?

  • Speaker #1

    C'est ça.

  • Speaker #3

    Si c'est pour me rappeler que quand je fais mes courses, très souvent j'achète du lait et telle marque de yaourt, à la limite c'est peut-être pratique.

  • Speaker #1

    C'est assez pratique, on gagne du temps.

  • Speaker #3

    C'est peut-être assez pratique, peut-être qu'on gagne du temps, on sait des choses sur moi, c'est peut-être pas dramatique, ça dépend, ça dépend de chacun, mais en tout cas voilà. Je comprends qu'il y ait des gens qui trouvent que c'est pratique. Si c'est pour me dire, au fait, ça fait deux mois que tu n'es pas allé sur la petite rencontre, qu'est-ce qui se passe ? Et j'ai des gens à te proposer, c'est peut-être un peu intrusif. Donc la question de l'usage, elle est très importante. La question de qui le fait est aussi extrêmement importante. Et ça, je pense qu'il faut vraiment qu'on en parle. Parce que quand on parle des questions de régulation, encore une fois, je pense qu'il y a des régulations qui se mettent en place au niveau européen et qui vont dans le bon sens. On connaît tous le RGPD, il a aussi ses limites, évidemment, le RGPD, mais je pense que c'est...

  • Speaker #0

    Le Réglement général de protection des Merci,

  • Speaker #3

    merci beaucoup, bien sûr, le Réglement général de protection des données, c'est important. Encore une fois, la question c'est aussi le qui. On a parlé Uber, on a parlé Facebook, on a parlé derrière en fait des très grands opérateurs numériques, les GAFA, Google, Apple, Facebook, etc. Est-ce qu'il y a la place pour faire un usage responsable de données personnelles pour des usages d'intérêts publics ? de problématiques, encore une fois, de santé, par exemple, sur lesquelles on a besoin de choses. Je vais vous donner un exemple très concret. Dans le cadre de la santé, moi, dans mon activité professionnelle, je travaille autour de la question de l'autisme. J'étais récemment dans un colloque du groupement d'intérêt scientifique sur l'autisme, et puis un chercheur en génétique. nous disait qu'on a un gros problème parce qu'on a besoin d'accéder à des échantillons génétiques pour faire progresser la recherche, pour mieux comprendre quels sont les mécanismes sous-jacents. Et on nous oppose que ce sont des données personnelles qu'on ne pourrait pas réutiliser. Et dans la salle, il y avait une personne concernée, une personne autiste, dans une association, et qui disait, Mais nous, en tant qu'association, nous considérons que vos travaux sont importants et nous souhaitons qu'ils puissent se faire.

  • Speaker #0

    Donc on voit bien que la question n'est pas si simple.

  • Speaker #1

    D'où l'enjeu de repréciser l'usage à chaque fois,

  • Speaker #0

    pourquoi on veut utiliser l'usage et l'utilisateur. Et par qui ? C'est évidemment pas la même chose qu'un chercheur à l'Institut Pasteur utilise ces données-là et que ça soit une compagnie d'assurance qui les utilise à des fins qui seront peut-être augmenter votre prime d'assurance. Évidemment. Donc il faut mettre un certain nombre de choses en place. Donc les régulations, les réglementations, les lois, les directives européennes, c'est une chose et c'est important. Mais il y a aussi tout le cadre... éthique, qui est absolument essentielle. Comment on se dirige, en fait, dans ce maquis ? Parce que, on va être honnête, on a utilisé, là, depuis le début de l'émission, des beaux exemples, mais des exemples sur lesquels c'est pas compliqué de se positionner. Voilà, Cambridge Analytica, c'est pas compliqué de dire, franchement, c'est lamentable. Et ça doit être interdit, ça doit pas se reproduire, et malheureusement, c'est en train de se reproduire, d'ailleurs. Mais... Mais il y a des cas sur lesquels c'est beaucoup plus complexe. Comment on en juge ? Est-ce que c'est moi, citoyen, à chaque fois qui dois en juger tout seul ? Est-ce que je revenais sur les cookies ? Moi je fais l'effort ? Sur tous les sites internet où je vais, d'aller regarder les cookies, savoir ce que j'accepte et ce que je refuse. Honnêtement, c'est pénible. Je ne suis pas sûr. On est une majorité de la population à faire ça, d'accord ? Donc comment on simplifie les choses ? Et là, il y a des cadres éthiques qui peuvent être mis, il y a des labels éthiques. On a créé un label éthique sur des solutions numériques, justement, pour pouvoir analyser quels sont... les usages des données, dans quelle logique c'est fait, pour quelle utilisation, est-ce qu'il y a des risques, est-ce qu'il y a des risques de discrimination, est-ce que ça va dans le sens des objectifs du développement durable, etc. Est-ce qu'il y a un partage équitable de la valeur ? Plein d'actions. Ce n'est pas moi, simple citoyen, qui suis capable d'aller analyser.

  • Speaker #2

    On ne va pas aller chercher les codes, la propriété intellectuelle ou les algorithmes qu'ils utilisent,

  • Speaker #0

    c'est évident. Exactement. Et donc, il y a besoin, en plus de la régulation, il y a besoin justement de structuration, ce qu'on appelle la soft law, souvent. Il y a la loi dure et puis il y a la loi molle, ça ne veut pas dire qu'elle est inintéressante. Et je crois que faire en sorte qu'en tant que citoyen, on se mobilise derrière des outils de soft law qui nous permettent d'y voir plus clair, c'est un peu comme le Nutri-Score. Voilà, ça ne règle pas tout. Non, mais ça donne une indication. Mais ça donne une indication.

  • Speaker #1

    On pourrait imaginer une labellisation des sites internet, des réseaux sociaux, des services de plateforme.

  • Speaker #0

    Des labels existent, il y a un label aussi sur le numérique responsable, et c'est quelque chose qui est en train effectivement de se structurer, on a un certain nombre d'acteurs à le faire.

  • Speaker #2

    Une question qui me taraude un peu, parce que là on parle d'Europe, directive européenne, on parle de la France. Mais comment ça se passe dans le monde ? Parce que je pars en vacances en Afrique du Sud, mes données, elles sont soumises à qui du coup ? Parce que, admettons, j'utilise Uber en Afrique du Sud, du coup mes données, elles sont où ? Elles sont à qui ? Elles sont sous quelle juridiction ?

  • Speaker #1

    En tant que citoyenne européenne, Jessica ? Comment on peut répondre à ça ?

  • Speaker #3

    RGPD, le groupe européen de la protection des données, ou OTEJ en tant que citoyenne européenne. Mais partout dans le monde ?

  • Speaker #2

    Même si je suis en Afrique du Sud ou ailleurs.

  • Speaker #3

    Mais un principe, si même un citoyen de l'Afrique du Sud utilise un service qui est dans le territoire européen, Et c'est le règlement aussi, le RGPD européen, qui peut protéger, par exemple, pour exercer son droit d'accès aux données. Donc, en fait, ça dépend d'où l'entreprise est localisée, où la personne est localisée, et où les données sont en train de voyager d'un pays à un autre.

  • Speaker #2

    Voilà, donc moi, je sors des frontières de l'Europe, mais pas les réglementations sur mes données. C'est rassurant, quelque part.

  • Speaker #1

    Pour terminer, et puis essayer peut-être d'aller vers une conclusion, même si on a bien compris que ce sujet est hautement complexe, qu'est-ce que vous pourriez donner, et l'un et l'autre, comme conseil à nous, citoyens, citoyennes, utilisateurs, utilisatrices de ces plateformes, pour essayer de maîtriser au mieux, finalement, mes données, mes datas à l'époque de l'IA ? Bertrand ?

  • Speaker #0

    Je dirais quelque chose de base, c'est... On n'est pas face à un univers magique. On est face à des mécanismes où il y a de la science, où il y a de l'économie, où il y a de la politique. Et donc, comme pour toutes les grandes choses finalement de notre quotidien, il faut... En connaître un petit peu. Ça ne veut pas dire, il ne faut pas se tromper là-dessus, le sujet ce n'est pas, est-ce que vous allez devenir capable de programmer un algorithme en tout temps ? Ce n'est pas du tout le sujet. Ce n'est pas du tout le sujet.

  • Speaker #2

    Une chance.

  • Speaker #1

    Heureusement.

  • Speaker #0

    Oui, non, non, heureusement, heureusement. Par contre, effectivement, avoir des notions de base sur ce qui se passe, se dire encore une fois à chaque fois que tout ça n'est pas magique. Vous pouvez comprendre beaucoup, beaucoup de choses, même sans rentrer, encore une fois, dans toute la technicité. Et encore une fois, si vous ne le faites pas, vous allez être manipulé. Il faut que ce sujet, qui est un sujet politique, on arrive à le placer sur la place publique. Et que ça ne soit pas un sujet de spécialiste.

  • Speaker #1

    Jessica ?

  • Speaker #3

    Oui, alors pour moi... Je pense qu'il faut aller au-delà des actions individuelles et faire plus des actions collectives. On a besoin d'un pouvoir collectif, d'une mobilisation collective. Évidemment, on s'est renseigné à apprendre auprès des associations qui sont dans la sensibilisation, avec des outils, des techniques, des savoirs, parce que comprendre l'économie des données, en fait, demande beaucoup. C'est assez complexe et comme on l'a vu, c'est assez opaque encore. Donc il faut s'associer à de nouvelles connaissances techniques, mais il faut être prêt. C'est pour ça que c'est important d'apprendre, d'acquérir de nouveaux savoirs. Il faut être prêt à avoir des propositions pour le bien commun et pour créer de nouvelles chaînes de distribution de la valeur des données.

  • Speaker #1

    Exactement, comme disait Bertrand, c'est vrai, rendre le problème politique, rendre la question des données politiques.

  • Speaker #2

    Détour vers le futur, c'est terminé pour aujourd'hui. Un grand merci à nos deux invités, Jessica Pidou et Bertrand Montuber.

  • Speaker #1

    Merci à nos partenaires de l'INA pour la recherche documentaire et merci aussi à l'ICAM et François Donato pour son texte et la création sonore.

  • Speaker #2

    Détour vers le futur, un podcast présenté par Laurent Chicoineau et Marina Léonard, préparé avec l'aide de Françoise Vissac.

  • Speaker #1

    Réalisation Arnaud Maisonneuve à la prise de son Laurent Caudoule. Abonnez-vous à Détour vers le futur sur Apple Podcasts, Spotify ou votre plateforme préférée. On en parlait justement des plateformes pour écouter nos prochains épisodes. Et d'ici là, restez curieux.

  • Speaker #4

    Ciao !

Share

Embed

You may also like