- Speaker #0
Bonjour à toutes et à tous et bienvenue dans SAF IA, le podcast qui explore la relation entre l'intelligence artificielle et le droit sous tous les angles, avec clarté et simplicité, mais surtout sans artifice. L'IA est déjà partout, notre quotidien, nos choix, nos métiers et même nos pensées. Mais devons-nous la laisser transformer notre réalité sans nous poser les bonnes questions, sans saisir pleinement ses conséquences sur nos vies ? Je suis Safia Kerbouch. avocate et passionnée par les enjeux du numérique. A chaque épisode, j'ai le plaisir de tendre le micro à un expert d'une discipline différente pour qu'il partage avec nous ses éclairages sur cette révolution technologique. On décrypte ensemble les grands enjeux de l'intelligence artificielle pour comprendre aujourd'hui ce qui dessinera demain. Alors installez-vous confortablement et je vous présente notre invité.
- Speaker #1
Bonjour Amélie Raoul, tu es doctorante à l'Université de Montpellier en sciences de l'information et de la communication et tu fais une thèse précisément sur les intelligences génératives et les pratiques informationnelles des jeunes vers un nouveau paradigme d'accès et de production d'informations. On est pile poil dans le sujet qui nous intéresse. Tu es également... consultante et formatrice en usage éthique de l'intelligence artificielle. Déjà, merci beaucoup Amélie d'avoir accepté cette invitation.
- Speaker #2
Merci à toi de me l'avoir proposé surtout.
- Speaker #1
C'est parfait. Je te l'ai proposé parce que j'ai plein de questions sur l'éthique et je vais commencer avec une très générale. Qu'est-ce que l'IA éthique ?
- Speaker #2
Alors c'est une excellente question et j'adore quand on me pose cette question parce qu'en fait la réponse est simple, ça n'existe pas. L'IA éthique c'est un mythe, c'est un argument marketing, carrément aujourd'hui un argument commercial. Or c'est pas l'IA qui est éthique, c'est ce qu'on en fait qui rend nos usages et nos perceptions de l'IA éthique notamment. C'est assez difficile à dire qu'une IA est éthique parce qu'il y a des problèmes humains, de coûts humains derrière, des problèmes de coûts d'énergie, donc écologiques. Il y a des problèmes environnementaux dans sa globalité, il y a des problèmes de biais algorithmique, des problèmes d'égalité. Il y a pas mal de choses qui font qu'une intelligence artificielle ne peut pas être éthique. Par contre, ce qu'on en fait, ça peut l'être.
- Speaker #1
C'est alors un usage éthique qui traverse l'esprit.
- Speaker #2
Eh bien, pour moi, ça part déjà de notre propre... individualité, c'est à dire que je m'interroge d'abord sur quelles sont mes valeurs, qu'est ce que je souhaite porter comme message, quels sont mes biais cognitifs. Bon ça c'est assez difficile à percevoir chez nous, mais en tout cas il faut savoir qu'on est tous porteurs de biais cognitifs, c'est comme ça et c'est pas grave, mais en tout cas il faut le savoir. Il faut surtout quand on parle d'intelligence artificielle ne pas avoir un imaginaire et une perception qui est biaisé. En s'imaginant que l'IA peut devenir méchante et qu'elle peut se retourner contre nous, parce qu'on a été bercé par ces récits de science-fiction dans la cinématographie et la littérature, d'autant plus qu'on a aussi tous ces discours médiatiques et politiques et commerciaux, marketing, qui nous disent que l'intelligence artificielle c'est un outil magique, qui peut tout faire, qu'elle est capable de nous comprendre, parfois même de faire preuve d'empathie, qu'elle est capable de gérer nos émotions, bref, l'IA a tout faire. comme outil, mais il y a aussi comme partenaire psychologique, partenaire cognitif. Et à ce moment-là, c'est intéressant de se dire, ok, j'ai toutes ces informations, j'ai toutes ces données, comment est-ce que je vais utiliser l'IA à bon escient ? Je fais attention de ne pas envoyer des requêtes pour tout et n'importe quoi, parce que ça consomme beaucoup d'énergie. Je fais attention à ne pas lui dire bonjour, merci, au revoir, parce que ça nous une relation qu'on dit anthropomorphisée, donc une relation homme-machine qui, qu'on le veuille ou non, a un impact. sur la manière dont on va percevoir non seulement l'IA, mais aussi toutes les nouvelles technologies. Et puis, il y a toutes ces questions aussi de coût humain qu'il faut bien prendre en considération quand on utilise une IA. Et puis, il y a la question de sources d'informations, la question de l'accès à l'information et au savoir. Est-ce que je veux que l'IA soit détentrice de la vérité, et non pas d'une vérité, je dis bien la vérité, qu'elle soit perçue comme un messie, qu'on ait une vision messianique d'elle ? qu'on ait une vision d'un oracle qui nous délivre, et j'insiste sur le mot délivrer, sa vérité, mais du coup la vérité pour tout le monde. Et tout ça, en fait, ça empêche de voir des usages qui sont éthiques, parce que l'éthique, c'est un petit peu un grand mot dans lequel on met plein de trucs. Mais c'est simplement pour moi encadrer tous ces usages-là en étant pleinement conscient de tous les enjeux qui sont inhérents à ces nouvelles technologies.
- Speaker #1
Donc, la première étape... Une entreprise qui voudrait par exemple déployer une solution de manière éthique, sa première étape, ce serait de prendre conscience de tous ces impacts de l'IA sur la vie des gens, que ce soit les biais, les conséquences environnementales, etc. Est-ce que ce serait ça, cette première étape ?
- Speaker #2
Oui, entre autres. Alors, il y a deux choses. Il y a ceux qui conçoivent des systèmes d'intelligence artificielle, d'une part, qui eux ont d'autres problématiques. au niveau de l'algorithme, à savoir qu'en amont, avant même le déploiement de leur système, il faut qu'ils aient un jeu de données qui soit bien nettoyé, que ce soit le plus possible exemple de biais. Il faut vérifier une fois qu'on l'a déployé, comment est-ce que ça se passe, les réponses, les interactions que les usagers ont avec cette intelligence artificielle, ou les usages tout court, et puis ensuite... tout du long du cycle de vie de ce système algorithmique, il faut vérifier, auditer, ajuster. Ça, c'est une chose pour ceux qui conçoivent des systèmes d'intelligence artificielle pour les autres, ceux qui mettent en place des IA au sein de leur entreprise, collectivité. Il y a un chemin à peu près similaire qu'il faut prendre, mais qui est plus centré sur l'humain. C'est-à-dire, plutôt que d'accepter, et je vais vous donner une situation très concrète, qui m'est arrivée là la semaine dernière. J'ai participé à des événements où il y avait des collectivités, des élus, qui cherchaient à mettre de l'IA, entre gros guillemets, dans leur processus. Tout le monde était là pour apprendre, tout le monde était là pour découvrir, et pour savoir quelle était la solution la plus adaptée à leur situation. Malheur, nous avons une entreprise qui est là pour vendre son chatbot, qui arrive et qui délivre sa solution, ainsi que sa vision des choses, qui était tout à fait erronée. C'est-à-dire que... Donc, d'apprendre les biais et les limites. Comment est-ce qu'on implémente de manière responsable l'intelligence artificielle au sein du processus ? Ils ont dit, bon, voilà mon chatbot, tiens, voilà ce qu'il fait, c'est stylé, c'est français, mais il n'y a pas de souci. On a dit que d'après un institut français, Mistral, c'était lié à la moins biaisée, mais vu qu'on utilise leur API, c'est bon, il n'y a pas de souci. Et puis nous, on fait attention, on est éthique et responsable. Alors c'est devenu, à l'instar du greenwashing, l'éthiquewashing. et là ça m'a complètement choqué parce qu'après j'ai entendu des trucs je me suis dit franchement là en termes de désinformation au néo-max. Donc les gars attendent leur solution, ils ne savent même pas ce que c'est un LLM, et le gars m'a dit que c'était quelque chose qui traduisait des mots en plusieurs langues. Donc à partir de là, je me suis dit, bon, d'accord, monsieur, je pense qu'il va falloir qu'on revoie les bases. Et pourtant, ce sont ces gens-là qui vont proposer à des collectivités, des entreprises, des solutions, toutes faites. Moi, ce que je pense, c'est que pour avoir une démarche qui est dite éthique et responsable, encore une fois, avoir une démarche 100% éthique et responsable, c'est compliqué, mais l'important c'est de mettre les bonnes bases et d'avoir la bonne impulsion et les bonnes idées derrière. Ce que je propose en général de faire, ce qui pour moi est la solution la plus logique, c'est de commencer déjà par auditer et cartographier qui fait quoi dans l'entreprise, est-ce qu'ils utilisent déjà l'intelligence artificielle, comment ils l'utilisent, quelles sont leurs perceptions de ces intelligences artificielles-là, est-ce qu'ils l'utilisent aussi dans le cadre de leur vie privée, personnelle, et on regarde, on fait une petite cartographie de ce qu'il y a maintenant. On analyse, on identifie les points de friction, les points sur lesquels on pourrait travailler, les tâches qu'on pourrait alléger, la productivité qu'on pourrait augmenter ici, une meilleure compréhension par là, bref, on fait un petit point sur ce qui est possible. Et ensuite, une fois que tout ça c'est fait, que ce travail de réflexion est fait, on réfléchit à quel est l'outil le plus adapté pour cette situation bien précise. On met en place ce système, ensuite, une fois que c'est fait, on ne s'arrête pas là. On suit l'adoption de ces systèmes-là par les agents, par les employés, parce qu'il peut y avoir de la réticence. On a besoin de la conduite du changement, on a besoin de faire des ajustements, on a besoin de voir si c'est aligné avec la valeur de l'entreprise. Et c'est le premier truc que je regarde aussi. Il faut que ce soit aligné avec la valeur de l'entreprise. Il faut qu'il y ait un point commun entre ce qui est utilisé et ce qui est partagé. Parce qu'évidemment, quand on revient à l'éthique washing, je ne peux pas dire que je suis une entreprise... qui met en avant l'écologie, je ne sais pas quoi, et à côté, je fais n'importe quoi avec les outils que j'ai à ma disposition. Ce n'est pas le but. Et donc, mettre l'humain au cœur de tout ça, c'est la base. On part de l'humain, ensuite on déploie. Et ensuite, tout du long, parce qu'une technologie comme celle-ci, ça évolue très vite. Et donc, je suis censée, souvent, mettre à jour ma charte d'usage, par exemple, mettre à jour ma politique, mettre à jour les informations qui sont partagées sur les outils d'intelligence artificielle, sur la réglementation, bref. Je fais de la formation en continu, j'ai un référent, j'ai quelque chose qui fait qu'il y a une gouvernance commune, qu'il y a une culture commune. Et c'est ça le point, et ça pour moi, c'est ça, mettre en place une intelligence artificielle dite éthique.
- Speaker #1
C'est... Déjà, merci beaucoup parce que tu permets de voir un petit peu quel est le processus dans lequel on entre quand on souhaite intégrer une IA au sein d'une entreprise. Moi, quand je réfléchis à l'IA et au gain de productivité que ça peut avoir au sein d'une entreprise, je me demande juste, Est-ce que c'est même éthique que d'intégrer une IA qui est susceptible de remplacer... potentiellement à grande échelle, la valeur travail de l'homme ?
- Speaker #2
C'est un peu la question qu'on me pose souvent dans les formations. On me dit, attends Amélie, là c'est cool, c'est beau, je peux faire ça, mais là j'ai fait en deux heures un truc que je faisais en deux semaines. Du coup, qu'est-ce qui va se passer ? Est-ce qu'ils n'auront plus besoin de moi ? Est-ce qu'elle le fait mieux que moi, cette intelligence artificielle ? Est-ce que si on m'allège ma charge de travail, on ne va pas me redonner d'autres choses derrière pas embaucher la personne qu'on m'avait promis pour travailler avec moi. C'est un risque, c'est une possibilité. On n'exclut pas ces choses là. Est-ce que c'est éthique ? On peut se questionner. Oui et non. Parce que remplacer un humain par une machine, évidemment, c'est pas l'objectif. Et de toute façon, dans mon esprit, l'arrivée des IA dans le monde professionnel, c'est un outil d'émancipation mais c'est pas un outil ni de co... coercition ni de remplacement. Dans le sens où si mon employé, je lui allège une tâche, l'objectif ce n'est pas de le surcharger ensuite de plein de trucs différents, l'objectif ce n'est pas de supprimer un poste, c'est vraiment de conserver l'existant mais de l'améliorer et d'améliorer par conséquent le bien-être au travail et cette forme de productivité-là. Si on se pose deux minutes et qu'on réfléchit, si dans l'état actuel des choses. Mon entreprise, elle roule. Elle génère son chiffre d'affaires. Tout va bien, mais j'ai envie d'aller encore plus loin. L'intelligence artificielle me permet d'aller encore plus loin que ce que j'ai déjà, en conservant l'existant. Effectivement, ça peut aussi freiner l'emploi de nos autres personnes, mais si on réfléchit bien, encore une fois, si on est dans une logique de croissance exponentielle, je suis obligée d'embaucher quelqu'un en plus de mon système d'IA. C'est vraiment comme si j'embauchais deux personnes en même temps. Mais se dire, effectivement, je supprime un emploi où il y a des risques pour les emplois parce qu'il y a de l'intelligence artificielle, ça c'est pas éthique. Mais malheureusement, on ne peut pas forcer une entreprise. embaucher quelqu'un plutôt que de mettre une intelligence artificielle c'est une réflexion qui va se faire en interne alors est-ce qu'il moi je réfléchis toujours d'un
- Speaker #1
point de vue du droit est-ce qu'il n'y aurait pas une question de pas d'obliger les entreprises certainement pas mais une question de Merci. de mettre des conditions avant de se libérer d'un individu dans le cadre d'une intégration et d'une IA, justement.
- Speaker #2
Pour moi, c'est une évidence même. On devrait pouvoir justifier le fait de ne pas ouvrir de poste parce qu'on met une IA à la place, ou bien de virer un employé parce qu'on a décidé de le remplacer par une IA. Pour moi, ça devrait être vraiment cadré par la loi, ça, parce que je trouve que ce n'est pas... Qu'est-ce que ça apporte au bien-être humain ? Qu'est-ce que ça apporte à la société ? apporte à l'individu si le gars ça fait 20 ans qu'il est dans sa boîte et puis son taf du jour au lendemain il se fait remplacer par une IA qu'est ce qu'il va faire est ce qu'il a envie de se former est ce qu'il a envie de changer d'endroit est ce qu'il a envie déjà de faire tout ça est ce qu'il a les moyens c'est toutes ces questions qui se posent donc ouais pour moi il faut que ce soit absolument encadré mais du coup est ce qu'on pourrait pas dire que intégrer
- Speaker #1
une IA de manière dans une entreprise, ça passe par un accompagnement des... d'une adoption générale par les employés que ce soit pour utiliser dans l'entreprise ou pour les aider à s'émanciper au-delà de l'entreprise ?
- Speaker #2
Oui, après cette question je la trouve difficile parce que tu vois l'émancipation en sortant du travail, enfin en sortant de l'emploi, c'est un truc dont on parle beaucoup depuis plusieurs années surtout en politique parce qu'on est en train de dire ben voilà, il y a de moins en moins d'emplois, parce que récession économique, parce que c'est difficile pour tout le monde. Et du coup, on emploie de moins en moins de gens et il y en a de plus en plus qui ont du mal à avoir un taf dans lequel ils travaillent. finalement ça rejoint un petit peu tout ça, c'est la difficulté aujourd'hui d'avoir, c'est la difficulté de l'employabilité d'une part, la difficulté de trouver un travail qui est stable, de trouver un travail qui nous convient. Et donc, de par des licenciements économiques massifs qu'il y a eu ces dernières années, de par les entreprises qui ont fermé, de par des grands groupes qui ont été délocalisés, il y a déjà eu cette question de, ok j'avais des employés parce que... les employés ont dû pour autre chose, ils devraient être accompagnés, or ils ne le sont pas la plupart du temps, on leur donne un petit billet et puis ils se débrouillent, là c'est un peu la même chose.
- Speaker #1
Alors en fait pour la première fois on va se retrouver dans une situation où les entreprises ne licencient pas parce qu'elles ont un problème économique mais elles vont... licenciées parce qu'elles n'auront plus de travail à fournir à leurs employés puisqu'elles l'auront fournie, elles l'auront complétée par l'usage du NIA. Et donc, on ne peut pas comparer ces deux situations. Et du coup, comment est-ce qu'on peut envisager qu'une entreprise adopte une NIA de façon éthique ? avec ce critère de l'employabilité au coeur.
- Speaker #2
Après c'est un petit peu un cas de conscience, c'est à dire que c'est eux qui font le choix aussi de est-ce que je conserve mes employés ou non, est-ce que c'est quelque chose qui est important pour mon entreprise d'avoir cette employabilité là. Bon ça peut induire une crise de confiance chez les consommateurs, une grosse crise de confiance parce qu'est-ce qu'on a envie de donner notre argent à une entreprise qui... je vais dire très poliment, mais qui délaissent et qui insultent d'une certaine manière ses potentiels ou ses employés. Mais après, c'est vrai que la question est juste là trop compliquée, parce que oui, on ne devrait pas permettre aux entreprises de remplacer une grande majorité de postes par des IA. Ça devrait être encadré, ça aussi. Mais après, c'est un cas moral, c'est un cas de conscience. Je peux conseiller une entreprise de ne pas le faire pour telle et telle raison, maintenant le choix final lui revient. Donc oui, la démarche... peut être éthique comme elle peut ne pas l'être. Ça, c'est le principe de l'éthique, c'est un choix moral. Soit ils font quelque chose de bien, soit ils font quelque chose de mal.
- Speaker #1
Et aujourd'hui, est-ce qu'on a des solutions qui nous permettent de savoir, d'auditer, mais en externe, ou de savoir quelles entreprises vont faire des choix éthiques au niveau de l'adoption de l'IA ?
- Speaker #2
Alors, est-ce que c'est possible de faire un audit pour savoir s'ils vont faire des choix éthiques ? Ah bah là c'est de la politique interne. Ah oui, on est censé, oui, dans un monde idéal. Alors il n'y a pas d'obligation, de toute façon, voilà. Bon après en général ça finit par se voir quand une entreprise dit on a eu une démarche éthique irresponsable, on a fait ci, on a fait ça, et qu'on se rend compte finalement que c'est l'inverse, c'est-à-dire que la vérité finit toujours par éclater, ça finit toujours par se savoir. ça induit des grosses crises aussi derrière. Et puis on peut tout remettre en question. Maintenant, ça va être plutôt sur la base d'une démarche personnelle. Est-ce que j'accepte de me faire auditer pour savoir si ma démarche est éthique ? Oui. Mais est-ce qu'il y a une obligation qui dit aux entreprises « nous allons vous auditer pour savoir si vous avez une démarche qui est respectueuse du bien-être humain ? » Non. Après, on peut imaginer une sorte de label qui est donné, qui sont audités tous les 2-3 ans, je ne sais pas, pour voir s'ils sont toujours dans les clous. Ça peut être intéressant.
- Speaker #1
Et donc alors là on a vu salariés par rapport aux solutions qui sont déployées pour les compagnies qui utilisent l'IA. je pense de manière générale aux générations de gros coups, aux publicités qui sont faites par usage d'IA etc. Est-ce qu'aujourd'hui, qu'est-ce qui permet de dire si l'usage, la réalisation de ces contenus est éthique ou non ?
- Speaker #2
C'est une bonne question sur la production de contenus. C'est pas facile parce que si c'est produit 100% par IA, tu indiques quand tu es créateur de contenu que c'est fait par IA. Parce que à ton graphiste, tu ne l'as pas embauché pour qu'il fasse son travail qu'il faisait avant. Ça, c'est un problème. Mais du coup, quand on va sur YouTube, maintenant, toutes les miniatures se ressemblent. Et j'avoue, ça commence à saturer tout le monde. Un peu comme sur LinkedIn où tous tes posts sont écrits par IA. Et tous les commentaires, c'est encore pire, je trouve, les commentaires que tous tes posts qui sont répondus par IA. C'est compliqué parce que... Quand on est créateur de contenu, on dépense beaucoup d'argent dans tout ce qui est miniature, dans tout ce qui est création visuelle et tout ça. C'est facilité par les intelligences artificielles, ça supprime... d'ailleurs ça fait partie des métiers les plus impactés, les métiers créatifs malheureusement, parce que tout le monde peut créer n'importe quoi avec des IA maintenant. Donc à part indiquer que c'est fait par une intelligence artificielle, ou bien à la limite utiliser de l'IA et que ce soit modifié par un graphiste... C'est compliqué d'avoir une démarche éthique à ce niveau-là, mais pour moi, c'est les deux principales choses à faire.
- Speaker #1
Et alors, juste parce que c'est comme tu avais dit au début, c'est un terme qui englobe énormément de notions, l'éthique. Si tu avais à la définir, à la conceptualiser, mais regarde l'IA.
- Speaker #2
Ouais. Alors je vais donner ma définition parce que les philosophes risquent de me taper dessus. Moi je ne suis pas philosophe, moi je suis en science de l'information et de la communication et j'ai eu ce débat moult fois. Alors, dans une démarche philosophique, l'éthique de l'intelligence artificielle ce sera... réfléchir aux valeurs, aux principes et au sens qu'on donne à l'action ou à l'activité humaine dans la démarche philosophique. Maintenant, quand on parle d'éthique appliquée aux nouvelles technologies, on parle d'éthique du numérique, éthique de la robotique, éthique des données, éthique des usages. Donc on découpe l'éthique sous plusieurs prismes. On la classifie en fait. Pour moi, l'éthique c'est devenu ou c'est un mot extrêmement valide. où effectivement on met plein de trucs dedans. Maintenant la question c'est juste de savoir, et c'est la question numéro 1 qu'on se pose, par rapport à l'intelligence artificielle, quels sont les impacts de l'intelligence artificielle sur l'humain. A partir de là, si la réponse est, ça va dans le sens de l'humain, ça apporte des bienfaits, c'est positif, on peut dire que c'est éthique. Si derrière la réponse est, bon, ça pose des problèmes ici, ça pose des problèmes là-bas, en termes de bien-être humain, c'est pas la folie, il y a des trucs qui vont pas trop, dans ce cas-là, on peut se dire, ok, la démarche n'est pas nécessairement éthique. Ce qu'on dit aussi de l'éthique, c'est discerner le bien du mal, toujours dans une démarche philosophique. C'est très difficile de discerner le bien du mal, parce qu'on a tous nos propres valeurs, on a tous nos propres principes, on a tous notre propre culture, notre propre religion, qui fait qu'on a notre propre construction du bien et du mal. Et c'est aussi pour ça que c'est si difficile de définir une éthique universelle. Chaque individu a sa propre éthique, mais chaque pays a sa propre éthique aussi. Chaque société a sa propre éthique. Et au sein même de la société, on a du mal encore à s'entendre sur ce que c'est. Donc c'est très difficile, déjà de 1, à définir très clairement, et de 2, à avoir une culture commune de cette notion d'éthique. C'est pour ça que là, on navigue dans un grand flou. Et c'est pour ça que quand on me dit que je fais une IA éthique, je ne suis pas d'accord avec le terme. Après je peux comprendre que dans la démarche, il y en a qui pensent qu'ils ont réussi à créer un truc tout à fait neutre, or les technologies neutres ça n'existe pas, ou une technologie exempte de biais, bon je ne suis pas certaine que ça existe non plus. Donc là pour moi l'éthique c'est vraiment en premier réfléchir aux impacts sur l'humain et faire en sorte que ce soit positif et que ça participe au bien-être de l'individu.
- Speaker #1
Quelque chose peut participer au bien-être de l'individu à court terme, mais être par exemple négatif à long terme. Imaginons, je comble une solitude en développant une IA qui permette de s'épancher, mais je crée une société future qui sera totalement isolée.
- Speaker #2
Oui.
- Speaker #1
Est-ce qu'on est, et puis le pire c'est que c'est pas une illustration imaginaire, c'est ce que certains sont en train de produire, est-ce que du coup on apprécie l'étude à l'instant T ou est-ce qu'on l'apprécie dans son développement, dans le développement de la solution ?
- Speaker #2
Ouais, c'est jamais sur l'instant T, c'est pour ça qu'on dit réfléchir aux impacts. Là, moi, par exemple, dans le cadre de mes recherches, quand je dis que je travaille sur les impacts, je travaille pas... sur les impacts maintenant essentiellement, je travaille sur les impacts maintenant et sur les impacts après. Donc on réfléchit, on sait, c'est le passé qui nous aide à comprendre l'avenir, donc on étudie les impacts qui ont eu, les choses qui sont arrivées dans le passé pour comprendre ce qui se passe aujourd'hui et envisager ce qui peut se passer plus tard. L'éthique c'est pareil, on étudie les impacts maintenant et on fait en sorte qu'en termes de pérennité, il y ait une logique et un sens. Alors, cette question de compagnons émotionnels, c'est super compliqué à répondre parce que c'est une illustration parfaite, c'est-à-dire que c'est devenu l'usage numéro un des intelligences artificielles généralisées aujourd'hui, ce soutien émotionnel. Et moi, ce que j'évoque même dans mes recherches, c'est le partenaire cognitif, ce qui va même au-delà de l'émotionnel, ça va vraiment sur la réflexion, la prise de décision, le quotidien. C'est un vrai truc parce que... Est-ce que dans ça on peut dire que c'est une démarche éthique parce que ça fait du bien ? Non, mais après il faut distinguer faire du bien et apporter au bien-être humain. Ce n'est pas tout à fait la même chose, c'est un petit débat philosophique.
- Speaker #1
Justement, tu me fais penser à l'intervention de Julien Gobin dans un précédent épisode qui expliquait comment on se délaissait tout à fait pour le compagnon de l'amitié. on se délaissait de nos obligations, de nos décisions, et qu'on laissait à l'IA une certaine place pour décider à notre place. Parce que justement, on a cette fatigue d'être soi et de se questionner. D'un côté, on a une société qui est hyper anxiogène, de l'autre, on a une solution qui fait du bien à l'instant T, et on perd... Alors, qui fait du bien... à la personne qui l'utilise au moment où elle l'utilise, ce qui pourrait être également la définition de certaines drogues, par exemple. Mais du coup, comment... En fait, ma principale question, c'est comment on fait en sorte d'avoir une IA ou d'avoir des usages d'IA dont on sera fier demain ou qu'on souhaite pour l'avenir ?
- Speaker #2
Très belle question ! Très très belle question ! Alors je vais essayer de répondre dans un cadre projectif, c'est-à-dire je vais essayer de me projeter sur ce qui est possible de faire dans l'état actuel des choses que je peux constater. Alors déjà la base de toute chose pour moi, et ça vaut pour tout, c'est l'éducation. Par éducation j'entends s'instruire, l'apprentissage. Donc l'éducation à son sens large, la formation, tout ce qui nous permet d'apprendre et surtout de comprendre. Quand on comprend, c'est là que nos usages sont plus adaptés, c'est là qu'on sait ce qu'on fait, c'est là qu'on est en capacité de faire preuve d'esprit critique. On est capable, et ça c'est super important ce que je vais dire, de douter, parce qu'il y a eu un truc ces dernières années où le doute n'était plus permis, et remettre en question quelque chose. C'est tomber dans une forme de théorie du complot ou je ne sais quelles autres terminologies qui sont absolument inadaptées. Or, pour apprendre, il faut d'abord se questionner, donc il faut d'abord remettre en question, donc il faut d'abord douter. Et dire je ne sais pas, c'est une force également. Dire je ne sais pas, c'est laisser la porte ouverte à de nouvelles connaissances. Et tout ça, c'est super important. Donc, pour essayer... Alors, je me suis un peu perdue dans mon explication, mais je reprends ta question. par rapport aux usages qui feront qu'on... seront bons pour la société pour demain, c'est à peu près ça la question. On apprend, on forme, on comprend et s'il vous plaît laissez la place à des chercheurs qui sont là pour étudier ces choses là. Là on est dans un espèce de flou, un espèce de brouillard marketing commercial où il y a tout et n'importe quoi, des recherches aussi financées par des laboratoires privés et des entreprises privées qui vont aller dans le sens de leur propre système d'IA. Ça joue aussi et ça biaise complètement la recherche. Il faut qu'on ait plus de moyens dans la recherche, dans l'intelligence artificielle, dans la recherche tout court, là je parle spécifiquement de l'IA, pour comprendre profondément les mécanismes qui sont en train de se jouer et de se développer, pour ensuite mieux informer la population, la sensibiliser, l'éduquer, l'instruire et la former, et ensuite construire et co-construire des cadres communs d'utilisation, d'usage et d'acceptabilité de l'IA au sein de la société, dans un monde idéal, je le dis bien. Parce que c'est très difficile de faire des co-concertations entre différents acteurs. Il y a toujours des conflits d'intérêts, des conflits moraux, des conflits sociaux, bref, plein de trucs qui font que c'est difficile. Dans un monde idéal, ce serait ça. Mais en tout cas, il y a aussi la réglementation qui a son rôle à jouer, parce que c'est ça qui contraint. Donc c'est essentiel. On n'est pas au point non plus de devenir coercitif et au point de ne plus pouvoir faire. ce qu'on fait bien, mais en tout cas, c'est sûr qu'il doit y avoir un cadre juridique et réglementaire. Et puis tout ça, en fait, ça va amener, de par des réflexions, à un cadre qui peut être éthique. Du moins, je l'espère.
- Speaker #1
Alors, moi, je suis un peu pessimiste parce que je me dis, aujourd'hui, les solutions qu'utilise l'IA...
- Speaker #0
elles se battent pour avoir notre attention au maximum donc l'idée c'est qu'on reste au maximum sur nos écrans, qu'on soit au maximum en interaction avec ces... ces intelligences artificielles ou ces outils d'information, je ne vois pas ce qui ferait qu'on changerait de bras. pour aller vers quelque chose de plus sain, de moins chronophage, de moins anxiogène même.
- Speaker #1
Oui, c'est ce que je disais un peu tout à l'heure, c'est une vision un peu utopiste du truc. Moi, j'essaie d'être positive parce que si je suis trop négative, ce n'est pas bon non plus de commencer à avoir un avenir qui est complètement dystopique. Ce n'est pas forcément dans notre intérêt, mais effectivement, tu as tout à fait raison. Il y a déjà cette surexposition aux écrans une surexposition aux algorithmes qui déjà depuis quelques années choisissent tout pour nous, le GPS, ce que je vais bouffer à midi parce que Uber Eats m'a conseillé de manger un burger, les vêtements que je vais porter parce que j'ai une pull chine sur Facebook, Facebook qui me propose d'acheter, enfin bref, qui me propose de voir tel contenu, qui me propose de voir tel créateur, YouTube qui me propose tel YouTuber, voilà, bon, on est déjà dans une bulle qui nous empêche de voir l'ailleurs, dans une bulle qui nous empêche de choisir nous-mêmes, de faire notre libre arbitre, c'est vrai, t'as tout à fait raison. Et on est déjà dans un espèce de truc où on est déjà surexposé et sursollicité. Ça, c'est vrai. Maintenant, c'est un truc qu'on sait. Alors, on le subit quand même quelque part. Ça a été intégré dans notre quotidien. On vit avec. Ça a des effets délétères, certes. Il y a plein de trucs qui ont des effets délétères et qui ont des effets positifs. Bon, à titre individuel et à l'échelle de l'individu, c'est difficile de changer l'entièreté du système, à part changer nos propres pratiques. Bon, et encore, on est soumis à des obligations. Genre le numérique, t'as pas le choix que d'être sur tes écrans en fait parce que tout se fait de manière informatisée maintenant. Donc c'est pas non plus comme si on nous laissait le choix. Et puis on est un peu exclu aussi quand on n'utilise pas le téléphone, quand on n'est pas sur les réseaux, quand on se fait pas scier ça. C'est une chose. Donc je pense qu'il faut apprendre à vivre avec ces trucs là aussi. Et que à part se faire des concertations intellectuelles ou essayer de proposer des choses ou de faire avancer la recherche ou d'éduquer le peuple. C'est compliqué, effectivement, d'un point de vue tout à fait rationnel aujourd'hui, d'imaginer ce monde idéal où il y aurait des usages qui se sont éthiques, parce que ça va à l'encontre des intérêts économiques, des intérêts politiques aussi, pour que ça soit clair. Donc, ouais, j'essaie de rester positive, mais je pense qu'il faut imaginer un monde de demain où malheureusement il y a des choses qui fonctionnent et des choses qui ne fonctionnent pas, des choses qui sont mal, des choses qui sont mauvaises, et c'est comme ça, il y a du bon et du mauvais partout. Mais je pense qu'il faut rester droit en tout cas dans ses valeurs et faire de son mieux.
- Speaker #0
À titre individuel. Alors, je pense que, enfin, lorsque je réfléchis, au début, tu as de manière très pertinente dit « l'IA ne pense pas bien ou mal » . C'est vraiment les usages qu'on en fait et c'est d'ailleurs pourquoi je te questionne aujourd'hui. C'est comment on peut tous se questionner collectivement pour avoir une démarche éthique face à l'IA. J'ai eu l'occasion de visiter l'exposition aux jeux de paume sur le monde selon l'IA. Quand j'en suis sortie, ma seule conclusion a été « l'IA n'est pas éthique » puisqu'à la base, toutes les données qui ont été condensées, tous les filtrages qui ont été faits, ont été faits par les data workers du Sud pour quelques euros et dans des conditions plus que précaires. Et déjà les fondations étaient absolument pas éthiques, mais sauf que ça se passait loin, sans que les gens ne le sachent. Et aujourd'hui, Open AI est rentré dans nos vies et puis d'un seul coup on a changé notre manière de voir le monde. Mais qu'est-ce qu'on peut faire ? Parce que vraiment, je pense que c'est essentiel de se poser cette question aujourd'hui, c'est qu'est-ce qu'on peut faire ? pour avoir individuellement et collectivement une démarche éthique, quels sont les boutons sur lesquels il faut appuyer ?
- Speaker #1
Si c'était des boutons, ce serait facile, parce qu'on arriverait beaucoup plus rapidement aux bonnes conclusions. Mais c'est très juste ce que tu dis, les fondations sont pourries. Les fondations même de l'IA, la manière dont ça a été entraîné, c'est pourri. Après, malheureusement, il y a beaucoup de technologies comme ça, où quand on veut, par exemple, les matériaux qu'on utilise pour faire des téléphones ou des voitures électriques, ça provient de mines en Afrique qui sont exploitées, surexploitées. Et j'ai pas peur de le dire, quasiment réduire l'esclavage par d'autres grandes puissances, par d'autres humains. Et c'est le propre de l'humain de vouloir les ressources sans trop se fatiguer en utilisant d'autres humains. Malheureusement c'est moche dit comme ça, mais c'est la réalité. Et ça fait longtemps que c'est comme ça. Donc oui, les fondations sont pourries. Après, est-ce qu'on peut réfléchir collectivement à cette démarche autour de l'intelligence artificielle, sur quels sont les usages éthiques qu'on va en faire ? sincèrement j'ai pas la réponse. Aujourd'hui je peux pas te dire parce que c'est très compliqué. Au point où on en est aujourd'hui, au point où on est dans cette espèce de flou juridiquement ça commence à être plus encadré mais ça évolue tellement vite que c'est compliqué. A l'échelle individuelle les gens ne sont pas du tout informés ou ils sont mal informés. Ils sont pas du tout formés et parfois ils sont mal formés. Les entreprises ont toutes pris le tournant de l'IA et elles vendent toutes, entre gros guillemets toutes, j'extrapole mais voilà, il y en a beaucoup qui vendent des solutions d'IA inadaptées, très chères, ou qui induisent des mauvais usages au sein de l'entreprise. En fait, c'est tout un truc où c'est difficile d'arriver et de dire, bon, les gars, on se calme, voilà ce qu'on va faire. Moi, je vous dis, si vous voulez que ça se passe bien demain, on va faire comme ça. Bah non, parce que chacun a son petit intérêt de son côté. Donc je n'ai pas la réponse à ta question malheureusement, mais dans mon monde utopique, l'idéal, comme je te disais, c'est à titre individuel. Chacun comprend et est éduqué, apprend et comprend. Et à titre collectif, chacun réfléchit. Il y a une forme de réflexion intellectuelle collective qui amène à des solutions qui sont mises en place pour que ça profite au plus grand nombre.
- Speaker #0
Très bien. Donc on doit garder à l'esprit le bien-être collectif dans ces usages éthiques de l'IA. Est-ce que tu ajouterais quelque chose à maintenir, alors quand je pense à ce bien-être collectif ? Tu m'as fait penser à autre chose quand tu parlais de régulation. Il y a une chose que mes invités disent souvent. Alors, s'ils sont techs, ils vont me dire l'innovation avant la régulation. S'ils ne le sont pas, mais alors, mon premier réflexe sera de dire, attendez, il faut que l'on régule et on rentre souvent dans un débat. Mais à force de l'entendre, cette phrase, je me suis questionnée et l'une des interviewées, Alina, m'a très justement dit « Pendant que nous on se questionne sur la régulation, d'autres développent la technique. »
- Speaker #1
Bien sûr.
- Speaker #0
Et donc dans quelques années, on se retrouvera à avoir perdu ce temps à réfléchir la régulation, là où d'autres auront de tout autre usage et on sera limite dépassé. Donc finalement, qu'on ne régule pas. on n'aura pas saisi cette occasion. Donc, avec l'éthique, c'est un peu la même chose. Aujourd'hui, on a des sociétés qui, sans tenir compte de l'éthique, développent en masse et prennent des parts de marché et créent de nouvelles habitudes. Comment est-ce qu'on peut... Est-ce qu'il est indispensable de tenir compte de l'éthique et de ne pas déployer... En messe ?
- Speaker #1
Tu me poses la question, moi je vais te dire oui. Mais en fait, c'est un peu la même problématique que tu as évoquée au début par rapport à l'innovation et la réglementation. Pour moi, c'est un débat qui prend beaucoup de place et qui n'est pas nécessairement pertinent, dans le sens où c'est un peu toujours la même chose quand on a ceux qui sont dans la team, on développe, on développe, on développe, on développe, et du coup, ok. On a la Chine, l'Inde. le Nigeria, qui sont hyper en avance sur l'adoption d'intelligence artificielle, et du coup ils font leur truc, ils sont là, ils avancent tranquillement, il n'y a personne qui les dérange, ils ne sont pas gênés, ok, pas de soucis. Il y a ceux qui à côté disent « Ah non, au secours, à mort l'intelligence artificielle, c'est pas bon, on va tous être remplacés, ça va tous nous tuer, et puis il n'y aura que des problèmes, il n'y aura que des catastrophes écologiques, humaines, et blablabla avec ça. » Bon, je pense que ça ne sert à rien d'être dans des extrêmes non plus, je pense qu'il faut savoir être mesuré, et que... on ne sera jamais tous d'accord de toute façon. Et puis c'est comme ça. Et puis il y a des continents, des pays qui vont faire le choix de réglementer, d'autres qui vont faire le choix de l'innovation.
- Speaker #0
Bon,
- Speaker #1
c'est comme ça. Il y a des pays qui seront en avance, d'autres qui sont peut-être un peu en retard. Mais en avance par rapport à quoi ? En retard par rapport à quoi ? Qu'est-ce que ça va avoir comme impact à l'avenir sur ce pays-là ? Si on met en avant plutôt l'innovation et plutôt la régulation, on ne sait pas encore, on n'a pas à deviner ce qui va se passer dans 20, 30, 40, 50 ans, parce que c'est du long terme tout ça. Là, on est dans l'instant présent, on essaie des trucs, on teste, on innove, on machin. Mais peut-être que dans 10-20 ans, celui qui a la réglementation, il va exploser en vol. et inversement, peut-être que c'est celui qui a... On ne sait pas. Donc le débat, pour moi, ce n'est pas nécessairement le sens. Après, c'est évident de se le poser. Mais bon, je pense qu'il faut vraiment être mesuré. Il ne faut pas être dans des trucs trop binaires. Mais ça rejoint la question que tu as dit sur l'éthique. C'est un peu la même chose. C'est-à-dire que chacun voit ses intérêts là où il veut. Mais d'un point de vue sur la longueur, évidemment que c'est... plus impactant que c'est mieux de réfléchir à mettre des usages éthiques et de la réflexion éthique en amont pour avoir un projet qui tient la route sur quelques années et qui ne va pas exposer en plein vol et qui ne va pas avoir des effets délétères qu'on n'aura pas prévus. De toute façon, on ne peut pas prévoir l'avenir.
- Speaker #0
Ça, c'est certain. Tu m'as fait penser à quelque chose en même temps que tu as développé sur les différents états. Et ce qui est très pertinent, c'est que tu as dit finalement, on ne sait pas si la société qui innove actuellement, sans se tenir compte de la régulation, aura des meilleurs résultats que celle qui prend son temps et en plus d'innover, régule. Et tu m'as fait penser à quatre figures spécifiques que je reprends souvent, mais parce que c'est l'un de ceux qui m'inquiètent le plus. Je prends l'exemple d'un recrutement RH. je vais demander, je vais utiliser une solution d'IA pour recruter un ou une directrice. Les biais intégrés font que l'IA va plus me proposer un homme cinquantenaire qu'une femme trentenaire, parce que 90% de sa base de données est composée d'hommes cinquantenaire, etc. Forcément, en utilisant ce biais, on aggrave nos propres biais humains. Et on va se retrouver du coup dans une société qui aura régressé, parce qu'en fait, ce surpoids, ce contrepoids, on essaye de lutter, et bien on a trouvé un outil qui combat nos bonnes intentions. Du coup, je ne suis même pas certaine qu'on se retrouve demain dans un monde qui soit plus efficace en ayant utilisé ces biais, par exemple.
- Speaker #1
Je suis tellement d'accord avec ce que tu dis, je ne peux que te rejoindre. En fait, c'est ça aussi qu'on oublie. On n'a pas trop développé cette partie-là, mais effectivement, quand on parle d'éthique, il y a tout ce qu'on a évoqué jusqu'à présent, mais il y a ces trucs-là de bialgorithmique qui sont profondément ancrés déjà chez nous, dans notre société, parce que les IA ne sont que des miroirs de ce que nous, on partage comme valeur et comme principe. Malheureusement, ça se retrouve dedans, et puis ça fait une boucle sans fin, et ça crée des inégalités. d'ailleurs j'ai été à une conférence la semaine dernière où j'ai parlé justement d'éthique de l'IA et de réglementation. Et juste après, il y a Cédric Villani qui est arrivé, qui a dit que c'était une catastrophe en termes d'inégalité, que les intelligences artificielles exacerbaient ces choses-là, et que ça allait avoir un impact extrêmement délétère à l'avenir sur les catégories de population les moins aisées, pas que financièrement, socialement, bref, il y a plein de trucs qui ne vont pas. Et puis ça va toujours être les mêmes, finalement, qui vont subir ces choses-là. et puis oui c'est c'est pas bon et effectivement est ce que ça a vraiment ça va vraiment optimiser la performance la productivité ce qu'on va pas tous retrouver des clowns aussi au même poste est ce qu'on va pas enfin c'est tous ces trucs là c'est faut se poser la question et
- Speaker #0
du coup est ce que l'éthique ne viendrait pas sauver ce monde qui est composé de différents éléments avec toute sa toute cette diversité, parce que justement on n'aura pas laissé un calcul pseudo probabiliste venir mettre le même résultat à chaque poste.
- Speaker #1
Ah ben c'est sûr que... Bon là tu prêches une convaincule. Oui oui,
- Speaker #0
ah oui.
- Speaker #1
Mais c'est difficile parce que tu sais c'est le truc de bon il y a la nature, les choses sont faites ainsi, nous sommes intrinsèquement des individus, nous sommes humains, nous avons notées caractéristiques. Et à côté, il y a l'innovation technologique qui est là pour faire de l'humain augmenter et tout ça. Bon, c'est difficile, c'est très dans le conflit, tout ça. Et c'est parfois difficile de trouver sa place entre ce qu'on considère comme étant, alors je mets des gros guillemets, naturel, comme étant considéré comme la nature humaine et des trucs qui sont là pour faciliter la vie ou nous restreindre ou nous contraindre. C'est assez compliqué.
- Speaker #0
Merci beaucoup. Alors, j'aurais une dernière question. Pour toi, dans ta réflexion, dans tes recherches, est-ce qu'il y a quelque chose, un point, une clé, une notion ? qui te semblent très importantes sans que tu n'entendes... et que tu constates qu'on n'évoque pas assez dans l'actualité, ou qu'il n'est pas suffisamment débattu ?
- Speaker #1
Il y a deux choses qui me viennent à l'esprit. La première, c'est la relation homme-machine, donc ce que je disais, la relation anthropomorphisée, où on a des concepteurs qui font des interfaces qui nous poussent à considérer la machine comme étant une entité propre. qui reflètent mes propres caractéristiques humaines et qui pourraient peut-être même être un humain caché quelque part, parce que les discours médiatiques qui nous disent « telle intelligence artificielle a dit que je suis consciente et je ne veux pas qu'on m'éteigne » et machin, toute la journée au bout d'un moment ça commence à rentrer dans la tête. Et je pense que l'impact des intelligences artificielles sur les jeunes, c'est une chose qu'on ne mesure pas encore assez, ce sont eux les premiers utilisateurs qu'il y a, ce sont eux les premiers, les premières groupes qui ont des impacts sur l'intelligence artificielle, et c'est les premiers qui vont prendre en compte. sur comment est-ce qu'on va éduquer, comment est-ce qu'on va comprendre et apprendre cette relation entre les mortelés, la relation entre machines. Et il y a aussi une autre chose qui rejoint un peu ce que je dis, c'est que j'ai publié un article sur l'IAGROC, qui est sur X, et on a, à l'instar de tous ces algorithmes qu'on a maintenant dans notre quotidien, ce truc-là de l'intelligence artificielle. qui s'installent et se misent sur les plateformes numériques sans qu'on s'en aperçoive, grogne maintenant, on peut l'invoquer, le convoquer dans un débat public. Donc, quand je pose une question, je partage avec quelqu'un, parce que c'est propre des réseaux sociaux, de partager avec d'autres individus, j'ai, pour confirmer ou infirmer le propos de quelqu'un, l'invocation de l'intelligence artificielle. En plus, le personnage qu'il a créé, ce n'est pas non plus quelqu'un qui est très... ses propres intérêts, ses propres idéologies. On invoque cette IA comme groc pour être l'oracle avec une forme de vision messianique sur la vérité, c'est ça. Et ça clôt le débat et tout le monde se tait. Et donc l'apporteur de vérité c'est l'intelligence artificielle. Et la société de demain ça va peut-être, probablement être ça. Parce que les plateformes numériques comme les réseaux sociaux, ça a un impact absolument significatif sur la société. Et je ne suis même pas sûre qu'on se rende compte du poids de ces choses-là. actuellement sur les jeunes qui arrivent et qui sont en train de devenir... Parce que là, ils ont 25-30 ans, du coup, je me mets dedans, on a utilisé les réseaux sociaux à cet âge-là, on a commencé un peu plus jeune, mais on était cette génération-là. Qu'est-ce que ça va devenir demain si tout devient glissement entre sphère numérique et sphère privée, que ça s'immisce dans le public, le débat, dans les relations interpersonnelles ? Qu'est-ce que ça va modifier chez nous ? Pour moi, mon point d'attention est là. Qu'est-ce que ça va modifier dans nos relations interpersonnelles, dans notre rapport à l'individu et dans notre rapport à nous-mêmes ?
- Speaker #0
Ce qui est vertigineux comme interrogation quand on y pense bien. Alors, n'est-ce pas une excellente manière de laisser nos auditeurs sur que sera demain ? Mais effectivement, c'est un vrai point d'intention. Je pense même que... Même les politiques maintenant s'en saisissent avec la proposition d'empêcher, d'interdire les réseaux sociaux avant 15 ans pour laisser un peu cet esprit critique se former. Je ne suis même pas sûre. Personnellement, je n'avais pas d'esprit critique formé à 15 ans. Je ne suis même pas sûre que dix ans après mon esprit critique était suffisamment formé non plus. Je crois vraiment que... Comme tu l'as dit, le point clé, c'est l'éducation. On doit éduquer. Et l'inquiétude, c'est qui doit éduquer et quand ? Quand j'entends qu'en Chine, on commence à éduquer dès le plus jeune âge sur l'intelligence artificielle pour détecter ce qui est faux et ce qui est produit par l'intelligence artificielle et ce qui ne l'est pas. Oui, peut-être qu'il faudrait accélérer sur l'éducation pour pouvoir sauver un peu de notre esprit critique en réalité.
- Speaker #1
Nous, je ne vais pas faire la pessimiste non plus, mais je vais dire les choses, je vais dire les faits. J'ai été prof plusieurs années dans l'éducation nationale. On est en 2025, il n'y a toujours pas de cours dédiés à la compréhension des réseaux sociaux pour les ados. On leur interdit tout, mais il n'y a personne pour leur dire comment ça marche, ce qu'il faut faire et pas faire. Alors l'intervention de une heure dans l'année sur c'est quoi Facebook et comment ça marche, ça ne suffit pas. Ça ne suffit pas du tout. Et là, on débarque avec, alors ne vous inquiétez pas, il y aura quelques heures de cours sur l'IA en quatrième et en seconde. Alors, qu'est-ce qui va donner ces cours ? C'est des intervenants spécialisés ? Est-ce que c'est des profs qui ne sont pas formés, qui ne comprennent souvent pas ces trucs-là ? Est-ce qu'il y a vraiment un cadre ? Ou est-ce que c'est juste histoire de dire, bref, on écoute moins la ramasse ? Mais de toute façon, l'éducation, c'est en grande souffrance, en grande, grande, grande souffrance, pour plein de raisons différentes. Donc, commençons par là, tout simplement. Mais faisons le bien, ne le faisons pas juste avec des mots, faisons-le concrètement avec des actions.
- Speaker #0
N'est-ce pas ? Alors, est-ce que tu aurais un mot optimiste ? pour laisser place à la réflexion, mais en restant sur une touche positive.
- Speaker #1
Moi, je suis très optimiste face à tout ça. Parfois, j'ai des discours, on me dit que je suis anti-IA ou que je la snob ou que je ne comprends rien et tout. Non, c'est juste que je réfléchis, je me questionne, j'ouvre des portes. Des fois, je dis que c'est bien, des fois, je dis que c'est mal. C'est ça qu'il faut faire. Il faut voir et les bons côtés et les mauvais côtés, continuellement s'interroger, chercher, vérifier, apprendre, comprendre. L'émancipation, elle commence par là. L'émancipation, elle est comprise par la compréhension du monde. Et elle commence aussi par la formation de l'esprit. C'est pour ça que je disais tout à l'heure, doutons. C'est très important de douter. Échangeons aussi entre individus. Conservons nos rapports sociaux. Et puis, moi, je pense que... Alors, Stéphane Hawking disait que l'intelligence artificielle serait soit la meilleure chose arrivée à l'humanité, soit la pire. C'est très binaire comme vision et c'est un petit peu catastrophique. Mais moi, je pense que ça peut être une des meilleures choses qui pourraient arriver à l'humanité. Parce que... Dans la santé, ça peut être fantastique. Pour le développement de, je ne sais pas, l'environnement, pour certaines problématiques, ça peut être fantastique. Voilà, il y a du bon et du mauvais partout. Mais je pense que si on continue en ce sens, en se posant les bonnes questions, en formant et en prenant les bonnes décisions d'un point de vue éthique, et surtout en étant dans un cadre éclairé, je pense qu'il n'y a pas de risque qu'on tombe dans la guerre de l'intelligence artificielle et où on va tous être remplacés. On n'ira pas vivre sur Mars avec Elon Musk, il n'y a pas de problème. Tout va bien se passer. Sam Altman ne nous remplacera pas tous par des machines. Tout va bien aller. On est 8 milliards sur Terre, ou je ne sais plus combien aujourd'hui, peut-être 9 milliards. Ça va aller.
- Speaker #0
Je te remercie beaucoup. Merci pour toutes ces clés de compréhension et pour ce débat qui m'a beaucoup éclairée et qui, j'espère, aura également éclairé les auditeurs. Voilà. Merci Amélie Raoul. Je rappelle que... Tu formes également aux usages éthiques de l'intelligence artificielle pour ceux que ça intéresserait. Voilà. N'oubliez pas de vous abonner. Merci.