- Speaker #0
C'est quelque chose que parfois les gens ne savent pas, mais un laeticien ne se positionne pas. Le but du laeticien n'est pas de dire ça c'est une bonne action, ça c'est une mauvaise action. Souvent le laeticien d'ailleurs c'est une personne externe. Ce n'est pas la personne qui doit prendre la décision, parce que si tu prends la décision, évidemment tu es biaisé. Je vais prendre un exemple extrêmement concret, ce qui s'est passé récemment avec Google et Gemini. On a remarqué que notamment les grands générateurs d'images que sont Midjourney ou Dali, quand tu leur demandais l'image de un docteur, tu vois, ce n'est pas genré, c'était toujours un homme, blanc, et souvent avec des lunettes. Oui, même en fait, les médecins, tu dois avoir des lunettes, c'est obligé. Le progrès technique, génial. L'IA, génial. Est-ce que c'est pour toutes et tous ? Ou est-ce que c'est du progrès technique uniquement pour celles et ceux qui bossent déjà avec de l'IA, qui vont s'enrichir là-dessus, etc. Pour moi, c'est quelque chose que je dis souvent, c'est que tu n'as pas de progrès technique sans progrès social. Il y avait une étude, il y a un an, un an et demi, où plus de 50% des Américains se considéraient plus inquiets qu'excités par l'IA. Et donc, à moi, tu dis, ah, même les Américains.
- Speaker #1
Les portraits de Lya avec Leïla et Benoît.
- Speaker #2
Bonjour à tous, chers auditrices et chers auditeurs, et bienvenue pour ce nouvel épisode des portraits de Lya. Aujourd'hui, nous accueillons Louis de Diezbach pour un épisode spécial sur Lya et l'éthique.
- Speaker #0
Salut Louis. Salut Benoît.
- Speaker #2
Voilà, et comme toujours, Leïla nous accompagne.
- Speaker #1
Bonjour tous les deux.
- Speaker #2
et à nos auditeurs et à nos auditrices évidemment évidemment alors je propose qu'on saute directement dans le vif du sujet oui
- Speaker #1
Qui es-tu ? Qui es-tu ?
- Speaker #0
Vaste question. Je vais essayer de répondre d'une façon assez courte, assez succincte. Je m'appelle Louis Diasbacht, effectivement. J'ai 32 ans et je pense que je me définis toujours par trois piliers. Premier pilier, je suis papa de deux enfants et mari d'une femme merveilleuse. Je pense que c'est important, surtout quand on parle d'éthique de l'IA, de se raccrocher à des choses qui sont extrêmement tangibles, comme notamment la famille. C'est hyper cliché de dire ça, je me rends compte quand je m'écoute, mais voilà, je pense que c'est important. Deuxième chose, ce que je fais le jour, c'est que je suis consultant, notamment dans la tech au Boston Consulting Group, au BCG. Et ce que je fais la nuit, on va dire ça, ou les week-ends, ou quand j'ai un petit peu de temps libre, je fais de l'éthique de la tech. C'est-à-dire que j'essaie de me pencher sur... les différentes questions qu'on peut se poser à travers la tech. Moi, ce qui m'intéresse particulièrement, c'est ce que notre rapport à la tech dit de nous, de notre rapport aux autres et de notre rapport à nous-mêmes. Et ça, je pense que c'est vraiment des questions qui m'intéressent énormément.
- Speaker #1
Et d'où vient cet intérêt prononcé pour ce sujet ?
- Speaker #0
Alors je pense que j'ai toujours voulu faire de la philo et donc je pense que comme beaucoup de gens qui veulent faire de la philo mes parents n'étaient pas chauds et donc j'ai fait Solvay pour rassurer mes parents. C'est pas tout à fait vrai, en vrai je raconte souvent l'histoire exactement comme ça que ça s'est passé mais en vrai je pense que si j'avais dit à mes parents que je voulais faire de la philo ils auraient fait une drôle de tête. Mais donc non, non, non, d'abord j'ai fait des études à Solvay puis j'ai bossé pendant quelques années dans une petite boîte de conseils et en fait pendant que je travaillais là-bas j'ai eu l'occasion de faire en parallèle un master en éthique et en philo à l'ULB Et j'ai eu plusieurs professeurs, dont notamment Thomas Berns, qui m'a donné cours d'éthique de l'information et de la communication. Et j'ai trouvé ça incroyable. J'ai vraiment trouvé que c'était absolument passionnant. Et donc, j'ai décidé vraiment de faire tous mes travaux, tout ce qui était possible là-dessus, pour creuser les philosophes, les différents esprits, les différents penseurs qui ont analysé les questions de la tech. principalement au XXe siècle, et j'ai aussi fait mon mémoire là-dessus, j'ai voulu vraiment creuser, ce qui est en revanche assez amusant, et je pense entre nous un peu dramatique, c'est que je pense que 60-70% des étudiants avec qui j'étais, étaient aussi intéressés par l'éthique de l'IA et l'éthique de la tech. En revanche, un master en éthique, c'est très centré théorie de l'éthique fondamentale, c'est très centré bioéthique, c'est un peu centré éthique de l'environnement. Mais en fait, pas tellement éthique de la tech. C'est là que j'ai trouvé que l'offre de cours était un peu en retard par rapport... par rapport aux enjeux et à ce que je pouvais lire, à ce que je pouvais voir comme documentaire, à ce que je pouvais écouter comme podcast. Je me disais, mais attends, c'est quand même ouf de se dire qu'il y a tout ça qui se passe et les cours que j'ai, pour moi, ne répondaient pas aux questions que j'avais envie de me poser. C'est pour ça qu'après, j'ai eu mon diplôme, super, je suis éthicien, philosophe, j'ai décidé de continuer à creuser ces questions-là. Et donc, c'est à peu près à ce moment-là, j'ai aussi commencé à écrire, notamment pour l'écho et pour la libre. et ils ont été sympas ils m'ont publié une fois, deux fois, trois fois et puis donc on a commencé à continuer à bosser ensemble puis j'ai sorti mon premier livre et en fait il y a un peu un effet boule de neige plus t'as l'occasion de discuter avec des gens etc etc plus toi tu te spécialises aussi tu commences à lire des trucs pour essayer de quand même pas dire trop des bêtises et donc voilà c'est un peu comme ça que je me suis retrouvé aussi ici je pense qu'en fait on s'est croisés virtuellement Exactement Un événement avec Philippe Dambly qui présentait son livre sur l'IA
- Speaker #1
Aussi un livre Et encore un livre sur l'IA,
- Speaker #0
c'est vrai qu'il y a beaucoup de livres Ce n'est pas un bon moment pour sortir un livre sur l'IA Que les auditeurs et les auditrices le sachent ce n'est pas un bon moment pour sortir un livre sur l'IA
- Speaker #2
C'est peut-être le bon moment Il y a de plus en plus de personnes intéressées donc au final il y a plus de demandes mais il y a vraiment beaucoup d'offres en tout cas
- Speaker #0
Tu sens le côté solvay Que les gens fassent leur choix et donc voilà c'est comme ça un peu que tu commences à croiser des gens et c'est toujours ce que je dis de façon un peu marrante c'est que sur LinkedIn je fais énormément de choix, je trie énormément qui je suis, qui je ne suis pas parce que sinon tu lis un peu trop de trucs et en fait je me suis créé artificiellement une chambre d'écho dans le sens où je ne vois que des trucs de gens qui sont d'accord avec moi donc je ne lis que des choses des gens qui font de l'éthique de l'IA à peu près et donc ce qui a premier biais c'est que j'ai l'impression que tout le monde parle d'éthique de l'IA alors qu'en fait évidemment pas du tout c'est juste que Je dirais peut-être en Belgique, il y a 100 personnes qui parlent d'éthique de l'IA. Je pense qu'il y en a peut-être 90 que je suis et je lis leurs trucs. Donc, je me dis que tout le monde en parle alors que ce n'est pas le cas. Mais voilà, je pense qu'il y a en tout cas beaucoup, beaucoup de choses à faire en Belgique. C'est pour ça que j'étais hyper enthousiaste sur votre podcast quand vous l'avez lancé. Parce que je me dis, OK, cool, en Belgique francophone, il n'y a pas grand-chose. En IA et même à large, en éthique de l'IA. Et donc, je me suis dit, c'est parti. Trop chouette de pouvoir participer aussi. Et donc, je suis hyper content d'être là.
- Speaker #1
Merci.
- Speaker #0
C'est une longue réponse pour une petite question.
- Speaker #1
Une question de philosophe.
- Speaker #0
Une réponse de philosophe.
- Speaker #2
Moi, j'ai une question sur le... Est-ce que tu parles du fait qu'il n'y avait pas encore d'offre de cours spécifique à l'époque ? On parle de quand ? C'est à 5 ans, 10 ans ?
- Speaker #0
Si seulement, non, c'est en 2020, 2021.
- Speaker #2
Ah oui, d'accord.
- Speaker #0
C'est vraiment récent, en fait. Pour te redonner les dates, je suis sorti de Solvay en 2016. Je commençais à bosser. J'ai fait mon master sur 3 ans de 2020 de Milan.
- Speaker #1
Ah oui ?
- Speaker #0
C'est des étudiants qui ont bénéficié du Covid. Parce que justement, comme je bossais en même temps, c'était un peu galère. On a eu le premier enfant en plus à ce moment-là. C'est vraiment un super alignement. Mais j'ai un peu bénéficié de pouvoir faire plus de cours à distance que d'autres étudiants. J'ai étalé le masseur en trois ans au lieu de deux. C'était très récent. Et de toute façon, aux dernières nouvelles, l'offre de cours n'a pas tellement changé. Je ne blâme pas l'ULB. Moi, j'ai fait mes étudiants à l'ULB, mais à l'UCL, c'est pareil. À Liège, c'est pareil. La KUL est un petit peu plus en avance, je pense, en Belgique, en termes d'éthique de l'IA, avec certains, je pense à Nathalie Smua, notamment, qui mène beaucoup, beaucoup de choses, avec énormément de talent, là-bas, ou à l'eau de Landswerk, aussi, qui fait des choses vraiment, vraiment très chouettes. Mais, en règle générale, voilà, moi, il y a plusieurs gens qui me disent, mais attends, Louis, ce que tu fais, est-ce que tu ne serais pas mieux à Londres ou à Paris ? Effectivement, quand tu regardes à Paris, des gens, dans tous les sens, il y a effectivement énormément de débats là-dessus, et je pense que c'est des choses qu'on...
- Speaker #1
on pourrait faire mieux en tout cas ok rentrons un peu dans le vif du sujet maintenant qu'est-ce que c'est que l'éthique de la tech ça consiste en quoi et je reviendrai après sur la question du pourquoi est-ce aussi important dans la tech et aussi dans l'intelligence artificielle
- Speaker #0
J'allais juste démarrer un tout petit peu avant. C'est quoi l'éthique ? Après, on rentrera sur l'éthique de la tech, mais c'est quoi l'éthique ? L'éthique, on peut diviser en deux parties. Il y a une sorte d'éthique qu'on appellerait l'éthique normative et puis l'éthique appliquée. L'éthique normative, pour la faire vraiment large, on pourrait répondre en deux heures à cette question. L'idée, c'est vraiment de faire court. Les puristes m'excuseront. L'éthique normative, c'est une sorte d'éthique qui déterminerait ce qui est bien et ce qui est mal. C'est ce que l'on compare à la morale. C'est quoi le bien et le mal ? L'éthique appliquée, c'est d'essayer, en utilisant le cadre qui est donné par ces normes, de réfléchir, tiens, dans des applications concrètes, bon, ben voilà, qu'est-ce qui est bien, qu'est-ce qui est mal, c'est-à-dire en sachant que, c'est quelque chose que parfois les gens ne savent pas, mais un éthicien ne se positionne pas. Le but de l'éthicien n'est pas de dire, ça c'est une bonne action, ça c'est une mauvaise action. Souvent l'éthicien d'ailleurs, c'est une personne externe. Ce n'est pas la personne qui doit prendre la décision, parce que si jamais tu prends la décision, évidemment tu es biaisé. Donc c'est déjà un premier biais. Donc pour éviter ce biais-là, prends quelqu'un qui est ex-saint. Donc l'éthicien, c'est un peu son boulot, c'est de venir et de dire, vous avez tel type de règles en place dans votre entreprise, parce que là je parle plus d'éthique de la tech à ce moment-là, mais ça peut être dans d'autres choses, vous avez envie de respecter ces règles, voilà les grandes règles éthiques, les grands cadres éthiques qui existent, il y a l'utilitarisme, il y a la déontologique ancienne, il y a l'éthique de la vertu qui sont différents types d'éthiques, je reviendrai dessus dans une seconde, voilà. selon tout ça, voilà comment est-ce que tu pourrais justifier telle ou telle action. Et est-ce que telle ou telle action se justifie ? Je vais prendre un exemple concret parce que ça va un peu plus parler. Si jamais on va prendre un exemple vraiment très clivant, comme ça, ça parle très vite à tout le monde. L'exemple que je prends souvent, c'est celui de la torture entre deux grandes éthiques qui seraient l'utilitarisme, qui en gros peut résumer le plus grand bonheur du plus grand nombre. une action est dite bonne si elle bénéficie, en gros elle produit plus de bien qu'elle ne fait de mal, et la déontologie cancienne qui est juste, en gros il y a des choses que tu dois faire, des choses que tu ne dois pas faire, c'est également une éthique dite du devoir. L'utilitarisme, la torture, évidemment c'est oui. Si jamais tu peux, je ne sais rien moi, sauver mille personnes parce que tu tortures une personne, Dans cette éthique-là, évidemment tu peux. Et donc, Laetitia a appliqué, elle vient de dire, dans les règles qui existent, etc. Tu peux justifier la torture par tel type de règles, tel type de framework, etc. La déontologie est ancienne, on ne traite jamais une personne uniquement comme un moyen. On doit toujours la traiter en même temps comme une fin. et donc suivant ça tu ne peux pas torturer quelqu'un parce que tu ne respecterais pas la personne et la dignité de la personne en elle-même, tu l'utiliserais que comme un moyen et donc jamais on torture quelqu'un et donc là même si c'est pour sauver 1000 personnes 2000 personnes, 20 000 personnes, 1 million de personnes on ne torture pas, point. Et donc selon un peu les cadres que toi tu veux respecter, l'éthique normative que tu t'es fixée, à ce moment-là voilà ce que tu peux suivre, voilà ce que tu ne peux pas suivre, etc. Et donc l'éthique à la base ce n'est que ça Ce n'est pas beaucoup plus que ça que juste de comprendre, d'agencer des arguments, des justifications à certaines actions, d'essayer de comprendre qu'est-ce qui peut être bien, qu'est-ce qui peut être mal, selon les règles de chacun et de chacune. Et donc de nouveau, l'éthicien ne vient pas t'expliquer, voilà le cadre de valeur que tu dois avoir. L'éthicien peut avoir son propre cadre de valeur, mais ça c'est en tant que personne, ce n'est pas en tant qu'éthicien. Et donc pour moi, c'est un peu cette grosse différence. Et en revanche, est-ce qu'il y a une éthique de la tech ? Oui et non. Oui, parce qu'il y a des règles spécifiques au monde de la tech, il y a des valeurs spécifiques au monde de la tech, il y a des problèmes spécifiques au monde de la tech. En revanche, le travail en lui-même reste le même. C'est-à-dire, l'éthique normative à la base, c'est-à-dire quelles sont les valeurs en lesquelles tu crois, ça, elle ne change pas. Que ce soit de la bioéthique, de l'éthique environnementale, de l'éthique de la tech, pour ça, pour moi, c'est censé rester pareil. Donc voilà, l'éthique... Moi, je pense qu'un très bon exemple de comment est-ce qu'on peut faire de l'éthique de la tech, c'est d'avoir des comités d'éthique, donc des gens externes, qui sont au courant de certaines valeurs qu'il faut respecter, qui disent, voilà, selon ces valeurs-là, voilà l'action à mener, voilà l'action à prendre, et voilà pourquoi est-ce qu'on la prendrait et comment est-ce qu'on pourrait la justifier. Ça, c'est... En gros, l'éthique de la tech, comment ça marche et comment ça peut marcher.
- Speaker #2
Tu peux donner un exemple concret sur un projet ou pour un type d'entreprise ? Je ne sais pas si tu en as en tête comme ça.
- Speaker #0
En fait, il y a plein de projets. Pour moi, je suis un grand partisan de ce qu'on appelle l'ethics by design, c'est-à-dire d'essayer d'incorporer l'éthique dès le début de la conception d'un projet et pas par la suite. Mais si on rentre dans une des grosses questions qui se posent souvent, c'est l'utilisation des données des utilisateurs. C'est une question. Donc toi tu es, je sais pas moi, product manager, tu es en train de construire un produit, tu travailles avec des devs, etc. Une équipe, on te demande de faire ça et puis d'un seul coup tu dis, mais en fait ces données, qu'est-ce qu'on en fait ? Tu rapportes un peu, dans tes rapports tu dis, on va collecter ces données-là. Qu'est-ce qu'on en fait ? Alors déjà, ces données-là, c'est quoi ? Est-ce que c'est uniquement les données dont tu as besoin ? Parfois, on réalise souvent que tu peux demander à la personne son nom, son âge, sa date de naissance, et tu vas dire, tiens, je vais aussi lui demander son genre. Tu n'en as pas besoin pour le fonctionnement de l'utilisation de l'application, mais c'est toujours des données en plus. Ça, est-ce que c'est OK ou est-ce que ce n'est pas OK de faire ça ? C'est la première chose. Première question, est-ce que tu peux demander plus d'infos que ce dont tu as directement besoin ? C'est une première question. Et ça ? techniquement, alors tu me diras maintenant avec le GDPR, on commence à fixer ça beaucoup, beaucoup plus. Mais à la base, c'est des questions, on se dit, écoute, un max de données, mieux c'est. Tu vois, plus on a de données, mieux c'est. Donc, c'est des questions éthiques qui se posent, c'est est-ce que c'est une bonne chose de faire ça ? Est-ce qu'on a le droit de faire ça ? Est-ce que c'est OK de faire ça ? Ça, c'est une première chose. Deuxième chose, c'est OK, une fois que tu as les données, qu'est-ce que tu en fais ? Est-ce que tu les utilises uniquement pour l'application ? Et donc, tu vois, toutes ces questions-là, c'est des questions où toi, en tant que product manager... Ce n'est pas vraiment ta responsabilité de répondre à ça. Quand on t'a demandé de définir un produit, tu remarques que tu récupères des données. Qu'est-ce que tu vas faire de ces données, etc. Pour moi, ce n'est pas à toi de répondre à ça. En plus, généralement, un product manager n'est pas forcément formé à l'éthique, à la philosophie. ce n'est pas forcément son rôle à lui ou à elle. Pour moi, c'est sa responsabilité de remonter le point et ensuite espérer qu'il y ait au sein de l'entreprise la gouvernance appropriée pour dire Hum, cette condition-là, c'est une grosse question, qu'est-ce qu'on en fait ? Si jamais tu as juste un CEO qui dit Bon ben voilà, mettre des puces dans la tête des gens, c'est une bonne idée, on y va. si tu peux faire tous les comités d'éthique que tu veux, si jamais c'est des comités d'éthique de la boîte, si jamais la vision du CEO ou de la CEO, c'est on va mettre des puces dans la tête des gens, si jamais on te dit quoi qu'il en faut, il faut justifier ça, tu peux avoir un comité d'éthique comme tu veux, malheureusement, ça ne servira pas à grand-chose.
- Speaker #1
On utilise actuellement, à travers d'ailleurs le GDPR, le principe de miniménaïsme. Exactement, oui.
- Speaker #0
Et je te disais, toi, avec le GDPR, maintenant, il y a des choses que tu ne peux plus faire. Après, moi, je fais un peu toujours la grosse différence. Pour moi, c'est que l'éthique, tu as... pour moi je dirais la première barrière éthique le premier truc que tu dois respecter c'est la loi tu vois moi je pars du principe que généralement dans une démocratie qui fonctionne bien etc je suis pas ici pour faire de la politique mais on va partir du principe que on est dans un état qui fonctionne etc la première barrière entre guillemets éthique c'est que tu respectes la loi ça c'est un premier truc d'où ça c'est un peu mon propos le fait que je pense que moi je crois beaucoup dans le régulateur et le fait que notamment tu vois il va pousser certains textes certaines certaines régulations pour permettre notamment aux entreprises qui potentiellement ne voudraient pas faire d'éthique de ne plus trop avoir le choix et donc c'est malheureusement une sorte c'est les bases de l'éthique mais au moins là t'es un peu obligé de respecter ça puisque maintenant ça va être imposé par le régulateur donc ça moi je pense c'est c'est pas si mal, finalement. Ça peut être quand même assez intéressant. Et puis après, au-dessus de ça, tu as, je dirais, différents principes, le respect des droits fondamentaux, la transparence, l'explicabilité, la diversité, donc tu as un peu toutes les questions de biais qui vont venir se poser, etc., qui ne sont pas directement dans... Tu vois, aujourd'hui, la loi ne te dit pas, ton jeu de données doit être représentatif de la population. Et entre guillemets, heureusement que la loi ne dit pas ça, parce que sinon... tu es très très très mal barré. Donc ça risque d'être très très très compliqué. En revanche, derrière, tu peux faire des choix. Je vais vous donner un exemple extrêmement concret. Ce qui s'est passé récemment avec Google et Gemini. On a remarqué que notamment les grands générateurs d'images que sont Midjourney ou Dali, quand tu leur demandais l'image d'un docteur, en anglais ça marche mieux, c'est un docteur, ce n'est pas genré, c'était toujours un homme, il est souvent avec des lunettes. Why ? Ne me demande pas, tu es médecin, tu dois être dans des lunettes, c'est obligé. Tu demandais un nurse, un infirmier et une infirmière, évidemment c'était toujours une femme. généralement plutôt sexy, aucun rapport, ce n'est pas du tout une job description, et pourtant les images qu'on sortait c'était assez souvent ça. Et donc Google s'est dit, on a beaucoup tapé dans la presse sur... sur OpenAI, etc. parce que c'était incapable d'être diverse, on va faire l'opposé.
- Speaker #2
Ils ont retiré leur modèle, je pense,
- Speaker #0
non ? Alors, entre-temps, ils ont retiré, effectivement. Le backlash a été terrible. Ils ont dit, OK, on va débiaiser à fond dans l'autre sens. Et donc, maintenant, à tel point que, et effectivement, c'est un problème, tu demandais l'image d'un soldat nazi, t'avais des soldats noirs. Effectivement, quand tu sais ce que les nazis faisaient aux noirs, c'était quand même border. Même si, entre parenthèses, il y avait des bataillons de soldats noirs dans les régimes nazis, mais c'est vraiment très, très minimaliste. Donc... Effectivement, c'est un problème. Il demandait une image des pères fondateurs des Etats-Unis. Tu avais des Amérindiens, etc. Et des personnes de couleur. Ils étaient en mode, non, pas du tout. Les founding fathers des Etats-Unis, c'est George Washington, etc. Ils étaient tous très blancs. Donc, il dit, dans l'autre sens, ça ne va pas. Moi, ce que j'ai trouvé extrêmement intéressant, c'est que... et moi je trouve que ça en dit beaucoup sur la société et ça c'est peut-être plus la partie philosophe de la tech et la partie éthique de la tech si on veut vraiment faire jouer sur les mots mais c'est-à-dire pourquoi est-ce que les gens gueulent quand d'un seul coup au lieu d'avoir des hommes blancs on a des hommes de couleur alors que ça fait des années que les modèles de la tech sont ultra biaisés en gros en faveur des hommes blancs et je dirais du modèle occidental que là personne dit rien parce que grosso modo pour la faire simple un modèle nazi un peu de chocolat un modèle de LLM qui te sort un soldat nazi noir ou un modèle qui te sort 100% des médecins qui sont des hommes blancs, c'est le même problème. Néanmoins, évidemment, il y en a un dont on parle beaucoup, beaucoup, beaucoup plus et qui met beaucoup, beaucoup plus de gens mal à l'aise. Alors qu'en fait, c'est juste vraiment mettre le doigt là-dessus. Moi, je pense que c'est le plus grand bénéfice de la énième boulette de Google dans sa course à l'IA, c'est d'avoir quand même néanmoins rappelé à tout le monde que ça c'est un vrai problème et qu'est-ce qu'on en fait ? Et donc moi, tu c'est ce que je te disais au début, il m'intéresse avec ça, c'est, qu'est-ce que ça, ça dit ? Qu'est-ce que notre rapport à la tech dit de nous, de notre rapport à autrui et finalement, en de notre rapport à nous-mêmes et donc de ce qu'on se dit par rapport à notre société ?
- Speaker #2
Oui,
- Speaker #1
les biais, dans tous les cas, les biais, ce sont des reflets de la société à chaque fois. Qu'est-ce que t'en penses de ça ?
- Speaker #0
Donc, la réponse courte, c'est oui. C'est des reflets de la société. Après, c'est pas forcément les reflets de la société, ça peut aussi être les reflets d'une partie de la société. C'est, tu vois, genre...
- Speaker #1
De la majorité, en tout cas.
- Speaker #0
Mais le truc, c'est que t'as quand même un peu un côté winner takes all, tu vois. Est-ce que... En Belgique, une majorité des médecins sont probablement des hommes blancs. Oui, c'est probable. En tout cas, si tu m'expliques ça, je ne trouverais pas ça fou. En revanche, c'est un biais qui existe, c'est un biais de la société. néanmoins ça veut pas dire que toutes les images de médecins qui sortent doivent être des hommes blancs donc tu vois c'est pour ça que je pense qu'il faut faire très attention, je suis très prudent sur les mots là dessus parce que je voudrais pas que ensuite des gens se servent de ça pour dire bah voilà écoutez oui certes mais la société est biaisée et c'est une bonne chose parce que elle est diverse donc il y a plein de choses dans la société du coup c'est normal que les modèles soient biaisés je pense que c'est un raccourci qui est par
- Speaker #2
contre tu te soulèves une question qui est quand même importante c'est tu peux te rendre compte qu'il y a des billets Mais c'est quoi tes critères pour évaluer qui en a ?
- Speaker #0
Pour moi, tu ne dois jamais évaluer tout seul. Pour moi, tu ne dois jamais évaluer tout seul. Alors, il y a des études qui ont été menées pour dire, tu vois, si jamais, je ne sais pas, aujourd'hui, tu fais un algo, tu vois, il y avait eu le scandale un peu de l'algo du traitement de CV d'Amazon. Tu vois, tu fais un algo pour, je ne sais pas, me recruter un data engineer. Bon, la probabilité que tu aies beaucoup, beaucoup de mecs, elle est non nulle. Je veux dire, elle est quand même même assez importante. Malheureusement, on le sait, le monde de la tech est biaisé. La représentation féminine est féminine et n'est pas. Je veux dire, les personnes de couleur, les personnes qui ne sont pas forcément d'origine socio-professionnelle importante, c'est un problème dans le monde de la tech au sens large. Néanmoins, si ton modèle ne te sort que des hommes, tu peux te poser une question. Ça, c'est un premier truc. Et après, dans l'autre sens, tu peux aussi toi-même te dire, bon, mon modèle, il m'a sorti ça, très bien. Maintenant, moi, je vais aller chercher. des personnes de couleur, des personnes qui viennent d'autres origines, des femmes, des personnes... Et donc ça va être ton boulot. Typiquement, je peux prendre un exemple, parce que c'est un truc dont je suis relativement fier. BCG travaille énormément sur le fait qu'on recrute 50% hommes-femmes. Pourtant, je peux te garantir que là où on recrute, c'est-à-dire en gros les écoles de commerce et les écoles d'ingé... la proportion, alors école de commerce c'est peut-être du 50-50, école d'ingé je te garantis que ce n'est pas du tout du 50-50 homme-femme. Et pourtant, on va faire ce qu'il faut, et donc quand on dit on va faire ce qu'il faut, ça ne veut pas dire on baisse la barre, on met la barre moins haut pour les femmes, loin de là, c'est plutôt de dire, comment est-ce qu'on va faire pour augmenter le flux entrant ? qu'on ait plus de CV féminin. Et donc ça, en revanche, c'est un choix qui n'est pas technologique, aucun rapport avec la tech, etc. C'est juste de se dire, on va juste se débrouiller pour qu'il y ait plus de personnes qui postulent, plus de femmes qui postulent.
- Speaker #1
Justement, c'était ma dernière question, et voilà que tu l'amènes déjà au tout début. Donc je vais profiter pour sauter sur cette question-là. J'ai deux questions par rapport justement au gender, au genre dans la tech. La première question que tu as soulevée, c'est qu'effectivement, généralement les boîtes tech, qu'est-ce qu'elles disent ? Pourquoi est-ce qu'elles n'arrivent pas à recruter des femmes ? Elles disent souvent, oui mais c'est normal, le funnel est déjà peu élevé.
- Speaker #0
et aucune femme on n'a aucun CV de femme chez nous donc voilà c'est normal qu'on ne recrute que des hommes alors c'est alors j'allais répondre à un truc hyper dur c'est une réponse de lâche je vais juste revenir un tout petit peu en l'air parce que c'est un peu trop de lâche mais je pense que c'est la réponse facile c'est en fait t'es face à un problème et la réponse facile c'est de dire ah bah c'est dur pourquoi c'est dur ? parce qu'effectivement et ça c'est vrai le funnel est, voilà tu veux recruter des femmes qui sont data engineers c'est moins évident Et donc effectivement, qu'est-ce que tu fais par rapport à ça ? Pour moi, il y a deux choses. Soit tu te débrouilles pour que le final soit plus important. Et donc ça, c'est un effort de long terme.
- Speaker #2
Tu veux dire promouvoir les études STEM auxquelles il y a des femmes, etc.
- Speaker #0
Ça veut dire de bosser avec les écoles, ça veut dire de bosser avec les pouvoirs publics pour dire, OK, comment est-ce qu'on fait ? C'est une vraie question. On remarque quand même que les équipes, notamment de tech, où il y a des femmes, fonctionnent mieux que les équipes où il n'y a que des hommes. Donc c'est aussi un enjeu de performance pour les boîtes. Bon ben voilà ! Mais ça implique investir de l'argent, c'est sur du long terme, ça va être compliqué. si jamais tu crois vraiment et tu ne fais pas ce qu'on appelle de l'ethics washing c'est à dire en gros de dire ouais mais bien sûr c'est hyper important pour nous alors qu'en fait le 8 mars quoi voilà c'est ça exactement le 8 mars t'as dit que la journée de la femme et puis le jour en fait rien n'a pété donc ça pour moi c'est un problème mais ça vaut pour plein de trucs ça vaut pour Pride Week pour plein de choses mais donc voilà qu'est-ce que tu fais ? concrètement qu'est-ce que tu fais ? et après ça c'est toujours une question qui biaise énormément j'ai eu l'occasion moi d'écouter justement le podcast Strange Tech où ils avaient invité Chloé et Hermari qui est la fondatrice de l'Adatex School en France. Et en fait, c'est la question des quotas. Et alors la question des quotas, tout le monde dit, non mais non, si jamais tu mets des quotas, ça veut dire qu'il y aurait des hommes qui pourraient rentrer, etc. Mais en fait, ils prendront une femme à la place. Moi je pense qu'à la base j'étais hyper contre les quotas Et puis ensuite j'ai écouté Chloé Hermari parler Je me suis dit c'est hyper smart Et en fait c'est juste qu'il y a un moment où Il n'y a plus le choix Même au delà du fait que tu n'as pas le choix C'est juste que tu es une femme, tu as 18 ans Tu te demandes ce que tu as envie de faire de ta vie Tu regardes des rôles modèles Tu vois que des mecs, évidemment que tu ne te dis pas C'est fait pour moi, consciemment ou inconsciemment C'est un problème Pour moi il faut créer des rôles modèles Je pense que d'ailleurs les femmes dans la tech malheureusement qu'elles le veuillent ou non, sont des rôles modèles et elles doivent être conscientes de cette responsabilité qu'elles ont, de dire, voilà, on va pouvoir embarquer avec nous d'autres personnes pour dire, évidemment qu'une ingénieure ou un ingénieur, en fait, c'est le même skill set, point barre. Et une entreprise, c'est ça qu'elle va chercher. Et donc ça, moi, je pense que c'est vraiment hyper important de se dire, OK, très bien, mettons des quotas. Et donc, ça veut potentiellement dire... Travailler plus, si jamais tu es une entreprise, tu te dis, pour début septembre, on veut recruter 20 young graduates, 10 garçons, 10 filles. Super, tu commences début janvier. Mi-février, tu as recruté tes 10 mecs, tu as recruté une fille. Ce n'est pas très compliqué, ça veut dire que tu as jusqu'à septembre pour recruter 9 filles, 0 mecs. c'est pas très compliqué et est-ce que ça veut dire non mais est-ce qu'il n'y aurait pas un mec bien si peut-être et en même temps bon bah voilà il n'y avait qu'à soit être là plus tôt soit machin etc parce qu'en fait là maintenant on a dit qu'on voulait ça et en tant que mec il n'y avait qu'à être là plus tôt ou l'équipe de recrutement avait qu'à le spotter plus tôt je n'en sais rien mais je n'ai pas l'impression que ce soit extrêmement injuste de dire ok on va prendre 20 places voilà 10 hommes et à un moment où les boîtes elles-mêmes vont se rendre compte elles ont recruté 6 sur les 10 filles et on voulait 10 alors on recrutait 6 bon bah à ce moment là qu'est-ce qu'elles voudront ? bon bah en fait ça devient compliqué pour les 4 restantes, super et à ce moment là on en revient sur mon travail de long terme c'est à dire aller en réto, aller expliquer aux filles que bien sûr elles peuvent aller effectivement SEM, science, technologie engineering and mathematics parfois art pour moi tout tout, j'aimerais trop qu'on ait du 50-50 dans toutes les études et de toute façon je crois que ce serait très bien qu'il y ait plus de mecs dans certaines études qui sont dites de filles, que ce soit plus la communication, même le droit, je crois qu'en droit il y a plus de filles que de... Enfin voilà, moi je pense que je trouve ça super que tu supprimes un peu tous les... Et là on sort de l'éthique de la tech à proprement parler, mais que tu supprimes tout billet de genre quelconque et que juste les gens fassent ce qui les font kiffer, quoi.
- Speaker #2
Et on devrait commencer d'ailleurs aussi par ce podcast pour avoir une meilleure parité. Les lettres sont chaque fois là, évidemment, mais c'est vrai que dans les invités, c'est un plein de sujets en fait. On en a une petite dizaine et je pense qu'au niveau des femmes, on en a eu une. Oui, seul. C'est tout ?
- Speaker #1
Oui, c'est vrai.
- Speaker #2
Donc, oui, c'est une attention.
- Speaker #0
Alors, n'hésitez pas, moi j'ai plein de noms à proposer. Ah,
- Speaker #2
mais c'est pas... Voilà, on va vous expliquer après.
- Speaker #0
N'hésitez pas, parce qu'effectivement, et tu vois, c'est un peu... Il y a un mouvement comme ça qui est né en France et qui vient aussi en Belgique, qui s'appelle Jamais sans elle. C'est dire que, voilà, en tant que conférencier, tu ne viens pas si jamais il n'y a pas au moins une femme dans le plateau et pas une femme qui est là juste pour décorer et pour dire qu'il y a une femme. Une femme qui a aussi plein de trucs à dire et Dieu sait qu'il y en a. Et donc, voilà, moi je pense que c'est un effort collectif. Voilà, si jamais... En tout cas, vous vous dites, est-ce qu'il n'y a pas quelqu'un qui a des idées de femmes brillantes dans la tech à nous conseiller ? Il y en a plein, j'en ai plein, n'hésitez pas.
- Speaker #1
Eh bien ça, c'est vraiment super parce que c'est quelque chose, évidemment, qui m'interpelle. Étant moi-même une femme et étant aussi particulièrement impliquée dans tout ce qui est Women in Tech. Et alors, je voulais... en même temps rebondir aussi sur cette question de genre donc voilà j'ai regardé comme tout le monde la journée du 8 mars où ça pullulait de post-marketing sur on va faire un truc pour les femmes et oui bravo à toutes les femmes et j'ai été très surprise évidemment par ton post sur LinkedIn, je l'ai trouvé assez sincère ce qui est et voilà donc je voulais
- Speaker #2
Est-ce que tu peux en parler peut-être ou l'expliquer pour les auditeurs ?
- Speaker #1
Donc Louis mentionnait un peu quelles étaient les actions qui seraient destinées justement à promouvoir un plus que promouvoir même, vraiment essayer d'avoir plus de femmes dans le milieu de la tech. Et il proposait donc des actions sur le sujet. Il en dira un mot s'il le souhaite. Mais je voulais rebondir là-dessus parce que généralement, moi je viens d'une génération qui est un peu plus âgée que la tienne. Et donc dans la génération même qui est au-dessus de moi, donc ce qu'on appelle...
- Speaker #0
les boomers, clairement, ce ne sont pas des gens qui sont attachés au féminisme. Eux, ils le disent clairement. Ton histoire de féminisme, on s'en fout. Les gens de ma génération à moi, c'est plutôt... compétences égales. On va regarder d'abord les compétences, après, on verra. Et je suis assez étonnée que la génération des 30 ans est beaucoup plus ouverte à cette notion-là. Et voilà, je voulais simplement souligner ça et que je trouve ça vraiment intéressant de cette génération-là, de la trentaine, on va dire, qui a été éveillée à ce concept-là
- Speaker #1
et je trouve que c'est une bonne augure pour le futur peut-être deux retours comme ça à la HO alors un je pense qu'on a peut-être une génération éveillée qui mériterait sûrement d'être beaucoup plus réveillé. Je pense que, mine de rien, dans ma génération, il y a encore beaucoup de personnes qui ne sont pas forcément sensibles à ça. Moi, j'ai la chance d'avoir des amis et des amies hyper réveillés qui m'ont mis les 2-3 baffes dont j'avais besoin à la base. Je dis souvent, je m'appelle Louis De Diezbac. Je suis vraiment un petit garçon blanc, jamais eu faim, jamais eu froid, jamais eu soif, jamais eu de problème. J'ai fait mes études à Solvay. J'ai eu la chance aussi d'avoir été parfois confronté à ces trucs-là et des gens qui m'ont juste... rappeler que j'étais un mec hyper privilégié et ce que je suis vraiment à tellement de niveaux. Tu vois, rien que le fait d'avoir pu faire mes études de philo en parallèle du taf, ça ne veut pas dire que je n'ai pas bossé, mais ça veut dire qu'honnêtement, il y a quand même beaucoup de gens qui n'auraient pas cette chance. Donc, je pense que c'est quand même un premier truc. Après, si jamais on se recentre plus sur le monde de la tech, Moi, tu vois, sur le recrutement, compétence égale, machin, etc. J'avais fait un chouette papier avec Georges Ataya dans l'écho sur le recrutement, notamment dans le monde de la tech et notamment dans la cyber. Moi, je pars du principe que vraiment, dans un monde qui va si vite... Recruter quelqu'un uniquement pour ses compétences, franchement, je ne vais pas dire que ça ne sert à rien parce que c'est exagéré, mais vraiment, ça va aller si vite que je préfère quelqu'un qui a les bonnes attitudes, le bon mindset, et ça, en revanche, vraiment, tu n'as même pas forcément besoin de prendre un informaticien. Si c'est quelqu'un qui est désireux d'apprendre, honnêtement, désireux ou désireuse, évidemment, en fait, ça ira très vite. Surtout pour les jeunes diplômés, et vraiment, je l'ai vu parce que j'ai recruté pas mal de gens dans ma précédente boîte. avec toute l'affection que j'ai pour les personnes qui sont pour le moment en master 2 et qui nous écoutent, et j'étais moi-même un jour en master 2, vraiment, vous savez rien de ce qui vous attend. Et c'est pas grave. Ce qui est chouette, c'est que vous soyez très motivés et que vous ayez envie de le faire, mais vraiment, vous savez rien du tout. Et donc, quand je vois des entreprises qui soit targetent juste uniquement certaines écoles spécifiques ou certains trucs, etc., je me dis que c'est pas toujours forcément la bonne approche, en tout cas en termes de diversité. Et donc, vraiment, c'est pareil pour les hommes et les femmes. Les gens qui disent qu'on veut que des ingénieurs, je pense pas. Et je pense que même pour faire de l'IT... je ne suis pas certain que ce soit absolument nécessaire. Oui, peut-être que ça va aider, peut-être que le REMPUP, les six premiers mois vont être plus évidents, etc. Mais il y a énormément de programmes. Aujourd'hui, je pense, tu vois, à des écoles comme... comme Le Wagon, comme 19, ou comme Bicode, ou comme Molengeek, qui font des trucs hyper cools et qui montrent quand même, franchement, l'informatique, si jamais tu as vraiment envie de te bouger, et que c'est un domaine qui t'intéresse, l'IT, franchement, ça peut s'apprendre en quelques semaines. Alors, tu ne vas sûrement pas être généraliste, et tu ne pourras peut-être pas sauter aussi facilement de certains domaines d'infra, d'autres, etc. Peut-être que tu aurais été formé pour faire que du Windows, et d'un seul coup, un truc Linux, et tu ne sais plus trop d'où ça... Ok, mais il n'empêche que c'est faisable. Donc, je pense que si... Moi, je préfère vraiment remettre ça du côté des entreprises. Si vous voulez recruter, pour reprendre l'exemple là, mais ça vaut pour beaucoup d'autres minorités, je le disais, mais vous voulez recruter des femmes, ce n'est pas difficile. Il faut juste un petit peu changer ses manières de faire. Et tu vois, j'en reviens exactement, tu vois ce que je disais au début. Pour moi, si tu veux faire de l'éthique dans une boîte, de la tech ou pas de la tech, ça va entre autres... Un des trucs que tu vas mettre en place, c'est une nouvelle gouvernance, c'est de nouveaux process, et notamment des nouveaux KPIs. Et de nouveau, c'est toujours un peu cette question, qu'est-ce que tu fais quand un KPI n'est pas respecté ? Est-ce que tu dis, c'est dommage, on a recruté que 22% de meufs cette année ? Ah ouais ? Et combien ? Ah bah du coup 78% de mecs. Ah bon ? Ah bah on fera mieux l'année prochaine. Bon bah effectivement, si jamais tu fais ça, qu'est-ce que tu veux ? Mais de nouveau, c'est pas la faute des recruteurs et recruteuses, c'est pas la faute des candidats et des candidates, c'est pas la faute du management, c'est aussi une question de culture d'entreprise. Et donc l'éthique, et là au-delà de la tech, c'est une sorte d'éthique des affaires, c'est une question de gouvernance, c'est une question de processus, c'est une question de culture d'entreprise. Est-ce que ça vient du top ou est-ce que ça vient pas du top ? Est-ce que ça vient juste des employés ?
- Speaker #0
là malheureusement j'enfonce un peu des portes ouvertes mais c'est aussi et beaucoup ça mais merci on a fait une grande une grande digression c'était ma dernière question je vais revenir je vais revenir sur sur le content Alors, maintenant, on revient un peu sur l'éthique. Quels sont les principaux défis éthiques pour toi auxquels nous sommes confrontés avec le développement de l'intelligence artificielle ?
- Speaker #1
Alors, on a beaucoup parlé de biais, donc je ne vais pas trop parler de tout ce qui est au sens large diversité, même si pour moi, c'est une grosse question. Moi, ce qui m'intéresse aussi beaucoup avec l'IA, c'est... c'est cette dimension politique. Alors, il y a la question géopolitique, là, je vous invite plutôt à aller lire les ouvrages d'Asma Mala et David Collomb. Ça, c'est plutôt leur truc, la géopolitique de la tech.
- Speaker #0
Ah oui, c'est intéressant.
- Speaker #1
Technopolitique, le bouquin d'Asma, et la guerre de l'information de David. Vraiment deux bouquins hyper, hyper intéressants. Mais d'un point de vue politique, moi, ce qui m'intéresse, c'est qu'est-ce que ça va dire de nous ? l'IA. Et donc, qu'est-ce que ça veut dire de nous aussi en tant que société ? Le progrès technique, génial. L'IA, génial. Est-ce que c'est pour toutes et tous ? Ou est-ce que c'est du progrès technique uniquement pour celles et ceux qui bossent déjà avec de l'IA et qui vont s'enrichir là-dessus, etc. Pour moi, c'est quelque chose que je dis souvent, c'est que tu n'as pas de progrès technique sans progrès social. Sinon, c'est juste de l'innovation. Je fais un peu la grosse différence entre ces deux termes. L'innovation, c'est super, on a, je ne sais rien, des voitures qui vont plus vite. ok c'est une innovation ce n'était pas là avant est-ce que c'est un progrès ? et bien tu vois si jamais ces voitures ne sont pas accessibles à toutes et tous si ces voitures polluent 15 fois plus que les voitures précédentes si ces voitures sont faites avec des métaux rares qui sont extraits par des enfants dans je ne sais pas quelle région en voie de développement je ne suis pas certain qu'on puisse appeler ça du progrès. Et donc ça, moi, cette dynamique-là de la tech, et qui en fait, du coup, c'est... Il y a un bouquin qui est sorti, par exemple, qui s'appelle L'intelligence artificielle n'est pas une question technologique Eh bien, je pense que vraiment, ça ne pourrait pas être mieux posé que ça. Je pense que l'IA, c'est une question économique. Je pense que c'est une question politique et géopolitique, comme je le disais. Une question environnementale, il y a beaucoup, beaucoup d'enjeux là-dessus. Il y a une question évidemment de droit humain. Une question anthropologique, on pourra revenir dessus, parce que j'ai fait un bouquin là-dessus aussi. C'est une question du coup, finalement, idéologique. On va reprendre, tu vois, un exemple très concret dans les entreprises. tu es une grosse boîte du Belvin et tu as mis en place, je n'en sais rien moi, un super chatbot GNI soit avec ChatGPT ou Cloud ou ce que tu veux. Et ça fait que tu peux diviser ton customer service par deux. Tu as 20 personnes aujourd'hui et ça pourrait fonctionner qu'avec 10. Voilà, ça c'est l'effet. Qu'est-ce que tu fais de ça ? Est-ce que, un, tu décides de licencier 10 personnes ? Est-ce que tu décides que toutes ces personnes sont payées autant mais ont le droit de travailler deux fois moins ? Est-ce que tu décides de reformer et de replacer ces personnes-là dans d'autres endroits de l'entreprise ? Et tout ça, ce ne sont pas du tout des questions techniques. ce sont des questions qui sont éminemment politiques, éminemment idéologiques, qui n'ont rien à voir avec la tech. Et c'est pour ça, moi, je reviens beaucoup sur un truc que Yann Lequin avait dit quand ChatGPT est sorti. Il a été un peu poussé à le dire, mais il disait, écoutez, ce truc-là, c'est très sexy, ça a vraiment de la gueule, etc. C'est très bien marketé, c'est très bien vendu. Mais ça n'a rien de révolutionnaire techniquement. Vraiment, ça fait des années. Et d'ailleurs, on l'a vu. Tu vois, parce que donc... ChatGPT, c'est le 30 novembre 2022. Je pense que Google lance Bard. Alors, certes, ça ne fonctionne pas aussi bien que ça, mais dans les six mois, tu ne peux pas lancer un truc pareil dans les six mois si ça ne fait pas déjà des années que tu bosses dessus. Donc, effectivement, c'est juste qu'OpenAI l'a lancé en premier. Mais tu vois, depuis, ils l'ont tous fait. Tu as Anthropic, tu as Meta à lancer son truc en open source, tu as Mistralia qui a lancé son bazar, tu as Bard, tu as tout ce que tu as. Enfin, il y en a plein maintenant qui sont sur le marché. Ce n'est pas possible s'il n'y avait que OpenAI qui arrivait dessus. Donc, en mode personne. ça n'était pas révolutionnaire en revanche les questions qui vont se poser là en revanche c'est vraiment des questions qui sont pour moi primordiales et qui m'intéressent beaucoup plus du coup en tant qu'étudiant de la tech que de savoir un petit peu je dirais voilà comment ça marche et est-ce que c'est plus ou moins plus tant qu'un ou meilleur qu'un étudiant pour passer le bar au New York
- Speaker #2
Est-ce que on est tellement d'accord mais est-ce qu'il n'y a quand même pas beaucoup beaucoup de gens qui ils voient dans l'IA la possibilité de diminuer les coûts. Et donc, ça veut dire de réduire la workforce, de vendre beaucoup plus parce que tu peux faire du targeting beaucoup plus spécifique. Donc, les aspects éthiques, finalement, en tout cas sociaux, sont vraiment clairement diminués dans la façon dont on considère la technologie aujourd'hui. Et je pense que tu as un bon exemple. Tu fais partie de ceux qui, justement, qui se battent pour que ça n'arrive pas ou en tout cas qu'il y ait un équilibre. j'ai envie de dire, c'est mon opinion mais il y a quand même 95% des sociétés ou des organisations j'ai l'impression qui voient dans l'IA une manière de diminuer drastiquement les coûts et qui vont avoir un discours peut-être de dire Oui, grâce à ça, on va libérer du temps aux gens et on va permettre de faire autre chose. Oui, mais dans les faits, est-ce que ce n'est pas de l'éthique washing ?
- Speaker #1
Je pense beaucoup.
- Speaker #2
Et comment on bat ça ? C'est quoi les options ? C'est quoi les pistes à suivre ? C'est ce que je pense. Donc en fait, ce genre de choses arrivent moins, ou en tout cas qu'on puisse les prendre en compte.
- Speaker #1
Alors moi, je suis un... Moi, je promeux vraiment beaucoup l'approche régulatoire. Parce qu'effectivement, tu sais, il y a cette phrase en anglais qui dit Don't hate the player, hate the game Tu vois, c'est une métaphore sportive et qui dit Si jamais il y a un joueur qui fait un truc que tu n'aimes pas trop, et qui respecte les règles... en vrai, il respecte les règles. il ne faut pas le détester. Il est payé pour faire ça. Tu donc, c'est un peu, les grosses boîtes, aujourd'hui, c'est ce qu'elles font. Elles réduisent les coûts. Don't hate the player, hate the game. le game, aujourd'hui, c'est de maximiser les profits pour reverser aux actionnaires. En gros, ça, c'est le game capitalistique tel qu'il existe aujourd'hui. Donc, moi, je ne suis pas un révolutionnaire. Tu moi, je ne... Je ne crois pas au fait qu'on va renverser le capitalisme et que comme ça, etc. C'est un projet qui n'est pas inintéressant, mais vraiment, je ne suis pas assez calé en économie.
- Speaker #0
Je crois que tu es consultant dans un BIFOR.
- Speaker #1
Je suis consultant, pas dans un BIFOR, mais dans le BCG. C'est clair, moi je crois aussi beaucoup dans la... dans la valeur créatrice de l'entreprise et dans l'innovation et le progrès que peuvent amener les entreprises, néanmoins, pour moi, il faut cadrer. Et c'est marrant parce qu'il faut relire Adam Smith, mais Adam Smith lui-même, déjà, un mec qu'on ne pourra quand même pas accuser d'être marxiste, il disait déjà lui-même qu'il faut impérativement cadrer et limiter les grandes organisations parce que effectivement, elles pourraient vouloir juste s'enrichir sur le dos des gens.
- Speaker #2
Tu voudrais dire mettre un cadre légal en disant que Bah typiquement... Vous utilisez de l'IAS, très bien, mais la contrepartie, c'est que vous payez plus d'impôts ou que vous receviez moins de subsides.
- Speaker #0
Certaines grosses boîtes tech américaines souhaitent mettre en place, par exemple, le revenu universel.
- Speaker #1
Oui, alors ça, c'est vraiment pas du tout mon domaine. Je ne suis pas du tout à l'aise d'en parler assez bien parce que je risque de dire beaucoup, beaucoup de bêtises et je ne préfère pas. Mais en revanche, plutôt sur d'autres questions qui sont de... on utilise de la tech, qu'est-ce qu'on fait ? Typiquement, pour moi, je crois un peu en l'AI act pour pouvoir faire ça, mais ça va être de pousser en tout cas d'autres jobs dans les entreprises. Tu vois, il y a des compliance officers un peu plus poussés, des éthiciens, pourquoi pas ? Voilà, toutes ces personnes qui vont être amenées à suivre ça et qui vont se dire, en fait, on ne peut pas faire ce qu'on veut avec l'IA. Il faut quand même un peu faire gaffe.
- Speaker #2
C'est des autres jobs, mais... Le risque, c'est qu'ils ne soient pas staffés aux personnes qui vont...
- Speaker #1
Bien sûr. Alors ça, effectivement, c'est une innovation. Qu'est-ce qu'on fait de ça ? Qu'est-ce qu'on va faire de ces personnes qui, aujourd'hui, font un boulot qui va pouvoir être tellement facilement remplacé ? J'avais fait une chronique là-dessus, c'est les allumeurs de réverbères. Les allumeurs de réverbères, c'est un vrai métier. Aujourd'hui, ça n'existe plus et ça ferait rire n'importe qui.
- Speaker #0
Comme le syndrome du maréchal Ferrand.
- Speaker #1
C'est ça. Demain, ça n'existe plus. Ce n'est pas grave autant que tel. La question, c'est juste qu'est-ce qu'on fait de ces allumeurs de réverbères ? Si on les licencie, Manu Militar est modélé, ciao, demain tu prends ton carton, t'es parti. Ça, c'est un problème. Et de nouveau, c'est pas un problème technique. C'est un problème politique et idéologique. Si à un moment, ces personnes-là, tu décides d'investir, d'échanger avec eux et avec elles pour dire, voilà, ta fonction, je suis désolé pour toi, mais quand t'as choisi une carrière, il y a... 10, 20, 30, 40 ans, en fait, tu ne pouvais pas savoir, mais la tech fait que, aujourd'hui, ta carrière, elle t'a amené à s'arrêter. Qu'est-ce qu'on fait ensemble ? Une vraie discussion. Une vraie discussion, ça veut aussi dire ne pas forcer la personne. Ça ne veut pas lui dire, écoute, tu fais ça ou tu es viré. Ça veut dire, qu'est-ce qu'on pourrait faire ? Voilà ce qu'on peut te proposer. Il y a tel plan de formation, il y a tel truc. Est-ce que c'est des choses qui sont évidentes ? Est-ce que c'est des choses qui sont chères ? Oui. Mais pour revenir sur une éthique plus normative, moi je pense que c'est the right thing to do. Je pense que c'est la bonne chose à faire quand tu mets en place des trucs comme ça. Et là, moi j'ai une approche qui est très kantienne par rapport à ça. C'est la bonne façon de traiter les êtres humains conformément à la dignité qu'ils ou elles portent. Et ça, moi je pense que c'est capital. Et les zones de traces, c'est celles-là.
- Speaker #2
Tout en plus que c'est un mouvement qui ne va faire que s'accélérer. Je pense qu'on a déjà vu quelques exemples de métiers qui sont en difficulté. de par le fait de l'arrivée de chat GPT notamment ou d'autres technologies du même style. Mais c'est que le début en fait. Et donc c'est un problème qui doit être traité, je pense, à un niveau supérieur.
- Speaker #1
Parce que... Alors moi, je pense que la question de la tech va suivre exactement la même question que je dirais les problématiques environnementales. Tu vois, donc il y a... mettons 20 ans, 30 ans, vraiment l'environnement personnel n'avait rien à carrer, c'était nulle part dans les médias, on n'en parlait pas du tout, etc. Et puis, les gens ont commencé à réaliser, donc le peuple, à commencer, la population a commencé à se rendre compte qu'il y a des trucs qui n'allaient pas. Des inondations, des incendies, des choses graves, et puis des études qui sont sorties, etc. Et vraiment des résistantes. Quand tu penses au rapport du club de Rome, c'est quand même 1972 qui déjà alertait sur le danger d'une croissance infinie dans le monde fini. Voilà, il y a des gens qui, depuis même 1970, et même il y a des exemples avant, qui disent attention, les questions environnementales, ce sont des vraies questions. Pendant tout le monde, pendant très longtemps, personne ne les écoutait. Et puis, petit à petit, les gens ont commencé à avoir un peu peur. Et quand les gens ont commencé à avoir peur, les gouvernements, en tout cas, on peut espérer dans les démocraties qui fonctionnent convenablement, ont commencé à se dire, tiens, ça a l'air d'être un sujet qui... compte pour nos citoyens, on va s'en emparer. Est-ce que c'était par visée électoraliste ou est-ce que c'était parce que vraiment ça les emparait ? Peu importe, mais il a commencé à y avoir des régulations. Et puis, next thing you know, t'as des chief sustainability officers partout. Et en gros, parce que pourquoi ? Soit par les régulations, soit parce que les entreprises se sont rendues compte, soit parce que aussi, aujourd'hui, t'es une boîte qui ne respecte pas du tout ça, il y a quand même des gens qui commencent à dire, moi je ne veux plus acheter, je n'en sais rien, tel truc dans telle marque parce qu'ils ne respectent pas telle ou telle norme. je pense que l'IA va suivre le même trajet. Pendant très longtemps, tout le monde s'en fout. Tout le monde dit, ah, c'est de la tech, c'est de la tech, c'est du progrès, c'est du progrès. Et puis, il y avait une étude, il y a un an, un an et demi, où plus de 50% des Américains se considéraient plus inquiets qu'excités par l'IA. Et donc, un mois, tu te dis, ah, même les Américains. Et donc, tu te dis, bon, là, il y a quelque chose à faire. Là, il y a quelque chose à faire. On se rend compte que... Si les gens sont inquiets, il y a peut-être un sujet dont on doit s'emparer. Et effectivement, à côté de ça, qu'est-ce que tu as ? Tu as les AI Act, tu as les États-Unis qui convoquent quand même à la Maison Blanche tous les grands patrons des big tech. Biden qui fait d'autres trucs. Il y a eu un truc en Angleterre aussi. Enfin voilà, on commence à se poser la question. Et ma théorie, c'est que d'ici, tu es un candidat, tu vas avoir des chiefs AI et ethics officers un peu partout, comme tu auras les chiefs sustainability officers. aujourd'hui, je pense que les chiefs sustainability officers, c'est beaucoup de greenwashing. Je pense qu'on va dans une direction avec de moins en moins de greenwashing et de plus en plus de trucs tangibles. Et je pense que ce pareil pour l'IA. Pendant longtemps, pendant quelques années, tu auras des chiefs et des ethics officers qui seront là juste en ethics washing. Puis après, pour moi, les comparaisons sont intéressantes.
- Speaker #2
Ils auront sans doute un rayon d'action plus facile à activer que tout ce qui est CSR, je pense.
- Speaker #1
J'espère, on verra on verra vraiment comment ça va se faire parce que c'est aussi très facile il y avait un article terrible dans le MIT Technology Review qui disait pourquoi est-ce que les éthiciens de la tech sont tous en burnout et c'est terrible parce qu'effectivement quand tu lis ça et il parlait entre autres de deux femmes brillantes aux Etats-Unis qui faisaient partie de l'équipe de Google, qui se sont fait licencier qui en ont bien bavé quand même, c'était un peu dur pour elles et vraiment parce qu'en fait toute ta journée, tu passes ton temps à aller voir des... des ingénieurs qui sont passionnés par leur taf et tu leur expliques en fait ce qu'ils font, ils devraient y aller un peu plus doucement. C'est comme, voilà, tu expliques à quelqu'un qui fait de la F1 tout le temps que là, ce serait bien qu'en fait, ils se limitent à 100 km heure. Je pense que pour quelqu'un qui a envie de faire de la vitesse, je pense que c'est difficile. Et toute l'entreprise derrière te dit il faut qu'on arrive là le plus vite possible, vraiment le plus vite possible. Mais si tu dis qu'il faut limiter à 100 km heure, mais toutes les 20 minutes, quelqu'un va t'envoyer un mail en disant T'es sûr vraiment 100 km heure ? On pourrait pas faire 120 ? Ou 115 au moins ? Et en fait, c'est un travail qui est... Et donc c'est pour ça que moi je dis beaucoup, c'est également un changement de stratégie, un changement de culture. Si jamais le boulot de AI et d'X-Officer, c'est de t'en prendre plein les dents, H24, parce que t'essaies de pousser des équipes à faire la bonne chose à faire et à respecter certaines normes et un certain cadre philosophique, ça va être terrible si c'est de temps en temps et puis on est dans la presse si jamais ça s'accompagne bien c'est chouette et moi c'est quelque chose pour lequel je plaide et j'espère vraiment que ça verra le jour dans pas trop longtemps je trouverais ça super qu'il y ait deux cours obligatoires partout dans toutes les études dans le supérieur mais même le secondaire ce serait super mais voilà c'est d'une part un cours je dirais de philo et d'éthique et voilà ça doit pas être un énorme truc mais juste qu'il soit extrêmement général et qu'il puisse permettre à chacun d'avoir les outils nécessaires ou la base des outils nécessaires pour pouvoir réfléchir à certaines questions. Et à côté de ça, un cours de tech. Moi, je pense qu'aujourd'hui, la tech est tellement omniprésente que pour une grande partie des métiers, quels qu'ils soient, ne pas comprendre comment ça marche, c'est terrible. Et l'exemple que je donne souvent, c'est l'avocat. L'avocat et les études de droit, aujourd'hui, tu n'as pas de cours d'algorithmie. Pourtant, un des métiers qui est hyper impacté... par la digitalisation et notamment par l'algorithmie, c'est bien le droit. Il y a des pays où des cas simples, des affaires simples, sont traités par des IA et pas par des avocats et par des personnes. Et donc si jamais... si les les pouvoirs publics peuvent pas s'en emparer c'est certain que pour moi ça va être un problème et même dans les grandes entreprises, si tout le monde a eu un peu un cours d'éthique, quand l'éthicien vient bon, certes, il t'emmerde mais au moins tu comprends pourquoi est-ce qu'il ou elle dit qu'il faut faire telle ou telle action, donc voilà je crois beaucoup dans cette approche qui se veut très pluridisciplinaire mais si tout le monde pouvait avoir des bases, c'est très super
- Speaker #0
Et qu'est-ce que tu en penses, toi, justement, de ces intelligences artificielles qui prennent des décisions dans le cadre, par exemple, de la justice ? Tu viens de le mentionner, ce qu'on appelle un peu, dans la IACT, de l'intelligence artificielle risquée. Est-ce que la IACT est le bon format ? pour réguler l'intelligence artificielle. Qu'est-ce que tu en penses de ça ?
- Speaker #1
Alors vraiment, en une phrase, je ne suis pas juriste, mais je trouve que c'est mieux que rien. Donc je sais qu'il y a plein de gens qui ont dit Oh, il n'y a rien qui va mais ça a le mérite d'exister. Et je pense qu'il va y avoir une version 1.0 et qu'elle ne sera pas terrible. Et j'espère qu'au fur et à mesure des années, on aura d'autres versions, etc. et qu'à un moment, on arrivera à une version 12.4 et qu'elle sera super. et ce serait génial tu vois et moi je prends souvent le GDPR comme exemple est-ce que le GDPR c'est bien sur plein de trucs non néanmoins il y a pas mal de pays et je pense notamment au Brésil au moment où le Brésil a dû mettre en place sa régulation pour le Brésil a commencé à se dire il faudrait une régulation pour protéger les données privées ils ont pris le GDPR et grosso modo ils l'ont copy paste je trouve que c'est génial je trouve que c'est extrêmement fort d'être capable de faire ça il y avait moi je dis souvent les citoyens du monde entier donc du Brésil mais aussi des Etats-Unis la Chine vit un peu en vase clos donc c'est un peu particulier mais d'Australie ne se rendent pas compte ce qu'ils et elles doivent à l'Union Européenne et au fait qu'il y a pas mal de processus qui sont mis en place et comme c'est extrêmement compliqué pour des grosses boîtes d'avoir plein de process différents selon les pays en fait généralement tu t'adaptes sur la régulation la plus dure et donc en fait il y a plein de gens dans pas mal de pays qui bénéficient aujourd'hui du GDPR, demain du DSA et du DMA, après demain peut-être de l'EI Act. Et je pense que c'est très bien. Et donc vraiment, je pense que l'approche par les risques, elle est très intéressante. Et j'ai hâte de voir ce que ça va donner. En sachant que je ne suis pas juriste non plus, mais je suis curieux de ce que ça va donner. Je suis curieux de comment est-ce que ça va évoluer. Et je trouve que c'est intéressant parce que ça permet à l'UE de tacler plus ou moins convenablement la question de... non mais la régulation ne pourrait jamais aller au même vide que la technique elle ne pourrait jamais aller au même rythme bon ben pourquoi pas essayons avec une nouvelle approche et cette approche par les risques je la trouve pas inintéressante en tout cas pour commencer et
- Speaker #0
alors j'ai une question sur l'intelligence artificielle responsable est-ce que qu'est-ce que qu'est-ce que l'intelligence artificielle responsable ? Comment est-ce que toi, tu la définis ? Est-ce qu'il y a une définition de ça ? Est-ce que c'est le fait d'intégrer ces aspects sociaux, comme tu l'as mentionné, et ces aspects éthiques ?
- Speaker #1
Je pense qu'il y a plein de définitions possibles. Tu sais, entre l'IA éthique, l'IA digne de confiance, l'IA responsable, etc.
- Speaker #0
Pourquoi les différences entre tous ?
- Speaker #1
Je pense que vraiment, il y a des gens qui vont dire qu'il n'y en a pas. je pense qu'il y a des gens qui vont dire qu'il y en a et en fait, ces gens-là n'auront pas toutes et tous la même. Donc, je pense que ça dépend. Moi, je prends un peu comme exemple souvent. Nous, chez BCG, quand on parle d'IA responsable, moi, je le mets souvent dans un cadre professionnel. Et donc, on définit l'IA responsable comme une IA qui s'aligne avec les valeurs de l'entreprise et qui... qui prend en compte les standards de ce qui est bien et mal, ce qui est généralement accepté, et qui en même temps permet de délivrer de la valeur dans l'entreprise. Donc tu as un peu les trois trucs. Tu as un, les valeurs dans l'entreprise. Deux, les grands standards du bien et du mal dans le monde. Trois, tu délivres de la valeur pour l'entreprise. Je trouve que ce n'est pas inintéressant. Et donc notamment avec ça, tu dois faire attention à quoi ? Aux hallucinations, tout ce qui est data leaks, tout ce qui va être les biais, tout ce qui va être ce qu'on appelle les problématiques de copyrights et des droits d'auteur, quelles données tu as le droit d'utiliser ou de ne pas utiliser, toutes les questions environnementales, tout ce qu'on appelle le shadow AI, c'est les gens qui utilisent des outils d'IA alors qu'en fait ça n'a pas du tout été accepté par l'organisation elle-même et surtout par les départements cyber, généralement c'est eux qui râlent. Enfin voilà, donc tout ça, ça rentre un peu là-dedans. Pour moi, IA responsable, IA éthique, IA digne de confiance, je suis ouvert vers tout. J'utilise, moi, IA responsable quand je parle d'IA en entreprise. Comme ça, vraiment, je mets le point sur... Voilà, c'est très, très clair, l'IA doit être... Mais... Voilà, pour moi, éthique de l'IA, c'est le grand truc un peu au-dessus. Puis en dessous, il y a resource ou responsible, pour moi c'est pareil. Je ne fais pas de différence. Après, peut-être qu'il y a des gens qui vont écouter ça et dire mais il dit n'importe quoi, moi il y a une énorme différence. Je suis très heureux d'en parler avec vous.
- Speaker #0
ça va,
- Speaker #1
parce que moi aussi pour moi il n'y avait pas de je ne comprenais pas bien de différence non plus je voulais être rassurée par cette question si elle est responsable tu peux espérer qu'elle est digne de confiance si elle est digne de confiance tu peux espérer qu'elle est éthique si elle est éthique tu peux espérer qu'elle est responsable donc voilà tout ça ensemble alors j'ai encore une ou deux petites questions sur le sujet,
- Speaker #0
ça va ? Parce que c'est quand même une question importante, notamment des voitures autonomes, etc. Comment est-ce que toi, aborderais-tu les questions de responsabilité et de responsabilisation dans des actions des systèmes intelligents ? Parce que j'ai eu cette discussion-là avec l'ex-VP, je crois, de chez Apple. Et honnêtement, il disait, je ne sais pas. C'est quoi ta réponse toi ?
- Speaker #1
Donc toi tu me demandes de répondre à un truc auquel l'ex-VP de Apple, je ne sais pas. Si Apple cherche, vous aurez mes coordonnées. Donc, déjà le premier truc que je ferai en tout cas, c'est de revenir sur les mots. Tu as parlé de voiture autonome, les philosophes aiment bien les mots, etc. Pour moi, ce n'est pas une voiture autonome. Je pense que le terme autonome, il est très mal utilisé. Autonome, ça veut dire qu'il est capable de décider par lui-même. Et donc, ce n'est pas le cas. Il n'y a aucune autonomie. dans une voiture, tout est codé. Donc, moi, je préfère parler de voitures automatiques, qui, au moins, se conduisent toutes seules, mais de là à dire qu'elles sont autonomes et qu'elles prennent des décisions par elles-mêmes, je pense que ça, c'est pas exact. Ça, c'est une première chose. Après, la responsabilité, et ça, c'est très compliqué, c'est est-ce qu'elle revient au conducteur ou au concepteur de la machine ? Je discutais avec un copain qui disait que c'est les compagnies d'assurance qui vont trancher ce débat selon comment est-ce qu'elles accepteront d'assurer telle ou telle personne. Je trouvais que c'était assez intéressant comme vision de voir les choses. Et en vrai, c'est assez pragmatique. Et finalement, moi en tout cas, je le remettrais beaucoup au concepteur. Si jamais en tant que concepteur, tu dis c'est une voiture automatique, vous pouvez vous asseoir dedans. et ne rien regarder, et vous arrivez au bon endroit, dans ce cas-là, si jamais il arrive quelque chose, ce n'est pas la faute du conducteur, parce qu'en fait le conducteur n'est pas conducteur, il n'est que passager. Si en revanche, tu dis que vous êtes conducteur, à ce moment-là, ça veut dire que vous êtes toujours censé être responsable de votre véhicule. Et à partir de ce moment-là, ça va un peu dépendre de ce qu'on vend. Si on vend une voiture automatique, Bon bah si jamais il y a quelque chose qui va pas C'est parce qu'en fait ce que t'as vendu C'est pas ce que t'as vendu C'est pas une vraie voiture automatique Si en revanche tu dis c'est une voiture Qui se conduit très très très très très bien Sous la supervision extrêmement légère D'un être humain Bon bah dans ce cas là en revanche c'est toujours la responsabilité de l'humain Mais si tu vas un peu plus loin tu dis
- Speaker #2
Imaginons que t'es une voiture Autonome
- Speaker #1
Ce qu'on dit tout seul Ça par contre c'est pas possible
- Speaker #2
Automatique alors ?
- Speaker #1
Ça c'est possible Donc c'est bien celle où il n'y a pas le conducteur Voilà il n'y a pas de conducteur et qui se conduit automatiquement Tu fais un accident,
- Speaker #2
toi t'es assis comme passager On va quand même toujours critiquer le fait que la machine a fait un accident Elle sera toujours considérée comme étant plus grave Comment expliquer ça ? Tu as deux voitures, tu en as une qui est automatique Tu en as une qui est classique on va dire le fait que la voiture automatique fasse un accident va toujours être considéré comme étant plus grave que la voiture normale qui est conduite par un humain. Même si l'humain fait plus d'accidents, le fait que la machine, elle, ait fait un accident, ce sera toujours considéré comme beaucoup plus grave.
- Speaker #1
Oui, parce que c'est contraire à la... Tu vois, tout le monde te dit l'erreur est humaine. Donc, un humain qui fait un accident, même très grave, on part du principe que c'est un accident où il n'est pas complètement en faute, où vraiment... quelqu'un s'est jeté sur ses roues. Je ne parle pas de quelqu'un qui a bu et qui a fait une connerie. Mais vraiment, on va dire, écoute, l'erreur humaine, malheureusement, il ne pouvait pas tout anticiper. En revanche, dans la technique, à partir du moment où tu te délaisses, en tant qu'être humain, tu te délaisses d'une partie de ton pouvoir de détermination, de ton pouvoir de décision, c'est dur. En tout cas, moi, je considère que métaphysiquement, ce qui nous définit, c'est entre autres notre capacité d'autodétermination. Je trouve que c'est quelque chose qui est absolument merveilleux. C'est ce en quoi, d'ailleurs, je joue. un des trucs en tout cas en lequel je crois le plus donc délaisser ça à une machine, t'as intérêt à ce que effectivement la machine elle soit pic au vélo, donc si à ce moment là elle se plante, elle t'a failli et pour moi c'est un peu le même truc que Ouais, tu vois, j'allais prendre d'autres exemples techniques, mais ça servit au même. C'est quand la technique...
- Speaker #0
rate c'est dur parce que tu mets ta confiance là-dedans après je dis pas que c'est rationnel comme pensé mais c'est vrai qu'on ne dit jamais l'erreur est machine l'erreur est humaine c'est connu, l'erreur est machine on ne dit pas au contraire justement et c'est d'ailleurs pas ce qu'on te vend et donc tu te sens floué donc je pense que c'est pour ça en tout cas qu'on considère que c'est plus grave en tout cas qu'on pardonne moins à la machine qu'à l'humain du coup si tu reviens aux assurances tu pourrais te dire
- Speaker #1
Peut-être que ce sera l'effet inverse, que si tu as une machine ou une voiture automatique, l'assurance sera peut-être plus encline à se dire, la prime va être plus petite parce que je fais finalement plus confiance à la machine qu'à un humain, même si...
- Speaker #0
Pour moi, ça va dépendre de ce que la machine est capable de produire. Alors là, par contre, je fais assez confiance, de façon peut-être presque un peu cynique, aux compagnies d'assurance pour vraiment regarder ça de façon extrêmement rationnelle et mathématique. Et dans un certain contexte, c'est peut-être ce dont on a besoin, d'une approche qui ne soit pas émotionnelle. Et donc vraiment de regarder ça et de dire statistiquement, on aura moins d'accidents s'il y a ça. Après, un des trucs qui est vraiment sur le débat très spécifique des voitures automatiques, c'est que, on le sait, les voitures automatiques seraient bien meilleures s'il n'y avait que des voitures automatiques. Et là, le truc, c'est qu'aujourd'hui, elles doivent faire face à des voitures qui ne sont pas automatiques et donc qui sont complètement imprévisibles. alors que si tu n'avais que des voitures qui étaient toutes connectées entre elles ça marcherait beaucoup mieux après voilà moi je considère et tu vois le fait que Apple vienne de décider que finalement ils jetaient l'éponge sur la voiture automatique il y a une partie de moi qui dit voilà ça aujourd'hui c'est encore proprement humain ce fait qu'il y ait tellement de paramètres à prendre en compte c'est terriblement humain ça plus le fait je ne sais pas si vous avez vu des images je trouve ça très très marrant à San Francisco il y a des gens qui ont tellement peur que la tech les remplace etc. qu'ils bloquent c'est très facile de bloquer une voiture automatique et donc en fait ils mettent des cônes à certains endroits tac tac et puis la voiture est immobilisée tu vois donc voilà c'est aussi mais ça ça montre que il y a ça va en fait à contresens de la doxa un peu que les géants de la tech nous nourrissent de mais oui tout le monde va bénéficier de plus de tech tout le monde en veut ça, non tout le monde ne veut pas plus de tech, il y a plein de gens qui ne seraient pas contre d'avoir moins de tech et il y avait une étude là dessus je pense alors je suis peut-être un tout petit peu déformé je suis désolé mais qui était sortie sur TikTok en gros on disait aux gens combien est-ce que combien est-ce qu'il faudrait vous payer pour que vous acceptiez de ne plus être sur TikTok alors que tous vos potissons, c'est une somme non négligeable. Et puis ensuite, c'était, OK, mais combien est-ce qu'il faudrait vous payer pour que vous acceptiez que vraiment TikTok soit supprimé pour tout le monde ? Et en fait, là, c'était l'effet inverse. Les gens étaient prêts à payer. pour que TikTok soit supprimé chez tout le monde. Mais ce qui était dur, c'est que les gens se rendent bien compte que ce qui est dur, c'est quand tu es le seul qui n'est pas dessus alors que tout le monde est dessus. Mais il y a des gens qui se rendent bien compte que ce n'est pas forcément très positif. Ils seraient d'accord de payer pour que le truc disparaisse. Moi, je prône un peu parfois à certains moments de se rendre compte que non, plus de tech, ce n'est pas toujours idéal. Parfois, oui, je trouve ça génial. Et peut-être pour conclure là-dessus, j'avais promis une réponse courte, je suis désolé. Tu vois, dans la médecine, Moi je pense que plus de texte c'est génial Je pense que c'est super, notamment sur la détection de cancer On le sait, les machines sont bien meilleures aujourd'hui que certains radiologues Et je trouve que c'est génial En revanche, tu vois, demain si j'ai un cancer Je te garantis que j'aimerais bien que ce ne soit pas une machine qui me l'annonce et donc il y a des choses qui sont ontologiquement en dehors du cadre de la machine et c'est pas grave c'est même super et il y a des choses en revanche où vraiment la machine est meilleure que nous mais depuis tellement longtemps et on n'a pas attendu l'IA je veux dire tu vois une voiture ça ira depuis quelques années pas mal d'années, ça va plus vite qu'un être humain. Et c'est pas grave, c'est juste que ça va plus vite qu'un être humain. Le fait qu'on crée de la machine pour nous remplacer sur certaines tâches, c'est pas nouveau, c'est pour ça qu'on crée de la machine. Le premier mec qui a accroché, je sais pas, son truc à labourer derrière un cheval ou derrière un bœuf plutôt que de le tirer lui-même, c'est exactement ça qu'il a fait. C'est-à-dire, comment est-ce que je peux faire moins d'efforts ? Ça, c'est génial, moi je trouve ça super, c'est vraiment de l'innovation et dans ce cas-là, c'est de l'innovation et du progrès. Mais toute l'histoire de la tech, c'est à peu près la même chose. seulement je considère que depuis quelques années et on pourrait mettre ça à peu près au niveau de la révolution industrielle fin du 19ème on considère que innovation, enfin moi en tout cas je vois une sorte de découplage entre l'innovation et le progrès et à partir de ce moment là t'as des trucs où on innove beaucoup je suis pas certain que ce soit toujours pour une sorte de progrès social à large
- Speaker #2
Et alors est-ce que tu vois des limites éthiques ? justement, tu parlais d'innovation, ce découplage entre innovation et progrès, est-ce que tu vois vraiment des limites éthiques dans l'intelligence artificielle ? Et tu dis non, là vraiment, c'est déconné. Genre par exemple, peut-être la puce dans le cerveau, ou alors l'intelligence artificielle en Chine. Moi, j'ai connu des gens qui ont vécu le Covid en Chine et où ils avaient des drones qui passaient devant les fenêtres de leur building et qui les scannaient. Est-ce que ça, c'est une limite ? Ou est-ce qu'en fonction de leurs normes, à eux, c'est acceptable ?
- Speaker #1
Ils sont probablement triculturels aussi.
- Speaker #0
Tout à fait. Il y a une très chouette étude d'ailleurs là-dessus qui s'appelle The Moral Machine Experiment. Si jamais ça vous intéresse, c'est hyper intéressant. Mais pour répondre à ta question, est-ce qu'il y a des limites éthiques propres à l'intelligence artificielle ? Je dirais non. Après, ça demanderait une grosse réponse, mais vraiment pour la faire très courte, non. En revanche, ce dont tu me parles, pour moi, ce n'est pas des questions techniques, ça reste des questions politiques. La surveillance de masse, je pense que c'est not ok, mais que ce soit de l'IA ou que ce soit autre chose. Si demain, mettons, la Chine... met en place 2 millions d'agents dans les rues de Pékin pour observer toutes les autres personnes, ce serait une sorte de surveillance de masse. Je trouve que c'est tout aussi dommageable pour les droits fondamentaux des Chinois que d'avoir ce truc de crédit social. De nouveau, pour moi, ce n'est pas une question technique. C'est juste que la technologie permet aujourd'hui de faire des trucs auxquels on ne pensait pas et qui aggravent. Il y a une sorte d'accélération. Et parfois, à cause de cette accélération... cette accélération ça te permet aussi de changer même de nature, le fait que tu puisses avoir certains policiers à certains endroits dans Bruxelles, c'est une chose effectivement si demain t'as 2 millions de policiers qui regardent tout le monde tout le temps c'est pas la même chose le changement d'échelle qui n'est faisable qu'avec la technique amène un léger changement de nature, mais la question elle-même reste la même et ça pour moi je pense pas que ce soit directement propre à l'IA parce que ça n'en ferait que des questions technologiques comme je te disais plus tôt je pense que c'est pas le cas
- Speaker #2
Merci. Alors cet épisode a été enregistré pendant une semaine importante pour toi, le lancement de ton nouveau livre. Est-ce que tu peux nous en dire quelques mots ?
- Speaker #0
Tout à fait. Le 20 mars 2024 sort le livre Bonjour Tchadjipiti qui fait suite à un article que j'avais écrit dans la Libre Belgique qui disait Peut-il dire bonjour à Tchadjipiti ? C'est une question parce que j'ai réalisé que beaucoup de gens, quand ils tapaient des trucs dans le chat de JPT, y compris moi-même, commençaient par bonjour.
- Speaker #2
Est-ce que tu fais ça toi Benoît ?
- Speaker #1
Je l'ai fait au début et maintenant je me force à me dire que c'est une machine, donc j'ai un langage beaucoup plus franc et direct. Mais c'est vrai qu'au début, je pense comme beaucoup de gens.
- Speaker #2
Moi non.
- Speaker #0
Moi je mets des please, je mets des thank you, etc. Et je me rends compte que ça n'a aucun sens. Je ne dis pas bonjour à ma machine à café. Ce matin, je n'ai pas dit bonjour à ma machine à café. Donc ça n'a aucune logique. Et pourtant, j'ai vraiment voulu creuser ces questions-là. Et donc, comme pour tous mes écrits, je pense que comme mon livre précédent aussi, ce que j'ai essayé de faire, c'est de faire appel. Il y a des neurosciences, il y a de l'anthropologie, il y a de la sociologie, il y a de la psy, il y a un petit peu de droit, il y a de l'économie aussi. Heureusement, il y a quand même un petit peu de philo. Mais voilà, l'idée, c'était d'essayer de creuser cette question-là et de dire de nouveau, qu'est-ce que ce rapport à la machine dit de nous, de notre rapport à nous-mêmes et notre rapport à autrui ?
- Speaker #2
Un grand merci Louis Merci à vous,
- Speaker #0
en tout cas merci pour l'invitation Tout grand merci,
- Speaker #1
c'était un très bon épisode je pense super intéressant et hâte de lire ton livre qui sera j'imagine disponible dans toutes les librairies disponible dans toutes les librairies,
- Speaker #0
ça sera aux éditions Mardagab, il est déjà précommandable sur le site et si vous avez la moindre question n'hésitez pas à me contacter sur LinkedIn, je parlerai beaucoup de mon livre dans les semaines à venir
- Speaker #2
On n'en doute pas, un tout grand merci Magnifique,
- Speaker #0
merci Louis
- Speaker #1
Merci d'avoir écouté cet épisode jusqu'à la fin. Si vous l'avez apprécié, n'hésitez pas à le partager à vos amis, à votre famille et à vos collègues. Nous vous serions très reconnaissants si vous pouviez laisser une évaluation 5 étoiles dans votre application de podcast préférée. Ça nous aide vraiment à grandir. Vous avez un projet en IA ? Des idées que vous souhaitez discuter ? Notre société, Delaware, peut vous aider. N'hésitez pas à nous contacter sur portraitia.delaware.pro portrait au pluriel ou sur les réseaux sociaux. C'était Léla Rebou et Benoît Loffet et on vous dit à très vite !
- Speaker #3
Sous-titrage ST'501