undefined cover
undefined cover
IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO cover
IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO cover
« Tendances INNO » le podcast Innovation de Docaposte

IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO

IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO

44min |17/04/2025
Play
undefined cover
undefined cover
IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO cover
IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO cover
« Tendances INNO » le podcast Innovation de Docaposte

IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO

IA cognitive, empathique... : décryptage de l'IA des émotions | Athénaïs Oslati, CEO de ONTBO

44min |17/04/2025
Play

Description

Dans ce nouvel épisode de Tendances Inno, Marine Adatto et Olivier Senot reçoivent Athénaïs Oslati, fondatrice d’ONTBO, pour explorer l’IA cognitive et empathique.

 

Au programme :

- IA empathique : mythe ou réalité ?

- Usages concrets et retours d’expérience

- Éthique et diversité culturelle dans l’IA

- Conseils pour tester et adopter ces nouvelles solutions

 

À travers des échanges concrets et des retours d’expérience, découvrez comment l’intelligence artificielle peut décrypter nos émotions, personnaliser les interactions et redéfinir la relation homme-machine.

 

L’épisode aborde aussi les enjeux éthiques, les différences culturelles et les défis liés à l’intégration de l’IA empathique dans notre quotidien.

 

Un rendez-vous inspirant pour comprendre comment l’innovation technologique peut rendre le numérique plus humain et inclusif.

 

#Tech #Innovation #IA #Empathie #Docaposte #TendancesInno #Cognitif


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue dans Tendances Inno, votre rendez-vous pour explorer les technologies émergentes présentées par Docaposte, le référent français de la confiance numérique. Je suis Marine Adatto et j'ai le plaisir d'être accompagnée par Olivier Senot, directeur de l'innovation chez Docaposte. Dans ce podcast, nous vous emmenons à la rencontre des innovateurs et des créateurs qui redéfinissent notre monde numérique. Que votre curiosité vous porte vers le Web3, l'IA ou toute autre technologie émergente, vous êtes au bon endroit. Préparez-vous à une dose d'inspiration et d'informations, au programme des découvertes, des défis et des solutions innovantes. Alors branchez vos écouteurs, ouvrez votre esprit et plongez avec nous dans l'univers de Tendances Inno. À l'heure où l'intelligence artificielle s'invite dans toutes les sphères de notre quotidien, une question centrale émerge. L'IA peut-elle comprendre et reproduire nos émotions ? Dans cet épisode de Tendances Inno, nous explorons un concept fascinant, lié à cognitive et empathique. Pour en parler, nous avons l'immense plaisir de recevoir Athénaïs Oslati, fondatrice d'ONTBO, une deep tech qui redéfinit l'intelligence artificielle en y intégrant une dimension empathique. À mes côtés, Olivier Senot, directeur des innovations chez Docaposte, nous aidera à décrypter les enjeux technologiques et éthiques derrière cette révolution. Comment une IA peut-elle décrypter les émotions humaines ? Quels sont les cas d'usage et les limites de cette technologie ? Et surtout, peut-on vraiment parler d'un futur plus humain grâce à l'IA ? Un épisode pour comprendre, questionner et pourquoi pas rêver un peu. Olivier, c'est à toi.

  • Speaker #1

    Bonjour Athénaïs, bonjour Marine. Merci. Il y a seulement 28 ans, Athénaïs, tu es la fondatrice d'Ontbo, Marine vient de le dire, une entreprise deep tech pionnière dans le domaine de l'affectif computing. D'abord médecine, puis des études d'ingénieur en double cursus, mécanique et technologie. et organiques, compétences très utiles pour développer une intelligence artificielle empathique et éthique, capable de s'adapter à l'environnement cognitif de l'utilisateur pour offrir une expérience numérique plus humaine et authentique. Tu accompagnes les entreprises dans l'optimisation de leurs interactions digitales avec leurs clients en allant au-delà des données traditionnelles âge, sexe, géographie, etc. pour intégrer des données plus fines et spécifiques, personnalité, émotion, comportement, réaction, etc. Reconnu pour tes innovations, tu remportes notamment le prix Inov, coup de cœur du gouvernement dans le cadre du plan France 2030, et plus récemment, le prestigieux prix Forbes 30, Under 30. En juin dernier, Onbo a annoncé un partenariat stratégique avec Microsoft pour accélérer son développement et son passage à l'échelle. Ton parcours est exemplaire, ta rapidité d'exécution est impressionnante, tu représentes l'élite de la génération des entrepreneurs. Et pour reprendre un slogan du XXe siècle, mais qu'est-ce qui fait marcher Athénaïs ? Nous t'écoutons.

  • Speaker #2

    Bonjour Marine, bonjour Olivier,

  • Speaker #0

    bonjour Athanise, bienvenue.

  • Speaker #2

    Merci.

  • Speaker #0

    Pour planter le décor, je vous propose déjà un quiz, vraiment pour avoir une idée des grands chiffres. Première question, quel pourcentage des Français se disent méfiants vis-à-vis de l'intelligence artificielle ? Est-ce que c'est 51%, 69% ou alors 35% ? Méfiant,

  • Speaker #2

    51.

  • Speaker #0

    51, Olivier tu dis quoi ?

  • Speaker #1

    Oui, au moins. 69% ?

  • Speaker #0

    69% ? Oui, en effet, c'est 69%. Ils sont quand même globalement assez méfiants. Donc c'est 69% selon une étude Ipsos qui a été publiée en 2023. Et alors, ils pensent que l'IA représente plus d'inconvénients que d'avantages. Et cette proportion élevée indique donc cette méfiance dont on a parlé envers l'IA de la population française. Deuxième question. En France toujours, quel pourcentage de consommateurs a une mauvaise image des entreprises utilisant des outils automatisés pour la relation client ? Il y en a beaucoup. 47%, 67% ou 87% ?

  • Speaker #2

    Je dirais 67%.

  • Speaker #0

    67, Olivier ?

  • Speaker #1

    67, parce que la GNZ l'accepte volontiers.

  • Speaker #0

    Oui, c'est ça. 67%, et donc c'est une enquête de l'entreprise Kiamo de janvier 2024. Dernière question pour rentrer encore plus dans l'empathie. Quel pays teste actuellement des robots empathiques dans ses hôpitaux ? Japon, Chine ou Allemagne ?

  • Speaker #2

    Japon, Chine, je dirais le Japon.

  • Speaker #0

    Japon ?

  • Speaker #1

    Oui, Japon, fortement, ils sont hyper en avant.

  • Speaker #0

    Oui, Japon, qui est pionnier dans l'utilisation de l'IA empathique, notamment pour accompagner des patients isolés ou en soins prolongés. Et donc j'ai une question bonus. Quel pourcentage de patients japonais acceptent ? positivement l'interaction avec des robots empathiques ? 58%, 68%

  • Speaker #2

    ou 79% ? 79% pour avoir échangé au Japon. Ils adorent tout ce qui est robot et robot empathique.

  • Speaker #0

    Ils en ont choisi eux.

  • Speaker #2

    Exactement.

  • Speaker #0

    Alors moi, le chiffre que j'ai, c'est 68% qui est une étude du ministère japonais de la santé de 2023. Donc probablement que ça a augmenté. 68% des patients hospitalisés montrent une réaction positive aux interactions robotiques. C'est particulièrement efficace avec les personnes âgées et les patients en long séjour. À quand en France ? Continuons. Alors, on est allé... Au travail. Au travail. Exactement. Continuons avec le micro-trottoir. Donc, on est allé poser trois questions au public pour vraiment comprendre leur perception de l'IA empathique. La première question qu'on leur a posée, c'est quelle est votre perception de l'intelligence artificielle ? Pour moi, c'est quelque chose qui a été créé par l'humain pour faire parler des machines. On peut faire beaucoup de choses avec, comme toute nouvelle invention. il y a du bon, il y a du mauvais, à savoir comment on l'utilise en fait.

  • Speaker #3

    C'est un outil qui part d'un sentiment intéressant de se dire, de nous aider à répondre à des problématiques en nous donnant des informations tirées de droite à gauche. Mais il y a beaucoup de réserves, telles que la connaissance que l'IA utilise, connaissance qui est basée sur ce que fournit l'homme. Il y a quand même des limites à ça, et surtout de là où la connaissance va être récupérée. Après, il y a énormément d'applications. Dans ma formation, on avait utilisé ça pour utiliser l'intelligence artificielle pour faire de la chirurgie, ce qui est super intéressant, pour accéder à des zones très dangereuses, puisqu'on a une très grande précision par les robots, et j'en passe. Dans l'idée, c'est une bonne perception, je n'ai pas le temps de tout détailler, mais il y a beaucoup de contraintes, il y a aussi l'écologie autour de ça.

  • Speaker #0

    Beaucoup d'opportunités, mais en effet, quand même beaucoup de questionnements. Ensuite, on leur a demandé s'ils pensaient qu'une IA pouvait décrypter nos émotions quand on lui parle. Et voici les réponses.

  • Speaker #3

    On a quand même une limite de décryptage parce que des fois, on a des sentiments contraires. On va exprimer d'une manière et montrer d'une autre. Donc, toutes ces parties-là, il y a beaucoup d'apprentissage encore côté IA. Et j'entends surtout sur la partie... décryptage visuel du visage, mais aussi ressenti, parce qu'il y a beaucoup de compassion et d'empathie à avoir pour pouvoir décrypter les sentiments.

  • Speaker #2

    Je pense que oui, ils peuvent être très pertinents, dans la mesure où le dialogue, l'interaction avec l'intelligence artificielle passe essentiellement par l'écrit, comme dans le ChatGPT. Donc, une analyse du texte, des mots que l'on peut utiliser, de la syntaxe, du rythme, peut effectivement... permettent de traduire, de décrypter, de détecter les émotions. Reconnaissance faciale, visuelle aussi, de toute évidence. Gestuelle, corporelle, ça se modélise très bien pour pouvoir analyser au moins les émotions superficielles exprimées par un humain.

  • Speaker #0

    Voilà, on pense en effet que c'est possible et on va creuser ce sujet avec toi Athénaïs. Enfin, on leur a montré la vidéo du robot Optimus de Tesla. Vous voyez cette vidéo. Et on leur a posé la question suivante. Pensez-vous qu'un robot comme celui-ci puisse développer une conscience, mimer une émotion et un comportement humain ?

  • Speaker #4

    Je ne connais pas, mais je connaissais les robots de Boston Dynamics. On dirait que c'est un petit peu le même principe. On dirait que Tesla est allé un petit peu plus loin, plus dans le mode humain, et Boston Dynamics plus dans les trucs sur quatre pattes, qui sont quand même assez réalistes aussi. Mais en tout cas, oui, c'est bien ce que Tesla font. Ça part de loin quand même, parce que c'est sûr que mimer un déplacement humain, c'est vraiment très compliqué. Comme on voit là, il est déjà hyper, hyper... poussé et pourtant il fait juste marcher, déplacer un oeuf et arriver à se baisser. J'imagine que c'est extrêmement complexe de faire en sorte qu'il se comporte exactement comme un humain parce que l'oreille interne, les muscles, les mers et tout, c'est quand même hyper compliqué. Mais on dirait que ça y arrive petit à petit. Développer une conscience, peut-être pas, parce que c'est quand même extrêmement complexe aussi. Là, on a vu avec l'avancement de l'IA cette année qu'on était capable d'avoir des bonnes discussions avec l'IA, que l'IA est capable de... simuler en fait il est capable de simuler ou d'imiter il n'est pas vraiment capable d'avoir une propre conscience à lui même donc il peut imiter quelqu'un qui est triste imiter quelqu'un qui est heureux on dirait que du moins l'IA est capable de simuler et d'imiter quelqu'un après développer une conscience pas encore je pense peut-être un jour mais ça va prendre du temps et c'est comme si parce que l'IA doit apprendre un petit peu le comportement humain c'est comme s'il doit vraiment apprendre énormément sur l'humain pour pouvoir se comporter un petit peu comme un humain.

  • Speaker #0

    Athénaïs, qu'est ce que tu en penses ?

  • Speaker #2

    Alors c'est très intéressant. Le premier point c'est que chacun a bien saisi que l'IA aujourd'hui excelle dans tout ce qui est automatisation et exécution notamment des tâches. Certains parlaient dans le domaine de la robotique, dans le secteur médical, les avancées en termes d'IA. Donc là c'est vraiment une efficacité dans l'exécution, dans la détection notamment des cancers. Donc ça c'est super. Je vois également que certains ont compris. la nuance d'une IA d'une IA empathique plus précisément qu'elle ne fait que imiter donc on va rentrer je pense après dans le sujet mais effectivement l'IA empathique ne fait que imiter un comportement et aujourd'hui on n'est pas à même de pouvoir dire qu'on va créer une conscience comme on l'entend aujourd'hui

  • Speaker #0

    Olivier, des réactions ? Je t'ai vu hocher la tête et dire non de la tête. Mieux dire quoi ? Mieux dire quoi ?

  • Speaker #1

    Non, non, mais je partage le point de vue d'Athénaïs. Ensuite, la grande question, seront-ils capables de développer une conscience ? On n'a pas assez d'une heure pour faire le tour de la question.

  • Speaker #2

    Exactement, c'est vrai,

  • Speaker #0

    c'est vrai. Il faudrait faire une série dessus. Oui, oui.

  • Speaker #1

    Déjà, répondre à la question, qu'est-ce qu'une conscience ?

  • Speaker #0

    Qu'est-ce qu'une conscience ? Avant de répondre à la question « qu'est-ce qu'une conscience ? » , répondons-nous posant les bases, Anthénaïs. Qu'est-ce que l'IA empathique et cognitive ?

  • Speaker #2

    L'IA empathique et cognitive, c'est une branche de l'IA, de l'informatique affective, qui a cette capacité de pouvoir imiter, de comprendre le système psychologique d'un individu, toute sa cognition. Ça va être ses traits de personnalité, ses réactions, ses comportements et également ses émotions. Alliant tout ça à du contexte, notamment un contexte psychologique mais également environnemental, ça nous permet d'avoir une représentation, une map psychologique d'un individu.

  • Speaker #0

    Et alors comment est-ce que ça se traduit concrètement dans ta solution chez Onbo ?

  • Speaker #2

    Alors précédemment on a entendu les différentes modalités, on a entendu l'image, le texte, la voix. Donc effectivement ce sont les modalités qu'on utilise aujourd'hui. dans un premier temps au travers par exemple des expressions faciales, de la gestuelle. On vient croiser également la voix et dans la voix il y a deux choses à distinguer. Il y a ce que je dis mais il y a également ce qu'on appelle la prosodie, c'est-à-dire le timbre de la voix, le son, l'intonation. Parce qu'en France on est très fort pour tout ce qui est passif-agressif, c'est-à-dire sur un ton très monotone, très monocorde, tenir un propos très incisif. Donc il faut faire cette distinction entre les deux. Et après effectivement tout ce qui est relié au texte. Donc ça peut être des messages, emails ou autres. Donc nous, on vient fusionner toutes ces données pour avoir véritablement une compréhension profonde de l'être humain et de ce qu'il souhaite et de son intention et de ses désirs, bien plus que de l'émotion. Donc on met ça dans tout l'écosystème. Donc c'est sous forme d'API, c'est-à-dire que c'est un petit plugin dans lequel on s'insère au sein de l'écosystème de nos clients. Et à partir de là, ils peuvent jouer avec.

  • Speaker #0

    Et alors, justement, comment est-ce que ça va se traduire concrètement ? Un client... met l'API dans sa solution. Et qu'est-ce qui se passe ?

  • Speaker #2

    Alors, à ce moment-là, généralement, les clients avec qui on collabore ont déjà des IA ou utilisent déjà, par exemple, des IA génératives. Donc, nous, on est vraiment sur trois grands secteurs. Le premier, c'est tout ce qui est Customer Support, c'est-à-dire la relation homme-machine directement dans le secteur, par exemple, des télécoms, des télécommunications, du retail, de la banque. Donc ici, au travers des assistants, par exemple, virtuels, vocales, ou bien texte généralement, on va pouvoir analyser en temps réel, comprendre véritablement le besoin, les attentes, les motivations de notre interlocuteur pour proposer justement une réaction beaucoup plus empathique et surtout répondre à sa demande. Parce qu'on sait combien de fois on est sur du SAV par exemple. On a une personne au téléphone, on sait très bien que c'est un chatbot ou que c'est un assistant virtuel qui est derrière, qui ne comprend pas ce que l'on dit et au final on est renvoyé vers un être humain. qui nous posent exactement les mêmes questions. Donc remplacer l'homme par la machine sur des tâches chronophages, ok, mais il faut que ça soit fait justement de façon empathique.

  • Speaker #0

    Et la vision derrière cette innovation, donc tu viens de donner un premier élément de réponse, c'est quoi la vision globale ?

  • Speaker #2

    La big vision, en fait, c'est pas... La vision que l'on a ici, c'est de passer d'un monde où les IA que l'on connaît, où les machines... que l'on a aujourd'hui sont de simples outils à des compagnons qui soient proactifs. Le vrai sujet, c'est qu'aujourd'hui, toutes les machines, toutes les IA que l'on utilise sont réactives. C'est-à-dire qu'on a, par exemple, une émotion, la machine s'adapte, elle est réactive. On a une intention et un comportement, la machine s'adapte, elle est dans une phase de réaction. Nous, on veut aller beaucoup plus loin que ça, c'est-à-dire qu'on a ce compagnon proactif qui comprend les singularités de chacun et chacune d'entre nous pour pouvoir ensuite anticiper au niveau de nos besoins.

  • Speaker #0

    Oui, avec une analyse finalement un peu froide et éloignée qui permet d'avoir la meilleure réponse possible pour la personne qui est en face. Alors, est-ce que tu as des exemples concrets à nous partager ? Des chiffres, par exemple, de clients qui utilisent ta solution ?

  • Speaker #2

    Ce qu'il faut se dire avant tout, c'est de se poser la question, en fait, qu'est-ce qui rend une expérience ? on va dire inoubliable. Et ce n'est pas juste la précision, c'est avant tout l'émotion. Et il y a un chiffre phare qui nous parle, c'est que 95% des interactions homme-machine sont drivées en 2025 par l'IA. Et ça, c'est juste 95%. 95% ! Et derrière, la plupart des gens ne le savent pas. D'où la nécessité de remettre de l'humain, de l'empathie au sein de cette interaction, de cette relation machine. Ça, c'est un vrai sujet aujourd'hui. Et on le voit, petit aparté là-dessus, j'étais au CES 2024, on parlait beaucoup d'IA générative. On entendait Gen AI, DLLM, Open AI et ainsi de suite. Tout le monde n'avait que ça sur les lèvres au travers de chatbots et d'assistants virtuels. et on voit qu'il y a un... Il y a un basculement qui s'est opéré sur la fin 2024, où là, OpenAI, Meta, Google, lancent également des nouveaux projets qui s'appellent Empathy AI. Et ils voient qu'on a atteint un plafond de verre sur l'exécution, justement, l'IA qui exécute des tâches. C'est bien, maintenant l'IA est dans l'interaction en machine, il va falloir passer un cap, celui de la compréhension de l'être humain, et pas juste connaître l'être humain. C'est vraiment ça. que chacun et chacune d'entre nous voulons, c'est vraiment être compris par la machine et pas juste être connu.

  • Speaker #0

    Mais alors dans cette compréhension, il y a aussi un enjeu central, qui est un enjeu éthique.

  • Speaker #2

    Absolument.

  • Speaker #0

    Et qui, en plus, est différent selon les cultures. Est-ce qu'on peut dire qu'il y a plusieurs types d'éthiques ?

  • Speaker #2

    Alors, il y a plusieurs types d'éthiques, puisqu'il y a plusieurs cultures. L'IA a émergé, enfin l'IA a même explosé durant ces deux dernières années. aux quatre coins de la planète, que ce soit Japon, Corée, Chine, on l'a vu récemment, États-Unis, chacun, de par sa culture, de par sa perception, de par son origine, de par son ethnie, a une définition qui lui est propre de l'éthique, complètement. Et l'éthique en Asie n'est absolument pas la même que l'éthique en Europe, qui elle-même diffère de l'éthique en Amérique du Nord. L'Amérique du Nord, l'éthique, c'est comment on va pouvoir... capitaliser. Le terme capitalisme est central ici, c'est comment on va pouvoir créer un maximum de valeur. En Europe, on est plus centré sur les droits, les droits de chacun tandis que, de chaque être humain, tandis qu'en Asie, et notamment en Asie Pacifique, on est centré sur le « nous » , c'est-à-dire c'est la citoyenneté, c'est le bien commun qui doit primer justement sur les libertés individuelles. Donc c'est des visions qui sont bien différentes et on ne peut pas se permettre d'imposer notre éthique. notamment nous en Europe, on aime bien faire ça. Je l'ai vu en partant au travers de Hombau en Asie, au Japon. J'arrivais avec ma vision de l'éthique européenne et on m'a dit non, non, non. Nous, on utilise cette technologie, par exemple dans le domaine de la sécurité, pour pouvoir prévenir d'un comportement à risque. Chose qui serait en France impensable pour l'instant, à l'heure actuelle.

  • Speaker #0

    Alors justement, au niveau sécurité, si on prend l'exemple des JO.

  • Speaker #2

    Oui.

  • Speaker #0

    Les JO, donc il y a eu... énormément de sécurité, il y a eu des utilisations. Absolument. Tu parles du côté droit en Europe, comment ça se passe ?

  • Speaker #2

    Alors là-dessus, il faut savoir qu'en Europe, déjà, il y a deux normes. Donc il y a la RGPD et puis il y a le AI Act qui va rentrer en vigueur. Pour les JO, il y a eu, il me semble que c'était l'Assemblée nationale qui a voté un texte particulier pour pouvoir utiliser des caméras. Alors attention, ces caméras étaient à des endroits... bien particuliers, elles n'étaient pas utilisées 24h sur 24, donc il y avait des temps, et ces caméras ne permettaient pas de pouvoir identifier les personnes, parce qu'en fait, on revient vraiment à cette notion d'identification de la personne. Donc, il y a eu des systèmes qui ont été mis en place là-dessus pour les JO de 2024, bien sûr. Maintenant, ça aurait été un tout autre dispositif si on avait été en Asie, et c'est un tout autre dispositif pour les JO, justement, de Los Angeles. où là, ils vont utiliser, par exemple, de l'IA empathique pour détecter tout ce qui est comportement à risque, principalement, pour prévenir l'arrivée soit d'une situation, d'une attaque dangereuse.

  • Speaker #0

    C'est limite du Minority Report, là.

  • Speaker #2

    Expliquez. Tout dépend le point de vue. Moi, j'ai été surprise. J'avais le même point de vue quand je suis partie vraiment en Asie. Et on m'a dit, mais est-ce que vous prendriez le risque de vous faire agresser, par exemple, dans le métro ? C'est-à-dire qu'imaginez qu'on a une solution, qu'on a la possibilité de prévenir d'un crime, quel qu'il soit, mais qu'on ne veut pas l'utiliser, sous prétexte qu'il y a des libertés individuelles. Pourtant, vous êtes sur la place publique et vous ne faites rien de mal. Mais vous ne voulez pas justement prévenir d'un risque pour le bien commun. Est-ce que ça n'envoie pas à de l'égoïsme ? C'est des questions qui sont ouvertes, parce qu'on a notre culture, on a notre perception. Mais c'est vrai que j'ai été confrontée à cette vision de l'éthique, notamment au Japon, on en discutait précédemment, parce qu'ils utilisent beaucoup d'IA et notamment les IA dans les robots. Et cette question-là se pose.

  • Speaker #0

    Oui, c'est ça. Et le fameux « nous avant le jeu » là-bas.

  • Speaker #2

    « Nous avant le jeu » , c'est ça. En Europe, c'est le « je avant le nous » . C'est des perceptions qui sont différentes.

  • Speaker #0

    Et alors, ces différences culturelles, ce sont des facteurs déterminants à prendre en compte pour travailler avec les IA cognitives. Ça veut dire que vous, chez Onbo, vous vous adaptez selon les marchés ?

  • Speaker #2

    Tout à fait. En fait, on a des bases de données spécifiques à différentes cultures, différentes ethnies, différentes régions du monde qui doivent être prises en considération. Pourquoi ? Parce que l'empathie est propre à une culture. Par exemple, je reprends le cas du Japon, l'expression des émotions est complètement différente que la nôtre, par exemple en France ou en Europe. Ils sont beaucoup plus expressifs, par exemple, du haut du visage. On dit que nous, c'est du bas du visage. C'est un exemple. Donc, tout ça fait qu'effectivement, on se doit de prendre en considération pour limiter les biais cette dimension culturelle. Un autre point que l'on a fait, c'est que les émotions ne sont pas exprimées de la même façon. Certes, mais les émotions ne sont pas les mêmes selon les pays. On a travaillé avec un client qui nous a dit « j'aimerais percevoir quelque chose qui ne se voit pas » . Il y a un terme japonais spécifique. là-dessus. Nous, on n'a pas de définition, on n'a pas une émotion, on n'a pas un comportement qui traduit ce « il y a quelque chose qui ne va pas, je ne sais pas ce que c'est, mais je sais que c'est là » . On a réussi, de par la façon dont on a construit nos algorithmes, à déceler ça. Et c'est aussi ça la force je trouve de l'IA, une fois qu'elle est bien conçue.

  • Speaker #0

    Percevoir ce qui ne se perçoit pas.

  • Speaker #2

    Ce qui n'est pas perçu justement par l'homme. Parce qu'il ne faut pas l'oublier, la concentration d'un être humain, c'est 45 minutes. Et on a besoin de faire une pause. Donc, on ne peut pas être comme une machine, c'est le cas de le dire, à avoir une attention accrue tout le temps.

  • Speaker #0

    Et ça passe par les images, ça passe par le texte. En fait, ce sont des combinaisons des deux qui vont permettre...

  • Speaker #2

    Il y a le texte, il y a la voix, effectivement. Il y a également l'image. La modalité dépend vraiment du cas d'usage derrière qui est fait. Mais c'est la fusion de données, c'est la compréhension du contexte. Et j'insiste vraiment sur cette compréhension du contexte parce que si on prend une personne... par exemple qui sourit on va dire elle sourit imaginons qu'en fait cette personne là elle sourit pas mais elle est en train de faire une grimace parce qu'elle est attaquée tout de suite le fait de prendre en considération l'environnement, le message n'est absolument pas le même le résultat n'est pas le même et puis tu peux avoir des sourires de façade aussi exactement tu peux avoir de la tromperie en fait dans les expressions que tu donnes tout à fait et ça aussi on le détecte et ça on le détecte vrai sourire ou faux ?

  • Speaker #0

    Alors du coup, il y a quand même un sujet sur des dérives potentielles. C'est-à-dire que si tu détectes vraiment tout, l'éthique n'est pas nécessairement un garde-fou pour cette détection. Comment est-ce qu'on peut se prémunir de ces dérives ? Sachant que quand on a préparé cet épisode, tu m'avais parlé de biais différents à prendre en compte. Est-ce que tu peux nous expliquer ?

  • Speaker #2

    On ne pourra jamais tout détecter. Ça, c'est évident. Mais en termes d'éthique, il y a trois sources de biais. La première, et tout le monde l'a compris, c'est la création d'un algorithme. C'est-à-dire qui va créer un algorithme ? Il y a eu beaucoup d'encre qui ont été versées, notamment aux États-Unis, parce qu'il y a des algorithmes qui étaient conçus uniquement par des hommes, et notamment des hommes blancs. Donc, on introduit des biais parce qu'on est tel genre, telle origine, et ainsi de suite. Donc, il y a la création de l'algorithme, où on risque d'introduire nos biais. Le deuxième point, c'est par l'utilisation. Et on l'a vu avec, notamment, tout ce qui est deepfake. On prend une technologie, on l'utilise à d'autres fins, ça peut être même à des fins belliqueuses, et au final, on a un résultat qui n'est pas celui escompté. Et le troisième point, et c'est le point que beaucoup de gens oublient, c'est la donnée. C'est-à-dire qu'on a beau avoir, on va dire, une conception éthique, virtueuse, quasiment sans biais, parce que zéro biais ça n'existe pas, une utilisation qui suit la même transparence, si on entraîne avec des jeux de données qui sont biaisés, c'est terminé. Et on l'a vu, il y a le cas le plus célèbre, c'est aux États-Unis, où on voit qu'il y a un juge qui... qui doit rendre une sentence à un moment donné, donc qui doit prendre une décision. En fait, il s'avère que dans la plupart des cas, ce juge IA prend la décision de condamner des personnes noires et ou afro-américains et ou hispaniques. On se pose la question pourquoi ? Parce que dans les affaires précédentes, la plupart des condamnés dans cette région-là des États-Unis, ce sont des Afro-Américains ou des Hispaniques. D'où la nécessité de faire attention aux jeux de données que l'on introduit également.

  • Speaker #0

    Alors, si on se pense sur l'utilisation justement de ces IA dans une entreprise, comment est-ce qu'on peut maximiser l'impact tout en restant éthique ?

  • Speaker #2

    Alors, là-dessus, il faudra... Je vais parler de la façon dont Ombo fonctionne là-dessus. Pour maximiser déjà l'impact de l'IA, on doit avoir cette notion de transparence, qui est une notion clé chez nous. Transparence, ça veut dire quoi ? Ça veut dire pouvoir expliquer aussi les résultats derrière. Pourquoi j'ai eu ce résultat ? Comment est-ce que ça fonctionne ? Le deuxième point, et c'est ce qui est demandé par les entreprises, c'est pouvoir pluguer des systèmes de façon interopérable, c'est-à-dire de façon simple. à leur écosystème. Là aussi, ça c'est un point qui est important pour maximiser les bienfaits de l'IA. Et rester éthique, c'est également être éclairé, c'est-à-dire un consentement éclairé via l'utilisateur final.

  • Speaker #0

    Donc l'utilisateur doit être au courant.

  • Speaker #2

    Doit être au courant. Pour nous, l'utilisateur doit être au courant de l'utilisation de telle ou telle technologie derrière. Et si on veut être justement transparent, à quelle fin ces données seront utilisées.

  • Speaker #0

    Mais c'est-à-dire qu'au courant, jusqu'où ? Savoir qu'il y a une analyse de sa façon de parler, de sa prosodie, de l'écrit, de pourquoi ? En fait, tout ça, c'est annoncé au préalable ?

  • Speaker #2

    Bien sûr. Pour nous, ça se doit d'être annoncé. Quand on est avec des clients, on préconise justement d'être transparent. C'est-à-dire d'annoncer directement à l'utilisateur la technologie qui est utilisée et pourquoi elle est utilisée. Quand vous êtes, par exemple, en télécommunication, et on vous dit que cet enregistrement est susceptible d'être enregistré, à des fins de performance. Et en fait, c'est du marketing derrière, malheureusement. Et ils ne sont pas transparents sur l'utilisation de ces données.

  • Speaker #0

    Donc, au même titre que tu fais une visio, tu as ton note-taker qui se met, qui dit "Bonjour, je suis le note-taker d'Olivier, d'Athénaïs ou de Marine". Et donc, je suis là pour prendre des notes. Oui. Au même titre, la technologie explique. Voilà, bonjour, je suis tel,

  • Speaker #2

    je suis tel agent...

  • Speaker #0

    Et donc, je suis là pour échanger avec vous et répondre au mieux. C'est ça. Si il y a une connaissance peut-être approfondie de vos émotions, etc. Est-ce que ça va jusque là ou ce n'est pas nécessaire ? Alors,

  • Speaker #2

    ce n'est pas nécessaire, mais je préfère effectivement qu'il y ait cette transparence en disant « Voilà, on est une IA éthique, voilà à quoi ça sert là-dessus » . Pourquoi ? Parce que ça permet aussi de rappeler qu'il s'agit d'une IA. Certains, au début, évoquaient le fait qu'on puisse... Voilà, qu'on va dire que la frontière était mince entre l'IA et l'homme et c'est véridique. Beaucoup de gens et beaucoup de jeunes, et on l'a vu notamment aux États-Unis et même en Chine, utilisaient l'IA générative, que ce soit Caractère AI et ChatGPT, comme étant des substituts de psychologues ou de psychiatres. Et certains tombaient amoureux de LLM. Donc la frontière étant mince, à ce moment-là, il faut rappeler aussi qu'on a une IA en face de nous.

  • Speaker #0

    Olivier, qu'est-ce que tu en penses de ça ?

  • Speaker #1

    Beaucoup de choses. mais le... La dérive, c'est que l'IA émotionnelle va être présentée, probablement dans le cadre de la petite phrase avant l'enregistrement, et va être masquée derrière personnalisation ou meilleure compréhension ou des choses comme ça. La perception de l'IA va s'effacer dans les années à venir. Et effectivement, les jeunes générations aujourd'hui, de toute façon, préfèrent s'adresser à une IA dans leur quotidien. C'est une étude de décembre à près de 70% plutôt qu'à décembre 2024. préfèrent s'adresser à une IA plus qu'à un humain dans les tâches du quotidien avec la banque, avec l'administration, parce que plus efficace, plus rapide et plus simple à utiliser. Donc l'IA va s'effacer, l'IA émotionnelle va prendre...

  • Speaker #0

    de plus en plus d'importance pour des questions de performance. Et on va l'utiliser sans s'en rendre compte, comme aujourd'hui on utilise l'IA à 95% sans s'en rendre compte.

  • Speaker #1

    C'est une évolution. C'est une évolution.

  • Speaker #2

    Exactement, c'est une évolution. Non pas une révolution. Exactement. Pour l'entendre, il s'agit vraiment d'une évolution. Parce qu'on voit que l'IA s'introduit dans la communication entre les hommes. Donc partant de là...

  • Speaker #1

    Est-ce qu'on peut du coup se dire que l'IA empathique va avoir une vraie place dans nos vies ? Vous dites tous les deux qu'on s'en rendra même plus compte. Pour autant, elle sera là. Est-ce qu'on peut parler d'un futur plus humain ? grâce à l'IA, dans ces échanges justement entre les entreprises par exemple et les consommateurs ?

  • Speaker #2

    Alors plus humain, oui. Ce n'est même pas une question d'entreprise ou consommateur. Plus humain, oui, parce qu'on va se poser la question de la frontière entre l'homme et la machine. Et je trouve ça absolument fascinant parce qu'aujourd'hui, ce que l'on voit, c'est que la machine, et notamment l'IA générative, s'introduit au sein des écoles. C'est-à-dire qu'elle arrive à calculer, elle arrive à rédiger, elle arrive à argumenter. Et les enseignants, aujourd'hui, essayent justement de faire valoir le fait de ne pas utiliser ces algorithmes. Donc on voit qu'elle s'introduit de plus en plus au sein de l'école. Pourquoi c'est intéressant ? Parce qu'on se rend compte que tout ce qu'on a appris ici peut être fait par la machine. Donc ça va poser la question de mais en quoi suis-je unique ? Qu'est-ce que l'homme ? Et donc ça va nous, justement, nous repousser dans nos retranchements en nous disant, où est ma singularité ? Est-ce que c'est vraiment de la créativité ? Qu'est-ce qui fait de moi un être humain et qui pourra justement ne jamais être remplacé par la machine ? Et je trouve ça absolument fascinant parce que c'est des sujets d'actualité qui va former la société de demain.

  • Speaker #1

    Quand on a préparé cet épisode, tu as cité Merci. Une phrase de Laurence de Villiers que j'ai notée, que je redonne. "On dit qu'un avion vole, mais il ne bat pas des ailes comme un oiseau qui vole".

  • Speaker #2

    Oui, c'est ça. C'est un peu ça ? Oui, effectivement, c'est un peu ça l'idée. Elle dit, à l'instar d'un avion qui ne bat pas des ailes pour voler, on a construit des machines qui sont capables d'imiter sans ressentir, de parler sans comprendre. et d'avoir cette réflexion sans véritablement avoir une conscience. Et c'est toujours là l'enjeu pour nous aussi.

  • Speaker #1

    Et donc aussi de savoir, nous utilisateurs de cette IA, bien questionnés, on s'en parlait tout à l'heure, c'était off, mais de Olivier qui disait quand tu demandes gentiment à ChatGPT ou quelque chose, tu as une meilleure réponse. Et donc tu as expliqué pourquoi. Je veux bien que tu réexpliques. Pourquoi est-ce qu'on a une meilleure réponse ? Alors,

  • Speaker #2

    effectivement, l'une des théories, je tiens à le préciser, c'est que ces LLM sont basés sur et s'entraînent sur des données, un large panel de données. Par conséquent, à chaque fois qu'on commence par un bonjour, il vient chercher une donnée qui, effectivement, commence par un bonjour également. C'est-à-dire que sur des forums, quand il y a un bonjour, un merci, ce sont souvent des réponses qui sont structurées, qui sont argumentées et qui sont pertinentes. À l'instar de, contrairement à tout ce qui est sur les réseaux sociaux, où on commence ni par bonjour, ni par au revoir, ni par merci, qu'on donne son opinion. Donc on n'est plus dans l'argument, on est dans l'opinion. Donc là aussi, la machine l'a inconsciemment, justement, la machine l'a bien compris.

  • Speaker #1

    Oui, c'est intéressant. Et donc ça reprend ce principe. d'imitation et de reproduction, et aussi de langage pour baser des réponses. Et donc, ce besoin d'être particulièrement aussi attentif aux sources, toujours demander les sources pour être sûr d'avoir des bonnes réponses. Donc, cette vision d'une IA capable d'imiter nos émotions, de s'intégrer harmonieusement dans nos vies, pose aussi une question essentielle. Comment garder un équilibre entre l'innovation et l'humanité ? Cette question est parfaitement taillée pour celui dont le regard visionnaire à mes côtés n'a d'égal que son talent à éclairer les zones d'ombre. Olivier, c'est à toi.

  • Speaker #0

    Si, si t'en restes un peu, tu feras l'heureux. Gen AI is another AI. Dans le contexte tumultueux de notre ère numérique, l'IA émotionnelle impose une nouvelle réflexion urgente sur notre avenir numérique. Les avancées techno s'accélèrent à un rythme vertigineux. Entre 2022 et 2024, on a vu une révolution arriver dans toutes les couches de la population, aussi bien privée que professionnelle. Et la question de l'éthique, de l'émotion... Dans l'IA, lorsqu'elle touche, l'émotionnel ne peut pas être ignoré. Au travers d'ONTBO, en visionnaire, tu explores les limites des contrées connues, cherchant à tisser des solutions centrées sur l'humain et ce facteur insondable, jusqu'à présent, de ces émotions. Ton mantra, relevé dans l'une de tes interventions, repose sur une vérité existentielle. Les consommateurs n'achètent pas seulement des produits ou des services, ils achètent une histoire, ils achètent une émotion. Phénomène bien connu, mais il souligne la nécessité d'une informatique affective, capable de personnaliser les interactions en fonction des sentiments humains. Mais cette quête de personnalisation soulève des questions tout aussi fondamentales. Comment une IA peut-elle réellement comprendre l'humain avec ses nuances, ses frustrations, son sarcasme, alors qu'elle est intrinsèquement dépourvue d'émotions ? Et on l'a dit tout au long de cet épisode, elle ne fait que reproduire ce qu'elle connaît. Ça nous invite à une réflexion. un peu plus critiques, pouvons-nous développer des algos qui tiennent compte de la diversité culturelle, religieuse, sans tomber dans le piège d'une uniformisation réductrice ? Là aussi, on l'a évoqué, mais ces deux questions sont centrales. Est-ce que l'éthique émerge comme cet enjeu central dans la discussion sur l'IA ? Mais de quelle éthique parle-t-on ? Loin d'être un concept monolithique, l'éthique se décline en multiples facettes, influencées par des contextes culturels. L'une des questions aussi vieilles que la notion de sécurité dont on a parlé oppose le « je » au « nous » ou comment le « nous » peut-il passer avant le « je » sans sacrifier nos valeurs fondamentales ? On reste dans cet éternel débat des deux curseurs sécurité-liberté individuelle. L'IA empathique doit donc s'inscrire dans un cadre éthique pluriel, conscient des diversités qui composent notre monde. La place de l'IA empathique dans nos vies demeure incertaine, oscillant entre promesses et menaces. Peut-on envisager un avenir ? plus humain grâce à ces technologies, la réponse repose sur notre capacité à naviguer entre l'optimisme et la vigilance. Les technologies offrent des opportunités sans précédent pour améliorer notre quotidien, mais elles comportent également de très nombreux risques. Face à ces défis, et une fois de plus, j'en parle à chaque fois, l'esprit critique se révèle être notre meilleur atout. Il nous permet de questionner les narrations dominantes, d'explorer les dimensions cachées des technologies et d'insister sur la nécessité d'une responsabilisation collective. En définitive, l'avenir de l'IA empathique s'annonce comme une toile à tisser où chaque fil représente une émotion, une culture, une éthique. C'est dans cet entrelacement que pourrait résider l'espoir d'un demain plus humain, où l'illusion et la réalité s'harmonisent pour donner naissance à une nouvelle compréhension de ce que signifie être humain à l'ère numérique. La place de l'IA empathique dans nos vies demeure une question ouverte, une énigme à résoudre. Peut-on vraiment envisager un futur où l'IA passe du statut d'outil à celui du partenaire de l'humanité, ce qui entre nous est en train de se produire. L'idée d'un futur plus humain grâce à l'IA évoque-t-elle une utopie, une promesse de rédemption à travers la technologie ? Ou bien s'agit-il d'une illusion, un mirage qui nous écarte de notre essence humaine ? Vous avez 4 heures.

  • Speaker #1

    Qu'est-ce que tu en penses Athénaïs ?

  • Speaker #2

    Il a tout résumé. Il a tout résumé. Effectivement, on va avoir des compagnons proactifs. On les a peut-être déjà.

  • Speaker #1

    Je rembobine un tout petit peu. Ce podcast, il a vraiment pour vocation de donner des conseils, d'éclairer, de faire comprendre, de décrypter. Quels conseils est-ce que tu donnerais toi aux citoyens ou aux entreprises pour utiliser cette IA émotionnelle ? Qu'est-ce qu'il faut faire ? Quels sont les prérequis ?

  • Speaker #2

    Testez-la. Pour être convaincu, il faut l'attester. La plupart des personnes, des gens, ont ce biais tout à fait humain, c'est la défiance à l'égard des nouvelles technologies, parce qu'ils ne savent pas ce que c'est. Et ils se basent sur ce qu'ils ont pu entendre dans les médias ou autres, en se disant « c'est une vérité, donc ça devient ma vérité » . On met les mains, j'allais dire, dans le code. On se rend compte rapidement de ses limites, de comment ça fonctionne, du fait que ça ne remplacera certainement pas l'homme. Donc, testez, renseignez-vous. Allez-y, n'ayez pas peur.

  • Speaker #1

    Le libre arbitre si cher à Olivier.

  • Speaker #0

    Exactement. Exactement. C'est un de mes mantras quand j'interviens à droite et à gauche. Testez-le, utilisez-le. Utilisez-le à des fins professionnelles, mais utilisez-le aussi dans votre vie privée pour discuter. Aujourd'hui, ces IA génératives sont capables de tenir des conversations que vous n'auriez pas avec d'autres humains. Donc, essayez-le, testez-le. Tentez de le piéger. On l'a vu il n'y a pas très longtemps avec Lucie qui revient sur le tapis avec ses œufs de vache. Donc ça, c'est intéressant. Testez-le. Essayez de le coincer, de le piéger, de l'enfermer, que ce soit sur le biais de la connaissance, de l'éthique ou du raisonnement. Ça vous permettra de vous l'approprier et ensuite de l'utiliser à des fins opérationnelles et à des fins de plus grande efficience. dans la vie de tous les jours et dans la vie professionnelle. Parce que de toute façon, vous ne le freinerez pas. Tu parlais tout à l'heure de l'éducation. L'éducation est vent debout contre ces outils en France. Ce n'est pas du tout le cas à l'étranger. Et l'IA générative... gamins de 12 ans savent s'en servir. Ils savent demander à Chad J.P.T. un exposé sur la Lune. Donc, on ne résistera pas. Il faut l'appréhender, il faut l'apprivoiser pour savoir s'en servir.

  • Speaker #2

    C'est tout à fait ça. C'est une vague. Soit on surfe sur cette vague-là qui va nous amener là où on le désire, soit on risque d'être noyé et malheureusement d'être mis de côté. Donc, c'est un formidable... outils, autant l'utiliser justement à bon escient.

  • Speaker #0

    Et c'est ça le danger par contre, c'est l'électronisme grandissant et l'incapacité d'une partie de la population à pouvoir s'accrocher à cette vague et à continuer d'exister au milieu d'une ère numérique qui change. qui va bouleverser l'environnement sociétal. Et effectivement, un des devoirs collectifs du Nous, c'est aussi d'emmener toute la population vers cette nouvelle ère. Sinon, on va créer des fractures qui vont revenir en boomerang dans quelques années.

  • Speaker #1

    Avec des IA qui sont disponibles aussi de manière gratuite, un peu partout. Tout à fait. Sans penser dans toutes les cités, mais en tout cas, il y a vraiment de l'IA partout maintenant. Donc, on peut vraiment les tester.

  • Speaker #2

    Accessibles et accessibles justement à tous les niveaux. Donc, il faut tester et se faire son propre libre arbitre sur ces sujets.

  • Speaker #1

    Une source, Olivier, pour aller justement tester plein d'IA.

  • Speaker #0

    Tu veux que je la dise absolument ? S'il te plaît. Poe.com

  • Speaker #1

    Non, non, et l'autre.

  • Speaker #0

    Poe.com Vous avez toutes les IA, y compris celles qui sont interdites en Europe, où vous pouvez tester, accéder. Et il y a une IA pour ça. qui recense aujourd'hui, je crois que j'ai regardé hier, il y a près de 30 000 tâches professionnelles qui sont recensées pour je ne sais plus combien de dizaines de milliers d'outils qu'on peut mettre en relation avec ces tâches. Et ça représente 5 000 activités professionnelles.

  • Speaker #1

    Pas mal.

  • Speaker #0

    On commence à avoir un panel intéressant. L'intérêt de l'IA génératif, c'est que c'est une des rares très hautes technologies qui n'est pas de barrière à l'entrée puisque tout le monde peut la tester. C'est gratuit. Donc tout le monde peut y aller, il n'y a aucune barrière financière, cognitive, ça parle toutes les langues. Donc il n'y a aucun argument qui empêche d'aller l'essayer.

  • Speaker #2

    Si ce n'est ses propres peurs.

  • Speaker #0

    Si ce n'est ses propres peurs.

  • Speaker #1

    Et bien Athénaïs, Olivier, merci beaucoup pour cet échange qui était passionnant. Ce qu'on retient c'est que cette IA empathique n'est pas seulement une avancée technologique, c'est vraiment une invitation aussi à repenser notre rapport. à l'autre, mais aussi au numérique. Merci pour votre écoute et je vous dis à très vite pour un nouvel épisode de Tendances Inno. Et voilà, chers auditeurs, c'est tout pour cet épisode de Tendances Inno. Un grand merci pour votre écoute. Nous espérons que vous avez trouvé cette discussion aussi enrichissante et inspirante que nous. N'oubliez pas de vous abonner pour ne manquer aucun de nos futurs épisodes. Vous pouvez retrouver Tendances Inno sur toutes les plateformes de podcast, YouTube et Dailymotion. Si vous aimez ce podcast, Faites-le nous savoir et aidez-nous à le faire connaître grâce à vos commentaires et à vos partages. Pour plus de contenu sur les technologies émergentes, suivez-nous sur les réseaux sociaux de Docaposte. A bientôt pour un nouvel épisode, placé sous le signe de la tech, du Web3 et de l'innovation. D'ici là, continuez à explorer, à innover et à créer.

Description

Dans ce nouvel épisode de Tendances Inno, Marine Adatto et Olivier Senot reçoivent Athénaïs Oslati, fondatrice d’ONTBO, pour explorer l’IA cognitive et empathique.

 

Au programme :

- IA empathique : mythe ou réalité ?

- Usages concrets et retours d’expérience

- Éthique et diversité culturelle dans l’IA

- Conseils pour tester et adopter ces nouvelles solutions

 

À travers des échanges concrets et des retours d’expérience, découvrez comment l’intelligence artificielle peut décrypter nos émotions, personnaliser les interactions et redéfinir la relation homme-machine.

 

L’épisode aborde aussi les enjeux éthiques, les différences culturelles et les défis liés à l’intégration de l’IA empathique dans notre quotidien.

 

Un rendez-vous inspirant pour comprendre comment l’innovation technologique peut rendre le numérique plus humain et inclusif.

 

#Tech #Innovation #IA #Empathie #Docaposte #TendancesInno #Cognitif


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue dans Tendances Inno, votre rendez-vous pour explorer les technologies émergentes présentées par Docaposte, le référent français de la confiance numérique. Je suis Marine Adatto et j'ai le plaisir d'être accompagnée par Olivier Senot, directeur de l'innovation chez Docaposte. Dans ce podcast, nous vous emmenons à la rencontre des innovateurs et des créateurs qui redéfinissent notre monde numérique. Que votre curiosité vous porte vers le Web3, l'IA ou toute autre technologie émergente, vous êtes au bon endroit. Préparez-vous à une dose d'inspiration et d'informations, au programme des découvertes, des défis et des solutions innovantes. Alors branchez vos écouteurs, ouvrez votre esprit et plongez avec nous dans l'univers de Tendances Inno. À l'heure où l'intelligence artificielle s'invite dans toutes les sphères de notre quotidien, une question centrale émerge. L'IA peut-elle comprendre et reproduire nos émotions ? Dans cet épisode de Tendances Inno, nous explorons un concept fascinant, lié à cognitive et empathique. Pour en parler, nous avons l'immense plaisir de recevoir Athénaïs Oslati, fondatrice d'ONTBO, une deep tech qui redéfinit l'intelligence artificielle en y intégrant une dimension empathique. À mes côtés, Olivier Senot, directeur des innovations chez Docaposte, nous aidera à décrypter les enjeux technologiques et éthiques derrière cette révolution. Comment une IA peut-elle décrypter les émotions humaines ? Quels sont les cas d'usage et les limites de cette technologie ? Et surtout, peut-on vraiment parler d'un futur plus humain grâce à l'IA ? Un épisode pour comprendre, questionner et pourquoi pas rêver un peu. Olivier, c'est à toi.

  • Speaker #1

    Bonjour Athénaïs, bonjour Marine. Merci. Il y a seulement 28 ans, Athénaïs, tu es la fondatrice d'Ontbo, Marine vient de le dire, une entreprise deep tech pionnière dans le domaine de l'affectif computing. D'abord médecine, puis des études d'ingénieur en double cursus, mécanique et technologie. et organiques, compétences très utiles pour développer une intelligence artificielle empathique et éthique, capable de s'adapter à l'environnement cognitif de l'utilisateur pour offrir une expérience numérique plus humaine et authentique. Tu accompagnes les entreprises dans l'optimisation de leurs interactions digitales avec leurs clients en allant au-delà des données traditionnelles âge, sexe, géographie, etc. pour intégrer des données plus fines et spécifiques, personnalité, émotion, comportement, réaction, etc. Reconnu pour tes innovations, tu remportes notamment le prix Inov, coup de cœur du gouvernement dans le cadre du plan France 2030, et plus récemment, le prestigieux prix Forbes 30, Under 30. En juin dernier, Onbo a annoncé un partenariat stratégique avec Microsoft pour accélérer son développement et son passage à l'échelle. Ton parcours est exemplaire, ta rapidité d'exécution est impressionnante, tu représentes l'élite de la génération des entrepreneurs. Et pour reprendre un slogan du XXe siècle, mais qu'est-ce qui fait marcher Athénaïs ? Nous t'écoutons.

  • Speaker #2

    Bonjour Marine, bonjour Olivier,

  • Speaker #0

    bonjour Athanise, bienvenue.

  • Speaker #2

    Merci.

  • Speaker #0

    Pour planter le décor, je vous propose déjà un quiz, vraiment pour avoir une idée des grands chiffres. Première question, quel pourcentage des Français se disent méfiants vis-à-vis de l'intelligence artificielle ? Est-ce que c'est 51%, 69% ou alors 35% ? Méfiant,

  • Speaker #2

    51.

  • Speaker #0

    51, Olivier tu dis quoi ?

  • Speaker #1

    Oui, au moins. 69% ?

  • Speaker #0

    69% ? Oui, en effet, c'est 69%. Ils sont quand même globalement assez méfiants. Donc c'est 69% selon une étude Ipsos qui a été publiée en 2023. Et alors, ils pensent que l'IA représente plus d'inconvénients que d'avantages. Et cette proportion élevée indique donc cette méfiance dont on a parlé envers l'IA de la population française. Deuxième question. En France toujours, quel pourcentage de consommateurs a une mauvaise image des entreprises utilisant des outils automatisés pour la relation client ? Il y en a beaucoup. 47%, 67% ou 87% ?

  • Speaker #2

    Je dirais 67%.

  • Speaker #0

    67, Olivier ?

  • Speaker #1

    67, parce que la GNZ l'accepte volontiers.

  • Speaker #0

    Oui, c'est ça. 67%, et donc c'est une enquête de l'entreprise Kiamo de janvier 2024. Dernière question pour rentrer encore plus dans l'empathie. Quel pays teste actuellement des robots empathiques dans ses hôpitaux ? Japon, Chine ou Allemagne ?

  • Speaker #2

    Japon, Chine, je dirais le Japon.

  • Speaker #0

    Japon ?

  • Speaker #1

    Oui, Japon, fortement, ils sont hyper en avant.

  • Speaker #0

    Oui, Japon, qui est pionnier dans l'utilisation de l'IA empathique, notamment pour accompagner des patients isolés ou en soins prolongés. Et donc j'ai une question bonus. Quel pourcentage de patients japonais acceptent ? positivement l'interaction avec des robots empathiques ? 58%, 68%

  • Speaker #2

    ou 79% ? 79% pour avoir échangé au Japon. Ils adorent tout ce qui est robot et robot empathique.

  • Speaker #0

    Ils en ont choisi eux.

  • Speaker #2

    Exactement.

  • Speaker #0

    Alors moi, le chiffre que j'ai, c'est 68% qui est une étude du ministère japonais de la santé de 2023. Donc probablement que ça a augmenté. 68% des patients hospitalisés montrent une réaction positive aux interactions robotiques. C'est particulièrement efficace avec les personnes âgées et les patients en long séjour. À quand en France ? Continuons. Alors, on est allé... Au travail. Au travail. Exactement. Continuons avec le micro-trottoir. Donc, on est allé poser trois questions au public pour vraiment comprendre leur perception de l'IA empathique. La première question qu'on leur a posée, c'est quelle est votre perception de l'intelligence artificielle ? Pour moi, c'est quelque chose qui a été créé par l'humain pour faire parler des machines. On peut faire beaucoup de choses avec, comme toute nouvelle invention. il y a du bon, il y a du mauvais, à savoir comment on l'utilise en fait.

  • Speaker #3

    C'est un outil qui part d'un sentiment intéressant de se dire, de nous aider à répondre à des problématiques en nous donnant des informations tirées de droite à gauche. Mais il y a beaucoup de réserves, telles que la connaissance que l'IA utilise, connaissance qui est basée sur ce que fournit l'homme. Il y a quand même des limites à ça, et surtout de là où la connaissance va être récupérée. Après, il y a énormément d'applications. Dans ma formation, on avait utilisé ça pour utiliser l'intelligence artificielle pour faire de la chirurgie, ce qui est super intéressant, pour accéder à des zones très dangereuses, puisqu'on a une très grande précision par les robots, et j'en passe. Dans l'idée, c'est une bonne perception, je n'ai pas le temps de tout détailler, mais il y a beaucoup de contraintes, il y a aussi l'écologie autour de ça.

  • Speaker #0

    Beaucoup d'opportunités, mais en effet, quand même beaucoup de questionnements. Ensuite, on leur a demandé s'ils pensaient qu'une IA pouvait décrypter nos émotions quand on lui parle. Et voici les réponses.

  • Speaker #3

    On a quand même une limite de décryptage parce que des fois, on a des sentiments contraires. On va exprimer d'une manière et montrer d'une autre. Donc, toutes ces parties-là, il y a beaucoup d'apprentissage encore côté IA. Et j'entends surtout sur la partie... décryptage visuel du visage, mais aussi ressenti, parce qu'il y a beaucoup de compassion et d'empathie à avoir pour pouvoir décrypter les sentiments.

  • Speaker #2

    Je pense que oui, ils peuvent être très pertinents, dans la mesure où le dialogue, l'interaction avec l'intelligence artificielle passe essentiellement par l'écrit, comme dans le ChatGPT. Donc, une analyse du texte, des mots que l'on peut utiliser, de la syntaxe, du rythme, peut effectivement... permettent de traduire, de décrypter, de détecter les émotions. Reconnaissance faciale, visuelle aussi, de toute évidence. Gestuelle, corporelle, ça se modélise très bien pour pouvoir analyser au moins les émotions superficielles exprimées par un humain.

  • Speaker #0

    Voilà, on pense en effet que c'est possible et on va creuser ce sujet avec toi Athénaïs. Enfin, on leur a montré la vidéo du robot Optimus de Tesla. Vous voyez cette vidéo. Et on leur a posé la question suivante. Pensez-vous qu'un robot comme celui-ci puisse développer une conscience, mimer une émotion et un comportement humain ?

  • Speaker #4

    Je ne connais pas, mais je connaissais les robots de Boston Dynamics. On dirait que c'est un petit peu le même principe. On dirait que Tesla est allé un petit peu plus loin, plus dans le mode humain, et Boston Dynamics plus dans les trucs sur quatre pattes, qui sont quand même assez réalistes aussi. Mais en tout cas, oui, c'est bien ce que Tesla font. Ça part de loin quand même, parce que c'est sûr que mimer un déplacement humain, c'est vraiment très compliqué. Comme on voit là, il est déjà hyper, hyper... poussé et pourtant il fait juste marcher, déplacer un oeuf et arriver à se baisser. J'imagine que c'est extrêmement complexe de faire en sorte qu'il se comporte exactement comme un humain parce que l'oreille interne, les muscles, les mers et tout, c'est quand même hyper compliqué. Mais on dirait que ça y arrive petit à petit. Développer une conscience, peut-être pas, parce que c'est quand même extrêmement complexe aussi. Là, on a vu avec l'avancement de l'IA cette année qu'on était capable d'avoir des bonnes discussions avec l'IA, que l'IA est capable de... simuler en fait il est capable de simuler ou d'imiter il n'est pas vraiment capable d'avoir une propre conscience à lui même donc il peut imiter quelqu'un qui est triste imiter quelqu'un qui est heureux on dirait que du moins l'IA est capable de simuler et d'imiter quelqu'un après développer une conscience pas encore je pense peut-être un jour mais ça va prendre du temps et c'est comme si parce que l'IA doit apprendre un petit peu le comportement humain c'est comme s'il doit vraiment apprendre énormément sur l'humain pour pouvoir se comporter un petit peu comme un humain.

  • Speaker #0

    Athénaïs, qu'est ce que tu en penses ?

  • Speaker #2

    Alors c'est très intéressant. Le premier point c'est que chacun a bien saisi que l'IA aujourd'hui excelle dans tout ce qui est automatisation et exécution notamment des tâches. Certains parlaient dans le domaine de la robotique, dans le secteur médical, les avancées en termes d'IA. Donc là c'est vraiment une efficacité dans l'exécution, dans la détection notamment des cancers. Donc ça c'est super. Je vois également que certains ont compris. la nuance d'une IA d'une IA empathique plus précisément qu'elle ne fait que imiter donc on va rentrer je pense après dans le sujet mais effectivement l'IA empathique ne fait que imiter un comportement et aujourd'hui on n'est pas à même de pouvoir dire qu'on va créer une conscience comme on l'entend aujourd'hui

  • Speaker #0

    Olivier, des réactions ? Je t'ai vu hocher la tête et dire non de la tête. Mieux dire quoi ? Mieux dire quoi ?

  • Speaker #1

    Non, non, mais je partage le point de vue d'Athénaïs. Ensuite, la grande question, seront-ils capables de développer une conscience ? On n'a pas assez d'une heure pour faire le tour de la question.

  • Speaker #2

    Exactement, c'est vrai,

  • Speaker #0

    c'est vrai. Il faudrait faire une série dessus. Oui, oui.

  • Speaker #1

    Déjà, répondre à la question, qu'est-ce qu'une conscience ?

  • Speaker #0

    Qu'est-ce qu'une conscience ? Avant de répondre à la question « qu'est-ce qu'une conscience ? » , répondons-nous posant les bases, Anthénaïs. Qu'est-ce que l'IA empathique et cognitive ?

  • Speaker #2

    L'IA empathique et cognitive, c'est une branche de l'IA, de l'informatique affective, qui a cette capacité de pouvoir imiter, de comprendre le système psychologique d'un individu, toute sa cognition. Ça va être ses traits de personnalité, ses réactions, ses comportements et également ses émotions. Alliant tout ça à du contexte, notamment un contexte psychologique mais également environnemental, ça nous permet d'avoir une représentation, une map psychologique d'un individu.

  • Speaker #0

    Et alors comment est-ce que ça se traduit concrètement dans ta solution chez Onbo ?

  • Speaker #2

    Alors précédemment on a entendu les différentes modalités, on a entendu l'image, le texte, la voix. Donc effectivement ce sont les modalités qu'on utilise aujourd'hui. dans un premier temps au travers par exemple des expressions faciales, de la gestuelle. On vient croiser également la voix et dans la voix il y a deux choses à distinguer. Il y a ce que je dis mais il y a également ce qu'on appelle la prosodie, c'est-à-dire le timbre de la voix, le son, l'intonation. Parce qu'en France on est très fort pour tout ce qui est passif-agressif, c'est-à-dire sur un ton très monotone, très monocorde, tenir un propos très incisif. Donc il faut faire cette distinction entre les deux. Et après effectivement tout ce qui est relié au texte. Donc ça peut être des messages, emails ou autres. Donc nous, on vient fusionner toutes ces données pour avoir véritablement une compréhension profonde de l'être humain et de ce qu'il souhaite et de son intention et de ses désirs, bien plus que de l'émotion. Donc on met ça dans tout l'écosystème. Donc c'est sous forme d'API, c'est-à-dire que c'est un petit plugin dans lequel on s'insère au sein de l'écosystème de nos clients. Et à partir de là, ils peuvent jouer avec.

  • Speaker #0

    Et alors, justement, comment est-ce que ça va se traduire concrètement ? Un client... met l'API dans sa solution. Et qu'est-ce qui se passe ?

  • Speaker #2

    Alors, à ce moment-là, généralement, les clients avec qui on collabore ont déjà des IA ou utilisent déjà, par exemple, des IA génératives. Donc, nous, on est vraiment sur trois grands secteurs. Le premier, c'est tout ce qui est Customer Support, c'est-à-dire la relation homme-machine directement dans le secteur, par exemple, des télécoms, des télécommunications, du retail, de la banque. Donc ici, au travers des assistants, par exemple, virtuels, vocales, ou bien texte généralement, on va pouvoir analyser en temps réel, comprendre véritablement le besoin, les attentes, les motivations de notre interlocuteur pour proposer justement une réaction beaucoup plus empathique et surtout répondre à sa demande. Parce qu'on sait combien de fois on est sur du SAV par exemple. On a une personne au téléphone, on sait très bien que c'est un chatbot ou que c'est un assistant virtuel qui est derrière, qui ne comprend pas ce que l'on dit et au final on est renvoyé vers un être humain. qui nous posent exactement les mêmes questions. Donc remplacer l'homme par la machine sur des tâches chronophages, ok, mais il faut que ça soit fait justement de façon empathique.

  • Speaker #0

    Et la vision derrière cette innovation, donc tu viens de donner un premier élément de réponse, c'est quoi la vision globale ?

  • Speaker #2

    La big vision, en fait, c'est pas... La vision que l'on a ici, c'est de passer d'un monde où les IA que l'on connaît, où les machines... que l'on a aujourd'hui sont de simples outils à des compagnons qui soient proactifs. Le vrai sujet, c'est qu'aujourd'hui, toutes les machines, toutes les IA que l'on utilise sont réactives. C'est-à-dire qu'on a, par exemple, une émotion, la machine s'adapte, elle est réactive. On a une intention et un comportement, la machine s'adapte, elle est dans une phase de réaction. Nous, on veut aller beaucoup plus loin que ça, c'est-à-dire qu'on a ce compagnon proactif qui comprend les singularités de chacun et chacune d'entre nous pour pouvoir ensuite anticiper au niveau de nos besoins.

  • Speaker #0

    Oui, avec une analyse finalement un peu froide et éloignée qui permet d'avoir la meilleure réponse possible pour la personne qui est en face. Alors, est-ce que tu as des exemples concrets à nous partager ? Des chiffres, par exemple, de clients qui utilisent ta solution ?

  • Speaker #2

    Ce qu'il faut se dire avant tout, c'est de se poser la question, en fait, qu'est-ce qui rend une expérience ? on va dire inoubliable. Et ce n'est pas juste la précision, c'est avant tout l'émotion. Et il y a un chiffre phare qui nous parle, c'est que 95% des interactions homme-machine sont drivées en 2025 par l'IA. Et ça, c'est juste 95%. 95% ! Et derrière, la plupart des gens ne le savent pas. D'où la nécessité de remettre de l'humain, de l'empathie au sein de cette interaction, de cette relation machine. Ça, c'est un vrai sujet aujourd'hui. Et on le voit, petit aparté là-dessus, j'étais au CES 2024, on parlait beaucoup d'IA générative. On entendait Gen AI, DLLM, Open AI et ainsi de suite. Tout le monde n'avait que ça sur les lèvres au travers de chatbots et d'assistants virtuels. et on voit qu'il y a un... Il y a un basculement qui s'est opéré sur la fin 2024, où là, OpenAI, Meta, Google, lancent également des nouveaux projets qui s'appellent Empathy AI. Et ils voient qu'on a atteint un plafond de verre sur l'exécution, justement, l'IA qui exécute des tâches. C'est bien, maintenant l'IA est dans l'interaction en machine, il va falloir passer un cap, celui de la compréhension de l'être humain, et pas juste connaître l'être humain. C'est vraiment ça. que chacun et chacune d'entre nous voulons, c'est vraiment être compris par la machine et pas juste être connu.

  • Speaker #0

    Mais alors dans cette compréhension, il y a aussi un enjeu central, qui est un enjeu éthique.

  • Speaker #2

    Absolument.

  • Speaker #0

    Et qui, en plus, est différent selon les cultures. Est-ce qu'on peut dire qu'il y a plusieurs types d'éthiques ?

  • Speaker #2

    Alors, il y a plusieurs types d'éthiques, puisqu'il y a plusieurs cultures. L'IA a émergé, enfin l'IA a même explosé durant ces deux dernières années. aux quatre coins de la planète, que ce soit Japon, Corée, Chine, on l'a vu récemment, États-Unis, chacun, de par sa culture, de par sa perception, de par son origine, de par son ethnie, a une définition qui lui est propre de l'éthique, complètement. Et l'éthique en Asie n'est absolument pas la même que l'éthique en Europe, qui elle-même diffère de l'éthique en Amérique du Nord. L'Amérique du Nord, l'éthique, c'est comment on va pouvoir... capitaliser. Le terme capitalisme est central ici, c'est comment on va pouvoir créer un maximum de valeur. En Europe, on est plus centré sur les droits, les droits de chacun tandis que, de chaque être humain, tandis qu'en Asie, et notamment en Asie Pacifique, on est centré sur le « nous » , c'est-à-dire c'est la citoyenneté, c'est le bien commun qui doit primer justement sur les libertés individuelles. Donc c'est des visions qui sont bien différentes et on ne peut pas se permettre d'imposer notre éthique. notamment nous en Europe, on aime bien faire ça. Je l'ai vu en partant au travers de Hombau en Asie, au Japon. J'arrivais avec ma vision de l'éthique européenne et on m'a dit non, non, non. Nous, on utilise cette technologie, par exemple dans le domaine de la sécurité, pour pouvoir prévenir d'un comportement à risque. Chose qui serait en France impensable pour l'instant, à l'heure actuelle.

  • Speaker #0

    Alors justement, au niveau sécurité, si on prend l'exemple des JO.

  • Speaker #2

    Oui.

  • Speaker #0

    Les JO, donc il y a eu... énormément de sécurité, il y a eu des utilisations. Absolument. Tu parles du côté droit en Europe, comment ça se passe ?

  • Speaker #2

    Alors là-dessus, il faut savoir qu'en Europe, déjà, il y a deux normes. Donc il y a la RGPD et puis il y a le AI Act qui va rentrer en vigueur. Pour les JO, il y a eu, il me semble que c'était l'Assemblée nationale qui a voté un texte particulier pour pouvoir utiliser des caméras. Alors attention, ces caméras étaient à des endroits... bien particuliers, elles n'étaient pas utilisées 24h sur 24, donc il y avait des temps, et ces caméras ne permettaient pas de pouvoir identifier les personnes, parce qu'en fait, on revient vraiment à cette notion d'identification de la personne. Donc, il y a eu des systèmes qui ont été mis en place là-dessus pour les JO de 2024, bien sûr. Maintenant, ça aurait été un tout autre dispositif si on avait été en Asie, et c'est un tout autre dispositif pour les JO, justement, de Los Angeles. où là, ils vont utiliser, par exemple, de l'IA empathique pour détecter tout ce qui est comportement à risque, principalement, pour prévenir l'arrivée soit d'une situation, d'une attaque dangereuse.

  • Speaker #0

    C'est limite du Minority Report, là.

  • Speaker #2

    Expliquez. Tout dépend le point de vue. Moi, j'ai été surprise. J'avais le même point de vue quand je suis partie vraiment en Asie. Et on m'a dit, mais est-ce que vous prendriez le risque de vous faire agresser, par exemple, dans le métro ? C'est-à-dire qu'imaginez qu'on a une solution, qu'on a la possibilité de prévenir d'un crime, quel qu'il soit, mais qu'on ne veut pas l'utiliser, sous prétexte qu'il y a des libertés individuelles. Pourtant, vous êtes sur la place publique et vous ne faites rien de mal. Mais vous ne voulez pas justement prévenir d'un risque pour le bien commun. Est-ce que ça n'envoie pas à de l'égoïsme ? C'est des questions qui sont ouvertes, parce qu'on a notre culture, on a notre perception. Mais c'est vrai que j'ai été confrontée à cette vision de l'éthique, notamment au Japon, on en discutait précédemment, parce qu'ils utilisent beaucoup d'IA et notamment les IA dans les robots. Et cette question-là se pose.

  • Speaker #0

    Oui, c'est ça. Et le fameux « nous avant le jeu » là-bas.

  • Speaker #2

    « Nous avant le jeu » , c'est ça. En Europe, c'est le « je avant le nous » . C'est des perceptions qui sont différentes.

  • Speaker #0

    Et alors, ces différences culturelles, ce sont des facteurs déterminants à prendre en compte pour travailler avec les IA cognitives. Ça veut dire que vous, chez Onbo, vous vous adaptez selon les marchés ?

  • Speaker #2

    Tout à fait. En fait, on a des bases de données spécifiques à différentes cultures, différentes ethnies, différentes régions du monde qui doivent être prises en considération. Pourquoi ? Parce que l'empathie est propre à une culture. Par exemple, je reprends le cas du Japon, l'expression des émotions est complètement différente que la nôtre, par exemple en France ou en Europe. Ils sont beaucoup plus expressifs, par exemple, du haut du visage. On dit que nous, c'est du bas du visage. C'est un exemple. Donc, tout ça fait qu'effectivement, on se doit de prendre en considération pour limiter les biais cette dimension culturelle. Un autre point que l'on a fait, c'est que les émotions ne sont pas exprimées de la même façon. Certes, mais les émotions ne sont pas les mêmes selon les pays. On a travaillé avec un client qui nous a dit « j'aimerais percevoir quelque chose qui ne se voit pas » . Il y a un terme japonais spécifique. là-dessus. Nous, on n'a pas de définition, on n'a pas une émotion, on n'a pas un comportement qui traduit ce « il y a quelque chose qui ne va pas, je ne sais pas ce que c'est, mais je sais que c'est là » . On a réussi, de par la façon dont on a construit nos algorithmes, à déceler ça. Et c'est aussi ça la force je trouve de l'IA, une fois qu'elle est bien conçue.

  • Speaker #0

    Percevoir ce qui ne se perçoit pas.

  • Speaker #2

    Ce qui n'est pas perçu justement par l'homme. Parce qu'il ne faut pas l'oublier, la concentration d'un être humain, c'est 45 minutes. Et on a besoin de faire une pause. Donc, on ne peut pas être comme une machine, c'est le cas de le dire, à avoir une attention accrue tout le temps.

  • Speaker #0

    Et ça passe par les images, ça passe par le texte. En fait, ce sont des combinaisons des deux qui vont permettre...

  • Speaker #2

    Il y a le texte, il y a la voix, effectivement. Il y a également l'image. La modalité dépend vraiment du cas d'usage derrière qui est fait. Mais c'est la fusion de données, c'est la compréhension du contexte. Et j'insiste vraiment sur cette compréhension du contexte parce que si on prend une personne... par exemple qui sourit on va dire elle sourit imaginons qu'en fait cette personne là elle sourit pas mais elle est en train de faire une grimace parce qu'elle est attaquée tout de suite le fait de prendre en considération l'environnement, le message n'est absolument pas le même le résultat n'est pas le même et puis tu peux avoir des sourires de façade aussi exactement tu peux avoir de la tromperie en fait dans les expressions que tu donnes tout à fait et ça aussi on le détecte et ça on le détecte vrai sourire ou faux ?

  • Speaker #0

    Alors du coup, il y a quand même un sujet sur des dérives potentielles. C'est-à-dire que si tu détectes vraiment tout, l'éthique n'est pas nécessairement un garde-fou pour cette détection. Comment est-ce qu'on peut se prémunir de ces dérives ? Sachant que quand on a préparé cet épisode, tu m'avais parlé de biais différents à prendre en compte. Est-ce que tu peux nous expliquer ?

  • Speaker #2

    On ne pourra jamais tout détecter. Ça, c'est évident. Mais en termes d'éthique, il y a trois sources de biais. La première, et tout le monde l'a compris, c'est la création d'un algorithme. C'est-à-dire qui va créer un algorithme ? Il y a eu beaucoup d'encre qui ont été versées, notamment aux États-Unis, parce qu'il y a des algorithmes qui étaient conçus uniquement par des hommes, et notamment des hommes blancs. Donc, on introduit des biais parce qu'on est tel genre, telle origine, et ainsi de suite. Donc, il y a la création de l'algorithme, où on risque d'introduire nos biais. Le deuxième point, c'est par l'utilisation. Et on l'a vu avec, notamment, tout ce qui est deepfake. On prend une technologie, on l'utilise à d'autres fins, ça peut être même à des fins belliqueuses, et au final, on a un résultat qui n'est pas celui escompté. Et le troisième point, et c'est le point que beaucoup de gens oublient, c'est la donnée. C'est-à-dire qu'on a beau avoir, on va dire, une conception éthique, virtueuse, quasiment sans biais, parce que zéro biais ça n'existe pas, une utilisation qui suit la même transparence, si on entraîne avec des jeux de données qui sont biaisés, c'est terminé. Et on l'a vu, il y a le cas le plus célèbre, c'est aux États-Unis, où on voit qu'il y a un juge qui... qui doit rendre une sentence à un moment donné, donc qui doit prendre une décision. En fait, il s'avère que dans la plupart des cas, ce juge IA prend la décision de condamner des personnes noires et ou afro-américains et ou hispaniques. On se pose la question pourquoi ? Parce que dans les affaires précédentes, la plupart des condamnés dans cette région-là des États-Unis, ce sont des Afro-Américains ou des Hispaniques. D'où la nécessité de faire attention aux jeux de données que l'on introduit également.

  • Speaker #0

    Alors, si on se pense sur l'utilisation justement de ces IA dans une entreprise, comment est-ce qu'on peut maximiser l'impact tout en restant éthique ?

  • Speaker #2

    Alors, là-dessus, il faudra... Je vais parler de la façon dont Ombo fonctionne là-dessus. Pour maximiser déjà l'impact de l'IA, on doit avoir cette notion de transparence, qui est une notion clé chez nous. Transparence, ça veut dire quoi ? Ça veut dire pouvoir expliquer aussi les résultats derrière. Pourquoi j'ai eu ce résultat ? Comment est-ce que ça fonctionne ? Le deuxième point, et c'est ce qui est demandé par les entreprises, c'est pouvoir pluguer des systèmes de façon interopérable, c'est-à-dire de façon simple. à leur écosystème. Là aussi, ça c'est un point qui est important pour maximiser les bienfaits de l'IA. Et rester éthique, c'est également être éclairé, c'est-à-dire un consentement éclairé via l'utilisateur final.

  • Speaker #0

    Donc l'utilisateur doit être au courant.

  • Speaker #2

    Doit être au courant. Pour nous, l'utilisateur doit être au courant de l'utilisation de telle ou telle technologie derrière. Et si on veut être justement transparent, à quelle fin ces données seront utilisées.

  • Speaker #0

    Mais c'est-à-dire qu'au courant, jusqu'où ? Savoir qu'il y a une analyse de sa façon de parler, de sa prosodie, de l'écrit, de pourquoi ? En fait, tout ça, c'est annoncé au préalable ?

  • Speaker #2

    Bien sûr. Pour nous, ça se doit d'être annoncé. Quand on est avec des clients, on préconise justement d'être transparent. C'est-à-dire d'annoncer directement à l'utilisateur la technologie qui est utilisée et pourquoi elle est utilisée. Quand vous êtes, par exemple, en télécommunication, et on vous dit que cet enregistrement est susceptible d'être enregistré, à des fins de performance. Et en fait, c'est du marketing derrière, malheureusement. Et ils ne sont pas transparents sur l'utilisation de ces données.

  • Speaker #0

    Donc, au même titre que tu fais une visio, tu as ton note-taker qui se met, qui dit "Bonjour, je suis le note-taker d'Olivier, d'Athénaïs ou de Marine". Et donc, je suis là pour prendre des notes. Oui. Au même titre, la technologie explique. Voilà, bonjour, je suis tel,

  • Speaker #2

    je suis tel agent...

  • Speaker #0

    Et donc, je suis là pour échanger avec vous et répondre au mieux. C'est ça. Si il y a une connaissance peut-être approfondie de vos émotions, etc. Est-ce que ça va jusque là ou ce n'est pas nécessaire ? Alors,

  • Speaker #2

    ce n'est pas nécessaire, mais je préfère effectivement qu'il y ait cette transparence en disant « Voilà, on est une IA éthique, voilà à quoi ça sert là-dessus » . Pourquoi ? Parce que ça permet aussi de rappeler qu'il s'agit d'une IA. Certains, au début, évoquaient le fait qu'on puisse... Voilà, qu'on va dire que la frontière était mince entre l'IA et l'homme et c'est véridique. Beaucoup de gens et beaucoup de jeunes, et on l'a vu notamment aux États-Unis et même en Chine, utilisaient l'IA générative, que ce soit Caractère AI et ChatGPT, comme étant des substituts de psychologues ou de psychiatres. Et certains tombaient amoureux de LLM. Donc la frontière étant mince, à ce moment-là, il faut rappeler aussi qu'on a une IA en face de nous.

  • Speaker #0

    Olivier, qu'est-ce que tu en penses de ça ?

  • Speaker #1

    Beaucoup de choses. mais le... La dérive, c'est que l'IA émotionnelle va être présentée, probablement dans le cadre de la petite phrase avant l'enregistrement, et va être masquée derrière personnalisation ou meilleure compréhension ou des choses comme ça. La perception de l'IA va s'effacer dans les années à venir. Et effectivement, les jeunes générations aujourd'hui, de toute façon, préfèrent s'adresser à une IA dans leur quotidien. C'est une étude de décembre à près de 70% plutôt qu'à décembre 2024. préfèrent s'adresser à une IA plus qu'à un humain dans les tâches du quotidien avec la banque, avec l'administration, parce que plus efficace, plus rapide et plus simple à utiliser. Donc l'IA va s'effacer, l'IA émotionnelle va prendre...

  • Speaker #0

    de plus en plus d'importance pour des questions de performance. Et on va l'utiliser sans s'en rendre compte, comme aujourd'hui on utilise l'IA à 95% sans s'en rendre compte.

  • Speaker #1

    C'est une évolution. C'est une évolution.

  • Speaker #2

    Exactement, c'est une évolution. Non pas une révolution. Exactement. Pour l'entendre, il s'agit vraiment d'une évolution. Parce qu'on voit que l'IA s'introduit dans la communication entre les hommes. Donc partant de là...

  • Speaker #1

    Est-ce qu'on peut du coup se dire que l'IA empathique va avoir une vraie place dans nos vies ? Vous dites tous les deux qu'on s'en rendra même plus compte. Pour autant, elle sera là. Est-ce qu'on peut parler d'un futur plus humain ? grâce à l'IA, dans ces échanges justement entre les entreprises par exemple et les consommateurs ?

  • Speaker #2

    Alors plus humain, oui. Ce n'est même pas une question d'entreprise ou consommateur. Plus humain, oui, parce qu'on va se poser la question de la frontière entre l'homme et la machine. Et je trouve ça absolument fascinant parce qu'aujourd'hui, ce que l'on voit, c'est que la machine, et notamment l'IA générative, s'introduit au sein des écoles. C'est-à-dire qu'elle arrive à calculer, elle arrive à rédiger, elle arrive à argumenter. Et les enseignants, aujourd'hui, essayent justement de faire valoir le fait de ne pas utiliser ces algorithmes. Donc on voit qu'elle s'introduit de plus en plus au sein de l'école. Pourquoi c'est intéressant ? Parce qu'on se rend compte que tout ce qu'on a appris ici peut être fait par la machine. Donc ça va poser la question de mais en quoi suis-je unique ? Qu'est-ce que l'homme ? Et donc ça va nous, justement, nous repousser dans nos retranchements en nous disant, où est ma singularité ? Est-ce que c'est vraiment de la créativité ? Qu'est-ce qui fait de moi un être humain et qui pourra justement ne jamais être remplacé par la machine ? Et je trouve ça absolument fascinant parce que c'est des sujets d'actualité qui va former la société de demain.

  • Speaker #1

    Quand on a préparé cet épisode, tu as cité Merci. Une phrase de Laurence de Villiers que j'ai notée, que je redonne. "On dit qu'un avion vole, mais il ne bat pas des ailes comme un oiseau qui vole".

  • Speaker #2

    Oui, c'est ça. C'est un peu ça ? Oui, effectivement, c'est un peu ça l'idée. Elle dit, à l'instar d'un avion qui ne bat pas des ailes pour voler, on a construit des machines qui sont capables d'imiter sans ressentir, de parler sans comprendre. et d'avoir cette réflexion sans véritablement avoir une conscience. Et c'est toujours là l'enjeu pour nous aussi.

  • Speaker #1

    Et donc aussi de savoir, nous utilisateurs de cette IA, bien questionnés, on s'en parlait tout à l'heure, c'était off, mais de Olivier qui disait quand tu demandes gentiment à ChatGPT ou quelque chose, tu as une meilleure réponse. Et donc tu as expliqué pourquoi. Je veux bien que tu réexpliques. Pourquoi est-ce qu'on a une meilleure réponse ? Alors,

  • Speaker #2

    effectivement, l'une des théories, je tiens à le préciser, c'est que ces LLM sont basés sur et s'entraînent sur des données, un large panel de données. Par conséquent, à chaque fois qu'on commence par un bonjour, il vient chercher une donnée qui, effectivement, commence par un bonjour également. C'est-à-dire que sur des forums, quand il y a un bonjour, un merci, ce sont souvent des réponses qui sont structurées, qui sont argumentées et qui sont pertinentes. À l'instar de, contrairement à tout ce qui est sur les réseaux sociaux, où on commence ni par bonjour, ni par au revoir, ni par merci, qu'on donne son opinion. Donc on n'est plus dans l'argument, on est dans l'opinion. Donc là aussi, la machine l'a inconsciemment, justement, la machine l'a bien compris.

  • Speaker #1

    Oui, c'est intéressant. Et donc ça reprend ce principe. d'imitation et de reproduction, et aussi de langage pour baser des réponses. Et donc, ce besoin d'être particulièrement aussi attentif aux sources, toujours demander les sources pour être sûr d'avoir des bonnes réponses. Donc, cette vision d'une IA capable d'imiter nos émotions, de s'intégrer harmonieusement dans nos vies, pose aussi une question essentielle. Comment garder un équilibre entre l'innovation et l'humanité ? Cette question est parfaitement taillée pour celui dont le regard visionnaire à mes côtés n'a d'égal que son talent à éclairer les zones d'ombre. Olivier, c'est à toi.

  • Speaker #0

    Si, si t'en restes un peu, tu feras l'heureux. Gen AI is another AI. Dans le contexte tumultueux de notre ère numérique, l'IA émotionnelle impose une nouvelle réflexion urgente sur notre avenir numérique. Les avancées techno s'accélèrent à un rythme vertigineux. Entre 2022 et 2024, on a vu une révolution arriver dans toutes les couches de la population, aussi bien privée que professionnelle. Et la question de l'éthique, de l'émotion... Dans l'IA, lorsqu'elle touche, l'émotionnel ne peut pas être ignoré. Au travers d'ONTBO, en visionnaire, tu explores les limites des contrées connues, cherchant à tisser des solutions centrées sur l'humain et ce facteur insondable, jusqu'à présent, de ces émotions. Ton mantra, relevé dans l'une de tes interventions, repose sur une vérité existentielle. Les consommateurs n'achètent pas seulement des produits ou des services, ils achètent une histoire, ils achètent une émotion. Phénomène bien connu, mais il souligne la nécessité d'une informatique affective, capable de personnaliser les interactions en fonction des sentiments humains. Mais cette quête de personnalisation soulève des questions tout aussi fondamentales. Comment une IA peut-elle réellement comprendre l'humain avec ses nuances, ses frustrations, son sarcasme, alors qu'elle est intrinsèquement dépourvue d'émotions ? Et on l'a dit tout au long de cet épisode, elle ne fait que reproduire ce qu'elle connaît. Ça nous invite à une réflexion. un peu plus critiques, pouvons-nous développer des algos qui tiennent compte de la diversité culturelle, religieuse, sans tomber dans le piège d'une uniformisation réductrice ? Là aussi, on l'a évoqué, mais ces deux questions sont centrales. Est-ce que l'éthique émerge comme cet enjeu central dans la discussion sur l'IA ? Mais de quelle éthique parle-t-on ? Loin d'être un concept monolithique, l'éthique se décline en multiples facettes, influencées par des contextes culturels. L'une des questions aussi vieilles que la notion de sécurité dont on a parlé oppose le « je » au « nous » ou comment le « nous » peut-il passer avant le « je » sans sacrifier nos valeurs fondamentales ? On reste dans cet éternel débat des deux curseurs sécurité-liberté individuelle. L'IA empathique doit donc s'inscrire dans un cadre éthique pluriel, conscient des diversités qui composent notre monde. La place de l'IA empathique dans nos vies demeure incertaine, oscillant entre promesses et menaces. Peut-on envisager un avenir ? plus humain grâce à ces technologies, la réponse repose sur notre capacité à naviguer entre l'optimisme et la vigilance. Les technologies offrent des opportunités sans précédent pour améliorer notre quotidien, mais elles comportent également de très nombreux risques. Face à ces défis, et une fois de plus, j'en parle à chaque fois, l'esprit critique se révèle être notre meilleur atout. Il nous permet de questionner les narrations dominantes, d'explorer les dimensions cachées des technologies et d'insister sur la nécessité d'une responsabilisation collective. En définitive, l'avenir de l'IA empathique s'annonce comme une toile à tisser où chaque fil représente une émotion, une culture, une éthique. C'est dans cet entrelacement que pourrait résider l'espoir d'un demain plus humain, où l'illusion et la réalité s'harmonisent pour donner naissance à une nouvelle compréhension de ce que signifie être humain à l'ère numérique. La place de l'IA empathique dans nos vies demeure une question ouverte, une énigme à résoudre. Peut-on vraiment envisager un futur où l'IA passe du statut d'outil à celui du partenaire de l'humanité, ce qui entre nous est en train de se produire. L'idée d'un futur plus humain grâce à l'IA évoque-t-elle une utopie, une promesse de rédemption à travers la technologie ? Ou bien s'agit-il d'une illusion, un mirage qui nous écarte de notre essence humaine ? Vous avez 4 heures.

  • Speaker #1

    Qu'est-ce que tu en penses Athénaïs ?

  • Speaker #2

    Il a tout résumé. Il a tout résumé. Effectivement, on va avoir des compagnons proactifs. On les a peut-être déjà.

  • Speaker #1

    Je rembobine un tout petit peu. Ce podcast, il a vraiment pour vocation de donner des conseils, d'éclairer, de faire comprendre, de décrypter. Quels conseils est-ce que tu donnerais toi aux citoyens ou aux entreprises pour utiliser cette IA émotionnelle ? Qu'est-ce qu'il faut faire ? Quels sont les prérequis ?

  • Speaker #2

    Testez-la. Pour être convaincu, il faut l'attester. La plupart des personnes, des gens, ont ce biais tout à fait humain, c'est la défiance à l'égard des nouvelles technologies, parce qu'ils ne savent pas ce que c'est. Et ils se basent sur ce qu'ils ont pu entendre dans les médias ou autres, en se disant « c'est une vérité, donc ça devient ma vérité » . On met les mains, j'allais dire, dans le code. On se rend compte rapidement de ses limites, de comment ça fonctionne, du fait que ça ne remplacera certainement pas l'homme. Donc, testez, renseignez-vous. Allez-y, n'ayez pas peur.

  • Speaker #1

    Le libre arbitre si cher à Olivier.

  • Speaker #0

    Exactement. Exactement. C'est un de mes mantras quand j'interviens à droite et à gauche. Testez-le, utilisez-le. Utilisez-le à des fins professionnelles, mais utilisez-le aussi dans votre vie privée pour discuter. Aujourd'hui, ces IA génératives sont capables de tenir des conversations que vous n'auriez pas avec d'autres humains. Donc, essayez-le, testez-le. Tentez de le piéger. On l'a vu il n'y a pas très longtemps avec Lucie qui revient sur le tapis avec ses œufs de vache. Donc ça, c'est intéressant. Testez-le. Essayez de le coincer, de le piéger, de l'enfermer, que ce soit sur le biais de la connaissance, de l'éthique ou du raisonnement. Ça vous permettra de vous l'approprier et ensuite de l'utiliser à des fins opérationnelles et à des fins de plus grande efficience. dans la vie de tous les jours et dans la vie professionnelle. Parce que de toute façon, vous ne le freinerez pas. Tu parlais tout à l'heure de l'éducation. L'éducation est vent debout contre ces outils en France. Ce n'est pas du tout le cas à l'étranger. Et l'IA générative... gamins de 12 ans savent s'en servir. Ils savent demander à Chad J.P.T. un exposé sur la Lune. Donc, on ne résistera pas. Il faut l'appréhender, il faut l'apprivoiser pour savoir s'en servir.

  • Speaker #2

    C'est tout à fait ça. C'est une vague. Soit on surfe sur cette vague-là qui va nous amener là où on le désire, soit on risque d'être noyé et malheureusement d'être mis de côté. Donc, c'est un formidable... outils, autant l'utiliser justement à bon escient.

  • Speaker #0

    Et c'est ça le danger par contre, c'est l'électronisme grandissant et l'incapacité d'une partie de la population à pouvoir s'accrocher à cette vague et à continuer d'exister au milieu d'une ère numérique qui change. qui va bouleverser l'environnement sociétal. Et effectivement, un des devoirs collectifs du Nous, c'est aussi d'emmener toute la population vers cette nouvelle ère. Sinon, on va créer des fractures qui vont revenir en boomerang dans quelques années.

  • Speaker #1

    Avec des IA qui sont disponibles aussi de manière gratuite, un peu partout. Tout à fait. Sans penser dans toutes les cités, mais en tout cas, il y a vraiment de l'IA partout maintenant. Donc, on peut vraiment les tester.

  • Speaker #2

    Accessibles et accessibles justement à tous les niveaux. Donc, il faut tester et se faire son propre libre arbitre sur ces sujets.

  • Speaker #1

    Une source, Olivier, pour aller justement tester plein d'IA.

  • Speaker #0

    Tu veux que je la dise absolument ? S'il te plaît. Poe.com

  • Speaker #1

    Non, non, et l'autre.

  • Speaker #0

    Poe.com Vous avez toutes les IA, y compris celles qui sont interdites en Europe, où vous pouvez tester, accéder. Et il y a une IA pour ça. qui recense aujourd'hui, je crois que j'ai regardé hier, il y a près de 30 000 tâches professionnelles qui sont recensées pour je ne sais plus combien de dizaines de milliers d'outils qu'on peut mettre en relation avec ces tâches. Et ça représente 5 000 activités professionnelles.

  • Speaker #1

    Pas mal.

  • Speaker #0

    On commence à avoir un panel intéressant. L'intérêt de l'IA génératif, c'est que c'est une des rares très hautes technologies qui n'est pas de barrière à l'entrée puisque tout le monde peut la tester. C'est gratuit. Donc tout le monde peut y aller, il n'y a aucune barrière financière, cognitive, ça parle toutes les langues. Donc il n'y a aucun argument qui empêche d'aller l'essayer.

  • Speaker #2

    Si ce n'est ses propres peurs.

  • Speaker #0

    Si ce n'est ses propres peurs.

  • Speaker #1

    Et bien Athénaïs, Olivier, merci beaucoup pour cet échange qui était passionnant. Ce qu'on retient c'est que cette IA empathique n'est pas seulement une avancée technologique, c'est vraiment une invitation aussi à repenser notre rapport. à l'autre, mais aussi au numérique. Merci pour votre écoute et je vous dis à très vite pour un nouvel épisode de Tendances Inno. Et voilà, chers auditeurs, c'est tout pour cet épisode de Tendances Inno. Un grand merci pour votre écoute. Nous espérons que vous avez trouvé cette discussion aussi enrichissante et inspirante que nous. N'oubliez pas de vous abonner pour ne manquer aucun de nos futurs épisodes. Vous pouvez retrouver Tendances Inno sur toutes les plateformes de podcast, YouTube et Dailymotion. Si vous aimez ce podcast, Faites-le nous savoir et aidez-nous à le faire connaître grâce à vos commentaires et à vos partages. Pour plus de contenu sur les technologies émergentes, suivez-nous sur les réseaux sociaux de Docaposte. A bientôt pour un nouvel épisode, placé sous le signe de la tech, du Web3 et de l'innovation. D'ici là, continuez à explorer, à innover et à créer.

Share

Embed

You may also like

Description

Dans ce nouvel épisode de Tendances Inno, Marine Adatto et Olivier Senot reçoivent Athénaïs Oslati, fondatrice d’ONTBO, pour explorer l’IA cognitive et empathique.

 

Au programme :

- IA empathique : mythe ou réalité ?

- Usages concrets et retours d’expérience

- Éthique et diversité culturelle dans l’IA

- Conseils pour tester et adopter ces nouvelles solutions

 

À travers des échanges concrets et des retours d’expérience, découvrez comment l’intelligence artificielle peut décrypter nos émotions, personnaliser les interactions et redéfinir la relation homme-machine.

 

L’épisode aborde aussi les enjeux éthiques, les différences culturelles et les défis liés à l’intégration de l’IA empathique dans notre quotidien.

 

Un rendez-vous inspirant pour comprendre comment l’innovation technologique peut rendre le numérique plus humain et inclusif.

 

#Tech #Innovation #IA #Empathie #Docaposte #TendancesInno #Cognitif


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue dans Tendances Inno, votre rendez-vous pour explorer les technologies émergentes présentées par Docaposte, le référent français de la confiance numérique. Je suis Marine Adatto et j'ai le plaisir d'être accompagnée par Olivier Senot, directeur de l'innovation chez Docaposte. Dans ce podcast, nous vous emmenons à la rencontre des innovateurs et des créateurs qui redéfinissent notre monde numérique. Que votre curiosité vous porte vers le Web3, l'IA ou toute autre technologie émergente, vous êtes au bon endroit. Préparez-vous à une dose d'inspiration et d'informations, au programme des découvertes, des défis et des solutions innovantes. Alors branchez vos écouteurs, ouvrez votre esprit et plongez avec nous dans l'univers de Tendances Inno. À l'heure où l'intelligence artificielle s'invite dans toutes les sphères de notre quotidien, une question centrale émerge. L'IA peut-elle comprendre et reproduire nos émotions ? Dans cet épisode de Tendances Inno, nous explorons un concept fascinant, lié à cognitive et empathique. Pour en parler, nous avons l'immense plaisir de recevoir Athénaïs Oslati, fondatrice d'ONTBO, une deep tech qui redéfinit l'intelligence artificielle en y intégrant une dimension empathique. À mes côtés, Olivier Senot, directeur des innovations chez Docaposte, nous aidera à décrypter les enjeux technologiques et éthiques derrière cette révolution. Comment une IA peut-elle décrypter les émotions humaines ? Quels sont les cas d'usage et les limites de cette technologie ? Et surtout, peut-on vraiment parler d'un futur plus humain grâce à l'IA ? Un épisode pour comprendre, questionner et pourquoi pas rêver un peu. Olivier, c'est à toi.

  • Speaker #1

    Bonjour Athénaïs, bonjour Marine. Merci. Il y a seulement 28 ans, Athénaïs, tu es la fondatrice d'Ontbo, Marine vient de le dire, une entreprise deep tech pionnière dans le domaine de l'affectif computing. D'abord médecine, puis des études d'ingénieur en double cursus, mécanique et technologie. et organiques, compétences très utiles pour développer une intelligence artificielle empathique et éthique, capable de s'adapter à l'environnement cognitif de l'utilisateur pour offrir une expérience numérique plus humaine et authentique. Tu accompagnes les entreprises dans l'optimisation de leurs interactions digitales avec leurs clients en allant au-delà des données traditionnelles âge, sexe, géographie, etc. pour intégrer des données plus fines et spécifiques, personnalité, émotion, comportement, réaction, etc. Reconnu pour tes innovations, tu remportes notamment le prix Inov, coup de cœur du gouvernement dans le cadre du plan France 2030, et plus récemment, le prestigieux prix Forbes 30, Under 30. En juin dernier, Onbo a annoncé un partenariat stratégique avec Microsoft pour accélérer son développement et son passage à l'échelle. Ton parcours est exemplaire, ta rapidité d'exécution est impressionnante, tu représentes l'élite de la génération des entrepreneurs. Et pour reprendre un slogan du XXe siècle, mais qu'est-ce qui fait marcher Athénaïs ? Nous t'écoutons.

  • Speaker #2

    Bonjour Marine, bonjour Olivier,

  • Speaker #0

    bonjour Athanise, bienvenue.

  • Speaker #2

    Merci.

  • Speaker #0

    Pour planter le décor, je vous propose déjà un quiz, vraiment pour avoir une idée des grands chiffres. Première question, quel pourcentage des Français se disent méfiants vis-à-vis de l'intelligence artificielle ? Est-ce que c'est 51%, 69% ou alors 35% ? Méfiant,

  • Speaker #2

    51.

  • Speaker #0

    51, Olivier tu dis quoi ?

  • Speaker #1

    Oui, au moins. 69% ?

  • Speaker #0

    69% ? Oui, en effet, c'est 69%. Ils sont quand même globalement assez méfiants. Donc c'est 69% selon une étude Ipsos qui a été publiée en 2023. Et alors, ils pensent que l'IA représente plus d'inconvénients que d'avantages. Et cette proportion élevée indique donc cette méfiance dont on a parlé envers l'IA de la population française. Deuxième question. En France toujours, quel pourcentage de consommateurs a une mauvaise image des entreprises utilisant des outils automatisés pour la relation client ? Il y en a beaucoup. 47%, 67% ou 87% ?

  • Speaker #2

    Je dirais 67%.

  • Speaker #0

    67, Olivier ?

  • Speaker #1

    67, parce que la GNZ l'accepte volontiers.

  • Speaker #0

    Oui, c'est ça. 67%, et donc c'est une enquête de l'entreprise Kiamo de janvier 2024. Dernière question pour rentrer encore plus dans l'empathie. Quel pays teste actuellement des robots empathiques dans ses hôpitaux ? Japon, Chine ou Allemagne ?

  • Speaker #2

    Japon, Chine, je dirais le Japon.

  • Speaker #0

    Japon ?

  • Speaker #1

    Oui, Japon, fortement, ils sont hyper en avant.

  • Speaker #0

    Oui, Japon, qui est pionnier dans l'utilisation de l'IA empathique, notamment pour accompagner des patients isolés ou en soins prolongés. Et donc j'ai une question bonus. Quel pourcentage de patients japonais acceptent ? positivement l'interaction avec des robots empathiques ? 58%, 68%

  • Speaker #2

    ou 79% ? 79% pour avoir échangé au Japon. Ils adorent tout ce qui est robot et robot empathique.

  • Speaker #0

    Ils en ont choisi eux.

  • Speaker #2

    Exactement.

  • Speaker #0

    Alors moi, le chiffre que j'ai, c'est 68% qui est une étude du ministère japonais de la santé de 2023. Donc probablement que ça a augmenté. 68% des patients hospitalisés montrent une réaction positive aux interactions robotiques. C'est particulièrement efficace avec les personnes âgées et les patients en long séjour. À quand en France ? Continuons. Alors, on est allé... Au travail. Au travail. Exactement. Continuons avec le micro-trottoir. Donc, on est allé poser trois questions au public pour vraiment comprendre leur perception de l'IA empathique. La première question qu'on leur a posée, c'est quelle est votre perception de l'intelligence artificielle ? Pour moi, c'est quelque chose qui a été créé par l'humain pour faire parler des machines. On peut faire beaucoup de choses avec, comme toute nouvelle invention. il y a du bon, il y a du mauvais, à savoir comment on l'utilise en fait.

  • Speaker #3

    C'est un outil qui part d'un sentiment intéressant de se dire, de nous aider à répondre à des problématiques en nous donnant des informations tirées de droite à gauche. Mais il y a beaucoup de réserves, telles que la connaissance que l'IA utilise, connaissance qui est basée sur ce que fournit l'homme. Il y a quand même des limites à ça, et surtout de là où la connaissance va être récupérée. Après, il y a énormément d'applications. Dans ma formation, on avait utilisé ça pour utiliser l'intelligence artificielle pour faire de la chirurgie, ce qui est super intéressant, pour accéder à des zones très dangereuses, puisqu'on a une très grande précision par les robots, et j'en passe. Dans l'idée, c'est une bonne perception, je n'ai pas le temps de tout détailler, mais il y a beaucoup de contraintes, il y a aussi l'écologie autour de ça.

  • Speaker #0

    Beaucoup d'opportunités, mais en effet, quand même beaucoup de questionnements. Ensuite, on leur a demandé s'ils pensaient qu'une IA pouvait décrypter nos émotions quand on lui parle. Et voici les réponses.

  • Speaker #3

    On a quand même une limite de décryptage parce que des fois, on a des sentiments contraires. On va exprimer d'une manière et montrer d'une autre. Donc, toutes ces parties-là, il y a beaucoup d'apprentissage encore côté IA. Et j'entends surtout sur la partie... décryptage visuel du visage, mais aussi ressenti, parce qu'il y a beaucoup de compassion et d'empathie à avoir pour pouvoir décrypter les sentiments.

  • Speaker #2

    Je pense que oui, ils peuvent être très pertinents, dans la mesure où le dialogue, l'interaction avec l'intelligence artificielle passe essentiellement par l'écrit, comme dans le ChatGPT. Donc, une analyse du texte, des mots que l'on peut utiliser, de la syntaxe, du rythme, peut effectivement... permettent de traduire, de décrypter, de détecter les émotions. Reconnaissance faciale, visuelle aussi, de toute évidence. Gestuelle, corporelle, ça se modélise très bien pour pouvoir analyser au moins les émotions superficielles exprimées par un humain.

  • Speaker #0

    Voilà, on pense en effet que c'est possible et on va creuser ce sujet avec toi Athénaïs. Enfin, on leur a montré la vidéo du robot Optimus de Tesla. Vous voyez cette vidéo. Et on leur a posé la question suivante. Pensez-vous qu'un robot comme celui-ci puisse développer une conscience, mimer une émotion et un comportement humain ?

  • Speaker #4

    Je ne connais pas, mais je connaissais les robots de Boston Dynamics. On dirait que c'est un petit peu le même principe. On dirait que Tesla est allé un petit peu plus loin, plus dans le mode humain, et Boston Dynamics plus dans les trucs sur quatre pattes, qui sont quand même assez réalistes aussi. Mais en tout cas, oui, c'est bien ce que Tesla font. Ça part de loin quand même, parce que c'est sûr que mimer un déplacement humain, c'est vraiment très compliqué. Comme on voit là, il est déjà hyper, hyper... poussé et pourtant il fait juste marcher, déplacer un oeuf et arriver à se baisser. J'imagine que c'est extrêmement complexe de faire en sorte qu'il se comporte exactement comme un humain parce que l'oreille interne, les muscles, les mers et tout, c'est quand même hyper compliqué. Mais on dirait que ça y arrive petit à petit. Développer une conscience, peut-être pas, parce que c'est quand même extrêmement complexe aussi. Là, on a vu avec l'avancement de l'IA cette année qu'on était capable d'avoir des bonnes discussions avec l'IA, que l'IA est capable de... simuler en fait il est capable de simuler ou d'imiter il n'est pas vraiment capable d'avoir une propre conscience à lui même donc il peut imiter quelqu'un qui est triste imiter quelqu'un qui est heureux on dirait que du moins l'IA est capable de simuler et d'imiter quelqu'un après développer une conscience pas encore je pense peut-être un jour mais ça va prendre du temps et c'est comme si parce que l'IA doit apprendre un petit peu le comportement humain c'est comme s'il doit vraiment apprendre énormément sur l'humain pour pouvoir se comporter un petit peu comme un humain.

  • Speaker #0

    Athénaïs, qu'est ce que tu en penses ?

  • Speaker #2

    Alors c'est très intéressant. Le premier point c'est que chacun a bien saisi que l'IA aujourd'hui excelle dans tout ce qui est automatisation et exécution notamment des tâches. Certains parlaient dans le domaine de la robotique, dans le secteur médical, les avancées en termes d'IA. Donc là c'est vraiment une efficacité dans l'exécution, dans la détection notamment des cancers. Donc ça c'est super. Je vois également que certains ont compris. la nuance d'une IA d'une IA empathique plus précisément qu'elle ne fait que imiter donc on va rentrer je pense après dans le sujet mais effectivement l'IA empathique ne fait que imiter un comportement et aujourd'hui on n'est pas à même de pouvoir dire qu'on va créer une conscience comme on l'entend aujourd'hui

  • Speaker #0

    Olivier, des réactions ? Je t'ai vu hocher la tête et dire non de la tête. Mieux dire quoi ? Mieux dire quoi ?

  • Speaker #1

    Non, non, mais je partage le point de vue d'Athénaïs. Ensuite, la grande question, seront-ils capables de développer une conscience ? On n'a pas assez d'une heure pour faire le tour de la question.

  • Speaker #2

    Exactement, c'est vrai,

  • Speaker #0

    c'est vrai. Il faudrait faire une série dessus. Oui, oui.

  • Speaker #1

    Déjà, répondre à la question, qu'est-ce qu'une conscience ?

  • Speaker #0

    Qu'est-ce qu'une conscience ? Avant de répondre à la question « qu'est-ce qu'une conscience ? » , répondons-nous posant les bases, Anthénaïs. Qu'est-ce que l'IA empathique et cognitive ?

  • Speaker #2

    L'IA empathique et cognitive, c'est une branche de l'IA, de l'informatique affective, qui a cette capacité de pouvoir imiter, de comprendre le système psychologique d'un individu, toute sa cognition. Ça va être ses traits de personnalité, ses réactions, ses comportements et également ses émotions. Alliant tout ça à du contexte, notamment un contexte psychologique mais également environnemental, ça nous permet d'avoir une représentation, une map psychologique d'un individu.

  • Speaker #0

    Et alors comment est-ce que ça se traduit concrètement dans ta solution chez Onbo ?

  • Speaker #2

    Alors précédemment on a entendu les différentes modalités, on a entendu l'image, le texte, la voix. Donc effectivement ce sont les modalités qu'on utilise aujourd'hui. dans un premier temps au travers par exemple des expressions faciales, de la gestuelle. On vient croiser également la voix et dans la voix il y a deux choses à distinguer. Il y a ce que je dis mais il y a également ce qu'on appelle la prosodie, c'est-à-dire le timbre de la voix, le son, l'intonation. Parce qu'en France on est très fort pour tout ce qui est passif-agressif, c'est-à-dire sur un ton très monotone, très monocorde, tenir un propos très incisif. Donc il faut faire cette distinction entre les deux. Et après effectivement tout ce qui est relié au texte. Donc ça peut être des messages, emails ou autres. Donc nous, on vient fusionner toutes ces données pour avoir véritablement une compréhension profonde de l'être humain et de ce qu'il souhaite et de son intention et de ses désirs, bien plus que de l'émotion. Donc on met ça dans tout l'écosystème. Donc c'est sous forme d'API, c'est-à-dire que c'est un petit plugin dans lequel on s'insère au sein de l'écosystème de nos clients. Et à partir de là, ils peuvent jouer avec.

  • Speaker #0

    Et alors, justement, comment est-ce que ça va se traduire concrètement ? Un client... met l'API dans sa solution. Et qu'est-ce qui se passe ?

  • Speaker #2

    Alors, à ce moment-là, généralement, les clients avec qui on collabore ont déjà des IA ou utilisent déjà, par exemple, des IA génératives. Donc, nous, on est vraiment sur trois grands secteurs. Le premier, c'est tout ce qui est Customer Support, c'est-à-dire la relation homme-machine directement dans le secteur, par exemple, des télécoms, des télécommunications, du retail, de la banque. Donc ici, au travers des assistants, par exemple, virtuels, vocales, ou bien texte généralement, on va pouvoir analyser en temps réel, comprendre véritablement le besoin, les attentes, les motivations de notre interlocuteur pour proposer justement une réaction beaucoup plus empathique et surtout répondre à sa demande. Parce qu'on sait combien de fois on est sur du SAV par exemple. On a une personne au téléphone, on sait très bien que c'est un chatbot ou que c'est un assistant virtuel qui est derrière, qui ne comprend pas ce que l'on dit et au final on est renvoyé vers un être humain. qui nous posent exactement les mêmes questions. Donc remplacer l'homme par la machine sur des tâches chronophages, ok, mais il faut que ça soit fait justement de façon empathique.

  • Speaker #0

    Et la vision derrière cette innovation, donc tu viens de donner un premier élément de réponse, c'est quoi la vision globale ?

  • Speaker #2

    La big vision, en fait, c'est pas... La vision que l'on a ici, c'est de passer d'un monde où les IA que l'on connaît, où les machines... que l'on a aujourd'hui sont de simples outils à des compagnons qui soient proactifs. Le vrai sujet, c'est qu'aujourd'hui, toutes les machines, toutes les IA que l'on utilise sont réactives. C'est-à-dire qu'on a, par exemple, une émotion, la machine s'adapte, elle est réactive. On a une intention et un comportement, la machine s'adapte, elle est dans une phase de réaction. Nous, on veut aller beaucoup plus loin que ça, c'est-à-dire qu'on a ce compagnon proactif qui comprend les singularités de chacun et chacune d'entre nous pour pouvoir ensuite anticiper au niveau de nos besoins.

  • Speaker #0

    Oui, avec une analyse finalement un peu froide et éloignée qui permet d'avoir la meilleure réponse possible pour la personne qui est en face. Alors, est-ce que tu as des exemples concrets à nous partager ? Des chiffres, par exemple, de clients qui utilisent ta solution ?

  • Speaker #2

    Ce qu'il faut se dire avant tout, c'est de se poser la question, en fait, qu'est-ce qui rend une expérience ? on va dire inoubliable. Et ce n'est pas juste la précision, c'est avant tout l'émotion. Et il y a un chiffre phare qui nous parle, c'est que 95% des interactions homme-machine sont drivées en 2025 par l'IA. Et ça, c'est juste 95%. 95% ! Et derrière, la plupart des gens ne le savent pas. D'où la nécessité de remettre de l'humain, de l'empathie au sein de cette interaction, de cette relation machine. Ça, c'est un vrai sujet aujourd'hui. Et on le voit, petit aparté là-dessus, j'étais au CES 2024, on parlait beaucoup d'IA générative. On entendait Gen AI, DLLM, Open AI et ainsi de suite. Tout le monde n'avait que ça sur les lèvres au travers de chatbots et d'assistants virtuels. et on voit qu'il y a un... Il y a un basculement qui s'est opéré sur la fin 2024, où là, OpenAI, Meta, Google, lancent également des nouveaux projets qui s'appellent Empathy AI. Et ils voient qu'on a atteint un plafond de verre sur l'exécution, justement, l'IA qui exécute des tâches. C'est bien, maintenant l'IA est dans l'interaction en machine, il va falloir passer un cap, celui de la compréhension de l'être humain, et pas juste connaître l'être humain. C'est vraiment ça. que chacun et chacune d'entre nous voulons, c'est vraiment être compris par la machine et pas juste être connu.

  • Speaker #0

    Mais alors dans cette compréhension, il y a aussi un enjeu central, qui est un enjeu éthique.

  • Speaker #2

    Absolument.

  • Speaker #0

    Et qui, en plus, est différent selon les cultures. Est-ce qu'on peut dire qu'il y a plusieurs types d'éthiques ?

  • Speaker #2

    Alors, il y a plusieurs types d'éthiques, puisqu'il y a plusieurs cultures. L'IA a émergé, enfin l'IA a même explosé durant ces deux dernières années. aux quatre coins de la planète, que ce soit Japon, Corée, Chine, on l'a vu récemment, États-Unis, chacun, de par sa culture, de par sa perception, de par son origine, de par son ethnie, a une définition qui lui est propre de l'éthique, complètement. Et l'éthique en Asie n'est absolument pas la même que l'éthique en Europe, qui elle-même diffère de l'éthique en Amérique du Nord. L'Amérique du Nord, l'éthique, c'est comment on va pouvoir... capitaliser. Le terme capitalisme est central ici, c'est comment on va pouvoir créer un maximum de valeur. En Europe, on est plus centré sur les droits, les droits de chacun tandis que, de chaque être humain, tandis qu'en Asie, et notamment en Asie Pacifique, on est centré sur le « nous » , c'est-à-dire c'est la citoyenneté, c'est le bien commun qui doit primer justement sur les libertés individuelles. Donc c'est des visions qui sont bien différentes et on ne peut pas se permettre d'imposer notre éthique. notamment nous en Europe, on aime bien faire ça. Je l'ai vu en partant au travers de Hombau en Asie, au Japon. J'arrivais avec ma vision de l'éthique européenne et on m'a dit non, non, non. Nous, on utilise cette technologie, par exemple dans le domaine de la sécurité, pour pouvoir prévenir d'un comportement à risque. Chose qui serait en France impensable pour l'instant, à l'heure actuelle.

  • Speaker #0

    Alors justement, au niveau sécurité, si on prend l'exemple des JO.

  • Speaker #2

    Oui.

  • Speaker #0

    Les JO, donc il y a eu... énormément de sécurité, il y a eu des utilisations. Absolument. Tu parles du côté droit en Europe, comment ça se passe ?

  • Speaker #2

    Alors là-dessus, il faut savoir qu'en Europe, déjà, il y a deux normes. Donc il y a la RGPD et puis il y a le AI Act qui va rentrer en vigueur. Pour les JO, il y a eu, il me semble que c'était l'Assemblée nationale qui a voté un texte particulier pour pouvoir utiliser des caméras. Alors attention, ces caméras étaient à des endroits... bien particuliers, elles n'étaient pas utilisées 24h sur 24, donc il y avait des temps, et ces caméras ne permettaient pas de pouvoir identifier les personnes, parce qu'en fait, on revient vraiment à cette notion d'identification de la personne. Donc, il y a eu des systèmes qui ont été mis en place là-dessus pour les JO de 2024, bien sûr. Maintenant, ça aurait été un tout autre dispositif si on avait été en Asie, et c'est un tout autre dispositif pour les JO, justement, de Los Angeles. où là, ils vont utiliser, par exemple, de l'IA empathique pour détecter tout ce qui est comportement à risque, principalement, pour prévenir l'arrivée soit d'une situation, d'une attaque dangereuse.

  • Speaker #0

    C'est limite du Minority Report, là.

  • Speaker #2

    Expliquez. Tout dépend le point de vue. Moi, j'ai été surprise. J'avais le même point de vue quand je suis partie vraiment en Asie. Et on m'a dit, mais est-ce que vous prendriez le risque de vous faire agresser, par exemple, dans le métro ? C'est-à-dire qu'imaginez qu'on a une solution, qu'on a la possibilité de prévenir d'un crime, quel qu'il soit, mais qu'on ne veut pas l'utiliser, sous prétexte qu'il y a des libertés individuelles. Pourtant, vous êtes sur la place publique et vous ne faites rien de mal. Mais vous ne voulez pas justement prévenir d'un risque pour le bien commun. Est-ce que ça n'envoie pas à de l'égoïsme ? C'est des questions qui sont ouvertes, parce qu'on a notre culture, on a notre perception. Mais c'est vrai que j'ai été confrontée à cette vision de l'éthique, notamment au Japon, on en discutait précédemment, parce qu'ils utilisent beaucoup d'IA et notamment les IA dans les robots. Et cette question-là se pose.

  • Speaker #0

    Oui, c'est ça. Et le fameux « nous avant le jeu » là-bas.

  • Speaker #2

    « Nous avant le jeu » , c'est ça. En Europe, c'est le « je avant le nous » . C'est des perceptions qui sont différentes.

  • Speaker #0

    Et alors, ces différences culturelles, ce sont des facteurs déterminants à prendre en compte pour travailler avec les IA cognitives. Ça veut dire que vous, chez Onbo, vous vous adaptez selon les marchés ?

  • Speaker #2

    Tout à fait. En fait, on a des bases de données spécifiques à différentes cultures, différentes ethnies, différentes régions du monde qui doivent être prises en considération. Pourquoi ? Parce que l'empathie est propre à une culture. Par exemple, je reprends le cas du Japon, l'expression des émotions est complètement différente que la nôtre, par exemple en France ou en Europe. Ils sont beaucoup plus expressifs, par exemple, du haut du visage. On dit que nous, c'est du bas du visage. C'est un exemple. Donc, tout ça fait qu'effectivement, on se doit de prendre en considération pour limiter les biais cette dimension culturelle. Un autre point que l'on a fait, c'est que les émotions ne sont pas exprimées de la même façon. Certes, mais les émotions ne sont pas les mêmes selon les pays. On a travaillé avec un client qui nous a dit « j'aimerais percevoir quelque chose qui ne se voit pas » . Il y a un terme japonais spécifique. là-dessus. Nous, on n'a pas de définition, on n'a pas une émotion, on n'a pas un comportement qui traduit ce « il y a quelque chose qui ne va pas, je ne sais pas ce que c'est, mais je sais que c'est là » . On a réussi, de par la façon dont on a construit nos algorithmes, à déceler ça. Et c'est aussi ça la force je trouve de l'IA, une fois qu'elle est bien conçue.

  • Speaker #0

    Percevoir ce qui ne se perçoit pas.

  • Speaker #2

    Ce qui n'est pas perçu justement par l'homme. Parce qu'il ne faut pas l'oublier, la concentration d'un être humain, c'est 45 minutes. Et on a besoin de faire une pause. Donc, on ne peut pas être comme une machine, c'est le cas de le dire, à avoir une attention accrue tout le temps.

  • Speaker #0

    Et ça passe par les images, ça passe par le texte. En fait, ce sont des combinaisons des deux qui vont permettre...

  • Speaker #2

    Il y a le texte, il y a la voix, effectivement. Il y a également l'image. La modalité dépend vraiment du cas d'usage derrière qui est fait. Mais c'est la fusion de données, c'est la compréhension du contexte. Et j'insiste vraiment sur cette compréhension du contexte parce que si on prend une personne... par exemple qui sourit on va dire elle sourit imaginons qu'en fait cette personne là elle sourit pas mais elle est en train de faire une grimace parce qu'elle est attaquée tout de suite le fait de prendre en considération l'environnement, le message n'est absolument pas le même le résultat n'est pas le même et puis tu peux avoir des sourires de façade aussi exactement tu peux avoir de la tromperie en fait dans les expressions que tu donnes tout à fait et ça aussi on le détecte et ça on le détecte vrai sourire ou faux ?

  • Speaker #0

    Alors du coup, il y a quand même un sujet sur des dérives potentielles. C'est-à-dire que si tu détectes vraiment tout, l'éthique n'est pas nécessairement un garde-fou pour cette détection. Comment est-ce qu'on peut se prémunir de ces dérives ? Sachant que quand on a préparé cet épisode, tu m'avais parlé de biais différents à prendre en compte. Est-ce que tu peux nous expliquer ?

  • Speaker #2

    On ne pourra jamais tout détecter. Ça, c'est évident. Mais en termes d'éthique, il y a trois sources de biais. La première, et tout le monde l'a compris, c'est la création d'un algorithme. C'est-à-dire qui va créer un algorithme ? Il y a eu beaucoup d'encre qui ont été versées, notamment aux États-Unis, parce qu'il y a des algorithmes qui étaient conçus uniquement par des hommes, et notamment des hommes blancs. Donc, on introduit des biais parce qu'on est tel genre, telle origine, et ainsi de suite. Donc, il y a la création de l'algorithme, où on risque d'introduire nos biais. Le deuxième point, c'est par l'utilisation. Et on l'a vu avec, notamment, tout ce qui est deepfake. On prend une technologie, on l'utilise à d'autres fins, ça peut être même à des fins belliqueuses, et au final, on a un résultat qui n'est pas celui escompté. Et le troisième point, et c'est le point que beaucoup de gens oublient, c'est la donnée. C'est-à-dire qu'on a beau avoir, on va dire, une conception éthique, virtueuse, quasiment sans biais, parce que zéro biais ça n'existe pas, une utilisation qui suit la même transparence, si on entraîne avec des jeux de données qui sont biaisés, c'est terminé. Et on l'a vu, il y a le cas le plus célèbre, c'est aux États-Unis, où on voit qu'il y a un juge qui... qui doit rendre une sentence à un moment donné, donc qui doit prendre une décision. En fait, il s'avère que dans la plupart des cas, ce juge IA prend la décision de condamner des personnes noires et ou afro-américains et ou hispaniques. On se pose la question pourquoi ? Parce que dans les affaires précédentes, la plupart des condamnés dans cette région-là des États-Unis, ce sont des Afro-Américains ou des Hispaniques. D'où la nécessité de faire attention aux jeux de données que l'on introduit également.

  • Speaker #0

    Alors, si on se pense sur l'utilisation justement de ces IA dans une entreprise, comment est-ce qu'on peut maximiser l'impact tout en restant éthique ?

  • Speaker #2

    Alors, là-dessus, il faudra... Je vais parler de la façon dont Ombo fonctionne là-dessus. Pour maximiser déjà l'impact de l'IA, on doit avoir cette notion de transparence, qui est une notion clé chez nous. Transparence, ça veut dire quoi ? Ça veut dire pouvoir expliquer aussi les résultats derrière. Pourquoi j'ai eu ce résultat ? Comment est-ce que ça fonctionne ? Le deuxième point, et c'est ce qui est demandé par les entreprises, c'est pouvoir pluguer des systèmes de façon interopérable, c'est-à-dire de façon simple. à leur écosystème. Là aussi, ça c'est un point qui est important pour maximiser les bienfaits de l'IA. Et rester éthique, c'est également être éclairé, c'est-à-dire un consentement éclairé via l'utilisateur final.

  • Speaker #0

    Donc l'utilisateur doit être au courant.

  • Speaker #2

    Doit être au courant. Pour nous, l'utilisateur doit être au courant de l'utilisation de telle ou telle technologie derrière. Et si on veut être justement transparent, à quelle fin ces données seront utilisées.

  • Speaker #0

    Mais c'est-à-dire qu'au courant, jusqu'où ? Savoir qu'il y a une analyse de sa façon de parler, de sa prosodie, de l'écrit, de pourquoi ? En fait, tout ça, c'est annoncé au préalable ?

  • Speaker #2

    Bien sûr. Pour nous, ça se doit d'être annoncé. Quand on est avec des clients, on préconise justement d'être transparent. C'est-à-dire d'annoncer directement à l'utilisateur la technologie qui est utilisée et pourquoi elle est utilisée. Quand vous êtes, par exemple, en télécommunication, et on vous dit que cet enregistrement est susceptible d'être enregistré, à des fins de performance. Et en fait, c'est du marketing derrière, malheureusement. Et ils ne sont pas transparents sur l'utilisation de ces données.

  • Speaker #0

    Donc, au même titre que tu fais une visio, tu as ton note-taker qui se met, qui dit "Bonjour, je suis le note-taker d'Olivier, d'Athénaïs ou de Marine". Et donc, je suis là pour prendre des notes. Oui. Au même titre, la technologie explique. Voilà, bonjour, je suis tel,

  • Speaker #2

    je suis tel agent...

  • Speaker #0

    Et donc, je suis là pour échanger avec vous et répondre au mieux. C'est ça. Si il y a une connaissance peut-être approfondie de vos émotions, etc. Est-ce que ça va jusque là ou ce n'est pas nécessaire ? Alors,

  • Speaker #2

    ce n'est pas nécessaire, mais je préfère effectivement qu'il y ait cette transparence en disant « Voilà, on est une IA éthique, voilà à quoi ça sert là-dessus » . Pourquoi ? Parce que ça permet aussi de rappeler qu'il s'agit d'une IA. Certains, au début, évoquaient le fait qu'on puisse... Voilà, qu'on va dire que la frontière était mince entre l'IA et l'homme et c'est véridique. Beaucoup de gens et beaucoup de jeunes, et on l'a vu notamment aux États-Unis et même en Chine, utilisaient l'IA générative, que ce soit Caractère AI et ChatGPT, comme étant des substituts de psychologues ou de psychiatres. Et certains tombaient amoureux de LLM. Donc la frontière étant mince, à ce moment-là, il faut rappeler aussi qu'on a une IA en face de nous.

  • Speaker #0

    Olivier, qu'est-ce que tu en penses de ça ?

  • Speaker #1

    Beaucoup de choses. mais le... La dérive, c'est que l'IA émotionnelle va être présentée, probablement dans le cadre de la petite phrase avant l'enregistrement, et va être masquée derrière personnalisation ou meilleure compréhension ou des choses comme ça. La perception de l'IA va s'effacer dans les années à venir. Et effectivement, les jeunes générations aujourd'hui, de toute façon, préfèrent s'adresser à une IA dans leur quotidien. C'est une étude de décembre à près de 70% plutôt qu'à décembre 2024. préfèrent s'adresser à une IA plus qu'à un humain dans les tâches du quotidien avec la banque, avec l'administration, parce que plus efficace, plus rapide et plus simple à utiliser. Donc l'IA va s'effacer, l'IA émotionnelle va prendre...

  • Speaker #0

    de plus en plus d'importance pour des questions de performance. Et on va l'utiliser sans s'en rendre compte, comme aujourd'hui on utilise l'IA à 95% sans s'en rendre compte.

  • Speaker #1

    C'est une évolution. C'est une évolution.

  • Speaker #2

    Exactement, c'est une évolution. Non pas une révolution. Exactement. Pour l'entendre, il s'agit vraiment d'une évolution. Parce qu'on voit que l'IA s'introduit dans la communication entre les hommes. Donc partant de là...

  • Speaker #1

    Est-ce qu'on peut du coup se dire que l'IA empathique va avoir une vraie place dans nos vies ? Vous dites tous les deux qu'on s'en rendra même plus compte. Pour autant, elle sera là. Est-ce qu'on peut parler d'un futur plus humain ? grâce à l'IA, dans ces échanges justement entre les entreprises par exemple et les consommateurs ?

  • Speaker #2

    Alors plus humain, oui. Ce n'est même pas une question d'entreprise ou consommateur. Plus humain, oui, parce qu'on va se poser la question de la frontière entre l'homme et la machine. Et je trouve ça absolument fascinant parce qu'aujourd'hui, ce que l'on voit, c'est que la machine, et notamment l'IA générative, s'introduit au sein des écoles. C'est-à-dire qu'elle arrive à calculer, elle arrive à rédiger, elle arrive à argumenter. Et les enseignants, aujourd'hui, essayent justement de faire valoir le fait de ne pas utiliser ces algorithmes. Donc on voit qu'elle s'introduit de plus en plus au sein de l'école. Pourquoi c'est intéressant ? Parce qu'on se rend compte que tout ce qu'on a appris ici peut être fait par la machine. Donc ça va poser la question de mais en quoi suis-je unique ? Qu'est-ce que l'homme ? Et donc ça va nous, justement, nous repousser dans nos retranchements en nous disant, où est ma singularité ? Est-ce que c'est vraiment de la créativité ? Qu'est-ce qui fait de moi un être humain et qui pourra justement ne jamais être remplacé par la machine ? Et je trouve ça absolument fascinant parce que c'est des sujets d'actualité qui va former la société de demain.

  • Speaker #1

    Quand on a préparé cet épisode, tu as cité Merci. Une phrase de Laurence de Villiers que j'ai notée, que je redonne. "On dit qu'un avion vole, mais il ne bat pas des ailes comme un oiseau qui vole".

  • Speaker #2

    Oui, c'est ça. C'est un peu ça ? Oui, effectivement, c'est un peu ça l'idée. Elle dit, à l'instar d'un avion qui ne bat pas des ailes pour voler, on a construit des machines qui sont capables d'imiter sans ressentir, de parler sans comprendre. et d'avoir cette réflexion sans véritablement avoir une conscience. Et c'est toujours là l'enjeu pour nous aussi.

  • Speaker #1

    Et donc aussi de savoir, nous utilisateurs de cette IA, bien questionnés, on s'en parlait tout à l'heure, c'était off, mais de Olivier qui disait quand tu demandes gentiment à ChatGPT ou quelque chose, tu as une meilleure réponse. Et donc tu as expliqué pourquoi. Je veux bien que tu réexpliques. Pourquoi est-ce qu'on a une meilleure réponse ? Alors,

  • Speaker #2

    effectivement, l'une des théories, je tiens à le préciser, c'est que ces LLM sont basés sur et s'entraînent sur des données, un large panel de données. Par conséquent, à chaque fois qu'on commence par un bonjour, il vient chercher une donnée qui, effectivement, commence par un bonjour également. C'est-à-dire que sur des forums, quand il y a un bonjour, un merci, ce sont souvent des réponses qui sont structurées, qui sont argumentées et qui sont pertinentes. À l'instar de, contrairement à tout ce qui est sur les réseaux sociaux, où on commence ni par bonjour, ni par au revoir, ni par merci, qu'on donne son opinion. Donc on n'est plus dans l'argument, on est dans l'opinion. Donc là aussi, la machine l'a inconsciemment, justement, la machine l'a bien compris.

  • Speaker #1

    Oui, c'est intéressant. Et donc ça reprend ce principe. d'imitation et de reproduction, et aussi de langage pour baser des réponses. Et donc, ce besoin d'être particulièrement aussi attentif aux sources, toujours demander les sources pour être sûr d'avoir des bonnes réponses. Donc, cette vision d'une IA capable d'imiter nos émotions, de s'intégrer harmonieusement dans nos vies, pose aussi une question essentielle. Comment garder un équilibre entre l'innovation et l'humanité ? Cette question est parfaitement taillée pour celui dont le regard visionnaire à mes côtés n'a d'égal que son talent à éclairer les zones d'ombre. Olivier, c'est à toi.

  • Speaker #0

    Si, si t'en restes un peu, tu feras l'heureux. Gen AI is another AI. Dans le contexte tumultueux de notre ère numérique, l'IA émotionnelle impose une nouvelle réflexion urgente sur notre avenir numérique. Les avancées techno s'accélèrent à un rythme vertigineux. Entre 2022 et 2024, on a vu une révolution arriver dans toutes les couches de la population, aussi bien privée que professionnelle. Et la question de l'éthique, de l'émotion... Dans l'IA, lorsqu'elle touche, l'émotionnel ne peut pas être ignoré. Au travers d'ONTBO, en visionnaire, tu explores les limites des contrées connues, cherchant à tisser des solutions centrées sur l'humain et ce facteur insondable, jusqu'à présent, de ces émotions. Ton mantra, relevé dans l'une de tes interventions, repose sur une vérité existentielle. Les consommateurs n'achètent pas seulement des produits ou des services, ils achètent une histoire, ils achètent une émotion. Phénomène bien connu, mais il souligne la nécessité d'une informatique affective, capable de personnaliser les interactions en fonction des sentiments humains. Mais cette quête de personnalisation soulève des questions tout aussi fondamentales. Comment une IA peut-elle réellement comprendre l'humain avec ses nuances, ses frustrations, son sarcasme, alors qu'elle est intrinsèquement dépourvue d'émotions ? Et on l'a dit tout au long de cet épisode, elle ne fait que reproduire ce qu'elle connaît. Ça nous invite à une réflexion. un peu plus critiques, pouvons-nous développer des algos qui tiennent compte de la diversité culturelle, religieuse, sans tomber dans le piège d'une uniformisation réductrice ? Là aussi, on l'a évoqué, mais ces deux questions sont centrales. Est-ce que l'éthique émerge comme cet enjeu central dans la discussion sur l'IA ? Mais de quelle éthique parle-t-on ? Loin d'être un concept monolithique, l'éthique se décline en multiples facettes, influencées par des contextes culturels. L'une des questions aussi vieilles que la notion de sécurité dont on a parlé oppose le « je » au « nous » ou comment le « nous » peut-il passer avant le « je » sans sacrifier nos valeurs fondamentales ? On reste dans cet éternel débat des deux curseurs sécurité-liberté individuelle. L'IA empathique doit donc s'inscrire dans un cadre éthique pluriel, conscient des diversités qui composent notre monde. La place de l'IA empathique dans nos vies demeure incertaine, oscillant entre promesses et menaces. Peut-on envisager un avenir ? plus humain grâce à ces technologies, la réponse repose sur notre capacité à naviguer entre l'optimisme et la vigilance. Les technologies offrent des opportunités sans précédent pour améliorer notre quotidien, mais elles comportent également de très nombreux risques. Face à ces défis, et une fois de plus, j'en parle à chaque fois, l'esprit critique se révèle être notre meilleur atout. Il nous permet de questionner les narrations dominantes, d'explorer les dimensions cachées des technologies et d'insister sur la nécessité d'une responsabilisation collective. En définitive, l'avenir de l'IA empathique s'annonce comme une toile à tisser où chaque fil représente une émotion, une culture, une éthique. C'est dans cet entrelacement que pourrait résider l'espoir d'un demain plus humain, où l'illusion et la réalité s'harmonisent pour donner naissance à une nouvelle compréhension de ce que signifie être humain à l'ère numérique. La place de l'IA empathique dans nos vies demeure une question ouverte, une énigme à résoudre. Peut-on vraiment envisager un futur où l'IA passe du statut d'outil à celui du partenaire de l'humanité, ce qui entre nous est en train de se produire. L'idée d'un futur plus humain grâce à l'IA évoque-t-elle une utopie, une promesse de rédemption à travers la technologie ? Ou bien s'agit-il d'une illusion, un mirage qui nous écarte de notre essence humaine ? Vous avez 4 heures.

  • Speaker #1

    Qu'est-ce que tu en penses Athénaïs ?

  • Speaker #2

    Il a tout résumé. Il a tout résumé. Effectivement, on va avoir des compagnons proactifs. On les a peut-être déjà.

  • Speaker #1

    Je rembobine un tout petit peu. Ce podcast, il a vraiment pour vocation de donner des conseils, d'éclairer, de faire comprendre, de décrypter. Quels conseils est-ce que tu donnerais toi aux citoyens ou aux entreprises pour utiliser cette IA émotionnelle ? Qu'est-ce qu'il faut faire ? Quels sont les prérequis ?

  • Speaker #2

    Testez-la. Pour être convaincu, il faut l'attester. La plupart des personnes, des gens, ont ce biais tout à fait humain, c'est la défiance à l'égard des nouvelles technologies, parce qu'ils ne savent pas ce que c'est. Et ils se basent sur ce qu'ils ont pu entendre dans les médias ou autres, en se disant « c'est une vérité, donc ça devient ma vérité » . On met les mains, j'allais dire, dans le code. On se rend compte rapidement de ses limites, de comment ça fonctionne, du fait que ça ne remplacera certainement pas l'homme. Donc, testez, renseignez-vous. Allez-y, n'ayez pas peur.

  • Speaker #1

    Le libre arbitre si cher à Olivier.

  • Speaker #0

    Exactement. Exactement. C'est un de mes mantras quand j'interviens à droite et à gauche. Testez-le, utilisez-le. Utilisez-le à des fins professionnelles, mais utilisez-le aussi dans votre vie privée pour discuter. Aujourd'hui, ces IA génératives sont capables de tenir des conversations que vous n'auriez pas avec d'autres humains. Donc, essayez-le, testez-le. Tentez de le piéger. On l'a vu il n'y a pas très longtemps avec Lucie qui revient sur le tapis avec ses œufs de vache. Donc ça, c'est intéressant. Testez-le. Essayez de le coincer, de le piéger, de l'enfermer, que ce soit sur le biais de la connaissance, de l'éthique ou du raisonnement. Ça vous permettra de vous l'approprier et ensuite de l'utiliser à des fins opérationnelles et à des fins de plus grande efficience. dans la vie de tous les jours et dans la vie professionnelle. Parce que de toute façon, vous ne le freinerez pas. Tu parlais tout à l'heure de l'éducation. L'éducation est vent debout contre ces outils en France. Ce n'est pas du tout le cas à l'étranger. Et l'IA générative... gamins de 12 ans savent s'en servir. Ils savent demander à Chad J.P.T. un exposé sur la Lune. Donc, on ne résistera pas. Il faut l'appréhender, il faut l'apprivoiser pour savoir s'en servir.

  • Speaker #2

    C'est tout à fait ça. C'est une vague. Soit on surfe sur cette vague-là qui va nous amener là où on le désire, soit on risque d'être noyé et malheureusement d'être mis de côté. Donc, c'est un formidable... outils, autant l'utiliser justement à bon escient.

  • Speaker #0

    Et c'est ça le danger par contre, c'est l'électronisme grandissant et l'incapacité d'une partie de la population à pouvoir s'accrocher à cette vague et à continuer d'exister au milieu d'une ère numérique qui change. qui va bouleverser l'environnement sociétal. Et effectivement, un des devoirs collectifs du Nous, c'est aussi d'emmener toute la population vers cette nouvelle ère. Sinon, on va créer des fractures qui vont revenir en boomerang dans quelques années.

  • Speaker #1

    Avec des IA qui sont disponibles aussi de manière gratuite, un peu partout. Tout à fait. Sans penser dans toutes les cités, mais en tout cas, il y a vraiment de l'IA partout maintenant. Donc, on peut vraiment les tester.

  • Speaker #2

    Accessibles et accessibles justement à tous les niveaux. Donc, il faut tester et se faire son propre libre arbitre sur ces sujets.

  • Speaker #1

    Une source, Olivier, pour aller justement tester plein d'IA.

  • Speaker #0

    Tu veux que je la dise absolument ? S'il te plaît. Poe.com

  • Speaker #1

    Non, non, et l'autre.

  • Speaker #0

    Poe.com Vous avez toutes les IA, y compris celles qui sont interdites en Europe, où vous pouvez tester, accéder. Et il y a une IA pour ça. qui recense aujourd'hui, je crois que j'ai regardé hier, il y a près de 30 000 tâches professionnelles qui sont recensées pour je ne sais plus combien de dizaines de milliers d'outils qu'on peut mettre en relation avec ces tâches. Et ça représente 5 000 activités professionnelles.

  • Speaker #1

    Pas mal.

  • Speaker #0

    On commence à avoir un panel intéressant. L'intérêt de l'IA génératif, c'est que c'est une des rares très hautes technologies qui n'est pas de barrière à l'entrée puisque tout le monde peut la tester. C'est gratuit. Donc tout le monde peut y aller, il n'y a aucune barrière financière, cognitive, ça parle toutes les langues. Donc il n'y a aucun argument qui empêche d'aller l'essayer.

  • Speaker #2

    Si ce n'est ses propres peurs.

  • Speaker #0

    Si ce n'est ses propres peurs.

  • Speaker #1

    Et bien Athénaïs, Olivier, merci beaucoup pour cet échange qui était passionnant. Ce qu'on retient c'est que cette IA empathique n'est pas seulement une avancée technologique, c'est vraiment une invitation aussi à repenser notre rapport. à l'autre, mais aussi au numérique. Merci pour votre écoute et je vous dis à très vite pour un nouvel épisode de Tendances Inno. Et voilà, chers auditeurs, c'est tout pour cet épisode de Tendances Inno. Un grand merci pour votre écoute. Nous espérons que vous avez trouvé cette discussion aussi enrichissante et inspirante que nous. N'oubliez pas de vous abonner pour ne manquer aucun de nos futurs épisodes. Vous pouvez retrouver Tendances Inno sur toutes les plateformes de podcast, YouTube et Dailymotion. Si vous aimez ce podcast, Faites-le nous savoir et aidez-nous à le faire connaître grâce à vos commentaires et à vos partages. Pour plus de contenu sur les technologies émergentes, suivez-nous sur les réseaux sociaux de Docaposte. A bientôt pour un nouvel épisode, placé sous le signe de la tech, du Web3 et de l'innovation. D'ici là, continuez à explorer, à innover et à créer.

Description

Dans ce nouvel épisode de Tendances Inno, Marine Adatto et Olivier Senot reçoivent Athénaïs Oslati, fondatrice d’ONTBO, pour explorer l’IA cognitive et empathique.

 

Au programme :

- IA empathique : mythe ou réalité ?

- Usages concrets et retours d’expérience

- Éthique et diversité culturelle dans l’IA

- Conseils pour tester et adopter ces nouvelles solutions

 

À travers des échanges concrets et des retours d’expérience, découvrez comment l’intelligence artificielle peut décrypter nos émotions, personnaliser les interactions et redéfinir la relation homme-machine.

 

L’épisode aborde aussi les enjeux éthiques, les différences culturelles et les défis liés à l’intégration de l’IA empathique dans notre quotidien.

 

Un rendez-vous inspirant pour comprendre comment l’innovation technologique peut rendre le numérique plus humain et inclusif.

 

#Tech #Innovation #IA #Empathie #Docaposte #TendancesInno #Cognitif


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue dans Tendances Inno, votre rendez-vous pour explorer les technologies émergentes présentées par Docaposte, le référent français de la confiance numérique. Je suis Marine Adatto et j'ai le plaisir d'être accompagnée par Olivier Senot, directeur de l'innovation chez Docaposte. Dans ce podcast, nous vous emmenons à la rencontre des innovateurs et des créateurs qui redéfinissent notre monde numérique. Que votre curiosité vous porte vers le Web3, l'IA ou toute autre technologie émergente, vous êtes au bon endroit. Préparez-vous à une dose d'inspiration et d'informations, au programme des découvertes, des défis et des solutions innovantes. Alors branchez vos écouteurs, ouvrez votre esprit et plongez avec nous dans l'univers de Tendances Inno. À l'heure où l'intelligence artificielle s'invite dans toutes les sphères de notre quotidien, une question centrale émerge. L'IA peut-elle comprendre et reproduire nos émotions ? Dans cet épisode de Tendances Inno, nous explorons un concept fascinant, lié à cognitive et empathique. Pour en parler, nous avons l'immense plaisir de recevoir Athénaïs Oslati, fondatrice d'ONTBO, une deep tech qui redéfinit l'intelligence artificielle en y intégrant une dimension empathique. À mes côtés, Olivier Senot, directeur des innovations chez Docaposte, nous aidera à décrypter les enjeux technologiques et éthiques derrière cette révolution. Comment une IA peut-elle décrypter les émotions humaines ? Quels sont les cas d'usage et les limites de cette technologie ? Et surtout, peut-on vraiment parler d'un futur plus humain grâce à l'IA ? Un épisode pour comprendre, questionner et pourquoi pas rêver un peu. Olivier, c'est à toi.

  • Speaker #1

    Bonjour Athénaïs, bonjour Marine. Merci. Il y a seulement 28 ans, Athénaïs, tu es la fondatrice d'Ontbo, Marine vient de le dire, une entreprise deep tech pionnière dans le domaine de l'affectif computing. D'abord médecine, puis des études d'ingénieur en double cursus, mécanique et technologie. et organiques, compétences très utiles pour développer une intelligence artificielle empathique et éthique, capable de s'adapter à l'environnement cognitif de l'utilisateur pour offrir une expérience numérique plus humaine et authentique. Tu accompagnes les entreprises dans l'optimisation de leurs interactions digitales avec leurs clients en allant au-delà des données traditionnelles âge, sexe, géographie, etc. pour intégrer des données plus fines et spécifiques, personnalité, émotion, comportement, réaction, etc. Reconnu pour tes innovations, tu remportes notamment le prix Inov, coup de cœur du gouvernement dans le cadre du plan France 2030, et plus récemment, le prestigieux prix Forbes 30, Under 30. En juin dernier, Onbo a annoncé un partenariat stratégique avec Microsoft pour accélérer son développement et son passage à l'échelle. Ton parcours est exemplaire, ta rapidité d'exécution est impressionnante, tu représentes l'élite de la génération des entrepreneurs. Et pour reprendre un slogan du XXe siècle, mais qu'est-ce qui fait marcher Athénaïs ? Nous t'écoutons.

  • Speaker #2

    Bonjour Marine, bonjour Olivier,

  • Speaker #0

    bonjour Athanise, bienvenue.

  • Speaker #2

    Merci.

  • Speaker #0

    Pour planter le décor, je vous propose déjà un quiz, vraiment pour avoir une idée des grands chiffres. Première question, quel pourcentage des Français se disent méfiants vis-à-vis de l'intelligence artificielle ? Est-ce que c'est 51%, 69% ou alors 35% ? Méfiant,

  • Speaker #2

    51.

  • Speaker #0

    51, Olivier tu dis quoi ?

  • Speaker #1

    Oui, au moins. 69% ?

  • Speaker #0

    69% ? Oui, en effet, c'est 69%. Ils sont quand même globalement assez méfiants. Donc c'est 69% selon une étude Ipsos qui a été publiée en 2023. Et alors, ils pensent que l'IA représente plus d'inconvénients que d'avantages. Et cette proportion élevée indique donc cette méfiance dont on a parlé envers l'IA de la population française. Deuxième question. En France toujours, quel pourcentage de consommateurs a une mauvaise image des entreprises utilisant des outils automatisés pour la relation client ? Il y en a beaucoup. 47%, 67% ou 87% ?

  • Speaker #2

    Je dirais 67%.

  • Speaker #0

    67, Olivier ?

  • Speaker #1

    67, parce que la GNZ l'accepte volontiers.

  • Speaker #0

    Oui, c'est ça. 67%, et donc c'est une enquête de l'entreprise Kiamo de janvier 2024. Dernière question pour rentrer encore plus dans l'empathie. Quel pays teste actuellement des robots empathiques dans ses hôpitaux ? Japon, Chine ou Allemagne ?

  • Speaker #2

    Japon, Chine, je dirais le Japon.

  • Speaker #0

    Japon ?

  • Speaker #1

    Oui, Japon, fortement, ils sont hyper en avant.

  • Speaker #0

    Oui, Japon, qui est pionnier dans l'utilisation de l'IA empathique, notamment pour accompagner des patients isolés ou en soins prolongés. Et donc j'ai une question bonus. Quel pourcentage de patients japonais acceptent ? positivement l'interaction avec des robots empathiques ? 58%, 68%

  • Speaker #2

    ou 79% ? 79% pour avoir échangé au Japon. Ils adorent tout ce qui est robot et robot empathique.

  • Speaker #0

    Ils en ont choisi eux.

  • Speaker #2

    Exactement.

  • Speaker #0

    Alors moi, le chiffre que j'ai, c'est 68% qui est une étude du ministère japonais de la santé de 2023. Donc probablement que ça a augmenté. 68% des patients hospitalisés montrent une réaction positive aux interactions robotiques. C'est particulièrement efficace avec les personnes âgées et les patients en long séjour. À quand en France ? Continuons. Alors, on est allé... Au travail. Au travail. Exactement. Continuons avec le micro-trottoir. Donc, on est allé poser trois questions au public pour vraiment comprendre leur perception de l'IA empathique. La première question qu'on leur a posée, c'est quelle est votre perception de l'intelligence artificielle ? Pour moi, c'est quelque chose qui a été créé par l'humain pour faire parler des machines. On peut faire beaucoup de choses avec, comme toute nouvelle invention. il y a du bon, il y a du mauvais, à savoir comment on l'utilise en fait.

  • Speaker #3

    C'est un outil qui part d'un sentiment intéressant de se dire, de nous aider à répondre à des problématiques en nous donnant des informations tirées de droite à gauche. Mais il y a beaucoup de réserves, telles que la connaissance que l'IA utilise, connaissance qui est basée sur ce que fournit l'homme. Il y a quand même des limites à ça, et surtout de là où la connaissance va être récupérée. Après, il y a énormément d'applications. Dans ma formation, on avait utilisé ça pour utiliser l'intelligence artificielle pour faire de la chirurgie, ce qui est super intéressant, pour accéder à des zones très dangereuses, puisqu'on a une très grande précision par les robots, et j'en passe. Dans l'idée, c'est une bonne perception, je n'ai pas le temps de tout détailler, mais il y a beaucoup de contraintes, il y a aussi l'écologie autour de ça.

  • Speaker #0

    Beaucoup d'opportunités, mais en effet, quand même beaucoup de questionnements. Ensuite, on leur a demandé s'ils pensaient qu'une IA pouvait décrypter nos émotions quand on lui parle. Et voici les réponses.

  • Speaker #3

    On a quand même une limite de décryptage parce que des fois, on a des sentiments contraires. On va exprimer d'une manière et montrer d'une autre. Donc, toutes ces parties-là, il y a beaucoup d'apprentissage encore côté IA. Et j'entends surtout sur la partie... décryptage visuel du visage, mais aussi ressenti, parce qu'il y a beaucoup de compassion et d'empathie à avoir pour pouvoir décrypter les sentiments.

  • Speaker #2

    Je pense que oui, ils peuvent être très pertinents, dans la mesure où le dialogue, l'interaction avec l'intelligence artificielle passe essentiellement par l'écrit, comme dans le ChatGPT. Donc, une analyse du texte, des mots que l'on peut utiliser, de la syntaxe, du rythme, peut effectivement... permettent de traduire, de décrypter, de détecter les émotions. Reconnaissance faciale, visuelle aussi, de toute évidence. Gestuelle, corporelle, ça se modélise très bien pour pouvoir analyser au moins les émotions superficielles exprimées par un humain.

  • Speaker #0

    Voilà, on pense en effet que c'est possible et on va creuser ce sujet avec toi Athénaïs. Enfin, on leur a montré la vidéo du robot Optimus de Tesla. Vous voyez cette vidéo. Et on leur a posé la question suivante. Pensez-vous qu'un robot comme celui-ci puisse développer une conscience, mimer une émotion et un comportement humain ?

  • Speaker #4

    Je ne connais pas, mais je connaissais les robots de Boston Dynamics. On dirait que c'est un petit peu le même principe. On dirait que Tesla est allé un petit peu plus loin, plus dans le mode humain, et Boston Dynamics plus dans les trucs sur quatre pattes, qui sont quand même assez réalistes aussi. Mais en tout cas, oui, c'est bien ce que Tesla font. Ça part de loin quand même, parce que c'est sûr que mimer un déplacement humain, c'est vraiment très compliqué. Comme on voit là, il est déjà hyper, hyper... poussé et pourtant il fait juste marcher, déplacer un oeuf et arriver à se baisser. J'imagine que c'est extrêmement complexe de faire en sorte qu'il se comporte exactement comme un humain parce que l'oreille interne, les muscles, les mers et tout, c'est quand même hyper compliqué. Mais on dirait que ça y arrive petit à petit. Développer une conscience, peut-être pas, parce que c'est quand même extrêmement complexe aussi. Là, on a vu avec l'avancement de l'IA cette année qu'on était capable d'avoir des bonnes discussions avec l'IA, que l'IA est capable de... simuler en fait il est capable de simuler ou d'imiter il n'est pas vraiment capable d'avoir une propre conscience à lui même donc il peut imiter quelqu'un qui est triste imiter quelqu'un qui est heureux on dirait que du moins l'IA est capable de simuler et d'imiter quelqu'un après développer une conscience pas encore je pense peut-être un jour mais ça va prendre du temps et c'est comme si parce que l'IA doit apprendre un petit peu le comportement humain c'est comme s'il doit vraiment apprendre énormément sur l'humain pour pouvoir se comporter un petit peu comme un humain.

  • Speaker #0

    Athénaïs, qu'est ce que tu en penses ?

  • Speaker #2

    Alors c'est très intéressant. Le premier point c'est que chacun a bien saisi que l'IA aujourd'hui excelle dans tout ce qui est automatisation et exécution notamment des tâches. Certains parlaient dans le domaine de la robotique, dans le secteur médical, les avancées en termes d'IA. Donc là c'est vraiment une efficacité dans l'exécution, dans la détection notamment des cancers. Donc ça c'est super. Je vois également que certains ont compris. la nuance d'une IA d'une IA empathique plus précisément qu'elle ne fait que imiter donc on va rentrer je pense après dans le sujet mais effectivement l'IA empathique ne fait que imiter un comportement et aujourd'hui on n'est pas à même de pouvoir dire qu'on va créer une conscience comme on l'entend aujourd'hui

  • Speaker #0

    Olivier, des réactions ? Je t'ai vu hocher la tête et dire non de la tête. Mieux dire quoi ? Mieux dire quoi ?

  • Speaker #1

    Non, non, mais je partage le point de vue d'Athénaïs. Ensuite, la grande question, seront-ils capables de développer une conscience ? On n'a pas assez d'une heure pour faire le tour de la question.

  • Speaker #2

    Exactement, c'est vrai,

  • Speaker #0

    c'est vrai. Il faudrait faire une série dessus. Oui, oui.

  • Speaker #1

    Déjà, répondre à la question, qu'est-ce qu'une conscience ?

  • Speaker #0

    Qu'est-ce qu'une conscience ? Avant de répondre à la question « qu'est-ce qu'une conscience ? » , répondons-nous posant les bases, Anthénaïs. Qu'est-ce que l'IA empathique et cognitive ?

  • Speaker #2

    L'IA empathique et cognitive, c'est une branche de l'IA, de l'informatique affective, qui a cette capacité de pouvoir imiter, de comprendre le système psychologique d'un individu, toute sa cognition. Ça va être ses traits de personnalité, ses réactions, ses comportements et également ses émotions. Alliant tout ça à du contexte, notamment un contexte psychologique mais également environnemental, ça nous permet d'avoir une représentation, une map psychologique d'un individu.

  • Speaker #0

    Et alors comment est-ce que ça se traduit concrètement dans ta solution chez Onbo ?

  • Speaker #2

    Alors précédemment on a entendu les différentes modalités, on a entendu l'image, le texte, la voix. Donc effectivement ce sont les modalités qu'on utilise aujourd'hui. dans un premier temps au travers par exemple des expressions faciales, de la gestuelle. On vient croiser également la voix et dans la voix il y a deux choses à distinguer. Il y a ce que je dis mais il y a également ce qu'on appelle la prosodie, c'est-à-dire le timbre de la voix, le son, l'intonation. Parce qu'en France on est très fort pour tout ce qui est passif-agressif, c'est-à-dire sur un ton très monotone, très monocorde, tenir un propos très incisif. Donc il faut faire cette distinction entre les deux. Et après effectivement tout ce qui est relié au texte. Donc ça peut être des messages, emails ou autres. Donc nous, on vient fusionner toutes ces données pour avoir véritablement une compréhension profonde de l'être humain et de ce qu'il souhaite et de son intention et de ses désirs, bien plus que de l'émotion. Donc on met ça dans tout l'écosystème. Donc c'est sous forme d'API, c'est-à-dire que c'est un petit plugin dans lequel on s'insère au sein de l'écosystème de nos clients. Et à partir de là, ils peuvent jouer avec.

  • Speaker #0

    Et alors, justement, comment est-ce que ça va se traduire concrètement ? Un client... met l'API dans sa solution. Et qu'est-ce qui se passe ?

  • Speaker #2

    Alors, à ce moment-là, généralement, les clients avec qui on collabore ont déjà des IA ou utilisent déjà, par exemple, des IA génératives. Donc, nous, on est vraiment sur trois grands secteurs. Le premier, c'est tout ce qui est Customer Support, c'est-à-dire la relation homme-machine directement dans le secteur, par exemple, des télécoms, des télécommunications, du retail, de la banque. Donc ici, au travers des assistants, par exemple, virtuels, vocales, ou bien texte généralement, on va pouvoir analyser en temps réel, comprendre véritablement le besoin, les attentes, les motivations de notre interlocuteur pour proposer justement une réaction beaucoup plus empathique et surtout répondre à sa demande. Parce qu'on sait combien de fois on est sur du SAV par exemple. On a une personne au téléphone, on sait très bien que c'est un chatbot ou que c'est un assistant virtuel qui est derrière, qui ne comprend pas ce que l'on dit et au final on est renvoyé vers un être humain. qui nous posent exactement les mêmes questions. Donc remplacer l'homme par la machine sur des tâches chronophages, ok, mais il faut que ça soit fait justement de façon empathique.

  • Speaker #0

    Et la vision derrière cette innovation, donc tu viens de donner un premier élément de réponse, c'est quoi la vision globale ?

  • Speaker #2

    La big vision, en fait, c'est pas... La vision que l'on a ici, c'est de passer d'un monde où les IA que l'on connaît, où les machines... que l'on a aujourd'hui sont de simples outils à des compagnons qui soient proactifs. Le vrai sujet, c'est qu'aujourd'hui, toutes les machines, toutes les IA que l'on utilise sont réactives. C'est-à-dire qu'on a, par exemple, une émotion, la machine s'adapte, elle est réactive. On a une intention et un comportement, la machine s'adapte, elle est dans une phase de réaction. Nous, on veut aller beaucoup plus loin que ça, c'est-à-dire qu'on a ce compagnon proactif qui comprend les singularités de chacun et chacune d'entre nous pour pouvoir ensuite anticiper au niveau de nos besoins.

  • Speaker #0

    Oui, avec une analyse finalement un peu froide et éloignée qui permet d'avoir la meilleure réponse possible pour la personne qui est en face. Alors, est-ce que tu as des exemples concrets à nous partager ? Des chiffres, par exemple, de clients qui utilisent ta solution ?

  • Speaker #2

    Ce qu'il faut se dire avant tout, c'est de se poser la question, en fait, qu'est-ce qui rend une expérience ? on va dire inoubliable. Et ce n'est pas juste la précision, c'est avant tout l'émotion. Et il y a un chiffre phare qui nous parle, c'est que 95% des interactions homme-machine sont drivées en 2025 par l'IA. Et ça, c'est juste 95%. 95% ! Et derrière, la plupart des gens ne le savent pas. D'où la nécessité de remettre de l'humain, de l'empathie au sein de cette interaction, de cette relation machine. Ça, c'est un vrai sujet aujourd'hui. Et on le voit, petit aparté là-dessus, j'étais au CES 2024, on parlait beaucoup d'IA générative. On entendait Gen AI, DLLM, Open AI et ainsi de suite. Tout le monde n'avait que ça sur les lèvres au travers de chatbots et d'assistants virtuels. et on voit qu'il y a un... Il y a un basculement qui s'est opéré sur la fin 2024, où là, OpenAI, Meta, Google, lancent également des nouveaux projets qui s'appellent Empathy AI. Et ils voient qu'on a atteint un plafond de verre sur l'exécution, justement, l'IA qui exécute des tâches. C'est bien, maintenant l'IA est dans l'interaction en machine, il va falloir passer un cap, celui de la compréhension de l'être humain, et pas juste connaître l'être humain. C'est vraiment ça. que chacun et chacune d'entre nous voulons, c'est vraiment être compris par la machine et pas juste être connu.

  • Speaker #0

    Mais alors dans cette compréhension, il y a aussi un enjeu central, qui est un enjeu éthique.

  • Speaker #2

    Absolument.

  • Speaker #0

    Et qui, en plus, est différent selon les cultures. Est-ce qu'on peut dire qu'il y a plusieurs types d'éthiques ?

  • Speaker #2

    Alors, il y a plusieurs types d'éthiques, puisqu'il y a plusieurs cultures. L'IA a émergé, enfin l'IA a même explosé durant ces deux dernières années. aux quatre coins de la planète, que ce soit Japon, Corée, Chine, on l'a vu récemment, États-Unis, chacun, de par sa culture, de par sa perception, de par son origine, de par son ethnie, a une définition qui lui est propre de l'éthique, complètement. Et l'éthique en Asie n'est absolument pas la même que l'éthique en Europe, qui elle-même diffère de l'éthique en Amérique du Nord. L'Amérique du Nord, l'éthique, c'est comment on va pouvoir... capitaliser. Le terme capitalisme est central ici, c'est comment on va pouvoir créer un maximum de valeur. En Europe, on est plus centré sur les droits, les droits de chacun tandis que, de chaque être humain, tandis qu'en Asie, et notamment en Asie Pacifique, on est centré sur le « nous » , c'est-à-dire c'est la citoyenneté, c'est le bien commun qui doit primer justement sur les libertés individuelles. Donc c'est des visions qui sont bien différentes et on ne peut pas se permettre d'imposer notre éthique. notamment nous en Europe, on aime bien faire ça. Je l'ai vu en partant au travers de Hombau en Asie, au Japon. J'arrivais avec ma vision de l'éthique européenne et on m'a dit non, non, non. Nous, on utilise cette technologie, par exemple dans le domaine de la sécurité, pour pouvoir prévenir d'un comportement à risque. Chose qui serait en France impensable pour l'instant, à l'heure actuelle.

  • Speaker #0

    Alors justement, au niveau sécurité, si on prend l'exemple des JO.

  • Speaker #2

    Oui.

  • Speaker #0

    Les JO, donc il y a eu... énormément de sécurité, il y a eu des utilisations. Absolument. Tu parles du côté droit en Europe, comment ça se passe ?

  • Speaker #2

    Alors là-dessus, il faut savoir qu'en Europe, déjà, il y a deux normes. Donc il y a la RGPD et puis il y a le AI Act qui va rentrer en vigueur. Pour les JO, il y a eu, il me semble que c'était l'Assemblée nationale qui a voté un texte particulier pour pouvoir utiliser des caméras. Alors attention, ces caméras étaient à des endroits... bien particuliers, elles n'étaient pas utilisées 24h sur 24, donc il y avait des temps, et ces caméras ne permettaient pas de pouvoir identifier les personnes, parce qu'en fait, on revient vraiment à cette notion d'identification de la personne. Donc, il y a eu des systèmes qui ont été mis en place là-dessus pour les JO de 2024, bien sûr. Maintenant, ça aurait été un tout autre dispositif si on avait été en Asie, et c'est un tout autre dispositif pour les JO, justement, de Los Angeles. où là, ils vont utiliser, par exemple, de l'IA empathique pour détecter tout ce qui est comportement à risque, principalement, pour prévenir l'arrivée soit d'une situation, d'une attaque dangereuse.

  • Speaker #0

    C'est limite du Minority Report, là.

  • Speaker #2

    Expliquez. Tout dépend le point de vue. Moi, j'ai été surprise. J'avais le même point de vue quand je suis partie vraiment en Asie. Et on m'a dit, mais est-ce que vous prendriez le risque de vous faire agresser, par exemple, dans le métro ? C'est-à-dire qu'imaginez qu'on a une solution, qu'on a la possibilité de prévenir d'un crime, quel qu'il soit, mais qu'on ne veut pas l'utiliser, sous prétexte qu'il y a des libertés individuelles. Pourtant, vous êtes sur la place publique et vous ne faites rien de mal. Mais vous ne voulez pas justement prévenir d'un risque pour le bien commun. Est-ce que ça n'envoie pas à de l'égoïsme ? C'est des questions qui sont ouvertes, parce qu'on a notre culture, on a notre perception. Mais c'est vrai que j'ai été confrontée à cette vision de l'éthique, notamment au Japon, on en discutait précédemment, parce qu'ils utilisent beaucoup d'IA et notamment les IA dans les robots. Et cette question-là se pose.

  • Speaker #0

    Oui, c'est ça. Et le fameux « nous avant le jeu » là-bas.

  • Speaker #2

    « Nous avant le jeu » , c'est ça. En Europe, c'est le « je avant le nous » . C'est des perceptions qui sont différentes.

  • Speaker #0

    Et alors, ces différences culturelles, ce sont des facteurs déterminants à prendre en compte pour travailler avec les IA cognitives. Ça veut dire que vous, chez Onbo, vous vous adaptez selon les marchés ?

  • Speaker #2

    Tout à fait. En fait, on a des bases de données spécifiques à différentes cultures, différentes ethnies, différentes régions du monde qui doivent être prises en considération. Pourquoi ? Parce que l'empathie est propre à une culture. Par exemple, je reprends le cas du Japon, l'expression des émotions est complètement différente que la nôtre, par exemple en France ou en Europe. Ils sont beaucoup plus expressifs, par exemple, du haut du visage. On dit que nous, c'est du bas du visage. C'est un exemple. Donc, tout ça fait qu'effectivement, on se doit de prendre en considération pour limiter les biais cette dimension culturelle. Un autre point que l'on a fait, c'est que les émotions ne sont pas exprimées de la même façon. Certes, mais les émotions ne sont pas les mêmes selon les pays. On a travaillé avec un client qui nous a dit « j'aimerais percevoir quelque chose qui ne se voit pas » . Il y a un terme japonais spécifique. là-dessus. Nous, on n'a pas de définition, on n'a pas une émotion, on n'a pas un comportement qui traduit ce « il y a quelque chose qui ne va pas, je ne sais pas ce que c'est, mais je sais que c'est là » . On a réussi, de par la façon dont on a construit nos algorithmes, à déceler ça. Et c'est aussi ça la force je trouve de l'IA, une fois qu'elle est bien conçue.

  • Speaker #0

    Percevoir ce qui ne se perçoit pas.

  • Speaker #2

    Ce qui n'est pas perçu justement par l'homme. Parce qu'il ne faut pas l'oublier, la concentration d'un être humain, c'est 45 minutes. Et on a besoin de faire une pause. Donc, on ne peut pas être comme une machine, c'est le cas de le dire, à avoir une attention accrue tout le temps.

  • Speaker #0

    Et ça passe par les images, ça passe par le texte. En fait, ce sont des combinaisons des deux qui vont permettre...

  • Speaker #2

    Il y a le texte, il y a la voix, effectivement. Il y a également l'image. La modalité dépend vraiment du cas d'usage derrière qui est fait. Mais c'est la fusion de données, c'est la compréhension du contexte. Et j'insiste vraiment sur cette compréhension du contexte parce que si on prend une personne... par exemple qui sourit on va dire elle sourit imaginons qu'en fait cette personne là elle sourit pas mais elle est en train de faire une grimace parce qu'elle est attaquée tout de suite le fait de prendre en considération l'environnement, le message n'est absolument pas le même le résultat n'est pas le même et puis tu peux avoir des sourires de façade aussi exactement tu peux avoir de la tromperie en fait dans les expressions que tu donnes tout à fait et ça aussi on le détecte et ça on le détecte vrai sourire ou faux ?

  • Speaker #0

    Alors du coup, il y a quand même un sujet sur des dérives potentielles. C'est-à-dire que si tu détectes vraiment tout, l'éthique n'est pas nécessairement un garde-fou pour cette détection. Comment est-ce qu'on peut se prémunir de ces dérives ? Sachant que quand on a préparé cet épisode, tu m'avais parlé de biais différents à prendre en compte. Est-ce que tu peux nous expliquer ?

  • Speaker #2

    On ne pourra jamais tout détecter. Ça, c'est évident. Mais en termes d'éthique, il y a trois sources de biais. La première, et tout le monde l'a compris, c'est la création d'un algorithme. C'est-à-dire qui va créer un algorithme ? Il y a eu beaucoup d'encre qui ont été versées, notamment aux États-Unis, parce qu'il y a des algorithmes qui étaient conçus uniquement par des hommes, et notamment des hommes blancs. Donc, on introduit des biais parce qu'on est tel genre, telle origine, et ainsi de suite. Donc, il y a la création de l'algorithme, où on risque d'introduire nos biais. Le deuxième point, c'est par l'utilisation. Et on l'a vu avec, notamment, tout ce qui est deepfake. On prend une technologie, on l'utilise à d'autres fins, ça peut être même à des fins belliqueuses, et au final, on a un résultat qui n'est pas celui escompté. Et le troisième point, et c'est le point que beaucoup de gens oublient, c'est la donnée. C'est-à-dire qu'on a beau avoir, on va dire, une conception éthique, virtueuse, quasiment sans biais, parce que zéro biais ça n'existe pas, une utilisation qui suit la même transparence, si on entraîne avec des jeux de données qui sont biaisés, c'est terminé. Et on l'a vu, il y a le cas le plus célèbre, c'est aux États-Unis, où on voit qu'il y a un juge qui... qui doit rendre une sentence à un moment donné, donc qui doit prendre une décision. En fait, il s'avère que dans la plupart des cas, ce juge IA prend la décision de condamner des personnes noires et ou afro-américains et ou hispaniques. On se pose la question pourquoi ? Parce que dans les affaires précédentes, la plupart des condamnés dans cette région-là des États-Unis, ce sont des Afro-Américains ou des Hispaniques. D'où la nécessité de faire attention aux jeux de données que l'on introduit également.

  • Speaker #0

    Alors, si on se pense sur l'utilisation justement de ces IA dans une entreprise, comment est-ce qu'on peut maximiser l'impact tout en restant éthique ?

  • Speaker #2

    Alors, là-dessus, il faudra... Je vais parler de la façon dont Ombo fonctionne là-dessus. Pour maximiser déjà l'impact de l'IA, on doit avoir cette notion de transparence, qui est une notion clé chez nous. Transparence, ça veut dire quoi ? Ça veut dire pouvoir expliquer aussi les résultats derrière. Pourquoi j'ai eu ce résultat ? Comment est-ce que ça fonctionne ? Le deuxième point, et c'est ce qui est demandé par les entreprises, c'est pouvoir pluguer des systèmes de façon interopérable, c'est-à-dire de façon simple. à leur écosystème. Là aussi, ça c'est un point qui est important pour maximiser les bienfaits de l'IA. Et rester éthique, c'est également être éclairé, c'est-à-dire un consentement éclairé via l'utilisateur final.

  • Speaker #0

    Donc l'utilisateur doit être au courant.

  • Speaker #2

    Doit être au courant. Pour nous, l'utilisateur doit être au courant de l'utilisation de telle ou telle technologie derrière. Et si on veut être justement transparent, à quelle fin ces données seront utilisées.

  • Speaker #0

    Mais c'est-à-dire qu'au courant, jusqu'où ? Savoir qu'il y a une analyse de sa façon de parler, de sa prosodie, de l'écrit, de pourquoi ? En fait, tout ça, c'est annoncé au préalable ?

  • Speaker #2

    Bien sûr. Pour nous, ça se doit d'être annoncé. Quand on est avec des clients, on préconise justement d'être transparent. C'est-à-dire d'annoncer directement à l'utilisateur la technologie qui est utilisée et pourquoi elle est utilisée. Quand vous êtes, par exemple, en télécommunication, et on vous dit que cet enregistrement est susceptible d'être enregistré, à des fins de performance. Et en fait, c'est du marketing derrière, malheureusement. Et ils ne sont pas transparents sur l'utilisation de ces données.

  • Speaker #0

    Donc, au même titre que tu fais une visio, tu as ton note-taker qui se met, qui dit "Bonjour, je suis le note-taker d'Olivier, d'Athénaïs ou de Marine". Et donc, je suis là pour prendre des notes. Oui. Au même titre, la technologie explique. Voilà, bonjour, je suis tel,

  • Speaker #2

    je suis tel agent...

  • Speaker #0

    Et donc, je suis là pour échanger avec vous et répondre au mieux. C'est ça. Si il y a une connaissance peut-être approfondie de vos émotions, etc. Est-ce que ça va jusque là ou ce n'est pas nécessaire ? Alors,

  • Speaker #2

    ce n'est pas nécessaire, mais je préfère effectivement qu'il y ait cette transparence en disant « Voilà, on est une IA éthique, voilà à quoi ça sert là-dessus » . Pourquoi ? Parce que ça permet aussi de rappeler qu'il s'agit d'une IA. Certains, au début, évoquaient le fait qu'on puisse... Voilà, qu'on va dire que la frontière était mince entre l'IA et l'homme et c'est véridique. Beaucoup de gens et beaucoup de jeunes, et on l'a vu notamment aux États-Unis et même en Chine, utilisaient l'IA générative, que ce soit Caractère AI et ChatGPT, comme étant des substituts de psychologues ou de psychiatres. Et certains tombaient amoureux de LLM. Donc la frontière étant mince, à ce moment-là, il faut rappeler aussi qu'on a une IA en face de nous.

  • Speaker #0

    Olivier, qu'est-ce que tu en penses de ça ?

  • Speaker #1

    Beaucoup de choses. mais le... La dérive, c'est que l'IA émotionnelle va être présentée, probablement dans le cadre de la petite phrase avant l'enregistrement, et va être masquée derrière personnalisation ou meilleure compréhension ou des choses comme ça. La perception de l'IA va s'effacer dans les années à venir. Et effectivement, les jeunes générations aujourd'hui, de toute façon, préfèrent s'adresser à une IA dans leur quotidien. C'est une étude de décembre à près de 70% plutôt qu'à décembre 2024. préfèrent s'adresser à une IA plus qu'à un humain dans les tâches du quotidien avec la banque, avec l'administration, parce que plus efficace, plus rapide et plus simple à utiliser. Donc l'IA va s'effacer, l'IA émotionnelle va prendre...

  • Speaker #0

    de plus en plus d'importance pour des questions de performance. Et on va l'utiliser sans s'en rendre compte, comme aujourd'hui on utilise l'IA à 95% sans s'en rendre compte.

  • Speaker #1

    C'est une évolution. C'est une évolution.

  • Speaker #2

    Exactement, c'est une évolution. Non pas une révolution. Exactement. Pour l'entendre, il s'agit vraiment d'une évolution. Parce qu'on voit que l'IA s'introduit dans la communication entre les hommes. Donc partant de là...

  • Speaker #1

    Est-ce qu'on peut du coup se dire que l'IA empathique va avoir une vraie place dans nos vies ? Vous dites tous les deux qu'on s'en rendra même plus compte. Pour autant, elle sera là. Est-ce qu'on peut parler d'un futur plus humain ? grâce à l'IA, dans ces échanges justement entre les entreprises par exemple et les consommateurs ?

  • Speaker #2

    Alors plus humain, oui. Ce n'est même pas une question d'entreprise ou consommateur. Plus humain, oui, parce qu'on va se poser la question de la frontière entre l'homme et la machine. Et je trouve ça absolument fascinant parce qu'aujourd'hui, ce que l'on voit, c'est que la machine, et notamment l'IA générative, s'introduit au sein des écoles. C'est-à-dire qu'elle arrive à calculer, elle arrive à rédiger, elle arrive à argumenter. Et les enseignants, aujourd'hui, essayent justement de faire valoir le fait de ne pas utiliser ces algorithmes. Donc on voit qu'elle s'introduit de plus en plus au sein de l'école. Pourquoi c'est intéressant ? Parce qu'on se rend compte que tout ce qu'on a appris ici peut être fait par la machine. Donc ça va poser la question de mais en quoi suis-je unique ? Qu'est-ce que l'homme ? Et donc ça va nous, justement, nous repousser dans nos retranchements en nous disant, où est ma singularité ? Est-ce que c'est vraiment de la créativité ? Qu'est-ce qui fait de moi un être humain et qui pourra justement ne jamais être remplacé par la machine ? Et je trouve ça absolument fascinant parce que c'est des sujets d'actualité qui va former la société de demain.

  • Speaker #1

    Quand on a préparé cet épisode, tu as cité Merci. Une phrase de Laurence de Villiers que j'ai notée, que je redonne. "On dit qu'un avion vole, mais il ne bat pas des ailes comme un oiseau qui vole".

  • Speaker #2

    Oui, c'est ça. C'est un peu ça ? Oui, effectivement, c'est un peu ça l'idée. Elle dit, à l'instar d'un avion qui ne bat pas des ailes pour voler, on a construit des machines qui sont capables d'imiter sans ressentir, de parler sans comprendre. et d'avoir cette réflexion sans véritablement avoir une conscience. Et c'est toujours là l'enjeu pour nous aussi.

  • Speaker #1

    Et donc aussi de savoir, nous utilisateurs de cette IA, bien questionnés, on s'en parlait tout à l'heure, c'était off, mais de Olivier qui disait quand tu demandes gentiment à ChatGPT ou quelque chose, tu as une meilleure réponse. Et donc tu as expliqué pourquoi. Je veux bien que tu réexpliques. Pourquoi est-ce qu'on a une meilleure réponse ? Alors,

  • Speaker #2

    effectivement, l'une des théories, je tiens à le préciser, c'est que ces LLM sont basés sur et s'entraînent sur des données, un large panel de données. Par conséquent, à chaque fois qu'on commence par un bonjour, il vient chercher une donnée qui, effectivement, commence par un bonjour également. C'est-à-dire que sur des forums, quand il y a un bonjour, un merci, ce sont souvent des réponses qui sont structurées, qui sont argumentées et qui sont pertinentes. À l'instar de, contrairement à tout ce qui est sur les réseaux sociaux, où on commence ni par bonjour, ni par au revoir, ni par merci, qu'on donne son opinion. Donc on n'est plus dans l'argument, on est dans l'opinion. Donc là aussi, la machine l'a inconsciemment, justement, la machine l'a bien compris.

  • Speaker #1

    Oui, c'est intéressant. Et donc ça reprend ce principe. d'imitation et de reproduction, et aussi de langage pour baser des réponses. Et donc, ce besoin d'être particulièrement aussi attentif aux sources, toujours demander les sources pour être sûr d'avoir des bonnes réponses. Donc, cette vision d'une IA capable d'imiter nos émotions, de s'intégrer harmonieusement dans nos vies, pose aussi une question essentielle. Comment garder un équilibre entre l'innovation et l'humanité ? Cette question est parfaitement taillée pour celui dont le regard visionnaire à mes côtés n'a d'égal que son talent à éclairer les zones d'ombre. Olivier, c'est à toi.

  • Speaker #0

    Si, si t'en restes un peu, tu feras l'heureux. Gen AI is another AI. Dans le contexte tumultueux de notre ère numérique, l'IA émotionnelle impose une nouvelle réflexion urgente sur notre avenir numérique. Les avancées techno s'accélèrent à un rythme vertigineux. Entre 2022 et 2024, on a vu une révolution arriver dans toutes les couches de la population, aussi bien privée que professionnelle. Et la question de l'éthique, de l'émotion... Dans l'IA, lorsqu'elle touche, l'émotionnel ne peut pas être ignoré. Au travers d'ONTBO, en visionnaire, tu explores les limites des contrées connues, cherchant à tisser des solutions centrées sur l'humain et ce facteur insondable, jusqu'à présent, de ces émotions. Ton mantra, relevé dans l'une de tes interventions, repose sur une vérité existentielle. Les consommateurs n'achètent pas seulement des produits ou des services, ils achètent une histoire, ils achètent une émotion. Phénomène bien connu, mais il souligne la nécessité d'une informatique affective, capable de personnaliser les interactions en fonction des sentiments humains. Mais cette quête de personnalisation soulève des questions tout aussi fondamentales. Comment une IA peut-elle réellement comprendre l'humain avec ses nuances, ses frustrations, son sarcasme, alors qu'elle est intrinsèquement dépourvue d'émotions ? Et on l'a dit tout au long de cet épisode, elle ne fait que reproduire ce qu'elle connaît. Ça nous invite à une réflexion. un peu plus critiques, pouvons-nous développer des algos qui tiennent compte de la diversité culturelle, religieuse, sans tomber dans le piège d'une uniformisation réductrice ? Là aussi, on l'a évoqué, mais ces deux questions sont centrales. Est-ce que l'éthique émerge comme cet enjeu central dans la discussion sur l'IA ? Mais de quelle éthique parle-t-on ? Loin d'être un concept monolithique, l'éthique se décline en multiples facettes, influencées par des contextes culturels. L'une des questions aussi vieilles que la notion de sécurité dont on a parlé oppose le « je » au « nous » ou comment le « nous » peut-il passer avant le « je » sans sacrifier nos valeurs fondamentales ? On reste dans cet éternel débat des deux curseurs sécurité-liberté individuelle. L'IA empathique doit donc s'inscrire dans un cadre éthique pluriel, conscient des diversités qui composent notre monde. La place de l'IA empathique dans nos vies demeure incertaine, oscillant entre promesses et menaces. Peut-on envisager un avenir ? plus humain grâce à ces technologies, la réponse repose sur notre capacité à naviguer entre l'optimisme et la vigilance. Les technologies offrent des opportunités sans précédent pour améliorer notre quotidien, mais elles comportent également de très nombreux risques. Face à ces défis, et une fois de plus, j'en parle à chaque fois, l'esprit critique se révèle être notre meilleur atout. Il nous permet de questionner les narrations dominantes, d'explorer les dimensions cachées des technologies et d'insister sur la nécessité d'une responsabilisation collective. En définitive, l'avenir de l'IA empathique s'annonce comme une toile à tisser où chaque fil représente une émotion, une culture, une éthique. C'est dans cet entrelacement que pourrait résider l'espoir d'un demain plus humain, où l'illusion et la réalité s'harmonisent pour donner naissance à une nouvelle compréhension de ce que signifie être humain à l'ère numérique. La place de l'IA empathique dans nos vies demeure une question ouverte, une énigme à résoudre. Peut-on vraiment envisager un futur où l'IA passe du statut d'outil à celui du partenaire de l'humanité, ce qui entre nous est en train de se produire. L'idée d'un futur plus humain grâce à l'IA évoque-t-elle une utopie, une promesse de rédemption à travers la technologie ? Ou bien s'agit-il d'une illusion, un mirage qui nous écarte de notre essence humaine ? Vous avez 4 heures.

  • Speaker #1

    Qu'est-ce que tu en penses Athénaïs ?

  • Speaker #2

    Il a tout résumé. Il a tout résumé. Effectivement, on va avoir des compagnons proactifs. On les a peut-être déjà.

  • Speaker #1

    Je rembobine un tout petit peu. Ce podcast, il a vraiment pour vocation de donner des conseils, d'éclairer, de faire comprendre, de décrypter. Quels conseils est-ce que tu donnerais toi aux citoyens ou aux entreprises pour utiliser cette IA émotionnelle ? Qu'est-ce qu'il faut faire ? Quels sont les prérequis ?

  • Speaker #2

    Testez-la. Pour être convaincu, il faut l'attester. La plupart des personnes, des gens, ont ce biais tout à fait humain, c'est la défiance à l'égard des nouvelles technologies, parce qu'ils ne savent pas ce que c'est. Et ils se basent sur ce qu'ils ont pu entendre dans les médias ou autres, en se disant « c'est une vérité, donc ça devient ma vérité » . On met les mains, j'allais dire, dans le code. On se rend compte rapidement de ses limites, de comment ça fonctionne, du fait que ça ne remplacera certainement pas l'homme. Donc, testez, renseignez-vous. Allez-y, n'ayez pas peur.

  • Speaker #1

    Le libre arbitre si cher à Olivier.

  • Speaker #0

    Exactement. Exactement. C'est un de mes mantras quand j'interviens à droite et à gauche. Testez-le, utilisez-le. Utilisez-le à des fins professionnelles, mais utilisez-le aussi dans votre vie privée pour discuter. Aujourd'hui, ces IA génératives sont capables de tenir des conversations que vous n'auriez pas avec d'autres humains. Donc, essayez-le, testez-le. Tentez de le piéger. On l'a vu il n'y a pas très longtemps avec Lucie qui revient sur le tapis avec ses œufs de vache. Donc ça, c'est intéressant. Testez-le. Essayez de le coincer, de le piéger, de l'enfermer, que ce soit sur le biais de la connaissance, de l'éthique ou du raisonnement. Ça vous permettra de vous l'approprier et ensuite de l'utiliser à des fins opérationnelles et à des fins de plus grande efficience. dans la vie de tous les jours et dans la vie professionnelle. Parce que de toute façon, vous ne le freinerez pas. Tu parlais tout à l'heure de l'éducation. L'éducation est vent debout contre ces outils en France. Ce n'est pas du tout le cas à l'étranger. Et l'IA générative... gamins de 12 ans savent s'en servir. Ils savent demander à Chad J.P.T. un exposé sur la Lune. Donc, on ne résistera pas. Il faut l'appréhender, il faut l'apprivoiser pour savoir s'en servir.

  • Speaker #2

    C'est tout à fait ça. C'est une vague. Soit on surfe sur cette vague-là qui va nous amener là où on le désire, soit on risque d'être noyé et malheureusement d'être mis de côté. Donc, c'est un formidable... outils, autant l'utiliser justement à bon escient.

  • Speaker #0

    Et c'est ça le danger par contre, c'est l'électronisme grandissant et l'incapacité d'une partie de la population à pouvoir s'accrocher à cette vague et à continuer d'exister au milieu d'une ère numérique qui change. qui va bouleverser l'environnement sociétal. Et effectivement, un des devoirs collectifs du Nous, c'est aussi d'emmener toute la population vers cette nouvelle ère. Sinon, on va créer des fractures qui vont revenir en boomerang dans quelques années.

  • Speaker #1

    Avec des IA qui sont disponibles aussi de manière gratuite, un peu partout. Tout à fait. Sans penser dans toutes les cités, mais en tout cas, il y a vraiment de l'IA partout maintenant. Donc, on peut vraiment les tester.

  • Speaker #2

    Accessibles et accessibles justement à tous les niveaux. Donc, il faut tester et se faire son propre libre arbitre sur ces sujets.

  • Speaker #1

    Une source, Olivier, pour aller justement tester plein d'IA.

  • Speaker #0

    Tu veux que je la dise absolument ? S'il te plaît. Poe.com

  • Speaker #1

    Non, non, et l'autre.

  • Speaker #0

    Poe.com Vous avez toutes les IA, y compris celles qui sont interdites en Europe, où vous pouvez tester, accéder. Et il y a une IA pour ça. qui recense aujourd'hui, je crois que j'ai regardé hier, il y a près de 30 000 tâches professionnelles qui sont recensées pour je ne sais plus combien de dizaines de milliers d'outils qu'on peut mettre en relation avec ces tâches. Et ça représente 5 000 activités professionnelles.

  • Speaker #1

    Pas mal.

  • Speaker #0

    On commence à avoir un panel intéressant. L'intérêt de l'IA génératif, c'est que c'est une des rares très hautes technologies qui n'est pas de barrière à l'entrée puisque tout le monde peut la tester. C'est gratuit. Donc tout le monde peut y aller, il n'y a aucune barrière financière, cognitive, ça parle toutes les langues. Donc il n'y a aucun argument qui empêche d'aller l'essayer.

  • Speaker #2

    Si ce n'est ses propres peurs.

  • Speaker #0

    Si ce n'est ses propres peurs.

  • Speaker #1

    Et bien Athénaïs, Olivier, merci beaucoup pour cet échange qui était passionnant. Ce qu'on retient c'est que cette IA empathique n'est pas seulement une avancée technologique, c'est vraiment une invitation aussi à repenser notre rapport. à l'autre, mais aussi au numérique. Merci pour votre écoute et je vous dis à très vite pour un nouvel épisode de Tendances Inno. Et voilà, chers auditeurs, c'est tout pour cet épisode de Tendances Inno. Un grand merci pour votre écoute. Nous espérons que vous avez trouvé cette discussion aussi enrichissante et inspirante que nous. N'oubliez pas de vous abonner pour ne manquer aucun de nos futurs épisodes. Vous pouvez retrouver Tendances Inno sur toutes les plateformes de podcast, YouTube et Dailymotion. Si vous aimez ce podcast, Faites-le nous savoir et aidez-nous à le faire connaître grâce à vos commentaires et à vos partages. Pour plus de contenu sur les technologies émergentes, suivez-nous sur les réseaux sociaux de Docaposte. A bientôt pour un nouvel épisode, placé sous le signe de la tech, du Web3 et de l'innovation. D'ici là, continuez à explorer, à innover et à créer.

Share

Embed

You may also like