- Speaker #0
En gros, l'idée de base, c'est de créer un pont entre la recherche, les découvertes scientifiques, la création des connaissances qui se font au niveau de la recherche et les problématiques opérationnelles des organisations.
- Speaker #1
Bonjour, bienvenue sur ce nouvel épisode de DinoSapiens, le podcast qui parle de l'humain dans la transformation des organisations. Je suis Bérangère Ducimetière et je vous emmène à chaque épisode à la découverte de personnalités qui façonnent et modèlent les transformations des entreprises, et ce, dans le respect de l'humain. Plus j'avance dans ce projet, plus je réalise que les facettes des transformations sont vraiment multiples et que la richesse du sujet est inépuisable. Bon, on est seulement à l'épisode 11, mais quand je parcours la liste des prochains invités, je peux vous annoncer d'ores et déjà de bons moments cette année. L'invité que je reçois aujourd'hui est à la fois philosophe et chercheuse. Elle est la directrice de l'Institut de Recherche Perspective, qui fait partie du cabinet de conseil Artimon. Argentine d'origine, Josefina Jiménez a d'abord construit son parcours universitaire dans son pays natal avec de solides bases en droit. Cet angle d'apprentissage avec un cadre fort lui fait rapidement réaliser que ses questionnements sont plus vastes, tant d'un point de vue thématique que culturel. Après deux ans, elle se penche avec curiosité et rigueur vers la philosophie afin de toucher du doigt le pourquoi des choses. Elle passe à l'éthique. un an aux États-Unis et réussit ensuite à obtenir de terminer ses études de philosophie à l'École Normale Supérieure de Paris. À défaut de pouvoir présenter les concours de la fonction publique réservés aux ressortissants français, Josefina Jiménez rejoint les Galeries Lafayette où elle développe son poste afin d'augmenter la connaissance du marché. Statistique, business intelligence, pratiques des consommateurs dans le milieu du retail n'ont plus de secret pour elle. Mais ce n'est pas une nourriture suffisante pour l'esprit de Josefina. qui part alors à Londres étudier les politiques publiques et se reconnecter avec des dimensions plus conceptuelles, plus essentielles, afin de donner un autre élan à sa carrière. De retour à Paris, elle développe un observatoire des politiques publiques au niveau international pendant deux ans qui étudie l'impact de ces politiques créées sur la société. Rossefina finit par rejoindre le cabinet de conseil Artimon en 2018 pour créer l'Institut de recherche perspective. Artimon est un cabinet de conseil en transformation. et l'objectif de l'Institut est de proposer des publications d'articles à partir d'une démarche scientifique et non seulement d'opinion ou de retour d'expérience limitée. Rossefina nous parle aujourd'hui d'une étude sur un sujet qui nous questionne beaucoup en ce moment, c'est celui de l'intelligence artificielle, et plus précisément, quel impact l'IA peut-elle avoir dans les prises de décisions ? Bonjour Rossefina.
- Speaker #0
Bonjour Bérengère.
- Speaker #1
Bienvenue dans DinoSapiens, tu vas nous parler aujourd'hui de l'adéquation des technologies aux organisations et notamment de l'IA. Mais avant d'aller sur ce terrain, qu'est-ce que tu peux nous dire de l'Institut de Recherche Perspective ?
- Speaker #0
Alors, je peux te dire que c'est un endroit où il se passe des choses très intéressantes. L'Institut Perspective, c'est un espace pluridisciplinaire où on aborde justement l'impact des nouvelles technologies dans nos organisations dans un sens très large, de manière autonome et indépendante. Et on a la chance de pouvoir les faire au sein d'un cabinet de conseil, ce qui nous permet de nous confronter vraiment avec l'opérationnel, les problématiques. réelles qui s'imposent au sein des organisations. En gros, l'idée des bases, c'est de créer un pont entre la recherche, les découvertes scientifiques, la création des connaissances qui s'est faite au niveau de la recherche et les problématiques opérationnelles des organisations. Partant du constat qu'en fait, il y a quand même un gap énorme entre les deux mondes et qu'il y avait un espace à construire. Et c'est ce que nous avons créé à travers l'activité de l'Institut.
- Speaker #1
Alors, comment adresser d'un point de vue scientifique ? pluridisciplinaires, les impacts des technologies au niveau des individus et des organisations.
- Speaker #0
Justement, le comment, ça correspond un petit peu à l'ADN de perspective. Donc, cette autonomie, cette indépendance de la recherche, qui devrait, in fine, guider quoi qu'il arrive la science, et qui nous permet d'aborder les questions, pas du point de vue de l'outil ou de la solution, mais du point de vue du processus. Et donc, nous, ce qu'on va se poser, c'est les questions autour des interactions, autour des dynamiques, des dynamiques externes, mais des dynamiques aussi sous-jacentes dans chaque processus. Et quand on aborde un outil... On ne va pas l'aborder en tant qu'une solution infinie. Ce n'est pas l'outil qui va déterminer les interactions, c'est l'inverse, on va se poser des questions, des mécanismes, des dynamiques des interactions, avant d'étudier l'outil à proprement parler. Et ensuite, c'est la démarche scientifique qui se met en place à proprement parler, c'est-à-dire qu'on va avoir des méthodes de recherche éprouvées, des méthodes analytiques, etc., des protocoles. On va se baser sur la littérature scientifique, qui a été validée par les PERC, des publications qui font référence sur les sujets. pour étudier les phénomènes et l'intégration des technologies à trois niveaux. Donc les premiers niveaux, ça va être les niveaux de l'individu, et là on va s'appuyer sur les sciences cognitives, la psychologie, la psychologie du travail, etc. pour comprendre vraiment quelles sont les interactions entre l'humain et l'outil, l'humain et son travail, par exemple pour des questions de bien-être au travail, est-ce que l'intégration d'un nouvel outil... a des effets sur ma relation à mon travail, sur la relation à ma tâche. Quand on est satisfait de réaliser une tâche, l'intégration d'un outil n'a pas les mêmes effets que quand on n'aime pas faire cette Ausha. Donc là, on va avoir tout un champ de disciplines qui vont nous permettre d'avoir des sujets. Le deuxième niveau, c'est le niveau de l'organisation à proprement parler. Donc là, on va faire appel plutôt à des sciences de management, de gestion, de psychologie sociale, pour justement essayer d'explorer l'évolution des interactions au sein d'une organisation. avec l'intégration de ces outils technologiques. C'est sur ces points-là, par exemple, typiquement, qu'on peut parler des cultures organisationnelles. Comment la culture organisationnelle a des effets sur l'intégration d'un outil, l'intégration d'une technologie. Et ensuite, les troisièmes niveaux, même s'il n'y a pas d'ordre hiérarchique, mais les troisièmes niveaux qu'on va explorer, c'est les niveaux de la société au sens large. Les évolutions des dynamiques sociétales avec l'intégration des nouvelles technologies. On va se questionner autour... autour de l'évolution du sens de la démocratie avec l'intégration de l'intelligence artificielle. Dans les politiques publiques, on va se questionner sur l'impact environnemental des nouvelles technologies. Parce que forcément, même si on les intègre dans des processus qui peuvent être intéressants, ça a des effets qui vont au-delà de l'individu, au-delà de l'organisation. Voilà, c'est une approche vraiment holistique des technologies qui fait appel à ces champs de recherche plutôt pluridisciplinaires et qui nous permet de décloissonner à la fois les approches... on va dire empiriques, et les approches scientifiques.
- Speaker #1
Alors, peux-tu nous parler d'une étude récente ?
- Speaker #0
On développe des partenariats avec des organismes publics et privés qui nous permettent d'accéder au terrain, qui nous permettent de collecter de données réelles pour réaliser nos études. Donc ça, c'est très chouette parce que du coup, on est en contact avec les opérationnels et les problématiques qui se posent. Mais parfois, il y a des questions que nous, on se pose et qu'on veut explorer et on n'a pas accès à ces données-là. Donc, on développe des études en laboratoire. Et c'est le cas, justement, des sujets autour de l'intelligence artificielle. Parce qu'in fine, toute la connaissance autour des impacts et des effets de l'intelligence artificielle est en train de se créer. On est en plein dedans. Donc, si on veut prendre un petit peu de recul et si on veut analyser les effets, c'est plutôt en laboratoire que ça se passe. Une question qu'on s'est posée assez récemment au sein du laboratoire, c'est celle de comprendre les effets de l'intégration. d'une information donnée par l'intelligence artificielle dans la prise de décision des agents. Et on s'est posé cette question-là plutôt dans un contexte de secteur public où les enjeux peuvent être quand même assez importants. On voit quand même, on le voit au quotidien, qu'il y a des algorithmes d'IA qui sont intégrés dans différentes administrations publiques. Il y a quand même des exemples des situations où ça a mal tourné. Et donc, on a quand même voulu explorer ces sujets-là. Pour comprendre l'impact d'une information donnée Par l'IA sur la prise de décision, on a créé un scénario où on a manipulé les conditions d'intégration de l'information et on a comparé. l'effet d'une expertise humaine à l'effet d'une expertise entre guillemets algorithmique ou une information algorithmique. Au-delà des résultats concrets de l'étude qui touche à plein de phénomènes cognitifs différents, cela nous a permis de comprendre l'importance de la surveillance humaine et l'importance de ces processus métacognitifs qui est la connaissance et la réflexion sur nos propres connaissances, sur nos propres compétences, l'importance de tout ça dans l'intégration du NIEM. Parce qu'in fine, ce qui compte, c'est les contextes d'intégration de l'intelligence artificielle, les contextes de mobilisation de cette information-là et la manière dont on va la traiter. Ce que je veux dire par là, c'est que ce n'est pas du tout la même chose d'intégrer une information algorithmique dans un contexte où je maîtrise, où je connais le sujet. Ça paraît une évidence. Et dans un contexte où on ne connaît pas du tout ces sujets. Donc, c'est tous ces éléments-là qu'on a explorés dans notre étude, qui nous a permis... d'identifier des facteurs à considérer dans le cadre d'intégration de l'intelligence artificielle ou dans le cadre d'intégration d'une information algorithmique pour la prise de décision. Et évidemment, plus le contexte de prise de décision est important, plus ces considérations devraient être tenues en compte dans le moment où on intègre l'outil. Le contexte d'intégration de l'information algorithmique est majeur, comme je disais, puisque contrairement à l'humain, l'IA ne peut pas dire ce qu'elle ne sait pas. C'est-à-dire qu'elle ne peut pas dire je n'en sais rien sur ce sujet Et il y a des expériences qui démontrent que même quand on lui dit si tu ne le sais pas, si tu n'as pas de réponse, ne me donne pas de réponse l'IA donne une réponse, parce qu'elle est incapable, quelque part, d'effectuer ces processus métacognitifs, qui est réfléchir sur sa propre connaissance ou sur sa propre pensée. Et dans les contextes d'intégration de l'IA, dans ces cas-là, est un facteur majeur, parce que dans des contextes d'incertitude, l'IA peut apporter des inputs qui sont vraiment... à côté de la plaque, on va dire. Et si l'humain n'est pas capable d'avoir un réculte sur cette connaissance-là, sur cette information-là, si l'humain n'est pas capable d'avoir un esprit critique par rapport à l'information qui est donnée, on prend le risque d'intégrer des informations erronées. Le deuxième facteur important, c'est la question de la responsabilité. Ce qu'on constate, c'est qu'il nous démontre la recherche, c'est que plus on est impliqué sur une tâche, plus on comprend les effets ou on comprend les impacts de la tâche ou de la décision. plus on se sent en responsabilité. Ce que ça veut dire par là, c'est qu'interagir avec un outil, typiquement interagir avec un agent d'intelligence artificielle, nous donne plus d'éléments, nous permet de nous sentir plus impliqués dans la tâche par rapport à tout simplement utiliser l'outil pour aboutir très rapidement à un résultat.
- Speaker #1
La différence entre ChatGPT et Google comme moteur de recherche,
- Speaker #0
par exemple ? Oui, la différence tout simplement de faire une recherche sur ChatGPT, prendre la réponse. et s'en servir directement, plutôt que d'interagir avec cette réponse-là, poser des nouvelles questions et itérer avec l'outil. Et c'est cette itération-là avec l'outil qui va nous permettre d'une part d'apprendre, d'assurer cet esprit critique dont j'ai parlé tout à l'heure, donc de questionner l'information qui est donnée par l'outil, de mobiliser des connaissances qu'on a peut-être sur des sujets ou d'autres disciplines, d'autres questions ou d'autres expériences que nous, en tant qu'humains, on peut mobiliser. et faire itérer l'outil là-dessus. Et donc, c'est toute cette interaction, cette itération, cet échange qui va nous permettre non seulement d'apprendre sur un sujet, mais aussi de nous sentir plus responsables par rapport à la tâche que nous sommes en train d'effectuer, qui, en fin de compte, est un élément très important quand on prend des décisions, encore plus dans le secteur public.
- Speaker #1
Alors, pour généraliser, même si ce n'est pas complètement le sens de ta démarche, quel lien peut-on faire entre la culture d'une organisation et le déploiement des technologies ?
- Speaker #0
Alors, c'est vrai qu'au sein de l'Institut, on n'aime pas trop les généralisations et que les mots d'ordre pour nous, c'est le contexte, les contextes, les contextes. Mais c'est vrai aussi qu'il y a un trait d'union, il y a un lien à créer entre la culture d'une organisation et l'intégration des technologies, ou alors les projets de transformation au sens large. On a parlé, donc tout à l'heure, quand j'ai parlé de notre étude, j'ai positionné plutôt au niveau de l'individu, donc mes compétences, l'esprit critique. la responsabilité, etc. C'est la tâche individuelle dès la prise des décisions. C'est vrai aussi que... On est dans un contexte d'environnement de travail, on va dire, on est dans un contexte organisationnel. Et au sein des organisations, il y a des interactions, il y a des pratiques communes. Tout d'abord, peut-être, on s'entend sur ce qu'on entend par culture organisationnelle. La culture d'une organisation, c'est peut-être un petit peu difficile à apprendre, mais en gros, ça fait référence aux attitudes, aux pratiques, aux manières de faire, aux valeurs qui sont partagées au sein d'une organisation. On peut aussi parler de la culture d'une équipe au sein d'une organisation, mais bon. les découper, on va dire, à différents niveaux. Mais en gros, il s'agit vraiment des attitudes, des pratiques, des valeurs qui sont partagées et qui sont valorisées ou reconnues au sein d'une organisation comme positives. C'est difficile de stéréotyper, mais pour donner un exemple, on a tendance à imaginer, par exemple, la culture du secteur public comme rigide, hiérarchique, très processée, très anticipable, on la connaît d'avance. Très normée. Très normée, voilà. que la culture d'une startup, on l'imagine comme plus dynamique, plus preneuse des risques, expérimentale. On va accepter l'erreur plus facilement, le fameux test and learn, etc. Donc ça, c'est un petit peu, c'est des stéréotypes, mais quand même, il y a des choses qui ne sont pas loin de la réalité. Et donc, quand on intègre un outil, si on veut intégrer un outil dans ces deux organisations-là et qu'on les fait de la même manière, donc on prend l'outil et on y va, les effets vont être complètement différents l'un ou l'autre. Parce qu'il y aura une culture qui va être plus ouverte, les équipes vont tester, elles vont voir ce qu'on va faire avec. Chacun va voir ce qu'il peut faire, ce qu'il peut tirer d'un outil. Alors que dans d'autres cultures organisationnelles, on va s'attendre plutôt à ce qu'on nous dise quoi faire, qu'on nous donne la demande opératoire, qu'on nous dise les résultats auxquels on s'attend, etc. Et donc, tout notre travail, en fait, sur ces sujets-là, consiste à rapprocher ce qu'on appelle, nous, l'ADN culturel d'une organisation. On va dire qu'on a développé un outil qui nous permet de cartographier les valeurs. et les attitudes qui sont propres à une organisation. Deux, ce qu'on appelle l'Utah-U, c'est un modèle scientifique qui nous permet de rapprocher la culture organisationnelle. On s'est basé sur la théorie unifiée d'acceptabilité de l'utilisation des technologies, qui est un modèle scientifique qui a été validé, pour les rapprocher de la culture organisationnelle, ce qui nous permet d'identifier les facteurs d'acceptabilité d'un outil ou d'une technologie au sein d'une organisation. Et ces facteurs d'acceptabilité ne vont pas être les mêmes en fonction de la culture organisationnelle, justement. Ces croisements-là nous permettent in fine de mettre le doigt sur des leviers propres à chaque organisation pour accompagner l'intégration de la technologie. L'idée étant de se dire que plus on augmente l'acceptabilité d'un outil ou d'une technologie, plus on se donne des chances pour que les gens l'utilisent. Ça passe par exemple par travailler sur les conditions. d'adoption de l'outil. Sur les motivations, est-ce que mes équipes sont plus motivées par la culture du résultat, la performance, etc. Ou est-ce qu'elles sont motivées par les interactions sociales ou le bien-être au travail ? Donc, en fonction de ces éléments-là, il n'y a pas de meilleurs ou de moins bons éléments. C'est juste, il faut juste savoir quelle est la motivation au sein de mon équipe. Quelle est la motivation des personnes qui constituent mon organisation ? Qu'est-ce que j'ai à encourager jusqu'ici comme motivation et comment créer le lien ? faire cette fameuse adéquation entre l'outil, les attentes qu'on a par rapport à cet outil-là et la manière dont les équipes vont les traiter et l'utiliser.
- Speaker #1
Alors, pour clôturer cet épisode, Roséphina, quels sont tes conseils pour bien appréhender cette équation dont tu parles entre les besoins humains et les technologies que l'on va chercher à déployer dans une organisation ?
- Speaker #0
Nous, on dirait tendance à dire que la première question à se poser, c'est pourquoi ? Tu l'as dit en introduction, mais ça revient à la fin et ce n'est pas faux. Pourquoi on intègre un outil ? Pourquoi on intègre une technologie ? C'est une question centrale qui est pourtant souvent enfuie et cachée par d'autres questions plutôt orientées à l'efficacité, à la productivité, etc. Il n'y a rien de mal à ça, c'est juste que si on ne se pose pas la question du pourquoi, on ne sait pas ce qu'on va faire avec l'outil. Pourquoi faire ? Déjà ça c'est important, mais pour quelles raisons ? Qu'est-ce qui motive ? l'intégration de l'outil. Est-ce que c'est vraiment la recherche des performances, des résultats, etc. Et dans ces cas-là, on va assumer le fait qu'on prend certains risques quand les personnes n'ont pas les compétences ou quand les personnes ne savent pas. Je voudrais mettre en cause le résultat de l'outil. C'est vrai surtout dans les cas de l'intelligence artificielle. On ne se pose pas la question entre les mains des qui on va mettre l'outil parce qu'on cherche la performance, on cherche du chiffre, ce qui peut être très bien dans certains cas, par exemple, de... de performance commerciale. On a juste besoin d'une statistique, d'un chiffre, d'une politique commerciale à mettre en place rapidement. Et in fine, comme je disais quand j'ai parlé de l'étude, la question de la responsabilité. Est-ce qu'on met en place cet outil-là dans un contexte de prise de décision ? On prend les risques, ou en tout cas, on se pose moins la question de la responsabilité, ou tout simplement dans des contextes plutôt opérationnels. Voilà. Donc la question du pourquoi est importante. Réconnaître les contextes et qu'est-ce qui motive l'intégration de la technologie. Et ensuite... Il y a des questions un petit peu plus, on va dire, opérationnelles qui peuvent guider l'intégration de ces outils-là. Ça paraît une évidence, mais travailler dans un environnement qui encourage l'apprentissage continu, qui encourage l'expérimentation, est un levier pour améliorer ou se donner moins de chances d'erreur dans l'intégration de ces outils-là. C'est-à-dire qu'on va prendre le temps. On va prendre le temps de chacun expérimenter. Chacun apprend à utiliser l'outil pour ce qui lui est nécessaire. Et c'est d'autant plus vrai pour les outils d'intelligence artificielle, qui sont en évolution permanente. Et on a pléthore d'outils différents. Donc, chacun doit identifier son besoin, chacun doit identifier l'outil qui correspond à ses besoins-là et c'est l'approprier à sa manière. Il n'y a pas de mode d'emploi, finalement. Donc, il y a cette flexibilité qui est nécessaire. Et puis, à encourager cette culture, cet esprit critique, encourager une posture qui prend du récul, qui prend un petit peu de distance ou de perspective par rapport à l'outil algorithmique, c'est-à-dire se poser des questions, permettre de revenir sur les questions, itérer, tester. Donc, ça, ce sont des questions qui sont importantes à garder à l'esprit D'un point de vue de l'organisation, de réfléchir au contexte d'intégration, de réfléchir à la motivation de l'intégration de l'outil. Et finalement aussi au niveau de l'individu, comme je disais tout à l'heure, quel est le niveau de compétence, des connaissances, d'expertise sur un sujet avant d'être au mesure de lui mettre des outils entre les mains. C'est cette connaissance globale de l'environnement qui est quand même essentielle pour répondre finalement à la question du pourquoi.
- Speaker #1
Par exemple ? Un étudiant qui utilise ChatGPT, qu'est-ce que tu lui recommandes ?
- Speaker #0
Alors déjà, je recommande aux enseignants de se poser des questions sur la manière dont ils vont évaluer les étudiants. Je pense que ça, c'est un point majeur. Et après, c'est même ce que j'ai dit à mes enfants ou à mes collègues, il n'y a rien de mal, moi je m'en sers au quotidien de ces outils. En revanche, je m'en sers dans un but d'apprendre sur un sujet et pas juste d'obtenir un résultat immédiat. Donc un but d'apprendre, ça implique itérer, dialoguer. échanger, apporter des informations nouvelles, complémentaires, utiliser plusieurs outils. Est-ce que je vais chercher quelque chose sur JTPT ? Ensuite, je vais aller chercher des références sur un autre outil, je vais les mobiliser, je vais les mixer, etc. Donc, quelque part, c'est toujours la même chose. C'est un outil, ce n'est pas une injonction, ce n'est pas un but en soi, c'est un outil qui nous permet de faire des choses. Et donc, ce qui va être important finalement, c'est le faire, c'est comment j'interagis avec l'outil, comment je les mobilise. Donc, à un étudiant, je lui dirais... il n'y a rien de mal. Maintenant, on interagit, on pose des questions. Et c'est peut-être ça qui est le plus difficile. C'est ça qui est, je trouve, intéressant dans la formation philosophique. C'est de poser des questions, finalement. Poser des questions à l'outil. Faire juste copier-coller du premier résultat. OK, la tâche est finie, mais ce n'est pas ça qui va nous permettre d'aller plus loin dans la connaissance d'un sujet.
- Speaker #1
Un grand merci, Joséphina, pour ta participation à cet épisode de Dino Sapiens. C'était vraiment... extrêmement riche. Je vais peut-être le repasser au ralenti tellement c'était dense.
- Speaker #0
Écoute, merci à toi surtout parce que c'est une belle expérience de partager ces moments avec toi et j'espère que c'était clair pour toi et pour mon public.
- Speaker #2
Voilà, ce premier épisode de l'année 2025 est terminé. J'espère que comme moi, il vous a éclairé sur des questions que nous sommes nombreux à nous poser aujourd'hui sur les technologies mais surtout sur l'IA. Ça a été un réel plaisir en tout cas pour moi de... converser avec Roséphina dont le champ de réflexion est extrêmement pointu et vaste en même temps. Comme d'habitude, je vous mets dans les notes de l'épisode le lien vers les publications de Perspective et le site d'Artimon. Vous pouvez écouter ce podcast sur Apple Podcast et Spotify, ces deux plateformes vous permettent de l'évaluer et de laisser des commentaires. Surtout, n'hésitez pas pour me permettre d'avoir vos retours et de donner de la visibilité à Dinosapiens. Il est aussi disponible sur YouTube, Deezer. et la plupart des plateformes d'écoute. Ce mois-ci, il y a Eva Pierre qui est en stage avec moi et vous conforte aussi un compte Insta très sympa. L'adresse, c'est dino-sapiens-podcast. En attendant le prochain épisode, prenez soin de vous et évitons l'extinction.