- Spentia
Bonjour à tous et bienvenue dans ce nouvel épisode Spentia. Aujourd'hui, nous allons nous pencher sur un phénomène silencieux mais sismique qui est en train de redessiner les relations au bureau. On parle souvent de l'IA qui remplace les tâches. Mais qu'en est-il de l'IA qui remplace... la confiance ? Imaginez un monde où vos collègues préfèrent se confier à un algorithme plutôt qu'à vous. Ce n'est pas un scénario de science-fiction. C'est ce qui ressort des dernières études de 2024 et 2025. Nous allons décortiquer ensemble ce qu'on appelle désormais la confiance inversée.
- Animateur
Tenez-vous bien, 38% des employés préfèreraient avoir un manager IA plutôt qu'un manager humain. Et non, non, ce n'est pas de la science-fiction, c'est une donnée de 2024. Et ça va même plus loin. 45% des employés font davantage confiance à l'IA qu'à leurs propres collègues. C'est vertigineux.
- Expert
Ce qu'on observe là, ce n'est pas juste une petite crise de confiance. C'est une reconfiguration totale, un vrai séisme. On pourrait appeler ça la confiance inversée. C'est un glissement. Un glissement massif de la confiance qui quitte les humains pour aller vers les algorithmes. En fait, c'est l'étape d'après ce que décrivait la chercheuse Rachel Botsman. Elle parlait de confiance distribuée. L'idée que la confiance n'était plus verticale vers les institutions, mais horizontale, entre paires, via des plateformes. Aujourd'hui, on franchit un autre cap. La confiance va directement à l'algorithme.
- Animateur
Et pour explorer ce basculement, on a un dossier de fonds. assez impressionnant de la société de conseil Spentia, des recherches très pointues des universités du New Hampshire et de l'Arizona, et puis quelques articles de presse spécialisés. Notre mission, c'est un peu de décortiquer ensemble ce qui se cache vraiment derrière ces chiffres qui, à première vue, semblent complètement fous. Alors justement, repartons de ces statistiques. 38% des travailleurs, OK, mais le chiffre qui me sidère, c'est que ça monte à 50% chez les cadres dirigeants. La 6-8 quoi. La moitié préfère un manager IA.
- Expert
La moitié ! C'est énorme.
- Animateur
Et là où ça devient presque comique, c'est le paradoxe en ventilé. Un tiers de ces mêmes dirigeants admettent qu'ils ne sont pas toujours capables de faire la différence entre un mail écrit par un humain et un mail généré par une IA. C'est dingue, non ? Ils plébiscitent un outil qu'ils ne sont même pas sûrs d'identifier ?
- Expert
C'est un paradoxe qui en dit très long. Les sources utilisent la métaphore de l'iceberg, et je trouve qu'elle est parfaite ici. La préférence affichée pour l'IA, ce n'est que la pointe, la partie visible.
- Animateur
Et donc, sous l'eau, il y a ?
- Expert
Ce qui est immergé, c'est la cause profonde, une aspiration quasi désespérée à plus d'équité et un rejet viscéral des biais humains. Fondamentalement, ce n'est pas un vote pour la machine, c'est un vote contre l'arbitraire humain. On ne choisit pas l'algo par amour de la tech, on fuit notre propre subjectivité.
- Animateur
D'accord. Et cette quête d'objectivité, on la retrouve illustrée, je crois, dans une étude de l'université du New Hampshire ?
- Expert
Oui, celle menée par Yun-Shil Sheh. Le protocole est simple, mais redoutablement efficace. Des participants sont évalués, soit par un manager humain, soit par une IA.
- Animateur
Et j'imagine que les résultats sont parlants.
- Expert
Ah oui ! Lorsque les participants anticipent un traitement injuste, du favoritisme, des préjugés ou même juste un manager de mauvaise humeur, leur confiance dans l'IA explose. Sur une échelle de 7, on passe à 4,66 pour l'IA, contre à peine 2,71 pour l'humain. L'écart est... colossale.
- Animateur
Et si on pense que le biais sera en notre faveur, j'imagine qu'on préfère soudainement le bon vieux jugement humain, non ?
- Expert
Exactement. C'est le revers de la médaille. Dès qu'on pense que l'arbitraire peut nous arranger, hop, on préfère l'humain. Mais la conclusion de fond, elle, est limpide. L'IA est perçue comme un arbitre sans humeur, sans fatigue, sans affinité. On ne choisit pas la machine, on fuit le manager partiel, quoi.
- Animateur
D'accord, on fuit le manager partiel. Mais la confiance, ça va au-delà de la simple évaluation de performance. L'IA devient autre chose.
- Expert
Bien plus, elle devient un confident. C'est l'autre facette du phénomène.
- Spentia
Faisons le point sur ce premier volet. Nous sommes face à une rupture majeure. Le chiffre clé, jusqu'à 50% des cadres préfèrent un manager IA pour éviter l'arbitraire. La métaphore de l'iceberg. Ce choix n'est pas technologique, mais psychologique. On ne cherche pas la performance de la machine, mais l'absence de biais humains. favoritisme, humeur. Le paradoxe de transparence. Paradoxalement, si l'on sait que c'est une IA, on se méfie. Mais à l'aveugle, l'IA est jugée plus juste.
- Expert
Une statistique de resume.org est assez frappante. La moitié des travailleurs de la génération Z considèrent GPT comme un collègue, voire un ami.
- Animateur
Un collègue, un ami. C'est une image incroyablement forte, ça. Ça veut dire que le lieu le plus sûr pour parler de ses doutes au travail, ce n'est plus le bureau d'un collègue, mais une fenêtre de tchat avec un algorithme.
- Expert
Précisément. Et ça s'explique très bien par un mécanisme psy qu'on appelle l'effet de désinhibition en ligne. Face à un écran, on a l'impression de ne pas être jugé, on se sent en sécurité. Et du coup, on se dévoile de manière plus brute, plus authentique. L'IA devient une sorte de confessionnel organisationnel. Et c'est fascinant parce que... Des risques psychosociaux, des signaux faibles de mal-être remontent par ce canal bien avant les enquêtes traditionnelles.
- Animateur
C'est vrai que la dynamique est complètement différente. On pense tous à ce moment où on reformule dix fois un mail à son manager. L'idée de pouvoir juste écrire « je suis sous l'eau » et stressé à une machine sans filtre politique, sans crainte de représailles, c'est étrangement libérateur. D'un côté, l'interaction humain-humain au risque, jugement élevé, autocensure. De l'autre, humain-IA, espace sûr, sans jugement.
- Expert
Et le paradoxe, c'est qu'une étude de PsychPost a montré qu'on se confie encore plus à un chatbot si on le présente comme humain. Par exemple, en lui donnant un nom, Sam.
- Animateur
Ah, c'est le meilleur des deux mondes, en fait.
- Expert
C'est ça. On a l'illusion de l'empathie, l'impression de parler à quelqu'un, mais avec la sécurité de la machine, un espace de confiance parfait.
- Animateur
Mais alors, si on fait autant confiance à l'outil, logiquement, on devrait applaudir un manager qui l'utilise pour être plus juste, non ? Ça semblerait cohérent.
- Expert
Eh ben non. C'est là que toute la logique s'effondre. On tombe dans ce que les sources appellent le piège de la transparence. C'est une des conclusions les plus contre-intuitives de tout ce dossier. Une série de 13 expériences menées par l'Université de l'Arizona est formelle. Révenez qu'on a utilisé l'IA pour rédiger un message, eh bien ça mine considérablement la confiance que les autres nous accordent.
- Animateur
Attendez, mais ça, ça va à l'encontre de tout ce qu'on nous apprend sur le leadership. Soyez transparent, soyez authentique. Et là, on nous dit que la transparence détruit la confiance. Pourquoi ? Quelle est l'explication ? Si un manager me dit « j'ai utilisé une IA pour être plus objectif » , ma réaction devrait être positive, non ?
- Expert
Logiquement, oui. Mais la réaction émotionnelle, instinctive, ne l'est pas. Les études montrent que c'est perçu comme un manque de compétence, un manque d'effort ou même un manque d'implication émotionnelle. Ce qui est touché, c'est ce qu'on appelle la confiance cognitive. Le cerveau n'entend pas « j'ai utilisé un outil pour mieux faire » , il entend « je n'étais pas assez bon pour le faire moi-même » ou pire « tu ne méritais pas que je prenne le temps » . L'honnêteté est sanctionnée.
- Animateur
Et ça place les managers dans une situation intenable. C'est ce que les sources appellent la double contrainte. Soit ils utilisent l'IA en secret, et s'ils sont démasqués, c'est la catastrophe, la confiance est anéantie, soit ils sont transparents.
- Expert
Oui, et ils sont perçus comme paresseux ou distants. Ils passent pour une simple interface humaine de l'algorithme. Dans les deux cas, la confiance est perdue.
- Animateur
On est donc face à un vrai casse-tête. Comment on sort de ça ?
- Expert
La seule voie de sortie, c'est de changer complètement le récit. Il faut passer du narratif « l'IA fait mon travail » à « l'IA m'aide à être un meilleur leader pour vous » . Il ne s'agit plus de parler de substitution, mais d'augmentation. C'est le concept d'authenticité augmentée. Le manager doit montrer comment l'outil le rend meilleur pour son équipe.
- Animateur
D'accord. Mais en attendant que ce discours se mette en classe, sur le terrain, cette méfiance pousse les employés à utiliser l'IA en cachette. et là on entre dans la zone de... tous les dangers, le Shadow AI, l'IA de l'ombre.
- Spentia
Attention, zone de turbulence ! Avant de conclure, comprenons bien le mécanisme du Shadow AI en 4 points. En premier, l'IA confidente. Pour la Gen Z, l'IA est un « ami » . C'est un espace sûr pour exprimer sa vulnérabilité sans jugement. En deuxième, le piège de la transparence. Dire qu'on utilise l'IA est perçu comme de l'incompétence ou de la paresse émotionnelle. Résultat, on l'utilise en cachette. Troisième point, l'exposition du Shadow AI. 93% d'utilisation non supervisée. Enfin, la menace de fuite des données. Cela crée un risque réel pour la sécurité des données qui partent vers des serveurs externes, potentiellement publics.
- Expert
Et là, les chiffres sont sidérants. 93% des employés admettent utiliser des outils d'IA non supervisés par leur entreprise.
- Animateur
93% ? Mais c'est quasiment tout le monde en fait.
- Expert
C'est la norme absolue. Et pire, 52%, plus de la moitié, sont prêts à enfreindre siément les règles si ça facilite leur travail.
- Animateur
Et le risque devient bien réel, parce qu'on imagine qu'ils y injectent des données sensibles. Les stats parlent de 32% qui ont déjà mis des infos clients et 37% des données internes. C'est une bombe à retardement.
- Expert
C'est un véritable champ de mine. Les conséquences sont multiples. D'abord, la sécurité des données, évidemment. C'est une fuite massive vers des serveurs externes. Ensuite, la conformité. C'est une violation directe du RGPD en Europe.
- Animateur
Et quand on parle de données internes, de quoi parle-t-on concrètement ?
- Expert
La stratégie, des listes de clients.
- Animateur
De tout ça ?
- Expert
Des plans marketing, des données financières, des évaluations de personnel. Et ça nous amène au troisième risque. le plus insidieux, la confidentialité. Le Stanford Report alerte sur un point crucial. Par défaut, nos conversations avec ces outils sont utilisées pour entraîner les futurs modèles. Ce n'est pas privé.
- Animateur
Le confessionnel a donc une mémoire parfaite et potentiellement publique. C'est terrifiant ! Et la confiance client ? Si un client apprend ça, la relation est terminée sur le champ.
- Expert
Exactement. Face à ce chaos, les entreprises ne peuvent plus faire l'autruche. Il faut agir et vite.
- Animateur
Alors, comment est-ce qu'on navigue dans ce nouveau monde? Les sources proposent une feuille de route, je crois, en trois leviers d'action.
- Expert
Oui, le premier levier, c'est de cartographier les vrais canaux de confiance. C'est un exercice d'humilité. Il faut accepter que les conversations les plus honnêtes n'ont peut-être plus lieu avec les managers, mais avec des machines.
- Animateur
Est-ce qu'il veut dire que les enquêtes de satisfaction annuelle sont un peu dépassées ?
- Expert
Elles deviennent en partie obsolètes, oui. Elles ne captent qu'une vérité de surface. Il faut repenser la manière dont on écoute.
- Animateur
D'accord. Deuxième levier.
- Expert
C'est ce qu'on évoquait former à l'authenticité augmentée. Ce n'est pas une formation technique, c'est une formation à la communication. Apprendre aux managers à articuler la valeur ajoutée de l'outil pour leur équipe. Le message doit être « cet outil m'aide à être un meilleur leader pour vous » .
- Animateur
La transparence seule ne suffit pas. Elle doit être accompagnée d'un récit qui donne du sens.
- Expert
Précisément. Et enfin, le troisième levier, la clé de voûte. Établir une muraille de confidentialité. C'est non négociable. Il doit y avoir une séparation technique et organisationnelle stricte, quasi religieuse, entre les données de confidence et les données utilisées pour les décisions RH.
- Animateur
Sinon, tout s'effondre.
- Expert
Si un employé se confie sur son stress et que ça se retrouve dans son dossier de performance, c'est fini. La confiance est détruite et instantanément et durablement.
- Animateur
Si on fait le bilan, on est parti d'une statistique surprenante pour découvrir qu'elle cachait une quête d'équité. On a exploré les paradoxes de la confiance, les risques immenses du shadow AI. Et enfin, on entrevoit une voie pour construire un système de confiance viable.
- Expert
Le message clé finalement, c'est que cette confiance inversée n'est ni une menace. ni une solution miracle. C'est un signal, un signal très puissant qui nous dit ce que les collaborateurs recherchent. Plus d'équité, plus de disponibilité, moins de politique. L'enjeu, ce n'est pas de choisir entre l'humain et l'algorithme, mais de créer une hybridation intelligente où les deux se renforcent.
- Animateur
Ce qui nous laisse avec une dernière pensée, historiquement, la sécurité psychologique au travail, c'était la capacité de pouvoir parler à son chef sans crainte.
- Expert
Ici, à nouvelle définition, cette sécurité inclut désormais la capacité... d'interagir avec un système qui, par nature, ne juge pas. Alors, quelle est la compétence humaine, unique, irremplaçable, que les managers doivent absolument développer pour rester dignes de confiance dans ce nouveau monde de l'authenticité augmentée ?
- Spentia
On vient de voir que les collaborateurs se confient potentiellement plus facilement à un algorithme qu'à leur hiérarchie. La question est, qu'est-ce qu'on fait de cette réalité ? Chez Spentia, on a choisi d'en faire un levier de transformation. Notre approche, c'est donner la parole à l'ensemble des collaborateurs pour identifier les frictions du quotidien, les non-dits, les signaux faibles, grâce à une IA qui garantit l'anonymat. Et ensuite, nos consultants traduisent ça en actions concrètes. Si vous sentez qu'il y a un décalage entre ce qu'on vous remonte et ce qui se passe vraiment, parlons-en. Rendez-vous sur Spentia.com. Merci pour votre écoute et à très bientôt pour un nouvel épisode des Signaux du Changement.