- Speaker #0
Bonjour à toutes et tous et bienvenue dans ce nouvel épisode de Décis et des Hommes. Aujourd'hui, je vous propose un format un peu particulier. Pas d'invité humain, mais cinq intelligences artificielles. Chat GPT d'OpenAI, Claude d'Anthropique, Perplexity, Jiminy de Google et le chat, le modèle français de Mistral. Je vais leur poser les mêmes trois questions. La première, c'est quelle est la plus grande transformation que l'IA va amener dans les entreprises dans les cinq prochaines années ? La deuxième, si vous étiez un DSI aujourd'hui, quel serait votre premier chantier prioritaire avec l'aide d'un LLM ? Quel est selon vous le plus grand risque lié à l'usage massif des IA génératives et comment une entreprise peut-elle s'en prémunir ? On va écouter leurs réponses et je vais ensuite les analyser, les commenter et les mettre en perspective avec mon vécu de DSI et de directeur du développement. Allez, c'est parti ! IA interrogé et chat GPT. Je veux l'y poser. les trois questions et elle va vous répondre. Alors, Chad GPT, quelle est la plus grande transformation que l'IA va mener dans les entreprises dans les cinq prochaines années ?
- Speaker #1
Dans les cinq prochaines années, la transformation la plus visible sera la démocratisation de l'accès à l'expertise. Aujourd'hui, certaines compétences sont rares, coûteuses, longues à acquérir. Avec l'IA, un collaborateur pourra, en quelques secondes, générer un plan stratégique, analyser des données complexes ou produire du code fiable. Cela va profondément changer l'organisation du travail. Moins de temps passé à faire, plus de temps pour penser, décider et arbitrer. Les entreprises capables d'orchestrer cette bascule, donner à leurs équipes des outils, un cadre et une culture adaptées, prendront une avance considérable.
- Speaker #0
Si vous étiez un DSI aujourd'hui, quel serait votre premier chantier prioritaire avec l'aide d'un
- Speaker #1
LLM ? Si j'étais DSI aujourd'hui, mon premier chantier serait la gestion de la connaissance. On a tous des documents éparpillés. des process implicites, des savoirs dans la tête de quelques experts clés. C'est une vraie perte de valeur. Avec un LLM bien intégré et sécurisé, je pourrais transformer ce capital dormant en un assistant interne. Un moteur de recherche contextuel qui répond en langage naturel, documente automatiquement les pratiques et réduit drastiquement le temps perdu à chercher l'info. C'est à la fois un gain de productivité et une assurance contre la dépendance à quelques personnes.
- Speaker #0
Tchad GPT, quel est selon vous le plus grand risque lié ? à l'usage massif des IA génératives et comment une entreprise peut-elle s'en prémunir.
- Speaker #1
Le risque majeur, ce n'est pas tant que l'IA se trompe, on sait qu'elle le fera, mais que l'entreprise lui fasse une confiance aveugle. Le danger, c'est la perte d'esprit critique, la délégation sans contrôle. Pour s'en prémunir, il faut deux choses. 1. La gouvernance, définir des règles claires sur ce qui peut être produit par l'IA et ce qui doit être validé humainement. 2. La formation, apprendre aux équipes à dialoguer avec l'IA, à vérifier, recouper. Challenger les réponses. Bref, l'IA n'est pas une boîte magique, c'est un coéquipier exigeant. Les entreprises qui garderont cette posture de vigilance active seront celles qui en tireront le plus de valeur sans en subir les dérives.
- Speaker #0
Alors, mon analyse, ici, ChatGPT insiste beaucoup sur l'accessibilité. Rendre l'expertise disponible à tous. Sur la gestion des connaissances, c'est une vision très réaliste. On le vit tous, les documents sont éparpillés, la valeur est mal exploitée. Le risque pointé, c'est la perte d'esprit critique. est à mon sens centrale. Trop d'entreprises croient encore que l'IA donne une vérité absolue. La vérité, c'est que l'IA propose un éclairage, mais qu'il faut toujours vérifier, recouper, challenger. Alors maintenant, on va passer à la deuxième IA, Claude, d'Anthropique. Je vais vous passer l'intégralité des réponses aux trois questions. Je ne vais pas... C'est un mode un peu moins interview. Je vous laisse l'écouter, puis on se retrouve juste après pour mon analyse.
- Speaker #1
Question 1. La plus grande transformation de l'IA dans les entreprises. Je pense que la transformation la plus profonde sera l'émergence de ce qu'on pourrait appeler l'organisation augmentée. Au-delà de l'automatisation classique, nous allons voir une hybridation inédite entre intelligence humaine et artificielle dans la prise de décision quotidienne. Concrètement, chaque métier va intégrer des capacités d'IA comme extension naturelle. Le juriste qui analyse des contrats avec un assistant IA, le commercial qui génère des propositions personnalisées en temps réel, ou encore le DSI qui peut diagnostiquer et résoudre des incidents complexes avec un support intelligent permanent. Cette transformation va redéfinir les compétences attendues. Il ne s'agira plus seulement de savoir utiliser des outils, mais de savoir orchestrer l'intelligence artificielle pour amplifier sa propre expertise métier. Question 2. Premier chantier prioritaire pour un DSI avec un LLM. Si j'étais DSI, mon premier chantier serait la création d'un « compagnon technique intelligent » pour mes équipes. Un LLM spécialisé et entraîné sur la documentation technique de l'entreprise, capable d'assister les développeurs et administrateurs système. Pourquoi ce choix ? Parce qu'il répond à un besoin immédiat et mesurable. Réduire le temps perdu en recherche de documentation, accélérer la résolution d'incidents et faciliter l'onboarding des nouveaux collaborateurs. C'est un cas d'usage à forte valeur ajoutée avec un roi rapidement visible. Ce compagnon pourrait analyser les logs d'erreur, suggérer des corrections de code ou encore documenter automatiquement les procédures. L'objectif ? Libérer du temps pour que les équipes se concentrent sur l'innovation plutôt que sur la maintenance. Question 3. Le plus grand risque et les moyens de s'en prémunir. Le risque majeur que j'identifie est la « dépendance cognitive » quand les collaborateurs perdent progressivement leur capacité de raisonnement critique en délégant trop massivement leurs réflexions à l'IA. Cette dépendance peut créer une vulnérabilité double. D'une part, une perte de compétences humaines essentielles, d'autre part, une confiance aveugle dans des systèmes qui peuvent halluciner ou produire des résultats biaisés. Pour s'en prémunir, une entreprise doit mettre en place trois piliers. 1. Formation continue. Enseigner à tous les collaborateurs les limites de l'IA et les techniques de vérification des outputs. 2. Gouvernance claire. Définir des domaines où la validation humaine reste obligatoire, notamment pour les décisions critiques. 3. Culture du questionnement. Alors Claude a une vision plus philosophique et humaniste,
- Speaker #0
l'idée d'une organisation augmentée. C'est une hybridation intéressante. Son chantier prioritaire est plus technique, un assistant pour les équipes IT. Je trouve ça persinant car ça répond à un besoin immédiat et mesurable. Réduire le temps perdu, mieux documenter. Le risque est très proche de celui de ChatGPT. Une perte de capacité critique, là aussi, on voit que le danger n'est pas technique, mais humain et culturel. Alors maintenant, je vais interviewer Perpicity, la troisième IA. Je vous laisse l'écouter et je vous montrerai mon analyse juste après.
- Speaker #1
Question 1. La plus grande transformation que l'IA va amener dans les entreprises dans les cinq prochaines années ? La plus grande transformation sera l'émergence et la généralisation des agents IA autonomes capables d'automatiser des processus complexes et de prendre des décisions stratégiques en partie sans intervention humaine. Cette évolution permettra aux entreprises d'augmenter significativement leur efficacité opérationnelle, jusqu'à 30% selon certaines études, en intégrant l'IA dans des fonctions clés comme la gestion financière, la planification ou le service client. Ce changement dépasse la simple assistance conversationnelle pour devenir un véritable moteur de transformation des organisations et des modèles économiques, où l'IA impactera aussi la personnalisation de masse des offres et la transition vers des services continus facturés à l'usage. En somme, l'IA ne sera plus une expérimentation mais un pilier de la valeur ajoutée et de la croissance. Question 2. Premier chantier prioritaire d'un DSI avec l'aide d'un LLM. Le premier chantier prioritaire pour un DSI aujourd'hui serait d'industrialiser l'intégration des LLM dans les applications métiers, En se focalisant sur la gouvernance, la sécurité et la création de cas d'usage à forte valeur ajoutée. Ceci inclut la mise en place d'agents IA capables d'automatiser des tâches comme le support utilisateur, la rédaction intelligente ou la gestion des tickets, tout en garantissant la conformité aux exigences réglementaires et la protection des données sensibles. La priorité serait aussi de former les équipes techniques à ces nouveaux outils et d'instaurer des processus d'expérimentation sécurisés pour libérer l'innovation sans mettre en danger l'entreprise. Cette industrialisation doit s'accompagner d'un suivi rigoureux du roi plutôt que de simples métriques d'utilisation technique. Question 3. Plus grand risque lié à l'usage massif des IA génératives et ses protections. Le plus grand risque tient à la sécurité et à la protection des données confidentielles, notamment la fuite ou l'exploitation abusive d'informations stratégiques qui sont utilisées comme entrée dans les modèles. L'IA générative peut involontairement réutiliser ou exposer ses données. compromettre la confidentialité et engager la responsabilité juridique de l'entreprise en cas de non-conformité au RGPD ou de décisions automatisées injustes. Pour s'en prémunir, l'entreprise doit intégrer dès le départ des équipes juridiques et de cybersécurité, adopter des solutions avec traçabilité et contrôle des accès, définir clairement les responsabilités contractuelles et mettre en place des chartes d'usage strictes. La transparence et la gouvernance sont essentielles pour minimiser ces risques et préserver la confiance des clients et partenaires.
- Speaker #0
Pour Perplexity, la vision est plus business et chiffrée. On parle d'efficacité opérationnelle, d'industrialisation. Perplexity se base sur des sources, ça se sent. Le chantier proposé est intéressant, industrialisé plutôt qu'expérimenté. En clair, sorti hors du POC permanent et structuré vraiment les usages IA. Le risque identifié est très concret, la fuite de données. Et là, je confirme, c'est LE sujet sur la table dans toutes les entreprises que je rencontre. Alors maintenant, on va passer chez Google avec Gemini, que j'ai interviewé. Je vous laisse l'écouter et je reviens tout de suite après.
- Speaker #2
La plus grande transformation de l'IA en entreprise ? Selon moi, la plus grande transformation que l'IA va amener dans les entreprises dans les cinq prochaines années est la généralisation de l'IA comme copilote pour chaque employé, à chaque niveau de l'organisation. Aujourd'hui, l'IA est souvent perçue comme un outil spécialisé, utilisé par des experts en sciences des données. Dans le futur proche, elle deviendra une aide omniprésente pour tous. Imaginez un commercial qui utilise l'IA pour générer des propositions personnalisées en quelques minutes, un développeur qui s'appuie sur l'IA pour écrire et déboguer du code plus rapidement, ou un DRH qui analyse d'énormes volumes de CV pour trouver le candidat idéal. Cette démocratisation va modifier la nature même du travail, en transformant les tâches répétitives en tâches d'exécution, Ce qui permettra aux humains de se concentrer sur des activités à plus forte valeur ajoutée, la créativité, la stratégie, la relation client et la prise de décisions complexes. Cela ne remplacera pas les humains, mais augmentera considérablement leur productivité et leur créativité. 2. Le premier chantier d'indécis avec un LLM. Si j'étais indécis aujourd'hui ? Mon premier chantier prioritaire avec un grand modèle de langage LLM serait de créer une base de connaissances internes intelligentes et conversationnelles pour l'ensemble de l'entreprise. La plupart des entreprises souffrent d'un manque d'accès à l'information. Les documents sont éparpillés sur des serveurs, dans des e-mails, ou sur des plateformes différentes. Il est difficile pour les employés de trouver rapidement la bonne information. Un LLM, entraîné sur les données internes de l'entreprise note de réunion, rapports, manuels de procédure, etc., pourrait agir comme un moteur de recherche ultra-puissant et un assistant intelligent. Imaginez un employé de l'assistance technique qui pose une question en langage naturel, par exemple, comment résoudre le problème d'accès à l'application X pour le client Y ? L'IA pourrait instantanément lui donner la solution en s'appuyant sur des rapports d'incidents passés, des fiches techniques et des e-mails de l'équipe support. C'est un gain de temps énorme ? qui augmente l'efficacité et réduit les frictions au quotidien. 3. Le plus grand risque et comment s'en prémunir ? Le plus grand risque lié à l'usage massif des IA génératives est le manque de contrôle sur la qualité, la sécurité et l'éthique des données utilisées et générées. Il y a trois aspects majeurs à considérer. Le risque de désinformation et de biais, les modèles génératifs peuvent produire des informations incorrectes hallucinations ou reproduire les biais présents dans leurs données d'entraînement. Le risque de sécurité des données, si l'entreprise utilise des modèles publics, elle expose involontairement des données confidentielles. Le risque éthique et de conformité, l'utilisation de données personnelles sans consentement peut entraîner des problèmes juridiques. Pour s'en prémunir, une entreprise doit mettre en place une stratégie en trois actes. Gouvernance et encadrement, définir des règles d'usage claires, créer un comité de gouvernance de l'IA et former les employés à l'utilisation responsable de ces outils. Il faut qu'il y ait des humains dans la boucle de décision finale, pour vérifier les résultats. Infrastructure sécurisée, privilégier des modèles hébergés en interne ou sur des clouds privés, plutôt que d'utiliser des modèles grand public. Cela permet de garder le contrôle sur les données sensibles et d'éviter les fuites. Audit régulier, mettre en place des audits techniques pour s'assurer que les modèles ne produisent pas de contenu biaisé ou non conforme.
- Speaker #0
Gemini est lui très orienté usage métier. On retrouve l'idée du copilote pour tous. C'est un discours très proche de l'ADN de Google. Le chantier prioritaire rejoint celui de ChatGPT, base de connaissances internes. Ça confirme que ce sujet est universel et probablement le plus accessible pour un des sites. Les risques sont multiples, mais le cœur du message, c'est... attention à la qualité et à la sécurité du donné. Maintenant, passons au dernier et au cinquième intervenant, notre petit français, le chat de Mistral. Je vous laisse écouter ses réponses à ses questions et je reviens après.
- Speaker #1
La plus grande transformation sera l'automatisation intelligente des processus décisionnels. Dans 5 ans, l'IA ne se contentera plus d'automatiser des tâches répétitives. Elle analysera en temps réel des données complexes marché, clients opérations internes et proposera des décisions stratégiques aux dirigeants, avec des scénarios prédictifs et des recommandations contextualisées. Exemple concret, un directeur commercial recevra, chaque matin, une synthèse IA des opportunités à saisir, des risques à anticiper et des actions prioritaires, le tout basé sur des données internes et externes réseaux sociaux, tendances économiques, etc. Impact. Cela réduira le temps de réaction des entreprises et rendra la prise de décision plus agile et data-driven. mais exigera aussi une montée en compétence massive des équipes pour collaborer avec ces outils. Mon chantier numéro 1 serait l'industrialisation de l'IA conversationnelle pour les métiers. Concrètement, je déploierai des assistants LLM spécialisés par fonction RH, finance, support client, etc. Formés sur les données internes de l'entreprise et intégrés aux outils existants ERP, CRM, etc. Pourquoi ? Gain immédiat, réduction des tâches à faible valeur ajoutée ex, génération de rapports, réponse au FAQ interne. Adoption facilitée, les collaborateurs voient l'utilité au quotidien, ce qui accélère l'acceptation de l'IA. Effet de levier, libération de temps pour des projets à plus forte valeur innovation, stratégie. Exemple, un assistant RH qui aide à rédiger des fiches de poste, analyser des chevaux, ou simuler des plans de formation, le tout en respectant les processus internes. Piège à éviter ? Négliger la asterisque-asterisque-gouvernance des données asterisque-asterisque-qualité, sécurité, RGPD ou sous-estimer l'accompagnement au changement. Le risque majeur est la perte de contrôle sur la propriété intellectuelle et la conformité. Les IA génératives, en s'appuyant sur des données externes ou internes, peuvent Générer du contenu protégé violation de droit d'auteur Exposer des données sensibles fuite via des prongs mal sécurisés Produire des biais ou des erreurs hallucinations, décisions discriminatoires Comment s'en prémunir ? 1. Cadre juridique clair. Auditer les contrats avec les fournisseurs dits à qui possèdent les données, qui est responsable en cas de litige. Former les équipes aux bonnes pratiques ZEX. Ne pas copier-coller de données confidentielles dans un chatbot public. 2. Architecture technique sécurisée. Privilégier des LLM en prémise ou privée pour les données critiques. Utiliser des outils de détection de fuites ZEX. Watermarking des données. 3. Gouvernance éthique. Créer un comité IA pour valider les cas d'usage à risque. Documenter les processus de validation des outputs ZEX. Relecture humaine pour les décisions sensibles. En résumé, l'IA générative est un accélérateur, mais sans garde-fou, elle devient un multiplicateur de risques. La clé ? Anticiper, former et contrôler.
- Speaker #0
Le chat va droit au but. La décision stratégique automatisée, c'est une vision plus business. Le chantier proposé est intéressant, spécialisé l'IA par métier. Ça rejoint un vrai besoin que je vois, donner des assistants adaptés aux usages plutôt qu'un seul outil générique. Le risque identifié, la propriété intellectuelle est moins souvent évoquée, mais c'est un vrai sujet. Qui possède le contenu généré ? Comment éviter les violations de droits ? Alors en conclusion, qu'est-ce qu'on retient de ce tour de table pas comme les autres ? D'abord que chaque IA a sa personnalité. Chat GPT est pédagogique et structuré. Claude est philosophique et humaniste. Perplexity est factuel et business. Gemini est orienté usage, concret. Le chat est pragmatique et direct. Ensuite, ces trois grands traits... thèmes émergent. La transformation, tout le monde parle d'une hybridation humain-IA et d'une réorganisation profonde du travail. Le chantier d'AIC, c'est la connaissance et la productivité interne sont prioritaires, mais avec des nuances entre l'IT, le métier et l'industrialisation. Les risques, d'un côté, la perte d'esprit critique, de l'autre, la sécurité, la conformité et la propriété intellectuelle. Mon message pour finir, l'IA n'apporte pas de vérité absolue, mais des angles de vue. à nous de comparer, recouper et garder notre esprit critique. Et vous, dans vos organisations, quel serait votre premier chantier avec l'IA ? Je serais ravi de lire vos retours et vos expériences. Merci d'avoir écouté cet épisode, cet épisode encore spécial. N'hésitez pas à nous mettre des commentaires, à partager, à nous mettre des notes sur votre plateforme préférée. Et rendez-vous très bientôt dans un nouvel épisode de DSI et des hommes.