- Speaker #0
Bonjour à tous et bienvenue dans le podcast d'IG Conseil. Aujourd'hui, on décrypte pour vous l'évolution de ChatGPT et l'arrivée imminente de GPT-5, la nouvelle version d'OpenAI qui fait déjà beaucoup parler d'elle.
- Speaker #1
Bon, l'IA conversationnelle, on la voit peu partout maintenant, c'est clair. Mais là, il semblerait qu'on soit à la veille d'une nouvelle étape.
- Speaker #0
Exactement. Une grosse évolution se prépare.
- Speaker #1
Alors aujourd'hui, on va essayer de plonger un peu dans ce que GPT-5 pourrait changer. Concrètement, qu'est-ce qu'on sait vraiment ? C'est un peu ça notre mission, décrypter les enjeux.
- Speaker #0
C'est ça, on va regarder ça de plus près.
- Speaker #1
Pour commencer, rappelons juste que ChatGPT, souvent basé sur GPT-4.0, il est déjà bien installé dans la bureautique, pour les études, la création, même le support client.
- Speaker #0
Oui, tout à fait. Et d'ailleurs, OpenAI n'arrête pas d'ajuster, de proposer des nouveautés. Tout récemment, fin juillet, ils ont lancé le Study Mode.
- Speaker #1
Ah oui, le Study Mode. C'est quoi exactement l'idée derrière ?
- Speaker #0
L'objectif, c'est de... pousser à un apprentissage plus actif, tu vois. Au lieu de donner la réponse directe, l'IA va plutôt guider, poser des questions. En gros, elle essaye d'être plus pédagogue.
- Speaker #1
Intéressant pour apprendre en profondeur, j'imagine. Mais est-ce que ça risque pas aussi de freiner ceux qui cherchent juste une info vite fait ?
- Speaker #0
C'est possible, oui. C'est un équilibre à trouver.
- Speaker #1
Quoi qu'il en soit, bon, GBT4O, il est performant, mais on sent bien qu'il y a une attente pour un vrai un vrai saut qualitatif. Alors, GPT5, Qu'est-ce qu'on en sait ? Il arrive quand ?
- Speaker #0
Alors là, c'est confirmé, c'est imminent. Début août 2025. OpenAI a fait pas mal de teasing là-dessus.
- Speaker #1
Début déjà, d'accord. Et la grosse nouveauté, si j'ai bien compris, c'est la fusion des modèles. Fini de choisir.
- Speaker #0
C'est ça. Le gros changement structurel, c'est vraiment ça. Fini le sélecteur manuel entre les versions spécialisées, genre DALI, Advanced Data Analysis, etc.
- Speaker #1
Donc, un seul modèle unifié qui intégrerait nativement la voix. l'image, le web et des capacités de raisonnement plus poussées.
- Speaker #0
Exactement. Tout en un.
- Speaker #1
Ça, ça simplifierait l'utilisation, c'est sûr. Mais est-ce qu'un modèle comme ça, un peu couteau suisse, il ne risque pas d'être moins bon sur des tâches très spécifiques ?
- Speaker #0
C'est une bonne question et c'est un peu le pari d'OpenAI en fait. Il mise sur la polyvalence. Et puis, ce modèle unique, il va quand même se décliner.
- Speaker #1
Ah bon ? Comment ça ?
- Speaker #0
Il y aura la version main pour l'interface ChatGPT classique qu'on connaît. Une version mini, plus légère pour les API et les appareils moins puissants. Et même une version nano, uniquement via API, pour des intégrations très légères.
- Speaker #1
D'accord, je vois. Pour s'adapter un peu à tous les besoins, quoi.
- Speaker #0
Voilà. L'idée, c'est d'offrir une base commune, mais adaptable. Et la promesse d'OpenAI, c'est une IA significativement plus intelligente, plus fiable, plus personnalisable aussi, et surtout avec moins d'hallucinations.
- Speaker #1
Ah oui, le fameux problème des hallucinations. Moins de réponses inventées, ça serait une bonne nouvelle. Et au-delà de ça, les capacités clés annoncées, c'est quoi ?
- Speaker #0
Alors, on parle beaucoup des capacités multimodales, texte, image, audio, vidéo, qui seraient beaucoup plus intégrées, natives, plus fluides. Il y aurait aussi une mémoire persistante. Ça permettrait des conversations beaucoup plus longues, qui gardent vraiment le contexte sur la durée.
- Speaker #1
Ah ça, c'est pas mal ! Fini de devoir tout répéter à chaque fois.
- Speaker #0
C'est l'idée ! Et puis, il y a cette fameuse fenêtre contextuelle énorme, un million de tokens.
- Speaker #1
Un million ? Attends, un token, c'est à peu près un mot ou une syllabe, c'est ça ?
- Speaker #0
C'est. C'est gigantesque comme mémoire.
- Speaker #1
Carrément. C'est une capacité colossale. Après, bon, l'utilité réelle pour l'utilisateur moyen au quotidien, ça reste à voir.
- Speaker #0
Oui, c'est sûr. Et ce raisonnement O3, ça veut dire quoi concrètement ?
- Speaker #1
Alors ça, O3, ça suggère une capacité bien accrue. à résoudre des problèmes complexes, en plusieurs étapes logiques. Un raisonnement plus structuré, plus profond, si tu veux. D'accord. Et c'est là, j'imagine, qu'intervient cette idée d'agent IA autonome dont on entend parler. L'IA qui ne fait plus que répondre, mais qui agit.
- Speaker #0
C'est exactement ça. C'est la grosse promesse, peut-être. On passerait d'un assistant qui, bon, répond à tes questions, à un véritable collaborateur IA.
- Speaker #1
Un collaborateur, c'est-à-dire ?
- Speaker #0
Un système capable de prendre en charge des tâches complexes de A à Z de manière autonome. L'exemple souvent cité, c'est gérer une campagne marketing, de la stratégie à la création de contenu au suivi.
- Speaker #1
Ah ouais, carrément. L'impact sur certains métiers, notamment les métiers de bureau, de création, ça pourrait être énorme.
- Speaker #0
Potentiellement considérable, oui. Mais attention, cette puissance, elle a un coût. On parle d'un coût de formation pour GPT-5 qui dépasse les 600 millions de dollars. Et il faut une infrastructure derrière monstrueuse.
- Speaker #1
600 millions ?
- Speaker #0
Pfiou ! Oui. D'ailleurs, Sam Altman lui-même. Le patron d'OpenEye a eu des mots assez forts. Il a dit se sentir presque inutile face à GPT-5. Et il a même fait une comparaison assez frappante avec le projet Manhattan, en parlant de la prudence nécessaire.
- Speaker #1
Le projet Manhattan, rien que ça. Ça donne une idée de la puissance potentielle, mais aussi des enjeux éthiques derrière.
- Speaker #0
Tout à fait.
- Speaker #1
Ces capacités sont bluffantes, c'est clair. Mais la question qui vient tout de suite, c'est qui va pouvoir y accéder ? Est-ce que ça sera pour tout le monde ?
- Speaker #0
Alors, a priori, oui. L'accès sera large. Bonne nouvelle. Mais…
- Speaker #1
Et ah ! Comment ça, des niveaux ?
- Speaker #0
Il y aura un système à plusieurs vitesses. Les utilisateurs gratuits auront accès à une version standard de GPT-5. Probablement un peu bridée, tu vois. À peine mieux que GPT-4O. Mais avec les nouvelles fonctions quand même.
- Speaker #1
D'accord, une sorte de vitrine.
- Speaker #0
Un peu ça, oui. Ensuite, les abonnements payants, genre Plus ou Team, qui sont autour de 20-25 dollars par mois, donneront accès à un niveau supérieur, plus performant.
- Speaker #1
Ok, logique.
- Speaker #0
Et enfin, la pleine puissance, avec notamment cette technologie de raisonnement O3, ça, ça serait réservé à un abonnement pro. Et là, on parle d'environ 200 dollars par mois.
- Speaker #1
Ah oui, 200 dollars. Là, ça cible clairement les professionnels ou les entreprises qui en ont un usage intensif.
- Speaker #0
Exactement. C'est une stratégie d'upsell assez claire. Mais ça risque aussi de créer pas mal de frustration, cette segmentation très marquée. On pourrait avoir un bad buzz si la version gratuite est perçue comme trop limitée par rapport aux promesses.
- Speaker #1
C'est un risque, oui. Concrètement alors, pour les pros, les entreprises, qu'est-ce que ça change si on met de côté le coût de l'abonnement pro ?
- Speaker #0
Pour les professionnels, c'est la perspective d'une automatisation encore plus poussée. Et surtout d'une collaboration homme-machine plus intégrée. L'IA devient moins un outil qu'on consulte ponctuellement, et plus un partenaire qui travaille avec toi sur des processus métiers.
- Speaker #1
Et pour les développeurs ?
- Speaker #0
Pour eux, une API unifiée, ça simplifierait beaucoup les choses pour intégrer ces capacités dans leurs propres applications.
- Speaker #1
Et si on prend un exemple, genre l'e-commerce ?
- Speaker #0
Ah bah là, on peut imaginer plein de choses. Des fiches produits qui s'enrichissent dynamiquement, un support client beaucoup plus autonome, capable de comprendre le contexte d'achat, l'historique. C'est vraiment l'IA qui s'intègre dans le flux de travail.
- Speaker #1
D'accord. Donc en résumé, on va vers une IA qui est plus capable, plus proactive, plus intégrée dans nos outils et nos process.
- Speaker #0
C'est ça. C'est une étape significative. Mais il faut rester vigilant, bien sûr, sur la fiabilité, les biais potentiels qui peuvent persister.
- Speaker #1
Toujours les mêmes questions de fond, finalement. Toujours.
- Speaker #0
Et puis, il y a une autre question qui se pose. Est-ce que GPT-5 va provoquer le même effet Wahoo que GPT-3 ou GPT-4 ? Ou est-ce que ce sera perçu comme une évolution, certes impressionnante techniquement, mais peut-être moins disruptive pour le grand public ?
- Speaker #1
Bonne question. Le risque, c'est peut-être d'être un succès technique, mais un peu un flop marketing si l'attente était trop démesurée.
- Speaker #0
C'est un peu le défi pour OpenAI, oui. Comment maintenir cet élan ?
- Speaker #1
Et pour finir, peut-être une petite réflexion. Si cette IA devient vraiment plus résonante, comme tu disais, et plus agissante ? Comment est-ce que ça pourrait changer pas juste la façon dont on fait les tâches, mais même la façon dont on pense la stratégie ou la création dans certains domaines ? La collaboration pourrait vraiment changer de nature, non ?
- Speaker #0
Absolument. Ça ouvre des perspectives sur la co-création, la co-stratégie avec l'IA qui sont assez fascinantes. On n'est plus seulement dans l'exécution, mais potentiellement dans la conception même. C'est peut-être là le vrai saut quantique.
- Speaker #1
Une piste intéressante à suivre.
- Speaker #0
Vous pouvez retrouver notre article. Révolution GPT-5, le saut quantique de l'IA qui va tout changer, sur notre blog à l'adresse blog.ig-conseil.com. Cet épisode vous a été proposé par IG Conseil. Notre mission, vous former aux meilleures pratiques en gestion d'entreprise, comptabilité, digitalisation et intelligence artificielle.