undefined cover
undefined cover
Gemini 2.5 Pro : Le réveil (très) musclé de Google cover
Gemini 2.5 Pro : Le réveil (très) musclé de Google cover
DeclicIT

Gemini 2.5 Pro : Le réveil (très) musclé de Google

Gemini 2.5 Pro : Le réveil (très) musclé de Google

40min |18/04/2025
Play
undefined cover
undefined cover
Gemini 2.5 Pro : Le réveil (très) musclé de Google cover
Gemini 2.5 Pro : Le réveil (très) musclé de Google cover
DeclicIT

Gemini 2.5 Pro : Le réveil (très) musclé de Google

Gemini 2.5 Pro : Le réveil (très) musclé de Google

40min |18/04/2025
Play

Description

« Gemini 2.5 Pro devient vraiment un outil… supérieur à ChatGPT sur certains points », s’enthousiasme Aziz. Dans cet épisode, Sébastien et Aziz reviennent sur la claque que Google inflige aux sceptiques : contexte de deux millions de tokens, intégration directe à Workspace, Maps et Vertex AI, et performances qui bousculent OpenAI et Anthropic. Ils enchaînent avec MCP, le protocole qui relie désormais Claude, n8n et d’autres agents sans une ligne de code. Au programme : ce que ces avancées signifient pour les projets Salesforce, pourquoi la hype permanente fatigue tout le monde, et comment rester pertinent sans se brûler.


Ressources:


Suivez-nous sur LinkedIn :


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour à tous.

  • Speaker #1

    Bonjour Aziz, bonjour.

  • Speaker #0

    Bonjour Sébastien.

  • Speaker #1

    Auditrice. Oui,

  • Speaker #0

    on commence toujours les émissions en rigolant, on se demande ce qu'on se dit avant, et ça, ça restera secret.

  • Speaker #1

    La seule façon de le savoir, c'est que vous passiez en tant qu'invité.

  • Speaker #0

    Voilà, exactement. On pourra vous le dire, ou pas. Ça dépend des sujets plus ou moins sensibles qu'on aborde avec Sébastien. En tout cas, merci de nous retrouver pour cette nouvelle émission d'Applicate. Et on ne va pas parler, on va toujours parler IA. Le plus souvent, on en parle. Parfois, c'est très focus sur Salesforce. Parfois, très focus sur Sam Altman ou OpenAI, etc. On a beaucoup critiqué Google au cours de nos émissions. Vraiment. On les accusait d'avoir un certain retard, que leurs outils au singulier d'IA générative étaient un peu... dépassé ou en tout cas bien en dessous des capacités de Cloud,

  • Speaker #1

    d'Anthropic ou de ChatGPT d'OpenAI mais au jour où tu es et surtout ils ont fait des démos fake aussi,

  • Speaker #0

    il ne faut pas oublier oh les fameuses démos fake tu fais bien de le rappeler c'était des démos toutes préparées, toutes scénarisées qui n'avaient rien de réellement naturel ou ... Oui, tout simplement. C'était totalement... C'est normal de préparer une démo, mais de la préparer, limite, comme si on enregistrait une vidéo qu'on diffusait auprès de son public et de simuler une intervention en direct, là, c'était grossier. Mais, et heureusement, le futur... En tout cas, les avancées de Google nous ont fait... A mentir, je dirais, mais on s'est un peu calmé. Je me suis un peu calmé sur mes critiques assez régulières de Google parce qu'il y a eu des avancées, je trouve, assez spectaculaires chez Google en intelligence artificielle. L'idée, c'est de faire un focus parce que j'ai testé Gemini 2.5 Pro depuis quelques jours. Et c'est le modèle, les standards de l'industrie IA. Pourquoi ? Parce que c'est une IA capable de raisonner, vous ne me direz rien de singulier par rapport à la concurrence, mais c'est une IA qui est également capable de traiter des dizaines de milliers de pages de texte en quelques secondes. Quand vous intégrez des pièces jointes, PDF, Word, vraiment c'est en grande quantité. Contrairement aux concurrents, en tout cas quand je dis les concurrents, je vais souvent citer... Cloud ou ChatGPT qui sont assez limités en termes de pièces jointes à intégrer. Et aussi, la force de Gemini 2.0, qui est issue de Google, c'est qu'il s'intègre progressivement aux outils de l'écosystème Google. Pas tous actuellement, mais certains. Ils ont déjà commencé dans certains. Je vais en parler d'ailleurs, notamment avec Gmail. Et la promesse de Gemini 2.5, 2.5 Pro, je vais dire 2.5 sinon ça fait trop long, C'est d'associer une stratégie globale qui va positionner Google comme un leader finalement face à ses concurrents. Alors que dans le passé, très récemment, Google occupait vraiment la place du fond du bus. Contrairement à OpenAI et Cloud, voire même Google. Pas forcément le fond du bus,

  • Speaker #1

    mais bon, le fond du bus pour l'instant c'est un peu. Un peu quand même.

  • Speaker #0

    Oui, oui, c'est vrai. Apple n'est même pas dans le bus.

  • Speaker #1

    Oui, voilà, Apple n'est même pas dans le bus. Bon, au moins, Google, il y a une petite place, tu vois.

  • Speaker #0

    Voilà, c'est ça. Ils sont en train de changer. Clairement, en tout cas, moi, c'est ce que j'ai ressenti en lisant les derniers commentaires ou les dernières réactions sur X, X Twitter. Donc, vraiment, il y a des gros gourous ou vraiment des chaînes très sérieuses et très rigoureuses qui suivent l'actualité. Et il y a... Gemini 2.5 Pro devient vraiment un outil qui par les témoignages des professionnels ou des addicts de ces outils-là, devient en termes de capacité, de pertinence de résultat, supérieur à ChatGPT en certains points, quand je dis ChatGPT c'est la dernière version, et supérieur à Cloud dans d'autres points. En l'occurrence, pour certains critères, Gemini 2.5, se maintient au-dessus de ses concurrents tels que ChatGPT ou Cloud. Pour d'autres critères, ils restent en-dessous, notamment par rapport au code. Pour le code, apparemment, Cloud 3.7 d'Anthropic reste au-dessus du lot. Ils sont vraiment en première position en termes de capacité, de pertinence de résultat et d'exactitude aussi de résultat. Et ce que je voulais dire d'autre, c'est que pour en revenir à Gemini 2.5, Donc l'idée, c'est ce qui est mis en avant officiellement par Gemini 2.5. Je n'ai pas encore concrètement su ce que ça voulait dire, mais ils indiquent qu'ils ont une capacité à gérer, j'avais lu, 2 millions de tokens qui lui permettent d'analyser des documents techniques, on va dire dans leur entièreté, des bases de code, même des transcriptions vidéo.

  • Speaker #1

    Les tokens, c'est ce que tu disais au début, c'est la capacité à comprendre, à... comprendre, à mémoriser le contexte. Les documents. Les documents, en fait, même les promptes.

  • Speaker #0

    La mémoire,

  • Speaker #1

    entre guillemets.

  • Speaker #0

    De mémoire, c'est plus que les limites d'OpenAI avec son dernier modèle. Faudra que je vérifie ça. Pour le coup, je n'ai pas le chiffre exact. Mais oui, effectivement, c'est beaucoup plus. D'un autre côté, pour les développeurs, Gemini 2.5 reste intéressant. parce qu'il s'intègre à ce qu'on appelle Vertex AI, qui est un autre outil Google, dont j'ai appris l'existence récemment. Et Vertex AI, c'est la plateforme cloud de Google. Et l'idée, c'est que ce Gemini 2.5 intégré à Vertex AI va offrir une personnalisation des coûts et de la vitesse de traitement. Et par exemple, s'il y a un besoin d'une réponse ultra rapide pour un chatbot client, par exemple, laisse-moi restructurer ma pensée avec Vertex AI les développeurs derrière, ils peuvent gérer le développement d'applications assez rapidement mais aussi en ayant des résultats et des correctifs pertinents provenant de Vertex AI par l'intermédiaire de Gemini 2.5 qui est intégré dedans et donc ça c'est un des outils parmi tant d'autres mais en l'occurrence, c'est ce que j'avais vu d'autre, j'avais vu que on va dire, pour en rester sur l'intégration dans l'écosystème Google, Gemini, ce que je ne savais pas jusqu'à maintenant, est intégré à Google Workspace. Pour offrir notamment des résumés d'email dans Gmail, ou des suggestions de documents qui sont intégrés dans le Drive, des analyses dans les Headsheets, et j'avais vu aussi qu'il est intégré à Google Search. Après, je ne sais pas dans quel use case je pourrais mettre en avant, mais en tout cas, c'est le cas officiellement. Gemini est intégré à Google Search. Et je pense que si on prend du recul, on pourrait très bien imaginer des cas d'usage qui seraient intéressants pour ceux qui utilisent Google Search, ce qui n'est pas mon cas, mais c'est toujours intéressant à savoir. Et enfin, il est intégré, toujours Gemini, à Android Studio. Donc ça, c'est aussi... principalement dédié aux développeurs, comme c'était le cas de Vertex AI, pour la génération ou le débogage de code. Et enfin, dernier point, il est aussi intégré, et ça j'en avais parlé sur LinkedIn quelques jours avant, à Google Maps via la fonctionnalité Geospatial Reasoning. Donc l'idée c'est de combiner Gemini avec des données géospatiales pour répondre à des questions sur... sur la localisation, sur l'urbanisme, en cas, par exemple, de catastrophe naturelle, essentiellement, ça permet à n'importe lequel d'entre nous de voir quelles sont les zones sinistrées, quelles zones à éviter, quelles zones on peut circuler, mais vraiment en direct. Ce n'est pas simplement comme...

  • Speaker #1

    En map ? Oui,

  • Speaker #0

    c'est live. Ah, oui, oui, oui, pardon, oui, c'est live. Dans ce sens-là, oui, c'est live. Je ne sais pas s'il est déployé à l'échelle internationale. Je pense que certains de ces causes aux Etats-Unis, c'est le cas. Il y a beaucoup de... particuliers sur Twitter, en tout cas basés en Amérique du Nord, qui ont testé cette fonctionnalité-là. Et c'est assez bluffant. Par contre, il n'y a aucune trace qui indique que c'est déployé partout dans d'autres zones géographiques comme en Europe ou en Asie. Pour le moment, je n'ai pas cette information-là, mais en tout cas, ça laisse présager que Gemini 2.5 serait déployé sur l'ensemble finalement des outils de l'écosystème Google et quand bien même on aimerait pouvoir faire des choses plus rapidement sur Gmail ou je sais pas moi sur Google Maps Il y a des tas de cas d'usage finalement qu'on aimerait mettre en place grâce à l'intelligence artificielle et peut-être que Gemini 2.5 sera la réponse et le moyen de répondre à nos aspirations sur Google. La force de Google, c'est vraiment de maintenir, d'avoir vraiment pénétré le marché et surtout faire en sorte que ses utilisateurs soient fidèles depuis quasiment 15 ans, voire 20 ans. Depuis notre utilisation du moteur de recherche Google jusqu'à la gestion de notre compte Gmail, chacun d'entre nous utilise au moins un outil de l'univers Google. Et je pense que Google a cette force que n'a pas OpenAI, que n'a pas Anthropic ou tous les autres concurrents. C'est qu'avec leur outil Gemini, ils peuvent clairement booster chacun de leurs outils de l'écosystème Google. et dans le même temps améliorer concrètement nos usages et notre expérience finalement avec l'écosystème Google, mais vraiment l'améliorer considérablement. Maintenant, reste à voir quels seront les usages que Google pourra nous permettre d'effectuer, les nouveaux usages que Google pourra nous rendre possibles via Gmail, via Google Maps, via Drive. via Google Search, même si je ne suis pas un aficionado de Google Search. Mais voilà, ils ont un pléthore d'outils. Seulement deux ou trois d'entre eux sont utilisés régulièrement par les utilisateurs.

  • Speaker #1

    Oui, effectivement, Google a commencé à taper fort fin 2024 pour fêter la fin de l'année dignement. Ils ont sorti moult améliorations, moult nouveaux produits qui ont bousculé pas mal de choses. et qui reprennent depuis quelques jours une deuxième tournée. Ils sont plaisirs, ils lancent beaucoup de choses, notamment leur Gemini 2.5 Pro qui est à nouveau... En soi, ça ne change pas l'écosystème qu'ils essayaient de créer. Parce que oui, ils avaient déjà commencé à intégrer Gemini, sans parler de 2.5 Pro, mais vraiment Gemini, je pense que c'est un nom fourre-tout. Et ça amène pas mal de confusion parmi nous tous, parce qu'en fait, Gemini, comme eux l'entendent, c'est un peu un truc fourre-tout. Fourre-tout, c'est un peu l'assistant de Google.

  • Speaker #0

    L'assistant pour tout, oui.

  • Speaker #1

    L'assistant, oui. Par exemple, Apple en série, l'autre en Alexa, et eux, ils vont voir Gemini. Et donc, tu peux avoir Gemini dans Gmail, dans Google Search. En fait, tu l'as déjà vu, Gemini dans Google Search. C'est juste, tu apportes la requête dans Google Search et après, tu as un petit résumé juste en bas. C'est Gemini, c'est tout. Ça ne va pas chercher bien loin. Et donc, là, ils ont un modèle, Gemini 2.5 Pro. Et donc, c'est vraiment le cerveau, en fait, qui est derrière Gemini. C'est un peu tout comme ils ont Gemini Flash, par exemple, qui est un autre modèle.

  • Speaker #0

    C'est ça, oui. En fait, je n'ai pas fait le tour de tous les modèles, mais c'est vrai qu'ils commencent à en avoir pas mal. Et ils commencent aussi à être très communicants et très agressifs au niveau de la communication, un peu au même titre que Sam Altman ne le fait pour OpenAI. D'ailleurs, la différence, c'est que... OpenAI ne communique que grâce à la figure de Sam Altman, son PDG, donc c'est vraiment Sam Altman qui communique régulièrement sur les avancées, là où Google va utiliser des comptes officiels, Google AI ou Google DeepMind ou Gemini.

  • Speaker #1

    Même le CEO de Google qui est très actif sur le CX.

  • Speaker #0

    Pas autant que Sam Altman. Pas autant, je trouve. En tout cas,

  • Speaker #1

    c'est différent. C'est différent. parce qu'Allemagne, j'ai pas l'impression que c'est plutôt high level. Je sais pas pourquoi, mais je le crois pas quand ils parlent, en fait, et même quand ils tweetent. Alors que l'autre, le CEO de Google est plus actif sur la communauté. Il pose pas mal de questions, il réagit à l'actu, non pas juste l'actu que Google produit, mais l'actu de l'IA en général. Par exemple, sur les fameux MCP, qui est la hype du moment. Lui, il... il communique dessus, il demande l'avis aux gens. Après, est-ce que c'est juste pour créer de l'engagement ou pas ? Mais en tout cas,

  • Speaker #0

    il parle de ce... Il y a deux types de communication différentes. Celui qui fait le plus de bruit, c'est Sam Altman. Parce qu'il va mettre beaucoup de hype et puis d'un seul coup ça va se calmer, puis il va revenir dessus, une nouvelle version, des noms de versions qui sont incompréhensibles chez OpenAI je trouve, 3.0, 4.0, 4.5.0, 4.2.0, enfin voilà quoi. C'est un peu fourre-tout je trouve. Mais tu parlais de MCP juste avant, c'est une très bonne transition. Est-ce que tu pourrais nous expliquer ce dont il s'agit ?

  • Speaker #1

    C'est pas du tout par Google du coup. Oui,

  • Speaker #0

    on pourra revenir sur Google après, mais MCP, apparemment, c'est un sujet transverse.

  • Speaker #1

    Oui, donc parenthèse MCP, ce qu'on peut voir, c'est, on va dire, pour vulgariser, c'est une sorte de protocole de communication entre agents IA. Donc typiquement, aujourd'hui, c'est un des moyens, c'est une norme qui est en train de se créer, qui va permettre, par exemple, de connecter différents produits. différents produits entre eux, sans forcément avoir besoin d'API. Et surtout, si l'API, on va essayer d'y rester plus et plus, sans jargon ni rien. Mettons, un MCP, c'est un protocole de communication standardisé. Donc, par exemple, comme le monde s'est mis d'accord sur la norme USB, je peux connecter mon micro à mon ordinateur via USB. USB, c'est le protocole qui va nous permettre de brancher. deux outils. Et là, ce qui est en train de se lancer, c'est le MCP. Donc le MCP qui a un protocole aussi qui va permettre de brancher deux outils IA l'un à l'autre. Par exemple, Cloud, en tropique, a utilisé le protocole MCP. Donc c'est-à-dire que potentiellement tous les autres outils qui se sont aussi normalisés MCP vont pouvoir se connecter à Cloud. Par exemple, on reprend un des outils qu'on a parlé il y a quelques semaines, donc N8n, qui permet de créer des automatisations avec de l'IA depuis peu. Eux aussi, il y a quelques jours, ont lancé nativement leur outil MCP. C'est-à-dire qu'en fait, maintenant, nativement, avant on pouvait le faire via des moyens détournés, mais maintenant, nativement, tu peux faire communiquer Cloud. Avec N8N. Donc concrètement, les agents IA que j'avais créés aujourd'hui sur la plateforme N8N qui ont accès à mon agenda, à mes emails, je peux l'appeler via Claude. Je suis en train de travailler sur Claude. Claude peut taper N8N qui va taper mes emails.

  • Speaker #0

    Donc en fait, tu peux envoyer tes instructions à N8N à partir de Claude.

  • Speaker #1

    C'est ça.

  • Speaker #0

    D'accord. Et ça a déjà été testé ?

  • Speaker #1

    Et sans code. Ah bah oui, ça existe, c'est live.

  • Speaker #0

    Oui, incroyable. Faudrait une nouvelle vidéo N8N avec Claude cette fois-ci.

  • Speaker #1

    Ouais, mais sauf que je n'ai plus mon abonnement Claude.

  • Speaker #0

    On utilisera le mien alors, même si il va bientôt arriver à échéance.

  • Speaker #1

    Il va bientôt sauter. Bah ouais, parce que ce qui est fou, c'est que c'est sans code. Tu n'as pas besoin de... Je n'ai rien codé pour ça. Parce qu'en gros, le modèle MCQ fait que grâce à... on va sauter tous les trucs techniques, c'est qu'en fait, le modèle MCP peut lui-même, c'est comme si il avait accès à la documentation des API, donc de toutes les fonctions qu'un outil a. Ça veut dire qu'avant, ça veut dire qu'avant, sans... Enfin, avant. Hier ! Sans protocole standardisé, quand tu crées ton API, donc quand tu dois manuellement créer un appel... d'un software à un autre, tu regardes la documentation du software que tu vas appeler, tu regardes ce qu'il attend, lui, comment il fonctionne, et tu lui envoies les bonnes instructions pour qu'il te renvoie les résultats que tu souhaites. Sauf que maintenant, tu n'as plus besoin de ça si tu passes par le MCP, parce qu'on va dire que le MCP connaît la documentation du software que tu appelles, donc tu as... Tu n'as même pas besoin de le configurer. Tu vas juste dire, envoie-moi l'adresse, envoie l'email. Et non, en fait, tu n'as pas besoin de trucs techniques parce que le modèle va comprendre. Il veut envoyer un email, donc je vais aller chercher techniquement à quoi ça correspond et je vais faire les bonnes instructions.

  • Speaker #0

    Mais il faut que tu mettes quand même en place le flow plus ou moins complexe. nécessaire sur N8.

  • Speaker #1

    Il faut que tu mettes le flow, mais du coup, qu'il se décomplie. Alors aujourd'hui, je trouve que dans N8n, on a une version un peu de ce qu'il pourrait faire avec les MCP, c'est à dire qu'ils sont un peu limités pour l'instant. Donc il reste un peu plus ou moins complexe, mais vraiment c'est accessible. Je suis sûr, enfin demain, quelques jours, semaines, je suis quasiment sûr qu'ils vont faire une mise à jour qui va nous permettre de créer un flow en limite en une étape et que l'IA et que l'MCP se démerdent en fait. C'est quasiment certain. Quasiment certain, ça ne veut rien dire, non ? Parce qu'en gros, c'est quasiment certain.

  • Speaker #0

    Oui, non, mais c'est certain. On peut dire que c'est certain.

  • Speaker #1

    Voilà. Ouais, il faudrait qu'on se fasse une petite démo. Je pense qu'on aura cette version-là de MCP dans N8N. Je vais créer un flow en live. Ça va prendre cinq minutes, je pense, et on va s'amuser.

  • Speaker #0

    Clairement, ça peut être super intéressant. Et ça laisse présager finalement, on a l'impression que, comme je te le disais juste avant, le fait de pouvoir connecter... en tout cas de lier des systèmes IA à d'autres systèmes IA ou de génération d'automatisation, etc., ça posera nécessairement des problèmes de confiance et de sécurité. Quand bien même j'imagine que d'un côté les équipes de cloud, de l'autre côté les équipes de N8N font de leur mieux pour assurer des fonctionnalités. déployer une mise à jour qui soit vraiment safe pour l'utilisateur final, pour l'entreprise ou pour le particulier. Mais il va falloir mener, je pense, une politique d'adoption assez poussée pour que les utilisateurs puissent... pour qu'à l'avenir ces fonctionnalités-là dont tu parles et ce MCP dont tu parles se démocratisent assez rapidement et qu'ils ne soient pas réservés qu'à un certain profil d'utilisateur. Oui,

  • Speaker #1

    après, à mon avis, c'est comme une norme. C'est le monde, c'est le marché qui va décider. Je ne l'apprends pas. C'est comme... À une époque, on avait une bataille entre deux normes. Tu te rappelles pour le HD ou le Full HD, je ne me rappelle plus. On était un peu jeunes. On était un peu jeunes.

  • Speaker #0

    C'est le Blu-ray et le HD ? Ça n'a rien à voir.

  • Speaker #1

    Il y avait vraiment deux trucs. Il y avait deux façons de faire de l'HD. sur les télés et au final je ne sais même plus l'autre nom de technologie forcément qui a perdu contre cette norme full HD qu'on a aujourd'hui et tous les matos ça a dû être mis à la poubelle parce que moi ça me fait penser au lecteur Blu-ray petite

  • Speaker #0

    parenthèse qui a fait son temps quelques années et qui a disparu ouais bah si c'était pas court c'était pas court non plus quand même je ne vais pas vérifier sur Google on n'en a pas eu plus Mais à aucun moment, j'ai bifurqué sur le Blu-ray pour voir à quoi ça ressemblait. Même si les promesses de qualité visuelle étaient souvent mises en avant. Comme tu dis, c'est la loi du marché. Mais voilà, c'est ça. En tout cas, ça laisse présager pas mal de possibilités. Encore une fois, en termes d'adoption et de sécurisation, il y aura beaucoup de questions qui se poseront. Ne serait-ce que pour l'adoption d'outils IA, on n'en est qu'au premier pas, vraiment c'est des pas de bébé. À l'échelle des entreprises, beaucoup sentent la pression de l'IA, beaucoup veulent s'y mettre sans avoir tous les éléments, beaucoup se cassent un peu les dents parce qu'ils n'ont pas fait un état des lieux propre. Je pense que tant que cet état des lieux en termes de données, en termes d'infrastructures n'a pas été fait par les entreprises, L'adoption de l'IA et l'adoption des nouvelles fonctionnalités qui émergent sur la base de l'IA, comme ce MCD, prendront du temps, en tout cas en France, en tout cas en Europe, pas simplement pour des raisons législatives, pas simplement pour des raisons juridiques, mais pour des raisons de... Généralement, on a toujours eu cette latence en termes d'adoption pour des raisons sécuritaires. pour des raisons légitimes, mais en tout cas qui font pas mal retarder l'adoption. Je pense que cette fonctionnalité-là dont tu nous parles, qui permet d'intégrer des systèmes à d'autres systèmes IA, sera beaucoup plus adoptée, beaucoup plus rapidement dans des pays comme aux États-Unis ou en Chine qu'en Europe.

  • Speaker #1

    Ou pas, parce qu'en gros, c'est une norme. Donc après, n'importe quelle entreprise, n'importe quel pays peut créer sa propre norme. Oui. Donc au final, ça se trouve, ils vont utiliser un autre truc en Chine. En Europe, ils vont se poser sur un autre truc. On ne sait pas. Même Google, Google aussi essaie de... Je crois que c'est peut-être aujourd'hui d'ailleurs, ils ont lancé un protocole qui s'appelle Agent to Agent, qui permet aux agents de communiquer entre eux. Alors ça s'est tombé, je me sens que c'était vraiment aujourd'hui, il y a quelques heures, donc on ne va pas forcément creuser encore. OpenAI aussi peut peut-être lancer son propre truc aussi. OpenAgent, on ne sait pas. OpenAgent qui va permettre aux agents d'open AI, de dialoguer entre eux. Nous verrons. En tout cas, l'idée d'avoir une norme, ça va accélérer pas mal de développement. Tous ceux qui s'amusent ou en tout cas qui créent des sas le week-end, ça va accélérer encore plus les choses.

  • Speaker #0

    C'est ça. Très brièvement, parce que c'est vraiment un sujet que je voulais mettre sur la table. Ça va être très rapide, on revient un petit peu sur les premiers sujets avec Gemini 2.5. Mais en fait, j'aime bien faire des comparaisons pour mieux me rendre compte des avancées et des développements de chaque entité. Donc avec Gemini 2.5, Google a l'opportunité vraiment de booster ses outils. Gmail, Drive, dont on parlait, etc. Et c'est dommage, j'ai l'impression, pour OpenAI et Microsoft d'avoir manqué ce coche. Ils n'ont pas manqué, mais on va dire qu'ils avancent moins rapidement dessus. C'est que Microsoft pouvait très bien exploiter OpenAI pour optimiser l'utilisation de son écosystème. Donc Office ou d'autres outils liés à Microsoft. Et j'ai l'impression qu'ils sont moins avancés sur ce point-là, à côté Microsoft.

  • Speaker #1

    Oui, mais apparemment, ça arrive. Au début, ils ont essayé quand même. Mais il était les versions copilotes embarquées de copilotes qui n'étaient pas forcément utiles, qui n'étaient pas forcément pertinentes. Toutes les features qu'on nous a promis, peut-être il y a deux ans, arrivent seulement maintenant, progressivement, dans les copilotes. On traduit, par exemple, une là, j'ai vu il y a quelques jours, une là qui se sent vraiment... émerveillé du fait que maintenant Copilot peut traduire un PowerPoint entier. Donc voilà, tu es en train de travailler sur une presse, tac, tu dis, vas-y traduis-moi tout ça, hop, ta presse se duplique en langage que tu veux. Bon, ça arrive, et aussi ils se sont pris quelques tollés aussi par rapport au fait une fonction qui était censée aussi enregistrer tout ce que tu fais sur ton ordinateur. et que du coup tu peux requêter ton ordinateur pour rechercher de l'information. Tiens, j'ai vu un truc, un produit que je cherche en cadeau, que je veux acheter, c'était quoi ? Et tac, il se souvient parce qu'il enregistre tout ce que tu fais. Et donc ça fait un tollé parce que c'est pas très réglementaire ce truc-là.

  • Speaker #0

    C'est vrai.

  • Speaker #1

    Pour formuler des datas et tout. Donc voilà, il y a des choses à cadrer aussi. Mais ça arrive, je pense que ça arrivera bientôt. Ils font ça dans le feutré au fur et à mesure, mais ça reste très professionnel, Microsoft encore, de toute façon.

  • Speaker #0

    J'avais d'autres choses à dire, pas pour meubler évidemment, mais j'y pensais pendant que tu en parlais. C'est une question pour toi Sébastien, parce que moi à chaque fois que je me pose la question, je n'arrive pas à trouver de réponse, tellement je suis surpris à longueur de semaines et de nouvelles qui arrivent. Comment tu imagines les choses ? Allez, admettons début 2026, d'un point de vue progrès technique ou progrès technologique ou nouveaux usages de l'IA.

  • Speaker #1

    Non mais ça c'est une question pour un épisode spécial normalement, c'est qu'on n'a pas d'idée pour un épisode, on se pose une question comme ça. Non,

  • Speaker #0

    absolument pas. Non, parce que pour moi, on a évoqué les sujets qu'il fallait et moi de mon côté, je me disais, mais c'est vrai que moi je trouverais ça intéressant d'avoir... Nos avis respectifs, à commencer par le tien, sur comment tu vois les choses en 2026, ça sonne un peu comme un entretien bidon, basique. Je ne veux pas t'en donner l'impression, mais c'est intéressant.

  • Speaker #1

    Honnêtement, je ne sais pas. Parce que là, je me suis... J'ai fait un filtre, tu sais, de tout ce qui est grand PDG, PDG de grandes entreprises de l'IA. qui font des prédictions causales presque tous les jours. Oui, à la fin de l'année, on a l'AGI. À la fin 2030, on aura la super intelligence.

  • Speaker #0

    J'ai arrêté, je ne réagis pas à ces trucs-là. Limite, c'est toi en fait. Limite les autres qui me mettent sous le nez. Parce que ça ne sert à rien au final. À chaque fois qu'on nous fait une prédiction. Surtout quand c'est un président de Cyprie. On sait que c'est des effets d'annonce.

  • Speaker #1

    Donc toi, tu n'es pas dans cette optique-là ?

  • Speaker #0

    En 2026, non. En tout cas, comme on voit les choses. Au stade... où ça va très très vite, c'est sûr, mais ça ne va pas aussi vite qu'il y a deux ans. D'accord ? 2026, à mon avis, pour l'instant, on n'est pas envahi par le robot, on n'a pas Skynet, on continue notre vie tranquille. Peut-être, sûrement, on aura des outils, les modèles seront un peu plus intelligents, un peu plus rapides, mais... D'ici 2026, pour moi, il n'y a pas de grosse révolution.

  • Speaker #1

    Pas de grosse rupture, quoi.

  • Speaker #0

    Surtout dans nos métiers, dans la vie du quotidien de tout le monde, ça va. Si tu es créatif, tu pourras t'amuser à créer des vidéos un peu plus longues, un peu plus facilement, mais tu vois, ça ne va pas révolutionner ton quotidien. Ça révolutionne déjà les créatifs, les publicitaires et tout ça, parce qu'au final, aujourd'hui, on a tout ce qu'il faut pour créer des... pubs entièrement générés par l'IA, on en voit arriver parce que tu peux créer des images très réalistes et tu peux les animer et tu peux créer des musiques pour les mettre par dessus. Aujourd'hui les vidéos qu'on peut créer sont très très courtes, c'est de l'ordre de moins de 5 secondes, mais mis de bout à bout, quand tu regardes un film ou même une publicité, il y a très rarement des plans qui durent 5 secondes. Donc au final tu crées un plan, un plan, un plan, un plan, un plan que tu emboîtes et ça fait une séquence. Donc aujourd'hui c'est comme ça que tu as des pubs qui arrivent peut-être de 30 secondes et en fait c'est des enchaînements de petits films de 5 secondes. Pour les créatifs, c'est pas mal. Après pour nous et puis pour le quotidien, début de MW6, en tout cas moi je pense que c'est business as usual.

  • Speaker #1

    Voilà, tu pourrais écrire plus de prompts qu'avant, mais ce ne sera pas révolutionnaire.

  • Speaker #0

    Non, je pense que tu pourras avoir des meilleurs résultats.

  • Speaker #1

    Peut-être qu'on a atteint une vitesse de croisière finalement.

  • Speaker #0

    Pour nous, pour les utilisateurs en tout cas, je ne pense pas qu'on va se considérer comme builder. On ne va pas créer des applications, en tout cas pour l'instant. Pas de gros trucs, ne serait-ce que pour le loisir. Non, voilà. Pour les devs, peut-être, il n'y aura pas non plus de grosses ruptures non plus. Ça va aller plus vite. Mais à part ça, fin 2026, on ne sait pas. Parce que fin 2026, ça nous fait un an et demi.

  • Speaker #1

    Un an et demi, c'est quoi ? Oui, c'est encore un peu loin. On ne peut pas trop se présager quoi que ce soit encore à ce niveau-là. Mais je me dis, vu qu'on est bientôt en été, au moment où on enregistre cette vidéo, ce n'est pas déconnant de se dire à quoi ça peut ressembler d'ici la fin de l'année, voire début d'année prochaine.

  • Speaker #0

    Et à voir si avant l'été, je regarde avant l'été, est-ce que tu as les grosses boîtes qui vont nous sortir un festival de release. Parce qu'au final, on a des grosses releases à la fin de l'année 2024. Alors, avril, fin mars, ça commence à s'activer aussi. Donc, est-ce qu'ils ne nous feront pas un petit festival comme ça avant l'été, pour passer l'été tranquille ? Parce que je me rappelle, l'année dernière, l'été, il n'y avait rien.

  • Speaker #1

    L'année dernière, c'était ça,

  • Speaker #0

    oui. On s'est ennuyé pendant 2-3 mois, il n'y avait rien. C'était bizarre.

  • Speaker #1

    Comment on va enregistrer nos vidéos ?

  • Speaker #0

    C'est ça. On n'a rien à dire, ce n'est pas normal. C'est ça. Et toi alors, sinon ?

  • Speaker #1

    Non, je suis à peu près dans le même positionnement que toi. Je me suis lassé de ces annonces. révolutionnaire de hype etc que j'ai moi même partagé parce que ok c'est toujours hyper excitant sur le coup mais voilà c'est comme une drogue finalement on apprend un peu c'est super une nouvelle release c'est génial tout ce qu'on va pouvoir faire et pouf le lendemain matin on passe à autre chose ou un petit vide qui va durer quelques jours avant de retrouver un concurrent qui lui-même va sortir sa nouvelle release avec des nouvelles capacités etc Ouais, c'est super. Mais, et je ne suis pas le seul à dire ça, il y a une lassitude. Il y a une lassitude de voir toutes ces nouvelles releases...

  • Speaker #0

    arrivé alors ok ça crée une bonne dynamique mais au niveau des réactions je trouve qu'on est beaucoup plus temporisés non on a pris l'habitude et puis à mon avis c'est comme tout ce qui est news en toison c'est ça le social et c'est effet secondaire d'avoir des news en temps réel moment tu satures quel que soit le domaine alors là il se trouve qu'on a beaucoup suivi forcément les news de l'aiti au bout d'un moment Voilà, c'est trop quoi.

  • Speaker #1

    Au bout d'un moment, on se déconnecte et on revient en 2026. Waouh, vous avez vu ?

  • Speaker #2

    On sort de notre grotte.

  • Speaker #0

    D'ailleurs, cet été, il sera commercialisé le premier robot domestique fait par Samsung aux Etats-Unis et en Corée. Il s'appelle Bori. C'est une petite boule. C'est un R2-D2 qui roule.

  • Speaker #1

    Alors moi j'ai Basile Boli, un footballeur international français. Alors je vais mettre, là je suis sur Google, je ne devrais pas, je devrais mettre Perplexity. Alors, les avantages du robot domestique Boli, c'est quoi, c'est un aspirateur ?

  • Speaker #0

    Non, même pas, c'est un petit robot domestique. Alors moi je pense qu'il ne servira à rien, mais il sera là. Officiellement, tu vois, il surveille ta maison. Tu peux lui poser des questions. Il a un projecteur pour qu'il t'affiche des informations, pour te parler. Il peut écrire des trucs par terre ou sur les murs. Il met beaucoup en avant l'aspect santé parce qu'en gros, il peut te regarder, il peut te regarder faire du sport, il peut juger ta posture, ton poids, ta forme et du coup, te proposer des exercices.

  • Speaker #1

    Ta forme ?

  • Speaker #0

    Ta forme ? Alors, en fonction de qui tu parles, c'est forme ou forme, tu vois ? Ou ta forme, voilà, qui sort de... Donc, en fait, je cherche un mot qui commence par méta, mais je ne sais plus c'est quoi, dans le body shape.

  • Speaker #1

    Méta, méta, méta. Non,

  • Speaker #0

    bref.

  • Speaker #1

    Non, mais écoute, il faut voir ce que ça va donner. Pour l'instant, j'ai le sentiment qu'il s'agit plus d'un gadget.

  • Speaker #0

    Mais qui sait ? C'est comme un assistant, en fait. C'est comme tu as dit, petit. Tu vois, il y en a qui prennent des... Il y en a qui, au début, qui ont pris des photos, tu sais, de leur... Regarde ce que j'ai dans mon frigidaire et dis-moi des recettes. Bah, Boli fera aussi pareil, en fait. Regarde, tu le fous. Morphologie. Selon ma morphologie. Selon ma morphologie. Dis-moi quel fer. Regarde-moi le fer pour le dire si je fais bien. regarde mon frigo, regarde ce que je fais à manger pour soutenir justement mon activité. Ils mettent aussi en avant l'aspect styliste, parce que du coup, tu dis, vas-y, viens voir, et regarde ma penderie. Et aussi, regarde la météo du jour, comment est-ce que je m'habille. Voilà, c'est ça. C'est un petit assistant qui a accès à Internet, et une caméra, et voilà. Et c'est... C'est concrètement Tchadjipiti. D'ailleurs, il tournera sûrement sur... Non, je ne sais plus à quoi il tournera. Il me semble qu'il tournera sur un IA qui est fait par Samsung. Mais par contre, qu'il y aura accès aussi à Gemini. Ça, c'est une news qui nous l'ont sortie hier. Il y aura accès aussi à Gemini pour je ne sais pas quoi. Mais bon, voilà. Tant mieux, peut-être. Mais voilà, c'est-à-dire qu'en gros, c'est un Jiminy qui aura accès à une caméra et accès à Internet. Voilà, pour l'instant, c'est pour ça, pour moi, je trouve qu'il ne servira pas à grand-chose, mais il sera là et ça va commencer comme ça.

  • Speaker #1

    Je pense que ça pourra donner des idées à d'autres concurrents qui pourront potentiellement, à partir de là, proposer d'autres cas d'usage plus intéressants. Mais c'est vrai que là, premier coup d'œil... Oui, bon, c'est bien que ce soit commercialisé. Ils ont fait une étude de marché, finalement, donc potentiellement, ça pourrait marcher. On va voir. En tout cas...

  • Speaker #0

    Ou pas, voilà. Peut-être que ça servira juste à ballon de foot pour Optimus.

  • Speaker #1

    C'est ça. Oui, non, mais écoute, il faut voir ce que ça va donner. Moi, de mon côté, c'est vrai que je ne suis pas encore spécialement convaincu, mais à un moment donné, on trouvera bien un concurrent qui trouvera le cas d'usage super intéressant. super convaincant qui nous fera sauter sur le nouveau produit. En tout cas, je ne savais pas. Merci pour cette info. On est bien disruptifs.

  • Speaker #0

    Reviens de ta... Voilà. Ça se trouve, on aurait une news à parler pour l'été. on disait que tu seras calme et bien oui car forcément tu me verras comme ça va chez lui tant que riz comme du coup forcément tu me verras avec la petite balle et regarde un unboxing en direct voilà serait pas mal bon bah par contre cotiser un petit peu parce que franchement moi je vais pas l'acheter à tout seul c'est quoi le je ne sais pas du tout mais mettez ce que vous mettez mettez un max au cas où

  • Speaker #1

    En plus, avec les nouvelles politiques tarifaires en vigueur, il faut bien économiser.

  • Speaker #0

    Ah, j'avoue. Je ne sais pas. Il va être fabriqué en Chine, c'est sûr.

  • Speaker #1

    Ce serait judicieux, en tout cas. Merci beaucoup, Sébastien. Merci à tous. On arrive à la fin de l'émission. Et puis, comme toujours, c'est un plaisir. Et on se dit à très bientôt pour le prochain épisode. Merci, Seb. Merci tous. Bye.

Chapters

  • Intro & rappel des critiques envers Google

    00:00

  • Pourquoi Gemini 2.5 Pro change la donne

    01:40

  • Contexte 2 M tokens, Vertex AI & Workspace

    05:45

  • Gemini dans Maps et Android Studio

    08:59

  • MCP : la “norme USB” des agents IA

    14:26

  • Défis adoption & sécurité en entreprise

    20:08

  • Microsoft, Copilot et la course aux intégrations

    24:56

  • Samsung Ballie : premier robot domestique IA

    35:37

  • Conclusions & teasing des prochains sujets

    39:42

Description

« Gemini 2.5 Pro devient vraiment un outil… supérieur à ChatGPT sur certains points », s’enthousiasme Aziz. Dans cet épisode, Sébastien et Aziz reviennent sur la claque que Google inflige aux sceptiques : contexte de deux millions de tokens, intégration directe à Workspace, Maps et Vertex AI, et performances qui bousculent OpenAI et Anthropic. Ils enchaînent avec MCP, le protocole qui relie désormais Claude, n8n et d’autres agents sans une ligne de code. Au programme : ce que ces avancées signifient pour les projets Salesforce, pourquoi la hype permanente fatigue tout le monde, et comment rester pertinent sans se brûler.


Ressources:


Suivez-nous sur LinkedIn :


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour à tous.

  • Speaker #1

    Bonjour Aziz, bonjour.

  • Speaker #0

    Bonjour Sébastien.

  • Speaker #1

    Auditrice. Oui,

  • Speaker #0

    on commence toujours les émissions en rigolant, on se demande ce qu'on se dit avant, et ça, ça restera secret.

  • Speaker #1

    La seule façon de le savoir, c'est que vous passiez en tant qu'invité.

  • Speaker #0

    Voilà, exactement. On pourra vous le dire, ou pas. Ça dépend des sujets plus ou moins sensibles qu'on aborde avec Sébastien. En tout cas, merci de nous retrouver pour cette nouvelle émission d'Applicate. Et on ne va pas parler, on va toujours parler IA. Le plus souvent, on en parle. Parfois, c'est très focus sur Salesforce. Parfois, très focus sur Sam Altman ou OpenAI, etc. On a beaucoup critiqué Google au cours de nos émissions. Vraiment. On les accusait d'avoir un certain retard, que leurs outils au singulier d'IA générative étaient un peu... dépassé ou en tout cas bien en dessous des capacités de Cloud,

  • Speaker #1

    d'Anthropic ou de ChatGPT d'OpenAI mais au jour où tu es et surtout ils ont fait des démos fake aussi,

  • Speaker #0

    il ne faut pas oublier oh les fameuses démos fake tu fais bien de le rappeler c'était des démos toutes préparées, toutes scénarisées qui n'avaient rien de réellement naturel ou ... Oui, tout simplement. C'était totalement... C'est normal de préparer une démo, mais de la préparer, limite, comme si on enregistrait une vidéo qu'on diffusait auprès de son public et de simuler une intervention en direct, là, c'était grossier. Mais, et heureusement, le futur... En tout cas, les avancées de Google nous ont fait... A mentir, je dirais, mais on s'est un peu calmé. Je me suis un peu calmé sur mes critiques assez régulières de Google parce qu'il y a eu des avancées, je trouve, assez spectaculaires chez Google en intelligence artificielle. L'idée, c'est de faire un focus parce que j'ai testé Gemini 2.5 Pro depuis quelques jours. Et c'est le modèle, les standards de l'industrie IA. Pourquoi ? Parce que c'est une IA capable de raisonner, vous ne me direz rien de singulier par rapport à la concurrence, mais c'est une IA qui est également capable de traiter des dizaines de milliers de pages de texte en quelques secondes. Quand vous intégrez des pièces jointes, PDF, Word, vraiment c'est en grande quantité. Contrairement aux concurrents, en tout cas quand je dis les concurrents, je vais souvent citer... Cloud ou ChatGPT qui sont assez limités en termes de pièces jointes à intégrer. Et aussi, la force de Gemini 2.0, qui est issue de Google, c'est qu'il s'intègre progressivement aux outils de l'écosystème Google. Pas tous actuellement, mais certains. Ils ont déjà commencé dans certains. Je vais en parler d'ailleurs, notamment avec Gmail. Et la promesse de Gemini 2.5, 2.5 Pro, je vais dire 2.5 sinon ça fait trop long, C'est d'associer une stratégie globale qui va positionner Google comme un leader finalement face à ses concurrents. Alors que dans le passé, très récemment, Google occupait vraiment la place du fond du bus. Contrairement à OpenAI et Cloud, voire même Google. Pas forcément le fond du bus,

  • Speaker #1

    mais bon, le fond du bus pour l'instant c'est un peu. Un peu quand même.

  • Speaker #0

    Oui, oui, c'est vrai. Apple n'est même pas dans le bus.

  • Speaker #1

    Oui, voilà, Apple n'est même pas dans le bus. Bon, au moins, Google, il y a une petite place, tu vois.

  • Speaker #0

    Voilà, c'est ça. Ils sont en train de changer. Clairement, en tout cas, moi, c'est ce que j'ai ressenti en lisant les derniers commentaires ou les dernières réactions sur X, X Twitter. Donc, vraiment, il y a des gros gourous ou vraiment des chaînes très sérieuses et très rigoureuses qui suivent l'actualité. Et il y a... Gemini 2.5 Pro devient vraiment un outil qui par les témoignages des professionnels ou des addicts de ces outils-là, devient en termes de capacité, de pertinence de résultat, supérieur à ChatGPT en certains points, quand je dis ChatGPT c'est la dernière version, et supérieur à Cloud dans d'autres points. En l'occurrence, pour certains critères, Gemini 2.5, se maintient au-dessus de ses concurrents tels que ChatGPT ou Cloud. Pour d'autres critères, ils restent en-dessous, notamment par rapport au code. Pour le code, apparemment, Cloud 3.7 d'Anthropic reste au-dessus du lot. Ils sont vraiment en première position en termes de capacité, de pertinence de résultat et d'exactitude aussi de résultat. Et ce que je voulais dire d'autre, c'est que pour en revenir à Gemini 2.5, Donc l'idée, c'est ce qui est mis en avant officiellement par Gemini 2.5. Je n'ai pas encore concrètement su ce que ça voulait dire, mais ils indiquent qu'ils ont une capacité à gérer, j'avais lu, 2 millions de tokens qui lui permettent d'analyser des documents techniques, on va dire dans leur entièreté, des bases de code, même des transcriptions vidéo.

  • Speaker #1

    Les tokens, c'est ce que tu disais au début, c'est la capacité à comprendre, à... comprendre, à mémoriser le contexte. Les documents. Les documents, en fait, même les promptes.

  • Speaker #0

    La mémoire,

  • Speaker #1

    entre guillemets.

  • Speaker #0

    De mémoire, c'est plus que les limites d'OpenAI avec son dernier modèle. Faudra que je vérifie ça. Pour le coup, je n'ai pas le chiffre exact. Mais oui, effectivement, c'est beaucoup plus. D'un autre côté, pour les développeurs, Gemini 2.5 reste intéressant. parce qu'il s'intègre à ce qu'on appelle Vertex AI, qui est un autre outil Google, dont j'ai appris l'existence récemment. Et Vertex AI, c'est la plateforme cloud de Google. Et l'idée, c'est que ce Gemini 2.5 intégré à Vertex AI va offrir une personnalisation des coûts et de la vitesse de traitement. Et par exemple, s'il y a un besoin d'une réponse ultra rapide pour un chatbot client, par exemple, laisse-moi restructurer ma pensée avec Vertex AI les développeurs derrière, ils peuvent gérer le développement d'applications assez rapidement mais aussi en ayant des résultats et des correctifs pertinents provenant de Vertex AI par l'intermédiaire de Gemini 2.5 qui est intégré dedans et donc ça c'est un des outils parmi tant d'autres mais en l'occurrence, c'est ce que j'avais vu d'autre, j'avais vu que on va dire, pour en rester sur l'intégration dans l'écosystème Google, Gemini, ce que je ne savais pas jusqu'à maintenant, est intégré à Google Workspace. Pour offrir notamment des résumés d'email dans Gmail, ou des suggestions de documents qui sont intégrés dans le Drive, des analyses dans les Headsheets, et j'avais vu aussi qu'il est intégré à Google Search. Après, je ne sais pas dans quel use case je pourrais mettre en avant, mais en tout cas, c'est le cas officiellement. Gemini est intégré à Google Search. Et je pense que si on prend du recul, on pourrait très bien imaginer des cas d'usage qui seraient intéressants pour ceux qui utilisent Google Search, ce qui n'est pas mon cas, mais c'est toujours intéressant à savoir. Et enfin, il est intégré, toujours Gemini, à Android Studio. Donc ça, c'est aussi... principalement dédié aux développeurs, comme c'était le cas de Vertex AI, pour la génération ou le débogage de code. Et enfin, dernier point, il est aussi intégré, et ça j'en avais parlé sur LinkedIn quelques jours avant, à Google Maps via la fonctionnalité Geospatial Reasoning. Donc l'idée c'est de combiner Gemini avec des données géospatiales pour répondre à des questions sur... sur la localisation, sur l'urbanisme, en cas, par exemple, de catastrophe naturelle, essentiellement, ça permet à n'importe lequel d'entre nous de voir quelles sont les zones sinistrées, quelles zones à éviter, quelles zones on peut circuler, mais vraiment en direct. Ce n'est pas simplement comme...

  • Speaker #1

    En map ? Oui,

  • Speaker #0

    c'est live. Ah, oui, oui, oui, pardon, oui, c'est live. Dans ce sens-là, oui, c'est live. Je ne sais pas s'il est déployé à l'échelle internationale. Je pense que certains de ces causes aux Etats-Unis, c'est le cas. Il y a beaucoup de... particuliers sur Twitter, en tout cas basés en Amérique du Nord, qui ont testé cette fonctionnalité-là. Et c'est assez bluffant. Par contre, il n'y a aucune trace qui indique que c'est déployé partout dans d'autres zones géographiques comme en Europe ou en Asie. Pour le moment, je n'ai pas cette information-là, mais en tout cas, ça laisse présager que Gemini 2.5 serait déployé sur l'ensemble finalement des outils de l'écosystème Google et quand bien même on aimerait pouvoir faire des choses plus rapidement sur Gmail ou je sais pas moi sur Google Maps Il y a des tas de cas d'usage finalement qu'on aimerait mettre en place grâce à l'intelligence artificielle et peut-être que Gemini 2.5 sera la réponse et le moyen de répondre à nos aspirations sur Google. La force de Google, c'est vraiment de maintenir, d'avoir vraiment pénétré le marché et surtout faire en sorte que ses utilisateurs soient fidèles depuis quasiment 15 ans, voire 20 ans. Depuis notre utilisation du moteur de recherche Google jusqu'à la gestion de notre compte Gmail, chacun d'entre nous utilise au moins un outil de l'univers Google. Et je pense que Google a cette force que n'a pas OpenAI, que n'a pas Anthropic ou tous les autres concurrents. C'est qu'avec leur outil Gemini, ils peuvent clairement booster chacun de leurs outils de l'écosystème Google. et dans le même temps améliorer concrètement nos usages et notre expérience finalement avec l'écosystème Google, mais vraiment l'améliorer considérablement. Maintenant, reste à voir quels seront les usages que Google pourra nous permettre d'effectuer, les nouveaux usages que Google pourra nous rendre possibles via Gmail, via Google Maps, via Drive. via Google Search, même si je ne suis pas un aficionado de Google Search. Mais voilà, ils ont un pléthore d'outils. Seulement deux ou trois d'entre eux sont utilisés régulièrement par les utilisateurs.

  • Speaker #1

    Oui, effectivement, Google a commencé à taper fort fin 2024 pour fêter la fin de l'année dignement. Ils ont sorti moult améliorations, moult nouveaux produits qui ont bousculé pas mal de choses. et qui reprennent depuis quelques jours une deuxième tournée. Ils sont plaisirs, ils lancent beaucoup de choses, notamment leur Gemini 2.5 Pro qui est à nouveau... En soi, ça ne change pas l'écosystème qu'ils essayaient de créer. Parce que oui, ils avaient déjà commencé à intégrer Gemini, sans parler de 2.5 Pro, mais vraiment Gemini, je pense que c'est un nom fourre-tout. Et ça amène pas mal de confusion parmi nous tous, parce qu'en fait, Gemini, comme eux l'entendent, c'est un peu un truc fourre-tout. Fourre-tout, c'est un peu l'assistant de Google.

  • Speaker #0

    L'assistant pour tout, oui.

  • Speaker #1

    L'assistant, oui. Par exemple, Apple en série, l'autre en Alexa, et eux, ils vont voir Gemini. Et donc, tu peux avoir Gemini dans Gmail, dans Google Search. En fait, tu l'as déjà vu, Gemini dans Google Search. C'est juste, tu apportes la requête dans Google Search et après, tu as un petit résumé juste en bas. C'est Gemini, c'est tout. Ça ne va pas chercher bien loin. Et donc, là, ils ont un modèle, Gemini 2.5 Pro. Et donc, c'est vraiment le cerveau, en fait, qui est derrière Gemini. C'est un peu tout comme ils ont Gemini Flash, par exemple, qui est un autre modèle.

  • Speaker #0

    C'est ça, oui. En fait, je n'ai pas fait le tour de tous les modèles, mais c'est vrai qu'ils commencent à en avoir pas mal. Et ils commencent aussi à être très communicants et très agressifs au niveau de la communication, un peu au même titre que Sam Altman ne le fait pour OpenAI. D'ailleurs, la différence, c'est que... OpenAI ne communique que grâce à la figure de Sam Altman, son PDG, donc c'est vraiment Sam Altman qui communique régulièrement sur les avancées, là où Google va utiliser des comptes officiels, Google AI ou Google DeepMind ou Gemini.

  • Speaker #1

    Même le CEO de Google qui est très actif sur le CX.

  • Speaker #0

    Pas autant que Sam Altman. Pas autant, je trouve. En tout cas,

  • Speaker #1

    c'est différent. C'est différent. parce qu'Allemagne, j'ai pas l'impression que c'est plutôt high level. Je sais pas pourquoi, mais je le crois pas quand ils parlent, en fait, et même quand ils tweetent. Alors que l'autre, le CEO de Google est plus actif sur la communauté. Il pose pas mal de questions, il réagit à l'actu, non pas juste l'actu que Google produit, mais l'actu de l'IA en général. Par exemple, sur les fameux MCP, qui est la hype du moment. Lui, il... il communique dessus, il demande l'avis aux gens. Après, est-ce que c'est juste pour créer de l'engagement ou pas ? Mais en tout cas,

  • Speaker #0

    il parle de ce... Il y a deux types de communication différentes. Celui qui fait le plus de bruit, c'est Sam Altman. Parce qu'il va mettre beaucoup de hype et puis d'un seul coup ça va se calmer, puis il va revenir dessus, une nouvelle version, des noms de versions qui sont incompréhensibles chez OpenAI je trouve, 3.0, 4.0, 4.5.0, 4.2.0, enfin voilà quoi. C'est un peu fourre-tout je trouve. Mais tu parlais de MCP juste avant, c'est une très bonne transition. Est-ce que tu pourrais nous expliquer ce dont il s'agit ?

  • Speaker #1

    C'est pas du tout par Google du coup. Oui,

  • Speaker #0

    on pourra revenir sur Google après, mais MCP, apparemment, c'est un sujet transverse.

  • Speaker #1

    Oui, donc parenthèse MCP, ce qu'on peut voir, c'est, on va dire, pour vulgariser, c'est une sorte de protocole de communication entre agents IA. Donc typiquement, aujourd'hui, c'est un des moyens, c'est une norme qui est en train de se créer, qui va permettre, par exemple, de connecter différents produits. différents produits entre eux, sans forcément avoir besoin d'API. Et surtout, si l'API, on va essayer d'y rester plus et plus, sans jargon ni rien. Mettons, un MCP, c'est un protocole de communication standardisé. Donc, par exemple, comme le monde s'est mis d'accord sur la norme USB, je peux connecter mon micro à mon ordinateur via USB. USB, c'est le protocole qui va nous permettre de brancher. deux outils. Et là, ce qui est en train de se lancer, c'est le MCP. Donc le MCP qui a un protocole aussi qui va permettre de brancher deux outils IA l'un à l'autre. Par exemple, Cloud, en tropique, a utilisé le protocole MCP. Donc c'est-à-dire que potentiellement tous les autres outils qui se sont aussi normalisés MCP vont pouvoir se connecter à Cloud. Par exemple, on reprend un des outils qu'on a parlé il y a quelques semaines, donc N8n, qui permet de créer des automatisations avec de l'IA depuis peu. Eux aussi, il y a quelques jours, ont lancé nativement leur outil MCP. C'est-à-dire qu'en fait, maintenant, nativement, avant on pouvait le faire via des moyens détournés, mais maintenant, nativement, tu peux faire communiquer Cloud. Avec N8N. Donc concrètement, les agents IA que j'avais créés aujourd'hui sur la plateforme N8N qui ont accès à mon agenda, à mes emails, je peux l'appeler via Claude. Je suis en train de travailler sur Claude. Claude peut taper N8N qui va taper mes emails.

  • Speaker #0

    Donc en fait, tu peux envoyer tes instructions à N8N à partir de Claude.

  • Speaker #1

    C'est ça.

  • Speaker #0

    D'accord. Et ça a déjà été testé ?

  • Speaker #1

    Et sans code. Ah bah oui, ça existe, c'est live.

  • Speaker #0

    Oui, incroyable. Faudrait une nouvelle vidéo N8N avec Claude cette fois-ci.

  • Speaker #1

    Ouais, mais sauf que je n'ai plus mon abonnement Claude.

  • Speaker #0

    On utilisera le mien alors, même si il va bientôt arriver à échéance.

  • Speaker #1

    Il va bientôt sauter. Bah ouais, parce que ce qui est fou, c'est que c'est sans code. Tu n'as pas besoin de... Je n'ai rien codé pour ça. Parce qu'en gros, le modèle MCQ fait que grâce à... on va sauter tous les trucs techniques, c'est qu'en fait, le modèle MCP peut lui-même, c'est comme si il avait accès à la documentation des API, donc de toutes les fonctions qu'un outil a. Ça veut dire qu'avant, ça veut dire qu'avant, sans... Enfin, avant. Hier ! Sans protocole standardisé, quand tu crées ton API, donc quand tu dois manuellement créer un appel... d'un software à un autre, tu regardes la documentation du software que tu vas appeler, tu regardes ce qu'il attend, lui, comment il fonctionne, et tu lui envoies les bonnes instructions pour qu'il te renvoie les résultats que tu souhaites. Sauf que maintenant, tu n'as plus besoin de ça si tu passes par le MCP, parce qu'on va dire que le MCP connaît la documentation du software que tu appelles, donc tu as... Tu n'as même pas besoin de le configurer. Tu vas juste dire, envoie-moi l'adresse, envoie l'email. Et non, en fait, tu n'as pas besoin de trucs techniques parce que le modèle va comprendre. Il veut envoyer un email, donc je vais aller chercher techniquement à quoi ça correspond et je vais faire les bonnes instructions.

  • Speaker #0

    Mais il faut que tu mettes quand même en place le flow plus ou moins complexe. nécessaire sur N8.

  • Speaker #1

    Il faut que tu mettes le flow, mais du coup, qu'il se décomplie. Alors aujourd'hui, je trouve que dans N8n, on a une version un peu de ce qu'il pourrait faire avec les MCP, c'est à dire qu'ils sont un peu limités pour l'instant. Donc il reste un peu plus ou moins complexe, mais vraiment c'est accessible. Je suis sûr, enfin demain, quelques jours, semaines, je suis quasiment sûr qu'ils vont faire une mise à jour qui va nous permettre de créer un flow en limite en une étape et que l'IA et que l'MCP se démerdent en fait. C'est quasiment certain. Quasiment certain, ça ne veut rien dire, non ? Parce qu'en gros, c'est quasiment certain.

  • Speaker #0

    Oui, non, mais c'est certain. On peut dire que c'est certain.

  • Speaker #1

    Voilà. Ouais, il faudrait qu'on se fasse une petite démo. Je pense qu'on aura cette version-là de MCP dans N8N. Je vais créer un flow en live. Ça va prendre cinq minutes, je pense, et on va s'amuser.

  • Speaker #0

    Clairement, ça peut être super intéressant. Et ça laisse présager finalement, on a l'impression que, comme je te le disais juste avant, le fait de pouvoir connecter... en tout cas de lier des systèmes IA à d'autres systèmes IA ou de génération d'automatisation, etc., ça posera nécessairement des problèmes de confiance et de sécurité. Quand bien même j'imagine que d'un côté les équipes de cloud, de l'autre côté les équipes de N8N font de leur mieux pour assurer des fonctionnalités. déployer une mise à jour qui soit vraiment safe pour l'utilisateur final, pour l'entreprise ou pour le particulier. Mais il va falloir mener, je pense, une politique d'adoption assez poussée pour que les utilisateurs puissent... pour qu'à l'avenir ces fonctionnalités-là dont tu parles et ce MCP dont tu parles se démocratisent assez rapidement et qu'ils ne soient pas réservés qu'à un certain profil d'utilisateur. Oui,

  • Speaker #1

    après, à mon avis, c'est comme une norme. C'est le monde, c'est le marché qui va décider. Je ne l'apprends pas. C'est comme... À une époque, on avait une bataille entre deux normes. Tu te rappelles pour le HD ou le Full HD, je ne me rappelle plus. On était un peu jeunes. On était un peu jeunes.

  • Speaker #0

    C'est le Blu-ray et le HD ? Ça n'a rien à voir.

  • Speaker #1

    Il y avait vraiment deux trucs. Il y avait deux façons de faire de l'HD. sur les télés et au final je ne sais même plus l'autre nom de technologie forcément qui a perdu contre cette norme full HD qu'on a aujourd'hui et tous les matos ça a dû être mis à la poubelle parce que moi ça me fait penser au lecteur Blu-ray petite

  • Speaker #0

    parenthèse qui a fait son temps quelques années et qui a disparu ouais bah si c'était pas court c'était pas court non plus quand même je ne vais pas vérifier sur Google on n'en a pas eu plus Mais à aucun moment, j'ai bifurqué sur le Blu-ray pour voir à quoi ça ressemblait. Même si les promesses de qualité visuelle étaient souvent mises en avant. Comme tu dis, c'est la loi du marché. Mais voilà, c'est ça. En tout cas, ça laisse présager pas mal de possibilités. Encore une fois, en termes d'adoption et de sécurisation, il y aura beaucoup de questions qui se poseront. Ne serait-ce que pour l'adoption d'outils IA, on n'en est qu'au premier pas, vraiment c'est des pas de bébé. À l'échelle des entreprises, beaucoup sentent la pression de l'IA, beaucoup veulent s'y mettre sans avoir tous les éléments, beaucoup se cassent un peu les dents parce qu'ils n'ont pas fait un état des lieux propre. Je pense que tant que cet état des lieux en termes de données, en termes d'infrastructures n'a pas été fait par les entreprises, L'adoption de l'IA et l'adoption des nouvelles fonctionnalités qui émergent sur la base de l'IA, comme ce MCD, prendront du temps, en tout cas en France, en tout cas en Europe, pas simplement pour des raisons législatives, pas simplement pour des raisons juridiques, mais pour des raisons de... Généralement, on a toujours eu cette latence en termes d'adoption pour des raisons sécuritaires. pour des raisons légitimes, mais en tout cas qui font pas mal retarder l'adoption. Je pense que cette fonctionnalité-là dont tu nous parles, qui permet d'intégrer des systèmes à d'autres systèmes IA, sera beaucoup plus adoptée, beaucoup plus rapidement dans des pays comme aux États-Unis ou en Chine qu'en Europe.

  • Speaker #1

    Ou pas, parce qu'en gros, c'est une norme. Donc après, n'importe quelle entreprise, n'importe quel pays peut créer sa propre norme. Oui. Donc au final, ça se trouve, ils vont utiliser un autre truc en Chine. En Europe, ils vont se poser sur un autre truc. On ne sait pas. Même Google, Google aussi essaie de... Je crois que c'est peut-être aujourd'hui d'ailleurs, ils ont lancé un protocole qui s'appelle Agent to Agent, qui permet aux agents de communiquer entre eux. Alors ça s'est tombé, je me sens que c'était vraiment aujourd'hui, il y a quelques heures, donc on ne va pas forcément creuser encore. OpenAI aussi peut peut-être lancer son propre truc aussi. OpenAgent, on ne sait pas. OpenAgent qui va permettre aux agents d'open AI, de dialoguer entre eux. Nous verrons. En tout cas, l'idée d'avoir une norme, ça va accélérer pas mal de développement. Tous ceux qui s'amusent ou en tout cas qui créent des sas le week-end, ça va accélérer encore plus les choses.

  • Speaker #0

    C'est ça. Très brièvement, parce que c'est vraiment un sujet que je voulais mettre sur la table. Ça va être très rapide, on revient un petit peu sur les premiers sujets avec Gemini 2.5. Mais en fait, j'aime bien faire des comparaisons pour mieux me rendre compte des avancées et des développements de chaque entité. Donc avec Gemini 2.5, Google a l'opportunité vraiment de booster ses outils. Gmail, Drive, dont on parlait, etc. Et c'est dommage, j'ai l'impression, pour OpenAI et Microsoft d'avoir manqué ce coche. Ils n'ont pas manqué, mais on va dire qu'ils avancent moins rapidement dessus. C'est que Microsoft pouvait très bien exploiter OpenAI pour optimiser l'utilisation de son écosystème. Donc Office ou d'autres outils liés à Microsoft. Et j'ai l'impression qu'ils sont moins avancés sur ce point-là, à côté Microsoft.

  • Speaker #1

    Oui, mais apparemment, ça arrive. Au début, ils ont essayé quand même. Mais il était les versions copilotes embarquées de copilotes qui n'étaient pas forcément utiles, qui n'étaient pas forcément pertinentes. Toutes les features qu'on nous a promis, peut-être il y a deux ans, arrivent seulement maintenant, progressivement, dans les copilotes. On traduit, par exemple, une là, j'ai vu il y a quelques jours, une là qui se sent vraiment... émerveillé du fait que maintenant Copilot peut traduire un PowerPoint entier. Donc voilà, tu es en train de travailler sur une presse, tac, tu dis, vas-y traduis-moi tout ça, hop, ta presse se duplique en langage que tu veux. Bon, ça arrive, et aussi ils se sont pris quelques tollés aussi par rapport au fait une fonction qui était censée aussi enregistrer tout ce que tu fais sur ton ordinateur. et que du coup tu peux requêter ton ordinateur pour rechercher de l'information. Tiens, j'ai vu un truc, un produit que je cherche en cadeau, que je veux acheter, c'était quoi ? Et tac, il se souvient parce qu'il enregistre tout ce que tu fais. Et donc ça fait un tollé parce que c'est pas très réglementaire ce truc-là.

  • Speaker #0

    C'est vrai.

  • Speaker #1

    Pour formuler des datas et tout. Donc voilà, il y a des choses à cadrer aussi. Mais ça arrive, je pense que ça arrivera bientôt. Ils font ça dans le feutré au fur et à mesure, mais ça reste très professionnel, Microsoft encore, de toute façon.

  • Speaker #0

    J'avais d'autres choses à dire, pas pour meubler évidemment, mais j'y pensais pendant que tu en parlais. C'est une question pour toi Sébastien, parce que moi à chaque fois que je me pose la question, je n'arrive pas à trouver de réponse, tellement je suis surpris à longueur de semaines et de nouvelles qui arrivent. Comment tu imagines les choses ? Allez, admettons début 2026, d'un point de vue progrès technique ou progrès technologique ou nouveaux usages de l'IA.

  • Speaker #1

    Non mais ça c'est une question pour un épisode spécial normalement, c'est qu'on n'a pas d'idée pour un épisode, on se pose une question comme ça. Non,

  • Speaker #0

    absolument pas. Non, parce que pour moi, on a évoqué les sujets qu'il fallait et moi de mon côté, je me disais, mais c'est vrai que moi je trouverais ça intéressant d'avoir... Nos avis respectifs, à commencer par le tien, sur comment tu vois les choses en 2026, ça sonne un peu comme un entretien bidon, basique. Je ne veux pas t'en donner l'impression, mais c'est intéressant.

  • Speaker #1

    Honnêtement, je ne sais pas. Parce que là, je me suis... J'ai fait un filtre, tu sais, de tout ce qui est grand PDG, PDG de grandes entreprises de l'IA. qui font des prédictions causales presque tous les jours. Oui, à la fin de l'année, on a l'AGI. À la fin 2030, on aura la super intelligence.

  • Speaker #0

    J'ai arrêté, je ne réagis pas à ces trucs-là. Limite, c'est toi en fait. Limite les autres qui me mettent sous le nez. Parce que ça ne sert à rien au final. À chaque fois qu'on nous fait une prédiction. Surtout quand c'est un président de Cyprie. On sait que c'est des effets d'annonce.

  • Speaker #1

    Donc toi, tu n'es pas dans cette optique-là ?

  • Speaker #0

    En 2026, non. En tout cas, comme on voit les choses. Au stade... où ça va très très vite, c'est sûr, mais ça ne va pas aussi vite qu'il y a deux ans. D'accord ? 2026, à mon avis, pour l'instant, on n'est pas envahi par le robot, on n'a pas Skynet, on continue notre vie tranquille. Peut-être, sûrement, on aura des outils, les modèles seront un peu plus intelligents, un peu plus rapides, mais... D'ici 2026, pour moi, il n'y a pas de grosse révolution.

  • Speaker #1

    Pas de grosse rupture, quoi.

  • Speaker #0

    Surtout dans nos métiers, dans la vie du quotidien de tout le monde, ça va. Si tu es créatif, tu pourras t'amuser à créer des vidéos un peu plus longues, un peu plus facilement, mais tu vois, ça ne va pas révolutionner ton quotidien. Ça révolutionne déjà les créatifs, les publicitaires et tout ça, parce qu'au final, aujourd'hui, on a tout ce qu'il faut pour créer des... pubs entièrement générés par l'IA, on en voit arriver parce que tu peux créer des images très réalistes et tu peux les animer et tu peux créer des musiques pour les mettre par dessus. Aujourd'hui les vidéos qu'on peut créer sont très très courtes, c'est de l'ordre de moins de 5 secondes, mais mis de bout à bout, quand tu regardes un film ou même une publicité, il y a très rarement des plans qui durent 5 secondes. Donc au final tu crées un plan, un plan, un plan, un plan, un plan que tu emboîtes et ça fait une séquence. Donc aujourd'hui c'est comme ça que tu as des pubs qui arrivent peut-être de 30 secondes et en fait c'est des enchaînements de petits films de 5 secondes. Pour les créatifs, c'est pas mal. Après pour nous et puis pour le quotidien, début de MW6, en tout cas moi je pense que c'est business as usual.

  • Speaker #1

    Voilà, tu pourrais écrire plus de prompts qu'avant, mais ce ne sera pas révolutionnaire.

  • Speaker #0

    Non, je pense que tu pourras avoir des meilleurs résultats.

  • Speaker #1

    Peut-être qu'on a atteint une vitesse de croisière finalement.

  • Speaker #0

    Pour nous, pour les utilisateurs en tout cas, je ne pense pas qu'on va se considérer comme builder. On ne va pas créer des applications, en tout cas pour l'instant. Pas de gros trucs, ne serait-ce que pour le loisir. Non, voilà. Pour les devs, peut-être, il n'y aura pas non plus de grosses ruptures non plus. Ça va aller plus vite. Mais à part ça, fin 2026, on ne sait pas. Parce que fin 2026, ça nous fait un an et demi.

  • Speaker #1

    Un an et demi, c'est quoi ? Oui, c'est encore un peu loin. On ne peut pas trop se présager quoi que ce soit encore à ce niveau-là. Mais je me dis, vu qu'on est bientôt en été, au moment où on enregistre cette vidéo, ce n'est pas déconnant de se dire à quoi ça peut ressembler d'ici la fin de l'année, voire début d'année prochaine.

  • Speaker #0

    Et à voir si avant l'été, je regarde avant l'été, est-ce que tu as les grosses boîtes qui vont nous sortir un festival de release. Parce qu'au final, on a des grosses releases à la fin de l'année 2024. Alors, avril, fin mars, ça commence à s'activer aussi. Donc, est-ce qu'ils ne nous feront pas un petit festival comme ça avant l'été, pour passer l'été tranquille ? Parce que je me rappelle, l'année dernière, l'été, il n'y avait rien.

  • Speaker #1

    L'année dernière, c'était ça,

  • Speaker #0

    oui. On s'est ennuyé pendant 2-3 mois, il n'y avait rien. C'était bizarre.

  • Speaker #1

    Comment on va enregistrer nos vidéos ?

  • Speaker #0

    C'est ça. On n'a rien à dire, ce n'est pas normal. C'est ça. Et toi alors, sinon ?

  • Speaker #1

    Non, je suis à peu près dans le même positionnement que toi. Je me suis lassé de ces annonces. révolutionnaire de hype etc que j'ai moi même partagé parce que ok c'est toujours hyper excitant sur le coup mais voilà c'est comme une drogue finalement on apprend un peu c'est super une nouvelle release c'est génial tout ce qu'on va pouvoir faire et pouf le lendemain matin on passe à autre chose ou un petit vide qui va durer quelques jours avant de retrouver un concurrent qui lui-même va sortir sa nouvelle release avec des nouvelles capacités etc Ouais, c'est super. Mais, et je ne suis pas le seul à dire ça, il y a une lassitude. Il y a une lassitude de voir toutes ces nouvelles releases...

  • Speaker #0

    arrivé alors ok ça crée une bonne dynamique mais au niveau des réactions je trouve qu'on est beaucoup plus temporisés non on a pris l'habitude et puis à mon avis c'est comme tout ce qui est news en toison c'est ça le social et c'est effet secondaire d'avoir des news en temps réel moment tu satures quel que soit le domaine alors là il se trouve qu'on a beaucoup suivi forcément les news de l'aiti au bout d'un moment Voilà, c'est trop quoi.

  • Speaker #1

    Au bout d'un moment, on se déconnecte et on revient en 2026. Waouh, vous avez vu ?

  • Speaker #2

    On sort de notre grotte.

  • Speaker #0

    D'ailleurs, cet été, il sera commercialisé le premier robot domestique fait par Samsung aux Etats-Unis et en Corée. Il s'appelle Bori. C'est une petite boule. C'est un R2-D2 qui roule.

  • Speaker #1

    Alors moi j'ai Basile Boli, un footballeur international français. Alors je vais mettre, là je suis sur Google, je ne devrais pas, je devrais mettre Perplexity. Alors, les avantages du robot domestique Boli, c'est quoi, c'est un aspirateur ?

  • Speaker #0

    Non, même pas, c'est un petit robot domestique. Alors moi je pense qu'il ne servira à rien, mais il sera là. Officiellement, tu vois, il surveille ta maison. Tu peux lui poser des questions. Il a un projecteur pour qu'il t'affiche des informations, pour te parler. Il peut écrire des trucs par terre ou sur les murs. Il met beaucoup en avant l'aspect santé parce qu'en gros, il peut te regarder, il peut te regarder faire du sport, il peut juger ta posture, ton poids, ta forme et du coup, te proposer des exercices.

  • Speaker #1

    Ta forme ?

  • Speaker #0

    Ta forme ? Alors, en fonction de qui tu parles, c'est forme ou forme, tu vois ? Ou ta forme, voilà, qui sort de... Donc, en fait, je cherche un mot qui commence par méta, mais je ne sais plus c'est quoi, dans le body shape.

  • Speaker #1

    Méta, méta, méta. Non,

  • Speaker #0

    bref.

  • Speaker #1

    Non, mais écoute, il faut voir ce que ça va donner. Pour l'instant, j'ai le sentiment qu'il s'agit plus d'un gadget.

  • Speaker #0

    Mais qui sait ? C'est comme un assistant, en fait. C'est comme tu as dit, petit. Tu vois, il y en a qui prennent des... Il y en a qui, au début, qui ont pris des photos, tu sais, de leur... Regarde ce que j'ai dans mon frigidaire et dis-moi des recettes. Bah, Boli fera aussi pareil, en fait. Regarde, tu le fous. Morphologie. Selon ma morphologie. Selon ma morphologie. Dis-moi quel fer. Regarde-moi le fer pour le dire si je fais bien. regarde mon frigo, regarde ce que je fais à manger pour soutenir justement mon activité. Ils mettent aussi en avant l'aspect styliste, parce que du coup, tu dis, vas-y, viens voir, et regarde ma penderie. Et aussi, regarde la météo du jour, comment est-ce que je m'habille. Voilà, c'est ça. C'est un petit assistant qui a accès à Internet, et une caméra, et voilà. Et c'est... C'est concrètement Tchadjipiti. D'ailleurs, il tournera sûrement sur... Non, je ne sais plus à quoi il tournera. Il me semble qu'il tournera sur un IA qui est fait par Samsung. Mais par contre, qu'il y aura accès aussi à Gemini. Ça, c'est une news qui nous l'ont sortie hier. Il y aura accès aussi à Gemini pour je ne sais pas quoi. Mais bon, voilà. Tant mieux, peut-être. Mais voilà, c'est-à-dire qu'en gros, c'est un Jiminy qui aura accès à une caméra et accès à Internet. Voilà, pour l'instant, c'est pour ça, pour moi, je trouve qu'il ne servira pas à grand-chose, mais il sera là et ça va commencer comme ça.

  • Speaker #1

    Je pense que ça pourra donner des idées à d'autres concurrents qui pourront potentiellement, à partir de là, proposer d'autres cas d'usage plus intéressants. Mais c'est vrai que là, premier coup d'œil... Oui, bon, c'est bien que ce soit commercialisé. Ils ont fait une étude de marché, finalement, donc potentiellement, ça pourrait marcher. On va voir. En tout cas...

  • Speaker #0

    Ou pas, voilà. Peut-être que ça servira juste à ballon de foot pour Optimus.

  • Speaker #1

    C'est ça. Oui, non, mais écoute, il faut voir ce que ça va donner. Moi, de mon côté, c'est vrai que je ne suis pas encore spécialement convaincu, mais à un moment donné, on trouvera bien un concurrent qui trouvera le cas d'usage super intéressant. super convaincant qui nous fera sauter sur le nouveau produit. En tout cas, je ne savais pas. Merci pour cette info. On est bien disruptifs.

  • Speaker #0

    Reviens de ta... Voilà. Ça se trouve, on aurait une news à parler pour l'été. on disait que tu seras calme et bien oui car forcément tu me verras comme ça va chez lui tant que riz comme du coup forcément tu me verras avec la petite balle et regarde un unboxing en direct voilà serait pas mal bon bah par contre cotiser un petit peu parce que franchement moi je vais pas l'acheter à tout seul c'est quoi le je ne sais pas du tout mais mettez ce que vous mettez mettez un max au cas où

  • Speaker #1

    En plus, avec les nouvelles politiques tarifaires en vigueur, il faut bien économiser.

  • Speaker #0

    Ah, j'avoue. Je ne sais pas. Il va être fabriqué en Chine, c'est sûr.

  • Speaker #1

    Ce serait judicieux, en tout cas. Merci beaucoup, Sébastien. Merci à tous. On arrive à la fin de l'émission. Et puis, comme toujours, c'est un plaisir. Et on se dit à très bientôt pour le prochain épisode. Merci, Seb. Merci tous. Bye.

Chapters

  • Intro & rappel des critiques envers Google

    00:00

  • Pourquoi Gemini 2.5 Pro change la donne

    01:40

  • Contexte 2 M tokens, Vertex AI & Workspace

    05:45

  • Gemini dans Maps et Android Studio

    08:59

  • MCP : la “norme USB” des agents IA

    14:26

  • Défis adoption & sécurité en entreprise

    20:08

  • Microsoft, Copilot et la course aux intégrations

    24:56

  • Samsung Ballie : premier robot domestique IA

    35:37

  • Conclusions & teasing des prochains sujets

    39:42

Share

Embed

You may also like

Description

« Gemini 2.5 Pro devient vraiment un outil… supérieur à ChatGPT sur certains points », s’enthousiasme Aziz. Dans cet épisode, Sébastien et Aziz reviennent sur la claque que Google inflige aux sceptiques : contexte de deux millions de tokens, intégration directe à Workspace, Maps et Vertex AI, et performances qui bousculent OpenAI et Anthropic. Ils enchaînent avec MCP, le protocole qui relie désormais Claude, n8n et d’autres agents sans une ligne de code. Au programme : ce que ces avancées signifient pour les projets Salesforce, pourquoi la hype permanente fatigue tout le monde, et comment rester pertinent sans se brûler.


Ressources:


Suivez-nous sur LinkedIn :


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour à tous.

  • Speaker #1

    Bonjour Aziz, bonjour.

  • Speaker #0

    Bonjour Sébastien.

  • Speaker #1

    Auditrice. Oui,

  • Speaker #0

    on commence toujours les émissions en rigolant, on se demande ce qu'on se dit avant, et ça, ça restera secret.

  • Speaker #1

    La seule façon de le savoir, c'est que vous passiez en tant qu'invité.

  • Speaker #0

    Voilà, exactement. On pourra vous le dire, ou pas. Ça dépend des sujets plus ou moins sensibles qu'on aborde avec Sébastien. En tout cas, merci de nous retrouver pour cette nouvelle émission d'Applicate. Et on ne va pas parler, on va toujours parler IA. Le plus souvent, on en parle. Parfois, c'est très focus sur Salesforce. Parfois, très focus sur Sam Altman ou OpenAI, etc. On a beaucoup critiqué Google au cours de nos émissions. Vraiment. On les accusait d'avoir un certain retard, que leurs outils au singulier d'IA générative étaient un peu... dépassé ou en tout cas bien en dessous des capacités de Cloud,

  • Speaker #1

    d'Anthropic ou de ChatGPT d'OpenAI mais au jour où tu es et surtout ils ont fait des démos fake aussi,

  • Speaker #0

    il ne faut pas oublier oh les fameuses démos fake tu fais bien de le rappeler c'était des démos toutes préparées, toutes scénarisées qui n'avaient rien de réellement naturel ou ... Oui, tout simplement. C'était totalement... C'est normal de préparer une démo, mais de la préparer, limite, comme si on enregistrait une vidéo qu'on diffusait auprès de son public et de simuler une intervention en direct, là, c'était grossier. Mais, et heureusement, le futur... En tout cas, les avancées de Google nous ont fait... A mentir, je dirais, mais on s'est un peu calmé. Je me suis un peu calmé sur mes critiques assez régulières de Google parce qu'il y a eu des avancées, je trouve, assez spectaculaires chez Google en intelligence artificielle. L'idée, c'est de faire un focus parce que j'ai testé Gemini 2.5 Pro depuis quelques jours. Et c'est le modèle, les standards de l'industrie IA. Pourquoi ? Parce que c'est une IA capable de raisonner, vous ne me direz rien de singulier par rapport à la concurrence, mais c'est une IA qui est également capable de traiter des dizaines de milliers de pages de texte en quelques secondes. Quand vous intégrez des pièces jointes, PDF, Word, vraiment c'est en grande quantité. Contrairement aux concurrents, en tout cas quand je dis les concurrents, je vais souvent citer... Cloud ou ChatGPT qui sont assez limités en termes de pièces jointes à intégrer. Et aussi, la force de Gemini 2.0, qui est issue de Google, c'est qu'il s'intègre progressivement aux outils de l'écosystème Google. Pas tous actuellement, mais certains. Ils ont déjà commencé dans certains. Je vais en parler d'ailleurs, notamment avec Gmail. Et la promesse de Gemini 2.5, 2.5 Pro, je vais dire 2.5 sinon ça fait trop long, C'est d'associer une stratégie globale qui va positionner Google comme un leader finalement face à ses concurrents. Alors que dans le passé, très récemment, Google occupait vraiment la place du fond du bus. Contrairement à OpenAI et Cloud, voire même Google. Pas forcément le fond du bus,

  • Speaker #1

    mais bon, le fond du bus pour l'instant c'est un peu. Un peu quand même.

  • Speaker #0

    Oui, oui, c'est vrai. Apple n'est même pas dans le bus.

  • Speaker #1

    Oui, voilà, Apple n'est même pas dans le bus. Bon, au moins, Google, il y a une petite place, tu vois.

  • Speaker #0

    Voilà, c'est ça. Ils sont en train de changer. Clairement, en tout cas, moi, c'est ce que j'ai ressenti en lisant les derniers commentaires ou les dernières réactions sur X, X Twitter. Donc, vraiment, il y a des gros gourous ou vraiment des chaînes très sérieuses et très rigoureuses qui suivent l'actualité. Et il y a... Gemini 2.5 Pro devient vraiment un outil qui par les témoignages des professionnels ou des addicts de ces outils-là, devient en termes de capacité, de pertinence de résultat, supérieur à ChatGPT en certains points, quand je dis ChatGPT c'est la dernière version, et supérieur à Cloud dans d'autres points. En l'occurrence, pour certains critères, Gemini 2.5, se maintient au-dessus de ses concurrents tels que ChatGPT ou Cloud. Pour d'autres critères, ils restent en-dessous, notamment par rapport au code. Pour le code, apparemment, Cloud 3.7 d'Anthropic reste au-dessus du lot. Ils sont vraiment en première position en termes de capacité, de pertinence de résultat et d'exactitude aussi de résultat. Et ce que je voulais dire d'autre, c'est que pour en revenir à Gemini 2.5, Donc l'idée, c'est ce qui est mis en avant officiellement par Gemini 2.5. Je n'ai pas encore concrètement su ce que ça voulait dire, mais ils indiquent qu'ils ont une capacité à gérer, j'avais lu, 2 millions de tokens qui lui permettent d'analyser des documents techniques, on va dire dans leur entièreté, des bases de code, même des transcriptions vidéo.

  • Speaker #1

    Les tokens, c'est ce que tu disais au début, c'est la capacité à comprendre, à... comprendre, à mémoriser le contexte. Les documents. Les documents, en fait, même les promptes.

  • Speaker #0

    La mémoire,

  • Speaker #1

    entre guillemets.

  • Speaker #0

    De mémoire, c'est plus que les limites d'OpenAI avec son dernier modèle. Faudra que je vérifie ça. Pour le coup, je n'ai pas le chiffre exact. Mais oui, effectivement, c'est beaucoup plus. D'un autre côté, pour les développeurs, Gemini 2.5 reste intéressant. parce qu'il s'intègre à ce qu'on appelle Vertex AI, qui est un autre outil Google, dont j'ai appris l'existence récemment. Et Vertex AI, c'est la plateforme cloud de Google. Et l'idée, c'est que ce Gemini 2.5 intégré à Vertex AI va offrir une personnalisation des coûts et de la vitesse de traitement. Et par exemple, s'il y a un besoin d'une réponse ultra rapide pour un chatbot client, par exemple, laisse-moi restructurer ma pensée avec Vertex AI les développeurs derrière, ils peuvent gérer le développement d'applications assez rapidement mais aussi en ayant des résultats et des correctifs pertinents provenant de Vertex AI par l'intermédiaire de Gemini 2.5 qui est intégré dedans et donc ça c'est un des outils parmi tant d'autres mais en l'occurrence, c'est ce que j'avais vu d'autre, j'avais vu que on va dire, pour en rester sur l'intégration dans l'écosystème Google, Gemini, ce que je ne savais pas jusqu'à maintenant, est intégré à Google Workspace. Pour offrir notamment des résumés d'email dans Gmail, ou des suggestions de documents qui sont intégrés dans le Drive, des analyses dans les Headsheets, et j'avais vu aussi qu'il est intégré à Google Search. Après, je ne sais pas dans quel use case je pourrais mettre en avant, mais en tout cas, c'est le cas officiellement. Gemini est intégré à Google Search. Et je pense que si on prend du recul, on pourrait très bien imaginer des cas d'usage qui seraient intéressants pour ceux qui utilisent Google Search, ce qui n'est pas mon cas, mais c'est toujours intéressant à savoir. Et enfin, il est intégré, toujours Gemini, à Android Studio. Donc ça, c'est aussi... principalement dédié aux développeurs, comme c'était le cas de Vertex AI, pour la génération ou le débogage de code. Et enfin, dernier point, il est aussi intégré, et ça j'en avais parlé sur LinkedIn quelques jours avant, à Google Maps via la fonctionnalité Geospatial Reasoning. Donc l'idée c'est de combiner Gemini avec des données géospatiales pour répondre à des questions sur... sur la localisation, sur l'urbanisme, en cas, par exemple, de catastrophe naturelle, essentiellement, ça permet à n'importe lequel d'entre nous de voir quelles sont les zones sinistrées, quelles zones à éviter, quelles zones on peut circuler, mais vraiment en direct. Ce n'est pas simplement comme...

  • Speaker #1

    En map ? Oui,

  • Speaker #0

    c'est live. Ah, oui, oui, oui, pardon, oui, c'est live. Dans ce sens-là, oui, c'est live. Je ne sais pas s'il est déployé à l'échelle internationale. Je pense que certains de ces causes aux Etats-Unis, c'est le cas. Il y a beaucoup de... particuliers sur Twitter, en tout cas basés en Amérique du Nord, qui ont testé cette fonctionnalité-là. Et c'est assez bluffant. Par contre, il n'y a aucune trace qui indique que c'est déployé partout dans d'autres zones géographiques comme en Europe ou en Asie. Pour le moment, je n'ai pas cette information-là, mais en tout cas, ça laisse présager que Gemini 2.5 serait déployé sur l'ensemble finalement des outils de l'écosystème Google et quand bien même on aimerait pouvoir faire des choses plus rapidement sur Gmail ou je sais pas moi sur Google Maps Il y a des tas de cas d'usage finalement qu'on aimerait mettre en place grâce à l'intelligence artificielle et peut-être que Gemini 2.5 sera la réponse et le moyen de répondre à nos aspirations sur Google. La force de Google, c'est vraiment de maintenir, d'avoir vraiment pénétré le marché et surtout faire en sorte que ses utilisateurs soient fidèles depuis quasiment 15 ans, voire 20 ans. Depuis notre utilisation du moteur de recherche Google jusqu'à la gestion de notre compte Gmail, chacun d'entre nous utilise au moins un outil de l'univers Google. Et je pense que Google a cette force que n'a pas OpenAI, que n'a pas Anthropic ou tous les autres concurrents. C'est qu'avec leur outil Gemini, ils peuvent clairement booster chacun de leurs outils de l'écosystème Google. et dans le même temps améliorer concrètement nos usages et notre expérience finalement avec l'écosystème Google, mais vraiment l'améliorer considérablement. Maintenant, reste à voir quels seront les usages que Google pourra nous permettre d'effectuer, les nouveaux usages que Google pourra nous rendre possibles via Gmail, via Google Maps, via Drive. via Google Search, même si je ne suis pas un aficionado de Google Search. Mais voilà, ils ont un pléthore d'outils. Seulement deux ou trois d'entre eux sont utilisés régulièrement par les utilisateurs.

  • Speaker #1

    Oui, effectivement, Google a commencé à taper fort fin 2024 pour fêter la fin de l'année dignement. Ils ont sorti moult améliorations, moult nouveaux produits qui ont bousculé pas mal de choses. et qui reprennent depuis quelques jours une deuxième tournée. Ils sont plaisirs, ils lancent beaucoup de choses, notamment leur Gemini 2.5 Pro qui est à nouveau... En soi, ça ne change pas l'écosystème qu'ils essayaient de créer. Parce que oui, ils avaient déjà commencé à intégrer Gemini, sans parler de 2.5 Pro, mais vraiment Gemini, je pense que c'est un nom fourre-tout. Et ça amène pas mal de confusion parmi nous tous, parce qu'en fait, Gemini, comme eux l'entendent, c'est un peu un truc fourre-tout. Fourre-tout, c'est un peu l'assistant de Google.

  • Speaker #0

    L'assistant pour tout, oui.

  • Speaker #1

    L'assistant, oui. Par exemple, Apple en série, l'autre en Alexa, et eux, ils vont voir Gemini. Et donc, tu peux avoir Gemini dans Gmail, dans Google Search. En fait, tu l'as déjà vu, Gemini dans Google Search. C'est juste, tu apportes la requête dans Google Search et après, tu as un petit résumé juste en bas. C'est Gemini, c'est tout. Ça ne va pas chercher bien loin. Et donc, là, ils ont un modèle, Gemini 2.5 Pro. Et donc, c'est vraiment le cerveau, en fait, qui est derrière Gemini. C'est un peu tout comme ils ont Gemini Flash, par exemple, qui est un autre modèle.

  • Speaker #0

    C'est ça, oui. En fait, je n'ai pas fait le tour de tous les modèles, mais c'est vrai qu'ils commencent à en avoir pas mal. Et ils commencent aussi à être très communicants et très agressifs au niveau de la communication, un peu au même titre que Sam Altman ne le fait pour OpenAI. D'ailleurs, la différence, c'est que... OpenAI ne communique que grâce à la figure de Sam Altman, son PDG, donc c'est vraiment Sam Altman qui communique régulièrement sur les avancées, là où Google va utiliser des comptes officiels, Google AI ou Google DeepMind ou Gemini.

  • Speaker #1

    Même le CEO de Google qui est très actif sur le CX.

  • Speaker #0

    Pas autant que Sam Altman. Pas autant, je trouve. En tout cas,

  • Speaker #1

    c'est différent. C'est différent. parce qu'Allemagne, j'ai pas l'impression que c'est plutôt high level. Je sais pas pourquoi, mais je le crois pas quand ils parlent, en fait, et même quand ils tweetent. Alors que l'autre, le CEO de Google est plus actif sur la communauté. Il pose pas mal de questions, il réagit à l'actu, non pas juste l'actu que Google produit, mais l'actu de l'IA en général. Par exemple, sur les fameux MCP, qui est la hype du moment. Lui, il... il communique dessus, il demande l'avis aux gens. Après, est-ce que c'est juste pour créer de l'engagement ou pas ? Mais en tout cas,

  • Speaker #0

    il parle de ce... Il y a deux types de communication différentes. Celui qui fait le plus de bruit, c'est Sam Altman. Parce qu'il va mettre beaucoup de hype et puis d'un seul coup ça va se calmer, puis il va revenir dessus, une nouvelle version, des noms de versions qui sont incompréhensibles chez OpenAI je trouve, 3.0, 4.0, 4.5.0, 4.2.0, enfin voilà quoi. C'est un peu fourre-tout je trouve. Mais tu parlais de MCP juste avant, c'est une très bonne transition. Est-ce que tu pourrais nous expliquer ce dont il s'agit ?

  • Speaker #1

    C'est pas du tout par Google du coup. Oui,

  • Speaker #0

    on pourra revenir sur Google après, mais MCP, apparemment, c'est un sujet transverse.

  • Speaker #1

    Oui, donc parenthèse MCP, ce qu'on peut voir, c'est, on va dire, pour vulgariser, c'est une sorte de protocole de communication entre agents IA. Donc typiquement, aujourd'hui, c'est un des moyens, c'est une norme qui est en train de se créer, qui va permettre, par exemple, de connecter différents produits. différents produits entre eux, sans forcément avoir besoin d'API. Et surtout, si l'API, on va essayer d'y rester plus et plus, sans jargon ni rien. Mettons, un MCP, c'est un protocole de communication standardisé. Donc, par exemple, comme le monde s'est mis d'accord sur la norme USB, je peux connecter mon micro à mon ordinateur via USB. USB, c'est le protocole qui va nous permettre de brancher. deux outils. Et là, ce qui est en train de se lancer, c'est le MCP. Donc le MCP qui a un protocole aussi qui va permettre de brancher deux outils IA l'un à l'autre. Par exemple, Cloud, en tropique, a utilisé le protocole MCP. Donc c'est-à-dire que potentiellement tous les autres outils qui se sont aussi normalisés MCP vont pouvoir se connecter à Cloud. Par exemple, on reprend un des outils qu'on a parlé il y a quelques semaines, donc N8n, qui permet de créer des automatisations avec de l'IA depuis peu. Eux aussi, il y a quelques jours, ont lancé nativement leur outil MCP. C'est-à-dire qu'en fait, maintenant, nativement, avant on pouvait le faire via des moyens détournés, mais maintenant, nativement, tu peux faire communiquer Cloud. Avec N8N. Donc concrètement, les agents IA que j'avais créés aujourd'hui sur la plateforme N8N qui ont accès à mon agenda, à mes emails, je peux l'appeler via Claude. Je suis en train de travailler sur Claude. Claude peut taper N8N qui va taper mes emails.

  • Speaker #0

    Donc en fait, tu peux envoyer tes instructions à N8N à partir de Claude.

  • Speaker #1

    C'est ça.

  • Speaker #0

    D'accord. Et ça a déjà été testé ?

  • Speaker #1

    Et sans code. Ah bah oui, ça existe, c'est live.

  • Speaker #0

    Oui, incroyable. Faudrait une nouvelle vidéo N8N avec Claude cette fois-ci.

  • Speaker #1

    Ouais, mais sauf que je n'ai plus mon abonnement Claude.

  • Speaker #0

    On utilisera le mien alors, même si il va bientôt arriver à échéance.

  • Speaker #1

    Il va bientôt sauter. Bah ouais, parce que ce qui est fou, c'est que c'est sans code. Tu n'as pas besoin de... Je n'ai rien codé pour ça. Parce qu'en gros, le modèle MCQ fait que grâce à... on va sauter tous les trucs techniques, c'est qu'en fait, le modèle MCP peut lui-même, c'est comme si il avait accès à la documentation des API, donc de toutes les fonctions qu'un outil a. Ça veut dire qu'avant, ça veut dire qu'avant, sans... Enfin, avant. Hier ! Sans protocole standardisé, quand tu crées ton API, donc quand tu dois manuellement créer un appel... d'un software à un autre, tu regardes la documentation du software que tu vas appeler, tu regardes ce qu'il attend, lui, comment il fonctionne, et tu lui envoies les bonnes instructions pour qu'il te renvoie les résultats que tu souhaites. Sauf que maintenant, tu n'as plus besoin de ça si tu passes par le MCP, parce qu'on va dire que le MCP connaît la documentation du software que tu appelles, donc tu as... Tu n'as même pas besoin de le configurer. Tu vas juste dire, envoie-moi l'adresse, envoie l'email. Et non, en fait, tu n'as pas besoin de trucs techniques parce que le modèle va comprendre. Il veut envoyer un email, donc je vais aller chercher techniquement à quoi ça correspond et je vais faire les bonnes instructions.

  • Speaker #0

    Mais il faut que tu mettes quand même en place le flow plus ou moins complexe. nécessaire sur N8.

  • Speaker #1

    Il faut que tu mettes le flow, mais du coup, qu'il se décomplie. Alors aujourd'hui, je trouve que dans N8n, on a une version un peu de ce qu'il pourrait faire avec les MCP, c'est à dire qu'ils sont un peu limités pour l'instant. Donc il reste un peu plus ou moins complexe, mais vraiment c'est accessible. Je suis sûr, enfin demain, quelques jours, semaines, je suis quasiment sûr qu'ils vont faire une mise à jour qui va nous permettre de créer un flow en limite en une étape et que l'IA et que l'MCP se démerdent en fait. C'est quasiment certain. Quasiment certain, ça ne veut rien dire, non ? Parce qu'en gros, c'est quasiment certain.

  • Speaker #0

    Oui, non, mais c'est certain. On peut dire que c'est certain.

  • Speaker #1

    Voilà. Ouais, il faudrait qu'on se fasse une petite démo. Je pense qu'on aura cette version-là de MCP dans N8N. Je vais créer un flow en live. Ça va prendre cinq minutes, je pense, et on va s'amuser.

  • Speaker #0

    Clairement, ça peut être super intéressant. Et ça laisse présager finalement, on a l'impression que, comme je te le disais juste avant, le fait de pouvoir connecter... en tout cas de lier des systèmes IA à d'autres systèmes IA ou de génération d'automatisation, etc., ça posera nécessairement des problèmes de confiance et de sécurité. Quand bien même j'imagine que d'un côté les équipes de cloud, de l'autre côté les équipes de N8N font de leur mieux pour assurer des fonctionnalités. déployer une mise à jour qui soit vraiment safe pour l'utilisateur final, pour l'entreprise ou pour le particulier. Mais il va falloir mener, je pense, une politique d'adoption assez poussée pour que les utilisateurs puissent... pour qu'à l'avenir ces fonctionnalités-là dont tu parles et ce MCP dont tu parles se démocratisent assez rapidement et qu'ils ne soient pas réservés qu'à un certain profil d'utilisateur. Oui,

  • Speaker #1

    après, à mon avis, c'est comme une norme. C'est le monde, c'est le marché qui va décider. Je ne l'apprends pas. C'est comme... À une époque, on avait une bataille entre deux normes. Tu te rappelles pour le HD ou le Full HD, je ne me rappelle plus. On était un peu jeunes. On était un peu jeunes.

  • Speaker #0

    C'est le Blu-ray et le HD ? Ça n'a rien à voir.

  • Speaker #1

    Il y avait vraiment deux trucs. Il y avait deux façons de faire de l'HD. sur les télés et au final je ne sais même plus l'autre nom de technologie forcément qui a perdu contre cette norme full HD qu'on a aujourd'hui et tous les matos ça a dû être mis à la poubelle parce que moi ça me fait penser au lecteur Blu-ray petite

  • Speaker #0

    parenthèse qui a fait son temps quelques années et qui a disparu ouais bah si c'était pas court c'était pas court non plus quand même je ne vais pas vérifier sur Google on n'en a pas eu plus Mais à aucun moment, j'ai bifurqué sur le Blu-ray pour voir à quoi ça ressemblait. Même si les promesses de qualité visuelle étaient souvent mises en avant. Comme tu dis, c'est la loi du marché. Mais voilà, c'est ça. En tout cas, ça laisse présager pas mal de possibilités. Encore une fois, en termes d'adoption et de sécurisation, il y aura beaucoup de questions qui se poseront. Ne serait-ce que pour l'adoption d'outils IA, on n'en est qu'au premier pas, vraiment c'est des pas de bébé. À l'échelle des entreprises, beaucoup sentent la pression de l'IA, beaucoup veulent s'y mettre sans avoir tous les éléments, beaucoup se cassent un peu les dents parce qu'ils n'ont pas fait un état des lieux propre. Je pense que tant que cet état des lieux en termes de données, en termes d'infrastructures n'a pas été fait par les entreprises, L'adoption de l'IA et l'adoption des nouvelles fonctionnalités qui émergent sur la base de l'IA, comme ce MCD, prendront du temps, en tout cas en France, en tout cas en Europe, pas simplement pour des raisons législatives, pas simplement pour des raisons juridiques, mais pour des raisons de... Généralement, on a toujours eu cette latence en termes d'adoption pour des raisons sécuritaires. pour des raisons légitimes, mais en tout cas qui font pas mal retarder l'adoption. Je pense que cette fonctionnalité-là dont tu nous parles, qui permet d'intégrer des systèmes à d'autres systèmes IA, sera beaucoup plus adoptée, beaucoup plus rapidement dans des pays comme aux États-Unis ou en Chine qu'en Europe.

  • Speaker #1

    Ou pas, parce qu'en gros, c'est une norme. Donc après, n'importe quelle entreprise, n'importe quel pays peut créer sa propre norme. Oui. Donc au final, ça se trouve, ils vont utiliser un autre truc en Chine. En Europe, ils vont se poser sur un autre truc. On ne sait pas. Même Google, Google aussi essaie de... Je crois que c'est peut-être aujourd'hui d'ailleurs, ils ont lancé un protocole qui s'appelle Agent to Agent, qui permet aux agents de communiquer entre eux. Alors ça s'est tombé, je me sens que c'était vraiment aujourd'hui, il y a quelques heures, donc on ne va pas forcément creuser encore. OpenAI aussi peut peut-être lancer son propre truc aussi. OpenAgent, on ne sait pas. OpenAgent qui va permettre aux agents d'open AI, de dialoguer entre eux. Nous verrons. En tout cas, l'idée d'avoir une norme, ça va accélérer pas mal de développement. Tous ceux qui s'amusent ou en tout cas qui créent des sas le week-end, ça va accélérer encore plus les choses.

  • Speaker #0

    C'est ça. Très brièvement, parce que c'est vraiment un sujet que je voulais mettre sur la table. Ça va être très rapide, on revient un petit peu sur les premiers sujets avec Gemini 2.5. Mais en fait, j'aime bien faire des comparaisons pour mieux me rendre compte des avancées et des développements de chaque entité. Donc avec Gemini 2.5, Google a l'opportunité vraiment de booster ses outils. Gmail, Drive, dont on parlait, etc. Et c'est dommage, j'ai l'impression, pour OpenAI et Microsoft d'avoir manqué ce coche. Ils n'ont pas manqué, mais on va dire qu'ils avancent moins rapidement dessus. C'est que Microsoft pouvait très bien exploiter OpenAI pour optimiser l'utilisation de son écosystème. Donc Office ou d'autres outils liés à Microsoft. Et j'ai l'impression qu'ils sont moins avancés sur ce point-là, à côté Microsoft.

  • Speaker #1

    Oui, mais apparemment, ça arrive. Au début, ils ont essayé quand même. Mais il était les versions copilotes embarquées de copilotes qui n'étaient pas forcément utiles, qui n'étaient pas forcément pertinentes. Toutes les features qu'on nous a promis, peut-être il y a deux ans, arrivent seulement maintenant, progressivement, dans les copilotes. On traduit, par exemple, une là, j'ai vu il y a quelques jours, une là qui se sent vraiment... émerveillé du fait que maintenant Copilot peut traduire un PowerPoint entier. Donc voilà, tu es en train de travailler sur une presse, tac, tu dis, vas-y traduis-moi tout ça, hop, ta presse se duplique en langage que tu veux. Bon, ça arrive, et aussi ils se sont pris quelques tollés aussi par rapport au fait une fonction qui était censée aussi enregistrer tout ce que tu fais sur ton ordinateur. et que du coup tu peux requêter ton ordinateur pour rechercher de l'information. Tiens, j'ai vu un truc, un produit que je cherche en cadeau, que je veux acheter, c'était quoi ? Et tac, il se souvient parce qu'il enregistre tout ce que tu fais. Et donc ça fait un tollé parce que c'est pas très réglementaire ce truc-là.

  • Speaker #0

    C'est vrai.

  • Speaker #1

    Pour formuler des datas et tout. Donc voilà, il y a des choses à cadrer aussi. Mais ça arrive, je pense que ça arrivera bientôt. Ils font ça dans le feutré au fur et à mesure, mais ça reste très professionnel, Microsoft encore, de toute façon.

  • Speaker #0

    J'avais d'autres choses à dire, pas pour meubler évidemment, mais j'y pensais pendant que tu en parlais. C'est une question pour toi Sébastien, parce que moi à chaque fois que je me pose la question, je n'arrive pas à trouver de réponse, tellement je suis surpris à longueur de semaines et de nouvelles qui arrivent. Comment tu imagines les choses ? Allez, admettons début 2026, d'un point de vue progrès technique ou progrès technologique ou nouveaux usages de l'IA.

  • Speaker #1

    Non mais ça c'est une question pour un épisode spécial normalement, c'est qu'on n'a pas d'idée pour un épisode, on se pose une question comme ça. Non,

  • Speaker #0

    absolument pas. Non, parce que pour moi, on a évoqué les sujets qu'il fallait et moi de mon côté, je me disais, mais c'est vrai que moi je trouverais ça intéressant d'avoir... Nos avis respectifs, à commencer par le tien, sur comment tu vois les choses en 2026, ça sonne un peu comme un entretien bidon, basique. Je ne veux pas t'en donner l'impression, mais c'est intéressant.

  • Speaker #1

    Honnêtement, je ne sais pas. Parce que là, je me suis... J'ai fait un filtre, tu sais, de tout ce qui est grand PDG, PDG de grandes entreprises de l'IA. qui font des prédictions causales presque tous les jours. Oui, à la fin de l'année, on a l'AGI. À la fin 2030, on aura la super intelligence.

  • Speaker #0

    J'ai arrêté, je ne réagis pas à ces trucs-là. Limite, c'est toi en fait. Limite les autres qui me mettent sous le nez. Parce que ça ne sert à rien au final. À chaque fois qu'on nous fait une prédiction. Surtout quand c'est un président de Cyprie. On sait que c'est des effets d'annonce.

  • Speaker #1

    Donc toi, tu n'es pas dans cette optique-là ?

  • Speaker #0

    En 2026, non. En tout cas, comme on voit les choses. Au stade... où ça va très très vite, c'est sûr, mais ça ne va pas aussi vite qu'il y a deux ans. D'accord ? 2026, à mon avis, pour l'instant, on n'est pas envahi par le robot, on n'a pas Skynet, on continue notre vie tranquille. Peut-être, sûrement, on aura des outils, les modèles seront un peu plus intelligents, un peu plus rapides, mais... D'ici 2026, pour moi, il n'y a pas de grosse révolution.

  • Speaker #1

    Pas de grosse rupture, quoi.

  • Speaker #0

    Surtout dans nos métiers, dans la vie du quotidien de tout le monde, ça va. Si tu es créatif, tu pourras t'amuser à créer des vidéos un peu plus longues, un peu plus facilement, mais tu vois, ça ne va pas révolutionner ton quotidien. Ça révolutionne déjà les créatifs, les publicitaires et tout ça, parce qu'au final, aujourd'hui, on a tout ce qu'il faut pour créer des... pubs entièrement générés par l'IA, on en voit arriver parce que tu peux créer des images très réalistes et tu peux les animer et tu peux créer des musiques pour les mettre par dessus. Aujourd'hui les vidéos qu'on peut créer sont très très courtes, c'est de l'ordre de moins de 5 secondes, mais mis de bout à bout, quand tu regardes un film ou même une publicité, il y a très rarement des plans qui durent 5 secondes. Donc au final tu crées un plan, un plan, un plan, un plan, un plan que tu emboîtes et ça fait une séquence. Donc aujourd'hui c'est comme ça que tu as des pubs qui arrivent peut-être de 30 secondes et en fait c'est des enchaînements de petits films de 5 secondes. Pour les créatifs, c'est pas mal. Après pour nous et puis pour le quotidien, début de MW6, en tout cas moi je pense que c'est business as usual.

  • Speaker #1

    Voilà, tu pourrais écrire plus de prompts qu'avant, mais ce ne sera pas révolutionnaire.

  • Speaker #0

    Non, je pense que tu pourras avoir des meilleurs résultats.

  • Speaker #1

    Peut-être qu'on a atteint une vitesse de croisière finalement.

  • Speaker #0

    Pour nous, pour les utilisateurs en tout cas, je ne pense pas qu'on va se considérer comme builder. On ne va pas créer des applications, en tout cas pour l'instant. Pas de gros trucs, ne serait-ce que pour le loisir. Non, voilà. Pour les devs, peut-être, il n'y aura pas non plus de grosses ruptures non plus. Ça va aller plus vite. Mais à part ça, fin 2026, on ne sait pas. Parce que fin 2026, ça nous fait un an et demi.

  • Speaker #1

    Un an et demi, c'est quoi ? Oui, c'est encore un peu loin. On ne peut pas trop se présager quoi que ce soit encore à ce niveau-là. Mais je me dis, vu qu'on est bientôt en été, au moment où on enregistre cette vidéo, ce n'est pas déconnant de se dire à quoi ça peut ressembler d'ici la fin de l'année, voire début d'année prochaine.

  • Speaker #0

    Et à voir si avant l'été, je regarde avant l'été, est-ce que tu as les grosses boîtes qui vont nous sortir un festival de release. Parce qu'au final, on a des grosses releases à la fin de l'année 2024. Alors, avril, fin mars, ça commence à s'activer aussi. Donc, est-ce qu'ils ne nous feront pas un petit festival comme ça avant l'été, pour passer l'été tranquille ? Parce que je me rappelle, l'année dernière, l'été, il n'y avait rien.

  • Speaker #1

    L'année dernière, c'était ça,

  • Speaker #0

    oui. On s'est ennuyé pendant 2-3 mois, il n'y avait rien. C'était bizarre.

  • Speaker #1

    Comment on va enregistrer nos vidéos ?

  • Speaker #0

    C'est ça. On n'a rien à dire, ce n'est pas normal. C'est ça. Et toi alors, sinon ?

  • Speaker #1

    Non, je suis à peu près dans le même positionnement que toi. Je me suis lassé de ces annonces. révolutionnaire de hype etc que j'ai moi même partagé parce que ok c'est toujours hyper excitant sur le coup mais voilà c'est comme une drogue finalement on apprend un peu c'est super une nouvelle release c'est génial tout ce qu'on va pouvoir faire et pouf le lendemain matin on passe à autre chose ou un petit vide qui va durer quelques jours avant de retrouver un concurrent qui lui-même va sortir sa nouvelle release avec des nouvelles capacités etc Ouais, c'est super. Mais, et je ne suis pas le seul à dire ça, il y a une lassitude. Il y a une lassitude de voir toutes ces nouvelles releases...

  • Speaker #0

    arrivé alors ok ça crée une bonne dynamique mais au niveau des réactions je trouve qu'on est beaucoup plus temporisés non on a pris l'habitude et puis à mon avis c'est comme tout ce qui est news en toison c'est ça le social et c'est effet secondaire d'avoir des news en temps réel moment tu satures quel que soit le domaine alors là il se trouve qu'on a beaucoup suivi forcément les news de l'aiti au bout d'un moment Voilà, c'est trop quoi.

  • Speaker #1

    Au bout d'un moment, on se déconnecte et on revient en 2026. Waouh, vous avez vu ?

  • Speaker #2

    On sort de notre grotte.

  • Speaker #0

    D'ailleurs, cet été, il sera commercialisé le premier robot domestique fait par Samsung aux Etats-Unis et en Corée. Il s'appelle Bori. C'est une petite boule. C'est un R2-D2 qui roule.

  • Speaker #1

    Alors moi j'ai Basile Boli, un footballeur international français. Alors je vais mettre, là je suis sur Google, je ne devrais pas, je devrais mettre Perplexity. Alors, les avantages du robot domestique Boli, c'est quoi, c'est un aspirateur ?

  • Speaker #0

    Non, même pas, c'est un petit robot domestique. Alors moi je pense qu'il ne servira à rien, mais il sera là. Officiellement, tu vois, il surveille ta maison. Tu peux lui poser des questions. Il a un projecteur pour qu'il t'affiche des informations, pour te parler. Il peut écrire des trucs par terre ou sur les murs. Il met beaucoup en avant l'aspect santé parce qu'en gros, il peut te regarder, il peut te regarder faire du sport, il peut juger ta posture, ton poids, ta forme et du coup, te proposer des exercices.

  • Speaker #1

    Ta forme ?

  • Speaker #0

    Ta forme ? Alors, en fonction de qui tu parles, c'est forme ou forme, tu vois ? Ou ta forme, voilà, qui sort de... Donc, en fait, je cherche un mot qui commence par méta, mais je ne sais plus c'est quoi, dans le body shape.

  • Speaker #1

    Méta, méta, méta. Non,

  • Speaker #0

    bref.

  • Speaker #1

    Non, mais écoute, il faut voir ce que ça va donner. Pour l'instant, j'ai le sentiment qu'il s'agit plus d'un gadget.

  • Speaker #0

    Mais qui sait ? C'est comme un assistant, en fait. C'est comme tu as dit, petit. Tu vois, il y en a qui prennent des... Il y en a qui, au début, qui ont pris des photos, tu sais, de leur... Regarde ce que j'ai dans mon frigidaire et dis-moi des recettes. Bah, Boli fera aussi pareil, en fait. Regarde, tu le fous. Morphologie. Selon ma morphologie. Selon ma morphologie. Dis-moi quel fer. Regarde-moi le fer pour le dire si je fais bien. regarde mon frigo, regarde ce que je fais à manger pour soutenir justement mon activité. Ils mettent aussi en avant l'aspect styliste, parce que du coup, tu dis, vas-y, viens voir, et regarde ma penderie. Et aussi, regarde la météo du jour, comment est-ce que je m'habille. Voilà, c'est ça. C'est un petit assistant qui a accès à Internet, et une caméra, et voilà. Et c'est... C'est concrètement Tchadjipiti. D'ailleurs, il tournera sûrement sur... Non, je ne sais plus à quoi il tournera. Il me semble qu'il tournera sur un IA qui est fait par Samsung. Mais par contre, qu'il y aura accès aussi à Gemini. Ça, c'est une news qui nous l'ont sortie hier. Il y aura accès aussi à Gemini pour je ne sais pas quoi. Mais bon, voilà. Tant mieux, peut-être. Mais voilà, c'est-à-dire qu'en gros, c'est un Jiminy qui aura accès à une caméra et accès à Internet. Voilà, pour l'instant, c'est pour ça, pour moi, je trouve qu'il ne servira pas à grand-chose, mais il sera là et ça va commencer comme ça.

  • Speaker #1

    Je pense que ça pourra donner des idées à d'autres concurrents qui pourront potentiellement, à partir de là, proposer d'autres cas d'usage plus intéressants. Mais c'est vrai que là, premier coup d'œil... Oui, bon, c'est bien que ce soit commercialisé. Ils ont fait une étude de marché, finalement, donc potentiellement, ça pourrait marcher. On va voir. En tout cas...

  • Speaker #0

    Ou pas, voilà. Peut-être que ça servira juste à ballon de foot pour Optimus.

  • Speaker #1

    C'est ça. Oui, non, mais écoute, il faut voir ce que ça va donner. Moi, de mon côté, c'est vrai que je ne suis pas encore spécialement convaincu, mais à un moment donné, on trouvera bien un concurrent qui trouvera le cas d'usage super intéressant. super convaincant qui nous fera sauter sur le nouveau produit. En tout cas, je ne savais pas. Merci pour cette info. On est bien disruptifs.

  • Speaker #0

    Reviens de ta... Voilà. Ça se trouve, on aurait une news à parler pour l'été. on disait que tu seras calme et bien oui car forcément tu me verras comme ça va chez lui tant que riz comme du coup forcément tu me verras avec la petite balle et regarde un unboxing en direct voilà serait pas mal bon bah par contre cotiser un petit peu parce que franchement moi je vais pas l'acheter à tout seul c'est quoi le je ne sais pas du tout mais mettez ce que vous mettez mettez un max au cas où

  • Speaker #1

    En plus, avec les nouvelles politiques tarifaires en vigueur, il faut bien économiser.

  • Speaker #0

    Ah, j'avoue. Je ne sais pas. Il va être fabriqué en Chine, c'est sûr.

  • Speaker #1

    Ce serait judicieux, en tout cas. Merci beaucoup, Sébastien. Merci à tous. On arrive à la fin de l'émission. Et puis, comme toujours, c'est un plaisir. Et on se dit à très bientôt pour le prochain épisode. Merci, Seb. Merci tous. Bye.

Chapters

  • Intro & rappel des critiques envers Google

    00:00

  • Pourquoi Gemini 2.5 Pro change la donne

    01:40

  • Contexte 2 M tokens, Vertex AI & Workspace

    05:45

  • Gemini dans Maps et Android Studio

    08:59

  • MCP : la “norme USB” des agents IA

    14:26

  • Défis adoption & sécurité en entreprise

    20:08

  • Microsoft, Copilot et la course aux intégrations

    24:56

  • Samsung Ballie : premier robot domestique IA

    35:37

  • Conclusions & teasing des prochains sujets

    39:42

Description

« Gemini 2.5 Pro devient vraiment un outil… supérieur à ChatGPT sur certains points », s’enthousiasme Aziz. Dans cet épisode, Sébastien et Aziz reviennent sur la claque que Google inflige aux sceptiques : contexte de deux millions de tokens, intégration directe à Workspace, Maps et Vertex AI, et performances qui bousculent OpenAI et Anthropic. Ils enchaînent avec MCP, le protocole qui relie désormais Claude, n8n et d’autres agents sans une ligne de code. Au programme : ce que ces avancées signifient pour les projets Salesforce, pourquoi la hype permanente fatigue tout le monde, et comment rester pertinent sans se brûler.


Ressources:


Suivez-nous sur LinkedIn :


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bonjour à tous.

  • Speaker #1

    Bonjour Aziz, bonjour.

  • Speaker #0

    Bonjour Sébastien.

  • Speaker #1

    Auditrice. Oui,

  • Speaker #0

    on commence toujours les émissions en rigolant, on se demande ce qu'on se dit avant, et ça, ça restera secret.

  • Speaker #1

    La seule façon de le savoir, c'est que vous passiez en tant qu'invité.

  • Speaker #0

    Voilà, exactement. On pourra vous le dire, ou pas. Ça dépend des sujets plus ou moins sensibles qu'on aborde avec Sébastien. En tout cas, merci de nous retrouver pour cette nouvelle émission d'Applicate. Et on ne va pas parler, on va toujours parler IA. Le plus souvent, on en parle. Parfois, c'est très focus sur Salesforce. Parfois, très focus sur Sam Altman ou OpenAI, etc. On a beaucoup critiqué Google au cours de nos émissions. Vraiment. On les accusait d'avoir un certain retard, que leurs outils au singulier d'IA générative étaient un peu... dépassé ou en tout cas bien en dessous des capacités de Cloud,

  • Speaker #1

    d'Anthropic ou de ChatGPT d'OpenAI mais au jour où tu es et surtout ils ont fait des démos fake aussi,

  • Speaker #0

    il ne faut pas oublier oh les fameuses démos fake tu fais bien de le rappeler c'était des démos toutes préparées, toutes scénarisées qui n'avaient rien de réellement naturel ou ... Oui, tout simplement. C'était totalement... C'est normal de préparer une démo, mais de la préparer, limite, comme si on enregistrait une vidéo qu'on diffusait auprès de son public et de simuler une intervention en direct, là, c'était grossier. Mais, et heureusement, le futur... En tout cas, les avancées de Google nous ont fait... A mentir, je dirais, mais on s'est un peu calmé. Je me suis un peu calmé sur mes critiques assez régulières de Google parce qu'il y a eu des avancées, je trouve, assez spectaculaires chez Google en intelligence artificielle. L'idée, c'est de faire un focus parce que j'ai testé Gemini 2.5 Pro depuis quelques jours. Et c'est le modèle, les standards de l'industrie IA. Pourquoi ? Parce que c'est une IA capable de raisonner, vous ne me direz rien de singulier par rapport à la concurrence, mais c'est une IA qui est également capable de traiter des dizaines de milliers de pages de texte en quelques secondes. Quand vous intégrez des pièces jointes, PDF, Word, vraiment c'est en grande quantité. Contrairement aux concurrents, en tout cas quand je dis les concurrents, je vais souvent citer... Cloud ou ChatGPT qui sont assez limités en termes de pièces jointes à intégrer. Et aussi, la force de Gemini 2.0, qui est issue de Google, c'est qu'il s'intègre progressivement aux outils de l'écosystème Google. Pas tous actuellement, mais certains. Ils ont déjà commencé dans certains. Je vais en parler d'ailleurs, notamment avec Gmail. Et la promesse de Gemini 2.5, 2.5 Pro, je vais dire 2.5 sinon ça fait trop long, C'est d'associer une stratégie globale qui va positionner Google comme un leader finalement face à ses concurrents. Alors que dans le passé, très récemment, Google occupait vraiment la place du fond du bus. Contrairement à OpenAI et Cloud, voire même Google. Pas forcément le fond du bus,

  • Speaker #1

    mais bon, le fond du bus pour l'instant c'est un peu. Un peu quand même.

  • Speaker #0

    Oui, oui, c'est vrai. Apple n'est même pas dans le bus.

  • Speaker #1

    Oui, voilà, Apple n'est même pas dans le bus. Bon, au moins, Google, il y a une petite place, tu vois.

  • Speaker #0

    Voilà, c'est ça. Ils sont en train de changer. Clairement, en tout cas, moi, c'est ce que j'ai ressenti en lisant les derniers commentaires ou les dernières réactions sur X, X Twitter. Donc, vraiment, il y a des gros gourous ou vraiment des chaînes très sérieuses et très rigoureuses qui suivent l'actualité. Et il y a... Gemini 2.5 Pro devient vraiment un outil qui par les témoignages des professionnels ou des addicts de ces outils-là, devient en termes de capacité, de pertinence de résultat, supérieur à ChatGPT en certains points, quand je dis ChatGPT c'est la dernière version, et supérieur à Cloud dans d'autres points. En l'occurrence, pour certains critères, Gemini 2.5, se maintient au-dessus de ses concurrents tels que ChatGPT ou Cloud. Pour d'autres critères, ils restent en-dessous, notamment par rapport au code. Pour le code, apparemment, Cloud 3.7 d'Anthropic reste au-dessus du lot. Ils sont vraiment en première position en termes de capacité, de pertinence de résultat et d'exactitude aussi de résultat. Et ce que je voulais dire d'autre, c'est que pour en revenir à Gemini 2.5, Donc l'idée, c'est ce qui est mis en avant officiellement par Gemini 2.5. Je n'ai pas encore concrètement su ce que ça voulait dire, mais ils indiquent qu'ils ont une capacité à gérer, j'avais lu, 2 millions de tokens qui lui permettent d'analyser des documents techniques, on va dire dans leur entièreté, des bases de code, même des transcriptions vidéo.

  • Speaker #1

    Les tokens, c'est ce que tu disais au début, c'est la capacité à comprendre, à... comprendre, à mémoriser le contexte. Les documents. Les documents, en fait, même les promptes.

  • Speaker #0

    La mémoire,

  • Speaker #1

    entre guillemets.

  • Speaker #0

    De mémoire, c'est plus que les limites d'OpenAI avec son dernier modèle. Faudra que je vérifie ça. Pour le coup, je n'ai pas le chiffre exact. Mais oui, effectivement, c'est beaucoup plus. D'un autre côté, pour les développeurs, Gemini 2.5 reste intéressant. parce qu'il s'intègre à ce qu'on appelle Vertex AI, qui est un autre outil Google, dont j'ai appris l'existence récemment. Et Vertex AI, c'est la plateforme cloud de Google. Et l'idée, c'est que ce Gemini 2.5 intégré à Vertex AI va offrir une personnalisation des coûts et de la vitesse de traitement. Et par exemple, s'il y a un besoin d'une réponse ultra rapide pour un chatbot client, par exemple, laisse-moi restructurer ma pensée avec Vertex AI les développeurs derrière, ils peuvent gérer le développement d'applications assez rapidement mais aussi en ayant des résultats et des correctifs pertinents provenant de Vertex AI par l'intermédiaire de Gemini 2.5 qui est intégré dedans et donc ça c'est un des outils parmi tant d'autres mais en l'occurrence, c'est ce que j'avais vu d'autre, j'avais vu que on va dire, pour en rester sur l'intégration dans l'écosystème Google, Gemini, ce que je ne savais pas jusqu'à maintenant, est intégré à Google Workspace. Pour offrir notamment des résumés d'email dans Gmail, ou des suggestions de documents qui sont intégrés dans le Drive, des analyses dans les Headsheets, et j'avais vu aussi qu'il est intégré à Google Search. Après, je ne sais pas dans quel use case je pourrais mettre en avant, mais en tout cas, c'est le cas officiellement. Gemini est intégré à Google Search. Et je pense que si on prend du recul, on pourrait très bien imaginer des cas d'usage qui seraient intéressants pour ceux qui utilisent Google Search, ce qui n'est pas mon cas, mais c'est toujours intéressant à savoir. Et enfin, il est intégré, toujours Gemini, à Android Studio. Donc ça, c'est aussi... principalement dédié aux développeurs, comme c'était le cas de Vertex AI, pour la génération ou le débogage de code. Et enfin, dernier point, il est aussi intégré, et ça j'en avais parlé sur LinkedIn quelques jours avant, à Google Maps via la fonctionnalité Geospatial Reasoning. Donc l'idée c'est de combiner Gemini avec des données géospatiales pour répondre à des questions sur... sur la localisation, sur l'urbanisme, en cas, par exemple, de catastrophe naturelle, essentiellement, ça permet à n'importe lequel d'entre nous de voir quelles sont les zones sinistrées, quelles zones à éviter, quelles zones on peut circuler, mais vraiment en direct. Ce n'est pas simplement comme...

  • Speaker #1

    En map ? Oui,

  • Speaker #0

    c'est live. Ah, oui, oui, oui, pardon, oui, c'est live. Dans ce sens-là, oui, c'est live. Je ne sais pas s'il est déployé à l'échelle internationale. Je pense que certains de ces causes aux Etats-Unis, c'est le cas. Il y a beaucoup de... particuliers sur Twitter, en tout cas basés en Amérique du Nord, qui ont testé cette fonctionnalité-là. Et c'est assez bluffant. Par contre, il n'y a aucune trace qui indique que c'est déployé partout dans d'autres zones géographiques comme en Europe ou en Asie. Pour le moment, je n'ai pas cette information-là, mais en tout cas, ça laisse présager que Gemini 2.5 serait déployé sur l'ensemble finalement des outils de l'écosystème Google et quand bien même on aimerait pouvoir faire des choses plus rapidement sur Gmail ou je sais pas moi sur Google Maps Il y a des tas de cas d'usage finalement qu'on aimerait mettre en place grâce à l'intelligence artificielle et peut-être que Gemini 2.5 sera la réponse et le moyen de répondre à nos aspirations sur Google. La force de Google, c'est vraiment de maintenir, d'avoir vraiment pénétré le marché et surtout faire en sorte que ses utilisateurs soient fidèles depuis quasiment 15 ans, voire 20 ans. Depuis notre utilisation du moteur de recherche Google jusqu'à la gestion de notre compte Gmail, chacun d'entre nous utilise au moins un outil de l'univers Google. Et je pense que Google a cette force que n'a pas OpenAI, que n'a pas Anthropic ou tous les autres concurrents. C'est qu'avec leur outil Gemini, ils peuvent clairement booster chacun de leurs outils de l'écosystème Google. et dans le même temps améliorer concrètement nos usages et notre expérience finalement avec l'écosystème Google, mais vraiment l'améliorer considérablement. Maintenant, reste à voir quels seront les usages que Google pourra nous permettre d'effectuer, les nouveaux usages que Google pourra nous rendre possibles via Gmail, via Google Maps, via Drive. via Google Search, même si je ne suis pas un aficionado de Google Search. Mais voilà, ils ont un pléthore d'outils. Seulement deux ou trois d'entre eux sont utilisés régulièrement par les utilisateurs.

  • Speaker #1

    Oui, effectivement, Google a commencé à taper fort fin 2024 pour fêter la fin de l'année dignement. Ils ont sorti moult améliorations, moult nouveaux produits qui ont bousculé pas mal de choses. et qui reprennent depuis quelques jours une deuxième tournée. Ils sont plaisirs, ils lancent beaucoup de choses, notamment leur Gemini 2.5 Pro qui est à nouveau... En soi, ça ne change pas l'écosystème qu'ils essayaient de créer. Parce que oui, ils avaient déjà commencé à intégrer Gemini, sans parler de 2.5 Pro, mais vraiment Gemini, je pense que c'est un nom fourre-tout. Et ça amène pas mal de confusion parmi nous tous, parce qu'en fait, Gemini, comme eux l'entendent, c'est un peu un truc fourre-tout. Fourre-tout, c'est un peu l'assistant de Google.

  • Speaker #0

    L'assistant pour tout, oui.

  • Speaker #1

    L'assistant, oui. Par exemple, Apple en série, l'autre en Alexa, et eux, ils vont voir Gemini. Et donc, tu peux avoir Gemini dans Gmail, dans Google Search. En fait, tu l'as déjà vu, Gemini dans Google Search. C'est juste, tu apportes la requête dans Google Search et après, tu as un petit résumé juste en bas. C'est Gemini, c'est tout. Ça ne va pas chercher bien loin. Et donc, là, ils ont un modèle, Gemini 2.5 Pro. Et donc, c'est vraiment le cerveau, en fait, qui est derrière Gemini. C'est un peu tout comme ils ont Gemini Flash, par exemple, qui est un autre modèle.

  • Speaker #0

    C'est ça, oui. En fait, je n'ai pas fait le tour de tous les modèles, mais c'est vrai qu'ils commencent à en avoir pas mal. Et ils commencent aussi à être très communicants et très agressifs au niveau de la communication, un peu au même titre que Sam Altman ne le fait pour OpenAI. D'ailleurs, la différence, c'est que... OpenAI ne communique que grâce à la figure de Sam Altman, son PDG, donc c'est vraiment Sam Altman qui communique régulièrement sur les avancées, là où Google va utiliser des comptes officiels, Google AI ou Google DeepMind ou Gemini.

  • Speaker #1

    Même le CEO de Google qui est très actif sur le CX.

  • Speaker #0

    Pas autant que Sam Altman. Pas autant, je trouve. En tout cas,

  • Speaker #1

    c'est différent. C'est différent. parce qu'Allemagne, j'ai pas l'impression que c'est plutôt high level. Je sais pas pourquoi, mais je le crois pas quand ils parlent, en fait, et même quand ils tweetent. Alors que l'autre, le CEO de Google est plus actif sur la communauté. Il pose pas mal de questions, il réagit à l'actu, non pas juste l'actu que Google produit, mais l'actu de l'IA en général. Par exemple, sur les fameux MCP, qui est la hype du moment. Lui, il... il communique dessus, il demande l'avis aux gens. Après, est-ce que c'est juste pour créer de l'engagement ou pas ? Mais en tout cas,

  • Speaker #0

    il parle de ce... Il y a deux types de communication différentes. Celui qui fait le plus de bruit, c'est Sam Altman. Parce qu'il va mettre beaucoup de hype et puis d'un seul coup ça va se calmer, puis il va revenir dessus, une nouvelle version, des noms de versions qui sont incompréhensibles chez OpenAI je trouve, 3.0, 4.0, 4.5.0, 4.2.0, enfin voilà quoi. C'est un peu fourre-tout je trouve. Mais tu parlais de MCP juste avant, c'est une très bonne transition. Est-ce que tu pourrais nous expliquer ce dont il s'agit ?

  • Speaker #1

    C'est pas du tout par Google du coup. Oui,

  • Speaker #0

    on pourra revenir sur Google après, mais MCP, apparemment, c'est un sujet transverse.

  • Speaker #1

    Oui, donc parenthèse MCP, ce qu'on peut voir, c'est, on va dire, pour vulgariser, c'est une sorte de protocole de communication entre agents IA. Donc typiquement, aujourd'hui, c'est un des moyens, c'est une norme qui est en train de se créer, qui va permettre, par exemple, de connecter différents produits. différents produits entre eux, sans forcément avoir besoin d'API. Et surtout, si l'API, on va essayer d'y rester plus et plus, sans jargon ni rien. Mettons, un MCP, c'est un protocole de communication standardisé. Donc, par exemple, comme le monde s'est mis d'accord sur la norme USB, je peux connecter mon micro à mon ordinateur via USB. USB, c'est le protocole qui va nous permettre de brancher. deux outils. Et là, ce qui est en train de se lancer, c'est le MCP. Donc le MCP qui a un protocole aussi qui va permettre de brancher deux outils IA l'un à l'autre. Par exemple, Cloud, en tropique, a utilisé le protocole MCP. Donc c'est-à-dire que potentiellement tous les autres outils qui se sont aussi normalisés MCP vont pouvoir se connecter à Cloud. Par exemple, on reprend un des outils qu'on a parlé il y a quelques semaines, donc N8n, qui permet de créer des automatisations avec de l'IA depuis peu. Eux aussi, il y a quelques jours, ont lancé nativement leur outil MCP. C'est-à-dire qu'en fait, maintenant, nativement, avant on pouvait le faire via des moyens détournés, mais maintenant, nativement, tu peux faire communiquer Cloud. Avec N8N. Donc concrètement, les agents IA que j'avais créés aujourd'hui sur la plateforme N8N qui ont accès à mon agenda, à mes emails, je peux l'appeler via Claude. Je suis en train de travailler sur Claude. Claude peut taper N8N qui va taper mes emails.

  • Speaker #0

    Donc en fait, tu peux envoyer tes instructions à N8N à partir de Claude.

  • Speaker #1

    C'est ça.

  • Speaker #0

    D'accord. Et ça a déjà été testé ?

  • Speaker #1

    Et sans code. Ah bah oui, ça existe, c'est live.

  • Speaker #0

    Oui, incroyable. Faudrait une nouvelle vidéo N8N avec Claude cette fois-ci.

  • Speaker #1

    Ouais, mais sauf que je n'ai plus mon abonnement Claude.

  • Speaker #0

    On utilisera le mien alors, même si il va bientôt arriver à échéance.

  • Speaker #1

    Il va bientôt sauter. Bah ouais, parce que ce qui est fou, c'est que c'est sans code. Tu n'as pas besoin de... Je n'ai rien codé pour ça. Parce qu'en gros, le modèle MCQ fait que grâce à... on va sauter tous les trucs techniques, c'est qu'en fait, le modèle MCP peut lui-même, c'est comme si il avait accès à la documentation des API, donc de toutes les fonctions qu'un outil a. Ça veut dire qu'avant, ça veut dire qu'avant, sans... Enfin, avant. Hier ! Sans protocole standardisé, quand tu crées ton API, donc quand tu dois manuellement créer un appel... d'un software à un autre, tu regardes la documentation du software que tu vas appeler, tu regardes ce qu'il attend, lui, comment il fonctionne, et tu lui envoies les bonnes instructions pour qu'il te renvoie les résultats que tu souhaites. Sauf que maintenant, tu n'as plus besoin de ça si tu passes par le MCP, parce qu'on va dire que le MCP connaît la documentation du software que tu appelles, donc tu as... Tu n'as même pas besoin de le configurer. Tu vas juste dire, envoie-moi l'adresse, envoie l'email. Et non, en fait, tu n'as pas besoin de trucs techniques parce que le modèle va comprendre. Il veut envoyer un email, donc je vais aller chercher techniquement à quoi ça correspond et je vais faire les bonnes instructions.

  • Speaker #0

    Mais il faut que tu mettes quand même en place le flow plus ou moins complexe. nécessaire sur N8.

  • Speaker #1

    Il faut que tu mettes le flow, mais du coup, qu'il se décomplie. Alors aujourd'hui, je trouve que dans N8n, on a une version un peu de ce qu'il pourrait faire avec les MCP, c'est à dire qu'ils sont un peu limités pour l'instant. Donc il reste un peu plus ou moins complexe, mais vraiment c'est accessible. Je suis sûr, enfin demain, quelques jours, semaines, je suis quasiment sûr qu'ils vont faire une mise à jour qui va nous permettre de créer un flow en limite en une étape et que l'IA et que l'MCP se démerdent en fait. C'est quasiment certain. Quasiment certain, ça ne veut rien dire, non ? Parce qu'en gros, c'est quasiment certain.

  • Speaker #0

    Oui, non, mais c'est certain. On peut dire que c'est certain.

  • Speaker #1

    Voilà. Ouais, il faudrait qu'on se fasse une petite démo. Je pense qu'on aura cette version-là de MCP dans N8N. Je vais créer un flow en live. Ça va prendre cinq minutes, je pense, et on va s'amuser.

  • Speaker #0

    Clairement, ça peut être super intéressant. Et ça laisse présager finalement, on a l'impression que, comme je te le disais juste avant, le fait de pouvoir connecter... en tout cas de lier des systèmes IA à d'autres systèmes IA ou de génération d'automatisation, etc., ça posera nécessairement des problèmes de confiance et de sécurité. Quand bien même j'imagine que d'un côté les équipes de cloud, de l'autre côté les équipes de N8N font de leur mieux pour assurer des fonctionnalités. déployer une mise à jour qui soit vraiment safe pour l'utilisateur final, pour l'entreprise ou pour le particulier. Mais il va falloir mener, je pense, une politique d'adoption assez poussée pour que les utilisateurs puissent... pour qu'à l'avenir ces fonctionnalités-là dont tu parles et ce MCP dont tu parles se démocratisent assez rapidement et qu'ils ne soient pas réservés qu'à un certain profil d'utilisateur. Oui,

  • Speaker #1

    après, à mon avis, c'est comme une norme. C'est le monde, c'est le marché qui va décider. Je ne l'apprends pas. C'est comme... À une époque, on avait une bataille entre deux normes. Tu te rappelles pour le HD ou le Full HD, je ne me rappelle plus. On était un peu jeunes. On était un peu jeunes.

  • Speaker #0

    C'est le Blu-ray et le HD ? Ça n'a rien à voir.

  • Speaker #1

    Il y avait vraiment deux trucs. Il y avait deux façons de faire de l'HD. sur les télés et au final je ne sais même plus l'autre nom de technologie forcément qui a perdu contre cette norme full HD qu'on a aujourd'hui et tous les matos ça a dû être mis à la poubelle parce que moi ça me fait penser au lecteur Blu-ray petite

  • Speaker #0

    parenthèse qui a fait son temps quelques années et qui a disparu ouais bah si c'était pas court c'était pas court non plus quand même je ne vais pas vérifier sur Google on n'en a pas eu plus Mais à aucun moment, j'ai bifurqué sur le Blu-ray pour voir à quoi ça ressemblait. Même si les promesses de qualité visuelle étaient souvent mises en avant. Comme tu dis, c'est la loi du marché. Mais voilà, c'est ça. En tout cas, ça laisse présager pas mal de possibilités. Encore une fois, en termes d'adoption et de sécurisation, il y aura beaucoup de questions qui se poseront. Ne serait-ce que pour l'adoption d'outils IA, on n'en est qu'au premier pas, vraiment c'est des pas de bébé. À l'échelle des entreprises, beaucoup sentent la pression de l'IA, beaucoup veulent s'y mettre sans avoir tous les éléments, beaucoup se cassent un peu les dents parce qu'ils n'ont pas fait un état des lieux propre. Je pense que tant que cet état des lieux en termes de données, en termes d'infrastructures n'a pas été fait par les entreprises, L'adoption de l'IA et l'adoption des nouvelles fonctionnalités qui émergent sur la base de l'IA, comme ce MCD, prendront du temps, en tout cas en France, en tout cas en Europe, pas simplement pour des raisons législatives, pas simplement pour des raisons juridiques, mais pour des raisons de... Généralement, on a toujours eu cette latence en termes d'adoption pour des raisons sécuritaires. pour des raisons légitimes, mais en tout cas qui font pas mal retarder l'adoption. Je pense que cette fonctionnalité-là dont tu nous parles, qui permet d'intégrer des systèmes à d'autres systèmes IA, sera beaucoup plus adoptée, beaucoup plus rapidement dans des pays comme aux États-Unis ou en Chine qu'en Europe.

  • Speaker #1

    Ou pas, parce qu'en gros, c'est une norme. Donc après, n'importe quelle entreprise, n'importe quel pays peut créer sa propre norme. Oui. Donc au final, ça se trouve, ils vont utiliser un autre truc en Chine. En Europe, ils vont se poser sur un autre truc. On ne sait pas. Même Google, Google aussi essaie de... Je crois que c'est peut-être aujourd'hui d'ailleurs, ils ont lancé un protocole qui s'appelle Agent to Agent, qui permet aux agents de communiquer entre eux. Alors ça s'est tombé, je me sens que c'était vraiment aujourd'hui, il y a quelques heures, donc on ne va pas forcément creuser encore. OpenAI aussi peut peut-être lancer son propre truc aussi. OpenAgent, on ne sait pas. OpenAgent qui va permettre aux agents d'open AI, de dialoguer entre eux. Nous verrons. En tout cas, l'idée d'avoir une norme, ça va accélérer pas mal de développement. Tous ceux qui s'amusent ou en tout cas qui créent des sas le week-end, ça va accélérer encore plus les choses.

  • Speaker #0

    C'est ça. Très brièvement, parce que c'est vraiment un sujet que je voulais mettre sur la table. Ça va être très rapide, on revient un petit peu sur les premiers sujets avec Gemini 2.5. Mais en fait, j'aime bien faire des comparaisons pour mieux me rendre compte des avancées et des développements de chaque entité. Donc avec Gemini 2.5, Google a l'opportunité vraiment de booster ses outils. Gmail, Drive, dont on parlait, etc. Et c'est dommage, j'ai l'impression, pour OpenAI et Microsoft d'avoir manqué ce coche. Ils n'ont pas manqué, mais on va dire qu'ils avancent moins rapidement dessus. C'est que Microsoft pouvait très bien exploiter OpenAI pour optimiser l'utilisation de son écosystème. Donc Office ou d'autres outils liés à Microsoft. Et j'ai l'impression qu'ils sont moins avancés sur ce point-là, à côté Microsoft.

  • Speaker #1

    Oui, mais apparemment, ça arrive. Au début, ils ont essayé quand même. Mais il était les versions copilotes embarquées de copilotes qui n'étaient pas forcément utiles, qui n'étaient pas forcément pertinentes. Toutes les features qu'on nous a promis, peut-être il y a deux ans, arrivent seulement maintenant, progressivement, dans les copilotes. On traduit, par exemple, une là, j'ai vu il y a quelques jours, une là qui se sent vraiment... émerveillé du fait que maintenant Copilot peut traduire un PowerPoint entier. Donc voilà, tu es en train de travailler sur une presse, tac, tu dis, vas-y traduis-moi tout ça, hop, ta presse se duplique en langage que tu veux. Bon, ça arrive, et aussi ils se sont pris quelques tollés aussi par rapport au fait une fonction qui était censée aussi enregistrer tout ce que tu fais sur ton ordinateur. et que du coup tu peux requêter ton ordinateur pour rechercher de l'information. Tiens, j'ai vu un truc, un produit que je cherche en cadeau, que je veux acheter, c'était quoi ? Et tac, il se souvient parce qu'il enregistre tout ce que tu fais. Et donc ça fait un tollé parce que c'est pas très réglementaire ce truc-là.

  • Speaker #0

    C'est vrai.

  • Speaker #1

    Pour formuler des datas et tout. Donc voilà, il y a des choses à cadrer aussi. Mais ça arrive, je pense que ça arrivera bientôt. Ils font ça dans le feutré au fur et à mesure, mais ça reste très professionnel, Microsoft encore, de toute façon.

  • Speaker #0

    J'avais d'autres choses à dire, pas pour meubler évidemment, mais j'y pensais pendant que tu en parlais. C'est une question pour toi Sébastien, parce que moi à chaque fois que je me pose la question, je n'arrive pas à trouver de réponse, tellement je suis surpris à longueur de semaines et de nouvelles qui arrivent. Comment tu imagines les choses ? Allez, admettons début 2026, d'un point de vue progrès technique ou progrès technologique ou nouveaux usages de l'IA.

  • Speaker #1

    Non mais ça c'est une question pour un épisode spécial normalement, c'est qu'on n'a pas d'idée pour un épisode, on se pose une question comme ça. Non,

  • Speaker #0

    absolument pas. Non, parce que pour moi, on a évoqué les sujets qu'il fallait et moi de mon côté, je me disais, mais c'est vrai que moi je trouverais ça intéressant d'avoir... Nos avis respectifs, à commencer par le tien, sur comment tu vois les choses en 2026, ça sonne un peu comme un entretien bidon, basique. Je ne veux pas t'en donner l'impression, mais c'est intéressant.

  • Speaker #1

    Honnêtement, je ne sais pas. Parce que là, je me suis... J'ai fait un filtre, tu sais, de tout ce qui est grand PDG, PDG de grandes entreprises de l'IA. qui font des prédictions causales presque tous les jours. Oui, à la fin de l'année, on a l'AGI. À la fin 2030, on aura la super intelligence.

  • Speaker #0

    J'ai arrêté, je ne réagis pas à ces trucs-là. Limite, c'est toi en fait. Limite les autres qui me mettent sous le nez. Parce que ça ne sert à rien au final. À chaque fois qu'on nous fait une prédiction. Surtout quand c'est un président de Cyprie. On sait que c'est des effets d'annonce.

  • Speaker #1

    Donc toi, tu n'es pas dans cette optique-là ?

  • Speaker #0

    En 2026, non. En tout cas, comme on voit les choses. Au stade... où ça va très très vite, c'est sûr, mais ça ne va pas aussi vite qu'il y a deux ans. D'accord ? 2026, à mon avis, pour l'instant, on n'est pas envahi par le robot, on n'a pas Skynet, on continue notre vie tranquille. Peut-être, sûrement, on aura des outils, les modèles seront un peu plus intelligents, un peu plus rapides, mais... D'ici 2026, pour moi, il n'y a pas de grosse révolution.

  • Speaker #1

    Pas de grosse rupture, quoi.

  • Speaker #0

    Surtout dans nos métiers, dans la vie du quotidien de tout le monde, ça va. Si tu es créatif, tu pourras t'amuser à créer des vidéos un peu plus longues, un peu plus facilement, mais tu vois, ça ne va pas révolutionner ton quotidien. Ça révolutionne déjà les créatifs, les publicitaires et tout ça, parce qu'au final, aujourd'hui, on a tout ce qu'il faut pour créer des... pubs entièrement générés par l'IA, on en voit arriver parce que tu peux créer des images très réalistes et tu peux les animer et tu peux créer des musiques pour les mettre par dessus. Aujourd'hui les vidéos qu'on peut créer sont très très courtes, c'est de l'ordre de moins de 5 secondes, mais mis de bout à bout, quand tu regardes un film ou même une publicité, il y a très rarement des plans qui durent 5 secondes. Donc au final tu crées un plan, un plan, un plan, un plan, un plan que tu emboîtes et ça fait une séquence. Donc aujourd'hui c'est comme ça que tu as des pubs qui arrivent peut-être de 30 secondes et en fait c'est des enchaînements de petits films de 5 secondes. Pour les créatifs, c'est pas mal. Après pour nous et puis pour le quotidien, début de MW6, en tout cas moi je pense que c'est business as usual.

  • Speaker #1

    Voilà, tu pourrais écrire plus de prompts qu'avant, mais ce ne sera pas révolutionnaire.

  • Speaker #0

    Non, je pense que tu pourras avoir des meilleurs résultats.

  • Speaker #1

    Peut-être qu'on a atteint une vitesse de croisière finalement.

  • Speaker #0

    Pour nous, pour les utilisateurs en tout cas, je ne pense pas qu'on va se considérer comme builder. On ne va pas créer des applications, en tout cas pour l'instant. Pas de gros trucs, ne serait-ce que pour le loisir. Non, voilà. Pour les devs, peut-être, il n'y aura pas non plus de grosses ruptures non plus. Ça va aller plus vite. Mais à part ça, fin 2026, on ne sait pas. Parce que fin 2026, ça nous fait un an et demi.

  • Speaker #1

    Un an et demi, c'est quoi ? Oui, c'est encore un peu loin. On ne peut pas trop se présager quoi que ce soit encore à ce niveau-là. Mais je me dis, vu qu'on est bientôt en été, au moment où on enregistre cette vidéo, ce n'est pas déconnant de se dire à quoi ça peut ressembler d'ici la fin de l'année, voire début d'année prochaine.

  • Speaker #0

    Et à voir si avant l'été, je regarde avant l'été, est-ce que tu as les grosses boîtes qui vont nous sortir un festival de release. Parce qu'au final, on a des grosses releases à la fin de l'année 2024. Alors, avril, fin mars, ça commence à s'activer aussi. Donc, est-ce qu'ils ne nous feront pas un petit festival comme ça avant l'été, pour passer l'été tranquille ? Parce que je me rappelle, l'année dernière, l'été, il n'y avait rien.

  • Speaker #1

    L'année dernière, c'était ça,

  • Speaker #0

    oui. On s'est ennuyé pendant 2-3 mois, il n'y avait rien. C'était bizarre.

  • Speaker #1

    Comment on va enregistrer nos vidéos ?

  • Speaker #0

    C'est ça. On n'a rien à dire, ce n'est pas normal. C'est ça. Et toi alors, sinon ?

  • Speaker #1

    Non, je suis à peu près dans le même positionnement que toi. Je me suis lassé de ces annonces. révolutionnaire de hype etc que j'ai moi même partagé parce que ok c'est toujours hyper excitant sur le coup mais voilà c'est comme une drogue finalement on apprend un peu c'est super une nouvelle release c'est génial tout ce qu'on va pouvoir faire et pouf le lendemain matin on passe à autre chose ou un petit vide qui va durer quelques jours avant de retrouver un concurrent qui lui-même va sortir sa nouvelle release avec des nouvelles capacités etc Ouais, c'est super. Mais, et je ne suis pas le seul à dire ça, il y a une lassitude. Il y a une lassitude de voir toutes ces nouvelles releases...

  • Speaker #0

    arrivé alors ok ça crée une bonne dynamique mais au niveau des réactions je trouve qu'on est beaucoup plus temporisés non on a pris l'habitude et puis à mon avis c'est comme tout ce qui est news en toison c'est ça le social et c'est effet secondaire d'avoir des news en temps réel moment tu satures quel que soit le domaine alors là il se trouve qu'on a beaucoup suivi forcément les news de l'aiti au bout d'un moment Voilà, c'est trop quoi.

  • Speaker #1

    Au bout d'un moment, on se déconnecte et on revient en 2026. Waouh, vous avez vu ?

  • Speaker #2

    On sort de notre grotte.

  • Speaker #0

    D'ailleurs, cet été, il sera commercialisé le premier robot domestique fait par Samsung aux Etats-Unis et en Corée. Il s'appelle Bori. C'est une petite boule. C'est un R2-D2 qui roule.

  • Speaker #1

    Alors moi j'ai Basile Boli, un footballeur international français. Alors je vais mettre, là je suis sur Google, je ne devrais pas, je devrais mettre Perplexity. Alors, les avantages du robot domestique Boli, c'est quoi, c'est un aspirateur ?

  • Speaker #0

    Non, même pas, c'est un petit robot domestique. Alors moi je pense qu'il ne servira à rien, mais il sera là. Officiellement, tu vois, il surveille ta maison. Tu peux lui poser des questions. Il a un projecteur pour qu'il t'affiche des informations, pour te parler. Il peut écrire des trucs par terre ou sur les murs. Il met beaucoup en avant l'aspect santé parce qu'en gros, il peut te regarder, il peut te regarder faire du sport, il peut juger ta posture, ton poids, ta forme et du coup, te proposer des exercices.

  • Speaker #1

    Ta forme ?

  • Speaker #0

    Ta forme ? Alors, en fonction de qui tu parles, c'est forme ou forme, tu vois ? Ou ta forme, voilà, qui sort de... Donc, en fait, je cherche un mot qui commence par méta, mais je ne sais plus c'est quoi, dans le body shape.

  • Speaker #1

    Méta, méta, méta. Non,

  • Speaker #0

    bref.

  • Speaker #1

    Non, mais écoute, il faut voir ce que ça va donner. Pour l'instant, j'ai le sentiment qu'il s'agit plus d'un gadget.

  • Speaker #0

    Mais qui sait ? C'est comme un assistant, en fait. C'est comme tu as dit, petit. Tu vois, il y en a qui prennent des... Il y en a qui, au début, qui ont pris des photos, tu sais, de leur... Regarde ce que j'ai dans mon frigidaire et dis-moi des recettes. Bah, Boli fera aussi pareil, en fait. Regarde, tu le fous. Morphologie. Selon ma morphologie. Selon ma morphologie. Dis-moi quel fer. Regarde-moi le fer pour le dire si je fais bien. regarde mon frigo, regarde ce que je fais à manger pour soutenir justement mon activité. Ils mettent aussi en avant l'aspect styliste, parce que du coup, tu dis, vas-y, viens voir, et regarde ma penderie. Et aussi, regarde la météo du jour, comment est-ce que je m'habille. Voilà, c'est ça. C'est un petit assistant qui a accès à Internet, et une caméra, et voilà. Et c'est... C'est concrètement Tchadjipiti. D'ailleurs, il tournera sûrement sur... Non, je ne sais plus à quoi il tournera. Il me semble qu'il tournera sur un IA qui est fait par Samsung. Mais par contre, qu'il y aura accès aussi à Gemini. Ça, c'est une news qui nous l'ont sortie hier. Il y aura accès aussi à Gemini pour je ne sais pas quoi. Mais bon, voilà. Tant mieux, peut-être. Mais voilà, c'est-à-dire qu'en gros, c'est un Jiminy qui aura accès à une caméra et accès à Internet. Voilà, pour l'instant, c'est pour ça, pour moi, je trouve qu'il ne servira pas à grand-chose, mais il sera là et ça va commencer comme ça.

  • Speaker #1

    Je pense que ça pourra donner des idées à d'autres concurrents qui pourront potentiellement, à partir de là, proposer d'autres cas d'usage plus intéressants. Mais c'est vrai que là, premier coup d'œil... Oui, bon, c'est bien que ce soit commercialisé. Ils ont fait une étude de marché, finalement, donc potentiellement, ça pourrait marcher. On va voir. En tout cas...

  • Speaker #0

    Ou pas, voilà. Peut-être que ça servira juste à ballon de foot pour Optimus.

  • Speaker #1

    C'est ça. Oui, non, mais écoute, il faut voir ce que ça va donner. Moi, de mon côté, c'est vrai que je ne suis pas encore spécialement convaincu, mais à un moment donné, on trouvera bien un concurrent qui trouvera le cas d'usage super intéressant. super convaincant qui nous fera sauter sur le nouveau produit. En tout cas, je ne savais pas. Merci pour cette info. On est bien disruptifs.

  • Speaker #0

    Reviens de ta... Voilà. Ça se trouve, on aurait une news à parler pour l'été. on disait que tu seras calme et bien oui car forcément tu me verras comme ça va chez lui tant que riz comme du coup forcément tu me verras avec la petite balle et regarde un unboxing en direct voilà serait pas mal bon bah par contre cotiser un petit peu parce que franchement moi je vais pas l'acheter à tout seul c'est quoi le je ne sais pas du tout mais mettez ce que vous mettez mettez un max au cas où

  • Speaker #1

    En plus, avec les nouvelles politiques tarifaires en vigueur, il faut bien économiser.

  • Speaker #0

    Ah, j'avoue. Je ne sais pas. Il va être fabriqué en Chine, c'est sûr.

  • Speaker #1

    Ce serait judicieux, en tout cas. Merci beaucoup, Sébastien. Merci à tous. On arrive à la fin de l'émission. Et puis, comme toujours, c'est un plaisir. Et on se dit à très bientôt pour le prochain épisode. Merci, Seb. Merci tous. Bye.

Chapters

  • Intro & rappel des critiques envers Google

    00:00

  • Pourquoi Gemini 2.5 Pro change la donne

    01:40

  • Contexte 2 M tokens, Vertex AI & Workspace

    05:45

  • Gemini dans Maps et Android Studio

    08:59

  • MCP : la “norme USB” des agents IA

    14:26

  • Défis adoption & sécurité en entreprise

    20:08

  • Microsoft, Copilot et la course aux intégrations

    24:56

  • Samsung Ballie : premier robot domestique IA

    35:37

  • Conclusions & teasing des prochains sujets

    39:42

Share

Embed

You may also like