- Speaker #0
Eh mec !
- Speaker #1
Ouais qu'est-ce qu'il y a ?
- Speaker #0
Bah là j'ai beau chercher là j'ai pas trouvé.
- Speaker #1
Qu'est-ce que tu cherchais ?
- Speaker #0
Bah Pity5 ! Et je trouve pas là ça fait depuis l'été que je cherche et je retourne tous les meubles de ma maison. On m'a dit qu'il était là mais j'ai rien trouvé.
- Speaker #1
Ouais ouais ouais y'a de gros problèmes en ce moment chez OpenAI. Ah ouais ? Par quoi commencer ? Je pense que déjà depuis le mois d'août, tu sais qu'il y a pas mal de départs chez OpenAI.
- Speaker #0
Il paraît, il paraît, mais ça continue, non ? Il y a un mercato plus ou moins constant, il n'y a aucune règle. C'est le Far West. Il y en a qui partent, il y en a qui reviennent.
- Speaker #1
Le dernier en date, c'est justement, après je ne sais pas si GPT-5 comprenait Sora, l'outil de génération de vidéos. Un des... membre fondateur clairement de Sora, je ne sais pas si on peut l'appeler ainsi, est parti pour rejoindre Google. C'est tombé la semaine dernière. Pour rejoindre Google DeepMind, et pour travailler sur la même technologie, mais en faveur de Google. Et c'est signé avec ça encore. On se dirait, bon, c'est pas grave, OpenAI, il y a de la ressource. Sauf que, beaucoup de grosses têtes chez OpenAI, parmi les membres fondateurs de la boîte, sont partis chez la concurrence, soit chez Meta, soit chez Google, soit pour leur propre business direct, tout simplement, développer leur propre outil. Et on pense, en tout cas moi je pense, je ne suis pas le seul à le penser, que les multiples effets d'annonce réalisés par OpenAI sur la sortie de telle fonctionnalité, de telle mise à jour, ou de telle version, finalement ne se sont pas concrétisés parce qu'ils ont été pas mal ralentis par ces départs. Et c'est encore le cas actuellement. Avant, on parlait d'une hégémonie ou vraiment d'une écrasante, on va dire, emprise d'OpenAI sur le marché de l'IA. Là, j'ai l'impression qu'ils ralentissent considérablement depuis ces départs et que derrière, la concurrence qui gagne finalement ses cerveaux tout frais, tout chaud, est en train de rattraper son retard. Après... On n'a pas encore de cas concrets. Jusqu'à aujourd'hui, je vais être délibérément provocateur, on n'a pas encore vu Google nous faire une démo correcte. On devait remonter sur les passifs Google en termes de démo, et ce n'était pas joli à voir.
- Speaker #0
En termes de fake, surtout. Ils ont fait des belles démos, mais c'était fake.
- Speaker #1
Mais oui, c'était transcripté, ça se voyait comme le nom au milieu de la figure. Mais voilà, on n'est pas là pour casser du sucre sur Google. On se dit que potentiellement, Google... avec ses nouvelles ressources à sa disposition provenant d'OpenAI peut faire pencher la balance. Ça reste à vous.
- Speaker #0
Après, il y a aussi ces faits de cerveau, mais j'ai aussi l'impression qu'OpenAI s'est empêtré dans des discussions internes sur, par exemple, le but de la société. Est-ce qu'on favorise ? Maintenant, on sait qu'Haltman favorise le business et vend ses outils. De plus en plus et de plus en plus rapidement, la boîte a été montée sur une mission plus ou moins de sécurité ou alors de... C'est une IA sécurisée pour tous. Le modèle et la vision de l'entreprise a changé, donc je pense que c'est aussi pourquoi on a beaucoup de départs. Il y a une sorte de multiple personnalité dans la boîte. Et donc forcément, ça ne peut pas marcher, c'est pas stable. Ils vont devoir traverser cet instant-là de... de décisions de vision et de traçage de voies, de roadmaps, pour perdurer. C'est pour ça que les concurrents en profitent. Et aussi j'ai l'impression que OpenAI, enfin Altman en tout cas, travaille avec le gouvernement américain que les autres. Ou alors les autres c'est pas marketé. Mais on voit souvent des trucs du genre, ouais, Altman et... Voilà, travaille avec le gouvernement, je ne sais pas trop quoi. Les autres aussi, ça c'est sûr. Mais bon, peut-être que Matt a plus de... Matt,
- Speaker #1
je le vois plus comme un communicant. Il est là pour présenter les belles choses, pour faire des beaux effets d'annonce. Derrière, il parle souvent de promesses et de fonctionnalités à venir qu'il n'est pas en mesure de décrire techniquement, déjà parce que ce n'est pas son rôle. Et même d'un point de vue fonctionnel, il est... pas très clair encore. Il est souvent dans le conditionnel. On pourrait faire ci, on pourrait faire ça. Ça ne saurait tarder, ce sera dans un à court terme, un moyen terme, on pourra faire ça. J'ai l'impression que j'en ai vu quelques-unes de ces interventions, que ce soit dans des universités, dans des conférences ou face à un journaliste. ça restait toujours... Enfin, on sentait qu'il était assez vigilant dans sa prise de parole, ce qui est normal, mais en même temps qu'il était incapable de donner vraiment des jalons précis sur les prochaines sorties d'Open AI.
- Speaker #0
Ouais, mais ça, c'est lié à la technologie. En fait, ils sont R&D constantes, donc ils découvrent au fur et à mesure la tech, mais c'est même limite qu'ils ne maîtrisent pas. Donc, le second... de son développement, c'est de la recherche constante. Donc, à un moment donné, on a des communiqués comme quoi ils pétaient des paliers toutes les semaines. Donc, en fait, s'ils ne connaissent pas même le potentiel du truc, c'est difficile de dire cet été, on sort ça, dans trois mois, on sort ça.
- Speaker #1
Au-delà de la course au développement, il y a aussi une course à la communication, j'ai l'impression. Quand bien même on n'a pas fini ou peaufiné une fonctionnalité, On va malgré tout communiquer dessus, et communiquer notamment sur une version bêta, juste pour mettre un peu plus la pression à la concurrence et montrer qu'on se met en avant, qu'on a une position de leader à maintenir et qu'on doit entretenir cette position-là. Et j'ai l'impression que là, on a l'impression qu'on a multiplié les communications de la part OpenAI et que derrière, concrètement, on n'a pas... Toutes les promesses ne sont pas tenues. Et il y a un sentiment de frustration qui commence à apparaître. Je le vois parmi les différentes réactions qu'il y a sur LinkedIn et sur Twitter. Il y a une frustration qui commence à apparaître vis-à-vis d'OpenAI entre ce qui est dit et ce qui est concrètement possible de faire via l'outil ChatGPT ou d'autres fonctionnalités à venir qui ne sont toujours pas arrivées. Et là où j'ai l'impression que la concurrence est plus... et plus pragmatique et ne va pas faire des effets d'annonce, mais plutôt annoncer certaines choses au moment où elles sont déjà fonctionnelles.
- Speaker #0
De toute façon, c'est vrai qu'Open Air nous a fait beaucoup d'annonces avant les vacances. Et au final, on ne voit rien. On ne voit rien encore.
- Speaker #1
C'est ça.
- Speaker #0
Il y a le mode...
- Speaker #1
On se disait que Chadi Pitti viendrait, il me semblait, juste après les vacances d'été, avant la fin de l'année. Là, on y est. On n'a toujours pas d'annonce officielle.
- Speaker #0
Avant l'été, on nous avait présenté des trucs assez révolutionnaires. Par exemple, un modèle vocal avancé qu'ils sont en train de déployer aujourd'hui, que j'ai pu tester. Et surtout, il y avait le truc, tu te rappelles, de partage d'écran à TGPT. Et que TGPT commentait en réel ce que tu lui présentais. Par exemple, t'es en train de développer ou t'es en train de faire un truc. Il y a même une démo d'un mec en train de jouer à Minecraft. Et Tchadjibidi est sur le côté en disant, ben voilà, maintenant, construis tel ou tel outil, donc pour le construire, tu ramasses telle ou telle ressource, tu fais ça, et puis le mec faisait ça, il jouait avec un assistant Tchadjibidi en même temps qu'il lui disait quoi faire. Bon là, on est très très loin, j'ai l'impression qu'on est très très loin de ça, aujourd'hui.
- Speaker #1
Oui, oui, clairement, et j'ai l'impression que de toute façon, cette communication accessible, elle est là pour mieux cacher les départs dont on a parlé, les départs de... d'OpenAI parce que ce qui est sûr, c'est que cette vague de départ, elle va poser des problèmes techniques en termes d'avancée, de progression, on va dire, à une fréquence qui était assez soutenue avant ses départs et là qu'ils se retrouvent assez impactés. Parce qu'on a eu vraiment des leaders qui sont partis, on a eu la CTO qui est partie, on a eu des directeurs de recherche aussi qui sont partis, et du coup on se retrouve avec des pertes de leaders. dans la société d'OpenAI et qui forcément va affecter la capacité d'OpenAI à se maintenir en tant que leader et à maintenir son avantage concurrentiel.
- Speaker #0
Honnêtement, est-ce que ça te fait penser à Apple un petit peu à l'époque de Jobs, dans le sens où tu avais un leader qui n'était pas forcément technique, mais qui était très fort en communication ? Alors, Antoine, il est pas très fort en communication. Non,
- Speaker #1
c'est ce que j'allais dire, oui, non.
- Speaker #0
Par contre, voilà.
- Speaker #1
Il y a Jobs et il y a Antoine.
- Speaker #0
C'est pas ce que je veux dire. Non, par contre, voilà, il est là pour les effets d'annonce, comme t'as dit. Par contre, oui, une présentation, c'est pas ça. Mais voilà, il est là en mode tête d'affiche pour vendre sa boîte. Bon, après, c'est lui qui lit le truc, même si, techniquement, c'est pas le meilleur. Et à cause de ça, tu as des têtes qui partent aussi, au fur et à mesure. Et quand il arrive, c'est lui qui décide. Il s'est fait têche aussi, il s'est fait têche, il est revenu. C'est sûr. Oui, il y a un petit parallèle, il y a un petit parallèle. Après, pour voir où ça va mener.
- Speaker #1
Après, il a la chance d'avoir Microsoft derrière lui. Clairement, je pense que la société OpenAI, avec tous ses départs, n'aurait peut-être pas tenu le coup s'il n'y avait pas Microsoft qui poussait en termes d'investissement et de ressources.
- Speaker #0
Oui, peut-être. Après, c'est une startup, c'est une leader quand même. Donc, est-ce que le leader peut... Sur la mobilisation,
- Speaker #1
même de volume de ressources, il se développe à une vitesse fulgurante.
- Speaker #0
Et donc, c'est vrai que depuis ces derniers mois, peut-être par rapport à ça, Il y a un modèle qui, très peu parle, j'ai l'impression, qui ne prend pas beaucoup de place dans la voie publique, mais c'est l'outil de Cloud, anthropique, qui, depuis plusieurs mois apparemment, a dépassé un petit peu le fond en termes de raisonnement. en termes de rédaction. Alors à mon sens, c'est assez équivalent, mais c'est vrai qu'apparemment, si tu es un fort utilisateur, Cloud a dépassé GPT. Et de plus, il y a Cloud qui a une fonctionnalité que GPT n'a pas. T'as l'interpréteur de code. Ça veut dire qu'en fait, maintenant c'est très très facile de créer une application, une web app, avec Cloud. C'est très puissant. Tu lui fais...
- Speaker #1
Je vais lui montrer une démo en vidéo. Ouais,
- Speaker #0
vous allez le faire. Je suis en train de développer une application. Bon bah, parce que...
- Speaker #1
Je vais créer une formation automatisée.
- Speaker #0
Voilà, déjà. Mais c'est un truc, effectivement, dont tu peux coder assez précisément. Alors, bon, c'est pas du 100%, comme d'habitude avec l'IA générative. Mais ce qui est très fort aussi, c'est que tu vois le résultat de ce que tu codes direct. dans l'interface de Claude. C'est à dire que tu n'as pas besoin de prendre ton code, de le mettre dans un IDE ou quelque part dans un environnement pour voir et peut-être pour bidouiller. Non, non, tu vois ton écran se split en deux, tu as ta feuille de chat et de développement et à droite, tu as le résultat de ton code qui est à gauche.
- Speaker #1
Mais c'est une dinguerie ça. Tu vois, c'est dingue que tu me dis ça parce que je trouve ça hyper impressionnant et pourtant j'ai l'impression que Claude ne fait pas d'efforts en terme de communication.
- Speaker #0
Non, c'est pas ouf. Non, non. J'ai pas l'impression qu'il y a de gros trucs.
- Speaker #1
C'est dommage. C'est pas à toi que je vais l'apprendre, mais c'est pas tant la compétence ou la performance technique qui compte. Si derrière, c'est pas marketé comme il faut, ce sera perdu dans la masse.
- Speaker #0
Ouais, peut-être qu'ils attendent d'avoir une killer feature vraiment qui fasse pencher le game, parce qu'au final, ça, c'est pas utile pour monsieur tout le monde. Madame tout le monde. Désolé, c'est pas utile pour le... Moi ça m'a impressionné parce que ça me permet de... Il y a des idées d'applications, ça me permet de... J'ai fait des défaites. J'en ai pas à virer, je suis déçu. Est-ce que j'embauche pour ça exactement ? Pouvoir le virer derrière. Mais euh... Juste pour rigoler, pour l'expérience. C'est un test, c'est un test.
- Speaker #1
Ça serait pas un décès ?
- Speaker #0
Euh... Ouais, non mais écoute. Et par exemple, tu vois, en contrepartie, j'ai l'impression que bah y a... 3 jours à peu près, la date dont ils sont montés la vidéo, t'as GPT, enfin t'as OpenAI qui a sorti une nouvelle interface de GPT qui s'appelle ça Canva, le Canva.
- Speaker #1
Oui, Canva ou Canvas,
- Speaker #0
oui. Bon, bon, c'est marrant, c'est marrant, mais il y a toujours pas d'interprétateur. C'est intéressant.
- Speaker #1
Non pardon, désolé de t'avoir coupé, je trouvais ça pas exceptionnel comme avancée, c'était intéressant. J'ai pas eu l'occasion de tester, j'ai regardé quelques démos et j'ai fait oui, pourquoi pas.
- Speaker #0
Peut-être parce que nous on l'utilise pas en fait. Bah en gros pour ceux qui n'ont pas vu le truc, c'est qu'en gros, ils ont entraîné KGPT à faire apparaître une nouvelle interface en fonction de ce que tu es en train de créer. Donc par exemple si tu es en train de créer un article de blog, et bah tac, l'interface va se modifier. et tu vas avoir comme un Google Doc en fait. Tu vas être comme un Google Doc et tu vas pouvoir modifier et mettre tes comptes dans l'espèce de canvas qui s'est créé. Par exemple, on a l'article de blog, si tu surlignes le titre, tu vas pouvoir mettre ta compte genre, améliore le titre, améliore le texte. Et donc, Tagifiti va pouvoir impacter le résultat ciblé.
- Speaker #1
pour lui et non pas le parti de boule de bloc en entier donc plutôt que de revenir sur le format ou la structure des certaines phrases directement dans la conversation, on a une interface qui nous permet d'améliorer l'expérience utilisateur.
- Speaker #0
C'est un peu comme sur Meet Journey ou alors sur Dali, sur JGPT en fait, où tu peux appeler Dali, où tu peux créer des images. Donc une fois que tu as une image générée, tu as la possibilité d'éditer. Donc par exemple, si tu as créé une personne avec le coup classique, avec l'IA, cette personne a six doigts sur une main, au lieu de cinq, tu peux très bien cibler, sélectionner la main, et dire non, je veux ce que 5 doigts et tac, l'image uniquement ciblée donc la main que tu as sélectionnée va se modifier et pas toute l'image c'est un peu comme ça mais pour le texte bon, toujours pas d'interprétateur de code par contre moi quand j'ai vu qu'on va, je me suis dit ça y est ils vont rattraper le retard mais non non toujours pas
- Speaker #1
Après, là où ils ont peut-être de l'avance, c'est au niveau de l'outil vocal d'OpenAI.
- Speaker #0
Oui, carrément.
- Speaker #1
Qui est plus poussé. Il y a une démo qui a été faite récemment. Je n'arrive plus à remettre la main dessus, mais grosso modo, l'idée, c'était de permettre à ChatGPT, via sa fonctionnalité vocale, de pouvoir, en fonction d'un prompt, vocal également, faire en sorte que ChatGPT appelle lui-même. un restaurateur pour commander un certain nombre de produits dans une certaine quantité en respectant le budget qui a été indiqué durant le prompt et demander à ce que ce soit livré à telle adresse. Et du coup, ChatGPT va lancer cet appel-là automatiquement vers ce restaurateur avec une voix très humaine lui expliquer la situation. Je souhaite commander tel nombre de tartelettes aux fraises à l'occasion d'un pot de départ en entreprise. Voilà, j'ai un budget de 1500 dollars et je souhaite être livré à cet endroit-là, qui n'est pas très loin de votre restaurant. D'ailleurs, de son côté, le restaurateur va répondre à ce robot, même s'il n'aura peut-être pas conscience qu'il s'agit d'un robot, parce qu'on est vraiment dans une conversation fluide, très humaine, avec les tons, les émotions qui sont changeantes dans les timbres de voix. On perçoit difficilement qu'il s'agit d'un robot à l'autre bout du fil, mais finalement, le restaurateur va se prêter au jeu, et verbalement va indiquer, ok, ça rentre dans les clous, en termes de critères, on peut vous livrer dans les 10 minutes qui suivent, vu que vous n'êtes pas très loin, et le robot va répondre, c'est cool, vous n'êtes pas très loin de chez nous. Et voilà, ça se fait comme ça, ça se présente comme ça. Et j'ai trouvé ça bluffant, comme démo. Ça reste une démo, je ne sais pas s'ils l'ont bien scriptée, mais ça reste extrêmement bluffant. Le fait de confier à un agent IA, parce qu'il s'agit d'un agent IA, l'achat de GPT a été transformé en agent IA, de pouvoir confier certaines tâches à des agents IA en lui fournissant les informations nécessaires et qu'il réalise ces tâches-là de manière efficace et rapide, clairement, l'idée principale de ces outils-là leur objectif principal qui est de faire gagner du temps c'est un objectif rempli dans ces circonstances là et qui va potentiellement si elle est déployée et utilisée par les principaux acteurs dans ce besoin faire pencher la balance et remettre OpenAI sur le devant de la scène là où actuellement on sent qu'ils sont un peu ralentis par ces différents départs dont on a parlé je pense qu'on arrivera à ce genre de truc c'est un futur
- Speaker #0
sa future est plus ou moins proche. Par contre, là moi je dis attention, c'est que il y a quelques années, on a eu la même démo de la part de Google. Exactement la même.
- Speaker #1
Ouais, c'est vrai, j'ai un vague souvenir.
- Speaker #0
Ouais ouais. Où par contre, on faisait pas une commande, mais leur assistant virtuel réservait une table dans un restaurant.
- Speaker #1
Oui, je m'en souviens maintenant.
- Speaker #0
Bon, alors même aujourd'hui, et depuis ? Bon on a rien vu hein, mais depuis on a rien. Bon.
- Speaker #1
Heureusement que je vous ai pas partagé la démo, si c'est pour casser derrière, c'est pas...
- Speaker #0
Tu me connais, moi je suis la voix de... du passage.
- Speaker #1
Ah quoi c'est pas bon.
- Speaker #0
Non mais c'est impressionnant, après c'est sûr que, voilà, il faut y aller. C'est pas parce que c'est open AI que l'IA c'est super high en ce moment, qu'on va avoir ces trucs là demain. Y en a qui sont frottés à ça. Bon bah... On verra, mais c'est sûr que ça va arriver. C'est sûr que ça va arriver.
- Speaker #1
En tout cas, oui, la démo, elle est impressionnante. Reste à voir ce que ça va donner. Et puis, oui, non, clairement... Comme je le disais, il y a une déception qui commence à se faire voir un peu partout sur les réseaux sociaux vis-à-vis de la communication d'OpenAI. Il y a de l'impatience et de la frustration.
- Speaker #0
C'est vrai qu'ils nous ont habitués à sortir des dingueries tous les mois. Et là, le fait qu'ils ont des promesses mais sans rien derrière, c'est encore pire de ne rien faire.
- Speaker #1
En fait, il y a un juste milieu, un juste équilibre à trouver. Et là, j'ai l'impression qu'ils essaient de trop communiquer pour couvrir un peu leurs arrières. Mais dans le même temps, ils vont devoir assumer. Ils ont du mal à assumer.
- Speaker #0
C'est peut-être pour ça qu'ils ont sorti d'ailleurs le preview de leur futur modèle. Je ne sais pas s'il est disponible à tout le monde ou alors qu'au premium. Le modèle qui s'appelle O1 Preview. Donc oui. J'ai pas vu ça. Ça devient long en fait. J'ai pas vu ça. J'ai pas vu C'est sorti là il y a 30 secondes ! Ah bah c'est bon !
- Speaker #1
Oh il y a 5.5 qui est sorti là !
- Speaker #0
Oui ils nous ont pas prévenu mais on a pas l'outil fait casser. Alors que oui, alors que le preview c'est marrant 5 minutes mais par contre on revient, ceux qui l'ont testé, on revient à une lenteur de 3.5 vraiment à l'époque où c'était lent d'avoir une réponse. Là effectivement c'est lent parce qu'apparemment l'outil s'auto-check. Réfléchis !
- Speaker #1
Je trouve que ça donne de bons résultats, des résultats plus pertinents.
- Speaker #0
Ouais, ouais. Après, bon, encore une fois, on verra ce que ça va donner, mais c'est vrai que c'est marrant de voir au moins la réflexion, parce qu'on peut voir la réflexion de l'outil en même temps. Et quand tu vois JPT marqué Bon, là, je réfléchis, il y a un aspect éthique est-ce que je devrais te répondre ça ou ça ? Oh non !
- Speaker #1
Est-ce que tu vas me partir ? C'est intéressant. Pour quelques secondes, ça ne m'embête pas. Si derrière, ça te donne des résultats plus structurés, plus poussés et plus raisonnés, tant mieux. Là, on est devenu trop habitué au contenu systématique disponible dans l'immédiat. Ce n'est pas plus mal. C'est vraiment ce temps d'arrêt, même si ça reste très rapide malgré tout. On y apprend de l'attence, mais qui reste... très raisonnable pour l'expérience utilisateur. L'idée, c'était vraiment de parler exclusivement d'OpenAI, évidemment de commenter paradoxalement le peu d'actualité qu'il y a côté OpenAI et ce que ça pourrait sous-entendre.
- Speaker #0
Qu'est-ce que ça sous-entend ?
- Speaker #1
Ça sous-entend qu'OpenAI est dépassé et que Google va prendre le relais. Non, j'y crois pas, j'y crois pas une seconde.
- Speaker #0
Après, pourquoi pas ?
- Speaker #1
Je reste tellement Google.
- Speaker #0
En fait c'est juste que c'est possible mais on veut pas.
- Speaker #1
C'est ça exactement.
- Speaker #0
Après pourquoi pas mais le problème c'est que moi personnellement peut-être que c'est pareil aussi. On a tellement bouffé de mots fakes de leur part là. Même s'ils rattrapent leur retard, tu auras toujours un doute quoi. Est-ce que c'est vrai ? Est-ce que c'est pas vrai ? Est-ce qu'au final, Montel, il va... Ça arrive dans le téléphone, est-ce qu'il va pas exploser, tu vois ? Je sais pas pourquoi, mais... Bon, en termes... Sinon, on commentera, je pense, le prochain épisode, peut-être, les avancées de... silencieuses, de méta. Oui, qui sortent des prototypes de hardware. Ah, mais... Ouais, mais ils ont lâché le prototype, mais apparemment, ça a défoncé. Le prototype de leurs lunettes de réalité mixte.
- Speaker #1
Ça, ouais, je trouve déjà, au niveau des dizaines, je trouve ça très moche.
- Speaker #0
Non, non, attends, toi tu parles des Snap, non ? Des Snapchat ? Non,
- Speaker #1
mais même les lunettes méta sont moches.
- Speaker #0
Ah ouais ? Ah oui, mais c'est un prototype, oui, ils le vont, oui, mais ils le vont. Attends, attends, énorme. Ouais, ouais, ils sont plus petits que tous les autres sur le marché déjà.
- Speaker #1
Oui,
- Speaker #0
certes. Alors que c'est qu'un prototype.
- Speaker #1
Oui, bon d'accord, si ça reste qu'un prototype, ok, on peut leur laisser une chance.
- Speaker #0
Mais bon, c'est sûr que c'est plus gros que les lunettes qu'on porte actuellement, ça c'est sûr.
- Speaker #1
Ouais, non, mais surtout pas. Bah déjà, pour les Apple Vision, je pense que là, ils commencent à suer.
- Speaker #0
Ouais, ouais, c'est pas fait pour porter dehors, ça c'est ce mois, c'est flagrant, c'est un laptop que tu... Voilà, tu te mets sur la tête. Ça fait quoi ?
- Speaker #1
Ça fait un an que c'est sorti.
- Speaker #0
Peut-être, ouais.
- Speaker #1
On est en train de bifurquer, mais s'il n'y a pas d'application sur Apple Vision, je pense qu'en 2025, on pourrait annoncer la mort de ce produit officiel.
- Speaker #0
Ouais, c'est un projet, tu sais, genre, ils y pensent depuis des années. Là, ils disent, vas-y, c'est comme un projet que tu as depuis longtemps, mais que tu ne sors jamais. Tu te dis, à un moment donné, il faut y aller. Tu m'en débarrasses. J'accouche le truc, j'en ai marre. Allez.
- Speaker #1
C'est un peu comme les Google Glass. Quoique les Google Glass, il n'y a pas eu autant de hype, j'ai l'impression,
- Speaker #0
derrière. Les Glass ne sont jamais sortis, de toute façon. Mais le projet était ambitieux.
- Speaker #1
C'était le même principe. C'était de la réalité augmentée. Tu pouvais directement avoir des projections d'écran à travers une petite caméra qu'il y avait là. qui te permettait de suivre ta direction et en même temps de te suggérer quelques restos ou quelques endroits en fonction de tes demandes.
- Speaker #0
Et c'est là qu'on voit à quel point le projet était irréalisable à l'époque. Parce que tu vois la technologie qu'ils comptaient mettre dans un tout petit carré comme ça, même aujourd'hui on n'y arrive pas.
- Speaker #1
Mais oui, c'est là que je me dis qu'on a l'impression d'avoir reculé. La promesse était d'avoir tout dans un petit carré, sur sa monture existante, une monture lambda. Et finalement je retrouve avec des casques ou des lunettes énormes à porter pour avoir une expérience client ou une expérience utilisateur intéressante.
- Speaker #0
Bon, et vous avez vendu des voitures volantes aussi, mais je ne vois rien. Ouais,
- Speaker #1
merde,
- Speaker #0
c'est pas chiant.
- Speaker #1
Après on a les chiens cracheurs de feu.
- Speaker #0
Ah, les chiens robots cracheurs de feu, c'est une... Ah non, non, je n'ai pas demandé ça non plus.
- Speaker #1
Mais on l'a quand même. Faut penser à ce que tu ne prends pas et que tu obtiens. Faut penser aux besoins qu'on te crée. Pas aux besoins que tu souhaites assouvir.
- Speaker #0
Ah, c'est sûr que j'avais besoin d'un robot crachant de feu pour défendre ma maison. Ouais, j'avoue.
- Speaker #1
Ouais, faut protéger ta maison, mec. On n'est plus en sécurité nulle part.
- Speaker #0
Ah, j'avais oublié ça, ouais.
- Speaker #1
Ouais,
- Speaker #0
bon.
- Speaker #1
Et c'était tout pour moi, Sébastien. J'ai pas... grand chose à ajouter.
- Speaker #0
C'est parfait, merci.
- Speaker #1
Et meublé davantage.
- Speaker #0
Ça se trouve, demain, au PNA, il va nous sortir un dinguerie, on va faire un gros edit derrière. On va faire un petit petit break in news. L'épisode n'est même pas monté encore.
- Speaker #1
On va mettre des barres défilantes comme sur BFM, des titres en rouge.
- Speaker #0
Bonne idée.
- Speaker #1
En tout cas, merci Sébastien d'avoir joué le jeu encore une fois.
- Speaker #0
Merci Aziz et merci à tout le monde.
- Speaker #1
Merci à tous, à très bientôt.
- Speaker #0
Salut.
- Speaker #1
Ciao.