- Speaker #0
Les gens, à la sortie de ChatGPT, ils ont eu ChatGPT, ils ont probablement posé des questions, je ne sais pas, les patrons des grosses entreprises sur leurs entreprises, ils ont vu que ce n'était pas toujours à jour, ce n'était pas toujours correct, mais qu'il y avait quelque chose. C'est presque un piège, parce que finalement, un chatbot d'entreprise ne fonctionne pas comme ChatGPT, ChatGPT, tu vas discuter avec lui. Donc en fait, tout le sujet, ça va être de faire un travail en amont dans la gestion des sources. Et donc, en fait, il y a l'étape d'ingestion, l'étape au moment de retrouver le document de relis. Il y a le moment de retrouver le document, il y a le moment de l'augmentation, c'est la génération, c'est-à-dire au moment où il y a le document qui doit répondre. Toutes ces étapes. Il faut qu'on fasse en sorte et qu'on utilise notre expertise pour faire en sorte que le modèle comprenne correctement les autres. Les clients ne veulent pas, ils ont raison, qu'on utilise leurs données pour comprendre un modèle qui sera utilisé ailleurs. Il faut générer des données artificielles autour des faiblesses qu'on a découvertes pour affiner le modèle dans des aspects plus spécifiques.
- Speaker #1
Aujourd'hui, j'ai le plaisir d'accueillir Adrien, CTO et cofondateur de AlloBrain. Bonjour Adrien.
- Speaker #0
Déjà, merci pour l'accueil et bonjour. C'est un plaisir d'être ici.
- Speaker #1
Merci d'être là. Écoute, avec toi, on va aborder plein de sujets hyper intéressants. Tu es fondateur d'une startup qui est en plein boom, qui propose des solutions qui sont au cœur des préoccupations des entreprises. L'idée, c'est que tu m'expliques un petit peu avant de rentrer dans ton parcours et ce que tu as fait et les motivations derrière Lowbrain. Petite question brise-glace, qu'est-ce que toi tu aurais aimé faire petit comme métier ?
- Speaker #0
Alors je sais pas si j'avais un métier exact que je voulais faire petit, mais je sais que j'avais déjà des centres d'intérêt qui finalement sont assez liés à ce que je fais aujourd'hui. Donc j'aimais beaucoup les jeux de construction, ou j'aimais démonter les voitures télécommandées pour voir comment ça marche. Donc j'avais un peu cet intérêt pour le fonctionnement des objets, disons. Et par la suite j'ai rapidement aussi commencé à coder, enfin rapidement c'est un grand mot, mais... vers 12 ans, dès que j'ai eu mon premier ordinateur, j'essayais de coder. Au début, c'était pour créer des jeux vidéo.
- Speaker #1
Assez tôt, quand même.
- Speaker #0
Oui, assez tôt. Après, je ne veux pas du tout passer pour le génie qui a commencé à coder tôt. C'était vraiment des trucs très basiques avec si, dis bonjour alors dire quel est ton prénom ? et dire bonjour, Adrien etc. Donc, c'était vraiment très basique. Déjà dans le contexte national, alors. C'est vrai. Maintenant que tu me le dis, je n'avais même pas pensé. Mais finalement, assez tôt, j'ai commencé à coder. Après, j'ai eu quelques occasions. Donc il n'y avait pas vraiment une ambition, un métier spécifique en tête. Je ne suis pas celui qui voulait devenir pompier depuis très jeune, mais finalement, ça tournait autour de l'ingénierie, l'envie de créer des choses, l'envie de faire des choses. Donc au final, c'était assez lié à la fois à l'entrepreneuriat, où tu crées une entreprise, et l'ingénierie, où tu crées des choses. Avec ce côté aussi qui m'intéresse, je ne suis pas très patient, donc d'avoir un résultat direct avec l'informatique, c'est pratique.
- Speaker #1
Ok, top. Donc l'envie de construire des choses à ces jeunes. Oui. Et donc on va parler un peu de ton parcours maintenant. Comment en fait, avant d'être fondateur d'Alobraine, qu'est-ce que tu as fait au préalable, ton parcours académique ? Tu peux nous expliquer ce qui t'a amené à la data science, la data LIA ?
- Speaker #0
Parfait, donc j'ai commencé assez classiquement, bac S comme je pense que tous les gens de notre profession et notre milieu. Et ensuite, j'ai enchaîné sur des études à l'étranger, à Londres. Normalement, j'aurais été plutôt voué à la prépa scientifique, mais j'avais cette opportunité qui s'offrait à moi. J'avais des gens que je connaissais qui étaient partis faire l'université à l'étranger à Londres. Du coup, c'était une bonne occasion. J'ai fait quatre ans de mathématiques et physique. Donc, c'était assez intéressant. C'est toujours l'intérêt des études. J'ai l'impression que c'est plutôt d'apprendre à penser que d'apprendre un métier. Et là-dessus, c'était très intéressant. Ensuite, d'un point de vue académique, je suis rentré en France. Et j'ai fait un master spécialisé, double diplôme polytechnique HEC en Data Science for Business, pour ceux qui connaissent. Et là, ça m'a appris tout ce qui était autour de la data, du machine learning. Donc, ça m'a... a pris ce secteur que je ne connaissais pas du tout. En parallèle de mes études, quand j'étais à Londres, j'ai fait un stage dans une startup qui s'appelait Clap, qui faisait du montage vidéo automatisé. Et ça, comme je te disais, j'avais commencé à coder quand j'étais petit, mais ça, ça m'a vraiment, je pense, appris le métier, plus autour de développeur, de mettre de la rigueur, de tester son code, des choses. Quand tu fais un...... Une application conversationnelle, comme on disait, où tu dis bonjour, comment tu t'appelles, tu n'appelles rien, tu ne fais pas de unit test, ça ne te parle pas du tout. Je n'ai aucune formalisation de ce que j'apprenais, c'est vraiment que sur Internet. Et là, ça me permettait d'avoir en quelque sorte un mentor qui me formait là-dessus, donc c'était une très bonne expérience. Et pendant mon master spécialisé Polytechnique à Chaussée, j'ai fait un stage de césure chez Capgemini Invent, là où j'ai rencontré justement mon cofondateur Ziad. Et c'est après ça qu'on s'est lancé. Pour l'anecdote, on était à Vivatech, on se baladait dans les stands. On travaillait justement sur un sujet qui était autour de l'analyse des verbatims clients. On se baladait dans les stands, on allait voir les entreprises qui récoltaient les avis des clients et on leur demandait combien ils ont de retour. Ils avaient 3%, 2%. On se dit, on fait des analyses sur des verbatims, mais il n'y a pas de verbatim. Ce n'est pas très intéressant. Et donc, on s'est dit, pourquoi ne pas lancer AlloReview à l'époque, qui est la récolte d'avis vocaux pour... les clients pour que les clients puissent partager leurs expériences aux entreprises. Et donc il y avait deux défis technologiques là-dessus qui étaient assez intéressants. Il y avait le défi du speech to texte, donc transformer la voix en texte.
- Speaker #1
Là on est en quelle année juste pour aussi ?
- Speaker #0
Ouais c'est vrai, on est en... Je pense que quand on a commencé à avoir l'idée, on a lancé la boîte en 2020, l'idée on a dû commencer à l'évoquer autour de 2019-2018, avant de se lancer vraiment. Mais déjà du coup il fallait donc la technologie de speech to text qui commençait à émerger, qui commençait à être performante. Mais il y a un autre sujet qu'il ne faut pas négliger non plus, c'est le sujet de l'analyse sémantique. Parce que si les entreprises avaient des questionnaires aussi à rallonge auxquels les gens ne répondaient pas mais qui étaient très structurés, c'était aussi pour avoir des insights sur des sujets précis et ce que permettait pas l'analyse de texte à l'époque. Donc en fait si on dit on vous donne des audios, bon déjà il faut les transcrire parce qu'il faut que ce soit du texte. Et ensuite si on lui dit on vous donne du texte, non il faut leur dire le client a aimé ça, il n'a pas aimé ça. Et déjà... Dès le début de la boîte, on a vraiment cherché à avoir des technologies qui ne demandaient pas trop de supervision et qui permettaient au métier d'assez facilement définir des sujets et de donner une analyse assez performante.
- Speaker #1
De ne pas prédéfinir des catégories de réponses dans lesquelles il faudrait... Ce qui m'a dérangé, c'était le service client, c'était la durée de la réponse que j'ai obtenue, ce genre de choses qui soient inférées directement de la donnée.
- Speaker #0
Exactement. Alors parfois, il fallait le définir quand même, mais c'était du semi-supervisé. C'était vraiment... Le métier définissait des sujets. avec quelques mots clés et nous de ces sujets avec quelques mots clés on définissait, on découpait l'avis une fois retranscrit en disant le client il a aimé ça à partir de ce texte là le client a pas aimé ça à partir de ce texte là et après on faisait un dashboard qui permettait au métier de retrouver ce à quoi il s'attendait avant avec leur questionnaire classique et même mieux parce qu'il y avait plus de contenu
- Speaker #1
Ok donc l'idée a émergé à Vivatech et avec Zied vous vous êtes dit bah en fait il y a quelque chose à construire ici et c'est comme ça que l'histoire est partie est-ce que pour revenir un petit peu sur ton expérience à Londres Oui Est-ce que la culture britannique ou anglo-saxonne t'a un peu préparé à l'entrepreneuriat parce que finalement t'as fondé assez jeune la société ? Ou est-ce que t'avais déjà en toi cette envie bien avant et que finalement même le stage que t'as fait en start-up te préparait déjà à ça ? Ou est-ce que c'est né un peu aussi lié à la culture anglo-saxonne ?
- Speaker #0
Je pense que assez naïvement j'ai un peu toujours eu ça sans que ce soit très concret. Après les stages... Ce stage en start-up, ça m'a un peu conforté là-dessus. Et paradoxalement, le stage en entreprise chez Gopjimi, ça m'a conforté. Non pas que ça s'était très bien passé, mais juste dans cette envie un peu plus d'être impliqué dans ce que je voulais faire, d'avoir le contrôle un peu de ce que je faisais et de ce qui allait marcher, aussi de ce qui n'allait pas marcher, d'être face au risque. Mais la culture anglo-saxonne, assez paradoxalement, c'est assez marrant parce que quand tu es dans une université anglaise... tu n'arrives plus à comprendre qu'il y a d'autres métiers que le conseil ou la banque. Donc vraiment, à la fin, c'était presque difficile. Tu vois les gens autour de toi, Bon, moi, je ne sais pas si je vais présenter un stage dans telle firme de consulting ou dans telle firme de finance. Et à la fin, tu en arrives à penser qu'il n'y a que deux métiers sur Terre, la finance et le consulting. Donc c'est presque paradoxalement difficile, des fois, de sortir un peu de ce cadre une fois que tu as été dans une université.
- Speaker #1
Donc elle n'est pas si différente finalement que les grandes écoles.
- Speaker #0
Oui, c'est vrai que je n'ai pas fait les écoles en France ici, mais je pense que c'est assez similaire aussi.
- Speaker #1
intéressant du coup est ce que tu pourrais nous expliquer là en quelques mots la mission d'AlloBrain ce que vous faites les problèmes que vous essayez de résoudre.
- Speaker #0
Donc nous notre mission c'est un peu de d'utiliser l'IA pour humaniser et améliorer les relations clients des grosses entreprises. Les grosses entreprises ils ont énormément de clients souvent énormément d'appels d'interactions de feedback etc etc et des fois il ya un côté soit de la perte de d'humanisation là où en fait pour des questions simples parfois les gens ont pas de réponse ils attendent 10 minutes de téléphone pour pas avoir de réponse soit même une quantité d'information qui n'est pas utilisée ou même quand tu as des questionnaires et que tu demandes est ce que vous êtes content pour ça oui non et que tu as un dashboard c'est pas très humain le métier comprend pas c'est pas parce qu'il y a un trait rouge pour dire voilà les clients sont pas contents de ça que tu vas faire quelque chose donc ce qu'on essaie vraiment c'est d'utiliser l'IA pour avoir une analyse déjà profonde de ce que les gens disent que les gens soient écoutés finalement parce que si t'es pas capable d'analyser exactement ce que te disent tes clients Dans le détail, il y a des choses de lesquelles tu passes à côté. Et parfois, un avis peut être impactant. Ça peut être parfois des avis, ça peut être parfois des problèmes rencontrés. Je ne sais pas, j'ai été dans telle chaîne alimentaire, les produits étaient périmés, qu'on le sache. Ou ça peut même être un avis pertinent qui n'est pas dit par beaucoup de monde. Donc nous, ce qu'on permet, c'est vraiment indirectement de donner la voix à tous les clients. Comment on remonte les sujets de façon non supervisée, de façon... C'est l'IA qui va remonter les sujets. Tout ce qui est pertinent remonte.
- Speaker #1
C'est intéressant ce que tu dis parce que finalement, de l'extérieur, on pourrait penser que la valeur, c'est plutôt le volume d'analyse parce qu'automatisation, il y a qui apporte cette automatisation. Mais il y a aussi le fait de ce que tu dis, de pouvoir… Parfois, il y a un avis qui peut être déterminant, comme tu disais sur les produits périmés, que le fait d'avoir des catégories prédéfinies…
- Speaker #0
nous garantit pas en fait de capturer ce genre d'avis et que c'est pas uniquement la promesse de volume d'automatisation et d'efficacité opérationnelle c'est aussi spotter des choses qu'on n'aurait pas spotter autrement exactement ben en fait c'est ce qu'on aime aussi c'est qu'on a toujours tendance à penser que l'IA ça va déshumaniser mais nous on pense que c'est un peu l'inverse ça va humaniser parce que comme tu dis il y a des sujets qu'on n'a pas anticipé qui intéressent une entreprise et même globalement je sais pas si si ça a une valeur ajoutée énorme et un plaisir énorme pour un conseiller d'aller répondre au téléphone dix fois la même question alors qu'en fait on pourrait répondre automatiquement de façon... humaniser pareil parce que l'IA génératif propose aussi d'humaniser l'interaction et donc ouais paradoxalement c'est pas que du volume, de la masse et on voit rien même sur nos dashboards ce qu'on aime bien faire et qui marche de plus en plus avec nos clients d'analyse sémantique c'est de faire des... tu peux interagir par chat avec nos dashboards ou même avoir un résumé un peu automatisé fait par l'IA et on compte vraiment sur le fait de remonter même les avis qui ont été donnés pour ce sujet donc l'IA va prendre, il va faire Il va voir que ce sujet remonte beaucoup ou que ce sujet est intéressant. Il ne va pas juste dire, les clients pensent qu'il y a beaucoup d'attentes. Il va dire, la dernière fois que j'ai été chez Mark X, j'ai attendu une heure au téléphone. Et ça, c'est hyper important parce que des fois, ça va aller vers des équipes un peu opérationnelles qui n'ont pas forcément le contact avec le client. Et ça donne un contact indirect avec le client parce qu'ils ne peuvent pas dire, ah mais il n'y a pas bien analysé ou je ne sais pas d'où ça vient. Non, le client a dit ça exactement de cette façon-là. Alors, c'est un avis parmi d'autres, mais ça représente ce que disent les autres personnes.
- Speaker #1
OK. Et tu l'as dit, la boîte, en tout cas l'idée a commencé à émerger en 2019. Donc, on n'avait pas forcément accès à des technos comme les LLM, en tout cas en termes de maturité, même s'il y avait des modèles de langage. Est-ce que, comment vous avez construit et à quel point le produit finalement a shifté par rapport justement à l'émergence de ces modèles fin 2022 ?
- Speaker #0
Alors, je dirais qu'il y a eu deux shifts. Il y a eu un peu le shift au début de… On s'est lancé un peu dans l'entrepreneuriat avec cette idée-là, et sans forcément faire une étude de marché, du besoin, du ROI. Et on s'est confronté au cas où on présentait nos solutions, les gens disaient que c'était génial, les avis vocaux, c'était l'avenir. Mais finalement, ça mettait du temps à signer, on se retrouvait avec les directions, l'innovation. Ce n'était pas forcément ce qu'on aurait voulu, parce que nous, ce qu'on veut, c'est faire un produit à un pack direct, les gens y sont engagés. Et au début, c'était... C'était intéressant, mais on n'avait pas forcément le ROI dessus. Donc petit à petit, on a exposé notre technologie au marché et on a vu que notre technologie, avant même l'ALM, pouvait s'appliquer à d'autres cas d'usage. Donc notamment au Callbot, on fait du vocal, on fait de l'analyse la moins supervisée possible, la plus facile à configurer possible. C'était très pratique. On a commencé avec Aéroports de Paris. Ils avaient un sujet pendant le Covid où il y a beaucoup d'appels qui concernaient des sujets assez similaires qui revenaient. Donc on a construit une base de questions-réponses de façon très classique. On transcriait l'audio. On matche ce qu'a dit la personne avec une question existante. Et du coup, on donne la réponse. Finalement, c'était des technologies assez similaires avec celles avec lesquelles on travaillait. Et du coup, on s'était étalé. Pareil, comme on faisait au début, c'était un seul produit. Tu récoltes un avis vocal, il est analysé, tu as un dashboard. On peut aussi faire l'analyse sans forcément faire la récolte de l'avis. Et à la place de l'avis, tu peux mettre un appel. Donc, il y a beaucoup d'entreprises qui voulaient savoir qu'est-ce que disent leurs clients au téléphone. Il y avait un ROI beaucoup plus clair de dire. Il y a telle opportunité de vente qui est manquée parce que X ou Y. Et donc, on s'est étalé justement sur différents produits. Donc ça, disons que c'est la première transition. Mais donc ça, c'était plutôt une transition interne. Disons, ça fait partie de l'expérience entre ouvres en arrière, ce qu'on appelle un pivot en général. Je sais pas si c'est un pivot. Nous, c'était plus un élargissement de notre offre. Et après, très rapidement, nous, comme on était sur ces domaines, on commençait à avoir des callbots, des analyses sémantiques. Et qu'on a vu, en étant connaisseurs, disons, du secteur, on a vu l'arrivée des LLM. un peu avant, peut-être un an avant l'arrivée de ChatGPT, qui a été l'arrivée grand public. Et ça nous a permis de tester des choses. Donc c'était à la fois des callbots démo full LLM, parce que c'était un peu tôt pour avoir des callbots en IA génératif pour des entreprises, ou alors des briques qu'on rajoutait aux appels existants. Par exemple, sur un callbot classique, moi je disais, on a une base de questions-réponses, mais ce n'est pas dit que l'appelant pose la question clairement. L'appelant, je ne sais pas. pour l'aéroport, pour les objets trouvés où un de plus perdu va dire objet, parce qu'il ne sait pas trop comment gérer, il a l'habitude des bots un peu mécaniques, donc il n'a pas l'expérience. Et donc, vous pouvez mettre un peu de liage génératif pour lui demander d'affiner la question. Qu'est-ce que vous pouvez dire par objet, par exemple ? Et ça, c'était assez cadré pour se permettre de mettre de liage génératif assez tôt.
- Speaker #1
Ça, c'est un bon point. C'est qu'effectivement, il y a peut-être cet usage historique des callbots où on sait, même si les utilisateurs ne sont pas forcément au fait de la technologie, mais que cette idée de classifier l'intention, Et qu'en fait, l'IA, en tout cas la machine derrière, attend des mots un peu clés. Ce qui n'est pas forcément aujourd'hui le cas. Ou en tout cas, ce qui est beaucoup plus visible aujourd'hui. Est-ce qu'il y a une question qui me vient sur la partie, le fait de créer une boîte, sans avoir, tu le diras un peu, sûrement après on en parlera, mais vous êtes autofinancé aujourd'hui. Donc ça aussi, c'est super intéressant de voir comment vous avez structuré votre croissance et d'être... vraiment dépendant de clients pour la pérennité de la boîte. Sans donner, vous avez une boîte data, vous faites de l'IA, etc. Sans donner client, comment vous avez, ou est-ce que ça a été un enjeu ou pas d'ailleurs, de se rendre compte que les modèles que vous avez construits, les applications finalement en termes de typologie de données ou de distribution d'infos, on est complètement, enfin on est différent entre ce que vous aviez dans le produit, dans le proto versus les premiers clients que vous avez rencontrés.
- Speaker #0
Alors ça c'est intéressant, nous on a beaucoup travaillé avec nos clients aussi, donc on venait avec, au tout début on avait des produits qui fonctionnaient mais qu'on a amélioré avec nos clients et du coup comme tu le dis ça permettait d'avoir les bonnes données pour tester etc. Quand tu es autofinancé tu n'as pas le temps de te poser, mettre une équipe de personnes et dire vous allez me développer un modèle qui fonctionne et c'est ça qu'on va présenter, donc tu es obligé de travailler avec tes clients, de façon efficace aussi, parce que tes clients aussi attendent. la livraison. Et du coup, on n'a pas eu ce problème-là. L'autre réponse que je peux donner, c'est qu'on a toujours eu une approche. On a essayé de trouver des solutions là où l'humain a un peu le contrôle de ce que fait l'IA et de décorréler un maximum du besoin des données spécifiques du client pour entraîner. Donc, on a pu parfois, par exemple, je ne sais pas quand c'est de l'analyse d'avion, on a pu scraper des données Trustpilot et s'en inspirer. Et du coup, entraîner nos modèles ou améliorer nos modèles secteur par secteur ou tester nos approches. Mais finalement ça a resté très contrôlable ce qu'on fait, c'est vraiment quelque chose qu'on essaie de vraiment mettre en valeur, c'est qu'on veut pas un IA qui va deviner tout pour l'humain, on essaie vraiment de diviser ce que l'humain doit faire, le métier doit faire et ce que l'IA doit faire. Si je peux donner un exemple et comme ça permettre aussi de parler de l'application aussi de l'IA générative dans l'analyse sémantique finalement parce qu'on n'y pense pas mais même dans des sujets aussi en apparence d'ailleurs, vraiment en apparence simple que l'analyse sémantique, tu peux discuter avec certains prospects ou certaines personnes qui sont un peu moins... dans le domaine de l'IA, ils disent l'analyse sémantique c'est réglé, il n'y a plus de soucis. On voit qu'on a des nouveaux clients qui ont changé de solution parce que les analyses sémantiques de l'époque étaient moins pertinentes que celles qu'on peut faire aujourd'hui. Et ce que ça permet, l'IA génératif là-dedans, c'est que ça permet non seulement d'avoir une partie complètement non supervisée, là où l'IA va juste lister tous les sujets, nous on appelle ça des sujets élémentaires, mais tous les sujets basiques qui sont évoqués par le client. Donc vraiment si un client dirait je ne sais pas, il y a eu une rupture de stock sur les glaces à la vanille, On remonte à un sujet rupture de stock sur les glaces. Donc ça, on considère que l'IA peut décider de déterminer tous les sujets. Mais par contre, le métier, je pense que ça reste important que le métier... décide ce qu'il veut suivre, d'un côté, ou est-ce égraphe à lui. Donc on divise vraiment cet aspect-là où l'IA peut trouver des sujets basiques et après le métier trouve les grands blocs là où il veut ranger ses sujets. L'IA peut en proposer bien évidemment, mais c'est toujours le métier qui a le contrôle sur la liste de ses sujets pour qu'il suive de la façon la plus optimale pour lui. Et ce qu'on lui demande maintenant, à l'époque c'était des mots-clés, maintenant c'est de décrire le sujet exactement. Donc les promotions, pour moi une promotion c'est ça, c'est pas ça, et avec des exemples. Et du coup le...
- Speaker #1
le travail est vraiment minimum entre ce que fait le métier et ce que fait l'IA donc vous avez finalement un socle qui finalement lui est un peu agnostique du client qui va faire une première lame qui va passer une première analyse sur l'ensemble des sujets qui sont traités et faire les liens peut-être entre un avis au sens polarisant du terme, sentiments etc et des sujets et ces sujets là ne sont pas prédéfinis Et après, il y a une couche plus métier qui, lui, est client spécifique, où en fait, ils vont définir quel sujet suivre et avec quel niveau de granularité.
- Speaker #0
Exactement. Et donc, ça range ces petits sujets dans ces gros sujets. Et d'un point de vue, disons, entraînement IA et spécialisation de l'IA, on ne fait pas une spécialisation par client, mais on va faire une spécialisation plutôt par secteur. On va affiner par client. Et ce qu'on essaye de faire, du coup, de ce point de vue-là, c'est qu'on sait très bien que les clients ne veulent pas, et ils ont raison, qu'on utilise leurs données pour entraîner un modèle qui sera utilisé ailleurs. En général, ce qu'on va faire, c'est qu'on va trouver un peu là où le modèle a des faiblesses du fait d'un secteur spécifique. Et on va générer, ça c'est aussi l'avantage de l'IA génératif, c'est qu'on peut générer des données artificielles autour des faiblesses qu'on a découvertes pour affiner le modèle dans des aspects plus spécifiques. Mais donc en général, sans qu'on utilise directement ces données pour entraîner un modèle, chaque client nous permet d'avoir un modèle un peu meilleur sur tous les secteurs.
- Speaker #1
Ok, ok. Et pour aller plus loin dans cette partie d'évaluation, qu'est-ce que... Qu'est-ce que vous cherchez à évaluer exactement si on se place dans un cadre data science ? Qu'est-ce que vous cherchez à évaluer ? Quelles sont les métriques, les validations que vous mettez ?
- Speaker #0
C'est hyper intéressant parce qu'à la fois sur l'analyse sémantique, c'est assez original, et à la fois sur les chatbots et callbots, c'est assez original aussi parce que du fait que c'est lié à Génératif, c'est plus comme avant. Sur l'analyse sémantique, on pourrait dire que classiquement, on va prendre des avis, on va mettre un sujet ou des sujets face à un avis. Et qu'après, on va tester que les sujets soient les mêmes. Sauf que ce qu'on réalise, c'est que ça marche pour des datasets publics, des démos, là où on a, je ne sais pas, les datasets Amazon, les trucs positifs, négatifs, ou alors... Sur les news, les ports politiques. C'est un peu caricatural, honnêtement. Je pense que la majorité des modèles sont capables très facilement de résoudre ces problèmes. Mais nous, on est plus sur du sentiment humain. L'humain, il veut avoir un dashboard d'analyse. Et finalement, il veut que quand il définit des sujets, il veut retrouver ce qu'il voulait voir finalement. Donc nous, on est plutôt sur des métriques de validation, à quel point c'est validé ou corrigé par l'humain. Et un peu de la calibration finalement, et à quel point le nombre de fois où la calibration est nécessaire est réduit dans le temps. C'est plutôt ça un peu nos métriques. Donc même sur cet aspect classique de l'analyse sémantique, on peut trouver de l'originalité. Et ensuite sur les callbots et chatbots en IA génératif, le sujet devient un vaste sujet. Alors qu'avant, ça revenait de la classification, mais indirectement. Là maintenant, on a une question qui peut générer une infinité de réponses possibles. Parce que même pour en dire la même chose, on peut en dire d'une infinité de façons possibles. Et là, c'est assez intéressant parce qu'on doit aller vers des sujets d'évaluation via des LLM. Donc il y a ce qu'on appelle les LLM as a judge. On prend des modèles les plus puissants possibles et on met la réponse trouvée et la réponse espérée. la Grand Truth et on demande au modèle de dire à quel point la réponse donnée est similaire à la Grand Truth et là pareil il y a une infinité de sujets parce que si je demande par exemple on a un chatbot dégénératif avec le maître, si je lui demande je sais pas quelles sont les piscines combien y a-t-il de piscines à Cancun, il va me dire il peut me dire 5 piscines, il y a 5 piscines et elles sont très belles il peut me décrire chacune des piscines et au final si la Grand Truth c'est une description de chacune des piscines... C'est bien, mais...
- Speaker #1
Qu'est-ce qu'on cherche à capturer ? Est-ce que c'est le nombre de piscines ? Ouais, c'est ça,
- Speaker #0
exactement. Est-ce que c'est le type de piscine ? Ouais, à quel point on veut aller dans le détail ? En fait, t'es obligé d'aller dans la finesse, d'essayer de splitter la question en différents faits, de voir quel fait est indispensable, lequel ne l'est pas. Donc en fait, il y a plein de questions qui se posent autour de ça. Pareil, de façon très intéressante, on a constaté, et ça c'est aussi un peu dans le côté autofinancé, on est très concret dans les clients, donc on développe un produit hors sol. Et du coup, on voit des cas concrets, et on voit que... que par exemple dans l'évaluation, si on demande au métier par exemple d'écrire la réponse attendue, parfois on va avoir un problème là où la réponse attendue par le métier n'est pas cohérente avec les sources. Donc en fait il y a tout un travail justement d'aller, en plus de donner une réponse, d'être capable de justifier cette réponse, d'être capable de dire dans quelle source il a trouvé cette réponse, et après le rôle du métier en collaboration avec nous ça va être de voir est-ce qu'il a bien compris la source, nous notre rôle s'arrête à bien comprendre la source finalement et répondre de façon cohérente avec la source, Et ça permet au métier de voir déjà s'il a bien compris la source, si la réponse, si la source est fausse ou si la réponse métier est fausse, d'aller corriger quelque part pour donner la vraie réponse. Mais en fait, on voit rapidement qu'il y a un nombre énorme de sujets qui est autour de ce sujet du chatbot, en plus d'avoir de la qualité, comme tu dis, de l'évaluation, là où tu as une infinité de problèmes qui émergent, qu'il doit essayer de régler tant bien que mal.
- Speaker #1
Intéressant. Et sur ces questions de citations, de sources, sur des données clients, est-ce que du coup... Un des challenges, je ne sais pas si c'en est un, mais de déployer votre solution, vous êtes aussi tributaire, j'imagine, des données clients, à quel point ces données sont riches en métadonnées, contextualisées, etc. Ou est-ce qu'en fait, la solution s'adapte à partir du moment où on traite du texte et que l'information est présente dans du texte, ou est-ce que selon les sources de données, vous avez des logiques de parsing, je ne sais pas, de documents ? se donner plus structuré et que c'est un mix de tout ça qui rentre en ligne de compte. Je prends l'exemple de la piscine.
- Speaker #0
Oui, c'est un vrai sujet. En général, la bonne approche, souvent, il y a des prospects, ils disent est-ce que je peux uploader un PDF, etc. Souvent, ce qu'on voit très concrètement, ce que les clients veulent utiliser, c'est vraiment pour un aspect pratique, c'est qu'on se connecte directement à leur source, quelle qu'elle soit. Parfois, ça peut être des API qu'ils ont qui alimentent leur site Internet. Un pays qui alimente leur site internet, ça peut paraître données structurées, mais c'est données structurées pour un usage spécifique et pas forcément pour un autre. Une logique pour un site internet, par exemple, je sais qu'avec Clomid, ils séparent en différentes régions leurs resorts, donc ça peut être Europe et Méditerranée, Alpes, etc., qui a complètement de sens pour le site. Donc il n'y a pas de souci, mais c'est vrai que pour le bot, ça a moins de sens parce qu'un resort des Alpes ne se trouve pas dans Europe et Méditerranée. Donc après, c'est vrai que tu dois te retrouver à gérer ce genre de sujet. Ou alors, ça peut être plein de documents libres. Et finalement, la solution s'adapte, mais il y a un vrai travail de setup de notre côté pour trouver la meilleure façon d'ingérer les sources, de les traiter. En fait, tout le sujet d'un chatbot ou voicebot, callbot en IA générative, ça va être comment faire en sorte déjà de se donner confiance dans les réponses. Donc ça va avec l'évaluation, mais de faire en sorte que le bot comprenne bien les sources. Il y a plein de choses qui nous paraissent évidentes à nous en tant qu'humains, finalement, qui ne le sont pas. Pas du tout pour un bot. J'ai l'exemple, par exemple, de... Si tu as une fille, j'ai un resort, et qu'il y a une section Facilities, j'ai pas le mot en français, mais Aménagement, je pense que ce sera la bonne traduction, et que t'as une liste de piscines, je sais pas, de 4 piscines décrites, piscine A, piscine B, on va aller à 3, ça va être plus un piscine A, piscine B, piscine C, et qu'après il y a un restaurant qui décrit ce restaurant est au bord de la piscine, dans une autre section restaurant, nous humainement on se dit bon il y a 3 piscines, dans les aménagements il y a 3 piscines. Mais ce qui peut arriver c'est que le LLM se dise bon il y a... piscine A, piscine B, piscine C, et celle qui est au bord du restaurant. Donc, il peut répondre quatre. Donc, en fait, tout le sujet, ça va être de faire un travail en amont dans l'ingestion des sources, au moment du retrieval. En général, on parle de RAG, Retrieval Augmented Generation. C'est un mot très mystérieux pour plein de gens, mais en fait, c'est assez simple. Imaginez, vous allez sur le chat GPT, vous mettez un document dans le chat et vous posez une question sur le document. Finalement, c'est simplement ça. mais plus complexe parce que tu as beaucoup plus de documents et tu as des critères de compréhension des documents, comme je disais, et de différents formats de documents. Et donc, en fait, il y a l'étape d'ingestion, l'étape au moment de retrouver le document, d'être capable de retrouver les bons documents, et au moment de l'augmentation, c'est-à-dire au moment où il y a le document qui doit répondre.
- Speaker #1
Le retrouver par rapport à une demande particulière.
- Speaker #0
Exactement. À toutes ces étapes, il faut qu'on fasse en sorte et qu'on utilise notre expertise pour faire en sorte que le modèle comprenne correctement les sources.
- Speaker #1
Oui, complètement. Et... Du coup, sur l'aspect évaluation, est-ce qu'aujourd'hui, vous avez un moyen de pouvoir capturer, tu l'as dit un petit peu, à travers la rapidité avec laquelle le modèle ou en tout cas votre solution converge et est bien adaptée ? Est-ce que vous avez des moyens pour tweaker, je ne sais pas, par client ou au global sur votre socle, la qualité de ce qui est produit ? Et si oui, comment ça fonctionne ? Un petit peu toute cette mécanique d'évaluation, de monitoring, éventuellement de retraining ou d'adaptation.
- Speaker #0
En général, le sujet, c'est de se dire comment on fait pour lancer un bot et qu'il réponde correctement. Donc souvent, la première étape, c'est d'essayer d'anticiper les questions que vont poser les clients. C'est là aussi que c'est intéressant, une solution comme la nôtre, c'est que parfois, on va prendre un historique de conversation WhatsApp, un historique d'appel, et on va vouloir sortir des questions-réponses qui ont été posées par les clients et se concentrer dans le développement du bot sur ces questions-là. On essaye d'éviter des développements trop longs de bot aussi, c'est important parce que dans les bots, j'en ai un, on peut se retrouver sur des mois. Donc on essaie vraiment de cadrer, de définir un scope. Et ce qu'on va faire dans un premier temps, c'est faire en sorte que le bot ne réponde qu'aux questions de son scope. Donc on se donne confiance sur un scope et le bot ne répond qu'à ces questions-là. Alors je sais que ce n'est pas une réponse directe à des questions, mais ce que je veux dire, c'est que... Tu bornes le problème. En fait, le tout, dans l'évaluation, c'est d'augmenter petit à petit le scope en voyant les questions qui ont été posées auxquelles le bot n'a pas répondu parce qu'il a dit je ne peux pas y répondre par exemple. Et petit à petit l'augmenter, se donner une confiance suffisante sur ce scope-là. Donc c'est à la fois pas similaire des bots classiques, parce qu'il y a une réponse qui peut être... Dans un bot classique, le bot répond à côté, ça se voit directement. Il a répondu à ta question A, il répond à la question B. Bon, peut-être il y a des cas où on peut confondre, mais globalement ça se voit. Donc c'est assez similaire d'un côté et de l'autre, il y a toujours le risque d'avoir l'impression qu'il répond à la bonne question. Donc en fait le tout c'est de choisir un scope, de l'augmenter, de rajouter des exemples, des questions posées par l'utilisateur, et se faire une confiance sur ce scope-là, de vérifier que le bot ne sort pas du cadre de ce à quoi il doit répondre, et que dans ce à quoi il doit répondre, il répond correctement à 90-95% avec des hallucinations à moins de 1 ou 2% d'hallucinations.
- Speaker #1
Top, top. Là on a parlé en fait de pas mal de fonctionnalités sur les retours clients, l'analyse sémantique, toute la partie bot. Est-ce qu'il y a d'autres features qui sont assez clés que tu voudrais évoquer ? qui mettent en avant l'usage de ces techniques.
- Speaker #0
Oui, tout à fait. Donc, peut-être pour un petit rappel pour ceux qui ne nous connaissent pas, on divise notre solution en trois grosses catégories de produits. Il y a Allo Review, produit d'origine, récolte des avis vocaux par web application ou par téléphone. Il y a Allo Intelligence. Donc ça, c'est toute la partie analyse. On en a parlé d'une partie, mais il y a aussi, je vais rentrer un peu plus dans le détail, de la partie Quality Monitoring qui est un vrai sujet et une vraie... une vraie nouveauté pour les entreprises, pour nos clients. Et la partie live assist qui, là aussi, est assez révolutionnaire pour nos clients. Et il y a la partie Allobot, qui est tout ce qui est chatbot et callbot. Sur la partie Allo Intelligence, la partie qu'on a un peu moins évoquée, mais qui est assez intéressante, c'est la partie Quality Monitoring. Donc, traditionnellement, quand tu as un centre d'appel, que ce soit au sein d'une entreprise ou chez les outsourceurs, tu as des agents qui téléphonent toute la journée à des clients. Et tu as des superviseurs qui vont aller vérifier que les agents respectent des critères à la fois de qualité et même parfois des critères réglementaires. Parce qu'il y a des lois quand tu veux une assurance ou de ce que tu as le droit de demander ou de faire quand tu fais de la vente.
- Speaker #1
Est-ce que ça veut dire qu'ils écoutent un échantillon ?
- Speaker #0
Exactement. Ils écoutent un échantillon et parfois c'est leur métier au quotidien d'écouter des appels. Et souvent ils ont des grilles standardisées d'évaluation et manuellement ils évaluent. maîtriser, pas maîtriser, l'accueil par exemple parce que l'agent vient dire Anne Rien de Shallow Brain, bonjour, que puis-je faire pour vous aider ? Est-ce qu'il l'a bien prononcé, bien dit ? Est-ce qu'il a donné son prénom, pas donné son prénom ? Et donc pour chacun des critères, il y a une note qui est faite et traditionnellement, c'est des superviseurs qui écoutent l'appel et qui évaluent à la main. C'est très chronophage et pas très passionnant finalement pour les superviseurs et ça leur mange du temps parce que le superviseur seulement il écoute les appels mais après il va aussi essayer de coacher l'agent pour essayer de voir les axes d'amélioration. et nous ce qu'on propose c'est on utilise notre technologie pour faire cette évaluation automatiquement donc on utilise notre technologie de speech to text qui est un speech to text qui est boosté donc vraiment au dessus du state of the art donc on prend des modèles qui sont déjà très performants qu'on booste par des LLM entre autres ce qui permet un peu de contextualiser et ensuite on utilise des LLM entraînés spécialement pour le quality monitoring qui permettent de faire cette évaluation... avec les conseillers, pour les superviseurs, pardon, des conseillers pour les aider à passer un temps plus qualifié, soit sur les évaluations qu'on aura du mal à faire le modèle parfois, parce que le modèle parfois ne peut pas faire l'évaluation parce qu'il lui manque du contexte.
- Speaker #1
Donc il y a une qualification aussi de l'incertitude ou en tout cas de...
- Speaker #0
C'est très important pour nous parce que pour que ce soit utile, il faut que si le modèle ne sait pas, et d'ailleurs c'est pareil pour les chatbots et callbots, si le modèle ne sait pas, il faut que le modèle le dise en quelque sorte. Et ça paraît pas évident, mais souvent, le modèle est capable de dire quand il a des doutes. C'est assez intéressant. Et du coup, on a cette solution qui permet aux entreprises d'évaluer beaucoup plus d'appels. Parfois, c'est injuste, en fait, pour les agents, parce qu'il y a un superviseur qui évalue, il écoute un appel d'un agent, il dit ça s'est mal passé, l'agent, il dit, écoute, t'es tombé sur le mauvais appel, et c'est vrai parfois, ça fait sens. Donc là, ça donne quelque chose de beaucoup plus représentatif, et ça permet aux superviseurs de passer beaucoup plus de temps. à coacher l'agent, on va faire des choses à plus grande valeur ajoutée. Par exemple, maintenant, son travail, ça va être aussi de calibrer le modèle aussi. Parce qu'il y a la subjectivité. Ce n'est pas au modèle de décider de la subjectivité. C'est ce que je disais, on ne sait pas vraiment ce que fait le métier, ce que fait le modèle. Le modèle, il ne veut pas décider de la sévérité de l'évaluation.
- Speaker #1
L'agent, ou en tout cas le superviseur, a la possibilité de revoir la note en vue de l'input qu'a généré le modèle, de dire oui, déjà, c'est effectivement un bon résumé de l'appel qui a été fait. En revanche, la note, je l'aurais plutôt vue de plus haut au plus bas.
- Speaker #0
Exactement. Et le modèle s'adapte après par la suite pour essayer d'être calibré. Et d'ailleurs, souvent, au sein des entreprises, on voit que ça fait un travail d'objectivation des critères parce que ce n'est pas facile. Un même superviseur, d'un jour à l'autre, il peut noter différemment. Deux superviseurs différents peuvent avoir deux façons d'approcher le problème. Et là, ça fait un travail en plus de standardiser, donc c'est encore plus juste pour les agents aussi. Donc, il y a ce sujet qui est hyper intéressant et il y a un autre sujet qui est assez... qui a un effet assez waouh auprès de nos prospects, de nos clients, c'est ce qu'on appelle le Live Agent Assist. Et là, c'est un outil qui permet, quand un agent est au téléphone, la conversation est retranscrite en direct et on utilise toutes nos capacités d'analyse et de bot pour aller sortir des conseils à l'agent. Voilà, le client a demandé telle information sur tel resort, par exemple. Voilà les informations que tu peux lui sortir au téléphone.
- Speaker #1
Ok. D'accord, d'accord. Et là-dessus, c'est basé sur quelles informations ? C'est en fonction du sujet de l'appel qu'en fait, on va aller chercher des données pertinentes et remonter des informations qui pourraient être intéressantes dans le cadre du call ?
- Speaker #0
Exactement. Il y a deux briques plus ou moins complexes. Il y a une brique, on va dire, assez simple à configurer de notre côté qui est une... Et même... qui est à la main du client, c'est une partie qui est plutôt des conseils simples de base, je ne sais pas si il se passe ça, dit ça, voilà, c'est des choses assez basiques. Il y a l'autre partie qui requiert, donc pareil, c'est un peu l'intérêt, parce que j'ai parlé qu'on a trois solutions, on peut se dire, bon, t'as dit autofinancé, trois solutions, mais ils sont fous, qu'est-ce qu'ils font ? Alors finalement, ça nous permet à la fois de mutualiser la technologie, parce que souvent les technologies de produit A sont similaires au produit B, mais c'est assez important pour nos clients parce que les technologies sont assez liées. Et justement, dans ce live assist, c'est important aussi de... De configurer un AlloBot parce que c'est le AlloBot qui va aller alimenter la réponse que tu as dans le LiveAssist. Finalement, un client va poser une question en direct pendant l'appel. La question va être passée dans le AlloBot qu'on aura configuré pour le client. Ça va aller chercher l'info, la remonter et ça va apparaître dans cet outil de LiveAssist. Finalement, les solutions sont assez interconnectées. Comme je disais, il y avait l'analyse en amont pour le bot et en continu pour savoir ce que posent les clients. Et là, le bot qui est lié au LiveAssist. Et on a le même sujet finalement pour Quality Monitoring.
- Speaker #1
L'évaluation.
- Speaker #0
Exactement. Pour Quality Monitoring, il y a le même sujet finalement. des fois un critère d'évaluation ça va être est-ce que l'agent a donné une réponse cohérente par rapport à la base de connaissances pour ça il faut aller chercher dans la base de connaissances donc finalement c'est du bot aussi Nice, et donc ça peut les aider à mieux faire leur travail avec le dashboard même le bot dans le dashboard aussi comme je te disais tu peux interagir avec un dashboard, avec un chatbot finalement c'est des technologies qui sont très liées Super,
- Speaker #1
super un sujet qui je pense préoccupe beaucoup d'acteurs qui utilisent aujourd'hui l'IA générative c'est de savoir est-ce que c'est... toujours cette éternelle stratégie de mec orbaille. Est-ce que je construis en interne une solution avec mes équipes, avec aujourd'hui des skillsets qui représentent quand même des gens qualifiés, etc. Ou est-ce que j'utilise des solutions sur étagère ? Et du coup, comment toi tu recommanderais soit à tes clients ou à des prospects qui réfléchissent sur leur cas d'usage, de réfléchir à cette Ausha, que ce soit à un niveau plutôt du LLM ou à des solutions plus packagées comme la vôtre ? Parce qu'il y a cette idée de... d'utiliser soit des LLM open-weight qu'on déploie sur une infra-cloud ou sur on-premise, ou d'utiliser des API. Comment toi, tu te positionnes par exemple ?
- Speaker #0
Il y a plein de sujets là-dessus, c'est hyper intéressant. Après, il y a le sujet API et self-hosting, donc ça, c'est un premier sujet. Après, il y a le sujet plus global, mais peu importe que ce soit une API ou self-hosting. Sur le sujet make-or-buy, il y a plusieurs éléments qui sont assez intéressants là-dessus. Je pense qu'il y a un côté, les gens... À la sortie de ChatGPT, ils ont eu ChatGPT, ils ont probablement posé des questions, je ne sais pas, les patrons des grosses entreprises sur leurs entreprises. Ils ont vu que 70% ou peu importe, un chiffre assez correct, ça répondait correctement à leurs informations. Ce n'était pas toujours à jour, ce n'était pas toujours correct, mais qu'il y avait quelque chose et qu'on pouvait dialoguer de façon humaine avec le modèle. Donc, c'est devenu un peu la base des décideurs. la base c'est ça, c'est chat GPT fait comme ça je vais prendre une entreprise privée, il va me faire mon chat GPT à moi et ça va fonctionner pareil finalement c'est assez, c'est presque un piège parce que finalement un chatbot d'entreprise fonctionne pas comme chat GPT, chat GPT tu vas discuter avec lui et ça va être à partir de ses données d'entraînement, de ce qu'il aura vu sur internet, que tu espères complètement en black box, en bout de noir, t'as aucune idée de ce qu'il aura retenu, comment et pourquoi tu espères qu'il va répondre correctement... il y a un exemple qui est assez marrant pour voir qu'on a du mal à comprendre ce que le modèle retient ou pas, que c'est pas comme un humain qui en dit une information le modèle si tu lui demandes qui est la mère de Tom Cruise il répond très correctement et à l'inverse si tu donnes le nom de la mère de Tom Cruise tu recommences une conversation et tu lui dis comment s'appelle le fils de la mère de Tom Cruise, il répond n'importe quoi parce qu'il a pas une compréhension c'est ce qui est sûr avec les modèles aussi, comme il parle comme un humain on finit par croire que c'est un humain presque dans sa façon de fonctionner mais pas du tout dans sa façon de retenir donc c'est pour ça que Finalement c'est un système complètement différent qu'utilisent les entreprises, notamment pour les chatbots, c'est ce qu'on appelle le RAG, ce dont on a parlé. Et du coup le point c'est, dans cette stratégie de make or buy, il y a souvent un peu un effet démo, où ça peut être facile d'avoir quelque chose qui fonctionne à 80%, 70%, 75%, mais avoir un produit final...
- Speaker #1
Quand c'est évalué.
- Speaker #0
Ouais, en plus quand c'est évalué...
- Speaker #1
Il y a des démos qui sont faites et en fait il n'y a même pas d'évaluation.
- Speaker #0
Ouais c'est ça, donc des fois sur des sujets, et c'est là où c'est intéressant que ça va vraiment dépendre des sujets, sur des sujets... chatbot ou peut-être analyse sémantique, ils vont faire des tests en interne ils vont voir que ça a l'air de bien marcher ils vont se dire on va tout faire en interne, on verra si on n'arrive pas on contactera des boîtes comme la vôtre et finalement comme je l'ai décrit que ce soit finalement sur analyse sémantique là où ça paraît simple et finalement on a tout un tas de briques pour trouver des sujets élémentaires, qu'en plus il y a une solution packagée qui va avec, tout le travail qui va avec la solution que ce soit pour les chatbots là où tu vois que hors plateforme solution qui est déjà un travail en soi de construire un produit qui est compliqué en interne Tu rajoutes tous les sujets d'évaluation, là où tu vois tout ce que j'ai décrit en termes de complexité. C'est une arborescence de complexité, finalement. Tout ce qui est apprendre au chatbot et après la technologie qui évolue tous les jours, les nouveaux modèles, des modèles qui sont dépréciés. C'est un vrai travail à plein temps. Et finalement, quand tu vois le prix que ça coûterait de développer de zéro, les équipes qu'il faudrait recruter, les profils, il y a probablement des cas où ça vaut le coup pour une entreprise de le faire en interne. Mais souvent, j'ai l'impression que c'est refaire la roue. Alors après, il y a les sujets stratégiques. Bon, après, des fois, j'ai l'impression que c'est pour l'image, parce que comme il y a une attente autour de l'LLM, les entreprises, elles disent qu'on veut capitaliser, avoir une technologie d'LLM. Je ne sais pas si sur tout ce qui est solution standard, ça vaut souvent le coup. J'ai l'impression que souvent, c'est un peu trop complexe, trop coûteux. Et parfois, ça arrive même à faire presque un frein pour nous, parce que que ce soit avec des solutions moins matures que la nôtre ou en interne, les entreprises essayent, ils n'y arrivent pas et disent que ça ne marche pas. Donc c'est même un peu dommage, déceptif. Alors par contre, là où je pense qu'il y a un vrai cas d'usage en interne, et là où ça vaut le coup d'avoir des technologies internes autour des LLM ou des équipes spécialisées, comme les entreprises ont des développeurs parfois ou des data scientists, ça va être pour les sujets qui sont très spécifiques à l'entreprise, là où il n'y a pas forcément besoin d'un... Ce n'est pas forcément une grosse machine, en tout cas si ça devient une grosse machine, c'est qu'on a trouvé le ROI, très spécifique à l'entreprise et que ça coûte cher, ça vaut le coup. Là, il y a clairement un besoin, je pense que je serais... Oui. chef d'une entreprise, pas la mienne, mais spécialisé dans l'IA, c'est là où je mettrais de l'investissement dans les équipes. J'essaierais pas de refaire la roue, parce que même si ça marche, ça finit par marcher, ça coûte cher. Il y aura une autre solution, une autre boîte qui sera moins chère, qui proposera de le faire et sera moins chère à maintenir.
- Speaker #1
Qu'est-ce que le problème ? Les données sont cœur business pour moi. Est-ce que ça constitue un avantage stratégique de builder une solution en interne parce que je pourrais y mettre mon knowledge, ma connaissance qui est propre à mon métier et à mon expertise ?
- Speaker #0
Après, au final, nous, on ne capitalise pas tellement leur knowledge. Nous, on a une solution qui prend des knowledge, mais on ne l'entraîne pas sur leur knowledge. L'entraînement qu'on fait, ça va être plutôt sur le... Il faut vraiment voir le LLM comme un manipulateur de texte. Donc vraiment, il peut prendre un texte libre et sortir un texte libre, ou prendre un texte libre et sortir une donnée structurée, ou prendre une donnée structurée et sortir un texte libre. Je résume, mais c'est ça. Et il fait des manipulations très puissantes dessus parce qu'il a une connaissance du monde. Et c'est vraiment cette connaissance du monde qu'on capitalise sur le LLM. ou en tout cas cette manipulation de données. Je vais prendre un exemple simple, parce que là, ce n'est pas forcément très concret. Un exemple simple, même s'ils le font très bien sans entraînement, ça pourrait être de dire à l'élève, je veux un élève qui prend telle donnée et qui la résume, prend telle donnée et qui la structure. L'entraînement, ça ne va pas être tant de connaître cette donnée, mais ça va être un entraînement pour prendre cette donnée et la structure. Donc au final, peut-être il y a quelque chose à capitaliser sur la structuration des données, mais je ne suis même pas sûr, je n'ai pas l'impression qu'il y ait... Peut-être je me trompe. Mais comme nous on capitalise pas sur leurs données, on capitalise vraiment sur l'outil, il n'y a pas vraiment sujet de capitaliser sur leurs données. Après s'ils veulent faire des outils internes pour remonter des informations, des choses comme ça, il y a peut-être un intérêt mais...
- Speaker #1
Ou d'être intégré dans des applications.
- Speaker #0
Je comprends un peu la problématique mais en pratique nous dans ce qu'on voit, je la sens moins.
- Speaker #1
Ouais différenciement. Ok. Du coup, je rebondis sur ce qu'on s'est dit là, effectivement, sur la stratégie make or buy, d'avoir une solution qui soit à minima aussi performante que chat GPT. Mais il y a aussi cette idée de dire, selon les use case, est-ce que ce n'est pas pertinent d'utiliser des modèles qui ne soient pas disponibles via API, mais on récupère les poids et puis on peut avoir la main en tout cas sur la solution de bout en bout via des modèles open weight. Qu'est-ce que tu en penses de ça ? Quelles sont les bonnes questions à se poser vis-à-vis de ce problème ?
- Speaker #0
C'est un vrai sujet que nos prospects et clients nous remontent très souvent. De base, je pense que comme tout le monde, on aimerait que tout soit hébergé chez dans son serveur on-premise, que le LLM soit hébergé on-premise dans l'idéal ou sur notre infrastructure cloud, etc. Mais finalement, ce qu'on observe, la tendance en tout cas, ça peut changer, c'est la tendance qu'on voit, c'est qu'il commence à y avoir de vraies spécialisations dans le secteur. Il va y avoir l'entreprise qui va créer les modèles, Et souvent, et là c'est un vrai sujet aussi qui peut être hyper vaste et intéressant, elle va essayer de se rémunérer avec les API. Alors c'est pas exactement ça, parce qu'on voit que ChatGPT, enfin qu'OpenAI en tout cas, ils gagnent, j'avais vu leur report de revenus, ils gagnent énormément de revenus avec l'application ChatGPT, mais j'ai pas l'impression que c'est là leur vrai valeur ajoutée, leur vraie force, c'est l'IP, la technologie, ils sont capables de développer des gros modèles, et de les vendre par API. Pourquoi il y a une spécialisation ? entraîner un modèle, je pense qu'on l'a tous vu, ça coûte des milliards, ça demande une expertise incroyable et en général ce qu'ils construisent eux c'est pas un modèle qui va répondre à un problème spécifique, c'est un modèle très généraliste.
- Speaker #1
Ça concerne très peu d'acteurs dans le monde.
- Speaker #0
Qui vont dans tout, donc ça c'est OpenAI, Anthropic, Mistral Google et je veux vexer personne mais je pense avoir fait les gros qui reviennent, il y en a peut-être d'autres boîtes mais elles sont un peu moins marquantes. Il y a Microsoft avec Microsoft et Meta avec... avec les modèles Lama, mais eux qui sont surtout open source. Il y a le développement du modèle qui est très cher, et aussi finalement, il y a un vrai sujet de latence sur les LLM, parce que ce n'est pas comme les modèles d'avant, on n'avait pas de recul, on avait l'impression que parfois les modèles étaient gros, il y avait des modèles de 700 millions de paramètres, on se disait comment je vais l'héberger, faire l'inférence rapidement, mais là on est sur des modèles, ce n'est pas partagé, mais on peut estimer, les plus petits doivent être autour de 7 milliards de paramètres, Ce n'est pas les plus performants, il doit y avoir des modèles de 30 milliards, des modèles de 100 milliards, et on ne sait même pas jusqu'où ça monte. Jusqu'à 430, ouais. C'est vrai qu'en méta, déjà en open source, ça monte jusqu'à 400. Donc je n'ose même pas imaginer potentiellement des modèles fermés jusqu'où ils montent. Ils ne communiquent pas dessus pour des raisons d'IP, évidemment. Mais je n'ose même pas imaginer jusqu'où ça va. Et il y a un vrai sujet de vitesse d'inférence. Donc tu peux partir de modèles... Si tu pars de modèles plus petits... déjà de base tu vas avoir un problème c'est que tu vas devoir plus le fine-tuner sur ta tâche spécifique et les modèles plus gros sont déjà plus généralistes et meilleurs et t'as moins de fine-tuning à faire voire sur certaines tâches t'as pas de fine-tuning à faire c'est plus ce qu'on appelle du prompt engineering. Pour préciser le prompt engineering c'est pas juste écrire tu vas faire ça comme ça il faut choisir bien les différentes étapes, je vais pas rentrer dans le détail aujourd'hui mais c'est un vrai sujet aussi et cette vitesse d'inférence en fait ça coûte cher parce que c'est des GPU qui coûtent cher et les entreprises comme... alors au final C'est Microsoft finalement qui fait l'hébergement entreprise d'OpenAI, il y a Google et Amazon avec Bedrock qui font l'hébergement entreprise d'autres modèles. Mais ils mutualisent les coûts parce qu'ils ont des milliers, des millions, des millions d'appels. Et c'est probablement des GPU à des centaines d'euros de l'heure et plein de GPU. Du coup, c'est des coûts très élevés.
- Speaker #1
C'est probablement assez peu rentable d'ailleurs.
- Speaker #0
Oui, exactement. Et au final, les coûts, nous, les utilisateurs de ces API payent par token. Donc c'est vraiment... payer à l'usage. Donc, j'utilise rien, je paye rien. J'utilise un peu, je paye un peu. J'utilise beaucoup, je paye beaucoup. Donc, les coûts sont faciles à prédire, c'est facile à gérer. Il n'y a pas d'infrastructure à gérer. Alors que si on devait héberger les modèles, donc après, il y a la deuxième catégorie. Donc, je dis, la première catégorie, c'est ceux qui gèrent les modèles. Deuxième catégorie, il y en a peut-être une troisième, c'est il y a les solutions, peut-être on peut les rassembler, il y a les solutions SaaS qui construisent des services autour des... enfin, qui utilisent des LLM. C'est pas que des LLM, d'ailleurs, souvent on dit, c'est des rappeurs des LLM, mais souvent c'est beaucoup plus compliqué. comme j'ai pu essayer de le montrer un petit peu ici, et aussi les boîtes qui aident les entreprises à intégrer des solutions LLM au sein de ce qu'ils font pour des sujets. Soit ils aident à intégrer des chatbots, soit ils intègrent des solutions custom pour leurs problèmes spécifiques. Et ces entreprises-là, elles vont prendre des modèles existants et potentiellement les fine-tuner, construire des systèmes avec ces modèles. Et il se pose la question de les self-hosting. Donc comme je disais, il y a une question de mutualisation des coûts et après ça demande une vraie expertise. C'est-à-dire que si j'ai besoin d'un modèle spécialement entraîné pour une entreprise, si ça se trouve, je vais payer, je ne sais pas, 10 euros de l'heure. Ça se trouve un bout seulement de la résolution du problème que je veux faire. Donc je vous laisse faire le calcul, mais ça fait déjà un certain coût. et je n'aurai pas forcément de bonnes performances, il faudra que je vérifie que mon GPU ne tombe pas. Donc c'est des choses qu'on peut faire, il y a des systèmes pour avoir plusieurs modèles fine-tunés sur la même machine. Mais en fait c'est une complexité en plus, et je trouve que c'est finalement assez analogique à la tendance du cloud computing finalement, des cloud providers. Là on voit une séparation entre les entreprises qui font du logiciel et qui ne s'occupent pas trop de l'infrastructure, ou en tout cas... assez simplement, et les entreprises cloud qui gèrent l'infrastructure. Donc je vois un peu la même tendance, je pense qu'il y a un intérêt économique à cette division du marché, parce que ce ne sont pas les mêmes métiers, c'est plus compliqué de faire deux métiers à la fois, ça coûte plus cher, du coup la solution sera plus chère. Donc c'est un peu les critères qui rentrent en compte. On a des gros cloud providers qui proposent des API qui sont très rapides, les LLM, c'est des tokens par seconde, donc en fait le LLM ressort mot par mot, on l'appelle et au bout de deux secondes on a la réponse. Ça peut être parfois au bout de 30 secondes, au bout d'une minute. Et si c'est auto-hébergé, on a des choses plus lentes, moins efficaces. Donc, c'est un peu ce genre de critères qui rentrent en compte. Finalement, c'est souvent moins cher, beaucoup plus efficace. C'est hébergé sur des cloud providers de confiance. Microsoft, on a tous nos emails sur Microsoft, nos messages d'entreprise sur Microsoft, ou même avec Salesforce sur Slack. Donc, effectivement, c'est des sujets qui rentrent en compte, mais il y a quand même des avantages énormes. Et nous, on propose quand même de self-hosting des modèles. Parfois, il y a des clients, comme avec l'État français, on travaille avec la direction interministérielle de la transformation publique sur des réponses automatiques aux expériences usagées. Là, on self-host des modèles.
- Speaker #1
Pour des raisons de privacy de la donnée.
- Speaker #0
Pour des raisons de souveraineté. C'est ça, de se dire que c'est des modèles français, mistral, qui sont hébergés et utilisés. Donc, ça fait sens. Donc, en général, on essaie de proposer des solutions à nos clients qui correspondent le mieux à leurs besoins, qui vont héberger des modèles. On évite tant que possible parce que ce n'est pas pratique, ça ne nous permet pas d'avoir les meilleures performances, la meilleure vitesse, la meilleure mise à jour des modèles, jusqu'à une anonymisation en amont sur nos serveurs ou sur leurs serveurs qui passent après par un LLM. Là, on réfléchit à ce qu'on fait passer par le LLM ou pas, jusqu'à les API classiques, bien sûr sur des cloud providers de confiance.
- Speaker #1
Et donc, toi, tu vois plutôt ces providers de gros modèles développer cette commodité finalement. Et comme tu dis, on ne se pose pas trop la question de comment ça fonctionne. Et du coup, quelle est la place, au-delà peut-être des use cases sur des problématiques de sécurité, de privacy de la donnée, sur des modèles open weight ? Est-ce qu'ils vont catch-up ces acteurs-là ? Et s'ils ne les catch-up pas, est-ce qu'il n'y a pas une direction qui serait plutôt d'avoir des modèles plus petits mais adaptables ? et du coup déployés sur des devices moins gourmands et donc moins chers à run, etc. Est-ce que tu vois une direction ?
- Speaker #0
Il y a un vrai sujet, c'est vrai que le sujet des modèles plus petits... En fait, d'un côté, il y a un sujet, et de l'autre, les gros cloud providers ont tellement cassé les prix des modèles qui sont probablement gros, que d'un point de vue business, en tout cas, je mets seulement d'un point de vue business, on peut se dire qu'on ne se pose pas trop la question, la taille du modèle. Je m'arrive à me poser la question, je vois des modèles open source petits, j'adore suivre, ça me passionne, les nouveaux modèles. Je me dis, ah super, il y a ce nouveau modèle qui est sorti petit. Et je me dis, mais finalement, à quoi ça va me servir ? J'ai ce modèle qui est peut-être beaucoup plus gros, qui héberge chez un cloud provider. J'ai la réponse très rapide. Donc, ça va me servir sur, par exemple, de l'anonymisation, de la restructuration, des choses simples, là où je vais avoir des sujets, justement, avec mes clients, de privacy, là où je vais pouvoir peut-être un peu plus avancer, être un peu plus... aller un peu plus dans le sens de la privacy ou de ces contraintes, disons, ou de ces problématiques. Mais c'est vrai qu'il y a moins ce côté-là. Après, il y a évidemment le côté écologique à prendre en compte, là où je pense qu'il y aura potentiellement un vrai sujet à se poser. Peut-être qu'on ne le paye pas cher, mais écologiquement, il y a forcément des impacts. Mais peut-être sur l'open-weight, je ne sais pas quelle forme ça va prendre. La segmentation des acteurs, elle fait énormément sens, mais potentiellement, ce qui serait intéressant et qui serait bien, c'est même dommage que ce ne soit pas encore le cas, c'est qu'il y ait un cloud provider français qui prenne des modèles open source hébergées en France sur, je ne sais pas, Scaleway, une entreprise française, parce que je sais qu'il y a les histoires de Cloud Act qui font débat. Ce n'est pas parce qu'une entreprise américaine sur des serveurs en France que, dans certaines conditions, on ne sait pas si les Etats-Unis pourraient demander l'accès aux données. Je sais qu'il y a ces sujets-là. Donc potentiellement, si on voulait vraiment la souveraineté, un acteur purement français, une entreprise française avec des serveurs en France qui pourraient héberger ces modèles open source qui sont aussi très performants finalement. en fait la limite qui va être c'est soit on se dit on gère nous l'hébergement et on n'a pas la force de frappe parce qu'on n'a pas l'économie d'échelle d'autres entreprises pour les héberger très rapidement des modèles de 72 milliards de par an qui sont largement assez performants pour plein de tâches mais nous on ne peut pas les héberger à une vitesse suffisante impossible ou c'est très compliqué ou alors il faudrait qu'on change notre business model pour dire on n'utilise que ce modèle là mais nous ce n'est pas notre intérêt, nous on veut livrer la meilleure solution pour nos clients et suivre... Suivent les avancées. Donc en fait l'idéal ce serait ça. Moi je connais une entreprise américaine qui héberge des modèles open source comme ça, qui s'appelle Together AI, ou il y a même Fireworks AI qui le fait aussi. C'est des providers américains qui hébergent plein de modèles open source à vitesse très impressionnante et très optimisée et à des coûts très intéressants. Donc sur ce sujet-là, ce qui serait très intéressant c'est de voir émerger un cloud provider français qui fait la même chose que Fireworks AI ou Together AI. Et là, je pense qu'on se rapprocherait un peu de cette histoire de souveraineté tout en gardant l'optimisation parce que c'est dommage, ça ralentirait la progression ou la capacité de ce qu'on peut faire, de se bloquer à cause de ça. Donc la solution, ça me paraît être un acteur nouveau. S'il y a des gens qui veulent lancer quelque chose, je pense qu'il y a un business là-dessus.
- Speaker #1
On arrive sur la fin de l'interview, c'était hyper intéressant. Je rebondis quand même là-dessus parce que c'est un sujet, je pense, qui est important et on voit que... Pas mal de gens se posent la question sur la taille même des modèles open-weight qui permettent des fenêtres de contexte de plus en plus grandes. Est-ce que pour toi, ce paradigme de RAG avec le WeTweaver et la partie générale est en risque ? par rapport à un scénario où on mettrait tout finalement dans le contexte du modèle ? Ou est-ce qu'en fait, finalement, ces deux problèmes, c'est bien de pouvoir avoir une taille de contexte plus grande, mais qu'en réalité, ça ne résout pas tous les soucis ?
- Speaker #0
C'est hyper intéressant comme sujet. Je n'ai pas de conviction très claire dessus. Je vois un peu les deux tendances. Je vois un peu même, il y a un peu des débats. J'ai l'impression que, en tout cas, moi, de mon point de vue, c'est peut-être la façon dont je me suis abonné aux gens, que c'est sur X, Twitter. que les choses se passent. Donc je vois qu'il y a des débats, des gens qui disent que le RAC ça s'arrêtera jamais, d'autres qui disent que le RAC ça va bientôt être fini parce que les modèles ont des contextes infinis. J'ai cru comprendre qu'il y avait des gestions du contexte qui étaient optimisées, là où ils pouvaient garder en cache le contexte. D'ailleurs on commence à le voir apparaître sur certains modèles, mais à des échelles beaucoup plus grandes, ce serait possible. C'est vrai qu'en théorie... Le côté Augmented Generation, de toute façon, c'est le concept. Peu importe la quantité de documents qu'on met, ce sera toujours de l'Augmented Generation. C'est possible qu'à long terme, la partie Retrieval soit plus aussi clé, parce que c'est vrai qu'en théorie, ça compense un peu... C'est un modèle qui va aller chercher ce sur quoi le modèle est censé mettre son attention, parce qu'en fait, c'est des modèles d'attention, donc ils vont regarder dans le contexte. Donc c'est vrai qu'on a tendance à se dire que probablement, on se projette dans très longtemps ou dans... pas forcément très longtemps, mais il peut y avoir un nouveau modèle qui gère tellement bien son attention avec des systèmes beaucoup plus avancés qu'en théorie, il est capable de regarder de lui-même là où il est censé regarder. Maintenant, c'est vrai qu'aujourd'hui, si on voit...
- Speaker #1
Il y a un incentive économique aussi pour les acteurs parce qu'en fait, la taille de contexte, c'est une façon de traiter aussi.
- Speaker #0
Il y a un incentive économique pour les acteurs, mais un problème aussi pour les entreprises qui ne vont pas vouloir payer la taille du contexte. Donc, il faudrait voir s'ils arrivent à rendre le calcul pas...... c'était au carré, c'est-à-dire le calcul augmenté au carré avec la taille du contexte, maintenant c'est plutôt linéaire je pense pas qu'on puisse faire moins que linéaire où il y a peut-être des méthodes je suis pas assez expert dans l'architecture exacte de ces modèles qui deviennent très complexes pour dire ça, mais c'est vrai que ça fait sens de se dire, bon, le modèle sera capable de gérer tout seul ou il va regarder et faire un calcul optimal pour le faire après c'est vrai que de ce qu'on voit aujourd'hui on n'y est pas encore, et même les performances du modèle diminuent avec la taille du contexte j'avais fait un petit atelier comme ça... Là où je présentais un cas, là où je prenais volontairement un modèle un peu plus vieux pour montrer un peu la caricature, mais la tendance reste la même. Là où si je donnais un menu très long, je demandais quel est le plat le plus cher, et je donnais un bout du menu, quand je donnais un bout du menu, il trouvait la bonne réponse, et quand je donnais le menu plus long, il ne la trouvait pas, alors que je ne dépassais pas la taille du contexte qu'il est censé gérer. Donc pour l'instant, on n'est pas encore à ce stade-là. Et puis quand bien même, je ne trouve pas que la partie retrieval, finalement, ce n'est pas forcément la brique la plus complexe. Il y a plutôt une brique de structure.
- Speaker #1
C'est souhaitable aussi, pour revenir à la question de latence. Donc t'évoquais, plus la taille du contexte est grande, plus t'attends aussi pour avoir la réponse. En fait,
- Speaker #0
il faudrait qu'il y ait beaucoup d'optimisation à faire encore pour qu'on en arrive là. Mais ça fait sens finalement. Ça fait sens qu'on arrivera un jour à cette situation-là.
- Speaker #1
Deux petites questions qui n'ont rien à voir. Si tu devais recommander un livre, un film que t'as vu lors des six derniers mois,
- Speaker #0
est-ce que t'as un sujet qui t'a marqué ? Moi j'ai plutôt un livre ou peut-être deux. Un livre qui rentre un peu dans un cadre professionnel, c'est First Thing First de Stephen Covey. J'avais lu un livre de lui avant, je l'avais lu quand j'étais jeune, je me souviens plus exactement de ces 7 habitudes là, mais je pense que ça m'a pas mal influencé. Et après je cherchais un livre, j'essayais de voir, quand on est entrepreneur, il y a plein de choses à faire, on se retrouve parfois un peu perdu dans toutes les choses, on a l'impression d'être un peu surchargé. Et je voulais trouver un livre pour m'organiser un peu professionnellement, et ce livre il essaie d'apporter une nouvelle approche en quelque sorte de l'organisation. où déjà il te dit que tu ne peux pas séparer le travail du reste de ta vie, ce qui est assez vrai, parce qu'en général on réalise qu'on va mettre notre vie, je ne sais pas, personnelle de côté, et après on va avoir un peu moins de vie sociale, donc on va être un peu moins motivé sur le travail, ou alors on va se disputer avec X ou Y, parce qu'on a été pris par le travail, et ça va impacter le travail. Et donc ça donne une approche un peu de juste, ce n'est pas révolutionnaire, mais c'est un changement de point de vue, là où ça demande de ne pas se laisser prendre par le quotidien des tâches. Ce qui arrive souvent, surtout quand on est entrepreneur, on a des clients qui demandent A, B, C. Et la solution facile, ça va être de faire A, B, C, un peu comme le client a demandé. Et au final, ça pousse à se poser la question de comment je peux faire des choses les plus impactantes au quotidien et de, par semaine, un peu planifier les choses les plus impactantes que tu peux faire. Et ça change. Ce n'est pas révolutionnaire dans le sens où tu ne vas pas moins faire deux choses, plus faire deux choses, mais tu vas avoir une approche différente qui va te pousser à trouver des meilleures solutions finalement.
- Speaker #1
Ok. Ok. Et je sais pas si c'est cet auteur-là, mais j'ai en tête la métaphore des gros cailloux. C'est un gros caillou. C'est exactement ça.
- Speaker #0
C'est ça qui est hyper intéressant dans ce truc-là, c'est qu'il te dit, les tâches les plus importantes que tu vas faire, c'est... Il y a cette métaphore très connue, là où il y a quelqu'un qui vient devant un amphithéâtre, il met des grosses pierres dans un bocal, le bocal a l'air plein. Il demande à tout le monde, est-ce qu'il est plein ? Oui, il est plein, il est plein. Après, il rajoute des petites pierres qui vont s'entrecaler entre les grosses pierres et ainsi de suite. De l'eau. De l'eau. Il n'est jamais plein. Et finalement, en fait, c'est un peu exactement ça, appliqué à la vie quotidienne et à ce qu'on veut faire dans la vie. On détermine ce qu'on veut dans la vie, c'est important. Et on détermine les choses importantes qu'on veut faire pour aller là où on veut, que ce soit professionnel, personnel, etc. Et ça, c'est les grosses pierres. Et après, on se débrouille. Finalement, on trouve le temps pour le reste. On ne laisse pas tomber le reste, mais on se débrouille. Donc, comme on se débrouille, une tâche, je ne sais pas qu'on pourrait prendre une tâche qui est un peu opérationnelle. Là où on ne sait pas trop comment on va l'apprendre, on peut dire qu'on va passer une heure, deux heures dessus. Mais finalement, comme on a organisé la journée autour des choses importantes, on va trouver des solutions.
- Speaker #1
Exactement, donner la juste place à ces tâches est peut-être moins prioritaire. Trop bien. Et peut-être une ou deux habitudes que tu mets en place au quotidien et que tu sens que ce sont des choses qui marchent pour toi.
- Speaker #0
J'ai lu ce livre récemment et c'est un peu les habitudes que j'ai mis en place avec ce livre, d'essayer de ne pas me laisser prendre par les tâches du quotidien, de ne pas me laisser prendre par l'urgence et un peu de conscientiser ce que je fais, à quel point c'est important. Ou comment je peux le faire mieux aussi ? Parce qu'encore une fois, ce n'est pas laisser tomber les urgences. C'est de voir comment on voit les urgences. Ça devient investir son temps finalement. En anglais, ça marche très bien la métaphore. Parce qu'en anglais, on dit spend time. Donc spend, c'est passer ou dépenser. Et en fait, il change un peu le terme. Il dit qu'il faudrait investir son temps. C'est-à-dire qu'on fait quelque chose, il faudrait que ça ait un impact positif sur le futur. Et après finalement, le temps qui passe, ça devient récolter les investissements. Et que c'est un choix.
- Speaker #1
Le passer le temps, on a l'impression que ça passe. On est un peu passif. Alors qu'en fait,
- Speaker #0
là, on consciencie, on fait une action qui va avoir des bénéfices pour le futur. Et quand le futur arrive, on n'est pas à subir le futur. On voit qu'on a fait une tâche, on a fait un effort, on a consciencié, on a fait quelque chose qui va nous permettre. Je ne sais pas, on va passer 20% de temps de plus sur une tâche pour que la prochaine fois, on n'ait pas à la faire de la même façon, qu'elle soit plus optimale. Sur le coup, c'est si on voit notre journée comme une liste de tâches, ça paraît comme un mauvais calcul. On se dit je vais passer trop de temps là dessus, je ne vais pas finir ma semaine, ma semaine sera ratée. Si on voit notre semaine comme avoir fait la chose la plus impactante ou la plus importante dans notre durée, finalement, ne pas avoir fini la liste de tâches paraît moins grave que de ne pas avoir fait cette Ausha, de passer de 20% de temps pour gagner, je ne sais pas, dix fois le temps qu'on a passé en plus à faire cette tâche.
- Speaker #1
Ok, ok. Est-ce qu'il y a un site, un endroit où on peut retrouver un peu l'actualité d'Alobraine, où on peut te retrouver aussi ?
- Speaker #0
Alors, j'invite nos éditeurs à nous suivre sur LinkedIn. spectateurs d'ailleurs, aussi j'imagine que ça va être en vidéo donc à nous suivre sur LinkedIn on a bien sûr le site allobrain.com que vous pouvez aller voir vous pouvez nous contacter avec plaisir il y a un formulaire de contact donc voilà
- Speaker #1
Est-ce que vous recrutez ? Oui,
- Speaker #0
on a plein de il y a plein de choses à faire on a l'impression qu'avec l'IA générative tout est réglé, etc. On voudrait un peu avancer sur des solutions beaucoup plus réactives avec de la traduction en direct on sait que les centres d'appel par exemple ont plein de Plein de langues différentes avec qui ils parlent, plein de clients dans des langues différentes. Ils n'ont pas forcément toutes les langues dans leur centre d'appel, ça aurait sujet, donc potentiellement faire des appels en traduction live. Donc il y a plein de choses à faire et pour ça on a besoin de gens. Donc on recrute évidemment. Là on a fait une première phase de recrutement sur des développeurs. Et là on cherche des machine learning engineers, qui ont déjà idéalement travaillé dans les domaines dans lesquels on travaille. Et donc ce sera un plaisir. J'espère que je les ai intéressés et qu'ils verront tout ce qu'on peut faire d'encore plus intéressant.
- Speaker #1
J'en doute pas, mais l'appel est passé. Merci beaucoup Adrien.
- Speaker #0
Avec plaisir.
- Speaker #1
Et au plaisir de se retrouver pour un nouvel épisode.
- Speaker #0
Avec plaisir.