- Speaker #0
Bonjour à tous et bienvenue dans ce nouvel épisode de Beyond the Brackets. Aujourd'hui on se retrouve encore avec Ariane. Bonjour Loïc. On enchaîne en ce moment, ça fait plaisir. On tourne, on tourne. Tant qu'on a l'occasion, on le fait. Et aujourd'hui on n'est pas que tous les deux, on est avec Yoann Gabizon.
- Speaker #1
Bonjour à tous.
- Speaker #0
Comment ça va ?
- Speaker #1
Ça va, ça va. Toi ?
- Speaker #0
Ça va super.
- Speaker #1
On va...
- Speaker #0
profiter de ce nouvel invité pour continuer dans cette ligne édito un peu, où on invite des gens. La dernière fois, on a vu Romaric Philogène, qui nous avait expliqué un peu comment il avait monté Coveri, une entreprise autour de la Qt DevOps. Et aujourd'hui, on va parler d'IA, d'entrepreneuriat aussi, grâce à Johan. Et puis, on va commencer directement. Je vais te laisser un peu te présenter, qu'est-ce que tu as fait pour arriver un peu dans l'IA et dans l'entrepreneuriat maintenant.
- Speaker #1
Ok. Du coup, moi j'ai commencé mes études d'ingénierie en 2018 à l'ESILV, une école d'ingénieurs post-bac à la Défense. Je me suis directement tourné vers cette école parce qu'il y avait un parcours d'intelligence artificielle qui était assez élevé à ce niveau-là. Du coup, j'ai vu aussi qu'ils avaient des doubles diplômes avec des grandes écoles dans ce domaine, comme Centrale Supélec ou Polytechnique. Et dans mon parcours, j'ai réussi à obtenir le double diplôme à Centrale Supélec. Du coup, ça m'a permis de passer une année entière. à Centrale Spélec, du coup, de découvrir une grande école, de voir le monde de l'entrepreneuriat là-bas, car ils ont pas mal de parcours d'entrepreneurs là-bas. Et donc, pendant mon stage de fin d'études, je me suis directement lancé en freelance, parce que c'était un sujet qui me tenait à cœur, je voulais voir un peu ce que ça donnait. Et du coup, j'ai recommencé à réaliser des missions de freelance dans l'IA générative à ce moment-là. Du coup, ça fait maintenant un an que je me suis lancé dedans. Voilà une petite introduction sur mon parcours.
- Speaker #0
Très cool. Est-ce que tu peux préciser un peu ce qu'est pour toi l'IA générative ?
- Speaker #1
Oui, du coup l'IA générative c'est vraiment tout ce qui va être autour des LLM, par exemple sur les modèles de langage comme ChatGPT, etc. Ou ce qui tourne autour de l'image, qui n'est pas un sujet que je vais traiter, mais qui est aussi dans l'IA générative. Du coup moi je me suis vraiment concentré sur la partie textuelle, parce que j'avais déjà plus de bases dans ce domaine avec le traitement du langage naturel, un peu plus classique en IA.
- Speaker #0
Ok, très cool. Ce qui est intéressant dans ton parcours, c'est que tu t'es intéressé à l'IA du coup dès 2018, ce que tu as dit. Exactement. Tu étais quand même à l'époque, tu étais connu, mais ce n'était pas aussi grand public que ça peut l'être aujourd'hui.
- Speaker #1
Oui, c'est ça. Du coup, c'était un sujet qui m'intéressait depuis le début, voir les nouvelles avancées, voir tout ce qui pouvait découler de l'IA. Du coup, j'ai essayé de me concentrer dessus le plus tôt possible pour voir où j'en suis.
- Speaker #0
et les missions tu as eu une émission direct dans l'IA en tant que freelance c'est ça ?
- Speaker #1
ouais du coup mes premières missions c'était plus des missions de scrapping des choses un peu plus classiques juste pour avoir des missions par exemple et avoir des bonnes notes sur les plateformes mais sinon le but c'était clairement de me tourner vers l'IA générative le plus vite possible du coup ce que j'ai réussi à faire au bout de quelques mois du coup ce thème à faire des preuves ouais c'est ça qui quoi exactement une fois que tu avais été prêt à mission c'était un peu plus facile de se vendre mais oui qu'on pouvait se délivrer des délivrables en temps et en heure et de bonne qualité le portfolio c'est même le nerf de la guerre exacte à fria je trouve ça quand il ya des exemples plus simple de coin c'est sûr et si je me trompe pas tu es top 1% à pouvoir c'est ça c'est ça exactement du coup en fait c'est un badge pour récompenser les les bons free lancement à dire sur la plateforme Et du coup ça c'est directement Upwork qui te contacte pour te faire passer une interview avec une équipe technique chez eux, pour voir justement si tu es vraiment compétent dans un domaine particulier. Du coup j'ai passé l'interview, ça a pris peut-être six mois avant d'arriver là.
- Speaker #0
une fois que j'ai eu l'interview ça s'est bien passé et j'ai obtenu le badge du top 1% c'est marrant c'est pas juste un badge comme ça qu'on obtient c'est une vraie certification derrière c'est intéressant de faire ça ça récompense les meilleurs en fait ouais bah c'est cool qu'ils fassent un test technique par exemple si je prends mal ou on fait souvent une chemise et nous bah t'as les badges mais des badges en fait c'est juste combien de projets tu as faits, et si tu as été payé, et si plus au montant que tu as été payé.
- Speaker #1
Ils ont des badges similaires aussi sur Upwork, et du coup, il n'y a que ce badge-là qui est vraiment sur Critère, enfin sur Interview vraiment. Sinon, ils ont des badges un peu similaires à Malte, ou sont du nom de mission, etc.
- Speaker #0
C'est cool d'en avoir créé un qui a vraiment une vraie valeur. ça va permettre de mettre top 1% ça c'est cool et du coup j'imagine que c'est grâce à ça que tu t'es retrouvé dans l'arrière ensuite qu'elle était à passer elle du coup en fait c'était principal les projets d'entre eux n'a que j'ai mis en place c'est des clients avec qui je me suis associé parce que le l'émission se passait bien je pensais qu'il ya du potentiel dans l'émission donc
- Speaker #1
je me suis directement en fait je parle avec eux je me suis du coup au final je me suis associé sur deux projets qu'il est juste des projets clients du coup j'étais freelance du coup maintenant je suis associé de deux start up qui j'espère vous grandir on espère tous c'est ça et qu'est ce que comment
- Speaker #0
comment tu as dit que tu étais associé avec des personnes si c'est indiscret tu me dis mais vous avez convenu d'une partie des coûtis une partie de paiement free ou du commentaire c'est un peu fait justement dans une mission c'est un mix des coûtis et de paiement journalier
- Speaker #1
en mode free hockey et dans le sait que écouté quoi le plus de salaires sur cette mission mais du coup j'ai un peu plus des critiques sur l'autre mission justement du coup c'est c'était juste des négociations pas des négociations mais juste des petites conversations avec la personne pour pour se mettre d'accord c'est exactement
- Speaker #0
sans rentrer dans le terme mauvais des négociations oui c'est ça c'est toujours délicat de gérer ce genre de choses mais bon quand on trouve un terrain d'entente ça se passe bien tu prends le bien du projet et du coup parle nous un peu de tes deux projets aussi où
- Speaker #1
tu es associé avec plaisir du coup il y a le premier du coup le premier où je me suis associé c'est Quickfind du coup c'est celui où j'ai que des equity du coup c'est avec un client irlandais au départ du coup l'idée c'est un SaaS pour e-commerce où il y a un chatbot assistant de vente qui devrait pouvoir s'intégrer sur n'importe quel site e-commerce. On a une démo qui est disponible en ligne pour l'instant sur un site de chaussures de randonnée par exemple. Du coup, l'idée, c'est que le chatbot va d'abord poser des questions pour comprendre le besoin du client. Quel type de chaussures il veut, quelle pointure, pour faire vraiment comprendre le besoin du client. Ensuite, lui proposer des produits qui correspondent à tous ces critères. jusqu'ensuite du coup proposer vraiment des fins répondre aux questions du client ou par exemple s'il demande quels étaient les avis du client sur un certain point particulier qui puisse répondre dynamiquement à partir de de toutes les informations qui puissent être sur le sur le produit et donc jusqu'à l'ajout au panier du produit du coup vraiment toute la panoplie d'un assistant de vente dans le tel oui donc l'idée c'est que tu vas plus loin que le chat box on connaît un peu qui
- Speaker #0
répond à un qui pose de questions et puis qui est après qui s'arrête là on y est vraiment tout le funnel de de vente qui s'opère avec celui-ci. Oui,
- Speaker #1
c'est ça exactement. Le but, c'est vraiment qu'ils fassent tout, un peu de révolutionner la manière dont les utilisateurs utilisent un site e-commerce, que ce soit vraiment une interface conversationnelle, dynamique, avec un assistant plus que... chatbot classique et est ce qu'on peut le tester parce que le site est en ligne de partir il est en ligne en bêta pour l'instant c'est hyper ligne je pourrais mettre le lien en description c'est le rêve de tester voire même si ça en bêta sera
- Speaker #0
privilégié ok très sympa et du coup ton autre entreprise chatty neuf c'est ça exactement c'est ça chatty neuf du coup c'est une autre une start up de l'intelligence artificielle dédiée à l'intelligence de marché
- Speaker #1
Du coup, sur cette startup, on a défini une quinzaine de cas d'usage vraiment d'intelligence de marché du côté métier. On en a deux qui sont prêts. Du coup, le premier qui va être concentré sur l'analyse des rapports RSE des entreprises, qui sont des rapports d'analyse de 200, 300 pages, qui sont très compliqués à analyser, qui prennent beaucoup de temps pour les entreprises. Donc l'idée c'est d'analyser ces rapports en une quinzaine, une dizaine de pages pour que ce soit beaucoup plus simple à lire et du coup avec une grille d'analyse qui a été définie par des experts métiers qui va permettre de récupérer toutes les informations quantitatives du coup vraiment tout ce qui est utile concrètement plus que tout ce qui est autour qui permet un peu de faire des pages. Et donc on a un deuxième cas de visage qui est plus l'analyse de marché en tant que tel. Par exemple, c'est vraiment un agent conversationnel qui va un peu comme dans QuickFind, comprendre le besoin du client, c'est-à-dire qu'il va définir la thématique qu'il veut aborder, la région sur laquelle il veut faire son analyse, etc. jusqu'à obtenir dans le même cas une analyse qui va permettre de faire un gain de temps énorme pour les experts d'intelligence de marché dans ces domaines.
- Speaker #0
Très cool. ouais ok il ya d'autres d'autres situations d'autres où vous avez des ambitions pour l'avenir de créer d'autres de chat pour et du comme ça dans d'autres domaines quoi en fait pas justement là on a une quinzaine de cas d'usagé dédié à l'intelligence de marché qu'on a prévu de faire ok donc qui concerne vraiment tout
- Speaker #1
un éventail assez grand du métier il ya énormément de cas d'usagé qui sont possibles Et du coup sur ce projet on est partenaire avec Engie qui nous aide pour un peu comprendre les besoins métiers et aussi tester nos différents chatbots et du coup avoir des retours vraiment sur le terrain qui nous permettent d'avoir des retours vraiment efficaces sur ces différents chatbots.
- Speaker #0
C'est un beau partenaire. C'est un beau partenaire. ok tu as je vais renseigner et gavet bon c'est vrai que c'est un très beau partenaire et du coup dans j'imagine dans l'équipe tous les jours créé chat bottes et tout c'est un peu quoi les c'est pas français c'est un peu quoi je reprends qui est très intéressant comme partenaire j'imagine que ça aide pas mal pour avancer sur toutes ces problématiques métiers ouais c'est sûr et du coup quand tu travailles au quotidien quels sont un peu les défis que tu rencontres ? en tout cas je pense techniquement au niveau de l'IA, mais en tout cas ou sinon pour adapter l'IA au marché que tu nous expliquais, quels sont les problématiques que tu rencontres tous les jours ?
- Speaker #1
Oui, du coup par exemple souvent il y a une problématique sur la compréhension de l'IA par le client, du coup il y a vraiment une décision. une phase vraiment d'adaptation ou d'explication pour le client de ce qui est possible de faire, ce qu'on ne peut pas faire, ce qui est impossible de faire, ce qui peut coûter cher, ce qui est faisable, etc. Pour les clients, souvent, l'IA, c'est magique. Sur le terrain, ça ne l'est pas du tout. Il y a surtout vraiment une phase de compréhension du besoin du client pour essayer de le guider au mieux. et donc après sur les parties techniques en tant que tel c'est vraiment essayer en fait de par exemple sur les parties lm du coup modèle de langage il ya pas mal d'hallucinations quand les modèles langage vont parler du coup ils vont dire un peu n'importe quoi potentiellement du coup il ya pas mal de problématiques sur sa sur comment éviter qu'ils hallucinent aussi comment les évaluer parce que comme il ya des réponses et du texte aujourd'hui a pas vraiment de normes sur les valeurs de choses du coup c'est souvent c'est le client qui dit c'est mieux Mais parfois ça fait d'autres bugs derrière, c'est assez compliqué la partie de la création.
- Speaker #0
Ça dépend des visages, etc. Même quand t'es pas dans l'IA, les clippers arrivent, il faut souvent faire une montagne, il faut juste une colline à faire et ça suffit. Très belle image. Est-ce que t'as déjà eu ce cas où un client te dit je veux une IA et c'est juste un algo à faire derrière ?
- Speaker #1
ouais ça m'était déjà arrivé du coup vraiment en soi c'était juste scrapping qu'ils voulaient par exemple mais vous l'a un scrapping intelligent et c'est alors qu'en fait il n'y a pas besoin peut le faire du scrapping simple qui marche très bien qui marche même mieux il ya sur ce genre de tâches de quoi il s'est déjà arrivé pour expliquer aux clients qu'il n'a pas besoin sinon on peut le faire en plus j'ai fait du scrapping simple ça a très bien marché il était content il a peut-être dit que j'avais de l'IA derrière et j'ai eu une fois un client qui avait pas besoin d'IA il voulait qu'on change quelque chose en algo avec de l'IA juste pour la partie com qui
- Speaker #0
puisse dire on utilise de l'IA dans le process du coup il y a aussi le grand préau d'aujourd'hui sur la bonne vague quoi qu'il arrive on est augmenté par l'IA que vous pas vraiment les process sont pas changés c'est très drôle un peu des mêmes problématiques dans l'expression du besoin, que ce soit en IA ou en web ou mobile. C'est assez drôle de voir aussi. Et un peu plus, on va s'éloigner un peu du côté entrepreneurial et aller plus sur le côté technique développeur. Tu utilises quoi comme technologie aujourd'hui pour faire tout ça ? Comment tu t'en sors ?
- Speaker #1
Du coup, je développe tout en Python parce que c'est un langage qui est le plus adapté aujourd'hui pour la partie IA. sinon pour la partie par un modèle de langage en tant que tel il ya en soit deux choix possibles partir sur les api du coup avec le benay ya et mistral ou ou claude par exemple qui vont avoir plein d'avantages comme du coup le fait que ce soit très simple à utiliser soit très performant et c'est très parti ça peut être pêché j'étais sur les avantages ça me fait déjà c'est pas forcément tu vas nous en parler et du coup il y aura beaucoup d'euros désavantage sur la qualité des sur la protection des données ce qu'on envoie au modèle vraiment toute la partie gestion en tant que tel de toute la pipeline mais du coup ça a des inconvénients comme du coup c'est un gros procès de déploiement de ces modèles du coup par exemple pour être sûr que ce soit scalable ce genre de choses ça nécessite des gros gpu du coup juste rien pour tourner ces modèles du coup faire du gpu scalable c'est aujourd'hui encore un peu complexe ça coûte vite très cher donc en fait il y a souvent je recommande pour des cas d'usage par exemple des chatbots qui tournent 24 24 d'utiliser des api propriétaires qui vont être moins cher vu que tu vas payer à l'usage au final et sinon quand t'as des tâches un peu récurrentes tu peux tourner tous les jours là du coup les modèles open source comme tu vas juste le lancer et l'arrêter et tu vas l'utiliser à fond pendant une certaine durée et après l'arrêter, souvent là c'est plus c'est moins cher du coup il y a souvent ce petit dilemme après il y a la question des confidentialités des données qui est souvent un problème mais sinon ouais à part ça s'il n'y a pas de question de confidentialité des données, souvent j'essaie de recommander ça ouais Après sur les technos en tant que tels que j'utilise, moi j'aime bien utiliser l'Hangchain, qui fait un peu débat sur... sur la partie un peu généal-gérative dans le sens où leur documentation elle change toutes les semaines littéralement donc c'est assez compliqué de suivre il y a beaucoup de choses qui évoluent tout le temps comme c'est un truc tout nouveau donc il y a une partie de la communauté qui déteste l'onchain qui dit on veut pas toucher à ça et l'autre qui est un peu fan parce qu'ils ont développé des intégrations avec des centaines et des centaines d'outils de partout, donc c'est vraiment un gain de temps je trouve personnellement sur le développement Et sinon, après, c'est pas mal de pitons pour orchestrer un peu tout ça et faire les appels aux LM au bon moment.
- Speaker #0
Non, intéressant, j'avais vu aussi, peut-être que je me trompe, mais la technique de la base de données vectorielle qui permet de continuer à ton IA d'apprendre, même si tu mets un chat GPT ou autre derrière, pour l'entraîner, du coup, parce qu'aujourd'hui, quand on pense entraînement d'IA, on pense tout de suite open source, on allait envoyer des données, j'ai fait UOMax et ça tourne. J'ai découvert la base de données vectorielle. C'est un peu quoi la différence, quels sont les avantages et même les inconvénients d'une base de données vectorielle ?
- Speaker #1
En fait, une base de données vectorielle, c'est vraiment un autre cas d'usage que les bases de données classiques. Ça va vraiment permettre de faire des comparaisons de vecteurs, puisque c'est une base de données vectorielle. Pourquoi on utilise des vecteurs ? C'est parce qu'on va pouvoir les comparer entre eux, faire des opérations mathématiques dessus. Du coup, il y a juste une étape avance, ça va être de transformer l'information qu'on a, le texte, l'image, etc. en vecteurs. il y a des modèles d'embedding, ça qui permettent de faire cette tâche-là. C'est aussi des modèles de deep learning entraînés. Ils sont dispos soit bien payés sans open source. Sur ça, il n'y a pas forcément énormément de différence en soi sur les modèles open source, mais on peut de performance. Ça, c'est un peu libre. Et sinon, du coup, une fois qu'on a ces embeddings, on va les mettre dans notre base de données vectorielle. Et après, du coup, on va prendre la question de l'utilisateur, par exemple, et on va le transformer en vecteur. Et comme ça, on pourra récupérer les vecteurs les plus similaires. Et donc, potentiellement, ces documents-là... ont la réponse à la question de l'utilisateur et donc on va pouvoir donner ça en prompte dynamiquement au LLM pour qu'il puisse répondre à la question. Pour un peu augmenter les connaissances du LLM dynamiquement sans faire de réentraînement, etc. qui aujourd'hui coûte très cher et qui sont assez compliqués.
- Speaker #0
On arrive à des résultats qui sont similaires ?
- Speaker #1
Aujourd'hui, en fait, il y a le réentraînement, ça va permettre plus d'ajouter des... des capacités OLM dans le sens, par exemple, dans un certain format, ajouter vraiment des choses possibles de faire avec. Alors que du coup, le RAC, ça s'appelle, par exemple, quand on utilise une base de données vectorielle pour augmenter ses connaissances, ça va vraiment être sur le fond, sur vraiment, est-ce qu'il répond à partir de documents ? Est-ce qu'il y a toutes les connaissances pour faire le sujet ? Donc, c'est un peu complémentaire plus que...
- Speaker #0
ouais c'est en plus ouais c'est ça ok et tu parlais du coup qu'il ya plusieurs techno dans des délais dans les dix dans mes dix dans ces deux modèles et modèles et tu peux nous donner quelques techno enfin quelques modèles qui existent qu'on
- Speaker #1
pourrait utiliser ouais du coup il ya pas un monsieur de paix qui sont aujourd'hui performant à peu près qui sont textes en betting trois small et trois larges du coup c'est les plus performants on va dire en close en propriétaire Et sinon en open source, il y a ceux de DragonFace Sentence Transformers qui sont aujourd'hui très très utilisés. Et après, de plus en plus, il y a des modèles d'embedding qui sont faits pour des cas d'usage spécifiques. Par exemple, sur tout ce qui est loi, c'est vraiment des termes très techniques, des choses vraiment très spécifiques. Donc on a besoin de modèles d'embedding qui comprennent tout ce langage pour le représenter le mieux possible. donc il ya de plus en plus des modèles comme ça qu'ils sont deviennent très spécifiques qui sont entraînés et disponibles voici qui est très cool on peut lancer une idée demain pour continuer là dedans c'est
- Speaker #0
quoi un peu ton top 5 des modèles diable pour utiliser la dj dans chat du pays on a plusieurs on entend partir du pd aujourd'hui
- Speaker #1
plein du court soit aujourd'hui on va dire le meilleur rapport qualité prix enfin dans les traits performants fait il ya plusieurs gamme on va dire elle est vraiment les très performants et hockey et des slm comme ils appellent small language modèles qui du coup vont être vraiment pour tourner sur un téléphone ce genre de choses donc on parlait d'un petit on part sur les plus performants aujourd'hui je pense que claude 3 au plus c'est le plus performant mais il est beaucoup plus cher que les autres ok du coup par exemple si on prend quatre autres si je dis pas de bêtises il à 5 dollars en entrée pour millions de token et en sortie 15 dollars alors que claude 3 je crois que c'est 80 dollars sur un des deux donc c'est vraiment pas le même en grandeur du coup et sur ce genre de choses aujourd'hui je pense qu'il est au dessus mais quasiment inutilisable à raison de son allé à du coup quand on veut du tri performant en général je recommande soit GPT-4O soit GPT-4 Turbo aujourd'hui parce qu'on est plus performant sinon sur du un peu plus basique on va dire on a soit ce Mistral par exemple qui est plutôt bon je
- Speaker #0
le trouve très bon moi celui Mistral moi j'ai essayé la version gratuite ce que j'ai dans le dernier podcast de Mistral c'est le large qui est disponible ? ouais je crois ouais je la trouve déjà incroyable même par rapport à Je me rappelle, il y a la 4.0 qui est sortie, le 2.0 qui est vraiment pas mal, mais par rapport à la version 4, je trouvais que souvent, de Mistral, la version gratuite, elle était meilleure.
- Speaker #1
En fait, sur du français, il aurait tendance à être meilleur. Sur de l'anglais, ça dépend. du coup sur le français ils ont un peu plus joué sur cette partie là qui du coup est étonnant du bois est ce que ça a pas dur le ministre à large il est pas il pas open source faire attention dans le sens où il veut vraiment nous peine source il arrêtait au mixte ral qui est de la version médium qui est du moins performante quand même mais qui est quand même bien ce que je vois quand je l'utilise quand même pour certains cas de visage du coup open source et sinon après dans les petits modèles il ya ce fit 3 qui est plus utilisé ou ce genre de modèles qui sont faits qui font peut-être 3 4 milliards de paramètres ce qui avant était énorme mais aujourd'hui ce qu'on des modèles langage c'est très petit par exemple si on prend l'ama 3 ils ont trois gammes deux gammes je peux te aux trois gammes ils ont le 8 milliards je crois une intermédiaire mais je suis plus sûr de combien de paramètres et une 70 milliards du coup on voit que c'est vraiment c'est pas la même taille et si on part sur du gp3 gbt 4 c'est dans les centaines de milliards voire milliers de milliards de paramètres passent un cas les mêmes failles et qu'est ce que tu entends par ces milliers de paramètres oui du coup en fait c'est la taille des modèles du coup ça va jouer sur les gpu qu'on va vouloir utiliser du coup par exemple sur un modèle qui est fait 8 milliards de paramètres, on aura idéalement besoin de 24 gigas de RAM, qu'on gère à 7 fois 3 en ratio. donc si on veut faire tourner des modèles qui ont 200 milliards de paramètres, il faut 600Go de GPU, ce qui est un peu compliqué. Du coup, il faut des clusters énormes de data centers que personne n'a aujourd'hui à part OpenAI ou les grands acteurs du numérique.
- Speaker #0
Je comprends pourquoi Nvidia est en train d'exploser en termes de chiffre d'affaires. Ça s'explique.
- Speaker #1
C'est ça.
- Speaker #0
Et j'ai vu que tu avais cité à la fin Yama, enfin la Mat 3.
- Speaker #1
pourquoi tu l'utilises pas plus que ça il ya une raison maintenant je l'utilise souvent pour du coup pour le pour l'open source du coup en fait du coup j'utilise pour vraiment le plus petit cas d'usagé du coup si trois par an qui est 3,2 3 milliards de paramètres très petits sinon le lama 3,8 milliards j'utilise quand on a besoin pour des cas en fait l'avantagé très très petit modèle c'est qu'on peut facilement les fans d'une et du coup sûr par les réentraîner sur des cas d'usagé spécifique mais deviennent assez vite très bon sur des usages très spécifique après du coup si on leur demande d'autres choses ils seront pas du tout contrairement à des groupes et qui sont très généré généraux mais sur des cas d'usagé très spécifique on peut vite arriver à des bonnes performances et du coup avec des coûts très réduit donc souvent je suis souvent c'est souvent dans ces moments là que j'utilise ces modèles là et après du coup quand on part sur du mixtral qui est déjà 38 fois 7 je crois, du coup 56 milliards de paramètres qu'en fait dans le nom c'est mixtral 8 fois 7 du coup je réfléchis déjà au nom qu'il y avait donc c'est déjà 56 milliards de paramètres qui est beaucoup plus gros et donc après entre la mat 3 70 milliards aujourd'hui ou celui-là souvent le 70 milliards est quand même plus performant qu'il était sorti après il est pas mal de choses qu'on évolue dans le temps mais en fait en fonction des demandes des besoins tu adaptes la technique que tu choisis quoi c'est ça exactement ouais ok mais du
- Speaker #0
coup par exemple sur ce modèle film c'est à dire que il est pas qu'à vie enfin s'il n'est pas entraîné sur un scope précis il va se perdre, il va halluciner ? Ou est-ce que juste il va dire tu peux pas te répondre ?
- Speaker #1
Non, ils ont tendance à beaucoup halluciner les petits modèles. Ils sont petits, puis ils hallucinent. C'est vite assez complexe à gérer justement ces petits modèles. Aujourd'hui, c'est ça où ça évolue le plus, on va dire. Il y a beaucoup de recherches parce qu'ils essayent de prendre des modèles qui étaient très puissants, très grands en très puissants, très petits. C'est simple.
- Speaker #0
Tu m'étonnes. Est-ce que tu vois Est-ce que tu vois d'autres IA qui commencent à émerger ? Il y a toujours les gros qu'on connaît, mais il y a des petites technologies dans ce milieu-là qui émergent.
- Speaker #1
Non, je ne vois pas particulièrement par les grands acteurs. Ça demande tellement de ressources d'entraîner ces modèles-là. Ça coûte de moins en moins, mais ça reste un énorme budget. Donc aujourd'hui, ça reste quand même les grands acteurs. Il y a Mistral qui est sorti un peu comme acteur français, on va dire, et un peu nouveau. mais sinon à part eux non je vois pas trop les groupes se lancer et je reviens sur l'anglais n'utilisait ça c'est un débat dans la communauté et ce qu'utilisent pas l'enchaînement qui disent quoi du coup ils utilisent directement les api en général il ya la main index qui a un concurrent de l'anc chaîne qui est un peu moins gros mais qui est à peu près le même travail et sinon il y en a beaucoup qui utilisent directement toutes les api de tous les différents services du coup la pays d'open air directement ou la paix et de x ou y directement ok ils font tout en pito en fait le framework donc ils ont plus le maire ils ont un peu plus de contrôle sur tout mais je trouve ça quand même
- Speaker #0
un peu la facilité une fois que tu as bien pris en langue chaînement on va dire que même s'ils changent plus tu reste quand même dans le même c'est ça que l'écosystème et tu commences à s'adapter quoi après je sais vraiment compliqué à prendre en main tellement il ya d'autres qui tellement terrible
- Speaker #1
tu peux te perdre qu'ils ont vraiment des intégrations avec 100 millions de choses donc tu tu vas regarder une doc sur un truc c'est cool j'ai tombé sur autre chose mais elle n'a rien vu ce que tu voulais voir parce que tu l'as pas trouvé ou qu'il y avait juste pas et c'est pareil comme c'est tout nouveau Il y a énormément de jeux sur Github qui ne vont pas avoir la réponse à ton problème et qui sont encore ouverts, etc. Donc c'est surtout sur ces points-là où c'est encore assez compliqué.
- Speaker #0
Puis je ne peux pas demander à ChatGPP de...
- Speaker #1
Il ne la connaît pas encore. Il y a des chatbots qui ont été faits quand même. Ils ont un chatbot sur leur doc qui marche bien en vrai.
- Speaker #0
Ah c'est marrant. Ils ont entraîné avec Langchain. Mais ils changent donc le chat. C'est super. c'est assez drôle et de manière un peu plus générale à travers tes réalisations que tu as eu sur les deux startups dans lesquelles tu bosses ou même sur tes projets d'avant c'est quoi un peu tes je ne vais pas dire tes échecs mais un peu ce que tu as vu, ce que tu as fait et sur lesquels tu t'es amélioré au fur et à mesure ton expérience dans ces modèles d'IA quelles sont les erreurs qu'on fait quand on commence l'IA on va dire ouais
- Speaker #1
Je pense qu'une erreur qu'on fait, c'est de penser que ça peut tout faire. Donc d'essayer vraiment de tout lui donner comme information et de la laisser un peu gérer tout. Par exemple, créer un agent qui va faire une tâche gigantesque. Espérer qu'il le fasse, et au final ça l'a fait, mais mal. Du coup, l'idée c'est vraiment aussi, un peu comme dans le développement classique, mais de répartir en sous-tâches le plus possible pour que ce soit le plus atomique possible. Du coup potentiellement d'avoir plein d'appels HLM différents qui vont à chaque fois faire une tâche très spécifique et après du coup agréger ou faire différentes choses avec les données plutôt qu'avoir un truc qui fait tout mais qui le fait mal.
- Speaker #0
On est un peu mal habitué avec OpenAI, on a l'impression que c'est magique mais on ne se rend pas compte de tout ce qu'il y a derrière, tout ce que ça demande comme ressources pour que ça tourne et on ne peut pas tous avoir quelque chose comme ça dans nos applications. c'est clair après opena il tellement de choses tellement de besoin de concrétiser on n'a pas besoin de oui plus ce que fait je parlais du gt4 avec lui même le monstre la façade quoi tout le monde pense que c'est ça ok plutôt intéressant et si demain je pensais en il ya je suis mais je suis débutant comment je commence par eau
- Speaker #1
beaucoup de vidéos youtube ou de très hauts chutes de pour essayer de comprendre comment ça marche concrètement je pense que ça aide du coup à savoir ce qui est possible de faire parce que tu par exemple des trucs des choses que des clients nous demandent c'est que elle aime pas des choses mathématiques ouais ce que par définition comment il fonctionne il n'est pas fait pour du coup même si les prix très gros va savoir faire des opérations basiques mais ça va c'est vite s'arrêter là donc c'est besoin de lui donner des outils par exemple pour pour faire ce genre de tâches ce que je veux dire c'est que comprendre ce qui est possible de faire avec du coup comment potentiellement arriver à la même chose et du coup savoir ce qui n'est pas possible de faire donc directement sur passer par des algos plus classiques ou donc pas encore le faire enfin trouver une autre alternative que directement passer par ça mais sinon c'est surtout comprendre comment ça marche du coup vraiment la théorie un petit peu sans forcément rentrer dans l'imat pur ouais mais comprendre un petit peu comment ça marche et tu connais pas des formations ou des chaînes ou des trucs coûte à regarder tu dis ça a aidé au début peut-être pas non pas spécialement du coup j'ai beaucoup bouffé la doc de l'ancien du coup qui est à ce qu'est pas mal de choses c'est déjà pas mal mais sinon annoncer des tutos en tant que tel du coup même j'ai eu tous les cours d'y en soit directement dans mon parcours ouais si je n'ai pas vu toute la théorie enfin je pars revêt revu toute la théorie sur comment marcher modèle tu l'as vu dans ton parcours de ça exactement ok aujourd'hui quand tu fais l'idée a tué par le fou de mathématiques j'ai abandonné sa part il ya quand même une couche maintenant c'est même 100% enfin il ya plus aucune mathématiques mais c'est juste comprendre ce qui est possible de faire parce que j'avais les mathématiques d'avant mais maintenant j'ai tout fait assez mathématiques c'est un peu plus des freins l'idée c'est ça que j'ai dit à ma bête en sur que lia générative contrairement à l'ia plus classique machin et ça ça ressemble beaucoup plus à du software engineering du coup vraiment de l'orchestration enfin un peu tout ce qui est classique plutôt que de lia enfin de que de lia classique c'est que j'aime bien dans la partie à gérer c'est que tu fais beaucoup de software engineer marqué dans du machine learning tu vas faire beaucoup de data science et beaucoup de côté math qui est encore présent c'est ça
- Speaker #0
J'avais vu une stat où la machine learning est encore l'un des endroits où on investit le plus en IA, un peu les génératives et les doutes. Donc la grosse différence, si je comprends bien, entre la générative et la machine learning, c'est les maths, le travail qu'il y a à mettre derrière.
- Speaker #1
Ouais.
- Speaker #0
J'ai arrondi. Qu'est-ce que tu en penses ? Pour toi, c'est quoi la différence entre l'IA générative et la machine learning ?
- Speaker #1
ouais mais en fait ça surtout être les tâches qu'on veut réaliser comment dans le nom il ya générative ont vraiment généré quelque chose dans le machine learning classique sur par exemple sur tout ce qui est prédiction du coup je vais pas de prix de
- Speaker #0
de tunnel de séries temporelles et c'est vraiment tout ce qui est prédiction pure par exemple bah là c'est meilleur même que le cas génératif parce que c'est des modèles qui ont été faits pour qui sont entraînés du coup sur un dataset en fait il ya surtout que sur le ya plus classique a forcément besoin d'un dataset d'entraînement de tester du coup des becs des statistiques en clinique des clignes des données vraiment toute la partie d'attention spur et donc après on a des modèles qui sont faits pour une tâche qui la font bien et donc ils sont très économes en ressources contrairement à des choses comme ça qui sont extrêmement consommatrice et alors que l'IA généraliste vraiment on veut générer du contenu on veut générer du texte ou une image alors que dans les lieux plus classiques pas forcément besoin de générer on peut être classifié ou alors généraux se génère un prix de la génération tant que tu vas générer de la donner en soit ok c'est intéressant pour mieux faire la différence et
- Speaker #1
puis un peu pour
- Speaker #0
deux petites deux dernières questions donc le tueur podcast qu'elle est qu'elle est pour toi là le futur de l'ia comment tu vois évoluer les choses dans le futur je pense que là on est en fait on est en train de découvrir un peu tout ce qui est possible de faire donc là il faut un peu que ça mature dans le sens avoir des choses qui marchent mais robuste tout ça je pense que ça prend quand même un petit peu de temps et après du coup il y aura toute la phase d'adaptation pour que les gens prennent en main les choses du coup là on a eu un peu une phase d'adaptation avec sa gpt mais du coup ça se met concrètement en place dans des vrais process où les gens utilisent l'IA. Je pense que ça ne sera pas forcément remplacer des métiers, comme beaucoup ont peur, mais je pense que ça sera plus des assistants qui vont aider les gens à avoir un métier, être plus productif et du coup avoir potentiellement des métiers un peu plus sympas. Par exemple, dans Chatinov, ce qu'on fait, c'est des tâches les plus... plus longue mais en même temps les moins intéressantes on va rajouter qu'on essaie de remplacer du coup pour que les médecins d'analyse soit plus sympa et en temps plus plus intéressant au jour le jour.
- Speaker #2
C'est ce que tu disais tout à l'heure, il faut qu'en fait les gens comprennent ce qui est possible et ce qui n'est pas possible avec l'IA et que ce ne soit pas on donne tout à l'IA et l'IA va tout faire prendre notre place et tout.
- Speaker #1
Nos métiers ne vont pas disparaître, ça va enlever les côtés pénibles de certains métiers.
- Speaker #0
C'est rassurant, répétitif, etc. Je pense que c'est ma science.
- Speaker #1
Ça paraît même plus productif. Comme on le dit souvent dans les podcasts, nous en dev, on est plus sur du software développement. on va c'est le petit coup plus ça que l'ancien donc ça va beaucoup plus vite pour plein d'espèces ouais Et le dernier point pour finir, comme là tu es en train de lancer ces entreprises, et tu as notre âge, j'aimerais en faire aussi, qu'est-ce que tu souhaites pour le futur de ces entreprises, tes aspirations personnelles pour la suite ?
- Speaker #0
Du coup j'espère qu'ils vont grossir, du coup j'espère en vrai grossir doucement dans le sens que ça reste contrôlable, qu'on mette encore la main dessus pour qu'on comprenne la technologie et qu'on puisse vraiment... grossir et en tant que les clients soient satisfaits de ce qu'on fait.
- Speaker #1
Ouais.
- Speaker #0
potentiellement faire des levées de fonds à terme pour un peu grossir et accélérer la croissance. En tout cas, ce n'est pas encore dans les plans. Mais l'idée, c'est de grossir doucement, avoir des clients, avoir des produits un peu stables, plus que juste des démos au POC, d'avoir droite à gauche.
- Speaker #1
Là, vous testez encore le marché, voir si ça va répondre.
- Speaker #0
C'est ça, exactement. On va avoir un vrai produit à vendre avant de passer en levée de fonds.
- Speaker #1
Est-ce qu'après, tu dois manager des équipes ?
- Speaker #0
avoir son rôle de site il voulait sans ça c'est un truc que j'aimerais bien faire du coup avoir vraiment la partie management d'équipe du coup comprendre un peu les besoins et passer un peu plus enfin un peu moins dans le code est un peu plus dans la gestion est dans l'idée dans la potentiellement à la veille de nouvelles technologies pour les tester et c'est vraiment plus un rôle de site sur en tant que tel plus qu'un titre de ce type du coup c'est des choses que j'aimerais bien avec le temps avoir à faire ok bah c'est très cool donc le souhait que ça fonctionne
- Speaker #2
non mais c'est super ça fait plaisir d'avoir un entrepreneur avec nous en tout cas merci de nous avoir accordé un peu de temps pour ce podcast de Beyond No Brackets merci à vous on se retrouve la semaine prochaine pour un nouvel épisode avec
- Speaker #1
un invité si tout va bien encore une fois encore c'est un chien je vous souhaite une bonne journée et puis on se retrouve vendredi prochain n'hésitez pas à aller nous suivre sur LinkedIn, TikTok instagram et serait encore à la semaine prochaine salut salut