undefined cover
undefined cover
#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models cover
#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models cover
Intelligence Artificielle - Data Driven 101 - Le podcast IA & Data 100% en français

#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

38min |01/10/2023|

2825

Play
undefined cover
undefined cover
#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models cover
#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models cover
Intelligence Artificielle - Data Driven 101 - Le podcast IA & Data 100% en français

#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

#33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

38min |01/10/2023|

2825

Play

Description

Guillaume Lample, Cofounder & Chief Scientist chez Mistral AI  est l’invité de l’épisode 33 de Data Driven 101. Mistral AI entraîne des modèles de langues à destination des entreprises avec un accès open source. Il nous explique notamment :

  • les difficultés et subtilités pour entraîner un LLM
  • les découvertes inattendues faites sur le chemin
  • les caractéristiques de leur premier modèle à destination du grand public

🔑 MOTS CLÉS

  • Dataset  : un ensemble de données utilisé pour entraîner un modèle d'apprentissage automatique.
  • Token  : un morceau de mot utilisé pour entraîner un modèle de langage. Un mot peut être découpé en plusieurs tokens.
  • Embedding  : une représentation vectorielle d'un mot ou d'une phrase utilisée pour entraîner un modèle de langage.
  • Open source  : un logiciel dont le code source est disponible pour tout le monde et peut être modifié et distribué librement.
  • Fine-tuning : une technique d'entraînement de modèles de langage qui consiste à ajuster un modèle pré-entraîné sur un ensemble de données spécifique à une tâche donnée.
  • NLP (Natural Language Processing) : un domaine de l'informatique qui se concentre sur l'interaction entre les ordinateurs et le langage humain.

🎙 SOUTENEZ LE PODCAST GRATUITEMENT

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 


👉🏼Episode 29 : Arthur André ( Co-fondateur @ Praiz ) : Synthétiser ses réunions grâce à l'IA

👉🏼 Episode 23 : Hamza Tajmo uati (Head of AI & Data @ Iktos ) : L’IA générative pour créer des médicaments

👉🏼Episode  HS1 : Nikolaj Groeneweg (Founder @ Everyme.ai) - Générer des images grâce à l'IA


👋 PLUS DE CONTENU DATA ?

> Suivez-moi sur LinkedIn (tips/réflexions) ici 🤳

> Suivez-nous sur Tiktok 📳

> Abonnez-vous à notre chaîne Youtube


 🚀 BESOIN D’EXPERTISE IA & DATA ?

Réserver un créneau de 30 min avec Marc Sanselme  et profiter des connaissances et du savoir-faire d’un expert IA qui saura vous aiguiller sur vos projets d’IA.


Réservez votre séance de 30 minutes maintenant


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Guillaume Lample, Cofounder & Chief Scientist chez Mistral AI  est l’invité de l’épisode 33 de Data Driven 101. Mistral AI entraîne des modèles de langues à destination des entreprises avec un accès open source. Il nous explique notamment :

  • les difficultés et subtilités pour entraîner un LLM
  • les découvertes inattendues faites sur le chemin
  • les caractéristiques de leur premier modèle à destination du grand public

🔑 MOTS CLÉS

  • Dataset  : un ensemble de données utilisé pour entraîner un modèle d'apprentissage automatique.
  • Token  : un morceau de mot utilisé pour entraîner un modèle de langage. Un mot peut être découpé en plusieurs tokens.
  • Embedding  : une représentation vectorielle d'un mot ou d'une phrase utilisée pour entraîner un modèle de langage.
  • Open source  : un logiciel dont le code source est disponible pour tout le monde et peut être modifié et distribué librement.
  • Fine-tuning : une technique d'entraînement de modèles de langage qui consiste à ajuster un modèle pré-entraîné sur un ensemble de données spécifique à une tâche donnée.
  • NLP (Natural Language Processing) : un domaine de l'informatique qui se concentre sur l'interaction entre les ordinateurs et le langage humain.

🎙 SOUTENEZ LE PODCAST GRATUITEMENT

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 


👉🏼Episode 29 : Arthur André ( Co-fondateur @ Praiz ) : Synthétiser ses réunions grâce à l'IA

👉🏼 Episode 23 : Hamza Tajmo uati (Head of AI & Data @ Iktos ) : L’IA générative pour créer des médicaments

👉🏼Episode  HS1 : Nikolaj Groeneweg (Founder @ Everyme.ai) - Générer des images grâce à l'IA


👋 PLUS DE CONTENU DATA ?

> Suivez-moi sur LinkedIn (tips/réflexions) ici 🤳

> Suivez-nous sur Tiktok 📳

> Abonnez-vous à notre chaîne Youtube


 🚀 BESOIN D’EXPERTISE IA & DATA ?

Réserver un créneau de 30 min avec Marc Sanselme  et profiter des connaissances et du savoir-faire d’un expert IA qui saura vous aiguiller sur vos projets d’IA.


Réservez votre séance de 30 minutes maintenant


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

Guillaume Lample, Cofounder & Chief Scientist chez Mistral AI  est l’invité de l’épisode 33 de Data Driven 101. Mistral AI entraîne des modèles de langues à destination des entreprises avec un accès open source. Il nous explique notamment :

  • les difficultés et subtilités pour entraîner un LLM
  • les découvertes inattendues faites sur le chemin
  • les caractéristiques de leur premier modèle à destination du grand public

🔑 MOTS CLÉS

  • Dataset  : un ensemble de données utilisé pour entraîner un modèle d'apprentissage automatique.
  • Token  : un morceau de mot utilisé pour entraîner un modèle de langage. Un mot peut être découpé en plusieurs tokens.
  • Embedding  : une représentation vectorielle d'un mot ou d'une phrase utilisée pour entraîner un modèle de langage.
  • Open source  : un logiciel dont le code source est disponible pour tout le monde et peut être modifié et distribué librement.
  • Fine-tuning : une technique d'entraînement de modèles de langage qui consiste à ajuster un modèle pré-entraîné sur un ensemble de données spécifique à une tâche donnée.
  • NLP (Natural Language Processing) : un domaine de l'informatique qui se concentre sur l'interaction entre les ordinateurs et le langage humain.

🎙 SOUTENEZ LE PODCAST GRATUITEMENT

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 


👉🏼Episode 29 : Arthur André ( Co-fondateur @ Praiz ) : Synthétiser ses réunions grâce à l'IA

👉🏼 Episode 23 : Hamza Tajmo uati (Head of AI & Data @ Iktos ) : L’IA générative pour créer des médicaments

👉🏼Episode  HS1 : Nikolaj Groeneweg (Founder @ Everyme.ai) - Générer des images grâce à l'IA


👋 PLUS DE CONTENU DATA ?

> Suivez-moi sur LinkedIn (tips/réflexions) ici 🤳

> Suivez-nous sur Tiktok 📳

> Abonnez-vous à notre chaîne Youtube


 🚀 BESOIN D’EXPERTISE IA & DATA ?

Réserver un créneau de 30 min avec Marc Sanselme  et profiter des connaissances et du savoir-faire d’un expert IA qui saura vous aiguiller sur vos projets d’IA.


Réservez votre séance de 30 minutes maintenant


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Guillaume Lample, Cofounder & Chief Scientist chez Mistral AI  est l’invité de l’épisode 33 de Data Driven 101. Mistral AI entraîne des modèles de langues à destination des entreprises avec un accès open source. Il nous explique notamment :

  • les difficultés et subtilités pour entraîner un LLM
  • les découvertes inattendues faites sur le chemin
  • les caractéristiques de leur premier modèle à destination du grand public

🔑 MOTS CLÉS

  • Dataset  : un ensemble de données utilisé pour entraîner un modèle d'apprentissage automatique.
  • Token  : un morceau de mot utilisé pour entraîner un modèle de langage. Un mot peut être découpé en plusieurs tokens.
  • Embedding  : une représentation vectorielle d'un mot ou d'une phrase utilisée pour entraîner un modèle de langage.
  • Open source  : un logiciel dont le code source est disponible pour tout le monde et peut être modifié et distribué librement.
  • Fine-tuning : une technique d'entraînement de modèles de langage qui consiste à ajuster un modèle pré-entraîné sur un ensemble de données spécifique à une tâche donnée.
  • NLP (Natural Language Processing) : un domaine de l'informatique qui se concentre sur l'interaction entre les ordinateurs et le langage humain.

🎙 SOUTENEZ LE PODCAST GRATUITEMENT

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 


👉🏼Episode 29 : Arthur André ( Co-fondateur @ Praiz ) : Synthétiser ses réunions grâce à l'IA

👉🏼 Episode 23 : Hamza Tajmo uati (Head of AI & Data @ Iktos ) : L’IA générative pour créer des médicaments

👉🏼Episode  HS1 : Nikolaj Groeneweg (Founder @ Everyme.ai) - Générer des images grâce à l'IA


👋 PLUS DE CONTENU DATA ?

> Suivez-moi sur LinkedIn (tips/réflexions) ici 🤳

> Suivez-nous sur Tiktok 📳

> Abonnez-vous à notre chaîne Youtube


 🚀 BESOIN D’EXPERTISE IA & DATA ?

Réserver un créneau de 30 min avec Marc Sanselme  et profiter des connaissances et du savoir-faire d’un expert IA qui saura vous aiguiller sur vos projets d’IA.


Réservez votre séance de 30 minutes maintenant


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like