undefined cover
undefined cover
Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51 cover
Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51 cover
Intelligence Artificielle - Data Driven 101 - Le podcast IA & Data 100% en français

Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51

Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51

35min |10/03/2024|

2085

Play
undefined cover
undefined cover
Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51 cover
Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51 cover
Intelligence Artificielle - Data Driven 101 - Le podcast IA & Data 100% en français

Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51

Qualité de l’IA, qualité de la data - Jean-Marie John Matthew (Cofondateur @ Giskard) #51

35min |10/03/2024|

2085

Play

Description

Jean-Marie John Matthew, Cofondateur de Giskard, est l’invité de l’épisode 51 de Data Driven 101.

Il nous parle de l’importance des tests pour l'intelligence artificielle, tant dans l’IA générative que dans l’IA “old school”.

Il nous détaille les vulnérabilités des IA, comme les hallucinations et fuites de données, et la nécessité d'adopter des stratégies de tests exhaustives et ciblées.

L’aventure entrepreneuriale, le positionnement open source et l’évolution du monde face aux Large Language Models viennent étoffer son témoignage.


🔑 MOTS CLÉS
Taxonomies de vulnérabilité :
Référence aux classifications systématiques des faiblesses potentielles dans les modèles d'IA, comme les hallucinations (créations de fausses informations), omissions, et prompt injections (injections de commandes qui détournent le fonctionnement de l'IA).

Data leakage : Décrit une situation où des informations sensibles ou confidentielles sont accidentellement révélées par un modèle d'IA, souvent à cause d'une mauvaise gestion des données d'entraînement ou de défauts dans le modèle lui-même.


🎙 SOUTENEZ LE PODCAST

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 

Épisode 33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

Épisode 38 Stanislas Polu (Co-fondateur @ Dust) : Assistant personnel basé sur l’Intelligence Artificielle

Épisode 46 Pierre Vannier (CEO @ Flint) : Buy or build ? Externaliser l’IA et la Data Science



 🚀 BESOIN D’EXPERTISE IA & DATA ?

Scopeo vous accompagne de A à Z dans vos projets IA : découvrez nos solutions :

  • Diagnostic IA & Data : évaluation du potentiel de l'Intelligence Artificielle pour votre entreprise, compréhension de ce qui est réalisable avec les technologies actuelles, et mesure des risques et des opportunités associés à l'IA pour votre activité

  • IA sur mesure : création d'une Intelligence Artificielle sur mesure, adaptée à vos besoins spécifiques, développement et intégration des meilleures solutions sur mesure pour répondre à vos problématiques uniques



Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Chapters

  • Introduction

    00:00

  • Évaluations des Modèles de Machine Learning

    02:27

  • Le Data Leakage

    07:04

  • Un marché en constante évolution

    10:59

  • Les avancées de ChatGPT et LLM

    12:16

  • La qualité des données

    17:46

  • Standardisation et labellisation

    19:42

  • L’Open source et sa monétisation

    25:08

  • Vision future et conseils pour l'intégration de l'IA dans les processus d'entreprise.

    31:17

Description

Jean-Marie John Matthew, Cofondateur de Giskard, est l’invité de l’épisode 51 de Data Driven 101.

Il nous parle de l’importance des tests pour l'intelligence artificielle, tant dans l’IA générative que dans l’IA “old school”.

Il nous détaille les vulnérabilités des IA, comme les hallucinations et fuites de données, et la nécessité d'adopter des stratégies de tests exhaustives et ciblées.

L’aventure entrepreneuriale, le positionnement open source et l’évolution du monde face aux Large Language Models viennent étoffer son témoignage.


🔑 MOTS CLÉS
Taxonomies de vulnérabilité :
Référence aux classifications systématiques des faiblesses potentielles dans les modèles d'IA, comme les hallucinations (créations de fausses informations), omissions, et prompt injections (injections de commandes qui détournent le fonctionnement de l'IA).

Data leakage : Décrit une situation où des informations sensibles ou confidentielles sont accidentellement révélées par un modèle d'IA, souvent à cause d'une mauvaise gestion des données d'entraînement ou de défauts dans le modèle lui-même.


🎙 SOUTENEZ LE PODCAST

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 

Épisode 33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

Épisode 38 Stanislas Polu (Co-fondateur @ Dust) : Assistant personnel basé sur l’Intelligence Artificielle

Épisode 46 Pierre Vannier (CEO @ Flint) : Buy or build ? Externaliser l’IA et la Data Science



 🚀 BESOIN D’EXPERTISE IA & DATA ?

Scopeo vous accompagne de A à Z dans vos projets IA : découvrez nos solutions :

  • Diagnostic IA & Data : évaluation du potentiel de l'Intelligence Artificielle pour votre entreprise, compréhension de ce qui est réalisable avec les technologies actuelles, et mesure des risques et des opportunités associés à l'IA pour votre activité

  • IA sur mesure : création d'une Intelligence Artificielle sur mesure, adaptée à vos besoins spécifiques, développement et intégration des meilleures solutions sur mesure pour répondre à vos problématiques uniques



Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Chapters

  • Introduction

    00:00

  • Évaluations des Modèles de Machine Learning

    02:27

  • Le Data Leakage

    07:04

  • Un marché en constante évolution

    10:59

  • Les avancées de ChatGPT et LLM

    12:16

  • La qualité des données

    17:46

  • Standardisation et labellisation

    19:42

  • L’Open source et sa monétisation

    25:08

  • Vision future et conseils pour l'intégration de l'IA dans les processus d'entreprise.

    31:17

Share

Embed

You may also like

Description

Jean-Marie John Matthew, Cofondateur de Giskard, est l’invité de l’épisode 51 de Data Driven 101.

Il nous parle de l’importance des tests pour l'intelligence artificielle, tant dans l’IA générative que dans l’IA “old school”.

Il nous détaille les vulnérabilités des IA, comme les hallucinations et fuites de données, et la nécessité d'adopter des stratégies de tests exhaustives et ciblées.

L’aventure entrepreneuriale, le positionnement open source et l’évolution du monde face aux Large Language Models viennent étoffer son témoignage.


🔑 MOTS CLÉS
Taxonomies de vulnérabilité :
Référence aux classifications systématiques des faiblesses potentielles dans les modèles d'IA, comme les hallucinations (créations de fausses informations), omissions, et prompt injections (injections de commandes qui détournent le fonctionnement de l'IA).

Data leakage : Décrit une situation où des informations sensibles ou confidentielles sont accidentellement révélées par un modèle d'IA, souvent à cause d'une mauvaise gestion des données d'entraînement ou de défauts dans le modèle lui-même.


🎙 SOUTENEZ LE PODCAST

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 

Épisode 33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

Épisode 38 Stanislas Polu (Co-fondateur @ Dust) : Assistant personnel basé sur l’Intelligence Artificielle

Épisode 46 Pierre Vannier (CEO @ Flint) : Buy or build ? Externaliser l’IA et la Data Science



 🚀 BESOIN D’EXPERTISE IA & DATA ?

Scopeo vous accompagne de A à Z dans vos projets IA : découvrez nos solutions :

  • Diagnostic IA & Data : évaluation du potentiel de l'Intelligence Artificielle pour votre entreprise, compréhension de ce qui est réalisable avec les technologies actuelles, et mesure des risques et des opportunités associés à l'IA pour votre activité

  • IA sur mesure : création d'une Intelligence Artificielle sur mesure, adaptée à vos besoins spécifiques, développement et intégration des meilleures solutions sur mesure pour répondre à vos problématiques uniques



Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Chapters

  • Introduction

    00:00

  • Évaluations des Modèles de Machine Learning

    02:27

  • Le Data Leakage

    07:04

  • Un marché en constante évolution

    10:59

  • Les avancées de ChatGPT et LLM

    12:16

  • La qualité des données

    17:46

  • Standardisation et labellisation

    19:42

  • L’Open source et sa monétisation

    25:08

  • Vision future et conseils pour l'intégration de l'IA dans les processus d'entreprise.

    31:17

Description

Jean-Marie John Matthew, Cofondateur de Giskard, est l’invité de l’épisode 51 de Data Driven 101.

Il nous parle de l’importance des tests pour l'intelligence artificielle, tant dans l’IA générative que dans l’IA “old school”.

Il nous détaille les vulnérabilités des IA, comme les hallucinations et fuites de données, et la nécessité d'adopter des stratégies de tests exhaustives et ciblées.

L’aventure entrepreneuriale, le positionnement open source et l’évolution du monde face aux Large Language Models viennent étoffer son témoignage.


🔑 MOTS CLÉS
Taxonomies de vulnérabilité :
Référence aux classifications systématiques des faiblesses potentielles dans les modèles d'IA, comme les hallucinations (créations de fausses informations), omissions, et prompt injections (injections de commandes qui détournent le fonctionnement de l'IA).

Data leakage : Décrit une situation où des informations sensibles ou confidentielles sont accidentellement révélées par un modèle d'IA, souvent à cause d'une mauvaise gestion des données d'entraînement ou de défauts dans le modèle lui-même.


🎙 SOUTENEZ LE PODCAST

> Abonnez-vous 🔔

> Laissez 5 étoiles et un avis  🥰 

Sur Spotify : ici

Sur Apple Podcast : ici

Sur Deezer : ici

Sur Google Podcast : ici 


🧐 DANS LA MÊME THÉMATIQUE 

Épisode 33 Guillaume Lample (Co-fondateur & Chief Scientist @ Mistral AI) : Les secrets des Large Language Models

Épisode 38 Stanislas Polu (Co-fondateur @ Dust) : Assistant personnel basé sur l’Intelligence Artificielle

Épisode 46 Pierre Vannier (CEO @ Flint) : Buy or build ? Externaliser l’IA et la Data Science



 🚀 BESOIN D’EXPERTISE IA & DATA ?

Scopeo vous accompagne de A à Z dans vos projets IA : découvrez nos solutions :

  • Diagnostic IA & Data : évaluation du potentiel de l'Intelligence Artificielle pour votre entreprise, compréhension de ce qui est réalisable avec les technologies actuelles, et mesure des risques et des opportunités associés à l'IA pour votre activité

  • IA sur mesure : création d'une Intelligence Artificielle sur mesure, adaptée à vos besoins spécifiques, développement et intégration des meilleures solutions sur mesure pour répondre à vos problématiques uniques



Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Chapters

  • Introduction

    00:00

  • Évaluations des Modèles de Machine Learning

    02:27

  • Le Data Leakage

    07:04

  • Un marché en constante évolution

    10:59

  • Les avancées de ChatGPT et LLM

    12:16

  • La qualité des données

    17:46

  • Standardisation et labellisation

    19:42

  • L’Open source et sa monétisation

    25:08

  • Vision future et conseils pour l'intégration de l'IA dans les processus d'entreprise.

    31:17

Share

Embed

You may also like