undefined cover
undefined cover
L’art de prompter sans se faire biaiser cover
L’art de prompter sans se faire biaiser cover
Connected Mate

L’art de prompter sans se faire biaiser

L’art de prompter sans se faire biaiser

17min |10/06/2025
Play
undefined cover
undefined cover
L’art de prompter sans se faire biaiser cover
L’art de prompter sans se faire biaiser cover
Connected Mate

L’art de prompter sans se faire biaiser

L’art de prompter sans se faire biaiser

17min |10/06/2025
Play

Description

L’IA générative hérite de nos biais, c’est un fait. Mais ce que l’on oublie trop souvent : elle les amplifie à travers nos prompts. La guerre contre les biais générés par l’IA commence par… votre prompt. Et si vos prompts étaient vos pires ennemis ?


Dans cet épisode, PPC et Alexandre interrogent Gemini, l'IA de Google, sur un enjeu qui nous concerne tous : les biais. Biais des modèles de langage, biais dans les prompts utilisateurs, biais induits par les couches cachées de l’IA — tout y passe. Vous découvrirez :

  • Comment éviter les stéréotypes sexistes et raciaux dans vos prompts

  • Pourquoi le prompt engineering est un art à repenser en 2025

  • Quelle est la part de responsabilité humaine dans les réponses biaisées

    🎯 À écouter si vous construisez, utilisez ou analysez des IA génératives.


Pour suivre les actualités de ce podcast, abonnez-vous gratuitement à la newsletter écrite avec amour et garantie sans spam https://bonjourppc.substack.com 


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

L’IA générative hérite de nos biais, c’est un fait. Mais ce que l’on oublie trop souvent : elle les amplifie à travers nos prompts. La guerre contre les biais générés par l’IA commence par… votre prompt. Et si vos prompts étaient vos pires ennemis ?


Dans cet épisode, PPC et Alexandre interrogent Gemini, l'IA de Google, sur un enjeu qui nous concerne tous : les biais. Biais des modèles de langage, biais dans les prompts utilisateurs, biais induits par les couches cachées de l’IA — tout y passe. Vous découvrirez :

  • Comment éviter les stéréotypes sexistes et raciaux dans vos prompts

  • Pourquoi le prompt engineering est un art à repenser en 2025

  • Quelle est la part de responsabilité humaine dans les réponses biaisées

    🎯 À écouter si vous construisez, utilisez ou analysez des IA génératives.


Pour suivre les actualités de ce podcast, abonnez-vous gratuitement à la newsletter écrite avec amour et garantie sans spam https://bonjourppc.substack.com 


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

L’IA générative hérite de nos biais, c’est un fait. Mais ce que l’on oublie trop souvent : elle les amplifie à travers nos prompts. La guerre contre les biais générés par l’IA commence par… votre prompt. Et si vos prompts étaient vos pires ennemis ?


Dans cet épisode, PPC et Alexandre interrogent Gemini, l'IA de Google, sur un enjeu qui nous concerne tous : les biais. Biais des modèles de langage, biais dans les prompts utilisateurs, biais induits par les couches cachées de l’IA — tout y passe. Vous découvrirez :

  • Comment éviter les stéréotypes sexistes et raciaux dans vos prompts

  • Pourquoi le prompt engineering est un art à repenser en 2025

  • Quelle est la part de responsabilité humaine dans les réponses biaisées

    🎯 À écouter si vous construisez, utilisez ou analysez des IA génératives.


Pour suivre les actualités de ce podcast, abonnez-vous gratuitement à la newsletter écrite avec amour et garantie sans spam https://bonjourppc.substack.com 


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

L’IA générative hérite de nos biais, c’est un fait. Mais ce que l’on oublie trop souvent : elle les amplifie à travers nos prompts. La guerre contre les biais générés par l’IA commence par… votre prompt. Et si vos prompts étaient vos pires ennemis ?


Dans cet épisode, PPC et Alexandre interrogent Gemini, l'IA de Google, sur un enjeu qui nous concerne tous : les biais. Biais des modèles de langage, biais dans les prompts utilisateurs, biais induits par les couches cachées de l’IA — tout y passe. Vous découvrirez :

  • Comment éviter les stéréotypes sexistes et raciaux dans vos prompts

  • Pourquoi le prompt engineering est un art à repenser en 2025

  • Quelle est la part de responsabilité humaine dans les réponses biaisées

    🎯 À écouter si vous construisez, utilisez ou analysez des IA génératives.


Pour suivre les actualités de ce podcast, abonnez-vous gratuitement à la newsletter écrite avec amour et garantie sans spam https://bonjourppc.substack.com 


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like