undefined cover
undefined cover
#72 – Caroline met en lumière les biais d’âge des IA génératives cover
#72 – Caroline met en lumière les biais d’âge des IA génératives cover
PLAFF

#72 – Caroline met en lumière les biais d’âge des IA génératives

#72 – Caroline met en lumière les biais d’âge des IA génératives

22min |08/04/2024
Play
undefined cover
undefined cover
#72 – Caroline met en lumière les biais d’âge des IA génératives cover
#72 – Caroline met en lumière les biais d’âge des IA génératives cover
PLAFF

#72 – Caroline met en lumière les biais d’âge des IA génératives

#72 – Caroline met en lumière les biais d’âge des IA génératives

22min |08/04/2024
Play

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.


Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées.  

L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.


Caroline nous explique les raisons.

  1. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle.

  2. Ils reconduisent les stéréotypes qui circulent dans nos sociétés.

  3. Les développeurs sont en très grand majorité des hommes jeunes.


Les IA reproduisent les données du passé existantes, sans les questionner.
Caroline donne des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit qui en amplifient les biais.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as.


Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


REFERENCES


Les grands défis de l’IA générative


Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.


Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées.  

L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.


Caroline nous explique les raisons.

  1. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle.

  2. Ils reconduisent les stéréotypes qui circulent dans nos sociétés.

  3. Les développeurs sont en très grand majorité des hommes jeunes.


Les IA reproduisent les données du passé existantes, sans les questionner.
Caroline donne des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit qui en amplifient les biais.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as.


Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


REFERENCES


Les grands défis de l’IA générative


Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.


Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées.  

L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.


Caroline nous explique les raisons.

  1. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle.

  2. Ils reconduisent les stéréotypes qui circulent dans nos sociétés.

  3. Les développeurs sont en très grand majorité des hommes jeunes.


Les IA reproduisent les données du passé existantes, sans les questionner.
Caroline donne des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit qui en amplifient les biais.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as.


Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


REFERENCES


Les grands défis de l’IA générative


Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.


Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées.  

L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.


Caroline nous explique les raisons.

  1. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle.

  2. Ils reconduisent les stéréotypes qui circulent dans nos sociétés.

  3. Les développeurs sont en très grand majorité des hommes jeunes.


Les IA reproduisent les données du passé existantes, sans les questionner.
Caroline donne des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit qui en amplifient les biais.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as.


Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


REFERENCES


Les grands défis de l’IA générative


Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like