undefined cover
undefined cover
Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre cover
Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre cover
PLAFF podcast - Place aux femmes fortes

Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre

Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre

22min |08/04/2024
Play
undefined cover
undefined cover
Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre cover
Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre cover
PLAFF podcast - Place aux femmes fortes

Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre

Les biais d'âgisme et de sexisme de l'IA générative : interview avec Caroline et Jean-Pierre

22min |08/04/2024
Play

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.

Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées. L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.

Caroline nous explique les raisons. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle. Ces algorithmes reconduisent les stéréotypes qui circulent dans nos sociétés. Les développeurs sont en très grand majorité des hommes jeunes, et les IA reproduisent les données du passé existantes, sans les questionner.


Caroline donne des témoignages et des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit amplifiant les biais existants. Ce phénomène montre l'importance de la vigilance dans l'évaluation des inégalités et des préjugés perpétués par ces technologies.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as si ces biais ne sont pas correctement adressés. Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


Bonne écoute !


PS : je suis Claire Flury, retraitée, et si vous aimez les podcasts Vieilles ou 50 ans et toutes mes dents, vous allez adorer Plaff !

REFERENCES

Les grands défis de l’IA générative

Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.

Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées. L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.

Caroline nous explique les raisons. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle. Ces algorithmes reconduisent les stéréotypes qui circulent dans nos sociétés. Les développeurs sont en très grand majorité des hommes jeunes, et les IA reproduisent les données du passé existantes, sans les questionner.


Caroline donne des témoignages et des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit amplifiant les biais existants. Ce phénomène montre l'importance de la vigilance dans l'évaluation des inégalités et des préjugés perpétués par ces technologies.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as si ces biais ne sont pas correctement adressés. Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


Bonne écoute !


PS : je suis Claire Flury, retraitée, et si vous aimez les podcasts Vieilles ou 50 ans et toutes mes dents, vous allez adorer Plaff !

REFERENCES

Les grands défis de l’IA générative

Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.

Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées. L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.

Caroline nous explique les raisons. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle. Ces algorithmes reconduisent les stéréotypes qui circulent dans nos sociétés. Les développeurs sont en très grand majorité des hommes jeunes, et les IA reproduisent les données du passé existantes, sans les questionner.


Caroline donne des témoignages et des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit amplifiant les biais existants. Ce phénomène montre l'importance de la vigilance dans l'évaluation des inégalités et des préjugés perpétués par ces technologies.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as si ces biais ne sont pas correctement adressés. Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


Bonne écoute !


PS : je suis Claire Flury, retraitée, et si vous aimez les podcasts Vieilles ou 50 ans et toutes mes dents, vous allez adorer Plaff !

REFERENCES

Les grands défis de l’IA générative

Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.

Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées. L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.

Caroline nous explique les raisons. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle. Ces algorithmes reconduisent les stéréotypes qui circulent dans nos sociétés. Les développeurs sont en très grand majorité des hommes jeunes, et les IA reproduisent les données du passé existantes, sans les questionner.


Caroline donne des témoignages et des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit amplifiant les biais existants. Ce phénomène montre l'importance de la vigilance dans l'évaluation des inégalités et des préjugés perpétués par ces technologies.

Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as si ces biais ne sont pas correctement adressés. Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.


Bonne écoute !


PS : je suis Claire Flury, retraitée, et si vous aimez les podcasts Vieilles ou 50 ans et toutes mes dents, vous allez adorer Plaff !

REFERENCES

Les grands défis de l’IA générative

Harvard Business Review France Lutter contre la discrimination des seniors à l'ère de l'IA, un enjeu économique

Jeu Bataille de l’intelligence artificielle

Heetch tacle les clichés sur la banlieue en incitant Midjourney à corriger son IA... avec des cartes postales.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like