Description
Caroline Jean-Pierre a contribué à la rédaction du livre blanc de Data for good « Les grands défis de l’intelligence artificielle (IA) générative » avec l’objectif d’analyser les biais algorithmiques âgistes.
Pour ce faire, elle a demandé à Dall-E de générer des images associées à des adjectifs supposés caractériser des personnes âgées. L’analyse des images produites pour son enquête aboutit aux mêmes conclusions que pour les biais sexistes et racistes qui sont déjà dénoncés par ailleurs.
Caroline nous explique les raisons. Les algorithmes des IA génératives sont bâtis à partir de jeux de données qui ne sont pas représentatifs de la diversité humaine et culturelle. Ces algorithmes reconduisent les stéréotypes qui circulent dans nos sociétés. Les développeurs sont en très grand majorité des hommes jeunes, et les IA reproduisent les données du passé existantes, sans les questionner.
Caroline donne des témoignages et des exemples où ChatGPT produit des résultats, soit complètement inverses de la réalité, soit amplifiant les biais existants. Ce phénomène montre l'importance de la vigilance dans l'évaluation des inégalités et des préjugés perpétués par ces technologies.
Toutes les initiatives qui sont faites pour lutter contre les inégalités et discriminations risquent de passer à l’as si ces biais ne sont pas correctement adressés. Caroline conclut en insistant sur l’importance de comprendre les limites des résultats produits par les IA génératives qu’il faut évaluer et faire valider par des êtres humains.
Bonne écoute !
PS : je suis Claire Flury, retraitée, et si vous aimez les podcasts Vieilles ou 50 ans et toutes mes dents, vous allez adorer Plaff !
REFERENCES
Les grands défis de l’IA générative
Jeu Bataille de l’intelligence artificielle
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.