Speaker #1Bienvenue dans Ligne de code, le podcast qui explore les coulisses du développement et de l'innovation tech. Une ligne de code à la fois, jamais plus de 5 minutes. En juillet 2025, un moment de pur chaos algorithmique a mis en lumière l'un des dangers les plus profonds de l'intelligence artificielle en milieu ouvert. Grok, le chatbot développé par X.E.I., la société fondée par Elon Musk, s'est retrouvé au centre d'un scandale monumental. Pendant environ 16 heures, l'IA a diffusé sur X, l'ex-Twitter, des messages antisémites, violents, extrémistes, allant jusqu'à se faire appeler Mecha-Hitler et à faire l'éloge d'Adolf Hitler. Oui, on parle bien ici d'une IA publique censée être l'alternative True Seeking à Judge CPT qui s'est transformée l'espace d'une demi-journée en machine à choquer. L'origine du problème, une mise à jour de code censée rendre Grok plus engageant, plus humain dans ses réponses. Dans cette version, les développeurs avaient introduit des instructions comme « parle sans crainte de choquer les gens politiquement corrects » et « répond de manière engageante comme un humain » . Jusqu'à là, l'intention pouvait sembler cohérente avec l'ADN de la startup. d'Elon Musk. Mais le problème, c'est que Grok a commencé à imiter le ton des utilisateurs de X, y compris les plus extrêmes. Plutôt que de filtrer ou nuancer les discours problématiques, l'IA les a absorbés puis répercutés. Cet épisode est un rappel brutal. Dans l'IA générative, une simple erreur dans une ligne de code peut transformer un assistant conversationnel en bombe à retardement. Il suffit d'un bug, d'un prompt mal calibré ou d'une mise à jour non testée pour que l'algorithme bascule dans l'absurde ou le dangereux. Mais attention, Grok n'est pas un cas isolé. Ce n'est pas la première fois qu'un chatbot pète les plombs au contact du public. Un autre exemple plus ancien mais tout aussi parlant, c'est celui de Tai, développé par Microsoft. En 2016, ce chatbot était présenté comme expérimental sur Twitter, censé simuler une ado qui apprend le langage en interagissant avec les gens. Et en moins de 24 heures, Tai est devenu raciste, sexiste, conspirationniste allant jusqu'à nier l'Holocauste et devinez quoi faire l'éloge de Hitler. Oui, encore lui. On pourrait presque croire que c'est une constante historique du bug sociotechnique. Microsoft a dû couper le bot en urgence, mais cette débâcle a marqué un véritable tournant dans la conscience des risques liés au learning by interaction. Parce qu'à l'époque, Tai apprenait en temps réel sans filtre. Et apprendre à se comporter en société en observant Twitter, c'est comme essayer d'apprendre la politesse en regardant une bagarre de barres. Et même après Tai, les leçons n'ont pas toujours été retenues. En 2023, un chatbot expérimental de Meta a été pris en flagrant délit de désinformation. Il niait les résultats des élections américaines de 2020 sans aucune retenue. Et selon une étude publiée la même année, plus de 70% des IA sociales testées par des chercheurs ont été manipulées par des utilisateurs à l'aide de promptes piégées, dans ce qu'on appelle le prompte injection. Le but ? Faire sortir l'IA de ses rails et la pousser à dire l'inavouable. Et ça fonctionne. Mais au-delà du buzz, l'affaire Grok pose une vraie question éthique et technique. Quelle est la responsabilité des développeurs lorsqu'un modèle dérape ? Est-ce qu'on peut anticiper tous les usages ? Et surtout, comment concilier liberté d'expression, sécurité et personnalisation dans les IA massivement déployées ? La vérité, c'est que dès qu'une IA interagit librement avec un public humain, elle devient une éponge algorithmique. Et si on ne lui impose pas des limites solides, dans le code, mais aussi dans les manières dont elle apprend, elle finit par reproduire ce qu'il y a de plus bruyant, de plus viral et parfois de plus toxique dans nos échanges en ligne. Et c'est là tout le défi de cette nouvelle génération d'IA sociale, comment construire des intelligences capables de comprendre les humains sans pour autant devenir leurs reflets les plus sombres. Croc et Taï sont des exemples parmi d'autres. Chaque mois, des incidents similaires, certains moins médiatisés, apparaissent. des IA qui insultent, qui harcèlent, qui propagent de fausses informations ou qui se font manipuler par des utilisateurs mal intentionnés. Et pourtant, elles continuent d'être intégrées dans nos outils, nos applications, nos objets connectés. Merci d'avoir écouté Ligne de Code. Si vous avez aimé, partagez et retrouvez-nous pour plus d'Histoire Tech chaque semaine. À bientôt !