Speaker #1Bienvenue dans Ligne de code, le podcast qui explore les coulisses du développement et l'innovation tech. Une ligne de code à la fois, jamais plus de 5 minutes. Aujourd'hui, un épisode autour des véhicules autonomes et de leurs limites, à travers deux incidents récents qui montrent que malgré des milliards investis, ces systèmes ne génèrent pas encore toutes les situations de la vie réelle. Le 23 décembre 2025, l'Autorité américaine de sécurité routière a annoncé que Zooks, la filiale d'Amazon spécialisée dans les taxis autonomes, rappelait 332 de ces robotaxis à cause d'un bug logiciel. Ce dernier pouvait conduire certains véhicules à franchir la ligne médiane. ou à s'engager à contresens aux intersections. Un risque suffisamment sérieux pour déclencher un rappel logiciel global. Ce rappel fait suite à deux autres en moins d'un an, suite à des collisions ou problèmes de sélection d'autres usagers de la route. Zouks a fait un pari différent de ses concurrents. Au lieu d'adapter des voitures classiques, elle a construit un véhicule autonome, sans volant ni pédale, pensé pour la robotaxi. Mais un autre événement vient souligner la fragilité de ces systèmes impliqués. une autre grande entreprise du secteur, Wemo. Filiale autonome d'Alphabet, le 20 décembre 2025, une panne électrique massive à San Francisco causée par un incendie a plongé des zones entières de la ville dans le noir et désactivé un grand nombre de feux de circulation. Face à cette situation, des dizaines de robotaxis Wemo se sont retrouvés bloqués, parfois arrêtés au milieu d'intersections, incapables d'avancer, sans signalisation active. La société a suspendu temporairement son service. dans les zones affectées pour éviter d'aggraver le chaos routier. Des vidéos et témoignages montrent des véhicules immobilisés, feux de détresse activés, contraignant les autres usagers à les contourner, ce qui a fortement contribué à des embouteillages significatifs pendant le blackout. Alors ces deux histoires, ces deux bugs logiciels chez Zooks et Waymo, révèlent un paradoxe intéressant. Les capteurs sophistiqués ont du mal avec des situations inattendues. Les robots taxis sont équipés de lidars, caméras, radars et puissants algorithmes, mais ils peuvent être perturbés par des scénarios quotidiens qu'un conducteur humain gère sans difficulté, absence de feu, panne de réseau, signalisation temporaire, etc. Il y a aussi les règles strictes des logiciels face à l'adaptabilité contextuelle que l'on peut avoir. Les systèmes se reposent sur des règles codifiées, traiter un feu éteint comme un stop, demander une confirmation à distance. Quand un événement urbain dépasse ces règles, ils peuvent décider de s'arrêter ou de se survérifier, ce qui paralyse le trafic. Et puis enfin, la dépendance aux infrastructures urbaines. Dans le cas de San Francisco, l'infrastructure elle-même, c'est-à-dire les feux de circulation, a été le facteur limitant. Cela révèle que l'autonomie dépend aussi fortement des réseaux physiques autour d'elle. D'ailleurs, Wemo a déclaré que ces véhicules sont programmés pour traiter des feux hors service comme des stops à quatre voies, mais l'ampleur de la panne a généré un nombre trop élevé de situations nécessitant confirmation, ce qui a ralenti ou bloqué certains véhicules. Face à cela, Wemo a commencé à travailler sur des mises à jour logicielles pour mieux intégrer le contexte de panne de réseau et éviter que chaque carrefour plongé dans le noir requière une hésitation excessive ou une intervention distante. Alors que Wemo et Zoox poursuivent des millions de trajets autonomes chaque mois, ces deux incidents posent des questions profondes. Peut-on vraiment coder l'instinct ? Ce flair, vous savez, que les conducteurs humains développent au fil de l'expérience pour naviguer dans des environnements dynamiques et souvent imprévisibles. S'agit-il d'un problème d'ingénierie pure ou d'une limite intrinsèque de l'approche logicielle actuelle ? Des règles précises et des exceptions infinies. Faut-il apprendre aux machines à adapter ? adapter leur conduite comme un humain, quitte à tolérer des comportements qui ne sont pas parfaits, du point de vue d'un algorithme, mais qui fonctionnent dans la réalité sociale d'une ville. En tout cas, ces incidents montrent que l'autonomie totale n'est pas seulement une question de capteur ou d'IA, c'est une question d'interaction avec le monde réel, y compris ses aléas d'infrastructures. En tout cas, quand le code quitte le laboratoire et se confronte à la ville, la question n'est plus la performance, mais la gestion de l'imprévu. Merci d'avoir écouté Ligne de Code. Abonnez-vous sur votre plateforme de podcast pour suivre les prochains épisodes. A très vite.