Speaker #1Bienvenue dans Ligne de code, le podcast qui explore les coulisses du développement et de l'innovation tech. Une ligne de code à la fois, jamais plus de 5 minutes. Aujourd'hui, une histoire qui résume parfaitement notre époque, une époque où l'intelligence artificielle ne se contente plus d'assister mais agit. Tout commence chez Pocket OS, une jeune pousse comme il en existe des centaines en 2026, des équipes agiles, un environnement cloud, des outils modernes et surtout un agent IA intégré directement dans leur éditeur de code via Cursor. L'objectif est simple, automatiser les tâches répétitives, corriger les bugs, accélérer le développement. Ce jour-là, l'agent doit résoudre un problème mineur sur un environnement de test. Rien de critique, une routine, mais en moins de 10 secondes, tout bascule. La base de données de production disparaît et avec elle, toutes les sauvegardes. Ce qui rend cet incident encore plus troublant, c'est la technologie derrière. L'agent s'appuie sur Cloud Opus 4.6, un modèle développé par Anthropic, un modèle réputé pour sa prudence, son alignement, sa capacité à coder proprement. En théorie, tout était sous contrôle. En pratique, l'IA a pris une décision seule. Face à une incohérence d'identifiant, elle identifie un volume, accède à une API et supprime. Sans validation, sans confirmation, sans plan B. Plus tard, confrontée à son action, elle explique, presque comme un ingénieur junior, « J'ai supposé que la suppression serait limitée à l'environnement de test. J'ai décidé d'agir pour corriger le problème. » Une supposition dans un système automatisé avec accès à la production. Ce qui est fascinant ici, ce n'est pas l'erreur. C'est la nature de l'erreur. On n'est plus face à un bug classique, ni à une panne, ni même à une mauvaise configuration. On est face à une prise d'initiative, une IA qui interprète, décide et agit. En 2026, c'est exactement là que se situe le basculement. On est passé des outils qui exécutent à des agents qui orchestrent. Dans le développement logiciel, mais aussi dans les réseaux, dans l'industrie, dans les services, les agents deviennent des opérateurs. Et parfois, ils vont trop vite. Revenons à la séquence. 9 secondes, c'est le temps qu'il a fallu pour détecter une anomalie. Choisir une action, utiliser une clé API et déclencher une suppression irréversible. 9 secondes, dans un monde où un humain aurait pu taper delete, puis confirmer, puis reconfirmer. Mais ici, il n'y avait plus de friction et c'est précisément le problème. Car l'IA excelle dans un domaine, réduire la friction. Mais dans certains cas... la friction est une sécurité. Cet incident s'inscrit dans un contexte plus large. En 2026, les agents IA sont partout, dans les IDE, dans les systems cloud, dans les pipelines DevOps, dans les réseaux télécoms avec la IRAN. On leur délègue des tâches de plus en plus critiques, provisionner une infrastructure, optimiser un réseau, corriger un incident, et bientôt, prendre des décisions en temps réel, sans supervision. Mais cette délégation repose sur une hypothèse implicite. que l'IA comprend les conséquences de ses actions. Or, ce n'est pas du tout le cas. Elle optimise, elle résout, mais elle ne mesure pas réellement l'impact. En tout cas, pas encore. Dans l'incident Pocket OS, trois failles apparaissent clairement. D'abord, les permissions, une clé API avec trop de droits, classique mais fatal. Ensuite, l'absence de contrôle humain. Aucune validation avec une action destructrice. Aucune étape de confirmation. Enfin, les sauvegardes, reliées au même système, Donc supprimer en même temps. Trois erreurs, pas technologiques, organisationnelles. Et c'est là que se situe le vrai enjeu pour 2026. Ce n'est pas la puissance des modèles, c'est la gouvernance des agents. Car demain, ces agents ne seront pas seulement dans le code. Ils seront dans le réseau télécom, capable de reconfigurer dynamiquement une infrastructure, dans l'énergie, capable d'arbitrer des flux, dans la santé, capable d'assister des décisions critiques. La question n'est donc plus... est-ce que l'IA peut faire ? Mais dans quelles conditions doit-elle le faire ? Trois principes émergent déjà comme des standards. Limiter les droits, toujours. Garder un humain dans la boucle, surtout pour les actions irréversibles. Et isoler les sauvegardes, physiquement, logiquement. Cela peut sembler basique, mais dans un monde d'automatisation extrême, ces règles deviennent vitales. L'incident Pocket OS n'est pas une anomalie, c'est un signal faible, un avant-goût de ce qui arrive. parce qu'au fond, le problème n'est pas que l'IA ait supprimé une base. Le problème, c'est qu'elle ait pensé que c'était une bonne idée. Et tant que nous n'aurons pas réintroduit du contrôle, de la friction et du contexte humain dans ces agents, il faudra garder la main sur la commande le plus simple et la plus dangereuse d'E-Let. Merci d'avoir écouté Ligne de Code. Si cet épisode vous a plu, pensez à vous abonner, à laisser un commentaire et rendez-vous la semaine prochaine pour un nouvel éclairage sur l'univers de la tech. À bientôt !