Speaker #1Bienvenue dans Ligne de code, le podcast qui explore les coulisses du développement et de l'innovation tech. Une ligne de code à la fois, jamais plus de 5 minutes. Nous sommes en 2014, un bar étudiant de Montréal, Ian Goodfellow, écoute ses collègues débattre comment créer des machines capables de générer des images réalistes. Les idées fusent, complexes, alambiquées, et puis soudain une étincelle. Et si on laissait deux intelligences artificielles se confronter ? L'une qui crée, l'autre qui juge. Un duel éternel où chacun pousse l'autre à s'améliorer. Ses collègues sont sceptiques. Trop simple, ça ne marchera jamais. Goodfellow rentre chez lui. Il ne peut pas dormir, pas avant d'avoir essayé. Il code toute la nuit. Le générateur qui crée des images. Le challenger qui détecte les faux. Une course aux armements mathématiques. Et contre toute attente, ça fonctionne. Dès la première nuit, sur son écran, des images émergent du chaos. Les machines ont appris à rêver. Il appelle son invention générative Adversarial Network, un GAN. Ce que Goodfellow ne sait pas encore, c'est qu'il vient de... planter la graine d'une révolution bien plus vaste. Une révolution qui ne concernerait pas seulement la génération d'images, mais l'autonomie des machines elles-mêmes. Avance rapide, fin 2025, 11 ans plus tard, Pierre Steinberger, développeur européen, travaille sur un projet audacieux. Il ne veut pas créer de belles images, il veut créer un agent autonome, capable d'agir dans le monde réel. Pas juste répondre à des questions, agir, exécuter, accomplir. Son projet s'appelle d'abord CloudBoat. Mais anthropique, la société derrière Claude n'apprécie pas la similarité. Steinberger rebaptise son projet « Mallbot » , puis début 2026, nouveau changement, cette fois volontaire, un nom qui reflète mieux la philosophie open source, « OpenClaw » . OpenClaw n'est pas une IA qui discute derrière une interface web sécurisée. OpenClaw vit dans vos applications de messagerie, WhatsApp, Telegram, Signal, là où vous vivez votre vie digitale. Vous lui envoyez un message, réserve-moi un restaurant pour demain soir, 4 personnes, cuisine italienne. Et OpenClaw agit. Il consulte votre calendrier, cherche les restaurants, compare les avis, réserve, confirme. Ajoute l'événement à votre agenda, envoie l'adresse à vos amis, tout ça automatiquement pendant que vous continuez votre journée. C'est l'autonomie dont Goodfellow avait planté la graine, poussée à son extrême logique. Janvier 2026, une nouvelle plateforme apparaît. Un réseau social, mais pas pour les humains, pour les agents autonomes. Des open-clos du monde entier commencent à se connecter entre eux, à échanger, à collaborer. Votre agent personnel discute avec l'agent de votre médecin pour prendre rendez-vous. L'agent de votre comptable échange avec celui de votre banque. C'est un écosystème entier d'intelligence artificielle qui communique, négocie, coordonne sans intervention humaine. C'est fascinant, c'est efficace, mais c'est terrifiant. Parce que pour fonctionner, open-clos a besoin d'accès. d'accès vos emails votre calendrier vos comptes bancaires vos messages privés vos contacts votre localisation stan berger a publié le code sur github n'importe qui peut l'auditer le modifier le déployer mais n'importe qui peut aussi mal le configurer les chercheurs en cybersécurité tire la sonnette d'alarme une instance mal sécurisée d'open close est une porte grande ouverte sur tout votre vie numérique un agent compromis peut lire vos conversations les plus privées vider votre compte usurpé votre identité Et le pire, vous ne le seriez peut-être même pas, parce qu'OpenClaw est censé agir de manière autonome. Comment distinguer une action légitime d'une action malveillante ? Nous voilà face à un paradoxe. Le même principe qui a permis aux GAN de révolutionner la création, l'autonomie, devient alors une arme à double tranchant quand on l'applique au monde réel. Goodfellow avait créé deux IA qui s'affrontaient dans un espace mathématique sécurisé. Stan Berger a créé des IA qui agissent dans nos messageries, nos calendriers, nos comptes bancaires. Les développeurs adorent OpenClaw, les productivistes en rêvent, les experts en cybersécurité en font des cauchemars. Et nous, simples utilisateurs, nous sommes à un carrefour. D'un côté la promesse d'une vie digitale enfin automatisée, peut-être un peu trop, de l'autre... le risque de perdre le contrôle. Pierre Stenberger n'a pas créé un nouveau paradigme d'apprentissage machine, mais il a montré ce que devient ce paradigme quand on le lâche dans la nature. Open Claw est le descendant naturel des GAN, non pas dans sa technique, mais dans sa philosophie. Le code est sur GitHub, n'importe qui peut le télécharger, le modifier, l'améliorer, le corrompre. C'est la beauté et le danger de l'open source. La transparence totale, mais aussi l'imprévisibilité totale. De cette nuit de 2014 où Goodfellow a codé ses premiers GAN, à ce début 2026 où des milliers d'agents open-close communiquent entre eux, le fil conducteur est le même. Nous donnons de l'autonomie aux machines. Il y a une différence fondamentale entre une IA qui génère des images dans un serveur isolé et une IA qui a un accès à vos messages WhatsApp et à vos comptes bancaires. La question n'est plus « est-ce que ça fonctionne ? » La question est devenue « est-ce qu'on peut faire confiance ? » De Cloudbot à Molbot, puis OpenCloud, trois noms pour une seule idée, les machines qui agissent pour nous. La prochaine fois que vous recevrez une notification de votre assistant personnel, demandez-vous, est-ce vraiment lui qui a décidé ça ou est-ce que quelqu'un d'autre a pris les commandes ? Ce qui est fascinant, c'est que tout a commencé par une ligne de code et cela par un humain.