Speaker #0Bonjour, je suis Jérémy Lamry, CEO de Tomorrow Theory, et aujourd'hui je serai à la barre pour ce nouvel épisode de Codex. Codex, c'est le podcast qui explore les futurs du travail. On entend de plus en plus dire que le monde va trop vite, qu'on ne comprend plus ce qui se passe, que tout est imprévisible. Et ça en fait, ça fait déjà une trentaine d'années que ça a commencé. A la fin des années 90, le gouvernement américain a trouvé un terme, il s'appelle VUCA. C'est un terme qu'on entend de plus en plus. C'est un acronyme anglais qui veut dire Volatile, Incertain, Complexe, Ambigu. Et le but, c'était de pouvoir qualifier la manière dont le monde fonctionne. Un monde qui est plus polarisé comme avant, mais qui devient complètement chaotique et incompréhensible. Et ce qui est intéressant, c'est que depuis le Covid, ce terme a changé. On ne parle plus forcément de VUCA, maintenant on parle de BANI. C'est un autre acronyme américain, mais cette fois-ci, ça veut dire Brittle pour Fragile, Anxiogène. non linéaire et incompréhensible. Et ce qui change, c'est qu'avant, on parlait du monde avec VUCA, on décrivait l'état du monde, alors qu'avec BANI, depuis le Covid, on s'intéresse beaucoup plus à la manière dont les gens perçoivent le monde. C'est pas le fait que le monde aille trop vite qui nous embête, c'est le fait qu'il aille trop vite pour nous. Donc quand après, on va aller s'intéresser à ce qui est en train d'arriver en ce moment, le contexte est hyper important. On parle de l'arrivée de chat GPT, des IA génératives, et il faut bien comprendre que ces IA génératives, elles arrivent dans ce contexte précis d'un monde banni. Un monde qui va trop vite pour nous, qu'on ne comprend plus, qui est incompréhensible. Donc quand on demande aux gens de se projeter, est-ce que l'IA dans le futur c'est plutôt positif ou négatif ? Avec toute cette anxiété qu'on a dans notre société, c'est difficile d'imaginer l'IA comme quelque chose qui va pouvoir rendre la société meilleure. Donc on a tout de suite tout un tas d'imaginaires autour de la dystopie, autour du chaos, de la destruction, voire même de la fin de la civilisation. Il y a beaucoup de gens qui ont peur que l'IA pique le boulot, il y a beaucoup de gens qui ont peur que l'IA devienne Terminator, ce qu'on appelle le syndrome Skynet. Et tout ça, ça va contribuer à une anxiété encore plus importante et peut-être aussi à une peur autour de ce qu'est l'intelligence artificielle qui va pousser des gens soit à s'y opposer par défaut, soit voire même à ne pas s'y intéresser alors que pendant ce temps-là, l'intelligence artificielle arrive. Comme je dis, on a beau pas aimer la pluie, la pluie tombe. L'intelligence artificielle, c'est pareil. Cette intelligence artificielle, c'est important de la comprendre pour pouvoir mieux la gérer. Déjà, il faut commencer par la décrire. Quand on parle d'intelligence artificielle, on parle d'une technologie. qui a pour but de reproduire la manière d'apprendre, de réfléchir, d'interagir d'un être humain. Ça peut paraître bête comme ça, mais ces trois mots, apprendre, réfléchir, interagir, ils sont au cœur de ce qui va aller nous caractériser en tant qu'entité pensante. Nous les êtres humains, on a beaucoup l'impression qu'on peut être unique, et donc on va souvent penser que l'intelligence artificielle pourra jamais faire ce qu'on fait. Sauf que, il faut bien comprendre que l'intelligence artificielle sera jamais humaine, l'intelligence artificielle n'a pas d'émotion, l'intelligence artificielle ne sera jamais l'humain, et pour autant... ce que l'humain est capable de produire en termes d'activité, de tâches, il est possible que l'intelligence artificielle y arrive un jour. Mais pour ça, il faut vraiment comprendre l'histoire de l'intelligence artificielle et la manière dont elle fonctionne. Si on doit remonter au début de l'intelligence artificielle, on peut se placer à peu près dans les années 40. Bien sûr, il y a eu des évocations de machines qui seraient capables de faire beaucoup de choses bien avant ça, dès le début du XXe siècle d'ailleurs. Mais ce qui nous intéresse, ça va être un peu ce qui s'est passé à partir de la Deuxième Guerre mondiale. Donc un monsieur, Alan Turing, un chercheur, a développé avec ses équipes une machine qui a permis de casser le fameux code énigme, le code des nazis. Donc ça a permis de donner un avantage tactique à l'armée, et ça c'était une machine qui était capable de fonctionner en autonomie pour craquer des codes. Et après ça, en fait, Alan Turing, il a eu cette idée d'essayer de créer une machine qui serait capable de tout faire. C'est là vraiment que le concept d'intelligence artificielle est né. En 1950, il a d'ailleurs imaginé un test qu'on appelle le test Turing, critiquable ou non, mais c'est pas le sujet, là on parle d'histoire. Il a créé ce test Turing en 1950 avec l'idée de se dire, un jour, on chattera avec une machine et on ne sera pas capable de savoir si c'est une machine ou un être humain qui nous répond. Ce jour-là, on dira que la machine a battu le test de Turing. Donc depuis, effectivement, on s'est rendu compte que le test de Turing n'était pas quelque chose de suffisant pour pouvoir prouver l'intelligence d'une intelligence artificielle. Mais en tout cas, c'est une étape très importante qui a structuré toute l'histoire de l'intelligence artificielle jusqu'à nos jours pratiquement. Puisque à partir de ce moment-là, donc 1950, toutes les personnes qui ont commencé à travailler sur l'intelligence artificielle, les chercheurs, les ingénieurs, ils se sont mis en tête de battre le test de Turing. Et en 1956, pour ce qu'on appelle la conférence de Dartmouth, une grosse conférence sur l'intelligence artificielle, Alan Turing, lui, était mort en 1954. Et cette conférence a eu lieu sans lui, mais avec un peu ce qu'il avait apporté dans le domaine. L'envie de battre le test de Turing et de structurer l'intelligence artificielle comme une technologie qui serait capable d'apprendre, de réfléchir et d'interagir comme un être humain. Donc en gros, de simuler le comportement de l'être humain. Il y a eu énormément de travaux, il y a eu des périodes où il ne s'est pas passé grand chose, qu'on a appelé les déserts de l'intelligence artificielle. où la technologie n'était pas au niveau, où on n'arrivait pas à développer des nouvelles théories pour avancer. Et ça, ça a duré jusqu'à la fin des années 90. Et à la fin des années 90, il y a commencé à y avoir des percées, notamment avec le premier vrai usage du machine learning, l'apprentissage automatique. Un exemple que beaucoup de gens connaissent maintenant, c'est l'exemple de Deep Blue, cette machine qui a battu Kasparov aux échecs, mais aussi d'AlphaGo un peu plus tard, qui a battu les meilleurs joueurs du monde au jeu de Go. Et ce qu'il faut bien comprendre, c'est qu'on en a beaucoup entendu parler. D'une part parce que c'est une prouesse technologique, mais pas seulement. Ce qui s'est passé à ce moment-là, c'est quand même que quand vous battez les meilleurs joueurs du monde d'échecs qui sont russes et que vous battez les meilleurs joueurs du monde chinois à leur propre jeu, le jeu de Go, c'est de la géopolitique avant tout. Et donc pour les Américains, il y avait un enjeu clé aussi de faire savoir que les États-Unis étaient toujours une très grande puissance capable de battre leurs anciens ennemis, les Russes, et leurs nouveaux ennemis, les Chinois. Quand je dis ennemis, il n'y a rien de négatif là-dedans, on parle d'un point de vue économique avant tout. Mais c'est ce qui était en train de se jouer à la fin des années 90 après la guerre froide. Le monde était en train de se reconfigurer et il fallait repositionner les acteurs. Quand on a commencé à comprendre que les exploits technologiques sur AlphaGo pour le jeu de Go et sur Deep Blue pour le jeu d'échec, c'était des exploits avant tout mathématiques puisque les machines calculaient et finalement elles ne réfléchissaient pas comme un humain peut réfléchir. On n'avait pas un raisonnement à proprement parler, c'était juste des calculs et des probabilités. On a compris qu'on n'était pas du tout prêt à battre le test de Turing. Donc ce moment où une machine est capable de se faire passer pour un être humain dans le langage, puisque à ce moment-là, c'était des maths, et donc l'IA ne gérait pas bien le langage encore. Et ça, il a fallu attendre plus longtemps. Pour comprendre comment l'IA a réussi à s'améliorer en langage, il faut comprendre une histoire qui s'est passée aux États-Unis il y a une dizaine d'années maintenant, en 2015 en fait. En 2015, on est un peu au summum des réseaux sociaux, donc les réseaux sociaux sont dans tous les sens, les plateformes, que ce soit LinkedIn, Facebook, Google, YouTube, donc sont vraiment... extrêmement puissante, extrêmement présente, domine Internet, avec par exemple, on prend l'exemple de Google, qui à l'époque est le navigateur de près de trois quarts de la population qui utilise Internet, en Occident en tout cas. Et donc on a ce gros enjeu de pouvoir réguler Internet. Le gouvernement américain va voir Google, qui est le portier d'Internet à l'époque, et lui dit, bon ben voilà, j'ai besoin qu'Internet soit un peu plus respectable comme endroit. Donc il faut mieux modérer Internet. Et c'est de là qu'est parti... tous les travaux de révolution sur l'intelligence artificielle, c'était quand même le besoin pour des acteurs dont le métier, c'est de permettre d'accéder à Internet, de mieux gérer Internet. Pourquoi mieux accéder à Internet ? Parce qu'il faut comprendre que quand vous accédez à Internet via Google, vous n'accédez pas à tout Internet. Google filtre Internet pour vous et vous montre moins de 2% de ce qui est réellement Internet. Plus de 98% d'Internet ne vous est pas accessible. C'est ce qu'on va appeler le Deep Web. Et dedans, il y a même une partie où il se passe des choses illégales qu'on appelle le Dark Web. Tout ça, Google considère que ce n'est pas de qualité ou que ce n'est pas souhaitable. Et donc Google choisit ce que vous pouvez voir et en plus de ça, comme vous le savez, Google choisit dans quel ordre vous pouvez le voir puisqu'il liste les résultats pour vous. Si vous avez peur que l'intelligence artificielle vous manipule et vous montre des informations plus d'autres, ça va arriver, mais dites-vous que ça arrive déjà depuis plus de 20 ans avec des acteurs comme Google qui choisissent ce que vous pouvez voir et dans quel ordre vous pouvez le voir. Donc on a un vrai enjeu de développer l'esprit critique, mais ça, ça va être un autre sujet et on va y revenir. Ce qui est important de comprendre, c'est la manière dont cette IA s'est développée. Je reviens à mon histoire, en 2015, le gouvernement, via la commission fédérale en charge des communications aux Etats-Unis, demande à Google de mieux réguler Internet. Et donc Google a deux moyens de le faire à l'époque, les modérateurs humains et l'intelligence artificielle. L'intelligence artificielle, elle n'est pas vraiment au top, elle ne fonctionne pas très très bien. Et les modérateurs humains, à l'époque, en fait, il y a un gros sujet social sur leur profil, parce qu'ils durent en moyenne deux semaines en poste. parce que le métier est beaucoup trop éprouvant, vous imaginez, toute la journée vous devez voir les pires contenus publiés par l'humanité et les filtrer un par un. Donc forcément ça marche moyen, et surtout vu qu'il y a de plus en plus de contenus, on ne peut pas mettre suffisamment d'humains, économiquement ça n'a pas de sens pour le faire. Il n'y a donc pas de choix, il faut améliorer la technologie. C'est de là que c'est parti, Google lance un gros projet, ce que les américains appellent des moonshots, des projets pratiquement impossibles, mais on essaye de le faire. Comme quand Kennedy dit on va aller sur la Lune. On ne sait pas vraiment comment, mais on va le faire. Là, c'est ce qui s'est un petit peu passé avec Google, qui met donc beaucoup de moyens pour essayer de repenser les technologies. Et une équipe en particulier arrive à faire quelque chose d'assez intéressant, repenser la manière dont l'intelligence artificielle gère le langage, avec un article qui sort début 2017 sur la notion d'attention. Et en fait, ça permet à des algorithmes de se concentrer sur la manière dont les mots sont mis dans le texte, donc l'ordre dans lequel ils sont mis, la manière dont ils sont assemblés ensemble, quels mots est-ce qu'on met ensemble, pour essayer d'en déduire tout un tas de choses. Et en mettant suffisamment d'informations dans une intelligence artificielle, elle peut déduire suffisamment de liens pour pouvoir comprendre ce qui se passe. Cette histoire de lien, il faut le voir un peu comme une carte routière. Avant, c'est-à-dire avant 2015, l'intelligence artificielle, c'était plutôt des espèces de grandes bibliothèques quand on parlait de langage. Pour pouvoir comprendre sur Internet des textes ou des mots-clés, il fallait que l'intelligence artificielle ait une liste de tous ces mots-clés, de leurs synonymes, de leurs contraires. Et ça, ça permettait à l'intelligence artificielle de dire « Ah, ce texte n'est pas bon parce qu'il y a tel mot-clé dedans » . Le problème quand on fait ça, c'est que beaucoup de textes, en fait, n'utilisent pas forcément des mots qui sont des mots interdits ou des mots qui vont déranger. Et c'est la manière dont c'est tourné et le contexte qui fait que ce texte n'est pas bon. Et donc, les bibliothèques, ça ne marche pas suffisamment. Et il y a des ingénieurs chez Google qui ont pensé le sujet un peu différemment. Ils se sont dit « Imaginez, vous voulez aller de Paris à Marseille en voiture, vous devez passer par Lyon. » Et vous n'avez pas besoin de connaître l'histoire de Lyon, de Paris ou de Marseille pour savoir que vous devez y aller. C'est simplement un itinéraire. Ils se sont demandé comment ça fonctionnerait pour la connaissance avec le même principe. Autrement dit, imaginez que tous les concepts qu'on peut imaginer sont sur une espèce de grande carte du monde. Vous avez par exemple Paris qui serait une carotte et puis Marseille qui serait une maison. Le sujet c'est de se dire comment on relie une carotte et une maison en termes de concepts. On peut imaginer qu'une carotte, c'est dans la région des légumes, que les légumes, on les trouve dans le jardin, qu'un jardin, on le trouve à côté de la maison. Et ça peut nous paraître bête en tant qu'être humain de penser comme ça, mais une machine, en pensant comme ça, elle commence à faire des liens entre tous les concepts qui existent. Attention, elle ne réfléchit pas. C'est quand on entraîne le modèle, on lui donne toutes les données possibles, tous les textes possibles, dans une espèce de grande machine à laver, qu'on va appeler un système de deep learning, apprentissage profond. Et avec ce système, en fait, la machine va faire des liens petit à petit entre les concepts. Et ça c'est assez intéressant de pouvoir faire des liens entre les concepts parce que ça va permettre assez rapidement de pouvoir en fait dresser une espèce de carte du monde de tout ce qui existe. Si par exemple en fait on va parler de 1515 Marignan, 1515 Marignan on l'a à peu près tous appris à l'école et pour autant on saurait pas expliquer là directement comment est-ce que les apprentissages de la bataille de Marignan pourraient nous aider à mieux comprendre ce qui est en train de se passer en Ukraine actuellement. Nous on peut pas le faire. Parce qu'on n'a pas forcément les connaissances, on pourrait si on l'avait, mais les statistiques, on peut le faire, on demande à 100 personnes, je pense qu'il y en a très très peu sur ces 100 personnes qui seront capables de répondre. Pourquoi ? Parce que c'est pas forcément de la connaissance qu'on a par défaut. L'intelligence artificielle, elle va l'avoir cette connaissance, parce que si on prend un modèle comme GPT-4, il a accumulé plus de 26 000 ans de connaissances humaines. Ça veut dire quoi 26 000 ans ? Si vous voulez lire ce qui a été utilisé pour le modèle, vous devrez lire jour et nuit pendant 26 000 ans. Donc forcément, sur à peu près tous les sujets qui sont du savoir commun, il a plus de connaissances que nous. Et dans cette carte du monde, qui constitue les nouveaux modèles d'intelligence artificielle, vous allez avoir 1515 d'un côté, le conflit en Russie et en Ukraine d'un autre, et on va pouvoir relier les deux entre eux comme ça. La machine ne réfléchit pas, mais elle a ces liens qui sont opérés beaucoup plus facilement. Ça, c'est un petit peu la manière dont l'intelligence artificielle a été repensée depuis 2015, une espèce de carte du monde qui fait des liens entre tous les concepts plutôt... qu'une espèce de grande bibliothèque. Et ça, ça a beaucoup changé le domaine parce que depuis, l'intelligence artificielle est capable de comprendre n'importe quel texte. Et de plus en plus mieux qu'un humain. Et si à ça, on ajoute une autre brique qu'on appelle un algorithme de prédiction sémantique, autrement dit un algorithme qui est capable de comprendre ce qu'il faut mettre après ce qu'on a écrit. Par exemple, quand on dit j'ai mal à la, beaucoup de gens vont dire la tête, parce que statistiquement, c'est le mot le plus logique qui vient après. Mais après on aurait pu dire la jambe, la cheville, on aurait pu dire plein de mots différents. Et ce que va faire l'intelligence artificielle, c'est que suivant la créativité qu'on veut lui donner, qu'on appelle la température en intelligence artificielle, elle va choisir le mot qui est le plus souvent utilisé ou moins utilisé. Et c'est comme ça qu'une intelligence artificielle aujourd'hui est dite créative. Alors que vous voyez bien, c'est pas de la créativité, ça va être purement de la statistique pour l'instant. Ça veut pas dire que l'intelligence artificielle ne sera pas vraiment créative, mais ça veut dire qu'aujourd'hui elle se contente plutôt. de faire des statistiques parmi ce qu'elle connaît déjà. Donc ça, c'est ce qui est en train de se passer sur le sujet de l'intelligence artificielle, qui est capable de comprendre le langage, et en plus, qui est capable de prédire la suite de ce qu'on écrit. Quand on utilise ChatGPT, on a tendance à croire que la machine va nous répondre quand on lui parle, alors qu'en fait, ce n'est pas vraiment comme ça que ça marche. C'est une impression qu'on a. Mais ce qui se passe, c'est qu'en fonction de ce qu'on écrit, la machine va juste écrire la suite. Elle va prédire la suite logique de ce qu'on écrit. en fonction de ce qu'on a écrit et en fonction de tout ce qu'on a écrit. toutes les connaissances qu'elle a accumulées dans son modèle. Et donc c'est logique de comprendre que la qualité de ce qu'on a écrit, la structure, la manière dont on l'a formulée en tant que phrase, ça va déduire directement la qualité de ce qu'on obtient. Donc il y a beaucoup de réflexions à mettre dans ce qu'on appelle les promptes, c'est-à-dire les phrases qu'on met pour aller structurer ce qu'on demande à l'IA. En revanche, une erreur commune, c'est de penser qu'il faut se former au prompt pour pouvoir bien prompter. Franchement, se former au prompt, c'est rapide, parce qu'il faut juste comprendre qu'il faut utiliser du langage naturel avec l'intelligence artificielle et faire preuve d'esprit critique, autrement dit être capable de challenger, être capable d'améliorer sa demande. La réalité, c'est que pour bien échanger avec une IA, il faut avant tout bien comprendre ce qu'on attend d'elle en termes d'objectifs, qu'est-ce qu'on cherche à obtenir, bien le structurer dans notre tête. puis ensuite utiliser les bons mots et les bonnes structures de phrases pour y arriver. Et ça, c'est assez difficile parce que très souvent, on ne prend pas forcément le temps qu'il faut pour pouvoir poser ce qu'on a à dire. Donc avec l'intelligence artificielle, on est obligé pour le moment de prendre ce temps-là. De plus en plus, les modèles vont s'améliorer et bientôt, ils seront peut-être capables d'améliorer nos propres demandes sans qu'on ait rien à faire. Mais j'ai envie de dire, ce n'est pas forcément nous rendre service parce qu'à partir de ce moment-là, on pourrait peut-être avoir des très bons résultats sans avoir à réfléchir et ça nous... pousserait pas à nous améliorer. Quand on a ces intelligences artificielles qui sont capables maintenant aujourd'hui de produire du texte, du langage, qui sont capables d'avoir l'air d'être empathique, je dis bien avoir l'air parce que elles n'ont pas d'émotion, ce sont des machines donc elles n'ont pas d'émotion. En revanche elles sont capables de produire des comportements empathiques qui peuvent nous donner l'impression que l'IA est capable de nous comprendre et est capable en fait de faire preuve d'empathie. Bien sûr tout ça c'est des programmations, c'est des calculs, l'intelligence artificielle. est capable d'adopter des comportements adaptés à nos émotions, à ce qu'on exprime, à tout un tas de choses, mais l'IA n'a pas d'émotion. Ce serait comme un parfait sociopathe. Donc ça veut pas dire que c'est mauvais, ça veut pas dire que c'est méchant, ça veut juste dire que c'est plutôt calculé que naturel. Et ça c'est important à comprendre. Même si l'IA est capable de battre une grande partie des humains sur les tests d'intelligence émotionnelle, elle n'a pas d'émotion. Et cet enjeu-là, de comprendre que l'intelligence émotionnelle est aujourd'hui quelque chose qui peut relever du domaine des IA, Ça change beaucoup notre manière d'aborder le monde parce qu'en fait on se dit oui l'humain est unique. Ça c'est indéniable, l'humain est unique et on a des qualités qui sont uniques. En revanche, les comportements qu'on produit, ils peuvent potentiellement être reproduits par une IA, alors que l'IA n'a pas les mêmes qualités que nous. Et dans le monde du travail, par exemple, on ne nous embauche pas parce qu'on a des émotions à l'intérieur, on nous embauche pour notre capacité à gérer des comportements, à être capable de nous exprimer, à être capable de gérer des relations avec les autres, Et donc ça, ça va être un très gros sujet demain, de ce que l'IA est capable de faire ou non, parce qu'il est probable en fait que l'IA, dans les prochaines années, elle soit capable de gérer des relations, par exemple, que ce soit avec des chatbots ou que ce soit avec de la voix à distance, potentiellement mieux qu'un être humain. On a des exemples qui commencent à arriver, pour l'instant il faut comprendre qu'on en est qu'au début des nouvelles intelligences artificielles, donc il ne se passe pas forcément encore grand chose, et pourtant ce qui se passe c'est déjà énorme. On a l'exemple d'une entreprise, Klarna, qui a fait une expérimentation avec ChatGPT sur son service client par Chatbot, et qui a testé pendant un mois ChatGPT. Et donc ils ont mis ChatGPT pour répondre aux clients. Ils ont donné tous les documents, qui sont les procédures avec lesquelles on forme les agents du service client. Et ce qui est intéressant, c'est voir qu'au bout d'un mois, l'IA avait géré plus de 2,5 millions de conversations clients, ce qui est absolument énorme, et elle avait obtenu un score de satisfaction qui était à peu près le même que celui d'un être humain. Elle faisait un petit peu plus souvent des erreurs et elle répondait un petit peu plus souvent mieux, donc elle était plus variable, mais le score était quand même très très bon. Et surtout, le temps de résolution des problèmes des clients était bien meilleur. Un agent humain met à peu près 11 minutes pour résoudre un problème avec un client, l'IA arrivait à le faire en à peu près 3 minutes, on va dire, un petit peu moins. Donc ça fait presque 4 fois moins, donc c'est potentiellement pour le client du temps de gagner et pour l'entreprise de la réputation supplémentaire. Mis bout à bout, tout ça, ça représente potentiellement 700 emplois en CDI à temps plein. Bien sûr, Klarna n'a pas décidé de virer les gens ou quoi que ce soit, c'est pas du tout ce qui s'est passé. Les gens vont être formés et puis petit à petit, il va y avoir une transition. Mais c'est important de comprendre ce potentiel de l'intelligence artificielle. Un exemple que j'aime utiliser, c'est de dire que ça fait 10 ans que les hôtes de caisse dans les magasins pourraient potentiellement être remplacés par des machines et pourtant il en reste encore beaucoup, et heureusement. Pourquoi ? Parce que d'un côté, il y a un pacte pour sauvegarder de l'emploi, parce qu'on a besoin que les gens aient un emploi, et d'un autre côté surtout, il y a beaucoup de clients qui aiment échanger avec des humains. Et ça, c'est quelque chose de très important. Mais pour pouvoir garder les humains dans la boucle quand l'intelligence artificielle y est aussi, il faut que les humains développent des qualités relationnelles notamment meilleures. Autrement dit, ils doivent être capables d'avoir des meilleures interactions avec les autres humains. C'est ce qu'on appelle les soft skills, notamment. Donc notre capacité à mieux communiquer, à mieux collaborer. mais potentiellement aussi à mieux résoudre les problèmes que les autres personnes vont nous poser, donc plus de créativité, plus d'esprit critique. Ces quatre compétences, communication, collaboration, créativité, esprit critique, c'est ce qu'on appelle les quatre C, les compétences du XXIe siècle. C'est le très gros enjeu d'arriver à développer dans l'éducation comme dans la vie du quotidien, ces compétences du XXIe siècle. Il y a encore beaucoup de travail, parce que le système n'est pas vraiment conçu comme ça, notre système du XXe siècle, mais petit à petit, c'est vers ça que c'est en train d'évoluer. On doit tous se poser la question de comment on développe notre adaptabilité, notre agilité. Et il y a encore 30 ans, 40 ans, on attendait beaucoup de l'entreprise, de l'État. Et aujourd'hui, malheureusement, l'entreprise comme l'État ne sont pas forcément capables de nous aider à nous adapter complètement. Elles, c'est leur rôle de le faire, mais elles ne peuvent pas le faire entièrement parce qu'il y a beaucoup de choses, en fait, qui dépendent de nous. Là où au XXe siècle, pour pouvoir être employable, il fallait surtout acquérir certaines expertises particulières. aujourd'hui ça va être plus dans notre manière de nous comporter qu'on va réussir à se démarquer. Et cette manière de se comporter, en fait, elle ne s'apprend pas vraiment dans une classe. Elle s'apprend au quotidien. Il faut une forme d'envie, il faut une forme de capacité à s'adapter, à prendre les retours aussi, c'est-à-dire à accepter de soi-même s'améliorer. Et ce n'est pas forcément toujours évident parce que quand parfois on va nous faire des reproches ou des remarques ou des observations d'amélioration, eh bien, ça peut nous mettre en insécurité. Donc, il y a des très gros sujets là-dessus. mais finalement, c'est un peu ce qu'on va devoir faire, et ça, ça va être le gros enjeu de tous les gros acteurs du gouvernement, des entreprises, des associations, de tous les acteurs de notre économie, de nous accompagner dans ce chemin-là. L'état actuel de l'intelligence artificielle est déjà assez phénoménal. Les intelligences artificielles génératives sont capables de produire des textes, sont capables de produire des images, sont capables de produire des vidéos, sont capables de produire de l'audio, des musiques, et même de copier la voix. Tout ça, c'est une palette de compétences qui est assez énorme pour une intelligence artificielle et ça s'améliore mois après mois. Assez rapidement, d'ici l'an prochain probablement, 2025, on devrait avoir des intelligences artificielles qui commencent à résonner. Parce que pour le moment, ces intelligences artificielles ne résonnent pas, elles reproduisent des schémas qui correspondent à leur entraînement. Et l'une des preuves qu'on est capable de résonner, c'est notamment quand on est capable de dépasser simplement la connaissance existante et potentiellement de créer des nouvelles connaissances. OpenAI Ceux qui font ChatGPT travaillent actuellement sur un projet qui s'appelle Strawberry, c'est fraise en anglais, bref c'est le nom du projet, et ils travaillent sur cette intelligence artificielle qui maîtrise le raisonnement déjà mieux que toutes les versions d'avant. Et leur objectif, on ne sait pas s'ils vont y arriver, mais c'est de sortir en 2025 cette intelligence artificielle qui serait capable de raisonner au même niveau qu'un doctorant. donc autrement dit potentiellement des IA qui seraient capables de faire des thèses de doctorat, donc des raisonnements... extrêmement complexes et si ça, ça arrive, là, ça peut changer énormément de choses dans les organisations. Parce qu'en fait, on commence à avoir des assistants d'intelligence artificielle qui potentiellement peuvent nous aider à résoudre des problèmes complexes pour lesquels avant la machine ne pouvait pas vraiment aider puisqu'il fallait qu'elle soit programmée pour ce qu'on avait déjà prévu. Là, la machine pourrait commencer à travailler sur des choses qui n'ont pas été prévues. Donc là, ce serait quelque chose d'absolument révolutionnaire. Et si vous ajoutez à ça la capacité de la machine petit à petit à s'améliorer d'elle-même en continu, là on commence à entrer dans ce qu'est la vraie intelligence artificielle. On n'y est pas encore, et c'est important de comprendre que c'est pas parce que l'intelligence artificielle est capable de raisonner et d'apprendre elle-même qu'elle a forcément une conscience ou une volonté. C'est-à-dire que c'est pas pour ça qu'elle a envie de sauver le monde ou de détruire le monde ou je ne sais pas quoi. Ça reste une IA qui est là en exécution pour répondre à des commandes. Et donc forcément nous, dans notre culture commune, on a tous vu des... des Terminator, des Heard, tout un tas de films comme ça, qui nous donnent un peu une impression de ce qu'il y a. Mais il faut comprendre que l'intelligence artificielle, c'est avant tout une technologie, donc une machine qui n'est pas forcément consciente, autrement dit, qui n'est pas forcément capable de réfléchir sur ce qui est en train de se passer et d'avoir une conscience du monde comme un humain peut l'avoir, sachant que dans la conscience, on a plus de 200 théories différentes, donc je ne vais même pas me lancer dans ce que signifie la conscience. Ce serait intéressant pour Daryl pour... plus tard, mais là déjà, c'est se dire une machine pour l'instant, on pense qu'elle ne l'a pas. Et a priori, elle ne l'a pas. Et la volonté, c'est-à-dire vouloir quelque chose de très précis, comme un humain veut survivre, la machine ne l'a pas non plus pour l'instant. Avec des machines qui aujourd'hui sont capables d'égaler le QI de beaucoup d'êtres humains, demain peut-être de le surpasser, et qui sont capables petit à petit d'effectuer des tâches à notre place, que ce soit par l'intelligence artificielle en elle-même ou par la robotique, qui seraient des machines dans lesquelles on mettrait de l'intelligence artificielle, et bien en fait, potentiellement, on a un risque d'impact sur tous les métiers. Mais il faut comprendre que c'est pas pour ça en fait que c'est la fin pour nous, parce que c'est pas la première fois dans l'histoire que l'économie évolue. Certains vont dire oui mais là ça va plus vite, c'est vrai, mais il faut aussi comprendre en fait qu'il y a tout un tas d'acteurs qui n'ont pas intérêt à ce que l'économie change trop vite. Je reprends l'exemple du début. En 1850, chaque tracteur qui sortait sur le marché remplaçait environ 400 ouvriers agricoles. Et si vous avez des doutes, vous pouvez lire Steinbeck, un auteur américain qui parle beaucoup de cette époque, où des américains, notamment des agriculteurs du Midwest, du centre des Etats-Unis, qui partaient sur les côtes pour trouver des emplois dans les usines, parce que justement, la mécanisation de l'agriculture commençait. C'était assez intéressant comme époque, parce que ce tracteur, il a permis de mécaniser l'agriculture, d'augmenter les rendements, et en fait, ça aurait dû mettre tout le monde au chômage, 90% de l'humanité travaillait dans les champs. Qu'est-ce qui s'est passé ? C'est que petit à petit, ça a déplacé les travailleurs, vers une nouvelle activité, le secteur industriel, ce qu'on appelle, quand on l'a appris à l'école, secteur primaire, secteur secondaire, le secteur industriel, les secteurs primaires, le secteur agricole. En 1950, quand l'informatique est apparue, et avec les mentalités d'après-guerre qui avaient besoin de changement, il y avait une envie, et surtout une réalité économique, qui a transformé petit à petit ce qu'on connaissait. A l'époque, on connaissait le secteur primaire et secondaire, l'agriculture et l'industrie, et petit à petit, le service est apparu. Et en 1950, le service n'existait quasiment pas en tant que secteur économique. Et donc si à l'époque on avait demandé aux gens, voilà toutes les révolutions technologiques qui sont en train d'arriver, à ton avis, qu'est-ce que feront les gens dans 70 ans en 2020 ? Probablement qu'ils t'auraient dit, ça va être une catastrophe, tout le monde va être au chômage. Et on se rend compte que 70 ans plus tard, 80% de la population travaille dans le secteur tertiaire, qui n'existait pas en 1950. Donc ça, c'est important de voir un petit peu comment l'économie évolue, parce que de manière générale, les gouvernements, les entreprises... n'ont pas intérêt à ce que les gens ne puissent plus consommer et n'ont pas intérêt à ce que les gens n'aient plus du tout de revenus. C'est la base de l'économie et donc c'est pour ça que l'économie a une différence entre ce que la technologie peut faire et ce sur quoi on l'applique. Cette fois-ci, on va probablement aller plus vite. En revanche, il va y avoir pas mal de réglementations qui vont faire que ça n'arrivera dans les faits pas si vite que la puissance de la technologie. L'exemple, c'est de dire que ça fait 10 ans qu'on peut remplacer les hôtes de caisse dans les magasins et qu'il en reste encore beaucoup. Parce que même si la technologie peut le faire, on a choisi qu'il devait rester des humains. Donc ce qui va se passer dans les années à venir, ça va beaucoup être un choix de société. En tant que société, comment on a envie de vivre ensemble ? Ce sujet du savoir-vivre, c'est un énorme sujet, on le voit tous, on le vit tous. Et il va y avoir des vraies questions à se poser sur le rapport les uns aux autres et sur la manière dont on a envie de contribuer à la société. Et ça conclut notre nouvel épisode de Codex. Je vous remercie encore et je vous dis à très vite. Au revoir.