- Speaker #0
Le monde des petites entreprises est fascinant. C'est un mélange unique de débrouillardise et d'adaptabilité. Mais parfois, on manque de compétences clés pour aller plus loin. Tu le ressens aussi Alors ce podcast est fait pour toi. Je suis Perrine Thiébaut, consultante en transformation numérique et je déniche pour toi les meilleurs outils, méthodes et technologies pour gagner en efficacité. Seule ou avec mes invités, je te partage des conseils actionnables pour avancer en toute sérénité. Alors, prêt à oser l'efficacité Nouvelle semaine, nouvelle thématique. Chaque jour, du lundi au vendredi, on décortique un sujet en profondeur avec des doses courtes et actionnables de moins de 15 minutes. Bonne semaine et bonne écoute
- Speaker #1
Cette semaine, on se lance dans une thématique bouillante, l'IA et plus particulièrement l'IA dans l'industrie. En 2023, les IA conversationnelles comme ChatGPT explosent aux yeux du grand public, au point de devenir la définition même de l'IA. Sauf que l'IA, c'est bien plus ancien que ça et surtout, ça couvre un spectre bien plus large. Pour en parler, j'accueille Jean-Louis Amat. Jean-Louis il n'a pas attendu Chat GPT pour côtoyer l'IA, ça fait même 40 ans qu'il la côtoie au quotidien. Cette compétence, il la met au service de l'industrie avec une collection de cascades impressionnantes. Professeur, consultant, conférencier et membre de nombreux collectifs. Je pense que la personne la mieux placée pour le présenter, c'est lui-même. C'est le moment de l'accueillir. Jean-Louis, bienvenue, comment tu vas
- Speaker #2
Bonjour Perrine, tout va bien
- Speaker #1
Ravie de t'avoir sur le podcast. Est-ce que tu pourrais te présenter pour nos auditeurs s'il te plaît
- Speaker #2
Oui, bien sûr. Je suis un scientifique qui travaille dans le monde du business. J'ai commencé par un doctorat en sciences de l'ingénieur que j'ai soutenu en 1987 chez IBM sur les applications de l'IA à l'analyse d'images de satellites. Après ça, j'ai fait carrière dans l'industrie en appliquant l'IA sur beaucoup de problématiques et de secteurs, ce qui m'a donné à la fois une vision large de l'industrie et de l'introduction du numérique, et surtout un sens pratique de la mise en œuvre de l'IA. En laboratoire, ça marche toujours beaucoup mieux que sur une chaîne de production. J'ai aussi été professeur d'université associée, enseignant l'IA au niveau ingénieur, créateur de start-up dans les années 90, et je me suis tourné il y a une vingtaine d'années dans le développement économique pour aider les entreprises dans leurs projets d'innovation et de développement. Je dirige actuellement l'agence des Ardennes et je suis membre du collectif start-up industriel et du hub France IA.
- Speaker #1
Super. Est-ce que tu te considères comme un précurseur Parce que tu parles de beaucoup de choses qui n'étaient pas à la mode au moment où tu travaillais dedans.
- Speaker #2
D'une certaine manière, oui. Parce que même si l'IA existait depuis un certain temps, on va en parler, j'ai été un des premiers dans le monde à travailler sur les applications de l'IA au traitement d'images. On était très peu d'équipes dans les années 80 à faire ça.
- Speaker #1
Génial, j'ai hâte de creuser le sujet. Alors justement, avant d'attaquer le sujet qui nous occupe, je vais te poser mes trois petites questions signatures pour mieux te connaître, se mettre à l'aise avant de commencer et après, ce sera parti. Tu es prêt
- Speaker #2
Oui.
- Speaker #1
Alors, première question, qu'est-ce qui te rend fou
- Speaker #2
Je dirais l'injustice.
- Speaker #1
Très bien, je te rejoins parfaitement là-dessus. Quel est ton pire souvenir lié au numérique
- Speaker #2
Mon pire souvenir, je me souviens encore d'une démo que j'ai dû faire quand j'étais jeune thésard chez IBM à Paris. Je venais de démarrer ma thèse et on recevait un vice-président de la NASA venu des États-Unis. On avait préparé la démo et tout marchait. Et au moment de la faire, rien n'a marché. C'est un très mauvais souvenir.
- Speaker #1
Je crois que c'est le propre des démos. On peut les préparer aussi bien qu'on veut, au final, ça ne marchera jamais au bon moment. Et quelle est ta plus belle réussite inattendue
- Speaker #2
Ce n'est pas quelque chose de technique. J'ai travaillé pendant longtemps sur du business développement technologique avec des grands groupes et j'ai appris que ça prend du temps, on travaille sur la durée. Il y a dix ans, j'étais en Franche-Comté, je m'occupais d'innovation et j'essayais notamment de lier du lien entre deux grands groupes qui sont installés là-bas. à savoir PSA avec l'usine de Sochaux et Général Electric qui a un site à Belfort. Je connaissais de loin les dirigeants locaux mais j'avais peu d'entrées. Et un jour dans le train de Paris, j'ai croisé le directeur scientifique de Général Electric qui m'a demandé spontanément d'organiser une rencontre avec son homologue de PSA au niveau national, que je connaissais. C'était inattendu mais opportun.
- Speaker #1
Les opportunités inattendues, c'est les plus belles. Ok, merci beaucoup pour ces partages. Honnêtement, je m'attendais à ce que ta plus belle réussite inattendue, ce soit une démo qui marche du coup, mais bon, on fera avec. Du coup, on est prêt à attaquer le sujet. Donc aujourd'hui, l'idée, c'est de poser un peu les bases. Alors déjà, ça remonte à quand les origines de l'IA
- Speaker #2
Évidemment, ça dépend du sens qu'on donne à ce terme. Mais je dirais que dès que l'homme a su faire des machines, il y a eu le rêve d'une machine pensante. Donc on peut dire que ça remonte à très loin, même si on ne sait pas le dater. Mais l'IA moderne remonte autour des années 50. Tout le monde sait que le terme intelligence artificielle est apparu la première fois dans un congrès scientifique à un Dartmouth en 1956, qui a été proposé par John McCarthy. C'est à peu près l'IA moderne à date de là. L'idée d'une rône artificielle pour copier le cerveau humain, le siège de la pensée, a été publiée en 1943. C'est la base des transformers actuels qui ont permis l'IA générative du moment. Le T de Chat Gpt signifie transformer.
- Speaker #1
Ça marche. Et du coup, c'est quoi la première application qui donne naissance au mot en 1956 Tu l'as en tête
- Speaker #2
Ce n'est pas vraiment une application, ce sont des chercheurs qui ont créé le concept intelligence artificielle. Auparavant, on appelait ça la cybernétique, plus ou moins.
- Speaker #1
Ok, donc on est plus dans l'idée que de la mise en pratique à ce moment-là
- Speaker #2
Oui, on est dans la recherche.
- Speaker #1
Ok, ça marche. Sur ton profil, il y a quelque chose que j'aime bien, c'est que tu as une infographie en bannière LinkedIn qui montre l'histoire de l'IA. D'ailleurs, je veux bien que tu me l'envoies parce qu'elle est un peu floue sur ton profil et je la trouve quand même très intéressante. Et dessus, il y a un noté AI Boom. 1980-1987, alors que pour le grand public, clairement, le boom, il est en 2023. Alors, du coup, c'est quoi ce boom en 80
- Speaker #2
Je pense que c'est l'infographie, mais c'est Danielle Williams,qui a publié ce poster extraordinaire qui résume toute l'histoire de l'IA sur une page. Mais il vaut mieux une page A3 pour lire. Donc le poster est en haute résolution sur son site, je t'enverrai l'adresse. Super,
- Speaker #1
merci. On vous le mettra dans les ressources.
- Speaker #2
Oui, absolument. Alors ce boom des années 80, déjà l'IA s'est panée il y a deux ans évidemment, mais les années 80, c'est le début de l'informatique moderne. On commence à avoir des ordinateurs capables de faire des opérations en rythme très élevé pour l'époque, et à savoir traiter des données autrement que sur des cartes perforées. Parce qu'un peu avant... Il fallait des grosses piques de cartes pour mettre des données dans la machine. Dans les années 80, on commence à avoir les systèmes magnétiques, des bandes essentiellement. L'IA s'est développée dans la recherche, et dans les années 80, on atteint un niveau théorique dans la gestion des connaissances, qui commence à permettre de créer des applications. En ce temps-là, on était sur ce qu'on appelle l'IA symbolique. Il s'agissait davantage de modéliser le raisonnement, et on appelait ça des systèmes experts ou des systèmes à base de connaissances.
- Speaker #1
Et du coup Est-ce que tu as des exemples très concrets de l'époque sur comment ça se modélise
- Speaker #2
Oui, on commence à avoir des applications. D'ailleurs, une des toutes premières applications publiées dans les journaux, dans le grand public, je crois que c'était en 1982, c'est le projet qui s'appelait BSM, ça veut dire bateau sans médecin, qui était porté par IBM avec du diagnostic médical. L'idée étant que sur un bateau, il n'y a pas forcément un médecin. Et donc, on peut décrire les symptômes d'une maladie au système qui va faire un premier diagnostic de base. Donc, ce système était basé sur des règles qui exploitaient une base de connaissances. Tout processus pouvant être exprimé à base de règles se prête donc bien à ce genre de choses, notamment le diagnostic, qu'il soit de panne pour les machines ou médical sur des cas simples. Mais si on a eu des vraies applications de diagnostic dans l'industrie, Le médical, ça n'a pas trop marché parce que l'humain est bien plus complexe que les machines. Ces règles, elles ont des limites contraignantes qui sont la gestion des exceptions et dans le cas de règles trop nombreuses, la possibilité de contradictions. Par exemple, une règle, c'est du type, si c'est un animal et qu'il a des ailes, alors c'est un oiseau. Mais les chauves-souris ne sont pas des oiseaux alors qu'elles ont des ailes. Et puis, il y a des oiseaux qui ne volent pas, par exemple. On voit sur un exemple très simple la difficulté de décrire un domaine avec cette approche.
- Speaker #1
Ok, très clair. On le voit aujourd'hui avec l'IA générative et tous les modèles d'entraînement dont on a entendu parler. On leur apprend au fur et à mesure, mais au bout d'un moment, ça peut être un peu complexe quand on a des choses qui se contredisent, exactement ce que tu viens de dire. Ok. Et du coup, entre cette période-là où une grosse accélération et aujourd'hui, plutôt 2023, on commence à avoir l'IA un petit peu grand public, accessible à tous, comment on en arrive là Comment est-ce qu'on arrive à finalement rendre accessible à tous la possibilité Finalement, ton exemple est bien choisi, ton diagnostic sans médecin, parce qu'aujourd'hui, tu pourrais presque, enfin tu peux d'ailleurs je pense, te faire diagnostiquer par ChatGPT si tu lui poses la bonne question.
- Speaker #2
Oui, si on veut prendre des risques, on n'est pas sûr de la qualité du résultat. Alors, l'IA génératif, c'est 40 ans d'histoire. Et comme toute l'histoire, il y a eu plusieurs branches qui ont été explorées, certaines abandonnées, certaines qui sont revenues. Pour résumer, comme aujourd'hui, tout le monde a voulu se mettre à l'IA dans les années 80. A l'époque, c'était des systèmes experts. Et quand je dis tout le monde, c'est ceux qui avaient des ordinateurs assez puissants pour faire tourner ces systèmes. Mais ça ne marchait pas suffisamment bien pour les raisons qu'on a mentionnées. Alors, on a cherché d'autres approches. Il y a eu une période à la fin des années 80 où beaucoup de techniques différentes ont vu le jour, dont les systèmes multi-agents dont on parle beaucoup en ce moment. ou le case-based reasoning ou la programmation par contrainte, qui sont totalement inconnus du grand public en ce moment. Ces techniques reviendront peut-être un jour, certaines sont exploitées ponctuellement, mais on n'en parle pas du tout. Les limites des systèmes symboliques ont bien été identifiées et on s'est mis au machine learning, avec les fameux réseaux de neurones à qui il ne fallait donner ni un programme ni des règles, mais des données comprenant les exemples à modéliser. Pour reprendre l'image de tout à l'heure, il ne s'agit pas de décrire ce qu'est un oiseau, mais de montrer au système des exemples d'oiseaux, des images, et le faire apprendre. Ce sont ces réseaux de neurones qui constituent la base de l'IA générative actuelle, après être passés par un stade appelé deep learning où on a considérablement augmenté leur taille et leur complexité, donc le nombre de paramètres à régler et donc la puissance de calcul nécessaire. Les transformers qui ont été publiés en 2017 par Google sont une évolution de ces systèmes. capable d'ingurgiter des volumes énormes de données, comme plusieurs milliards de paramètres à configurer, et d'en restituer des synthèses, mais sans compréhension des données.
- Speaker #1
C'est hyper intéressant. Tu as donné beaucoup de termes liés à l'IA dans ta description. C'est justement ce qu'on va voir dans notre épisode suivant. Puisqu'aujourd'hui, on a posé l'historique, on a compris que surtout l'IA, ce n'était pas juste chat GPT. Donc déjà, on a cassé cette barrière-là. Et donc, on va justement se plancher sur tous les termes barbares que tu as un petit peu disséminés partout pour aller comprendre un peu plus comment ça marche l'IA.