Description
Pour comprendre les tenants et aboutissants du règlement européen sur l’intelligence artificielle, nous avons interrogé Jean-Gabriel Ganascia, informaticien et philosophe spécialisé dans l'intelligence artificielle et l’éthique à Sorbonne Université. Il est également membre du comité d’éthique du CNRS. Il nous partage également les bonnes questions à se poser avant de développer l’IA.
C’est quoi l’IA Act ? [01:32 - 16:54]
Le règlement européen IA Act, a pour objectif “de nous prémunir contre les dangers liés à l’intelligence artificielle” explique Jean-Gabriel Ganascia. Et ce, en introduisant la notion de risque qui est “l’éventualité d’un danger” ajoute-t-il. Ces risques sont catégorisés : inadmissibles (techniques subliminales, notation, biométrie en temps réel), élevés, modérés et faibles (filtres à spam, jeux vidéos).
Pour l’instant il y avait peu de réglementation propre à chaque pays, et encore moins en France. Raison pour laquelle ce règlement est devenu important. Du côté des Etats-Unis et de la Chine, l’encadrement est très différent. Aux Etats-Unis, depuis juillet 2023, une réglementation enjoint les entreprises à développer l’IA pour le bien commun. En Chine, “le principe éthique sur lequel se reposent les réflexions c’est qu’il faut d’abord assurer la sécurité et la cohésion” précise l’expert.
Des entreprises inquiètes [17:04 - 21:14]
De nombreuses entreprises s’inquiètent de la complexité des règlements, avec des règles générales et contraignantes, ou encore des exceptions aux règles. En d’autres termes, “il faut des services juridiques compétents qui maîtrisent parfaitement cette réglementation pour guider [...] et pour des petites sociétés, c’est extrêmement difficile” regrette Jean-Gabriel Ganascia. Le règlement a d’ailleurs tardivement inclut l’IA générative, et en urgence, notamment avec l’arrivée de ChatGPT sur le marché.
Intégrer l’éthique dans le développement [21:18 - 31:46]
Faut-il se poser des questions sur l’éthique avant de se lancer dans le développement de l’IA ? Pour notre expert, les questions doivent se poser après la maîtrise des techniques d’IA mais avant la mise en œuvre des projets qui l’utilisent. “Sur chaque projet, il faut se demander quelles sont les conséquences et les dérives d’utilisation du système” précise le président du COMETS, en suivant une méthodologie précise en quatre points : réunir un comité d’éthique, se demander quelles sont les contraintes qu’on va s’imposer pour éviter les mauvaises utilisations, faire certifier par un organisme indépendant et garder une supervision. Et si vous ne savez pas comment faire pour mettre tout cela en place, il existe des formations !
Références citées :
Grands modèles de Langage (ou Large Language Models, LLM)
James Vicary (techniques subliminales)
X (ancien Twitter)
Ressources pour aller plus loin :
Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Séverine Fontaine, en collaboration avec Marie-Caroline Loriquet.