undefined cover
undefined cover
La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2 cover
La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2 cover
Novadroits Podcasts

La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2

La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2

16min |30/10/2024
Play
undefined cover
undefined cover
La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2 cover
La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2 cover
Novadroits Podcasts

La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2

La voix du droit - L’intelligence artificielle est-elle un danger pour la Justice ? - Saison 1/Episode 2

16min |30/10/2024
Play

Description

L’intelligence artificielle éveille les plus grands fantasmes humains, entre fascination et inquiétude. Et si elle changeait radicalement la justice telle que nous la connaissons ? Dans cet épisode captivant, Jérémy Florent se penche sur une question brûlante : l’intelligence artificielle est-elle un danger pour la justice ? Alors que certains voient en elle un gage d’efficacité, d’autres redoutent une déshumanisation de la Justice. Explorez les promesses et les menaces de l’IA pour la justice dans La Voix du Droit.


Découvrez Novadroits Podcasts, des podcasts originaux de l'association Novadroits spécialisée dans l'accès au droit et l'entraide étudiante. Dans l'émission La voix du droit, la jeunesse cesse de murmurer, elle prend la parole à voix haute !


Cet épisode a été conçu, réalisé et présenté par Jérémy Florent / Montage et Mixage du générique : Alice Krief, les belles fréquences.


@Novadroits

Novadroits.fr


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    L'association NovaDroit, spécialisée dans l'accès au droit et l'entraide étudiante, vous présente La Voix du Droit, un podcast original dans lequel la jeunesse s'exprime en toute liberté sous la forme d'un plaidoyer qui vulgarise le droit. Aujourd'hui... Jérémy Florent, président fondateur de l'association, répond à la question suivante. L'intelligence artificielle est-elle un danger pour la justice ? L'émergence de l'intelligence artificielle réactualise une prophétie lancinante et réveille les plus grands fantasmes humains. Entre peur et fascination, De nombreux observateurs prédisent la dénaturation de la justice et de ses valeurs. Les formules incantatoires pleuvent à foison sur la diabolisation de l'intelligence artificielle. D'un côté, la peur de l'évolution technologique, quasiment oraculaire, dans laquelle l'humain serait dépendant de la machine, comme l'homme pourrait dépendre de Dieu, ou tel l'oracle capable de prédire l'avenir. Pour d'autres, l'intelligence artificielle est une disruption numérique, une véritable révolution de la justice et de son mode de fonctionnement. Une précision est essentielle. Il n'y a rien de prédictif dans ce que certains appellent la justice prédictive, car nul ne peut prédire l'avenir, pas même les machines. En réalité, ce terme est un atout marketing alimenté par certaines entreprises ayant pour objectif de vendre un produit. Il est plus opportun de parler de justice digitale, de jurimétrie ou encore d'outils de quantification du risque et d'aide à la décision. L'intelligence artificielle se définit comme un logiciel développé au moyen de techniques dont l'objectif, défini par l'homme, génère des résultats tels que des contenus, des prédictions, des recommandations ou des décisions, influençant l'environnement avec lequel elle interagit. En résumé, c'est par l'utilisation de données passées que des algorithmes peuvent proposer un résultat statistique pour l'avenir, grâce à une méthode qui décompose la résolution d'un problème en une suite d'opérations élémentaires. un peu à la manière d'une recette de cuisine. Lorsque l'on parle de justice digitale, notre raisonnement ne peut qu'osciller entre la nécessité de moderniser la justice et les dangers d'une justice prédictive. L'emploi de l'intelligence artificielle est une impérieuse nécessité car c'est un besoin vital pour une justice friable. La justice traverse une crise de confiance et pour cause, seulement 53% des Français ont confiance en elle. et une majorité estime que son fonctionnement est défaillant. La lenteur des procédures provoquées par l'engorgement des tribunaux et le manque de moyens aggravent la situation. L'intelligence artificielle est envisagée comme une solution pour désengorger les tribunaux et promouvoir les modes alternatifs de règlement des litiges. En automatisant certaines tâches, l'intelligence artificielle permettrait aux auxiliaires de justice de se concentrer sur des tâches plus techniques, améliorant ainsi l'efficacité globale du système judiciaire. Cependant, la crise sanitaire du Covid-19 a mis en lumière les faiblesses technologiques de la justice, avec une institution paralysée et une précarité numérique chez les justiciables. La transition numérique de la justice est freinée par des logiciels obsolètes et inadaptés, tandis que l'électronisme affecte 15% de la population. C'est-à-dire qu'il y a 15% de la population française qui est incapable d'utiliser correctement les outils du numérique. Ce sont principalement les personnes âgées, les moins diplômés et celles aux revenus modestes. Alors que la justice cherche à se moderniser, il est crucial de ne pas marginaliser ses justiciables. Bien que l'intelligence artificielle puisse accélérer les procédures, il est essentiel de ne pas confondre rapidité et performance. La justice, après tout, est un mûrissement nécessaire pour rechercher la vérité et la paix sociale. La justice ne peut être réduite à une simple mécanique robotique Elle doit incarner une humanité vibrante et sensible. Les Legal Tech, ces entreprises du numérique, se sont emparées de l'intelligence artificielle, mais le résultat est encore perfectible. Il y a certes des innovations intéressantes. Aux États-Unis, par exemple, l'intelligence artificielle est utilisée depuis des années et l'IA Logix a affronté des avocats. Il fallait identifier des erreurs dans des contrats. L'algorithme a mis 26 secondes à les identifier. alors que les avocats ont mis plusieurs heures pour finir leur mission. Quant à ROS, un robot auto-apprenant doté de l'intelligence artificielle, il répond aux problématiques juridiques dans un cabinet d'avocats et effectue des recherches en quelques centièmes de seconde depuis 2016. Cependant, certains logiciels sont critiquables. En 2017, le président de la Cour d'appel de Douai a utilisé un logiciel dit prédictif au sein de sa juridiction, et le résultat fut négatif. L'outil est plus quantitatif que qualitatif, parfois les résultats sont aberrants, dira-t-il. Récemment, l'application e-Avocat, aujourd'hui e-Avenir, a fait polémique en France. en proposant un outil conversationnel capable de prodiguer un conseil juridique, moyennant un abonnement mensuel, afin de concurrencer les avocats. Là où un avocat mettrait un an, je mets une minute affirme le logiciel, suscitant un tollé chez les avocats, dénonçant un exercice illégal de la profession et des résultats peu fiables. L'office des professionnels du droit va être augmenté avec l'intelligence artificielle, mais les risques restent nombreux. Concernant les juges, Il convient de rappeler que juger ne se réduit pas à trancher un litige. Juger, c'est dire le droit, c'est-à-dire appliquer une règle de droit à un cas d'espèce. Mais c'est aussi reconstruire un lien social en prenant en compte les parties au litige. Pèse sur les épaules du juge une obligation d'impartialité et d'indépendance pour mener à bien ses missions. Or, l'intelligence artificielle pourrait remettre en cause la fonction de juger dès lors que le logiciel reproduit les biais cognitifs. Un biais cognitif C'est tout ce qui influence nos choix inconsciemment. Nous sommes tous le fruit de notre histoire, n'est-ce pas ? De nos fréquentations également, de nos parcours certainement d'un milieu social, d'expériences vécues ou de connaissances accumulées. Et face à l'inconnu et aux incertitudes, l'humain va se rattacher à ce qu'il connaît ou à sa propre expérience. Il va donc classer, faire des raccourcis, et tout cela va venir fausser sa décision. C'est ainsi que Tai Chat Bot... lancé en 2016 par Microsoft dans le but de discuter avec les humains sur les réseaux sociaux, a reproduit en quelques heures après son lancement les pires atrocités de notre histoire en tenant des propos misogynes, négationnistes et racistes. Pour le juge, l'intelligence artificielle peut être utilisée de plusieurs manières, pour aider à rendre une décision de justice, mais aussi pour lui permettre d'analyser ses propres décisions de manière rétrospective. Prenons un exemple. L'intelligence artificielle va révéler que Le juge condamne à une peine de prison ferme avec mandat de dépôt 80% des prévenus appartenant à un certain groupe social ou ethnique. Un autre découvrira qu'il relaxe la majorité des prévenus pour agression sexuelle alors que ses collègues ont des taux beaucoup plus bas que lui. L'auxiliaire de justice va donc devenir dépendant de la machine puisqu'il va vouloir rectifier les statistiques pour se conformer aux résultats de ses collègues, mais ensuite pour ne pas paraître trop sévère ou inversement trop laxiste. avec comme circonstance aggravante la pression populaire qui considère à tort que la justice est trop laxiste. Les juges pourraient succomber à la facilité en suivant les statistiques à la lettre pour se dédouaner de toute responsabilité morale. Alors on pourrait croire que c'est positif, car l'outil pourrait mettre fin aux discriminations, mais souvenez-vous que l'intelligence artificielle n'est pas neutre, elle est limitée. Les outils prédictifs sont programmés par des humains non juristes. Et la machine est incapable de contextualiser une décision ou la spécificité d'une zone géographique, ni de quantifier les sentiments. L'outil ne donne aucune information sur ses sources, ni comment il est parvenu à un résultat. Alors que la justice se veut plus transparente, pour ne pas succomber dans les tréfonds d'une méfiance populaire à l'égard de juges, l'intelligence artificielle est opaque. En conséquence, Ces logiciels pourraient figer la jurisprudence et mettre fin à l'aléa judiciaire par des solutions identiques malgré des situations différentes, en dévitalisant donc la fonction de juger pourtant si chère au magistrat Pierre Drey, qui disait que juger c'est aimer écouter, essayer de comprendre et vouloir décider. Quant à l'avocat, l'intelligence artificielle va lui permettre d'effectuer des recherches juridiques précises, d'être plus rapide et de pouvoir modéliser le contentieux afin de mieux orienter son client et de cibler les arguments qui ont le plus de chances de fonctionner devant une juridiction. L'intelligence artificielle présente l'avantage d'offrir une meilleure prévisibilité du contentieux dès lors qu'il répond aux exigences du justiciable qui se posent les questions suivantes. Vais-je gagner ? Quel est le coût ? Quelle est la durée de la procédure ? Un outil comme Kesslow Analytics propose d'afficher le contentieux en graphique et d'évaluer les risques dans un procès. L'outil estime que dans le cadre de divorce, La durée du mariage est prise en compte dans 60% des cas et que 70% des magistrats prennent en compte le revenu ou le patrimoine des époux. Ces éléments permettent d'affiner la stratégie contentieuse et c'est une bonne chose. Au jeu des prédictions, les éventualités sont nombreuses. Que se passera-t-il si les robots sont au service des humains ou s'ils les remplacent ? Portons donc un regard prédictif sur la question. Admettons que l'intelligence artificielle est au service de l'homme, c'est-à-dire qu'il n'est qu'un outil d'aide rationalisé, eh bien ce serait un bienfait. Je voudrais vous parler au futur, mais la justice utilise déjà des algorithmes, notamment avec DataJust, un logiciel qui... extrait de manière automatique les données contenues dans les décisions de justice sur l'indemnisation des préjudices corporels. On peut d'ores et déjà imaginer que l'intelligence artificielle sera étendue à toutes les phases d'une procédure, en partant de l'action en justice jusqu'au jugement. D'ailleurs, en Estonie, une intelligence artificielle tranche les petits litiges contractuels avec la supervision humaine. Les tâches répétitives et subsidiaires sont assurées par un logiciel L'humain peut alors se concentrer sur un travail plus technique et complexe. Avec un outil d'aide à la décision et de quantification des risques, la fonction d'administrer, de juger et de défendre se trouve augmentée par l'intelligence artificielle. Mais si l'intelligence artificielle devait se substituer à l'homme, alors la justice serait déshumanisée et le contentieux serait figé. Globalement, les magistrats se feraient rares dans un palais de justice Et les avocats n'auraient plus d'intérêt puisque le logiciel prédictif serait accessible directement au justiciable, moyennant un abonnement mensuel. La justice se rendrait depuis son canapé dans une forme d'ubérisation judiciaire. D'ailleurs, la fonction du magistrat se réduirait à des tâches simples, c'est-à-dire vérifier que la machine judiciaire n'a pas commis d'erreur, un peu à la manière d'un agent dans un supermarché qu'on appelle lorsque les caisses automatiques dysfonctionnent. Par un système de notation, Les algorithmes permettraient de noter chaque auxiliaire de justice, faisant ainsi de la justice une justice mécanique et mathématique. Dans le futur, l'opacité serait un problème, puisque si la justice se doit d'être transparente, les entreprises, elles, cachent leurs codes pour éviter que la concurrence s'en empare. En droit pénal, là où les enjeux sont bien plus importants, on basculerait vers l'horreur Big Brother. Le procès pénal se déroulerait de la façon suivante. Dès la phase d'enquête, l'outil prédictif est utilisé pour rechercher des coupables, avec l'utilisation de la biométrie, c'est-à-dire des techniques de reconnaissance automatique à partir de caractéristiques physiques, biologiques, voire comportementales. L'intelligence artificielle produit des preuves irréfragables, donnant naissance à une présomption de culpabilité. Le profilage, bien qu'interdit en France depuis 2019, devient une règle, car dans le futur, la sécurité est devenue la première des libertés. Dans cette gouvernance par les chiffres, l'outil est utilisé pour analyser les moyens de défense et les magistrats prennent des décisions grâce à l'algorithme. Ce n'est pas une fiction, c'est déjà une réalité puisqu'en 2016, Un juge américain a utilisé l'intelligence artificielle COUPAS pour évaluer le risque de récidive d'un prévenu et l'a condamné à 6 ans d'emprisonnement car le taux de récidive était élevé. Puisqu'il faut rendre justice rapidement dans un souci de performativité, le langage humain est totalement transformé. On s'exprime dans une sorte de novlangue algorithmique. La plaidoirie n'existe plus. Nous sommes passés en 30 ans à peine de 10 minutes pour plaider en comparution immédiate. À 30 secondes, juste de quoi prononcer un mot pour l'avocat transformé en ventriloque en robe noire. Relaxe dira-t-il d'un ton machinal. Pas le temps de se balader dans la salle des pas perdus. L'algorithme a déjà pris sa décision. Quatre ans d'emprisonnement ferme avec mandat de dépôt. Faut-il faire appel de la décision ? L'outil prédictif le déconseille vivement. Statistique à l'appui. Le client abdique. Le désengorgement des tribunaux n'est qu'une ambition dépassée. La justice est vidée de son essence et de toute substance. Entre la fiction et la réalité, il n'y a qu'un pas, puisqu'en France, la gendarmerie a utilisé à titre d'expérimentation Prêt-Paul en 2019 afin de prédire les cambriolages, ce qui démontre que le fantasme d'une justice prédictive est un risque réel. Des algorithmes sont utilisés dans des pays étrangers pour mener des enquêtes et la France utilisera bientôt la vidéosurveillance algorithmique lors des Jeux Olympiques. En réalité, la principale inquiétude concerne le manque d'encadrement juridique. L'Union européenne a fait un véritable pas en avant en adoptant pour la première fois de son histoire le règlement européen sur l'intelligence artificielle en mai 2024. Mais des questions se posent sur l'équilibre entre l'innovation et les droits fondamentaux. À quelles conditions peut-on accepter qu'un robot puisse opérer un patient, produire des preuves, qu'il juge injusticiable, qu'il le défende ou qu'il puisse tuer ? Déterminer un statut juridique pour l'intelligence artificielle ? n'a jamais été aussi urgent et vital. L'intelligence artificielle est une révolution aussi grande que la révolution industrielle. Les hommes font l'histoire, mais ils ne savent pas l'histoire qu'ils font, disait Raymond Aron. Et dans cette construction marquant l'histoire, la justice doit évoluer avec l'intelligence artificielle, sans compromettre les droits et libertés, sans succomber au fantasme d'une justice prédictive. L'association NovaDroit vous remercie pour votre écoute. Vous pouvez nous suivre sur nos réseaux sociaux dans la barre de description. N'hésitez pas à partager notre contenu si vous l'appréciez et en parler autour de vous. A bientôt !

Description

L’intelligence artificielle éveille les plus grands fantasmes humains, entre fascination et inquiétude. Et si elle changeait radicalement la justice telle que nous la connaissons ? Dans cet épisode captivant, Jérémy Florent se penche sur une question brûlante : l’intelligence artificielle est-elle un danger pour la justice ? Alors que certains voient en elle un gage d’efficacité, d’autres redoutent une déshumanisation de la Justice. Explorez les promesses et les menaces de l’IA pour la justice dans La Voix du Droit.


Découvrez Novadroits Podcasts, des podcasts originaux de l'association Novadroits spécialisée dans l'accès au droit et l'entraide étudiante. Dans l'émission La voix du droit, la jeunesse cesse de murmurer, elle prend la parole à voix haute !


Cet épisode a été conçu, réalisé et présenté par Jérémy Florent / Montage et Mixage du générique : Alice Krief, les belles fréquences.


@Novadroits

Novadroits.fr


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    L'association NovaDroit, spécialisée dans l'accès au droit et l'entraide étudiante, vous présente La Voix du Droit, un podcast original dans lequel la jeunesse s'exprime en toute liberté sous la forme d'un plaidoyer qui vulgarise le droit. Aujourd'hui... Jérémy Florent, président fondateur de l'association, répond à la question suivante. L'intelligence artificielle est-elle un danger pour la justice ? L'émergence de l'intelligence artificielle réactualise une prophétie lancinante et réveille les plus grands fantasmes humains. Entre peur et fascination, De nombreux observateurs prédisent la dénaturation de la justice et de ses valeurs. Les formules incantatoires pleuvent à foison sur la diabolisation de l'intelligence artificielle. D'un côté, la peur de l'évolution technologique, quasiment oraculaire, dans laquelle l'humain serait dépendant de la machine, comme l'homme pourrait dépendre de Dieu, ou tel l'oracle capable de prédire l'avenir. Pour d'autres, l'intelligence artificielle est une disruption numérique, une véritable révolution de la justice et de son mode de fonctionnement. Une précision est essentielle. Il n'y a rien de prédictif dans ce que certains appellent la justice prédictive, car nul ne peut prédire l'avenir, pas même les machines. En réalité, ce terme est un atout marketing alimenté par certaines entreprises ayant pour objectif de vendre un produit. Il est plus opportun de parler de justice digitale, de jurimétrie ou encore d'outils de quantification du risque et d'aide à la décision. L'intelligence artificielle se définit comme un logiciel développé au moyen de techniques dont l'objectif, défini par l'homme, génère des résultats tels que des contenus, des prédictions, des recommandations ou des décisions, influençant l'environnement avec lequel elle interagit. En résumé, c'est par l'utilisation de données passées que des algorithmes peuvent proposer un résultat statistique pour l'avenir, grâce à une méthode qui décompose la résolution d'un problème en une suite d'opérations élémentaires. un peu à la manière d'une recette de cuisine. Lorsque l'on parle de justice digitale, notre raisonnement ne peut qu'osciller entre la nécessité de moderniser la justice et les dangers d'une justice prédictive. L'emploi de l'intelligence artificielle est une impérieuse nécessité car c'est un besoin vital pour une justice friable. La justice traverse une crise de confiance et pour cause, seulement 53% des Français ont confiance en elle. et une majorité estime que son fonctionnement est défaillant. La lenteur des procédures provoquées par l'engorgement des tribunaux et le manque de moyens aggravent la situation. L'intelligence artificielle est envisagée comme une solution pour désengorger les tribunaux et promouvoir les modes alternatifs de règlement des litiges. En automatisant certaines tâches, l'intelligence artificielle permettrait aux auxiliaires de justice de se concentrer sur des tâches plus techniques, améliorant ainsi l'efficacité globale du système judiciaire. Cependant, la crise sanitaire du Covid-19 a mis en lumière les faiblesses technologiques de la justice, avec une institution paralysée et une précarité numérique chez les justiciables. La transition numérique de la justice est freinée par des logiciels obsolètes et inadaptés, tandis que l'électronisme affecte 15% de la population. C'est-à-dire qu'il y a 15% de la population française qui est incapable d'utiliser correctement les outils du numérique. Ce sont principalement les personnes âgées, les moins diplômés et celles aux revenus modestes. Alors que la justice cherche à se moderniser, il est crucial de ne pas marginaliser ses justiciables. Bien que l'intelligence artificielle puisse accélérer les procédures, il est essentiel de ne pas confondre rapidité et performance. La justice, après tout, est un mûrissement nécessaire pour rechercher la vérité et la paix sociale. La justice ne peut être réduite à une simple mécanique robotique Elle doit incarner une humanité vibrante et sensible. Les Legal Tech, ces entreprises du numérique, se sont emparées de l'intelligence artificielle, mais le résultat est encore perfectible. Il y a certes des innovations intéressantes. Aux États-Unis, par exemple, l'intelligence artificielle est utilisée depuis des années et l'IA Logix a affronté des avocats. Il fallait identifier des erreurs dans des contrats. L'algorithme a mis 26 secondes à les identifier. alors que les avocats ont mis plusieurs heures pour finir leur mission. Quant à ROS, un robot auto-apprenant doté de l'intelligence artificielle, il répond aux problématiques juridiques dans un cabinet d'avocats et effectue des recherches en quelques centièmes de seconde depuis 2016. Cependant, certains logiciels sont critiquables. En 2017, le président de la Cour d'appel de Douai a utilisé un logiciel dit prédictif au sein de sa juridiction, et le résultat fut négatif. L'outil est plus quantitatif que qualitatif, parfois les résultats sont aberrants, dira-t-il. Récemment, l'application e-Avocat, aujourd'hui e-Avenir, a fait polémique en France. en proposant un outil conversationnel capable de prodiguer un conseil juridique, moyennant un abonnement mensuel, afin de concurrencer les avocats. Là où un avocat mettrait un an, je mets une minute affirme le logiciel, suscitant un tollé chez les avocats, dénonçant un exercice illégal de la profession et des résultats peu fiables. L'office des professionnels du droit va être augmenté avec l'intelligence artificielle, mais les risques restent nombreux. Concernant les juges, Il convient de rappeler que juger ne se réduit pas à trancher un litige. Juger, c'est dire le droit, c'est-à-dire appliquer une règle de droit à un cas d'espèce. Mais c'est aussi reconstruire un lien social en prenant en compte les parties au litige. Pèse sur les épaules du juge une obligation d'impartialité et d'indépendance pour mener à bien ses missions. Or, l'intelligence artificielle pourrait remettre en cause la fonction de juger dès lors que le logiciel reproduit les biais cognitifs. Un biais cognitif C'est tout ce qui influence nos choix inconsciemment. Nous sommes tous le fruit de notre histoire, n'est-ce pas ? De nos fréquentations également, de nos parcours certainement d'un milieu social, d'expériences vécues ou de connaissances accumulées. Et face à l'inconnu et aux incertitudes, l'humain va se rattacher à ce qu'il connaît ou à sa propre expérience. Il va donc classer, faire des raccourcis, et tout cela va venir fausser sa décision. C'est ainsi que Tai Chat Bot... lancé en 2016 par Microsoft dans le but de discuter avec les humains sur les réseaux sociaux, a reproduit en quelques heures après son lancement les pires atrocités de notre histoire en tenant des propos misogynes, négationnistes et racistes. Pour le juge, l'intelligence artificielle peut être utilisée de plusieurs manières, pour aider à rendre une décision de justice, mais aussi pour lui permettre d'analyser ses propres décisions de manière rétrospective. Prenons un exemple. L'intelligence artificielle va révéler que Le juge condamne à une peine de prison ferme avec mandat de dépôt 80% des prévenus appartenant à un certain groupe social ou ethnique. Un autre découvrira qu'il relaxe la majorité des prévenus pour agression sexuelle alors que ses collègues ont des taux beaucoup plus bas que lui. L'auxiliaire de justice va donc devenir dépendant de la machine puisqu'il va vouloir rectifier les statistiques pour se conformer aux résultats de ses collègues, mais ensuite pour ne pas paraître trop sévère ou inversement trop laxiste. avec comme circonstance aggravante la pression populaire qui considère à tort que la justice est trop laxiste. Les juges pourraient succomber à la facilité en suivant les statistiques à la lettre pour se dédouaner de toute responsabilité morale. Alors on pourrait croire que c'est positif, car l'outil pourrait mettre fin aux discriminations, mais souvenez-vous que l'intelligence artificielle n'est pas neutre, elle est limitée. Les outils prédictifs sont programmés par des humains non juristes. Et la machine est incapable de contextualiser une décision ou la spécificité d'une zone géographique, ni de quantifier les sentiments. L'outil ne donne aucune information sur ses sources, ni comment il est parvenu à un résultat. Alors que la justice se veut plus transparente, pour ne pas succomber dans les tréfonds d'une méfiance populaire à l'égard de juges, l'intelligence artificielle est opaque. En conséquence, Ces logiciels pourraient figer la jurisprudence et mettre fin à l'aléa judiciaire par des solutions identiques malgré des situations différentes, en dévitalisant donc la fonction de juger pourtant si chère au magistrat Pierre Drey, qui disait que juger c'est aimer écouter, essayer de comprendre et vouloir décider. Quant à l'avocat, l'intelligence artificielle va lui permettre d'effectuer des recherches juridiques précises, d'être plus rapide et de pouvoir modéliser le contentieux afin de mieux orienter son client et de cibler les arguments qui ont le plus de chances de fonctionner devant une juridiction. L'intelligence artificielle présente l'avantage d'offrir une meilleure prévisibilité du contentieux dès lors qu'il répond aux exigences du justiciable qui se posent les questions suivantes. Vais-je gagner ? Quel est le coût ? Quelle est la durée de la procédure ? Un outil comme Kesslow Analytics propose d'afficher le contentieux en graphique et d'évaluer les risques dans un procès. L'outil estime que dans le cadre de divorce, La durée du mariage est prise en compte dans 60% des cas et que 70% des magistrats prennent en compte le revenu ou le patrimoine des époux. Ces éléments permettent d'affiner la stratégie contentieuse et c'est une bonne chose. Au jeu des prédictions, les éventualités sont nombreuses. Que se passera-t-il si les robots sont au service des humains ou s'ils les remplacent ? Portons donc un regard prédictif sur la question. Admettons que l'intelligence artificielle est au service de l'homme, c'est-à-dire qu'il n'est qu'un outil d'aide rationalisé, eh bien ce serait un bienfait. Je voudrais vous parler au futur, mais la justice utilise déjà des algorithmes, notamment avec DataJust, un logiciel qui... extrait de manière automatique les données contenues dans les décisions de justice sur l'indemnisation des préjudices corporels. On peut d'ores et déjà imaginer que l'intelligence artificielle sera étendue à toutes les phases d'une procédure, en partant de l'action en justice jusqu'au jugement. D'ailleurs, en Estonie, une intelligence artificielle tranche les petits litiges contractuels avec la supervision humaine. Les tâches répétitives et subsidiaires sont assurées par un logiciel L'humain peut alors se concentrer sur un travail plus technique et complexe. Avec un outil d'aide à la décision et de quantification des risques, la fonction d'administrer, de juger et de défendre se trouve augmentée par l'intelligence artificielle. Mais si l'intelligence artificielle devait se substituer à l'homme, alors la justice serait déshumanisée et le contentieux serait figé. Globalement, les magistrats se feraient rares dans un palais de justice Et les avocats n'auraient plus d'intérêt puisque le logiciel prédictif serait accessible directement au justiciable, moyennant un abonnement mensuel. La justice se rendrait depuis son canapé dans une forme d'ubérisation judiciaire. D'ailleurs, la fonction du magistrat se réduirait à des tâches simples, c'est-à-dire vérifier que la machine judiciaire n'a pas commis d'erreur, un peu à la manière d'un agent dans un supermarché qu'on appelle lorsque les caisses automatiques dysfonctionnent. Par un système de notation, Les algorithmes permettraient de noter chaque auxiliaire de justice, faisant ainsi de la justice une justice mécanique et mathématique. Dans le futur, l'opacité serait un problème, puisque si la justice se doit d'être transparente, les entreprises, elles, cachent leurs codes pour éviter que la concurrence s'en empare. En droit pénal, là où les enjeux sont bien plus importants, on basculerait vers l'horreur Big Brother. Le procès pénal se déroulerait de la façon suivante. Dès la phase d'enquête, l'outil prédictif est utilisé pour rechercher des coupables, avec l'utilisation de la biométrie, c'est-à-dire des techniques de reconnaissance automatique à partir de caractéristiques physiques, biologiques, voire comportementales. L'intelligence artificielle produit des preuves irréfragables, donnant naissance à une présomption de culpabilité. Le profilage, bien qu'interdit en France depuis 2019, devient une règle, car dans le futur, la sécurité est devenue la première des libertés. Dans cette gouvernance par les chiffres, l'outil est utilisé pour analyser les moyens de défense et les magistrats prennent des décisions grâce à l'algorithme. Ce n'est pas une fiction, c'est déjà une réalité puisqu'en 2016, Un juge américain a utilisé l'intelligence artificielle COUPAS pour évaluer le risque de récidive d'un prévenu et l'a condamné à 6 ans d'emprisonnement car le taux de récidive était élevé. Puisqu'il faut rendre justice rapidement dans un souci de performativité, le langage humain est totalement transformé. On s'exprime dans une sorte de novlangue algorithmique. La plaidoirie n'existe plus. Nous sommes passés en 30 ans à peine de 10 minutes pour plaider en comparution immédiate. À 30 secondes, juste de quoi prononcer un mot pour l'avocat transformé en ventriloque en robe noire. Relaxe dira-t-il d'un ton machinal. Pas le temps de se balader dans la salle des pas perdus. L'algorithme a déjà pris sa décision. Quatre ans d'emprisonnement ferme avec mandat de dépôt. Faut-il faire appel de la décision ? L'outil prédictif le déconseille vivement. Statistique à l'appui. Le client abdique. Le désengorgement des tribunaux n'est qu'une ambition dépassée. La justice est vidée de son essence et de toute substance. Entre la fiction et la réalité, il n'y a qu'un pas, puisqu'en France, la gendarmerie a utilisé à titre d'expérimentation Prêt-Paul en 2019 afin de prédire les cambriolages, ce qui démontre que le fantasme d'une justice prédictive est un risque réel. Des algorithmes sont utilisés dans des pays étrangers pour mener des enquêtes et la France utilisera bientôt la vidéosurveillance algorithmique lors des Jeux Olympiques. En réalité, la principale inquiétude concerne le manque d'encadrement juridique. L'Union européenne a fait un véritable pas en avant en adoptant pour la première fois de son histoire le règlement européen sur l'intelligence artificielle en mai 2024. Mais des questions se posent sur l'équilibre entre l'innovation et les droits fondamentaux. À quelles conditions peut-on accepter qu'un robot puisse opérer un patient, produire des preuves, qu'il juge injusticiable, qu'il le défende ou qu'il puisse tuer ? Déterminer un statut juridique pour l'intelligence artificielle ? n'a jamais été aussi urgent et vital. L'intelligence artificielle est une révolution aussi grande que la révolution industrielle. Les hommes font l'histoire, mais ils ne savent pas l'histoire qu'ils font, disait Raymond Aron. Et dans cette construction marquant l'histoire, la justice doit évoluer avec l'intelligence artificielle, sans compromettre les droits et libertés, sans succomber au fantasme d'une justice prédictive. L'association NovaDroit vous remercie pour votre écoute. Vous pouvez nous suivre sur nos réseaux sociaux dans la barre de description. N'hésitez pas à partager notre contenu si vous l'appréciez et en parler autour de vous. A bientôt !

Share

Embed

You may also like

Description

L’intelligence artificielle éveille les plus grands fantasmes humains, entre fascination et inquiétude. Et si elle changeait radicalement la justice telle que nous la connaissons ? Dans cet épisode captivant, Jérémy Florent se penche sur une question brûlante : l’intelligence artificielle est-elle un danger pour la justice ? Alors que certains voient en elle un gage d’efficacité, d’autres redoutent une déshumanisation de la Justice. Explorez les promesses et les menaces de l’IA pour la justice dans La Voix du Droit.


Découvrez Novadroits Podcasts, des podcasts originaux de l'association Novadroits spécialisée dans l'accès au droit et l'entraide étudiante. Dans l'émission La voix du droit, la jeunesse cesse de murmurer, elle prend la parole à voix haute !


Cet épisode a été conçu, réalisé et présenté par Jérémy Florent / Montage et Mixage du générique : Alice Krief, les belles fréquences.


@Novadroits

Novadroits.fr


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    L'association NovaDroit, spécialisée dans l'accès au droit et l'entraide étudiante, vous présente La Voix du Droit, un podcast original dans lequel la jeunesse s'exprime en toute liberté sous la forme d'un plaidoyer qui vulgarise le droit. Aujourd'hui... Jérémy Florent, président fondateur de l'association, répond à la question suivante. L'intelligence artificielle est-elle un danger pour la justice ? L'émergence de l'intelligence artificielle réactualise une prophétie lancinante et réveille les plus grands fantasmes humains. Entre peur et fascination, De nombreux observateurs prédisent la dénaturation de la justice et de ses valeurs. Les formules incantatoires pleuvent à foison sur la diabolisation de l'intelligence artificielle. D'un côté, la peur de l'évolution technologique, quasiment oraculaire, dans laquelle l'humain serait dépendant de la machine, comme l'homme pourrait dépendre de Dieu, ou tel l'oracle capable de prédire l'avenir. Pour d'autres, l'intelligence artificielle est une disruption numérique, une véritable révolution de la justice et de son mode de fonctionnement. Une précision est essentielle. Il n'y a rien de prédictif dans ce que certains appellent la justice prédictive, car nul ne peut prédire l'avenir, pas même les machines. En réalité, ce terme est un atout marketing alimenté par certaines entreprises ayant pour objectif de vendre un produit. Il est plus opportun de parler de justice digitale, de jurimétrie ou encore d'outils de quantification du risque et d'aide à la décision. L'intelligence artificielle se définit comme un logiciel développé au moyen de techniques dont l'objectif, défini par l'homme, génère des résultats tels que des contenus, des prédictions, des recommandations ou des décisions, influençant l'environnement avec lequel elle interagit. En résumé, c'est par l'utilisation de données passées que des algorithmes peuvent proposer un résultat statistique pour l'avenir, grâce à une méthode qui décompose la résolution d'un problème en une suite d'opérations élémentaires. un peu à la manière d'une recette de cuisine. Lorsque l'on parle de justice digitale, notre raisonnement ne peut qu'osciller entre la nécessité de moderniser la justice et les dangers d'une justice prédictive. L'emploi de l'intelligence artificielle est une impérieuse nécessité car c'est un besoin vital pour une justice friable. La justice traverse une crise de confiance et pour cause, seulement 53% des Français ont confiance en elle. et une majorité estime que son fonctionnement est défaillant. La lenteur des procédures provoquées par l'engorgement des tribunaux et le manque de moyens aggravent la situation. L'intelligence artificielle est envisagée comme une solution pour désengorger les tribunaux et promouvoir les modes alternatifs de règlement des litiges. En automatisant certaines tâches, l'intelligence artificielle permettrait aux auxiliaires de justice de se concentrer sur des tâches plus techniques, améliorant ainsi l'efficacité globale du système judiciaire. Cependant, la crise sanitaire du Covid-19 a mis en lumière les faiblesses technologiques de la justice, avec une institution paralysée et une précarité numérique chez les justiciables. La transition numérique de la justice est freinée par des logiciels obsolètes et inadaptés, tandis que l'électronisme affecte 15% de la population. C'est-à-dire qu'il y a 15% de la population française qui est incapable d'utiliser correctement les outils du numérique. Ce sont principalement les personnes âgées, les moins diplômés et celles aux revenus modestes. Alors que la justice cherche à se moderniser, il est crucial de ne pas marginaliser ses justiciables. Bien que l'intelligence artificielle puisse accélérer les procédures, il est essentiel de ne pas confondre rapidité et performance. La justice, après tout, est un mûrissement nécessaire pour rechercher la vérité et la paix sociale. La justice ne peut être réduite à une simple mécanique robotique Elle doit incarner une humanité vibrante et sensible. Les Legal Tech, ces entreprises du numérique, se sont emparées de l'intelligence artificielle, mais le résultat est encore perfectible. Il y a certes des innovations intéressantes. Aux États-Unis, par exemple, l'intelligence artificielle est utilisée depuis des années et l'IA Logix a affronté des avocats. Il fallait identifier des erreurs dans des contrats. L'algorithme a mis 26 secondes à les identifier. alors que les avocats ont mis plusieurs heures pour finir leur mission. Quant à ROS, un robot auto-apprenant doté de l'intelligence artificielle, il répond aux problématiques juridiques dans un cabinet d'avocats et effectue des recherches en quelques centièmes de seconde depuis 2016. Cependant, certains logiciels sont critiquables. En 2017, le président de la Cour d'appel de Douai a utilisé un logiciel dit prédictif au sein de sa juridiction, et le résultat fut négatif. L'outil est plus quantitatif que qualitatif, parfois les résultats sont aberrants, dira-t-il. Récemment, l'application e-Avocat, aujourd'hui e-Avenir, a fait polémique en France. en proposant un outil conversationnel capable de prodiguer un conseil juridique, moyennant un abonnement mensuel, afin de concurrencer les avocats. Là où un avocat mettrait un an, je mets une minute affirme le logiciel, suscitant un tollé chez les avocats, dénonçant un exercice illégal de la profession et des résultats peu fiables. L'office des professionnels du droit va être augmenté avec l'intelligence artificielle, mais les risques restent nombreux. Concernant les juges, Il convient de rappeler que juger ne se réduit pas à trancher un litige. Juger, c'est dire le droit, c'est-à-dire appliquer une règle de droit à un cas d'espèce. Mais c'est aussi reconstruire un lien social en prenant en compte les parties au litige. Pèse sur les épaules du juge une obligation d'impartialité et d'indépendance pour mener à bien ses missions. Or, l'intelligence artificielle pourrait remettre en cause la fonction de juger dès lors que le logiciel reproduit les biais cognitifs. Un biais cognitif C'est tout ce qui influence nos choix inconsciemment. Nous sommes tous le fruit de notre histoire, n'est-ce pas ? De nos fréquentations également, de nos parcours certainement d'un milieu social, d'expériences vécues ou de connaissances accumulées. Et face à l'inconnu et aux incertitudes, l'humain va se rattacher à ce qu'il connaît ou à sa propre expérience. Il va donc classer, faire des raccourcis, et tout cela va venir fausser sa décision. C'est ainsi que Tai Chat Bot... lancé en 2016 par Microsoft dans le but de discuter avec les humains sur les réseaux sociaux, a reproduit en quelques heures après son lancement les pires atrocités de notre histoire en tenant des propos misogynes, négationnistes et racistes. Pour le juge, l'intelligence artificielle peut être utilisée de plusieurs manières, pour aider à rendre une décision de justice, mais aussi pour lui permettre d'analyser ses propres décisions de manière rétrospective. Prenons un exemple. L'intelligence artificielle va révéler que Le juge condamne à une peine de prison ferme avec mandat de dépôt 80% des prévenus appartenant à un certain groupe social ou ethnique. Un autre découvrira qu'il relaxe la majorité des prévenus pour agression sexuelle alors que ses collègues ont des taux beaucoup plus bas que lui. L'auxiliaire de justice va donc devenir dépendant de la machine puisqu'il va vouloir rectifier les statistiques pour se conformer aux résultats de ses collègues, mais ensuite pour ne pas paraître trop sévère ou inversement trop laxiste. avec comme circonstance aggravante la pression populaire qui considère à tort que la justice est trop laxiste. Les juges pourraient succomber à la facilité en suivant les statistiques à la lettre pour se dédouaner de toute responsabilité morale. Alors on pourrait croire que c'est positif, car l'outil pourrait mettre fin aux discriminations, mais souvenez-vous que l'intelligence artificielle n'est pas neutre, elle est limitée. Les outils prédictifs sont programmés par des humains non juristes. Et la machine est incapable de contextualiser une décision ou la spécificité d'une zone géographique, ni de quantifier les sentiments. L'outil ne donne aucune information sur ses sources, ni comment il est parvenu à un résultat. Alors que la justice se veut plus transparente, pour ne pas succomber dans les tréfonds d'une méfiance populaire à l'égard de juges, l'intelligence artificielle est opaque. En conséquence, Ces logiciels pourraient figer la jurisprudence et mettre fin à l'aléa judiciaire par des solutions identiques malgré des situations différentes, en dévitalisant donc la fonction de juger pourtant si chère au magistrat Pierre Drey, qui disait que juger c'est aimer écouter, essayer de comprendre et vouloir décider. Quant à l'avocat, l'intelligence artificielle va lui permettre d'effectuer des recherches juridiques précises, d'être plus rapide et de pouvoir modéliser le contentieux afin de mieux orienter son client et de cibler les arguments qui ont le plus de chances de fonctionner devant une juridiction. L'intelligence artificielle présente l'avantage d'offrir une meilleure prévisibilité du contentieux dès lors qu'il répond aux exigences du justiciable qui se posent les questions suivantes. Vais-je gagner ? Quel est le coût ? Quelle est la durée de la procédure ? Un outil comme Kesslow Analytics propose d'afficher le contentieux en graphique et d'évaluer les risques dans un procès. L'outil estime que dans le cadre de divorce, La durée du mariage est prise en compte dans 60% des cas et que 70% des magistrats prennent en compte le revenu ou le patrimoine des époux. Ces éléments permettent d'affiner la stratégie contentieuse et c'est une bonne chose. Au jeu des prédictions, les éventualités sont nombreuses. Que se passera-t-il si les robots sont au service des humains ou s'ils les remplacent ? Portons donc un regard prédictif sur la question. Admettons que l'intelligence artificielle est au service de l'homme, c'est-à-dire qu'il n'est qu'un outil d'aide rationalisé, eh bien ce serait un bienfait. Je voudrais vous parler au futur, mais la justice utilise déjà des algorithmes, notamment avec DataJust, un logiciel qui... extrait de manière automatique les données contenues dans les décisions de justice sur l'indemnisation des préjudices corporels. On peut d'ores et déjà imaginer que l'intelligence artificielle sera étendue à toutes les phases d'une procédure, en partant de l'action en justice jusqu'au jugement. D'ailleurs, en Estonie, une intelligence artificielle tranche les petits litiges contractuels avec la supervision humaine. Les tâches répétitives et subsidiaires sont assurées par un logiciel L'humain peut alors se concentrer sur un travail plus technique et complexe. Avec un outil d'aide à la décision et de quantification des risques, la fonction d'administrer, de juger et de défendre se trouve augmentée par l'intelligence artificielle. Mais si l'intelligence artificielle devait se substituer à l'homme, alors la justice serait déshumanisée et le contentieux serait figé. Globalement, les magistrats se feraient rares dans un palais de justice Et les avocats n'auraient plus d'intérêt puisque le logiciel prédictif serait accessible directement au justiciable, moyennant un abonnement mensuel. La justice se rendrait depuis son canapé dans une forme d'ubérisation judiciaire. D'ailleurs, la fonction du magistrat se réduirait à des tâches simples, c'est-à-dire vérifier que la machine judiciaire n'a pas commis d'erreur, un peu à la manière d'un agent dans un supermarché qu'on appelle lorsque les caisses automatiques dysfonctionnent. Par un système de notation, Les algorithmes permettraient de noter chaque auxiliaire de justice, faisant ainsi de la justice une justice mécanique et mathématique. Dans le futur, l'opacité serait un problème, puisque si la justice se doit d'être transparente, les entreprises, elles, cachent leurs codes pour éviter que la concurrence s'en empare. En droit pénal, là où les enjeux sont bien plus importants, on basculerait vers l'horreur Big Brother. Le procès pénal se déroulerait de la façon suivante. Dès la phase d'enquête, l'outil prédictif est utilisé pour rechercher des coupables, avec l'utilisation de la biométrie, c'est-à-dire des techniques de reconnaissance automatique à partir de caractéristiques physiques, biologiques, voire comportementales. L'intelligence artificielle produit des preuves irréfragables, donnant naissance à une présomption de culpabilité. Le profilage, bien qu'interdit en France depuis 2019, devient une règle, car dans le futur, la sécurité est devenue la première des libertés. Dans cette gouvernance par les chiffres, l'outil est utilisé pour analyser les moyens de défense et les magistrats prennent des décisions grâce à l'algorithme. Ce n'est pas une fiction, c'est déjà une réalité puisqu'en 2016, Un juge américain a utilisé l'intelligence artificielle COUPAS pour évaluer le risque de récidive d'un prévenu et l'a condamné à 6 ans d'emprisonnement car le taux de récidive était élevé. Puisqu'il faut rendre justice rapidement dans un souci de performativité, le langage humain est totalement transformé. On s'exprime dans une sorte de novlangue algorithmique. La plaidoirie n'existe plus. Nous sommes passés en 30 ans à peine de 10 minutes pour plaider en comparution immédiate. À 30 secondes, juste de quoi prononcer un mot pour l'avocat transformé en ventriloque en robe noire. Relaxe dira-t-il d'un ton machinal. Pas le temps de se balader dans la salle des pas perdus. L'algorithme a déjà pris sa décision. Quatre ans d'emprisonnement ferme avec mandat de dépôt. Faut-il faire appel de la décision ? L'outil prédictif le déconseille vivement. Statistique à l'appui. Le client abdique. Le désengorgement des tribunaux n'est qu'une ambition dépassée. La justice est vidée de son essence et de toute substance. Entre la fiction et la réalité, il n'y a qu'un pas, puisqu'en France, la gendarmerie a utilisé à titre d'expérimentation Prêt-Paul en 2019 afin de prédire les cambriolages, ce qui démontre que le fantasme d'une justice prédictive est un risque réel. Des algorithmes sont utilisés dans des pays étrangers pour mener des enquêtes et la France utilisera bientôt la vidéosurveillance algorithmique lors des Jeux Olympiques. En réalité, la principale inquiétude concerne le manque d'encadrement juridique. L'Union européenne a fait un véritable pas en avant en adoptant pour la première fois de son histoire le règlement européen sur l'intelligence artificielle en mai 2024. Mais des questions se posent sur l'équilibre entre l'innovation et les droits fondamentaux. À quelles conditions peut-on accepter qu'un robot puisse opérer un patient, produire des preuves, qu'il juge injusticiable, qu'il le défende ou qu'il puisse tuer ? Déterminer un statut juridique pour l'intelligence artificielle ? n'a jamais été aussi urgent et vital. L'intelligence artificielle est une révolution aussi grande que la révolution industrielle. Les hommes font l'histoire, mais ils ne savent pas l'histoire qu'ils font, disait Raymond Aron. Et dans cette construction marquant l'histoire, la justice doit évoluer avec l'intelligence artificielle, sans compromettre les droits et libertés, sans succomber au fantasme d'une justice prédictive. L'association NovaDroit vous remercie pour votre écoute. Vous pouvez nous suivre sur nos réseaux sociaux dans la barre de description. N'hésitez pas à partager notre contenu si vous l'appréciez et en parler autour de vous. A bientôt !

Description

L’intelligence artificielle éveille les plus grands fantasmes humains, entre fascination et inquiétude. Et si elle changeait radicalement la justice telle que nous la connaissons ? Dans cet épisode captivant, Jérémy Florent se penche sur une question brûlante : l’intelligence artificielle est-elle un danger pour la justice ? Alors que certains voient en elle un gage d’efficacité, d’autres redoutent une déshumanisation de la Justice. Explorez les promesses et les menaces de l’IA pour la justice dans La Voix du Droit.


Découvrez Novadroits Podcasts, des podcasts originaux de l'association Novadroits spécialisée dans l'accès au droit et l'entraide étudiante. Dans l'émission La voix du droit, la jeunesse cesse de murmurer, elle prend la parole à voix haute !


Cet épisode a été conçu, réalisé et présenté par Jérémy Florent / Montage et Mixage du générique : Alice Krief, les belles fréquences.


@Novadroits

Novadroits.fr


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    L'association NovaDroit, spécialisée dans l'accès au droit et l'entraide étudiante, vous présente La Voix du Droit, un podcast original dans lequel la jeunesse s'exprime en toute liberté sous la forme d'un plaidoyer qui vulgarise le droit. Aujourd'hui... Jérémy Florent, président fondateur de l'association, répond à la question suivante. L'intelligence artificielle est-elle un danger pour la justice ? L'émergence de l'intelligence artificielle réactualise une prophétie lancinante et réveille les plus grands fantasmes humains. Entre peur et fascination, De nombreux observateurs prédisent la dénaturation de la justice et de ses valeurs. Les formules incantatoires pleuvent à foison sur la diabolisation de l'intelligence artificielle. D'un côté, la peur de l'évolution technologique, quasiment oraculaire, dans laquelle l'humain serait dépendant de la machine, comme l'homme pourrait dépendre de Dieu, ou tel l'oracle capable de prédire l'avenir. Pour d'autres, l'intelligence artificielle est une disruption numérique, une véritable révolution de la justice et de son mode de fonctionnement. Une précision est essentielle. Il n'y a rien de prédictif dans ce que certains appellent la justice prédictive, car nul ne peut prédire l'avenir, pas même les machines. En réalité, ce terme est un atout marketing alimenté par certaines entreprises ayant pour objectif de vendre un produit. Il est plus opportun de parler de justice digitale, de jurimétrie ou encore d'outils de quantification du risque et d'aide à la décision. L'intelligence artificielle se définit comme un logiciel développé au moyen de techniques dont l'objectif, défini par l'homme, génère des résultats tels que des contenus, des prédictions, des recommandations ou des décisions, influençant l'environnement avec lequel elle interagit. En résumé, c'est par l'utilisation de données passées que des algorithmes peuvent proposer un résultat statistique pour l'avenir, grâce à une méthode qui décompose la résolution d'un problème en une suite d'opérations élémentaires. un peu à la manière d'une recette de cuisine. Lorsque l'on parle de justice digitale, notre raisonnement ne peut qu'osciller entre la nécessité de moderniser la justice et les dangers d'une justice prédictive. L'emploi de l'intelligence artificielle est une impérieuse nécessité car c'est un besoin vital pour une justice friable. La justice traverse une crise de confiance et pour cause, seulement 53% des Français ont confiance en elle. et une majorité estime que son fonctionnement est défaillant. La lenteur des procédures provoquées par l'engorgement des tribunaux et le manque de moyens aggravent la situation. L'intelligence artificielle est envisagée comme une solution pour désengorger les tribunaux et promouvoir les modes alternatifs de règlement des litiges. En automatisant certaines tâches, l'intelligence artificielle permettrait aux auxiliaires de justice de se concentrer sur des tâches plus techniques, améliorant ainsi l'efficacité globale du système judiciaire. Cependant, la crise sanitaire du Covid-19 a mis en lumière les faiblesses technologiques de la justice, avec une institution paralysée et une précarité numérique chez les justiciables. La transition numérique de la justice est freinée par des logiciels obsolètes et inadaptés, tandis que l'électronisme affecte 15% de la population. C'est-à-dire qu'il y a 15% de la population française qui est incapable d'utiliser correctement les outils du numérique. Ce sont principalement les personnes âgées, les moins diplômés et celles aux revenus modestes. Alors que la justice cherche à se moderniser, il est crucial de ne pas marginaliser ses justiciables. Bien que l'intelligence artificielle puisse accélérer les procédures, il est essentiel de ne pas confondre rapidité et performance. La justice, après tout, est un mûrissement nécessaire pour rechercher la vérité et la paix sociale. La justice ne peut être réduite à une simple mécanique robotique Elle doit incarner une humanité vibrante et sensible. Les Legal Tech, ces entreprises du numérique, se sont emparées de l'intelligence artificielle, mais le résultat est encore perfectible. Il y a certes des innovations intéressantes. Aux États-Unis, par exemple, l'intelligence artificielle est utilisée depuis des années et l'IA Logix a affronté des avocats. Il fallait identifier des erreurs dans des contrats. L'algorithme a mis 26 secondes à les identifier. alors que les avocats ont mis plusieurs heures pour finir leur mission. Quant à ROS, un robot auto-apprenant doté de l'intelligence artificielle, il répond aux problématiques juridiques dans un cabinet d'avocats et effectue des recherches en quelques centièmes de seconde depuis 2016. Cependant, certains logiciels sont critiquables. En 2017, le président de la Cour d'appel de Douai a utilisé un logiciel dit prédictif au sein de sa juridiction, et le résultat fut négatif. L'outil est plus quantitatif que qualitatif, parfois les résultats sont aberrants, dira-t-il. Récemment, l'application e-Avocat, aujourd'hui e-Avenir, a fait polémique en France. en proposant un outil conversationnel capable de prodiguer un conseil juridique, moyennant un abonnement mensuel, afin de concurrencer les avocats. Là où un avocat mettrait un an, je mets une minute affirme le logiciel, suscitant un tollé chez les avocats, dénonçant un exercice illégal de la profession et des résultats peu fiables. L'office des professionnels du droit va être augmenté avec l'intelligence artificielle, mais les risques restent nombreux. Concernant les juges, Il convient de rappeler que juger ne se réduit pas à trancher un litige. Juger, c'est dire le droit, c'est-à-dire appliquer une règle de droit à un cas d'espèce. Mais c'est aussi reconstruire un lien social en prenant en compte les parties au litige. Pèse sur les épaules du juge une obligation d'impartialité et d'indépendance pour mener à bien ses missions. Or, l'intelligence artificielle pourrait remettre en cause la fonction de juger dès lors que le logiciel reproduit les biais cognitifs. Un biais cognitif C'est tout ce qui influence nos choix inconsciemment. Nous sommes tous le fruit de notre histoire, n'est-ce pas ? De nos fréquentations également, de nos parcours certainement d'un milieu social, d'expériences vécues ou de connaissances accumulées. Et face à l'inconnu et aux incertitudes, l'humain va se rattacher à ce qu'il connaît ou à sa propre expérience. Il va donc classer, faire des raccourcis, et tout cela va venir fausser sa décision. C'est ainsi que Tai Chat Bot... lancé en 2016 par Microsoft dans le but de discuter avec les humains sur les réseaux sociaux, a reproduit en quelques heures après son lancement les pires atrocités de notre histoire en tenant des propos misogynes, négationnistes et racistes. Pour le juge, l'intelligence artificielle peut être utilisée de plusieurs manières, pour aider à rendre une décision de justice, mais aussi pour lui permettre d'analyser ses propres décisions de manière rétrospective. Prenons un exemple. L'intelligence artificielle va révéler que Le juge condamne à une peine de prison ferme avec mandat de dépôt 80% des prévenus appartenant à un certain groupe social ou ethnique. Un autre découvrira qu'il relaxe la majorité des prévenus pour agression sexuelle alors que ses collègues ont des taux beaucoup plus bas que lui. L'auxiliaire de justice va donc devenir dépendant de la machine puisqu'il va vouloir rectifier les statistiques pour se conformer aux résultats de ses collègues, mais ensuite pour ne pas paraître trop sévère ou inversement trop laxiste. avec comme circonstance aggravante la pression populaire qui considère à tort que la justice est trop laxiste. Les juges pourraient succomber à la facilité en suivant les statistiques à la lettre pour se dédouaner de toute responsabilité morale. Alors on pourrait croire que c'est positif, car l'outil pourrait mettre fin aux discriminations, mais souvenez-vous que l'intelligence artificielle n'est pas neutre, elle est limitée. Les outils prédictifs sont programmés par des humains non juristes. Et la machine est incapable de contextualiser une décision ou la spécificité d'une zone géographique, ni de quantifier les sentiments. L'outil ne donne aucune information sur ses sources, ni comment il est parvenu à un résultat. Alors que la justice se veut plus transparente, pour ne pas succomber dans les tréfonds d'une méfiance populaire à l'égard de juges, l'intelligence artificielle est opaque. En conséquence, Ces logiciels pourraient figer la jurisprudence et mettre fin à l'aléa judiciaire par des solutions identiques malgré des situations différentes, en dévitalisant donc la fonction de juger pourtant si chère au magistrat Pierre Drey, qui disait que juger c'est aimer écouter, essayer de comprendre et vouloir décider. Quant à l'avocat, l'intelligence artificielle va lui permettre d'effectuer des recherches juridiques précises, d'être plus rapide et de pouvoir modéliser le contentieux afin de mieux orienter son client et de cibler les arguments qui ont le plus de chances de fonctionner devant une juridiction. L'intelligence artificielle présente l'avantage d'offrir une meilleure prévisibilité du contentieux dès lors qu'il répond aux exigences du justiciable qui se posent les questions suivantes. Vais-je gagner ? Quel est le coût ? Quelle est la durée de la procédure ? Un outil comme Kesslow Analytics propose d'afficher le contentieux en graphique et d'évaluer les risques dans un procès. L'outil estime que dans le cadre de divorce, La durée du mariage est prise en compte dans 60% des cas et que 70% des magistrats prennent en compte le revenu ou le patrimoine des époux. Ces éléments permettent d'affiner la stratégie contentieuse et c'est une bonne chose. Au jeu des prédictions, les éventualités sont nombreuses. Que se passera-t-il si les robots sont au service des humains ou s'ils les remplacent ? Portons donc un regard prédictif sur la question. Admettons que l'intelligence artificielle est au service de l'homme, c'est-à-dire qu'il n'est qu'un outil d'aide rationalisé, eh bien ce serait un bienfait. Je voudrais vous parler au futur, mais la justice utilise déjà des algorithmes, notamment avec DataJust, un logiciel qui... extrait de manière automatique les données contenues dans les décisions de justice sur l'indemnisation des préjudices corporels. On peut d'ores et déjà imaginer que l'intelligence artificielle sera étendue à toutes les phases d'une procédure, en partant de l'action en justice jusqu'au jugement. D'ailleurs, en Estonie, une intelligence artificielle tranche les petits litiges contractuels avec la supervision humaine. Les tâches répétitives et subsidiaires sont assurées par un logiciel L'humain peut alors se concentrer sur un travail plus technique et complexe. Avec un outil d'aide à la décision et de quantification des risques, la fonction d'administrer, de juger et de défendre se trouve augmentée par l'intelligence artificielle. Mais si l'intelligence artificielle devait se substituer à l'homme, alors la justice serait déshumanisée et le contentieux serait figé. Globalement, les magistrats se feraient rares dans un palais de justice Et les avocats n'auraient plus d'intérêt puisque le logiciel prédictif serait accessible directement au justiciable, moyennant un abonnement mensuel. La justice se rendrait depuis son canapé dans une forme d'ubérisation judiciaire. D'ailleurs, la fonction du magistrat se réduirait à des tâches simples, c'est-à-dire vérifier que la machine judiciaire n'a pas commis d'erreur, un peu à la manière d'un agent dans un supermarché qu'on appelle lorsque les caisses automatiques dysfonctionnent. Par un système de notation, Les algorithmes permettraient de noter chaque auxiliaire de justice, faisant ainsi de la justice une justice mécanique et mathématique. Dans le futur, l'opacité serait un problème, puisque si la justice se doit d'être transparente, les entreprises, elles, cachent leurs codes pour éviter que la concurrence s'en empare. En droit pénal, là où les enjeux sont bien plus importants, on basculerait vers l'horreur Big Brother. Le procès pénal se déroulerait de la façon suivante. Dès la phase d'enquête, l'outil prédictif est utilisé pour rechercher des coupables, avec l'utilisation de la biométrie, c'est-à-dire des techniques de reconnaissance automatique à partir de caractéristiques physiques, biologiques, voire comportementales. L'intelligence artificielle produit des preuves irréfragables, donnant naissance à une présomption de culpabilité. Le profilage, bien qu'interdit en France depuis 2019, devient une règle, car dans le futur, la sécurité est devenue la première des libertés. Dans cette gouvernance par les chiffres, l'outil est utilisé pour analyser les moyens de défense et les magistrats prennent des décisions grâce à l'algorithme. Ce n'est pas une fiction, c'est déjà une réalité puisqu'en 2016, Un juge américain a utilisé l'intelligence artificielle COUPAS pour évaluer le risque de récidive d'un prévenu et l'a condamné à 6 ans d'emprisonnement car le taux de récidive était élevé. Puisqu'il faut rendre justice rapidement dans un souci de performativité, le langage humain est totalement transformé. On s'exprime dans une sorte de novlangue algorithmique. La plaidoirie n'existe plus. Nous sommes passés en 30 ans à peine de 10 minutes pour plaider en comparution immédiate. À 30 secondes, juste de quoi prononcer un mot pour l'avocat transformé en ventriloque en robe noire. Relaxe dira-t-il d'un ton machinal. Pas le temps de se balader dans la salle des pas perdus. L'algorithme a déjà pris sa décision. Quatre ans d'emprisonnement ferme avec mandat de dépôt. Faut-il faire appel de la décision ? L'outil prédictif le déconseille vivement. Statistique à l'appui. Le client abdique. Le désengorgement des tribunaux n'est qu'une ambition dépassée. La justice est vidée de son essence et de toute substance. Entre la fiction et la réalité, il n'y a qu'un pas, puisqu'en France, la gendarmerie a utilisé à titre d'expérimentation Prêt-Paul en 2019 afin de prédire les cambriolages, ce qui démontre que le fantasme d'une justice prédictive est un risque réel. Des algorithmes sont utilisés dans des pays étrangers pour mener des enquêtes et la France utilisera bientôt la vidéosurveillance algorithmique lors des Jeux Olympiques. En réalité, la principale inquiétude concerne le manque d'encadrement juridique. L'Union européenne a fait un véritable pas en avant en adoptant pour la première fois de son histoire le règlement européen sur l'intelligence artificielle en mai 2024. Mais des questions se posent sur l'équilibre entre l'innovation et les droits fondamentaux. À quelles conditions peut-on accepter qu'un robot puisse opérer un patient, produire des preuves, qu'il juge injusticiable, qu'il le défende ou qu'il puisse tuer ? Déterminer un statut juridique pour l'intelligence artificielle ? n'a jamais été aussi urgent et vital. L'intelligence artificielle est une révolution aussi grande que la révolution industrielle. Les hommes font l'histoire, mais ils ne savent pas l'histoire qu'ils font, disait Raymond Aron. Et dans cette construction marquant l'histoire, la justice doit évoluer avec l'intelligence artificielle, sans compromettre les droits et libertés, sans succomber au fantasme d'une justice prédictive. L'association NovaDroit vous remercie pour votre écoute. Vous pouvez nous suivre sur nos réseaux sociaux dans la barre de description. N'hésitez pas à partager notre contenu si vous l'appréciez et en parler autour de vous. A bientôt !

Share

Embed

You may also like