Speaker #0Et la troisième chose, c'est le conseil au sens moins défini du terme, tout ma présence aujourd'hui. Mise en bouche, un petit rappel historique pour situer les choses. Physique quantique, physique de l'infiniment petit, début 20e, Einstein, Planck, Schrödinger, tous ces noms. Je passe, vous avez vu le film récemment sur la bombe atomique, vous avez vu passer tous ces noms. J'avance vite. On avance de 30, 40, 50 ans. On arrive au milieu, milieu 20e. On parle de la première révolution quantique avec les technologies qui s'y ramènent. C'est quoi ? C'est le laser, c'est le transistor. Pour comprendre comment fonctionne un laser, comprendre comment fonctionne un transistor, vous avez besoin des équations de la physique quantique. Donc, technologie dite de la première révolution quantique. Très intéressant, mais ce n'est pas le sujet du jour. Le sujet du jour, ça va être ce qu'on appelle désormais les technologies de la deuxième révolution quantique. Qu'est-ce qui s'est passé entre 1950-60 et aujourd'hui ? Il s'est passé qu'en termes d'ingénierie, on a énormément progressé et on arrive désormais à manipuler des systèmes quantiques individuels. C'est-à-dire qu'on arrive à manipuler un atome à la fois, un électron à la fois, un photon à la fois, etc. Ce qui n'était pas le cas précédemment. Dans un laser, dans un transistor, on manipule des milliards et des milliards d'électrons ou des milliards et des milliards d'atomes de manière simultanée, non pas de manière individuelle. Quand on arrive à un niveau de contrôle aussi fin, on a accès à tout un tas de propriétés supplémentaires de la matière et de la lumière qu'on n'avait pas accès précédemment, qu'on appelle, j'en parlerai après, la superposition d'états, l'intrication, c'est-à-dire la corrélation entre particules, système quantique, et la notion d'interférence également entre système quantique. Et avec ces propriétés de superposition, d'intrication, d'interférence, on peut faire trois types de technologies. On peut faire du calcul, donc les fameux ordinateurs quantiques, qui vont être le gros du sujet de la journée, donc du calcul plus rapide. On peut faire de la cryptographie de manière beaucoup plus sécure qu'on fait traditionnellement. C'est le domaine de la cryptographie quantique, ça s'appelle encore la communication quantique. Et les systèmes quantiques, c'est un peu comme des grains de poussière, c'est extrêmement sensible à la moindre perturbation extérieure, donc on peut faire également des très bons capteurs avec ça. C'est le domaine de la métrologie, encore des capteurs quantiques, on a le quantum sensing. Donc plus rapide, plus sécure, plus précis, pour faire simple. Donc ça, ce sont ce qu'on appelle les technologies de la deuxième révolution quantique. 1990, je vais dire à aujourd'hui. Donc, moi, je vais plutôt vous parler aujourd'hui de crypto, un petit peu, et de calcul quantique, beaucoup. Donc, pour parler dans un premier temps des cas d'usage des calculateurs quantiques, de quoi on parle, on va retrouver aujourd'hui, je vais dire, tous les sujets industriels pour lesquels on a aujourd'hui recours à du calcul haute performance, c'est-à-dire les sujets où on a des problèmes de maths, très difficiles à résoudre à grande échelle. Donc si je classifie rapidement, ça regroupe quoi ? Le machine learning, certains problèmes, la simulation et l'optimisation. Donc essentiellement, les problèmes qu'on va retrouver, ça va être en chimie, en pharmacologie, tout ce qui est étude des structures électroniques des molécules, ce qu'on appelle encore la simulation des molécules. Donc là, il faut avoir recours à un ordinateur quantique à l'échelle, pourquoi est-ce que la molécule est quantique ? Donc c'est un cas d'usage natif. Voilà un exemple en finance de marché tout ce qui va être optimisation de portefeuille, estimation de risque, optimisation de flux logistique entre autres, étude de réaction chimique dans les batteries, donc ça c'est à nouveau de la science des matériaux, pléthore de cas d'usage dans le secteur de l'industrie des biens manufacturés et enfin secteur de l'énergie tout ce qui est optimisation de réseaux de distribution énergétique et autres donc c'est l'optimisation de graphes essentiellement. Donc, je vais dire, ça regroupe, ça va taper dans toutes les industries, mais sur des sujets extrêmement précis, des sujets de niche, mais à très forte valeur ajoutée. Je prends un exemple. Je prends l'optimisation de portefeuille. L'optimisation de portefeuille aujourd'hui, en termes de méthode, c'est toujours un trade-off, les mondes viennent facilement, entre estimation du risque et vitesse d'investissement, les marchés financiers. Donc il faut arriver à estimer le risque. Donc aujourd'hui, quand on fait de l'optimisation de portefeuille, derrière en maths, on a ce qu'on appelle les méthodes de Monte Carlo. Méthode de Monte Carlo, c'est des simulations. On va tester plein de scénarios différents. On va regarder la simulation, comment elle évolue dans le temps. Et on va se caler sur le scénario moyen. Méthode de Monte Carlo, vous voulez faire un x10 sur la précision, vous faites un x100 sur le temps de calcul. En informatique quantique, on peut faire du Monte Carlo également, mais avec une vitesse beaucoup plus rapide que du Monte Carlo traditionnel. Je prends un autre exemple. Vous voulez faire de l'assurance ? Vous voulez faire du credit scoring, par exemple. Vous voulez mettre une note à des clients en fonction de leur capacité de recouvrement d'un crédit, des choses comme ça. Derrière, c'est du machine learning, ce problème de classification. Quelle note je vais mettre au client ? Des boîtes comme Crédit Agricole en France ont déjà travaillé avec des acteurs de l'industrie quantique, une boîte française qui s'appelle Pascal, sur des cas d'usage comme ça. et ils ont montré une amélioration de la précision à défaut de vitesse pour l'instant en 2023, 2024 maintenant, mais déjà une amélioration de la précision de leur algorithme de classification. Au-delà de ça, l'informatique quantique, vous avez forcément entendu parler, ça va impacter à terme également la cybersécurité, la cryptographie. Je ne vais pas vous faire un cours de cryptographie aujourd'hui, ce n'est pas le propos, puis on n'a pas le temps, mais rapidement la menace, où est-ce qu'elle se situe ? Quand vous faites de la crypto, vous avez des fonctions, c'est-à-dire ce qu'on cherche à faire, l'échange de clés, du chiffrement, de la signature, et vous avez des outils, des primitives, comme on appelle ça en crypto, pour y parvenir, donc faire des fonctions de hashing, comme en blockchain, de la crypto symétrique et asymétrique. Pour faire vraiment rapide, qu'est-ce qui est menacé et qu'est-ce qui ne l'est pas ? le hashing et la cryptosymétrique n'est pas réellement menacé par l'informatique quantique. Parce que l'accélération qu'amènent les ordinateurs quantiques sur les problèmes sous-jacents n'est pas une accélération réellement significative. Donc on rallonge un peu la taille des clés pour la cryptosymétrique, on rallonge un peu la taille des outputs pour les fonctions de hashing, et ça suffit. En revanche, pour l'asymétrique, l'accélération des ordinateurs quantiques, la plupart du temps, c'est-à-dire 99% de ce qui est utilisé aujourd'hui, on va avoir une accélération qui va être qualifiée d'exponentielle. C'est-à-dire que vous rallongez la taille de clé, vous la doublez, vous la quadruplez, vous lui faites un fois mille, ça ne sert à rien. Donc des systèmes comme HTTPS, ça repose sur de la factorisation, des problèmes comme ça, comme des courbes elliptiques sur la blockchain, ça vous parle, c'est des problèmes qui sont obsolètes vis-à-vis de l'ordinateur quantique. Donc la menace se situe surtout sur la crypto dite asymétrique. Ce que j'ai remis ici, donc j'avance. Maintenant, on n'est pas complètement démuni par rapport à cette menace. Il y a des solutions. Il y a deux types de solutions. La première famille catégorie de solutions, c'est ce qu'on appelle la cryptographie post-quantique. Il y a le mot quantique, mais il n'y a rien de quantique dans cette solution. C'est une solution tout à fait traditionnelle, conventionnelle. On appelle encore ça, je trouve que ça n'est plus parlant, des algorithmes résistants au quantique. Il faut savoir qu'en mathématiques, il y a des problèmes de maths qui sont difficiles pour votre machine. mais qui vont être extrêmement simples pour l'ordinateur quantique. Donc ça, c'est les problèmes qu'il ne faut plus utiliser, comme la factorisation par exemple. Mais il y a des problèmes de maths qui sont difficiles, même pour un ordinateur quantique. Donc l'idée de la cryptographie dite post-quantique, c'est d'aller s'appuyer sur ces problèmes-là pour faire le lien entre une clé publique et une clé privée. Donc ce ne sera plus de la factorisation, mais ce sera d'autres types de problèmes qui sont durs, même pour l'ordinateur quantique. Et ces approches-là... ont été déjà, c'est toujours en cours, par des nouveaux standards, mais il y a déjà eu des algorithmes de ce type-là qui ont été standardisés par un institut américain qui s'appelle le NIST, vous connaissez le nom. Le NIST a standardisé déjà quatre algos du poste quantique. Et aux États-Unis, il y a une deadline, c'est 2030. Il faut que les acteurs du logiciel aient fait la transition vers ces approches-là. Donc plus de factorisation, ça s'appelle encore du RSA, n'est-ce pas ? Donc plus d'algos type RSA, mais on va aller vers ce type de choses-là. Donc ça c'est standardisé. Bon, plein de problèmes sous-jacents, des clés plus longues, plus de processus, je ne rentre pas dans les détails. Donc ça c'est la cryptographie post-quantique, c'est une approche plutôt software en termes de solution. Donc relativement entre guillemets simple à implémenter, je ne dis pas que c'est simple, mais ça reste sur la couche logicielle. Donc c'est plutôt un upgrade. À côté de ça, vous avez autre chose qui s'appelle la QKD, pour Quantum Key Distribution. Donc là, c'est l'idée cette fois-ci d'utiliser de la physique quantique pour échanger des clés de chiffrement. Et des clés de chiffrement, c'est cette fois-ci des clés privées. Quand vous faites du chiffrement, je reviens deux secondes en arrière, je vais passer un peu vite tout à l'heure, le chiffrement aujourd'hui se fait exclusivement de manière asymétrique, parce qu'on n'a pas de canal sécurisé pour échanger des clés de manière symétrique. Donc le chiffrement aujourd'hui c'est absolument asymétrique. La physique quantique là-dedans elle va vous amener quoi ? Elle va vous amener un canal sécurisé que vous n'aviez pas précédemment pour faire de l'échange de clés de manière symétrique. et la sécurité est garantie par les lois de la physique quantique. C'est-à-dire que ce n'est pas de la sécurité qui va reposer sur de la puissance de calcul. Donc même si votre opposant a un ordinateur quantique à large échelle, il ne pourra pas s'en servir, ça ne lui amenera aucun avantage pour gagner de l'information sur la clé que vous allez changer. Dans les grandes lignes, comment ça marche ? On envoie des photons un par un dans une fibre optique, par exemple. Donc on a l'échelle du photon unique, on est bien dans le domaine de la physique quantique à ces échelles-là. On va encoder des 1 et des 0 sur ces photons, par exemple par leur polarisation. Un photon cocile comme ça, c'est un 0, comme ça c'est un 1. Et ces systèmes, c'est des photons uniques, c'est très fragile, c'est comme des grains de poussière, je disais tout à l'heure. Si un espion cherche à acquérir de l'information sur la clé qui transite via la fibre, il va entre guillemets, je ne rentre pas dans les détails, mais perturber l'état des photons. Avec un peu de post-processing, on peut voir rapidement s'il y a eu perturbation ou pas perturbation, et donc savoir si la clé qu'on a transmise est bien une clé privée ou pas. Si elle est privée, on l'utilise pour ensuite chiffrer de manière traditionnelle. En revanche, si elle a été altérée, si elle a été écoutée, cette clé, elle n'est pas privée, on ne l'utilise pas, on en refait une nouvelle. Et c'est de la sécurité qu'on qualifie de inconditionnelle. cette fois-ci. C'est un niveau de sécurité, je vais dire, entre guillemets, ultime. Par contre, le bottleneck... C'est quoi ? C'est qu'il faut une infrastructure dédiée. Il faut une fibre optique spéciale dans laquelle transitent ces photons uniques. Je peux passer dans la fibre optique où il y a déjà mon signal haute intensité qui amène l'Internet chez moi, ce n'est pas possible. Il faut une source de photons qui arrive à émettre un photon à la fois. Il faut des détecteurs qui arrivent à détecter un photon à la fois. Donc c'est vraiment une approche beaucoup plus physique, pas même complètement physique. Donc c'est un réseau par-dessus le réseau en quelque sorte. Et je ne rentre pas dans les détails, mais le problème de distance d'échange, de débit, plutôt faible. Donc ce n'est pas une solution, je vais dire, pour les masses. C'est une solution sur des problèmes extrêmement spécifiques. Peut-être sécurisation de certaines nucléaires, appel entre chefs d'État, peut-être des choses comme ça. pour le grand public, je vais dire, pour les gens un peu en bout de chaîne d'une architecture, plutôt de la cryptographie post-quantique. Et les agences de cybersécurité, elles poussent plutôt justement dans cette direction, pour l'adoption de la crypto post-quantique, et garder ce qu'on appelle la QKD, plutôt pour des applications vraiment de niche, où il faut un niveau de sécurité encore peut-être plus abouti que ce qu'on a au-dessus. parce que dans les fibres il y a de l'absorption en physique quantique je ne vais pas rentrer dans ce type de détail mais on ne peut pas amplifier un signal pour des limitations fondamentales on ne peut pas amplifier du coup quand une fibre absorbe du signal 5% au kilomètre typiquement c'est complètement perdu, on ne peut pas réamplifier en quantique donc l'avantage de passer par un satellite c'est que dans l'espace il n'y a pas d'absorption et donc sur des plus grandes distances dans les chaînes métropolitaines par fibre, ville à ville, plutôt par satellite et là en Europe pour la petite histoire puisque tu parles de ça il y a un projet similaire qui s'appelle le projet EuroQCI, dont on a parlé l'autre fois dans la table ronde, qui consiste à déployer un réseau quantique de communication, donc ça c'est de l'NKD, à l'échelle continentale, donc plutôt par fibre à l'échelle nationale, par satellite d'un pays à un autre. Donc ça c'est en cours de déploiement, c'est un projet européen, qui regroupe des industriels, des académiques. Césalgo dit poste quantique, l'avantage c'est qu'ils sont, on a compris, plus sécures, En revanche, la plupart vont nécessiter des tailles de clé beaucoup plus longues que ce qui se fait traditionnellement, et du processing derrière plus conséquent également. Donc pour des applications type IoT, où les problématiques de batterie, etc. sont problématiques, ça nécessite également un peu une refonte, mais ce n'est pas de la science, c'est de l'ingénierie, un peu une refonte des puces utilisées dans ces appareils-là. Des boîtes comme Thales, comme Atos, planchent déjà là-dessus depuis pas mal d'années, donc il y a des solutions pour ces applications-là aussi. Il y a 3-4 catégories de problèmes mathématiques qui rentrent dans ce framework post-quantique. Le NIST a standardisé aujourd'hui essentiellement des approches type lattice, c'est une des 3-4 catégories, pourquoi ? Parce que justement, c'est le meilleur compromis en termes de taille de clé, processing, mais dans la prochaine génération de standardisation qu'ils vont avoir, ils vont standardiser plutôt d'autres types d'approches, histoire de ne pas être tous les oeufs dans le même panier. Pourquoi je dis ça ? Parce que tous ces algos de post-quantique, aujourd'hui on n'a pas d'algorithme quantique qui permettrait de les casser. Et on conjecture qu'on n'en aura jamais parce qu'on pense que ces problèmes-là sont vraiment robustes à l'ordinateur quantique, mais ce n'est pas vraiment prouvé. Donc si demain on s'aperçoit que les approches en réseau ne sont en réalité pas robustes, il faut qu'on puisse se replier vers autre chose. A l'inverse, l'AQKD s'est démontré, s'est établi que la sécurité, elle est là, c'est inconditionnel. Là, l'autre, ce n'est pas un conditionnel. C'est conditionné à l'état de l'art de nos connaissances actuelles, en algorithmie quantique. Maintenant, je vous explique brièvement d'où sort cette accélération. Ces accélérations, il y en a plusieurs. Ça répond au problème. Alors, à gauche, un bit classique. Je ne vous apprends pas ce que c'est, vous le savez. À droite, par contre, le qubit. Un qubit, c'est quoi ? C'est une superposition, on dirait en maths une combinaison linéaire, pour les amateurs, de deux états, 0 et 1. qui peuvent être deux états de polarisation, deux directions spatiales différentes, deux niveaux d'énergie dans un atome, etc. Donc on a une superposition, une combinaison de deux états. C'est le chat dans la boîte, il est mort, il est vivant, n'est-ce pas ? La petite subtilité, c'est que le qubit peut être superposé que tant que vous ne le regardez pas. Dès que vous allez le regarder, pour parler plus justement, dès que vous allez le mesurer, vous avez une certaine probabilité d'obtenir le résultat 0, une certaine probabilité d'obtenir le résultat 1, qui dépend de quel état vous avez préparé pour votre qubit. oublier les notations mathématiques, elles ne sont pas importantes, oublier les maths, peu importe, je vais essayer de vous expliquer d'où vient l'accélération d'un ordinateur quantique. Parce que bien souvent, quand on lit un article de la presse un peu généraliste, il y a des fausses idées qui sont véhiculées, on dit aux gens, je pense la personne qui écrit a mal compris, Non, mais c'est vrai, il y a un vrai problème d'explication de ce sujet dans la presse grand public. On dit sous tout le temps la chose suivante. L'ordinateur classique, c'est 0 ou 1. L'ordinateur quantique, c'est 0 et 1. Par conséquent, l'ordinateur quantique, par je ne sais quel miracle, teste toutes les solutions en même temps et vous sort la... la meilleure, enfin la bonne, quasi instantanément. Donc ça laisse sous-entendre que l'ordinateur quantique, c'est du calcul en parallèle. Et ça, c'est l'idée que je veux casser. L'ordinateur quantique, sorti de cette journée, ce n'est pas du calcul en parallèle. Ça n'a rien à voir. C'est une notion d'interférence, que je vais expliquer après. C'est un ordinateur quantique, un algorithme quantique, c'est une expérience d'interférence, on va voir ça après. Ça n'a rien à voir avec comment fonctionne l'ordinateur quantique, même quand on parallélise plusieurs unités. Ce n'est pas ça. Donc à l'échelle d'un seul transistor, entre guillemets, quantique, on a une superposition de deux états, et dès qu'on observe le qubit, dès que je regarde mon chat, il converge soit dans un état, soit vers un autre, avec certaines probabilités. Donc premier message, la physique quantique, c'est une théorie dite probabiliste. Ce qu'on va recréer en sortie d'un algorithme quantique, c'est une distribution de probabilités. Et c'est ça qu'on va interpréter à la fin, on verra après. Encore une fois, ne cherchez pas tout de suite à comprendre le puzzle dans sa globalité. Je vous présente les éléments, puis à la fin, ça va se lier. Ne vous inquiétez pas. J'ai l'habitude de faire ça. Ensuite, ce principe se généralise à plus qu'un qubit, évidemment. quand on a 1 bit, c'est soit 0 soit 1, quand on a n bits, on a un bit string de taille n, quand on a n qubits, on a une généralisation, on va avoir une superposition de toutes les combinaisons binaires à n bits. Donc on peut généraliser ce principe de superposition, et quand je vais mesurer mes n qubits, avec une sonde, je vais converger soit dans cet état 0, 0, 0, 0, soit dans l'état 1, 1, 0, 0, 0, etc. avec une certaine probabilité à nouveau. L'objectif final à la fin, c'est que quand on implémente un algo quantique, le résultat qui est le plus probable, ça soit celui qui est solution du problème. Évidemment, sinon ça n'a pas grand intérêt, sinon on a un gérateur de nombres aléatoires. Donc un algorithme quantique, c'est quoi ? C'est une configuration des transistors quantiques. c'est comme des transistors classiques, je vais dire entre guillemets, 1, 1, 0, 0, c'est les deux premiers transistors levés, tous ceux d'après abaissés, etc. Donc si c'est des atomes, par exemple, niveau d'énergie excité pour le 1, niveau d'énergie fondamentale pour le 0. Si c'est de la polarisation des photons, le 1 c'est polarisation verticale, le 0 horizontal par exemple. Donc physiquement, ça peut être plein de choses différentes, tout dépend comment on encode l'information physiquement. Je rentrerai dans la couche physique un peu plus tard. Donc dans les grandes lignes, comment fonctionne un algorithme quantique ? Pour faire... pas simple. Un algorithme quantique, c'est étape 0, qui est à peu près la même, quel que soit l'algorithme quantique. On va créer une superposition de toutes les solutions du problème. Donc chaque configuration binaire que j'ai montrée va correspondre à une solution du problème. Prenez par exemple un problème de partitionnement de graphes. Vous voulez couper un graph en deux. vous pouvez couper des arêtes d'un graphe pour le partitionner en deux sous-ensembles. Quand vous êtes d'un côté de la ligne de coupe, disons que c'est la valeur 0 pour le nœud, quand vous êtes côté droit, c'est le 1. Donc vous labellisez les nœuds 0 ou 1 en fonction de la gauche ou la droite de la ligne de coupe. Et vous cherchez par exemple, je ne sais pas, la ligne de coupe qui va couper le plus d'arêtes possible. Donc vous cherchez la configuration binaire, pour le dire autrement, qui maximise le nombre d'arêtes coupées. Donc but du jeu, c'est qu'à la fin de l'algo quantique, que ce soit cet arrangement-là, je ne sais pas lequel c'est, disons que ce soit celui-là, qui représente le plus de lignes coupées, d'arrêts de coupées dans le graphe. Vous voulez que ce soit cette configuration-là qui ressorte comme résultat majoritaire dans votre distribution de probabilités. Donc, au départ, il n'y a rien qui se démarque. On crée une superposition, je vais dire, uniforme, de toutes les solutions du problème. Donc, si je m'arrêtais là, si je m'arrêtais à l'étape 0, entre guillemets, que je mesure... j'ai un résultat qui sera aléatoire, puisque tout a la même chance d'apparaître en termes de résultat de mesure. Donc là, je n'ai rien fait. J'ai fait un gérateur de nombre aléatoire, ce qui n'est pas le but. À part en crypto peut-être, mais en industrie, ça n'a pas d'objectif. Donc ensuite, ce qu'on va faire après, c'est qu'on va appliquer ce qu'on appelle des opérations logiques. Vous connaissez le AND, le OR, le XOR, etc. Ce genre de choses, mais version quantique. Donc il y a des opérations qui sont propres à l'algorithmie quantique, comme l'opération qui permet de créer de la superposition, par exemple, et d'autres. On va implémenter ce qu'on appelle des opérations logiques, que j'ai modélisées un peu par des blocs de couleurs de manière très simple ici. On applique des opérations logiques qui vont avoir pour effet de modifier le poids des différentes configurations dans la superposition binaire. Telle opération va abaisser la valeur de A1, telle opération va augmenter la valeur de A2, etc. Les poids dans la superposition vont être modifiés. C'est un peu comme une table à pistons hydrauliques, ils sont tous à la même hauteur. Puis quand vous appliquez une transformation sur l'un, disons que ça va en modifier un autre. Donc ça, ça va affecter les coefficients de la superposition. Et le but du jeu, c'est qu'à la fin, il n'y a plus qu'un seul coefficient qui vaille 1, et tous les autres valent 0. Et celui qui vaudra 1, c'est celui qui correspond à la solution du problème. de sorte à ce qu'à la fin, quand on mesure, ce soit forcément ce résultat-là qui apparaisse. Donc en quelques étapes, on arrive à transformer quelque chose qui au départ est complètement probabiliste en quelque chose qui à la fin est complètement déterministe. Et comment on a fait ça ? On a fait ça, d'un point de vue algorithmique, avec une succession d'opérations logiques qu'on applique sur nos qubits. Donc ça, c'est l'explication, je vais dire, informaticien. Et typiquement le nombre d'opérations qu'il faut est bien moindre que le nombre d'opérations qu'il faut un ordinateur classique pour résoudre le même problème de manière complètement différente bien sûr. Avec l'explication informatique, on ne comprend rien. Pour vraiment comprendre, il faut l'explication physique. Qu'est-ce qui se passe physiquement ? Chaque qubit, c'est un système physique. Ça peut être un atome par exemple. Donc là, disons que j'ai N atomes dans mon processeur. Un atome... Vous avez peut-être envie de parler de ça. Déjà, on parle en physique quantique de dualité on-corpuscule. Un atome, c'est à la fois quelque chose de bien localisé dans l'espace, à la fois quelque chose de délocalisé comme une onde. Quand on fait de l'informatique quantique, d'algorithmie quantique, ce qui vous intéresse, c'est le côté ondulatoire et pas le côté corpusculaire. Les ondes, vous savez, elles interfèrent constructivement ou destructivement, n'est-ce pas ? quand vous appliquez ces opérations logiques d'un point de vue algorithmique, ce que vous faites en réalité d'un point de vue physique, vous êtes en train de recréer physiquement des interférences entre atomes ou entre photons, tout dépend ce qu'on manipule, de sorte à créer des interférences destructives au niveau des solutions qui ne nous intéressent pas. Donc on les annihile par interférences destructives et on cherche à renforcer la bonne solution par interférences constructives. Donc c'est un peu comme si j'avais une onde complètement étalée. et qui à la fin se rematérialise en un seul point comme chose de bien localisé. Pour les amateurs de maths, c'est comme si j'avais une distribution uniforme et qu'à la fin il y avait un Dirac. Donc c'est un peu ça l'idée, et donc physiquement on fait des interférences, mais mathématiquement on dit qu'on fait des opérations logiques sur les qubits. Mais physiquement, la vraie expérience est physique, on fait une expérience d'interférence. Donc vous comprenez que ça n'a rien à voir avec du calcul en parallèle. Quand je split un calcul sur plusieurs machines et que chaque machine fait un bout du travail et qu'on recombine, à aucun moment je fais des interférences. Ça n'a rien à voir avec du calcul en parallèle. Je veux dire, pour quelqu'un qui travaillerait dans une startup de l'industrie quantique, qui serait en charge de développer ce type de librairie, il y a des langages qui sont un peu propres à ce genre de choses, qui s'appellent du CASAM, Quantum Assembly Language, c'est faussement du langage d'assemblage, mais ça y ressemble, qui reprend le code, qui va le reformuler différemment. qui permet éventuellement après de le réexporter vers un autre librairie Python que celle de base, donc on peut faire la passerelle, et après on l'engage machine. À la fin, ce qu'on programme, in fine, ce sont des impulsions électroniques ou des impulsions optiques, et les paramètres de l'impulsion, j'en parlerai après, l'amplitude de l'onde, la phase de l'onde, etc., vont permettre de recréer tous les paramètres de l'opération logique qu'on cherche à impliquer sur des qubits. chaque opération c'est une matrice mathématiquement, les qubits sont modélisés par des vecteurs, on applique des matrices sur des vecteurs, comme toujours en algèbre, et en fait la matrice on peut la traduire comme étant une impulsion physique, donc en fonction de l'onde, de l'amplitude, de tout ce qu'on veut de l'impulsion, on recrée telle ou telle opération logique, matricielle. Par exemple on parle de quantum neural networks, Ça ressemble à des réseaux de neurones traditionnels, mais ce n'est pas le modèle du perceptron. C'est un peu identique dans le sens où c'est des algos qui ont une structure en couche, dont on optimise les paramètres avec un optimisateur classique type des centres de gradient, si ça te parle. il y a une structure en couche, etc. Mais ce n'est pas un modèle de perceptron derrière. Donc, ce n'est pas lié rigoureusement à un réseau de neurones au sens que l'informaticien classique, je vais dire, connaît. Mais c'est le même type d'approche de manière globale. Donc, il y a des gros parallèles, mais ce n'est pas je prends mon algo classique et je l'accélère d'un coup comme ça. Non, c'est des algorithmes. qui marchent sur machines quantiques, qui vont résoudre les mêmes problèmes, mais pas toujours avec une approche similaire, complètement différente pour le coup, plus rapidement. Je rentre dans la couche physique maintenant. Pourquoi en 2024, vous le savez, on n'a pas encore des ordinateurs quantiques à grande échelle qui permettraient de résoudre tous les problèmes que j'ai pu citer en intro ? C'est très simple à comprendre. C'est que quand on fabrique un ordinateur quantique, on veut deux choses qui sont complètement contradictoires l'une de l'autre. Ces atomes, ces photons, etc., je leur dis encore une fois, c'est comme des grains de poussière, c'est extrêmement sensible à la moindre perturbation extérieure. Donc quand vous fabriquez un processeur quantique, vous voulez arriver par exemple à manipuler le plus d'atomes à la fois, mais en même temps que ces atomes soient le plus isolés possible de ce qui les entoure, ce qu'on appelle l'environnement extérieur. Vous n'arriverez jamais parfaitement à les isoler, et ce n'est pas souhaitable. parce que si le système est trop bien isolé, moi, utilisateur, je ne pourrais plus interagir avec mes atomes pour implémenter mes opérations logiques et donc implémenter mon algo. Donc ce n'est pas non plus souhaitable de trop bien isoler les qubits. Donc je me retrouve avec un problème. Je veux un système bien isolé, mais avec lequel je puisse quand même interagir. C'est tout le problème. Puisque vous n'arriverez jamais à complètement éliminer des flux de chaleur résiduels, des ondes atométriques résiduelles dans l'orignal du processeur. Donc il y aura toujours ce que je vais appeler du bruit. Il y a toujours du bruit dans l'environnement. Donc, aujourd'hui, je vais dire sur le marché, je ne vais pas aller loin dans l'explication, mais je vais dire que vous avez différents types d'approches physiques concurrentes, chacune avec des points forts et des points faibles, pour fabriquer des processeurs quantiques. Alors, un petit mot sur les approches leaders. Il y a quelques années en arrière, quelques mois en arrière même, je dirais, je disais que les approches leaders, c'est ce qu'on appelle les qubits à base d'ions piégés et les qubits dits supraconducteurs. ce n'est plus tellement vrai, par rapport à les ions piégés. Aujourd'hui, les deux approches les plus en vogue, c'est ce qu'on appelle les atomes neutres et ce qu'on appelle à nouveau les qubits supras. Alors, qui fait quoi ? Les atomes, c'est computer math. Atom computing, par exemple, ou Pascal en France. Un petit mot rapidement. Les qubits supra, ce sont des matériaux, certains types de matériaux, qu'on va refroidir à très basse température. À très basse température, le matériel devient, comme on appelle ça, supraconducteur. Il n'y a plus de récence électrique à l'intérieur. Les électrons qui font le courant se groupent par paires. On appelle ça des paires de Cooper, mais peu importe. Et c'est ces paires d'électrons, ces électrons groupés par paires, qu'on va manipuler pour faire des qubits. et un électron ou une paire d'électrons dans le sens du physique, c'est un système, c'est un oscillateur, comme un ressort, mais ce n'est pas un oscillateur dans ce sens-là. Donc un oscillateur, c'est quoi ? C'est comme une cuvette, n'est-ce pas ? Ça oscille, comme une bille dans une cuvette. Et comme c'est quantique, c'est quantifié, donc il y a des niveaux d'énergie dans la cuvette. Les paires d'électrons peuvent être qu'il y a des niveaux bien spécifiques, qu'on appelle des niveaux d'énergie, comme les niveaux d'énergie des atomes, on a entendu parler de ça il y a longtemps à l'école, c'est un peu la même idée. Il y a des niveaux d'énergie. et l'idée c'est de faire passer les paires d'électrons d'un niveau à un autre. Le niveau du bas disons c'est le 0, le 1 niveau au-dessus on va appeler disons le niveau 1. Comment on fait passer du 0 vers le 1 ? Entre les deux niveaux d'énergie il y a une fréquence spécifique, et on va envoyer une impulsion électronique ici, on va envoyer une impulsion électronique à cette fréquence là, et si en fonction de la durée de l'impulsion, soit j'ai 100% de chance que la paire d'électrons passe vers le niveau excité, soit, si je réduis la durée de l'impulsion, par exemple, je peux créer une superposition d'avoir transité vers le niveau excité et d'être resté dans le fondamental. Donc, si ça, c'est le 0, ça, c'est le 1, je peux créer une superposition de 0 et de 1. Et donc, en ajustant la durée de l'impulsion que j'envoie sur les atomes, je peux créer, en fait, n'importe quel ratio dans ma superposition, 70, 30, 80, 20, 50, 50, n'importe quoi. Et je peux jouer également avec la phase de l'impulsion. pour contrôler un autre paramètre qu'on appelle justement la phase de l'état superposé. Ça peut être 0 plus 1, mais comme ça peut être aussi 0 moins 1, je ne rentre pas dans les détails. Mais avec tous les paramètres physiques de l'impulsion qu'on envoie sur un atome, on peut comme ça contrôler l'état superposé, c'est-à-dire l'état du qubit qu'on souhaite créer. Donc c'est vraiment à la demande. Avec les atomes neutres, c'est un peu la même idée, sauf qu'on joue avec les niveaux d'énergie de certains types d'atomes. Je ne rentre pas dans les détails encore une fois. Qui fait des supra ? C'est plutôt IBM, Google, AWS, c'est quelques startups spécialisées. C'est l'approche sur laquelle il y a le plus d'acteurs aujourd'hui. Qui fait des atomes neutres ? Aucun nom ne vous dira grand-chose, parce que ce ne sont que des acteurs spécialisés. Il y a Pascal en France, il y a Atom Computing, c'est UC Berkeley, il y a Quera Computing, c'est Harvard University derrière, et je ne sais plus qui encore. En gros, sur chaque approche, il y a 4-5 acteurs, à part peut-être les supras, il y a peut-être une vingtaine d'acteurs, c'est plus de monde. Chaque approche a des avantages et des inconvénients. Les qubits supras, ce sont des cumulatifs qui peuvent faire beaucoup d'opérations à la seconde dessus, puisque les systèmes sont facilement accessibles, puisque mal isolés. A l'inverse, les atomes neutres, mais également les ions piégés, qui sont assez similaires, sont des systèmes plutôt bien isolés, donc pas beaucoup d'opérations à la seconde, mais il y a beaucoup moins de bruit dans leur système. Je fais moins d'opérations à la seconde, mais pour une durée plus longue. Là, j'ai une durée plus courte, mais je peux faire plus d'opérations à la seconde. Donc, il n'y a pas de solution miracle, entre guillemets. Il n'y a aucune technologie qui coche toutes les cases et il n'y en aura, je vais dire, jamais. Ça va toujours être un compromis à la fin. À Grenoble, mais ailleurs également, il y a également ce qu'on appelle des cubites à base de... des spins cubites dans le silicium. Le CEA, en France, fait ça, mais pas que. Il y a d'autres boîtes dans le monde. Intel également, vous connaissez tous. C'est ce genre de choses. Ça approche de silicium. Je ne rentre pas dans les détails, mais en termes de contrôlabilité, isolation, c'est un peu 50-50. donc c'est un peu le mix entre les propriétés des deux autres. Alors il y a 70 ans de savoir-faire dans le silicium, mais aujourd'hui à l'état de l'art, ce n'est pas cette approche qui est l'approche leader, mais ils ont démarré un peu plus tard aussi. Comment le bruit, j'en tiens compte quand j'implémente un calcul, je vais en parler après. Parce qu'aujourd'hui toutes ces approches, quelle que soit l'approche, même s'il y en a qui sont plus propres que d'autres, il y a du bruit de toute manière. Donc le bruit, comment je m'en sors avec le bruit ? On va en parler après. Il y a également des approches optiques. Candela, en région parisienne, fait ça. D'autres boîtes également ailleurs. Tout ça pour dire qu'il y a 5-6 approches concurrentes, chacune avec des avantages et des inconvénients. Les approches leaders aujourd'hui sont Atom, Note, Cubit, Supra. On manipule de l'ordre du millier de cubits. Aujourd'hui, je n'ai pas donné de chiffres encore. De l'ordre du millier de cubits avec ces approches-là, de l'ordre de la centaine avec celle-ci, et de quelques dizaines avec ça et ça. Et ça, ce n'est pas encore au point du tout. À terme, qu'est-ce qu'on voudrait ? sur le long terme, vers toutes ces boîtes-là que j'ai pu citer, qu'est-ce qu'elles veulent faire sur le long terme ? Je vous ai expliqué qu'il y a du bruit. Le bruit, il sera toujours là. On peut essayer d'en enlever le plus possible avec une électronique plus propre, un meilleur système de refroidissement s'il y a nécessaire besoin, etc. Mais il y en aura toujours. Donc l'idée à la fin, ce n'est pas de supprimer le bruit, ça va être de corriger ces effets, ce qui n'est pas la même chose. Donc on va chercher à implémenter ce qu'on appelle des codes correcteurs d'erreurs. Je ne rentre pas dans les détails, mais pour corriger l'état de certains qubits, pour faire ce que j'appelle un qubit parfait, j'ai besoin d'un certain nombre de qubits imparfaits, des qubits bruités. Dans le jargon, on appelle ça des qubits physiques. J'ai besoin d'un grand nombre de qubits physiques pour réaliser ce qu'on appelle un qubit logique, c'est-à-dire un qubit corrigé, un qubit parfait. Quelque chose de théorique entre guillemets. et typiquement ces codes correcteurs vont nécessiter, alors ça dépend les technos, comment le processeur est bruité, à quel point il est bruité à la base, mais de l'ordre de 1 à 100 à 1 pour 1000. Donc il faut de l'ordre de 100 à 1000 qubits bruités, donc physiquement réalisés j'entends, pour réaliser 1 qubit corrigé. Donc par exemple pour donner des chiffres. Alors, certaines approches à 100, c'est plutôt à 1000, mais des approches, par exemple, comme les qubits de chat que fait la boîte Alice et Bob, ça te parle un peu, eux, ils sont naturellement immunisés à certains types d'erreurs, ce qui fait que ça réduit, en fait, le ratio nécessaire pour la correction d'erreurs. Donc, eux, c'est 1 pour 50, 1 pour 100. Mais c'est vrai que les chiffres, plus globalement, c'est plutôt 1 pour 1000. Ces qubits supra, ces qubits corrigés, pour faire un processeur qui est résistant au bruit, corrigés. il faut un grand nombre de qubits physiques. Je vous ai donné un chiffre. Vous voulez casser une clé RSA de 1048 bits, ce qui est le standard actuel en crypto. Il vous faut, avec l'algorithme de Shor, l'algorithme quantique pour casser des clés RSA factorisées, il faut de l'ordre à peu près de 4000 qubits logiques, donc corrigés, pour casser une clé RSA, je vais dire en une dizaine de secondes. Quand je vous dis 4000 qubits logiques, ça sous-entend qu'il faut un processeur avec de l'ordre de la centaine de milliers, voire plus probablement de l'ordre du million de qubits physiques, donc bruités. Aujourd'hui, l'état de l'art, je vous ai dit, c'est IBM et une autre boîte aux Etats-Unis, Pascal un peu en France maintenant, c'est de l'ordre de 1000 qubits physiques. D'accord ? Donc on commence à peine à commencer aujourd'hui à réaliser des qubits logiques, corrigés. Quand j'ai eu déjà ma thèse, c'était 2017, l'état de l'art c'était une quinzaine de qubits, 10-15 qubits physiques. 2024, là, 23-24, 1000 qubits physiques, 1100, 1100 qubits physiques. Donc ça avance, donc 1 million de qubits physiques, je pense qu'on va y arriver plus rapidement qu'on veut peut-être bien le croire. Un ordinateur traditionnel, il est traversé par des rayons gamma tout le temps, qui altèrent une fois de temps en temps, c'est très rare, mais altèrent l'état d'un bit. 0 devient 1, 1 devient 0. Donc ça, c'est pris en charge comment ? L'état du bit, on le copie-colle sur des bits auxiliaires, donc c'est du copier-coller. Et de temps en temps, on regarde la configuration majoritaire et s'il y en a un qui s'est retourné, on le remet à l'endroit. Non, parce qu'en physique quantique, je l'ai dit tout à l'heure dans un autre contexte, le copier-coller est interdit. Je vous l'ai dit, on n'a pas le droit d'amplifier. Donc on peut faire du copier-coller de l'état d'un qubit sur un autre qubit. Mais on peut, ce que je n'ai pas trop expliqué, corréler des qubits entre eux, ce qu'on appelle de l'intrication. Et comme ils sont corrélés les uns aux autres, quand une erreur se produit sur l'un, si on mesure un autre, on peut savoir quel type d'erreur s'est produit et à quel endroit, ce qu'on appelle le syndrome. Ça vous informe sur où et comment une erreur s'est produite. Et après seulement, on rétroagit. sur le qubit qui a été erroné, pour le remettre dans le bon sens entre guillemets. Mais ce n'est pas du copier-coller, c'est de l'intrication, mais toujours est-il que ça nécessite des qubits auxiliaires. Ça, c'est l'idée qui est pareille. Vous avez ici le nombre de qubits physiques, donc qubits bruités, c'est-à-dire physiquement réalisés. Et là, vous avez le taux d'erreur, c'est-à-dire quel est le pourcentage de chance qu'une erreur se produise quand j'implémente une opération. Soit parce que le système a interagi avec ce qui l'entoure, soit parce que mon électronique n'est pas idéale, soit parce que le système de mesure n'est pas idéal, bref, plein de sources d'erreurs possibles. et donc ça c'est le taux d'erreur. Donc disons que j'implémente une opération qui est censée me créer une superposition 50-50 au niveau d'un qubit, mais quand en réalité quand je l'implémente, je ne me retrouve pas avec 50-50, je me retrouve avec 49 versus 51, vous comprenez j'ai 1% d'erreur dans l'opération, donc je vais être en 10-2, etc. Donc ce qu'on voudrait à terme, c'est se situer dans cette région. pas beaucoup de bruit et un très grand nombre de qubits physiques de sorte à arriver à créer des qubits logiques pour implémenter les algos dont j'ai besoin sans erreur. Au milieu du graphe, là vous voyez, il y a une grande ligne horizontale qui coupe tout. C'est ce qu'on appelle le seuil de correction d'erreur comme c'est écrit. C'est quoi ce seuil ? Si vous êtes au-dessus, même si vous avez des millions et des millions, voire des milliards de qubits à disposition physique, ça ne servira à rien parce que les erreurs, si vous êtes au-dessus, vont se produire plus rapidement que la vitesse à laquelle vous pouvez les corriger. Donc ça ne sert à rien d'avoir des milliards et des milliards de qubits s'ils sont vraiment dégueulasses, c'est le message. Il faut déjà que les qubits qu'on ait, il faut en avoir un grand nombre, soient d'une qualité déjà à peu près correcte. Je ne dis pas parfaite puisque ce n'est pas possible, mais à peu près correcte. Donc il faut arriver à la fin d'être dans cette région. Aujourd'hui, alors je vais remettre à jour, parce que l'état de ça a encore évolué. Aujourd'hui, l'état de l'art, c'est de l'ordre du millier de qubits physiques. Et en termes de taux d'erreur, on flirte à peu près avec ce seuil de correction d'erreur. Même si encore une fois, il faudrait regarder plateforme par plateforme, puisqu'il y a des qubits plus propres que d'autres, comme je l'expliquais. Mais on est à peu près dans cette région. Donc on va incessamment sous peu commencer à fabriquer, entre guillemets, ingénier des qubits logiques, des qubits corrigés. Parce qu'encore une fois, il y a des plateformes plus bruitées que d'autres. Il y a des plateformes où on maîtrise un plus grand nombre de qubits que d'autres. Donc, c'est dur. En fait, il faudrait faire un point par type d'approche. Il y a des choses qu'on ne pourra pas faire maintenant, mais il y a des choses qu'on peut faire dès à présent. Donc, en fonction de l'application, pour certaines applis, il va falloir attendre d'avoir des codes correcteurs d'erreur. Pour d'autres applications, ce n'est pas forcément nécessaire, même si ça serait souhaitable, évidemment. Justement. Pour comprendre ce qu'on pourra faire à terme et ce qu'on peut faire dès à présent, il faut comprendre un peu comment des algorithmes, on les classe. Il y a plein de façons différentes de classer des algos, des cours d'algorithmie pour ça. Mais une façon parmi d'autres, c'est de dire, il y a des algos qu'on qualifie de paramétriques, il y a d'autres algos qu'on qualifie de non paramétriques. Quand vous faites du machine learning, tout est paramétrique, puisqu'on optimise les paramètres d'un modèle, n'est-ce pas, par entraînement. Donc le machine learning, c'est que du paramétrique. à l'inverse, il y a d'autres algos qui, eux, vous le savez, sont codés en dur. Donc là, on ne peut rien modifier dans l'algo. En quantique, c'est pareil. Il y a certains algos quantiques où tout est entre guillemets codé en dur. Et à l'inverse, il y a d'autres algos quantiques où on peut modifier des paramètres à l'intérieur sans... Je ne rentre pas dans les détails encore une fois. Quand les algos qui sont non paramétriques sont en général ceux qui vont vous amener... le plus de vitesse, comme Shor pour la factorisation, comme Groover pour de la recherche dans les bases de données. Donc, tous les algos quantiques les plus rapides sont non paramétriques. Le problème de ces algos, c'est comme ils sont non paramétriques, si chaque opération a un pourcent d'erreur, puisque je ne peux rien modifier dans l'opération, il faut que je l'exécute parfaitement, 1% d'erreur, 1% d'erreur, 1% d'erreur, vous comprenez que quand l'algo, je l'implémente à une échelle intéressante, il augmente en profondeur également, il y a de plus en plus de portes d'opérations à implémenter, donc le bruit s'accumule linéairement, et à la fin je ne peux plus extraire mon résultat du bruit. Dans mon histogramme à la fin, au lieu d'avoir une contribution à 100% et toutes les autres à 0, à la fin, ce qui est censé être à 0 ne sera pas nul. Et ce qui est censé être à 100%, ne sera pas du tout à 100%, mais beaucoup plus bas, et sera noyé dans le bruit, et je ne pourrai pas extraire ce résultat. Donc tout ce qui est factorisation, par exemple, pour citer ça, vous ne pourrez pas l'implémenter avant d'avoir un code correcteur d'erreur au-dessus du reste. Donc casser des clés, c'est plutôt une application long terme. Maintenant, à moyen court terme, il est tout de même possible d'implémenter des algos quantiques dits paramétriques, donc à paramètres ajustables. Et à ce moment-là, l'architecture ne sera pas 100% quantique, ce sera une architecture hybride. On va avoir d'un côté, on va hybrider dans une même archi, un QPU avec un CPU, qu'on prend par là un système HPC. L'idée c'est quoi ? C'est comme en machine learning, le CPU va fournir un jeu de paramètres initial pour l'algorithme quantique. L'algorithme quantique va être exécuté sur l'ordinateur quantique, évidemment, avec ce jeu de paramètres qui lui aura été fourni. On exécute l'algo quantique un grand nombre de fois, je l'ai oublié de le dire tout à l'heure, mais l'algo quantique se... simplement toujours un grand nombre de fois, de sorte à recréer derrière une distribution de probabilités, vous l'avez compris. et après, en machine learning, cette distribution de probabilité, je la fournis à ce qu'on appelle une fonction d'erreur, qui va me dire, voilà, mon résultat, il est complètement dans les choux, ou au contraire, il est proche du minimum de l'erreur, donc pas même d'optimisation. Donc je cherche comme ça, après je vais optimiser les paramètres, donc avec un optimisateur classique, je vais mettre à jour les paramètres du modèle, je réexécute mon algo quantique un grand nombre de fois avec ce nouveau jeu de paramètres, je recrée une nouvelle description de probabilité, et si tout va bien, si l'optimisateur classique a bien fait son boulot, normalement, je suis censé avoir une erreur qui sera plus faible. Et en faisant un certain nombre de runs, c'est-à-dire d'aller-retour comme ça entre le CPU et le QPU, on parle encore des époques en machine learning, en faisant un certain nombre de boucles, je vais comme ça trouver, idéalement, je vais arriver à converger vers le meilleur jeu possible de paramètres pour mon algo quantique vis-à-vis du problème que je cherche à résoudre. Et voilà. Donc, on rajoute comme ça une couche par-dessus d'optimisation entre le CPU et le QPU pour optimiser les paramètres de l'algorithme quantique. c'est de l'hybride. Et pourquoi ça, je peux le faire dès à présent et je n'ai pas besoin d'attendre nécessairement d'avoir de la correction d'erreur ? C'est parce que vous avez des optimisateurs classiques, donc le truc qui met à jour les paramètres, qui arrivent à converger même dans un panorama qui est bruité. Donc avec certains types d'optimisateurs, j'arrive à converger même quand il y a du bruit dans l'environnement d'exécution. Voilà pourquoi ce genre de choses, je peux le faire à moyen court terme et je n'ai pas besoin forcément d'attendre d'avoir de la correction d'erreur. pour faire ce genre de choses. Mais vous comprenez que comme je dois faire des allers-retours répétés entre le CPU et le QPU pour optimiser mon algo, ces allers-retours répétés sont chronophages. Entraîner le modèle, entre guillemets, c'est chronophage. Donc avec ce type d'approche, certes, l'algo quantique s'exécute très vite, parce que c'est un algo quantique, mais il y a cette couche d'optimisation par-dessus des paramètres qui est chronophage. Et donc avec ce type d'approche biprocesseur, vous n'aurez jamais une accélération, on peut qualifier d'exponentielle. Donc ce n'est pas avec ça que vous allez faire des miracles. Mais ça permet déjà de faire des choses à moyen court terme. Et même si l'accélération en vitesse n'est pas forcément drastique, on peut avoir malgré tout une amélioration, déjà ne serait-ce qu'en termes de précision des résultats. C'est ce que je disais tout à l'heure, la crédit agricole avec Pascal, sur le problème de credit scoring, habituellement ils utilisaient des random forest. J'ai utilisé le terme tout à l'heure, des algos, des apps de décision un peu sophistiquées. Donc ils ont montré qu'avec l'algo quantique qu'ils ont employé, ils n'ont pas réussi à faire plus rapide que les random forest, parce que le processeur Pascal, ils ont utilisé à l'époque une cinquantaine de qubits, ce qui n'est pas encore suffisant pour démontrer quoi que ce soit, mais ils ont montré déjà une amélioration des performances de ragout de classification. Donc ils ont fait mieux, mais pas plus rapide, meilleure qualité, mais pas mieux en vitesse, mais à terme il y aura également mieux en vitesse. Donc ça c'est des approches hybrides, donc ça c'est le moyen court terme de l'informatique quantique. Il y a des programmes européens aujourd'hui qui visent à faire rapprocher le milieu du HPC, du milieu de l'informatique quantique. Par exemple, vous avez le CEA à Saclay, qui est équipé d'un supercalculateur, aujourd'hui un supercalculateur Marie Curie, qui a acheté un processeur quantique à la compagnie française Pascal. qui va être installé sur site au CEA pour hybrider avec le système HPC déjà actuel, pour faire ce genre de choses. Et avec ce genre de choses, on fait quoi ? On fait du machine learning, puisque c'est de l'optimisation de paramètres, ça se prête énormément au machine learning, donc c'est un cas d'usage. On peut faire de l'optimisation de graphes, on peut faire plein de choses. On peut faire de la simulation de molécules, on peut faire déjà pas mal de choses. mais pas avec une accélération aussi intéressante que ce qu'on aura à terme quand on sera dans ce régime-là et qu'on va utiliser exclusivement le QPU. Et puis, je n'en ai pas du tout parlé, mais c'est très important aussi de le dire. On parle de vitesse, on parle de précision, mais il y a un aspect aussi qui n'est pas du tout traité, mais qui aurait dû, c'est le côté énergétique. C'est-à-dire qu'aujourd'hui, qu'est-ce qui limite l'expansion des supercalculateurs ? Ce n'est pas tant le matériel en tant que tel. On va fabriquer le matériel, c'est pas ça le problème. Le problème c'est la consommation électrique de ces outils-là. c'est la facture énergétique à la fin du mois, surtout en ce moment. Donc c'est ça qui limite. Un ordinateur quantique, ça dépend de l'approche, mais de manière générale, déjà ça prend beaucoup moins de place. Et puis même s'il y a un peu, pour certaines technos, un système de refroidissement, ou une chambre à vide, ou des choses comme ça, dans tous les cas, ça consomme plusieurs ordres de grandeur en moins en termes d'énergie. Donc je vais dire, peut-être pour la première fois dans l'histoire de l'informatique, vous allez avoir un bon drastique en vitesse de calcul. qui s'accompagne en même temps d'une diminution drastique aussi de consommation énergétique. Donc aujourd'hui, qu'on parle de plus en plus, parce qu'on y croit ou parce qu'on fait du marketing, de tout verdir, l'informatique quantique, c'est un vrai atout d'un point de vue énergétique. Je veux dire, énergiquement, c'est intéressant à deux aspects. Déjà parce que la machine consomme beaucoup moins, déjà ça, mais aussi à travers certains cas d'usage, des cas d'usage orientés à l'énergie. Si on ne peut optimiser tant réel un réseau de distribution énergétique et qu'on n'a plus de perte de propagation parce qu'une ressource est volatile, qu'on la stocke, qu'on en perd, qu'on n'a pas le temps d'optimiser tant réel l'offre et la demande, là aussi, d'un point de vue énergétique, c'est intéressant. Et dans les cas d'usage, et dans le fonctionnement même de la machine, c'est intéressant énergétiquement. Il y a également des processeurs quantiques qui sont spécialisés, donc non universels, ce que j'appelais des approches plutôt analogiques. Ils ont certains types de process comme les atomes neutres. Vous avez la possibilité, ce qui n'est pas le cas des supras. Supra, c'est une puce. Une fois que le qubit est posé dessus, c'est fini, il est placé. Les atomes neutres, c'est un piège électromagnétique. Le piège, on peut le reconfigurer quand on veut. Dans l'espace, je peux placer les atomes comme j'ai envie. C'est reconfigurable à la demande. Si j'ai un graphe, un graphe, c'est quoi ? C'est un nœud avec des connexions, n'est-ce pas ? Je peux placer les atomes, je peux reproduire la structure du graphe. via le positionnement de mes atomes dans l'espace. Et les atomes, s'ils sont proches l'un de l'autre, ils interagissent l'un l'autre par des interactions physiques que je ne précise pas, mais ils interagissent. Donc quand deux atomes interagissent, on recrée une connexion dans le graphe. Donc en plaçant les atomes au bon endroit dans l'espace, je peux recréer un système complètement analogue à un graphe. Et donc un même d'optimisation de graphe devient entre guillemets un problème analogue à ma machine quantique. Et je vais pouvoir le résoudre sur cette machine-là beaucoup plus rapidement que je pourrais le résoudre avec une machine type IBM, qui ne permet pas de recréer l'architecture du graphe. Donc il y a des QPU qui sont spécialisés pour certains types de problèmes, genre problème d'optimisation de graphes par exemple. Pour vous, industriels, ce qui est intéressant, c'est de savoir les acteurs, comment le marché se décompose. Je vais dire aujourd'hui, à l'œil, il y a peut-être 300 acteurs à l'échelle mondiale, donc c'est quand même un marché de niche encore, bien sûr. Vous retrouvez en bleu, des multinationales de tous les secteurs que j'ai cités en introduction. que ce soit de l'automobile, que ce soit de l'aérospatiale, que ce soit de la chimie, de la pharma, tout ce que vous voulez. Et côté fournisseur de solutions, le marché, je vais dire comment il est décomposé, relativement de manière standard pour l'informatique. Vous avez des acteurs full stack, donc essentiellement des grands noms de la tech, IBM, Google, AWS, mais également quelques startups du... sur player comme on dit, il y a des boîtes qui pour l'instant ne font que du hardware, des boîtes qui ne font que du software, les boîtes qui ne font que du software et de l'applicatif font des partenariats avec ces acteurs-là, de sorte à mettre à disposition à leurs utilisateurs, à eux, un accès à des machines quantiques pour l'exécution des algorithmes. Et puis après, il y a des acteurs encore plus spécialisés, mais qui vous intéresseront moins, je pense, qui sont sur le middleware. Bon, moi, c'est le conseil, c'est encore autre chose. Tout ce qui va être les technologies qui font fonctionner les technos quantiques. Par exemple, en France, je ne sais pas, Air Liquide. Air Liquide, il est à disposition des systèmes de refroidissement pour des systèmes supraconducteurs. Donc, le système de refroidissement n'est pas une technologie quantique, mais elle permet de faire fonctionner la technologie quantique. Ce genre de boîte-là. On crée des conglomérats autour d'eux, des réseaux, je veux dire, un réseau d'entreprises, de partenaires. Typiquement, par exemple, dans le réseau IBM, je ne sais pas, il y a des boîtes qui sont spécialisées sur comment générer les impulsions les plus parfaites en termes de profils pour introduire le moins de bruit possible dans l'exécution. Donc ça c'est un truc ultra particulier C'est pas l'algorithme quantique en lui-même C'est pas non plus créer le processeur Donc par exemple ce type d'acteurs Mais pas que ça c'est juste un exemple Sont dans le réseau par exemple IBM Et apportent à IBM ce savoir-faire Qu'eux n'ont pas forcément à ce niveau là Ou ne veulent pas investir massivement dedans Il y a quelques gros noms, comme IBM, comme d'autres, mais c'est essentiellement aujourd'hui un marché des startups, avec certaines qui s'en sortent beaucoup mieux que d'autres. Il y a quelques boîtes qui ont des plus de 100 millions de dollars, mais ce n'est pas la majorité. Il y a des boîtes qu'on peut déjà aujourd'hui peut-être ne plus appeler des startups. Et en termes juste de pipeline d'exécution, vous partez d'un problème de toute manière. Vous le formulez d'une manière mathématique qui va bien pour ensuite mapper sur un algo quantique. Donc ça, c'est un travail, je vais dire, entre guillemets, de traduction. Donc déjà, ça, ça prend du temps pour les industriels. Ils sont accompagnés là-dessus d'exprimer leurs problèmes mathématiquement. Ensuite, on utilise un algorithme quantique, soit déjà existant, soit un qu'on va développer, si nécessaire. Je ne dis pas que c'est facile, mais c'est possible. Ensuite, on l'implémente en ligne de code, je vais dire. On programme l'algorithme. La couche de compilation, je zappe. Et ensuite, on exécute. Et là, pour exécuter, en termes de hardware, il y a deux portes de sortie. Il y a ce qu'on appelle, un peu à tort, des simulateurs, mais on va plutôt appeler ça des émulateurs. des émulateurs, c'est-à-dire des systèmes HPC, qui vont vous permettre d'émuler un algorithme quantique. Pourquoi ? Un algorithme quantique, c'est quoi ? une opération logique qu'on fait sur des qubits. L'état d'un qubit, c'est un vecteur. Les opérations qu'on fait dessus, c'est des matrices. Donc on multiplie des matrices et des vecteurs, algèbres de base. Donc on peut exécuter ce calcul algébrique sur un système HPC. Donc ça, c'est juste du calcul numérique. Il n'y a pas de superposition, il n'y a pas d'intrication, il n'y a pas d'interférence, il n'y a pas tous ces effets-là. Donc quand on émule, il n'y a pas d'accélération. et après il y a éventuellement un accès qui peut être fourni à la vraie machine quantique. Et là pour le coup il y a de la superposition, de l'intrication, du coup potentiellement de l'accélération à la clé, et également, puisqu'on n'a pas encore de code correcteur actuellement, du bruit. Donc peut-être vous me direz, c'est quoi l'intérêt d'avoir un émulateur ? L'intérêt de l'émulateur c'est d'exécuter déjà à petite échelle dans un environnement sans bruit, parce qu'évidemment à grande échelle l'émulateur ça ne marche plus. Donc déjà exécuter sans bruit, voir ce qui se passe de manière idéale. Éventuellement, rapidement changer des paramètres dans l'algorithme quantique et voir tout de suite l'impact que ça produit sur la distribution des résultats. Enfin, un peu entre guillemets de se faire la main. Et après, à plus grande échelle, là on n'est plus plus à l'aveugle, on exécute sur le vrai processeur quantique. Et on essaye d'arriver à extraire au maximum du bruit les bons résultats. Donc voilà, deux portes de sortie en général, ça pour commencer, puis ça après à terme évidemment, c'est l'intérêt de la chose à la fin. Financement public, vous avez compris, le sujet est stratégique. à tous les niveaux donc les états et investissent pas mal là dedans désormais en Europe il y a un programme de l'Union Européenne s'appelle le quantum flagship on parle d'un milliard de d'euros je pensais de remonter sur 10 ans vous disiez par le nombre de pays par le nombre d'acteurs par le nombre d'entreprises ce n'est pas énorme donc séparément des pays comme la France comme l'Allemagne comme le Royaume-Uni investissent dans un agenda national bien sûr synchronisé aux efforts européens ça va de soi donc en France par exemple On parle de quoi ? Alors ça a été lancé en 2019. On parle de 2 milliards d'euros sur 5 ans. D'ailleurs 5 ans, on va y arriver là. Donc une enveloppe de quasi 2 milliards d'euros sur 5 ans pour un programme qui va taper dans les approches à moyen court terme, les approches à plus long terme, pour le calcul, les capteurs quantiques, la cryptographie quantique, donc la QKD comme j'appelais ça tout à l'heure, la crypto poste quantique et tout ce qui n'est pas quantique mais qui permet de faire fonctionner le quantique. un peu comme c'était le cas sur les programmes 3IA, il y a eu des lieux, des places fortes du quantique identifié en France où l'argent est davantage dirigé, qui sont Grenoble, il y a le CEA, il y a l'INRIA, il y a le CNRS, il y a un peu Atos aussi, donc Grenoble, il y a Paris Sud, donc tout ce qui est Saclay, Palaiso, tout ça, on comprend pourquoi, et Paris Intramuros, c'est le troisième pôle, donc Paris, Paris Sud et Grenoble. au Nice à la rigueur mais c'est trop petit c'est trop petit pour que ça soit un hub genre à Nice bon voilà puis après ça crée des nouveaux instituts, ça finance des tests tout ce qu'on veut etc et c'est juste j'insiste, c'est pas que de l'argent pour de l'académique là dedans vous retrouvez des acteurs comme Thales, comme Airbus comme Total, comme tous ces noms là on retrouve également Atos aussi ainsi de suite Un petit mot rapide sur le reste du monde, brièvement. Aux États-Unis, qu'est-ce qui se passe ? Un milliard, uniquement pour l'académique, un milliard de dollars sous Trump, un milliard de dollars sous Biden, rajoutez à ça tout l'argent des Google, des IBM, etc. Donc aujourd'hui, je vais dire, les États-Unis mènent la course en termes de nombre d'acteurs sur le côté calcul quantique, financement. Après, en France, en Europe, on a moins d'acteurs. on a beaucoup moins d'acteurs, je devrais même dire, mais les acteurs les plus avancés qu'on a en Europe sont au même niveau que les acteurs les plus avancés qu'on a aux États-Unis. Une boîte comme Pascal, sur les atomes neutres, manipule aujourd'hui un millier de qubits, c'est l'état de l'art de ce que fait Atom Computing, un concurrent direct à eux sur l'approche en question, qui est en fait aussi Berkeley, qui est également un millier de qubits à peu près. Donc on a moins de startups, on a moins d'acteurs, mais on n'est pas en retard d'un point de vue niveau de la technologie. Après, à terme, on le sera peut-être, mais pour l'instant... Et puis, je vais conclure, il est temps, je crois. Que retenir de ce format très ramassé ? Alors, première chose, si vous êtes venu aujourd'hui en vous disant que le quantique, c'est avant tout une problématique de cybersécurité, j'espère que j'ai cassé un peu cette idée, le quantique, ça va toucher à tous les secteurs. mais sur des sujets bien spécifiques, on l'a compris. Deuxième message que je n'ai pas remis, mais important aussi, le calcul quantique, ce n'est pas du calcul en parallèle. Un algorithme quantique, c'est une expérience d'interférence qu'on modélise mathématiquement par des opérations logiques, et l'ordre d'opération logique qu'il faut est beaucoup moins important que l'ordre d'opération qu'il faut dans un logo classique qui lui fonctionne complètement différemment. Ensuite, vous l'avez compris, aujourd'hui on n'a pas encore atteint ce régime, on commence à y arriver de la correction d'erreur. Donc toutes les machines actuelles, quand on vous dit il y a 400 qubits, il y a 1000 qubits, il y a 2000 qubits, c'est toujours des qubits bruités. Donc les machines actuelles sont toutes avec du bruit qui n'est pas réellement corrigé. Et une façon d'exploiter ces machines, je vous ai dit, c'est avec des approches hybrides. On va hybrider un QPU avec un CPU et on va optimiser les paramètres d'un algo quantique avec une boucle de feedback qui ralentit bien sûr du coup le process. Et puis, si vous envisagez, à moyen court terme, à plus long terme, de vous engager dans des plans de R&D, comment s'y prendre ? Mon conseil, si vous l'avez compris, il y a plusieurs approches physiques différentes, chacune avec des avantages et des inconvénients. C'est toujours intéressant d'aller le plus proche possible de la couche physique, donc le plus proche possible des spécificités de telle ou telle machine, de sorte à minimiser le plus possible les effets de bruit qui sont aujourd'hui le vrai problème. Mais... comme il y a plusieurs approches concurrentes, il ne faut pas le faire que pour un seul. Parce que c'est dommage de s'enfermer dans une approche et qu'à terme, cette approche ne soit pas celle... qui émergent. Donc, il est intéressant de tester soit séquentiellement, soit en parallèle, soit de tester plusieurs plateformes différentes. Si vous voulez bosser avec IBM pour faire des qubits Supra, c'est bien. Mais en parallèle, peut-être tester avec Pascal aussi, parce que ce qu'ils font est très différent. Peut-être tester également avec Candela, qui font des approches optiques, parce que ça aussi, c'est quand même assez spécifique. Et après, en fonction du problème que vous voulez traiter, tel ou tel type de processeur sera peut-être plus ou moins indiqué. Donc, tester plusieurs technos peut-être en parallèle, avancer sur une POC, et puis après, éventuellement, multiplier les cas d'usage si c'est prometteur. Mais ne pas s'enfermer dans une approche physique spécifique. Par exemple, si mon problème, c'est un problème d'optimisation de graphes, moi, je vais fortement vous reconseiller d'aller sur des approches atomneutres, parce que, je vous l'ai dit, on peut reconfigurer le PROS pour faire un PROS qui est analogue dans l'architecture à la forme du graphes. Donc, pour l'optimisation de graphes, plutôt aller sur des approches type atomneutres, par exemple. sur je ne sais pas, vous voulez faire de la factorisation, là il faudra de la couche de correction d'erreur, quelle est l'approche qui à terme va être le moins gourmand en qubit auxiliaire pour faire de la correction d'erreur ? Peut-être une boîte comme Alice et Bob, qui est une boîte française, qui est un peu immune à certains types d'erreurs by design, va être moins gourmande à terme en qubit auxiliaire. Je vais dire en fonction de l'usage, ce n'est pas forcément le même type d'acteur que j'aurais tendance à recommander pour un partenariat. Mais toujours est-il qu'il y a une première étape de formulation mathématique du problème, d'identifier la loi de Tmeu quantique qui va bien pour ce problème-là, etc.