- Speaker #0
Bonjour Fabrice, ravi de te recevoir aujourd'hui sur Voice of Industries pour parler de jumeaux numériques procédés. Avant d'aborder ce sujet, peux-tu te présenter et nous expliquer un peu ce que tu fais dans la vie ?
- Speaker #1
Bonjour Mathieu, Fabrice Pourcel. J'ai passé 18 ans de ma vie à faire la R&D pour le compte du groupe Lafarge et j'étais vraiment spécialisé dans la performance industrielle de ce qu'il y avait d'autre. Et puis, au fur et à mesure de mes différentes opportunités, j'ai commencé à approcher le monde du digital. Et en fait, je me suis aperçu que pour arriver à être efficace et à implanter des modèles dans les usines, il y avait deux approches, deux grandes approches, le calcul scientifique ou le machine learning. On a testé les deux. J'ai pu voir les avantages et les inconvénients des deux. Et en fait, je me suis rendu compte que le principal frein infini, c'était d'abord comment amener la donnée et comment sécuriser la donnée. Et pour ça, il fallait être capable de travailler de façon plus fine avec les différents ingénieurs, en temps digital, et c'est pour ça que j'ai décidé de quitter le groupe, de faire une reconversion professionnelle, et de rejoindre Inevo, pour justement avoir une approche basée plus sur le calcul scientifique, puisque l'intuition que j'avais à l'époque, c'est que le machine learning, c'est une capacité de faire des choses, mais on est dans l'industrie, et tout change beaucoup et très vite dans une ville. Et du coup, le machine learning, parfois peut être un peu compliqué à mettre en œuvre parce qu'il nécessite un réentraînement, il nécessite de vérifier la qualité des données, ce que l'approche avec les calculs scientifiques ne nécessite pas. Et on peut très bien travailler sans historique de données. Donc, moi, cette Ausha me plaisait. Et donc, j'ai fait cette reconversion et j'ai rejoint Inevo il y a un peu plus de deux ans maintenant en tant que chef de produit digital.
- Speaker #0
Merci pour cette présentation. Est-ce que tu peux nous en dire un peu plus sur ce que fait Inevo ?
- Speaker #1
Inevo, c'est un bureau d'études en génie des procédés qui travaille essentiellement dans tout ce qui est conception de procédés, sécurité et environnement. Donc l'ADN d'Inevo, c'est d'être capable de comprendre ce qui se passe dans les tuyaux d'une usine pour pouvoir derrière soit concevoir l'usine, soit améliorer le fonctionnement des procédés. Un des arguments d'Inevo pour moi, c'est qu'il disposait de tout un tas d'outils de calcul interne qui leur permettaient justement de faire du dimensionnement. Et leur approche du digital, c'était d'utiliser ce savoir-faire-là pour le mettre à disposition des clients. Et ça, c'est vraiment ce qui m'a attiré chez eux, et c'est ce qui fait que je les ai rejoints. Et donc aujourd'hui, Inevo, au-delà de son activité historique sur le génie des procédés, est en train de développer toute une activité qui s'appuie sur la double compétence, génie des procédés et digital.
- Speaker #0
Très bien, je pense à une bonne entrée en matière. Alors pour commencer on parle de jumeau numérique, alors il y a plein de concepts derrière le jumeau numérique, le jumeau numérique 3D de l'usine, le jumeau numérique digital avec les datas de l'usine, le jumeau numérique qui permet de simuler ce qui se passe au niveau des équipements. Mais aujourd'hui l'idée c'est de parler d'un de ces sous-ensembles qui est le jumeau numérique du procédé, qui quelque part va décrire le comportement du procédé. Est-ce que tu peux nous en dire un peu plus sur ce que c'est ?
- Speaker #1
Oui, oui, bien sûr. Donc effectivement, le mot « jumeau numérique » est assez galvaudé, et aujourd'hui, ce sur quoi nous travaillons, c'est exactement d'être capable de reproduire les paramètres procédés que l'on peut mesurer sur l'installation. Donc soit on utilise les mesures, que ce soit des mesures de température, des débits, et derrière, on est capable, par exemple, de faire des bilans thermiques, des bilans massiques, qui permettent à la fois de valider la cohérence de ces données, ce qui est un problème essentiel, puisqu'on sait qu'il peut y avoir des capteurs qui sont défaillants, Et une fois que la cohérence de ces données est validée, on va pouvoir l'utiliser soit pour faire des calculs d'indicateurs de performance, soit pour appliquer des modèles physiques ou mécanistiques qui permettent d'accéder à des données qui n'ont pas forcément mesurable ou accessible à des coûts intéressants. Et de façon ultime, nous les jumeaux numériques, on a pour vocation d'être capable de détecter des dysfonctionnements au niveau du procédé. Et du coup, d'être capable soit... une fois qu'il est détecté, d'améliorer la performance opérationnelle, soit de détecter aussi éventuellement un dysfonctionnement d'équipement. Et là, ça pourrait se tourner éventuellement plus vers de la maintenance.
- Speaker #0
Est-ce que quelque part, ça ne permet pas d'aller chercher, je dirais, des paramètres ou des indicateurs un peu internes au procédé ou à l'équipement qu'on ne mesure pas ? Je prends un exemple qu'on trouve dans beaucoup d'usines, c'est les changeurs. On a des mesures de débit, de pression, de température. Par contre, potentiellement, ce qui nous intéresse, c'est l'encrassement de cet échangeur qu'on ne mesure pas directement. Est-ce que quelque part, c'est ça le jumeau numérique dont tu parles ? C'est-à-dire un modèle de l'équipement qui nous permet de déterminer ses caractéristiques internes et de pouvoir s'en servir derrière pour déclencher des actions ?
- Speaker #1
Exactement. Et en fait, il y a exactement ce que tu viens de dire, être capable d'estimer l'encrassement. Mais ce qu'on arrive à faire encore aujourd'hui, c'est le cran d'après. C'est estimer les conditions de fonctionnement. qui ont une tendance à accélérer l'encrassement. Et ça, c'est un peu plus utile pour l'industriel parce que s'il sait que son mode de fonctionnement actuel favoriser l'encrassement, il va pouvoir rechercher une autre mode de fonctionnement qui évidemment amène la qualité produit et la productivité attendue, mais en évitant d'accélérer l'encrassement. On a un cas concret en ce moment avec un client là-dessus, où en fait on s'aperçoit que juste en changeant les phases de démarrage de l'installation, on peut viser des conditions moins encrassantes qu'on vient mesurer et évaluer avec le jumeau numérique, Et derrière... ils peuvent arriver à décaler la vitesse à laquelle l'échangeur s'en crasse et donc gagner en robustesse sur la conduite du procédé.
- Speaker #0
Est-ce que tu veux dire que ce n'est pas uniquement une vue statique des choses ? C'est-à-dire qu'on peut même regarder le chemin par lequel on passe pour passer d'un état à l'autre, par exemple dans une phase de démarrage, et choisir quelque part le chemin optimum ? C'est ça.
- Speaker #1
L'idée, encore une fois, c'est qu'on va venir emmener de l'information complémentaire. C'est-à-dire qu'aujourd'hui, un ingénieur procédé qui va travailler par exemple sur l'échangeur va vouloir comparer les données qu'il a à disposition, des courbes de température, des courbes de débit. C'est de l'information qui est utile, mais souvent pas suffisante. Le fait de la recombiner grâce à des modèles permet d'avoir accès à d'autres informations. On vient d'évoquer l'encrassement, et d'autres indicateurs, et là on est vraiment dans le savoir-faire, qui sont calculés sur la base de modèles physiques. Donc il y a de la science derrière. Et en fait, ces indicateurs-là, eux, amènent une information qui est nouvelle pour l'ingénieur procédé, sur laquelle il peut s'appuyer pour faire son analyse. Et c'est là aussi où il y a de la valeur dans le géométrie numérique process. c'est que l'on tourne l'information d'une façon qu'elle soit complètement utile pour l'ingénieur procédé, et de façon automatique, et pas en réel. Alors,
- Speaker #0
en préparation de cet échange, tu m'as évoqué le fait que vous aviez deux approches au niveau des jumeaux numériques. Quelque part, une approche sur des équipements ou des étapes unitaires de procédé très standards, où vous pouviez proposer quelque part des genres de modèles sur étagère, et de l'autre côté, des approches ad hoc pour des systèmes plus complexes. Est-ce que tu peux nous expliquer un peu les choses ? Ce qui résonne derrière, c'est que dès qu'on parle étagère, ça veut dire que globalement, on peut mettre des choses à des coûts très compétitifs chez l'industriel. Et quand on bascule sur le ad hoc, ça veut dire aussi qu'on va pouvoir aller chercher des choses plus pointues, plus spécifiques. Peux-tu nous en dire un peu plus ?
- Speaker #1
La différence que tu évoques, on a deux types de produits chez nous. On les nomme les détecteurs d'anomalies d'un côté et les simulateurs en neige de l'autre. Le détecteur d'anomalies, c'est quoi ? C'est qu'on se focalise sur un équipement, par exemple une pompe peristaltique. Et on va venir intégrer dans le système expert toute la connaissance autour du fonctionnement de ce pompe, que ce soit le fonctionnement mécanique de la pompe, mais également son utilisation, c'est-à-dire les débits cibles et par exemple la probabilité d'apparition de phénomènes de cavitation, que l'on sait être délétères pour la pompe. Donc on vient récupérer l'information qui est mesurée sur la pompe, on la passe par la moulinette des modèles, on vient identifier des situations anormales de fonctionnement. par exemple la cavitation, et on vient alerter le client sur le fait qu'on est dans une situation de fonctionnement anormale et on peut même aller avec un ordre de décision jusqu'à proposer des actions, une ou plusieurs, à mettre en œuvre pour remédier au problème observé. Là, on est vraiment à l'échelle de l'équipement et là, on est vraiment sur des systèmes que l'on cherche à standardiser le plus possible de façon à ce que n'importe qui qui a une pompe, par exemple, va pouvoir venir installer rapidement le détecteur d'anomalie sur son système de données. et être capable de bénéficier des avantages de cette Ausha.
- Speaker #0
Quelque part, le nom que vous avez donné, il est un peu trompeur, parce que tu dis détecteur d'anomalies, quelque part, en fait, ça fait plus que détecter d'anomalies, puisque si je comprends bien, au-delà d'identifier qu'il y a quelque chose qui ne se passe pas bien, il y a une aide à la résolution de problèmes, c'est-à-dire que ça va nous dire potentiellement quelle est la cause de cette anomalie, et potentiellement même quelles actions je vais pouvoir engager, ce qui est quand même très opérationnel pour les équipes qui vont utiliser ce genre d'outils. Oui,
- Speaker #1
le choix de cette terminologie voulait être en association avec la notion de capteur. J'installe un nouveau capteur sur mon équipement et je viens récupérer de l'information supplémentaire. Et effectivement, en ce sens, ça obère un peu cette approche où on essaie d'utiliser de l'expertise métier pour non seulement récupérer l'information amenée par ce capteur-là, qui est un capteur digital finalement et pas physique, et de l'utiliser jusqu'au bout pour pouvoir effectivement gagner du temps et notamment aider les opérateurs sur ligne à pouvoir prendre la bonne décision à chaque fois.
- Speaker #0
En fait, c'est un genre de capteur digital intelligent. Il n'y a pas de capteur à ajouter en plus. On va prendre les données déjà préexistantes et on va s'en servir pour alimenter ce détecteur d'anomalies.
- Speaker #1
C'est exactement l'état d'essai. Et c'est ce qui fait la différence avec le simulateur, où là, de toute façon, on aura besoin d'avoir une connaissance plus large de ce qui se passe autour de l'équipement. Donc souvent, on va aller vers des logiques, encore une fois, de bilan de masse et de bilan thermique, par exemple, qui permettent au moins déjà de valider l'ensemble des données disponibles au sens cohérence globale du jeu de données. et derrière effectivement calculer d'autres indicateurs. Et d'ailleurs, nous, notre rêve ultime, c'est bien d'associer un simulateur avec toute une série de détecteurs d'anomalies pour chacun des types d'équipements qu'il pourrait y avoir, de façon à avoir quelque chose qui est très complet pour le client et qui lui permette finalement d'opérer son installation avec toute l'information nécessaire.
- Speaker #0
Alors c'est très clair là pour les détecteurs d'anomalies, mais si on parle du simulateur, déjà de quoi parle-t-on et quel va être le... On peut la donner de sortie pour l'utilisateur, qu'est-ce qu'il va pouvoir faire avec ?
- Speaker #1
Alors la réponse est un peu compliquée à donner au sens où le simulateur, il y a une méthode de travail, comme je l'ai expliqué, des bilans, éventuellement de la détection dans l'emballie, mais c'est surtout qu'on va venir l'adapter localement aux besoins du client. Et en fait, ce qui fait l'importance du simulateur, c'est qu'on va venir comprendre dans le détail le fonctionnement du procédé du client, voir avec lui quels sont vraiment les points sur lesquels il souhaite améliorer le fonctionnement de son installation, et donc définir un jeu d'indicateurs qui utilise les données validées pour pouvoir aider le client à améliorer sa performance. On a le cas encore une fois sur un client qui fait de la cristallisation, où en fait on est exactement dans cette logique-là, c'est-à-dire qu'on arrive avec un jeu de solutions étagère, et puis on discute avec lui pour voir où sont les problématiques, parce que souvent la problématique qui est identifiée est la conséquence. de phénomènes qui n'apparaissent pas au niveau de cet équipement là par exemple. Ça peut être une conséquence plus globale liée au fonctionnement en boucle par exemple de plusieurs équipements. Donc là l'intérêt c'est qu'on va chercher à mettre en place certains indicateurs sur notre équipement qui peuvent venir interférer sur le fonctionnement de l'équipement SIG. Et donc tout ce travail-là, c'est un travail d'analyse, et c'est là où Inevo a une vraie valeur ajoutée. La valeur ajoutée d'Inevo, c'est d'utiliser son expertise dans le génie du procédé pour pouvoir avoir une compréhension large du fonctionnement du procédé et justement faire une analyse un peu plus en profondeur à la fois des interactions entre les différents équipements d'une installation et du coup venir définir avec le client à la fois les indicateurs pertinents sur la problématique rencontrée, mais aussi éventuellement identifier les leviers d'action qu'il a, et donc venir mettre en place des indicateurs qui lui permettent derrière de mettre en place l'arbre de décision pour décider comment jouer sur ces leviers d'action. Donc c'est ce qui fait la grosse différence entre le détecteur d'anomalies et le simulateur online, c'est que le simulateur online, c'est vraiment quelque chose qui va être spécifique à un client et souvent à une installation, puisque toutes les installations sont en général différentes.
- Speaker #0
Alors, tu as commencé l'entretien en faisant un peu la dichotomie entre... Machine Learning et simulation procédé ou je dirais calcul numérique lié à des approches process. Est-ce que les deux ne peuvent pas être complémentaires quelque part ? C'est-à-dire que tu parlais des problématiques de réapprentissage, mais une des choses intéressantes du Machine Learning, c'est que potentiellement on peut réapprendre et potentiellement si on a des choses qui ont dérivé ou qui ne sont pas parfaites, recalibrer certains paramètres de notre modèle physique quelque part. Est-ce que c'est des choses sur lesquelles vous travaillez ?
- Speaker #1
Alors il y a plusieurs façons en fait d'intégrer les deux approches, parce que oui, je suis tout à fait d'accord, les deux approches ont chacune leur avantage et leur inconvénient, et la combinaison des deux peut permettre de résoudre ces deux... enfin les inconvénients de chacun. Une des approches sur laquelle Inevo peut agir, c'est par exemple utiliser des modèles très complexes, physiques, mais leur temps de calcul pourrait être très long. Donc on va venir créer un surrogate modèle. On va venir faire de l'apprentissage de machine learning sur un modèle physique qui est tourné dans différentes conditions. Et là, l'idée, quelque part, c'est gagner en performance de calcul pour reproduire les résultats d'une simulation physique complexe.
- Speaker #0
Pour résumer pour nos auditeurs, en gros, on prend un modèle physique thermique de procédé, on fait de la simulation numérique qui... Chaque condition va générer un temps de calcul qui peut prendre potentiellement plusieurs heures. On le refait plein de fois dans plein de conditions différentes. Ça nous fait un jeu de données et ça, ça nous permet de faire apprendre à un modèle de machine learning le comportement et donc au final d'avoir un modèle beaucoup plus léger à faire tourner tout en s'étant appuyé sur la physique pour le concevoir. C'est ça.
- Speaker #1
On est sur vraiment des gains de performance informatique puisque là, le nerf de la guerre, c'est le temps réel. Donc pour pouvoir faire du temps réel sur des modèles physiques complexes, c'est... C'est un récent compliqué. Donc là, le machine learning peut être une vraie aide. Donc pour faire ce genre de choses-là, Inevo profite du fait d'être une filiale d'Orano qui dispose d'une équipe de data scientists qui maîtrise parfaitement le machine learning et qui permettent derrière de pouvoir faire ce genre de surrogate modèle à façon. C'est une première approche. Une autre approche qui est celle sur laquelle nous, on mise aussi, c'est cette capacité à valider les données. C'est-à-dire que... On peut mettre en place un simulateur online Inevo pour simplement vérifier la cohérence des données. Et ces données-là, une fois que leur cohérence est vérifiée, peuvent aller alimenter du machine learning, parce que justement, on a déjà vérifié la cohérence des données, on s'est affranchi du fait qu'un capteur s'est mis à dériver pour une raison x ou y, et on a été l'identifier, le détecter, et donc on peut aller alerter le modèle de machine learning en lui disant « Attention, les conditions dans lesquelles les données se sont fournies ne sont plus satisfaisantes, par exemple. » Donc ça permet de rendre plus robuste le machine learning.
- Speaker #0
En fait, c'est un genre de filtre de sécurité en amont pour être sûr qu'on alimente avec des données qui sont cohérentes le modèle qu'on utilise derrière pour piloter.
- Speaker #1
Et puis après, l'approche ultime, alors pour être honnête, pour l'instant, on n'y a pas fait face, mais on l'a en tête, ça pourrait être le cas où on ne trouve pas de modèle physique qui permette de résoudre tous les problèmes. Et à ce moment-là, on pourrait à la fois utiliser des modèles physiques sur les domaines connus et utiliser du machine learning sur les domaines moins connus et associer les deux pour pouvoir recréer, dans tous les cas, ça reste une approche physique. mais recréer une compréhension complète d'une installation. Ça peut être aussi une approche qui, pour l'instant, ne s'est pas présentée, mais sur laquelle on ne désespère pas d'avoir un calme de séjour.
- Speaker #0
Et sur laquelle vous réfléchissez, j'imagine. Merci pour tous ces détails, on va dire, plutôt théoriques. Concrètement, est-ce que tu as un ou deux exemples à nous expliciter pour nous montrer ce que ça peut apporter et comment vous avez mis ça en place chez des clients ?
- Speaker #1
Déjà, sur la méthode. Pour mettre ça en place chez les clients, en général, il y a trois phases principales. Il y a une première phase où on fait une sorte de pré-étude avec le client pour déjà comprendre les données qu'il a à disposition, dans quelle mesure il est prêt à rajouter l'instrumentation, parce que le nombre de cas où l'instrumentation n'est pas suffisante est loin d'être négligeable. Donc, voir avec lui s'il y a des possibilités de rajouter l'instrumentation et s'assurer sur le fait que les données soient disponibles en quantité suffisante. Alors, le quantité, on n'est pas sur des historiques. Mais quantité au sens, tu as parlé tout à l'heure de l'échangeur, il nous faut au moins les mesures de température et de débit sur l'échangeur, sinon on va avoir des difficultés.
- Speaker #0
Sur les différents flux, si possible.
- Speaker #1
C'est ça. Donc, c'est bien de cet aspect-là, l'aspect quantitatif, il est bien là-dessus. Il n'est pas sur la quantité d'historique de données, puisqu'encore une fois, nous, notre approche permet de s'affranchir de cette problématique-là. Ensuite, on l'a déjà évoqué ensemble, il y a une analyse du procédé qui est faite pour voir dans quelle mesure... Il y a un travail spécifique à faire, où est-ce qu'on peut se satisfaire de ce qui est disponible. Et puis ensuite, il y a un travail d'intégration où on prend notre savoir-faire et on vient l'amener au travers de la plateforme OE Analytics chez le client, sous la forme de code Python, puisque notre métier, en fait, de base, c'est de traduire notre savoir-faire en code Python. En fait, notre valeur à nous, c'est ça. On traduit notre savoir-faire en code Python. Alors, encore une fois, on a... on a tout un tas de notes de calcul qui existent, donc on a une base de connaissances qui est très large, et qu'on peut mobiliser. Donc après, aujourd'hui, les domaines sur lesquels on a appliqué ce savoir-faire, c'est la cristallisation par exemple, on continue avec multiples effets, où là, on a vraiment un gros savoir-faire, parce qu'il y a eu déjà un projet, le projet pluriannuel avec des partenaires, qui a permis d'élaborer le simulateur, de le mettre en œuvre chez le partenaire. Et on travaille encore après ce projet-là, financé chez ce partenaire-là. Et aujourd'hui, ils s'en servent. En fait, ils ont une problématique de boulot d'étranglement sur ce procédé de cristallisation. Et donc, on travaille avec eux là-dessus en utilisant le simulateur.
- Speaker #0
Vous travaillez quoi ? Sur la productivité ? Réduire le nombre d'arrêts, de nettoyage, de choses comme ça ?
- Speaker #1
C'est exactement ça, effectivement. Dans ce cas-là, en fait, ils ont des cycles de nettoyage qu'ils doivent respecter parce qu'il y a un phénomène d'encrassement fort, mais qui est lié à la physique du système. On n'est pas sur des encrassements classiques. On est sur des boucheurs, en fait. ils bouchent leurs échangeurs à fréquence régulière. Et effectivement, gagner ne serait-ce qu'une semaine ou 15 jours sur la fréquence à laquelle les bouchages vont avoir lieu, puisqu'ils sont inéluctables, permettrait de réduire le nombre de nettoyages et donc permettrait d'augmenter la capacité de production de cette unité qui elle-même représente le boulot des transants d'une unité plus grande.
- Speaker #0
Je pense qu'on a fait bien le tour du sujet, Fabrice. Est-ce que pour conclure, tu aurais quelques recommandations à donner à nos auditeurs sur comment s'y prendre pour y aller et mettre ça en place dans leurs usines ?
- Speaker #1
Évidemment, la première des choses, c'est appeler Ineos. Ça paraît évident parce qu'encore une fois, on essaie de créer des outils standards, mais la réalité, c'est que chaque usine est différente et chaque usine a des besoins qui sont différents. On prenait le cas de la cristallisation. En fait, ce client avait deux usines. Le simulateur a été installé sur les deux usines, mais à chaque fois il y a eu un travail spécifique parce que les procédés n'étaient pas parfaitement équivalents. Donc je pense qu'il y a toute une phase d'analyse au départ qui doit être concernée à la fois le procédé et la donnée. Et c'est de cette analyse-là où on peut aller après chercher la valeur pour le client. Dans l'idéal, le client doit avoir une bonne connaissance de ces données et surtout des objectifs qu'il cherche à atteindre, parce que c'est souvent l'aspect un peu délicat. On peut vouloir réduire le boulot d'étranglement, mais comment y arriver ? Donc là, il nous faut pouvoir déterminer des indicateurs qui permettront d'atteindre cet objectif-là. Et c'est cette phase-là de pré-étude qui doit vous permettre d'aller, encore une fois, définir ces indicateurs, ou ces différents calculs et ou modèles à intégrer. Il y a ces clés dans le succès. Ceci dit, je pense que c'est important d'avoir en tête que... qu'il n'y a pas un projet digital qui échoue. Ce que je veux dire par là, c'est qu'on peut se retrouver devant des vraies difficultés techniques et un cas où ça peut arriver sur une installation, un modèle ne fonctionne pas et on n'arrive pas dans les réformes à ne pas le faire fonctionner. On pourrait dire le projet a échoué. La réalité, elle n'est pas là. C'est qu'en fait, en faisant ce travail là, on ouvre la boîte de Pandore sur l'installation et on vient poser des questions nouvelles en général sur la façon dont fonctionne l'installation. Donc... Si le projet est un succès au sens premier du terme, tout le monde est content, mais même si on a le cas où le projet rencontre des grosses difficultés, de toute façon, on vient mettre en lumière des éléments qui permettront d'améliorer la performance. On a eu le cas avec un client récemment où effectivement, ça a été plus compliqué que ce qu'on pensait de venir implanter le simulateur, mais ceci dit, en attendant, il a vu qu'il avait un trou dans la raquette sur un sujet particulier, et donc le temps n'a pas été perdu pour le faire.
- Speaker #0
Comme d'habitude, quand on commence à mettre les mains dans le cambouis, on voit les choses et on identifie tout un tas de pistes pour s'améliorer.
- Speaker #1
C'est la vertu. Donc c'est pour ça que j'encourage en fait tout industriel à venir nous voir. Parce qu'à un moment ou à un autre, de toute façon,
- Speaker #0
ça sera vertueux. En tout cas, merci beaucoup Fabrice pour cet échange très enrichissant.
- Speaker #1
Merci à vous deux.