- Speaker #0
Pour pouvoir échanger sur la façon dont on va pouvoir mobiliser les données pour parler risque climatique, je vais inviter mes trois autres invités. On garde Ludovic et Erwann avec nous. Mathieu Renoir, responsable concession gaz au CIGIF, où vous voulez. Aurélien Boisselet, géologue à AXA Climate. Et Sébastien Branat. Vous pouvez mettre là, d'info climat. Merci beaucoup d'être avec nous. Vous pouvez vous mettre près des Rouen, là-bas. Il y a du monde autour de cette table, avec différents types d'experts. Voilà, il y a de la place pour tout le monde. C'est bon. Donc, on a vu dans cette présentation qui vient de nous être faite, et puis l'introduction aussi de Christian Thibault tout à l'heure, qu'effectivement... Donc la connaissance est un enjeu majeur quand on parle des risques climatiques. On a besoin de données pour connaître, pour affiner la connaissance. Donc ce qui suppose quand même un certain nombre de standards, de référentiels communs pour pouvoir partager cette connaissance. Alors j'ai envie de me tourner vers Erwan qui a commencé un petit peu à introduire ça tout à l'heure en parlant des différents types de données et à voir un petit peu justement ton regard là-dessus Erwan.
- Speaker #1
Oui, en complément, parce que j'ai peut-être déjà défleuré un peu le sujet. Oui, il existe des référentiels, des éléments de référence, mais surtout les sujets, notamment sur l'aspect aléa. Dans le domaine des risques majeurs, bien sûr, il y a des données de référence, notamment par rapport à la compétence réglementaire. Voilà les zonages réglementaires, etc., qui s'appuient sur des éléments aussi de connaissances scientifiques. pourra peut-être compléter sur ce point de vue-là. Dans le domaine de l'adaptation aux changements climatiques, là, je vous ai parlé de la trajectoire de réchauffement de référence quand on parle de prospectif climatique. Donc là, c'est un référentiel en soi, sur lequel un même jeu de données donné à tout le monde, c'est la question de la référence, on met ce même jeu de données à tout le monde, de connaissances qui évoluent avec les incertitudes dont j'ai un peu parlé, qu'il faut... un peu maîtrisé. Moi, pour mes propres travaux, j'ai utilisé sur les domaines d'expertise un référentiel qui est le Local Climate Zone. C'est les zones climatiques locales. C'est un référentiel confidentiel du monde de la recherche qui qualifie effectivement par l'occupation des sols et propriété des sols en matière de chaleur fraîcheur selon la nature des sols. Local Climate Zone de Stewart et Oak. Il existe maintenant sur les autres sujets sensibilité, fragilité des territoires. De vulnérabilité, il n'y a pas vraiment de référentiel. Et donc, en tout cas, dans le domaine de l'adaptation au changement climatique, c'est en train d'être construit. Et donc, c'est par des approches un peu novatrices qu'on commence à approcher. Mais voilà, donc, il nous manque aussi des référentiels. Et là, là où c'est compliqué, c'est aléa par aléa. Ce n'est pas les mêmes registres de données qu'il faut mobiliser. Quand on parle de sensibilité à la chaleur, ce n'est pas la même sensibilité qu'inondation par débordement ou inondation par ruissellement. Il y a une quinzaine d'années, l'ADEME a fait faire une étude sur les indicateurs de sensibilité, de capacité à faire face, utilisés de par le monde. Et on a vu qu'il y avait beaucoup de registres différents d'indicateurs qui étaient utilisés. Et donc, c'est une vraie question. Arrêter des méthodologies aussi et des référentiels sur ces principes de vulnérabilité.
- Speaker #0
Alors Aurélien Boisselet, vous êtes... AXA Climate, je vais vous laisser introduire un petit peu peut-être ce qu'est AXA Climate. Mais c'est vrai que pour vous, vous me disiez ce besoin de référentiel. Effectivement, il est essentiel, même s'il n'est pas évident a priori. Mais en tout cas, c'est un point essentiel. Alors peut-être présenter d'abord, avant de rentrer dans le vif du sujet, AXA Climate.
- Speaker #2
Alors AXA Climate, c'est une petite entité d'AXA qui va se focaliser. sur le changement climatique, la prise en compte du changement climatique pour des besoins assuranciels, donc on reste à AXA, mais aussi pour des besoins de conseil aux entreprises et éducation. Pareil, à destination des entreprises pour les aider à comprendre ces enjeux du changement climatique. Et donc on va travailler sur des thématiques très très larges, ça peut aller sur les risques naturels, mais aussi tout ce qui est... biodiversité, nature, agriculture, etc. Et sur ces enjeux de référence, c'est vraiment très important. Nous, on a une vision qui n'est pas que française. Justement, on travaille à l'international et on voit qu'il y a une variation de prise en compte, même de connaissances, de jeux de données selon si on travaille sur un pays ou sur un autre. Je pense qu'on peut même le voir à l'échelle de la France si on travaille d'une région par rapport à une autre. Que ce soit la connaissance ou la référence qu'on peut utiliser sur la France hexagonale ou sur les dom-toms. alors que l'alléa et le risque n'est pas forcément le même. Et ça, ces références sont assez clés pour nous, parce qu'il faut qu'on arrive à avoir une sorte de même discours partout. Essayer d'arriver, de comparer un risque à un autre, mais même des fois, la problématique, c'est de comparer l'impact d'un même risque selon l'endroit où on se situe. Et donc, c'est pour ça qu'il y a cet enjeu aussi, dont on parlait, et puis ça a bien été dit tout à l'heure, de communication. Parce qu'il faut aider à comprendre, à essayer de le caractériser, comprendre quel est ce niveau de risque, est-ce que c'est important ou pas. On a nos références qui nous parlent quand on travaille sur un domaine précis. Moi je suis géologue, je travaille sur le tremblement de terre, je peux parler de peak ground acceleration par exemple, moi ça me parle. Maintenant si je vais voir un industriel et je lui dis, Ton risque, il est de cette valeur en accélération. Il n'en fait rien. C'est compliqué pour lui.
- Speaker #0
Donc, il y a une question à la fois de partager des référentiels, mais aussi la connaissance dans le sens, effectivement, pouvoir l'adapter à chacune des spécificités de chacun pour qu'effectivement, dans cette prise en compte du risque, ça puisse être vraiment partagé.
- Speaker #2
Ce qu'on cherche à la fin, c'est qu'il y ait une action. qui est cette prise en compte, qui est une action, qui est une réduction. Alors pour un industriel ou pour n'importe qui, faire diminuer l'aléa, c'est compliqué. Mais sur la vulnérabilité, ça, on peut le faire.
- Speaker #0
C'est ce qu'on disait tout à l'heure. Effectivement, l'aléa, ce n'est pas forcément ce qu'on arrive vraiment à maîtriser, mais c'est plus effectivement au niveau des enjeux et de la vulnérabilité. Alors, je me tourne vers Mathieu Renoir du CIGIF, où là aussi, il peut y avoir peut-être des exemples même un petit peu concrets, vous, sur comment vous utilisez les données pour parfaire la connaissance. Avant de rentrer dans le vif du sujet, peut-être cinq minutes sur le CIGIF ?
- Speaker #3
Oui, bonjour à tous. Alors, CIGIF ou CIGF, chez nous, on dit CIGF, donc CIGF pour Syndicat Intercommunal pour le Gaz et l'Électricité en Ile-de-France. C'est un grand nom, c'est un établissement public de coopération intercommunale. Aujourd'hui, on a à peu près un peu moins de 200 communes qui adhèrent au CIGEF. Ce qu'il faut savoir, c'est que les réseaux de distribution publique de gaz et d'électricité appartiennent à ces communes, donc pas forcément les moyens humains et financiers pour faire le contrôle, qui est une obligation réglementaire, donc qui a le transfert des syndicats intercommunaux. d'où notre action historique de contrôle des concessions gaz et électriques. Aujourd'hui, on a un patrimoine d'environ 10 000 km de réseaux de distribution publique de gaz, idem en électricité. C'est quand même assez important, plus les autres ouvrages qui composent les réseaux, les postes de détente, les vannes de coupure, etc. Et donc du coup, on travaille avec GRDF et Enedis main dans la main pour le bon développement de ce réseau et le bon renouvellement de celui-ci. On a signé il y a de ça deux ans, en 2019 pour la partie ELEC et en 2022 pour la partie gaz, des nouveaux contrats de concession qui donnent un peu plus de... d'action à la main du syndicat, notamment dans ce qui concerne les renouvellements et le développement du réseau, donc une co-gouvernance dans le cadre d'un schéma directeur des investissements. Ce qui nous a permis de poser avec ces deux concessionnaires des problématiques, des problématiques du quotidien, mais pas que, également des problématiques climatiques. et éventuellement des potentiels risques qui pourraient être amenés à être vus sur notre territoire. Donc des zones, alors des aspects clientèle bien évidemment, sécuritaire, sanitaire. Aujourd'hui juste pour la partie distribution publique de gaz, aujourd'hui si on prend un scénario type cru centenal, on est à peu près à 30 000 clients coupés. Alors vous allez me dire c'est pas beaucoup, 30 000 clients coupés sur 1 100 000 pour le gaz, mais ça peut avoir des impacts relativement forts. notamment comme j'ai pu vous le dire clientèle sécurité sanitaire donc le but c'est aussi de travailler avec ses exploitants pour savoir quelles sont les zones qui seraient éventuellement coupé pour ainsi a amené à de la communication on verra ensuite auprès auprès des collectivités mais mais mais pour gérer vraiment si c'est comment dire c'est c'est oui c'est le terme Ces moments un petit peu délicats, ces crises, merci bien, ces crises qu'on pourrait être amené à voir avec ces collectivités. Et puis ça va permettre aussi également de travailler sur des travaux qui seraient potentiellement obligatoires à mener sur notre territoire. Et notamment, on va travailler sur une étude dans le cadre des programmes d'action de prévention des inondations. Avec cinq grands lacs, donc le Papy. C'est une étude qui va embarquer les réseaux de distribution publique de gaz et d'électricité, mais pas que, toutes les infrastructures du CIGEF, les bandes de recharge de véhicules électriques, les stations de GNV, gaz naturel véhicule, et puis autres panneaux solaires qu'on développe de plus en plus sur les bâtiments communaux.
- Speaker #0
Oui, et c'est là où on voit qu'effectivement... Cette approche systémique qu'évoquait Ludovic tout à l'heure, quand on parle de risque climatique, c'est à quel point, effectivement, ça peut aborder différentes thématiques. Donc, pour un syndicat comme le vôtre, effectivement, quel impact ça peut avoir sur vos métiers et l'importance de pouvoir disposer des données, vous le dites, avec d'autres partenaires pour partager la connaissance. Ludovic, c'est vrai que tu avais commencé à l'évoquer un petit peu dans l'introduction. Il y a aussi cette historique au niveau de l'Institut. D'abord d'un SIG qui nous permet de cumuler pas mal de données et qui nous permet aussi de parfaire un petit peu notre connaissance, d'affiner notre connaissance du territoire et peut-être aussi cette approche systémique.
- Speaker #4
Oui, effectivement. En fait, quoi des données au début ? On a effectivement ce que je disais peut-être en introduction. On a travaillé sur l'exposition pour aujourd'hui, c'est d'avoir une approche un peu plus globale et plus large de la question des risques. En tout cas, plus englobante, avec une idée. En tout cas, c'est ce qu'on essaie de porter, et notamment pour le risque inondation, qui est notre risque majeur en Ile-de-France. Donc la grande inondation est... et toutes ces conséquences qui seraient extrêmement lourdes, c'est vraiment essayer de porter une approche territorialisée de la gestion des risques. Approche territorialisée, pour moi, ça veut dire d'abord convaincre les collectivités, qui ne sont pas toujours les acteurs les plus faciles à intégrer dans ces réflexions-là. On reviendra tout à l'heure, j'imagine, sur la culture du risque, mais il y a peut-être un certain manque de données ou de culture du risque à ce niveau-là. Mais c'est surtout une approche territorialisée. Ce qu'on essaie de porter, c'est une approche qui s'intègre, qui prend en compte les trois temps. les trois dimensions de la gestion du risque, les trois temporalités. La prévention. Prévention, c'est absolument indispensable aujourd'hui. Mais pour faire de la prévention, je reviendrai dans un instant, il faut des données. Mais la prévention, ça peut être connaître le risque, son exposition, connaître les protections, ou en tout cas réfléchir sur les protections. Ça peut être réfléchir sur une culture du risque. Le champ de la prévention est extrêmement large. C'est de la surveillance, c'est de l'alerte. Tout ça fait partie de ce champ de la prévention. Et donc, pour faire cette prévention, il faut aussi connaître la vulnérabilité du territoire quelque part. Le deuxième temps des risques, alors ça ne vaut pas pour tout, quand on est sur du retrait gonflement, ce n'est peut-être pas le cas, mais sur des grands risques majeurs, pour l'île de France, une fois de plus, c'est le débordement, mais pour les Outre-mer, ça pourrait être un cyclone, pour d'autres territoires, ça pourrait être des séismes, mais c'est le temps de la gestion de crise. Et le temps de la gestion de crise, quand vous avez des enjeux considérables, je vous rappelle le chiffre de tout à l'heure, 5 millions de personnes dans une inondable, ou en tout cas plusieurs centaines de milliers pour une crue majeure de la Seine, ça s'anticipe. Anticiper la crise, c'est la préparer, c'est connaître. Ce qui va être mis en danger, quelles sont les personnes, mais aussi pas que les personnes, les services publics, les installations. Donc ce temps de la gestion de crise, finalement, même à l'échelle du territoire, ça s'anticipe. L'État ne fera pas tout. C'est aussi aux collectivités et aux acteurs privés. Enfin, quand Aurélien parlait à l'instant des grandes entreprises, il faut aussi qu'elles se préparent et qu'elles anticipent la crise. Donc c'est un temps très particulier. Puis il y a un temps assez nouveau qui est celui de la gestion, enfin le post-crise. Post-crise, ça fait finalement très peu de temps qu'on y pense. Cinq, six, moins d'une dizaine d'années en tout cas. C'est... post-catastrophe, post-crise, qu'est-ce qui se passe ? Il y a des enjeux considérables aussi dans le post-crise. C'est le retour à la normale, c'est la continuité des services publics, ça peut être du relogement de population, ça peut être la question des déchets par exemple, la gestion des déchets qui va être en post-inondation, qui représente des volumes considérables. C'est le post-traumatique. Enfin voilà, il y a beaucoup d'enjeux aujourd'hui dans ces différentes temporalités qui doivent être analysées et regardées. Et aussi le deuxième travail qu'on essaie de porter, c'est une réflexion qui s'intègre sur les emboîtements d'échelle. être en capacité de réduire la vulnérabilité à l'échelle d'une construction jusqu'à l'échelle d'un grand territoire. Grand territoire, ça conduit à engager une réflexion sur la planification, sur comment je construis mon territoire de demain, comment je réfléchis à ces questions-là. Donc il y a vraiment des questions très particulières. Et puis la dernière idée qu'on essaie de porter, c'est comment on intègre le risque, et aujourd'hui son incertitude, parce que je vais y revenir dans un instant, l'incertitude dans toutes les politiques publiques, dans toutes les compétences, notamment des collectivités. Vous faites du développement humain, du développement économique, une politique sociale, une politique environnementale. Est-ce que vous avez intégré juste la dimension du risque et des différentes conséquences ? Et je pense qu'aujourd'hui, on en est assez loin. On est encore dans des politiques, même des compétences, même des politiques territoriales qui sont encore très sectorisées, très en silo. Et c'est comment on essaie de porter une approche un peu plus globale. Quand on veut porter ces approches globales, il faut aussi pouvoir argumenter auprès des acteurs, auprès des décideurs. Donc ça passe quelque part par des diagnostics de vulnérabilité, qui peuvent être faits aussi au niveau du climat. Là, je suis plus sur les risques majeurs. Donc il faut comprendre et connaître. Et donc ça suppose de la donner pour pouvoir finalement avoir des arguments à porter. Avec une première réflexion, c'est l'aléa. Il faut connaître l'aléa. L'aléa, ça peut être extrêmement perfectible. Aujourd'hui, quand vous travaillez sur le retrait gonflement, l'aléa, c'est du 50 000e par exemple par rapport à des territoires. L'aléa inondation, on est plutôt sur 5-10 000e. Il y a, quand on travaille sur le risque souterrain... Pas un risque climatique, on est quasiment au millième ou au deux centième. Donc il y a différentes échelles. Ça, c'est la première question. C'est expliquer, comprendre l'aléa. Traiter l'inondation sur un territoire, l'inondation par débordement, ce n'est pas du tout la même chose que l'inondation par ruissellement. C'est des dynamiques complètement différentes, c'est des localisations complètement différentes. Et en termes ne serait-ce que d'aménagement et de réflexion globale, ce n'est pas du tout les mêmes approches. C'est aussi se dire que nos données d'aléa sont en évolution constante. Elles servent. parfois quelque chose. Je reprends l'inondation, il y a 20 ans quand on a commencé à travailler, on travaillait avec ce qu'on appelait les PHEC, c'était les plus hautes eaux connues. C'était juste une enveloppe historique des crues, sans plus d'informations. Ce qui est déjà une information très importante pour montrer l'expédition des territoires. Très rapidement derrière sont venus ce qu'on appelle l'aléa PPRI. Il y a des documents réglementaires qui ont été mis en œuvre, donc pour mettre en œuvre un document réglementaire, il faut pouvoir argumenter. Donc il y a eu ce qu'on appelle l'aléa PPRI, des zones inondables qui ont été dessinées. modélisés, qui ont permis une avancée notable, qui était tout simplement de dire, de hiérarchiser des niveaux d'aléas. Aléas modérés, moyens, forts, très forts, qui permettaient de monter les hauteurs de crues sur un territoire. C'est déjà aussi quelque chose de très important, finalement, pour comprendre, pour hiérarchiser vos enjeux, vos seuils. Et puis, entre-temps, c'était une crue centrale avec aussi ses limites, puisqu'elle ne tenait pas compte, par exemple, des protections. Et puis, les opérateurs de réseau, notamment, ont... On dit mais attendez, on n'est pas que sur le 1 ou sur le 100. Il y a peut-être des crues intermédiaires, il y a des phénomènes. Et quand vous êtes un opérateur de réseau d'importance vitale, vous n'allez pas déclencher un système d'alerte ou un plan d'intervention sur du 0 ou du 1. Il y a tous les niveaux intermédiaires. Ce qui a conduit l'État à créer par exemple ce qu'on appelle en langage techno, les IPSICH, les zones d'inondation potentielle, qui finalement nous montrent des scénarios. Ces 10 scénarios qui ont été étudiés, jusqu'à des crues inférieures à la crue centenale, jusqu'à une crue supérieure à la crue centenale. mais qui permettent, eux, avec une précision de l'information sur les hauteurs de crues, par exemple, et puis surtout des scénarios qui nous permettent de dire, là, je ne suis pas inondé, je deviens inondable à partir de tel niveau. Donc c'est beaucoup plus précis. Ça permet là vraiment de travailler sur la vulnérabilité. Ça permet de montrer des effets de seuil sur les territoires. Dire à un territoire, là, vous n'êtes pas exposé, ce n'est pas la peine, vous n'avez pas de crues fréquentes. Par contre, à partir d'un certain seuil, là, les enjeux deviennent très, très importants. Et donc, c'est travailler un petit peu sur ces dernières informations. Puis on a encore un nouveau modèle qui est en train de sortir, le PTB que vous évoquiez à l'instant. On est en train de modéliser une nouvelle zone inondable qui va nous donner des choses extrêmement importantes en matière de coût de dommage, par exemple, la durée de submersion. Sur un point de territoire, pour telle occurrence de crues, vous serez inondé soit une journée, soit 20 jours, par exemple. C'est un élément tout à fait considérable dans l'évaluation des dommages. C'est exponentiel. Plus vous êtes inondé longtemps, plus ça coûte cher. Voilà. Donc on est sur des secteurs aujourd'hui, sur des travaux où... l'aléa évolue sans arrêt. Avec des difficultés aujourd'hui, c'est comment on le porte, cette question-là, cette question de l'aléa, comment on la porte auprès des nouveaux acteurs, comment on la fait comprendre. Beaucoup de gens sont bloqués sur l'aléa PPRI, au niveau des collectivités, c'est un petit peu la donnée de référence, comment on partage ces nouvelles données, comment on les utilise et pour quoi faire. Donc ça, je dirais que c'est un peu cette question de l'aléa, en rappelant aussi une chose très importante, c'est que l'aléa, c'est un modèle, avec des incertitudes et des hypothèses. Et que le jour où ça arrivera, ça n'arrivera pas exactement comme le modèle l'a prévu. Donc le modèle doit permettre d'anticiper, de réfléchir, de réfléchir finalement à une façon de travailler. L'autre, c'est les enjeux. Aujourd'hui, comment on travaille sur les enjeux ? Là aussi, c'est la question du référentiel. On a les référentiels géographiques classiques que sont la baie des Topos, qui nous permettent d'avoir une très grande précision sur le territoire. Pour autant, la baie des Topos n'est pas renseignée sur tout. On a aujourd'hui besoin, en termes d'enjeux, de distinguer des grandes catégories. Ça peut être des populations. Les populations, dire j'ai 1000 personnes exposées, c'est une information, mais ce n'est pas suffisant. C'est quel type de personnes ? Ça peut renvoyer des disparités sociales. Est-ce que toutes les personnes sont égales les unes par rapport aux autres ? Est-ce que tous les territoires sont égaux les uns par rapport aux autres ? C'est de pouvoir relativiser la donnée. J'ai 1000 personnes, 1000 personnes, ça veut dire beaucoup à l'échelle d'un petit village ou d'une petite ville. Par rapport à une agglomération de 50 000, ce n'est pas la même chose. Donc ce n'est pas relatif. C'est aussi travailler sur finalement des enjeux relatifs. C'est travailler sur, au-delà de la population, ces grands indicateurs qui sont classiquement utilisés, c'est travailler aussi sur l'économie, sur travailler aussi, j'attache une grande importance, sur tout ce qui relève des services publics. ou des grands équipements, les réseaux structurants, c'est un élément majeur de la vulnérabilité de notre territoire. S'il tombe, beaucoup de choses, parce que c'est des effets dominos, ça va avoir des conséquences extrêmement larges. Donc il faut essayer d'applender toutes ces questions-là, qui renvoient directement à la question du fonctionnement du territoire. Aujourd'hui, il faut bien reconnaître que dans ces référentiels, alors on les construit, mais il n'y a pas aujourd'hui de référentiel commun à l'échelle nationale, en disant voilà comment on va finalement expliquer... classer un petit peu ces grands enjeux, comment on peut trouver les bases de données qui permettent de les remplir. En gros, aujourd'hui, la BD Topo va vous donner tous les établissements d'enseignement, bien localisés, plus ou moins bien localisés d'ailleurs, ou plus ou moins bien précis.
- Speaker #0
Il faut les renseigner. Un établissement de 50 élèves, ce n'est pas la même chose qu'un établissement de 500 élèves. Pareil dans le domaine social, dans le domaine économique. Donc, il faut beaucoup, fortement, très fortement affiner aussi la caractérisation de ces enjeux pour aujourd'hui agir sous la vulnérabilité. On y reviendra peut-être dans les actions. Non,
- Speaker #1
mais c'est important, cette question de la temporalité, parce que ça veut dire aussi qu'effectivement, ces référentiels ne sont pas figés dans le temps. Ce que tu as très bien expliqué, Ludovic, c'est qu'effectivement, ces référentiels, ils bougent. Comment est-ce qu'on fait aussi pour adapter l'ensemble de ce socle de connaissances qu'on pourrait partager pour faire en sorte qu'ils prennent en compte à la fois ces référentiels et puis aussi la mise à disposition de données qui sont de plus en plus fines, dont devient aussi de plus exigeant, nous aussi, dans les données et dans la finesse des données dont on peut disposer pour parler ou évoquer les risques climatiques. Alors Sébastien Brana, je me tourne vers vous. Je vais vous laisser un petit moment pour présenter quand même l'association Info-climat. Mais pour vous aussi, il y a la question de la temporalité, mais il y a aussi la question de la granulométrie. Ludovic l'a un petit peu abordé. Et c'est aussi une question qui est importante quand on parle de la data, c'est de pouvoir en disposer à différentes échelles, à différents niveaux. Mais avant de rentrer dans le vif du sujet, peut-être quelques mots sur Info-climat.
- Speaker #2
Bonjour à tous. Oui, on a un petit mot parce qu'on est... un petit peu différent des institutions et autres sociétés qui sont ici représentées. L'association Info-Climat a été créée en 2003, elle soutient et elle vise vraiment à maintenir et développer le site www.info-climat.fr qui existe depuis le début des années 2000. Et à l'époque, mes petits camarades, je n'étais pas encore dans l'association, ont inventé un concept, ce qu'on appelle aujourd'hui la science participative, qu'on appelait il y a encore 10 ans le Web 2.0, très concrètement le fait qu'un site communautaire, le contenu est issu de ses membres. A l'époque, croyez bien que c'était totalement révolutionnaire, ce qui est aujourd'hui d'une banalité sans nom, surtout à l'heure des réseaux sociaux. Aujourd'hui, vous le connaissez peut-être parce que, par exemple, il y a des photos de notre site qui sont régulièrement reprises dans les bulletins météo, notamment sur France Télé. Le principe, à la base, c'était de reporter les phénomènes météo qu'on observait et plus particulièrement les phénomènes qui étaient potentiellement dangereux. Et puis, on a fini par compléter par des observations de type photo et puis après des observations de type données mesurées. Et c'est là qu'on a commencé à déployer des privés, mais aussi l'association des stations météo. Et on est à une époque où, honnêtement, pour repartir un peu sur la question des normes et des référentiels, comme on est un tout petit peu en avance sur notre temps, à l'évidence, on les a un petit peu inventés nous-mêmes à ce moment-là, nos référentiels et nos normes. Et finalement, c'est qu'en 2010, quand Météo France s'intéresse vraiment à nous, parce qu'ils commencent à se dire « mais il y a des informations intéressantes à traiter de manière opérationnelle, eux, dans leur suivi, typiquement d'un événement météo un petit peu chaud, ils savent qu'avec... » Le réseau dont on dispose d'observateurs, évidemment, c'est extrêmement précieux. Et c'est à partir de là qu'on commence à normaliser à la fois nos stations, à documenter les métadonnées et à documenter aussi tout ce qui est la partie météo, climato, mesures. Et c'est vraiment qu'en 2010, où finalement, on se normalise pour retrouver un peu les standards, parce que maintenant, à ce moment-là, ils étaient disponibles et s'alignaient sur ce que fait, ce que promeut notamment l'Organisation Mondiale de la Météo, et qui est largement déclinée en France par Météo France. Dans l'histoire du site, on est parti d'une poignée de, pour les reconnaître, de geeks météo qui était une centaine à l'époque. Aujourd'hui, on est 2500 à 2 ans.
- Speaker #1
Ça peut être très efficace aussi.
- Speaker #2
Oui, parce que c'est marrant d'ailleurs de reprendre très rapidement l'histoire. C'est-à-dire que pendant une dizaine d'années, c'était quand même très confidentiel. Et en 2010, il y a une espèce de bascule un peu qui se passe. On est identifié par des professionnels météo sensibles, à commencer par les agriculteurs, qui commencent à comprendre l'intérêt d'avoir des données. Et c'est là où j'en viens à votre question. des données un petit peu plus précises que la station Météo France, parfois disponible, je dis parfois, pour tout le département. On comprend bien que quand on est agriculteur et qu'on gère une parcelle, la donnée de l'aérodrome ou de l'aéroport qui est à 40 ou 50 kilomètres n'a assez peu de sens. Et c'est là que ça commence un peu à prendre. Franchement, c'est à ce moment-là que les professionnels météo-sensibles, et je vous dis les agriculteurs, mais après il y a eu les cabinets d'études, d'ingénierie. qui ont commencé à s'intéresser à ce qu'on fait, ce qu'on pouvait faire. Et puis il y a une autre bascule, c'est fin des années 2010-2019, les effets des canicules qui ont frappé dans nos chaires, et notamment beaucoup de nos concitoyens, notamment à Paris. Là, on passe une autre bascule, c'est le citoyen qui s'intéresse à nous, parce qu'on a de plus en plus de nos data viz qui sont reprises dans les médias, par des data journalistes qui sont un petit peu intéressés par ce qu'on produit comme données, comme data viz, ou comme data via nos API en open data. Et là, c'est la deuxième bascule qui est assez nette. C'est intéressant d'avoir des réseaux d'observation locaux, d'avoir des observateurs locaux et d'avoir en temps réel la connaissance de ce qui se passe. On parle souvent de la météo comme le temps qu'il va faire et la spécialité du site, nous c'est le temps réel. Pour faire une bonne prévision, il faut déjà avoir une bonne analyse, une bonne connaissance de la météo qu'il fait. Et croyez bien que c'est beaucoup moins évident qu'il y paraît. Aujourd'hui, c'est tellement vrai que les modèles numériques de prévision du temps, ils passent plus de temps à collecter les données qui sont disponibles par milliards. que finalement pour sortir la prévision déterministe qui permet ensuite de faire la prévision météo. Donc voilà en deux mots ce qu'est le site. Aujourd'hui en effet... On a toujours une vocation à diffuser, faire connaître la donnée qui est disponible et puis la partager avec le plus grand nombre. En 2022, on est identifié par l'État et la direction du numérique pour participer à ce qu'ils ont appelé l'accélérateur d'initiative citoyenne, surnommé la service public augmenté. Je le mets entre guillemets. Comme agent de l'État, j'ai quand même quelques petites précautions d'usage, on va dire. Oui, parce que je suis bénévole et par ailleurs je ne travaille absolument pas pour Foclima, c'est la particularité d'une association de bénévoles. C'est une première phase où on voit vraiment qu'on nous encourage à pousser plus loin cette diffusion et cette collecte de données et la faire reconnaître et la faire diffuser. Sachez que ça a permis, deux ans plus tard, donc au début de l'année dernière, d'avoir le météo DataGouv.fr qui ouvre, exploité par la DINUM, mais avec les données de Météo France. L'idée vraiment née à ce moment-là, parce qu'on a poussé depuis 10 ans Météo France à y aller, c'était le sens de l'histoire, il était évident que c'était incontournable. Ça n'a pas été sans sujet, on en reparlera peut-être ultérieurement. Aujourd'hui, on est accompagné par exemple dans le cadre du Policy Lab avec Sciences Po, pour essayer de définir des cas d'usage, qu'est-ce qu'on peut faire de nos données, comment on peut apporter sous forme d'assistance maîtrise ouvrage et des collectivités, le déploiement de réseaux, de micro-réseaux, de quelques stations ou de capteurs. dans des communes, dans des collectivités, des agglos, où je l'ai fait il y a une quinzaine de jours sur une exploitation agricole dans l'Aude, par exemple. Parce que l'idée, c'est qu'en aucune manière de concurrencer Météo France, ce n'est pas le sujet. D'ailleurs, on a toujours veillé, nous, dans le déploiement de nos stations, bien avant qu'elles soient en open data, de faire en sorte qu'elles soient positionnées dans des endroits où il n'y avait pas déjà de la donnée météo, parce qu'on savait qu'un de ces jours, elles seraient forcément disponibles. Et voilà, le but, ça a toujours été le maillage, le maillage le plus fin possible. Et cette complémentarité, vous parliez de granularité complémentaire. C'est pour nous un enjeu depuis pratiquement qu'on a installé nos premières stations. A l'ouverture du site, on va dire que les pages qui commencent à ressembler à vraiment quelque chose en 2003-2004, il y en avait une dizaine aujourd'hui, il y en a 2000, y compris avec nos partenaires européens pour certains. Voilà la particularité sur ce qu'on s'attache aujourd'hui, de travailler, de développer, et on a maintenant des institutionnels qui nous y encouragent et qui nous y aident.
- Speaker #1
Et ça permet aussi, effectivement, de partager cette connaissance, j'allais dire, presque du temps zéro. On évoquait tout à l'heure ces questions de temporalité. C'est important de savoir de quoi on part. Effectivement, il y a l'avant pour faire le diagnostic et l'état des lieux. Il y a le moment de crise, si il y en a un, ce qu'on ne nous souhaite pas, mais malheureusement, ça arrive. Et puis, il y a l'après. Et effectivement, le travail que vous faites avec les capteurs, ça permet d'affiner un peu cette connaissance.
- Speaker #2
Si je vous demande dans la salle comment on mesure la température, je suis à peu près sûr à 90% de chance que vous n'allez pas me donner la bonne réponse. Vous allez me dire la température à l'ombre. Sachez que c'est la température sous-abri, ce qui n'a rien à voir avec la température à l'ombre. Typiquement, il y a une méconnaissance flagrante de rien que la donnée mesurée. Déjà, quand on commence à expliquer comment on mesure véritablement une donnée, et ce qu'on peut en déduire, il ne fait pas 40 degrés en France tous les étés depuis 30 ans, contrairement à ce que pensent beaucoup. de personnes parce qu'évidemment ils se sont référés à leur thermomètre sur leur terrasse en plein soleil et expliquer que 40 degrés à l'été en france c'était anormal ou vraiment statistiquement improbable et encore une vingtaine d'années on l'a quasiment presque tous les ans maintenant ce qui est quand même un signal évident et rien qu'en effet partir de d'expliquer ce qu'on observe est ce qu'on avait observé dès lors que c'est mesuré de manière normalisée il ya là il ya un message qui passe et ça toujours été un peu notre idée c'est d'être factuel Après, on laisse les gens tirer les conclusions qui s'imposent sur leur comportement. On ne les oblige pas à dire qu'il va falloir arrêter votre voiture thermique. On dit simplement qu'il y a, elle évidence, un signal qui est quand même assez probant. Tirez-en les conclusions qui s'imposent.
- Speaker #1
Et prendre en compte à un moment ou à un autre.
- Speaker #2
C'est tout à fait ça.
- Speaker #1
Alors, on a vu la donnée, effectivement, pour affiner la connaissance, pouvoir partager ce socle commun. Et puis... Peut-être éventuellement construire ou commencer à construire des référentiels ou ce qui pourrait nous servir de référentiel. Mais il y a aussi le besoin de données. On a commencé un petit peu à en parler pour passer à l'action. Et donc, concrètement, ça veut dire quoi ? Passer à l'action avec de la data. Comment la donnée peut participer à la prise de décision sur cette thématique ? Je me tourne vers Erwan. Oui, très bien.
- Speaker #3
Je peux rebondir sur la donnée de la communauté Netatmo est utilisée dans les projets de recherche que je suis sur chaleur et santé en ville avec Météo France NRM, l'IPSL, etc. C'est un vrai enjeu d'essayer de mobiliser aussi cette connaissance puisque, comme ça a été très bien dit, pour parler de contraste thermique dans la ville et d'îlots de chaleur urbain. Aujourd'hui, c'est la station principalement de Montsouris. et qui ne rend compte que de la température, de l'humidité, etc., dans des règles de mesure du parc Montsouris, qui est arrosé la nuit. Et donc, c'est ça qui nous permet de dire, il fait plus chaud à Paris que... Donc, d'une rue à l'autre... Donc, il y a un vrai enjeu sur la métrologie et sur la donnée participative de mobiliser, effectivement, Et donc, par exemple, dans ce travail-là, les chercheurs vont essayer de regarder ce qui est exploitable ou pas exploitable, puisqu'il y a aussi des problèmes de poser des capteurs à l'ombre, pas à l'ombre, surexposés au soleil, etc. J'arrête là. La donnée pour l'action. Donc, deux éléments de réflexion. Si on revient aux données, c'est effectivement les données de connaissances d'un côté. Et puis... et puis les scientifiques, par exemple, et les lier aux données, on va dire, d'objets d'action publique ou privé. Par exemple, dans l'expertise, il faut aussi, on fait une expertise de diagnostic en rapportant des éléments de connaissances scientifiques, par exemple, à la chaleur urbaine, on peut témoigner là-dessus. C'est de lier, effectivement, l'analyse sur les objets ou les cibles de l'action. classique pour la chaleur urbaine. L'action, par exemple, jusqu'au bâtiment, mais dans sa fragilité, par exemple, les passoires thermiques. C'est une réflexion sur jusqu'à quel niveau d'objet d'action pour pouvoir ensuite dire, on a effectivement déterminé un secteur plus chaud ici que là. Dans ce secteur, il y a des objets d'aménagement qui valent intervention, et entre des bâtiments, passoires thermiques et d'autres bâtiments. Le bâtiment par soie thermique qui fait rentrer davantage de la chaleur en excès dans le logement. Voilà. Ou sur une population dite fragile, population âgée isolée, population vulnérable du point de vue de la pauvreté, des populations fragiles. Et donc, il faut injecter effectivement ces indicateurs dans la donnée. Une deuxième réflexion, c'est ça, c'est l'approche expert, mais en croisement de données et ne pas oublier le rapprocher au cible de l'action. pouvoir dire quelque chose derrière en termes de registre d'action. Et le deuxième niveau, c'est mêler à une même table des connaissances scientifiques et chercheurs à des porteurs d'action, collectivités de tous niveaux, par exemple, et de travailler ensemble sur un même outil avec les mêmes jeux de données. Et on l'a fait dans un cas de projet, justement, je reviens, le projet H2C Chaleur et Santé en ville. On l'a testé l'année dernière autour d'une plateforme d'analyse multicritère avec les données injectées des chercheurs. et des données de la socio-démo urbaine, et on a fait travailler les chercheurs et les parties prenantes. Et là-dessus, chacun avec sa casquette de compétences du point de vue des parties prenantes, quand on est un département, ce n'est pas la même chose que quand on est une commune ou une interco, par exemple, ou un responsable de service urbain, et bien on a, le résultat de cet exercice, on a défini différentes cartes. de vulnérabilité, autant de vulnérabilité qu'il y avait de compétences actions rassemblées. Voilà, on a fait des fois. Voilà. Et donc ça, c'est très important. Donc ce qui veut dire aussi qu'il y a des défis. On rejoint ce que disait Ludovic, c'est d'internaliser cette compétence au plus près des porteurs d'action, des entreprises, des collectivités, même des communautés citoyennes, etc. Internaliser cette compétence de plus en plus. Faire ça aussi parce que si on rejoint. La définition d'adaptation, c'est s'adapter, c'est hautement évolutif. Et donc si on n'internalise pas, c'est qu'on sera un one shot, à un moment donné on aura une vue d'une vulnérabilité, mais celle-là elle peut changer progressivement, etc. parce que les incertitudes sont levées plus ou moins sur certains aléas, etc. Et donc l'internalisation de cette compétence est vraiment un enjeu pour demain, pour pouvoir effectivement... réintégrer des nouveaux jeux de données, retravailler la question des vulnérabilités avec ce côté évolutif. C'est ça, c'est propre au changement climatique. On ne connaît pas tout notre avenir du point de vue du changement climatique.
- Speaker #1
Oui, alors justement, on le voit bien, la donnée, ça peut nous participer à cette prise de décision. Mathieu Renoir, vous le disiez aussi dans les échanges qu'on a pu avoir, ça peut aussi effectivement permettre de convaincre les communes de passer à l'action ou de l'urgence de passer à l'action, ne serait-ce que par exemple sur le risque de retrait gonflement des argiles. On a beaucoup parlé inondation, adaptation, mais il y a aussi ce risque-là. En tout cas, vous, dans votre métier, c'est quelque chose que vous pouvez... Voir ou observer effectivement que la donnée peut avoir ce pouvoir-là.
- Speaker #4
Ce pouvoir de décision. Oui, effectivement, autre risque sur notre territoire, c'est le retrait des gonflements des argiles. Malheureusement, le territoire francilien, il y a des environnements argileux forts, moyens, faibles, mais beaucoup forts. Et on a une problématique sur notre territoire, c'est qu'on exploite un réseau basse pression en fonds ductiles. Donc il y a un matériau qui a été utilisé jusque dans les années 80-90, qui n'est pas de la fonte grise. Attention, c'est de la fonte grise. Normalement, il y en a plus sur notre territoire. C'est de la fonte ductile, mais elle n'est pas cassante, à la différence de la fonte grise. Mais il y a potentiellement des fuites aux joints de jonction entre tronçons. Donc il y a une obligation de renouveler ces réseaux. Donc ça, c'est quelque chose qu'on avait identifié assez rapidement. dans la rédaction du contrat de concession. Et puis le législateur a mis de l'eau à notre moulin parce qu'en décembre 2021 est sorti un décret qui impose de renouveler l'intégralité de ces réseaux selon des dates butoirs. 2040, 30% de décanisation fonds ductiles. 2050, 100%. Et notamment dans des environnements argileux, forts et moyens. Fort de ça, on a travaillé avec GRDF pour essayer de savoir où étaient ces réseaux. On s'est aperçu qu'on avait un peu plus de 450 km de canalisations au Fong du Ctis dans un environnement argileux fort. Donc il fallait qu'on les renouvelle d'ici 2030. 2021, 2030, c'est demain. Sachant que c'est des canalisations qui sont souvent localisées d'ici. hyper centre-ville, donc qui peuvent poser des problèmes logistiques, notamment pour avoir l'accord des communes pour faire les travaux. Donc ça, c'était le premier enjeu. Ensuite, c'était d'aller expliquer aux communes qu'on était dans l'obligation de le faire, parce que oui, c'est éventuellement un risque, mais on a une obligation réglementaire, donc il faut qu'on le fasse. Troisièmement, c'est un enjeu financier. Ce qu'il faut savoir, c'est que le schéma directeur d'investissement est découpé en plan de plan de plan d'investissement, PPI d'une durée de cinq ans et que ces programmes de travaux, c'est à peu près sur notre territoire, entre 80 et 100 millions d'euros par PPI. Donc, voilà. Donc, il a fallu aussi que GRDF nous propose aussi un programme de travaux cohérent sur le point. point de vue linéaire et financier. Et donc, on a dû... Comme j'ai pu vous le dire, on a un travail de concert avec les communes. Alors, on a déjà... Je reviens en arrière. On a déjà superposé... On a pris la carte BRGM, on l'a superposée avec nos réseaux, pour identifier ces zones-là, ce qui nous a permis de ressortir... Entre une quinzaine, une vingtaine de communes prioritaires. Quand on a cet ensemble de communes, après il a fallu qu'on aille à la porte de ces communes, à toquer à la porte pour présenter ces programmes de travaux et de comprendre si elles étaient dans l'acceptation de ces travaux-là. Quand on parle de data, effectivement, on a de la data qu'on peut recueillir via de la mesure. Mais il y a aussi de la donnée qui est un peu spéciale à recueillir. C'est d'aller à la rencontre des communes et de savoir si le maire est apte à recevoir des travaux. Si la commune a son propre PPI.
- Speaker #1
C'est l'activité.
- Speaker #4
Exactement. Est-ce que la commune a son propre PPI ? Pour la requalification des voies, est-ce que c'est en accord avec, éventuellement, les rues qu'on a identifiées ? C'est d'aller aussi à la pêche aux informations auprès des autres exploitants de réseau, Enedis, mais pas que. la région, le département. Donc une agglomération de divers data et ce qui nous a permis de vraiment cibler alors je vous avais dit, on avait ciblé une vingtaine de communes et on a travaillé vraiment de façon très proche avec une dizaine pour essayer d'atteindre ces 450 km d'ici 2050. C'est pas une mince affaire. Mais c'est bien parti et le but étant de travailler avec elles sur des chartes travaux. Donc on signe une charte travaux avec ces communes. Donc elles s'engagent également à y aller et à revenir vers nous si elles ont de la nouvelle donnée, s'il y a des constructions neuves qui se construisent dans l'emprise des programmes travaux. Donc ça nous permet aussi de réorienter nos... nos programmes, nos finances, et puis éventuellement, retravailler avec d'autres communes qui n'auraient pas été ciblées initialement.
- Speaker #1
Alors, au-delà de la question de l'acceptabilité de vos interlocuteurs, la donnée, elle vous a permis aussi, là, assez clairement, j'ai l'impression, de prioriser l'action, vous, en tout cas, les actions que vous alliez mener.
- Speaker #4
Oui, prioriser l'action pour répondre aux aspects réglementaires, surtout. On sait qu'on a 450 km à renouveler d'ici 2050 sur un patrimoine de 1400 km. Donc c'est 1400 km d'ici 2050. Donc c'est quelque chose qui va sur du long terme.
- Speaker #1
Oui, alors, à sa climat, je me tourne vers Aurélien. Vous, dans ce passage à l'action qu'on évoquait dans ce deuxième temps là, les données vont surtout avoir un rôle pour affiner un petit peu vos modèles ou le travail de modélisation que vous pouvez faire.
- Speaker #5
Oui, il y a ce travail d'être plus fin. On a ce besoin d'avoir une réponse quand même. précise localement. Mais si je rebondis, en fait, on a ce même principe où on a aussi ce besoin d'identification. Et on travaille beaucoup à ça. Quand un partenaire arrive, il a besoin de savoir quels sont ses sites les plus à risque. Donc, savoir où ils sont, mais aussi d'un point de vue actuel, mais d'un point de vue futur aussi. Parce qu'on peut avoir une entreprise qui veut investir dans un territoire et on se rend compte que... Oui, actuellement, il n'y aura pas de souci, mais à un horizon 2050, 2100, au final, ton site sera vachement sensible. Donc ça, on essaye d'intervenir à cette échelle-là. Une autre difficulté, c'est les barrières frontières qui existent. L'argile, on travaille beaucoup dessus, mais un sol argileux, en France, on est dédonné, mais on passe en Belgique. Comment on fait ? C'est un peu les mêmes sols. pas les mêmes informations. Et on a ce besoin d'apporter une réponse égale, en tout cas, un peu à l'ensemble. Donc faire cette identification. On a un travail. Donc on peut après, en termes d'action, aller sur la réduction du risque quand il y a déjà des sites qui existent. L'anticipation aussi, des fois, ça aide à éviter qu'une entreprise qui est grosse consommatrice d'eau s'installe dans une région. qu'on peut identifier avec des problématiques futures en termes de sécheresse, typiquement, pareil, il n'y a pas de problème maintenant, il y aura des problèmes dans le futur. Et donc, plutôt que d'investir, enfin d'investir après pour se prémunir, parce qu'on l'a déjà installé, autant réfléchir à l'anticiper. Et le dernier volet, c'est, nous, on se rend compte en fait, en termes d'action, qu'on a plusieurs... personnes entreprises qui viennent d'un même territoire avec une même problématique et donc là on essaye de se placer en fait en un peu en faisant ben voilà des tours de table en les rames en ramenant ces différents acteurs à discuter ensemble parce que on peut parler d'action localement sur chaque site mais au final l'action efficace vous le savez bien ici ça se fait à une échelle plus grande à une échelle du territoire et donc si on arrive à un niveau de connaissance et égale à comprendre un peu les enjeux avec les informations données. On arrive à mettre tous ces acteurs à discuter ensemble et à avoir des actions plus larges qui pourront être bénéfiques au territoire dans l'ensemble.
- Speaker #1
Alors oui, le discours entre les différents acteurs, on voit bien que c'est essentiel, mais il faut aussi pouvoir adapter la réglementation ludovique. Justement, on en a parlé tout à l'heure. On a parlé des plans et de la connaissance de l'ALEA. Mais il faut aussi que ces documents réglementaires prennent en compte les nouvelles données, que le discours s'adapte un petit peu avec ce qu'on peut réussir à récolter par des nouvelles données, en tout cas.
- Speaker #0
Oui, alors là, on est un peu sur... D'abord, je voulais réagir peut-être sur le RGA, parce que c'est très intéressant. Aujourd'hui, quand on parle de RGA, la construction sinistrée type, c'est la maison individuelle. La question des réseaux est très, très peu abordée.
- Speaker #2
Et du coup,
- Speaker #0
ça me posait la question, si vous travaillez... Est-ce que vous avez des relevés de sinistralité ? Est-ce qu'il y a une sinistralité réelle sur vos réseaux ? Ou est-ce que c'est finalement vous allez agir parce que la réglementation l'impose ? Et deuxièmement, avec quelle... Enfin, vous savez que la cartographie en matière de RGA, tout le monde ne le sait pas, mais a évolué. Il y avait ce qu'on appelle une cartographie de susceptibilité au début des années 2010, qui était faite par le BRGM. Et puis, au regard des coûts des dommages, au regard de l'importance finalement des engagements financiers de plus en plus lourds pour les assureurs, mais globalement économiques, il y a une nouvelle carte qu'on appelle d'exposition qui a été publiée en 2020 pour accompagner finalement un certain cadre réglementaire de la loi Elan, qui oblige un petit peu finalement toutes les constructions nouvelles à faire des études géotechniques. On peut avoir un regard un peu critique sur cette carte d'exposition parce qu'elle a pris des indicateurs qu'on pourrait critiquer. Mais du coup, vous, vous êtes parti de la carte de susceptibilité ou carte de...
- Speaker #4
Aujourd'hui, on travaille essentiellement sur de la donnée fournie par nos exploitants, que ce soit GRDF ou Enilis. Ça, c'est un point qu'on allait aborder un petit peu plus tard dans la table ronde. Mais effectivement... Aujourd'hui, on ne peut pas se contenter de ces simples données, ne serait-ce que pour challenger les concessionnaires. Donc par conséquent, on va lancer nous notre propre étude. On va lancer une étude dans le cadre des papilles sur la résilience de nos infrastructures. Donc ça comprendra bien évidemment les réseaux de distribution publique de gaz et d'électricité, mais également nos panneaux solaires photovoltaïques et toutes nos infrastructures, les bornes IRPE, etc. Aujourd'hui on rentre un petit peu dans le métier de la data mais de façon humble, on est vraiment au tout début. On commence à construire un service dédié à la data, donc c'est à peine une année ou voire deux ans, donc on est aux prémices de ça, on va essayer de construire une base de données effectivement. dans le cadre de cette étude, pour essayer de mettre autour de la table différents acteurs, des sachants, bien évidemment, pour alimenter un entrepôt de données qui permettra ensuite d'alimenter un outil de reporting et de prendre des décisions. Parce qu'au-delà de contrôle de la concession, on se transforme maintenant dans un métier de gestionnaire de patrimoine. Et effectivement, pour gérer un patrimoine, il nous faut de la data. Voilà. Donc aujourd'hui, vraiment, on est au tout début de nos réflexions. Je sais qu'on... Peut-être est-ce qu'on prend le train trop tard ? Est-ce qu'on le prend... Est-ce qu'il est à quai et on rentre ? Voilà. Mais voilà. Mais effectivement, c'est... Alors, une des raisons qui pourraient expliquer ceci, c'est qu'effectivement, avant, on était dans des contrats de concession où il n'y avait pas forcément de... co gouvernance de prise de décision dans les investissements sur les réseaux donc là avec le nouveau nouveau schéma le nouveau schéma des cahiers des charges bah ça nous a permis de dire bah oui mais là on il faudrait qu'on travaille sur ces jeux là parce qu'on va devoir être à égal à égal avec les exploitants en fait et pas forcément prendre au argent comptant ce qui ce qui nous ce qui nous disent
- Speaker #0
Le volet réglementaire, oui. Alors, il y a deux façons. La réglementation ne fait pas tout en gestion des risques. Elle peut beaucoup, elle peut en tout cas sur certains domaines, je pense notamment à celui de l'aménagement, mais il y a beaucoup de champs de la vulnérabilité qui ne vont pas passer par la réglementation. On travaille sur l'aménagement et l'urbanisme. Notre référence souvent en matière de prise en compte du risque dans nos réflexions d'aménagement, ça va être ce qu'on appelle les plans de prévention des risques, notamment inondation en Ile-de-France. Il y en a aussi sur d'autres risques, mouvements de terrain, etc. Pour autant, et ça nous oblige, pour passer à l'action, d'avoir un regard un petit peu sur l'efficacité de ces documents, par exemple. Alors, je dis tout de suite, heureusement qu'il y a des PPR, parce que s'il n'y en avait pas, ce serait assez catastrophique. Ce serait certainement beaucoup plus complexe. Pour autant, on a un chiffre, nous. Je ne vous ai pas fait le scénario catastrophe d'une grande inondation, mais les enjeux sont considérables. Et pour autant... On a construit, nous, c'est l'analyse de nos données, 100 000 logements inondables dans le respect des PPR depuis 20 ans, un peu plus de 20 ans maintenant, en Ile-de-France. Qu'est-ce qu'on fait de ce chiffre-là ? Ce qui est tout à fait important. Et quand on regarde plus finement ce chiffre, on se rend compte de quoi ? Que les PPR sont extrêmement efficaces pour limiter l'extension urbaine. C'est-à-dire que depuis 20 ans, dans les zones inondables... Les PPR ont permis de limiter des nouvelles constructions. Par contre, on a 100 000 logements aujourd'hui supplémentaires, dans le cadre des PPR, en densification, en renouvellement urbain. C'est aujourd'hui l'axe fort du développement régional. C'est-à-dire qu'arrêter d'étendre la ville, reconstruire la ville sur elle-même, donc ça va se construire ces 100 000 logements sur des anciennes friches industrielles, sur des espaces de densification, etc. Ça interroge. On va se dire que chacune de ces constructions... Théoriquement, on va prendre en compte des nouvelles règles des PPR pour être beaucoup plus performant vis-à-vis de l'inondation. Mais en même temps, on déplace le risque parce qu'on rajoute 200 000 personnes, 250 000 personnes dans le même intervalle de temps en zone inondable.
- Speaker #1
Donc on ne fait même pas évoluer l'aléa aussi ?
- Speaker #0
Non, on ne fait même pas évoluer l'aléa. Là, c'est un aléa constant de la réglementation. C'est dans les zones prévues par les PPR. Donc ça prouve à la fois que le PPR est très efficace. pour certains aspects, mais pour autant ces PPR qui ont été faits par exemple au début des années 2000 pour les secteurs les plus urbanisés, n'avaient peut-être pas prévu ce phénomène de densification, ne l'avaient pas appréhendé. En fait on déplace la vulnérabilité. Vous êtes peut-être moins vulnérable individuellement au niveau de la construction, mais le fait à l'échelle d'un quartier ou d'un territoire de rajouter des personnes, ça pose d'autres enjeux, notamment de gestion de crise, qui est un des enjeux de vulnérabilité. Donc ça veut dire que comment fait-on éventuellement évoluer ces documents réglementaires ? On sait que c'est extrêmement compliqué. Donc on passe par d'autres outils. En fait, ces chiffres-là, ces phénomènes qui ont été observés, partagés aussi avec les services de l'État et avec tout un tas d'acteurs, nous ont conduit par exemple à créer, on a du mal à la mettre en œuvre, une charte des quartiers résilients à l'échelle de la région de France. C'est-à-dire que de sortir un petit peu du PPR pour le dépasser, pour se poser les bonnes questions en termes de vulnérabilité. La vulnérabilité à l'échelle d'un bâtiment, c'est quoi ? C'est pas que l'exposition, ça peut être aussi son accessibilité, c'est sa dépendance au réseau. C'est la façon dont il est construit. C'est par exemple une question qu'on n'avait pas posée il y a 20 ans dans l'établissement des PPR, c'est la durée de la crue. La durée de la crue, aujourd'hui, une crue majeure, ça peut durer sur certains secteurs plusieurs jours, voire plusieurs semaines. Donc comment on appréhende ça, ne serait-ce que dans la construction ? Donc ça renvoie à d'autres questions qu'une charte des quartiers résilients essaye de porter. Pour essayer de challenger, je dirais, tous les promoteurs, en tout cas tous les aménageurs. Ça peut être un angle de vue. C'est aussi une réflexion qui a été reprise dans le SDRIFE. dans un élément de planification qui reconnaît quelque part que les PPR, heureusement qu'il y en a et qu'il faut les respecter, notamment pour la valorisation des zones d'expansion des crues, des espaces non construits, mais qu'il faut peut-être réfléchir différemment sur ce qui existe déjà et sur l'existant. Ça, c'est un aspect réglementaire. D'autres travaux qui ont été mis en œuvre, mais pour passer à l'action, qui ne relèvent pas complètement du volet réglementaire, la question de la vulnérabilité des systèmes, systémiques, ce que j'appelais tout à l'heure. On se rend compte qu'aujourd'hui, notre fonctionnement métropolitain s'appuie sur des grands réseaux, des grandes infrastructures. qui permettent de faire vivre plusieurs millions de personnes. C'est en termes d'électrique, c'est de transport en commun, c'est d'approvisionnement énergétique, c'est de la gestion des déchets, etc. Mais tout ça avait été assez peu appréhendé. Les conséquences, qui dépassent souvent très largement les seules zones inondées, avaient été peu appréhendées. Tout ce travail de connaissance, donc de diagnostic qu'on a fait initialement, a conduit finalement dans une stratégie régionale de gestion du risque d'inondation, à regrouper tous les opérateurs dans un groupe de travail pour que chacun partage ses données. entre eux, parce qu'en plus il y a toute la question des interdépendances. Si vous coupez l'électricité, tout tombe derrière. Donc est-ce que les autres opérateurs qui dépendent complètement de l'électricité peuvent travailler ? Donc c'est tout un tas de réflexions pour essayer de comprendre un peu mieux notre système. Termes de gestion de crise aujourd'hui, un dernier exemple peut-être. On a des hypothèses aujourd'hui. Est-ce qu'il faut évacuer ? Quelle est la stratégie finalement de gestion de crise par rapport à un événement majeur ? Est-ce qu'il faut évacuer les personnes ? Est-ce qu'on les laisse chez elles ? On se rend compte que vivre chez soi, et ça fait partie notamment des questions de la vulnérabilité des réseaux qui sont mises en évidence, vous allez passer 3-4 jours sans électricité chez vous, ça va aller. Vous ne passez pas 3-4 jours chez vous sans assainissement par exemple. Puis vous allez tenir quelques jours. Et puis toutes les personnes... ne vivent pas la même façon ces périodes de crise. Si vous êtes une personne âgée, une personne avec des jeunes enfants, vous n'allez pas le vivre de la même façon. Aujourd'hui, la zone de défense qui gère cette gestion de crise zonale a aimé quelques hypothèses en disant, il faudrait vraiment évacuer un certain nombre de personnes dans des conditions particulières. S'il y a trop d'eau, si vous ne pouvez plus accéder à l'immeuble, si c'est un immeuble de grande hauteur, évidemment, s'il n'y a pas d'accessibilité, s'il n'y a pas d'électricité, etc. Donc, on a accompagné cette réflexion. parce qu'en plus c'est progressif, un nombre de crues se propage sur un territoire, pour essayer d'évaluer cette population. C'était le chiffre d'un million de personnes qu'aujourd'hui on annonce, et puis des personnes qu'il faudrait fortement inciter à évacuer, qui ne sont peut-être pas en zone inondable, mais en zone de fragilité, où ça va être extrêmement difficile de vivre. Donc cette réflexion-là est portée. Donc on a des données qui sont souvent une maille très très fine, qui doivent pouvoir accompagner aujourd'hui, par exemple, des plans communaux de sauvegarde. Parce que vous êtes une commune, c'est savoir où sont les populations, les populations évacuées, dans quelle temporalité. Mais ce qui est plus important encore, à mon sens, et là ça renvoie chez Rd'autres Données, c'est que ce million de personnes, et la crise Covid par exemple l'a montré il y a quelques... En 2020, c'est qu'il y a beaucoup de Parisiens ou de Franciliens, quand on leur a demandé de partir, qui sont partis d'eux-mêmes. Donc ça soulage finalement la gestion de crise. On se rend compte, dans toutes les expériences, qu'il y a 10, 20, 30% de la population qui ne bouge pas, qui refuse de bouger, ou qui bouge trop tard. Et là, tout l'enjeu aujourd'hui, c'est de pouvoir catégoriser ces populations. Pourquoi elles ne partent pas quand on leur demande de partir ? L'État demande, il faudrait évacuer. Pourquoi les personnes ne le croient pas ? Qu'est-ce qui fait qu'elles vont bouger ? Ou qu'est-ce qui fait qu'elles vont bouger trop tard ?
- Speaker #1
Est-ce que là, on n'est pas dans le registre de la culture du risque, qui pourrait participer ?
- Speaker #0
Et donc, cette réflexion-là, ça porte quelque part à encourager, comment on porte les messages auprès de la population. C'est ce constat-là. C'est comment on fait comprendre l'importance des enjeux. Et là, je ne suis sûr que la population, mais ça pourrait être aussi sur le domaine économique, etc. Donc voilà. C'est de la donner, du diagnostic pour agir derrière. Sauf que ça va prendre évidemment quelques années et ça ne se fait pas du jour au lendemain.
- Speaker #1
Oui, tout à fait. Et du coup, Erwan, dans cette histoire de culture du risque, il y a aussi cette idée de vulgariser. Il n'y a pas du tout de connotation négative dans la façon dont j'utilise ce terme, mais de rendre accessibles en tout cas les données issues du milieu de la recherche qui sont peut-être parfois difficiles à appréhender. mais qui vont permettre effectivement de partager cette connaissance. Et dans ces cas-là, on a un peu besoin quand même d'acteurs relais qui permettent de diffuser ou de faire comprendre, en tout cas, ces éléments particulièrement pointus, scientifiques, techniques.
- Speaker #2
Oui, alors si je reviens au changement climatique, on ne connaît pas tout. Et ça, c'est le vrai écueil. On a des incertitudes sur les modèles. Comme je disais aujourd'hui, il y a des nouveaux risques. Le risque feu de forêt en 2022, je crois, qui a choqué la France, plutôt le sud de la France, avec les méga-feux, on n'en parlait pas en Ile-de-France. Et depuis, il y a un travail qui se fait jusqu'à la création d'un atlas du risque feu de forêt en cours, qui va conduire à une réflexion sur l'action. C'est les nouveaux territoires de feu. les obligations des boursaillements qui n'avaient pas été mises en œuvre. Qu'est-ce que ça veut dire aujourd'hui ? C'est aussi un écueil se dire, on ne connaît pas tout, et donc on attend de connaître tout, et on ne connaîtra jamais tout. Et puis il y a la notion d'effet systémique qui va rajouter, quand on dit une canicule, mais une canicule plus une sécheresse, là c'est un super aléa. Et là, ça va introduire d'autres choses. Donc, par contre, il faut quand même rentrer dans l'action. Et donc, il y a un besoin à un moment donné, par phase, de vulgariser des éléments de connaissance et de le porter à connaissance des acteurs pour réfléchir aux actions à mettre en œuvre. Et peut-être, effectivement, avoir du recul pour dire parmi les actions à mettre en œuvre, celles qui sont dites sans regret, de celles qui sont... un peu plus incertaine et est-ce que c'est une maladaptation possible ou pas ? Voilà. Et donc, on en est là. Mais il faut aussi... Le porter à connaissance. Et donc là, ça va aussi par toucher des acteurs relais qui sont, par exemple, dans les collectivités, ceux qui sont en charge des plans climat, énergie, territoriaux. Voilà. Toucher des acteurs relais, outiller les acteurs relais. Et donc là, on en est là, en tout cas dans le domaine de l'adaptation au changement climatique. Derrière ça, il y a peut-être l'idée d'un observatoire de données ou de données actions de l'adaptation au changement climatique. Donc, c'est dans les cartons. Mais il faut qu'on arrive à ça. D'où il y ait déjà les acteurs relèves pour entrer dans l'action. Voilà. Et pas n'importe quelle action. C'est vrai.
- Speaker #1
Alors, justement, Sébastien Branat, ça me met une belle transition avec ce que vous pouvez faire, vous, au niveau d'Info Climat, de sensibilisation aussi ou d'utiliser un certain nombre de supports qui vont permettre... Alors, est-ce que ça facilite le passage à l'action ? C'est peut-être des bons supports ? C'est vous qui allez me dire.
- Speaker #3
On ne prétend pas faciliter, on essaye de mettre notre petite pierre à l'édifice avec les datas qu'on collecte et qu'on génère. Parce qu'on est à la fois utilisateur de données qu'on a récupérées de par le monde, grâce notamment initialement au serveur de la NOA américaine dont vous connaissez aujourd'hui ce qui lui arrive. On ne reviendra pas là-dessus. Et puis les datas maintenant qui sont disponibles sur les systèmes européens et sur la France. On parlera un peu des données tout à l'heure. Ça, ça nous a permis vraiment de travailler sur l'aspect grand public, notamment via des data viz qui vraiment illustrent assez facilement, quand on sait un petit peu les commenter, la tendance, on va dire. Et voilà, l'impact de l'image simple, vulgarisé pour prendre au tas de tout à l'heure, mais dans le bon sens du terme, est évident. Enfin, il est acquis, il n'y a pas de sujet. Ça prend donc l'aspect, par exemple, on diffuse sur Info Climat depuis 4-5 ans ce qu'on appelle l'indicateur thermique national. C'est la moyenne des 30 stations françaises qui sont considérées comme représentatives du climat français. C'est un dictateur thermique qui existe chez Météo France depuis des dizaines d'années en interne. On a milité des années pour qu'il soit diffusé, parce qu'une courbe qui donne la température, la moyenne de la journée par rapport à la norme, la fameuse norme météo, vous entendez sans arrêt parler, elle nous semblait assez évidente. quand il y a les piques rouges qui sont infiniment plus nombreux que les piques bleues. C'est quand même déjà un message assez évident. Nous, donc, on l'a mis en place sur Info-Climat. On n'a rien inventé. On a fait que reprendre ce qui existait en attente chez Météo France. On a donné quelques facilités supplémentaires à l'utilisateur de dire qu'il peut changer la norme de référence. En météo, enfin en climato, c'est la norme, elle est sur 30 ans. Mais évidemment, vous vous imaginez bien qu'aujourd'hui, ce qu'on mesure, on le fait par rapport à la norme 90-2020. Si vous mettez la norme 70-2000, vous allez voir que les pics rouges, non seulement ils sont plus longs, mais ils sont infiniment plus hauts. Donc déjà, il y a une vraie... Simplement en changeant la référence, il y a un vrai impact à expliquer quand on est en conférence, en événement, sur un stand, ce genre de choses. Voilà, ça c'est vraiment à partir de séries climatiques longues qu'on a pu récupérer des données. On a fait un indicateur thermique qui remonte dans les années 30, qui est critiquable parce que les normes de mesure, les stations de référence à l'époque étaient quand même plutôt contestables. Mais Téo France a raison. Par rigueur scientifique, on commence plutôt dans les années 50, mais il y a quand même là aussi des choses qui étaient intéressantes à tirer. Et puis le deuxième aspect, c'est par rapport aux jeunes. On est membre de la commission éducation du conseil supérieur de la météo, qui est sommairement le comité usagé, aussi de la commission OPS, je vous en parlerai plus tard. Là, on a une action qui est forte, qui est celle de météo à l'école. Il y a une dizaine, douzaine d'années, c'était suite au grand emprunt, donc ça ne nous rajeunit pas. Certains nombres d'établissements scolaires ont été dotés de stations météo. financé dans le cadre du grand tremplin. Et puis il y a une dizaine d'années, il n'y avait plus de sous tout simplement. Et ils sont venus taper à la porte d'Info Clément en disant c'est quand même dommage, il y a 40-45 stations avec des données qui ont été collectées, des activités pédagogiques publiées, c'est-à-dire c'est des profs qui à partir des données de la station météo, créent des activités pédagogiques transdisciplinaires qui sont en plus très intéressantes et les gamins se retrouvent à faire des stats de la proba, des graphes de la régression linéaire à partir de la station. dont ils ont les données qu'ils voient dans leur cours de récré. Et ça marche très très bien, ça fonctionne très bien. Et en plus, il y a un autre intérêt à ces stations dans les cours d'école, c'est que ça apporte des points de mesure supplémentaires et ça rejoint ce qu'on disait tout à l'heure sur la granularité. Et ça rejoint aussi ce que disait Erwann tout à l'heure, où typiquement, vous prenez la station de la Porte de Vincennes et vous la comparez avec la station de Paris-Montsouris. En journée, en pleine canicule, il y a assez peu d'écarts. Ça se joue très clairement la nuit. Vous avez 7-8 degrés d'écart vers 1h du matin entre la station qui est à Porte de Vincennes et qui représente 95% de ce que vivent vraiment les gens dans Paris ou dans l'hypercentre par rapport à la Paris-Montsouris. Vous ouvrez votre fenêtre à 1h pour aérer, mais en fait vous faites rentrer de l'air qui est à 30 degrés contrairement aux 21 ou 22 que affiche la station de Montsouris à ce moment-là. Donc ça c'est aussi l'intérêt de la station météo en proximité, et là ça vaut pour tout le monde, ça rejoint à la fois le grand public et les scolaires. la voir, la station, ça objective ce qu'on ressent et ça permet de comprendre ce qui se passe et du coup de comprendre ce qui est en train de se passer. Et d'ailleurs, il y a des phénomènes assez intéressants qu'on observe. Quand on installe une station dans un endroit qui en manquait singulièrement, il n'est pas rare que dans les années qui suivent, les gens se sont presque obligés, par rapport à ce qu'ils observent et qu'ils voient à 5 km, d'en mettre une en plus. Ils découvrent ce qui s'appelle des microclimats, qu'on connaît assez facilement, les effets de valets, tout un tas de choses qui sont liées aux microclimats. Vraiment, la topographie en général. Et ça participe très largement à la sensibilisation et à l'éducation, à la fois de l'aspect météo et dans la durée de l'aspect climatologique. C'est vraiment l'axe et ça fonctionne bien, il faut le dire. Et on est très sollicité, on l'est de plus en plus, pour accompagner ce genre d'action quand on arrive à le faire en termes de disponibilité de bénévoles, ce qui est un vrai sujet.
- Speaker #1
Alors du coup, je vais vous laisser le micro Sébastien Brana, puisqu'on va enchaîner sur la question d'accès aux données. Vous avez évoqué à plusieurs reprises, notamment l'accès aux données de Météo France, puisque là, dans ce qu'on a évoqué depuis tout à l'heure, il ne faut pas refaire la connaissance. On essaie de passer à l'action, mais encore, faut-il avoir accès à ces données ? Ce n'est pas toujours évident. Et vous, vous aviez effectivement peut-être un retour d'expérience par rapport à ça.
- Speaker #3
Je vais essayer d'être bref parce que je pourrais être très long sur le sujet. Traditionnellement, en effet, les premières données météo disponibles, c'était les serveurs de la NOA américaine et un peu les canadiens, il y a une vingtaine d'années, ce qu'on n'appelait pas encore l'open data à l'époque. Et c'est quand même une tendance dont on sentait qu'elle était inéluctable. Heureusement, on peut remercier les institutions européennes qui ont largement fait en sorte que ces datas, une réglementation sur les high value data, on peut en parler encore des jours et des jours sur ce sujet. On a amené Météo France, contraint et forcé, il faut très clairement le dire, contraint et forcé, d'offrir tout ça, ce qu'ils appellent la baie des clims, c'est-à-dire à la fois toutes leurs archives de données météo, depuis que des données météo sont collectées et saisies dans la baie des clims, et puis aussi leurs données en temps réel mesurées par leurs stations d'observation. Il faut comprendre, pour information, on a des dizaines de gens qui ont commencé sur Info-Climat et qui travaillent aujourd'hui chez Météo France. Donc on connaît parfaitement l'institution. J'habite moi-même à 10 minutes à pied de leur siège à Saint-Mandé, croyez bien que j'y vais assez souvent. Donc on sait parfaitement quel est le problème de base qui s'est posé pour eux. En gros, l'État leur demande d'augmenter leurs ressources commerciales en baissant leur dotation. Et en même temps, on leur dit, il faut que vous mettiez gratuitement les données. Et en plus, il faut que vous financiez l'infrastructure pour les mettre à disposition de manière qualitative. Évidemment, on peut comprendre qu'il y ait, comment dirais-je, une situation entre le marteau et l'enclime qui les met largement en difficulté.
- Speaker #1
De la perte de tension.
- Speaker #3
C'est factuel. Ils ont donc freiné le plus tard possible pour encore réussir à tirer quelques, et ça n'allait pas très loin, c'était quelques centaines de milliers d'euros par an des licences sur les données qui étaient disponibles, jusqu'à ce que, en effet, et ça encore une fois je vous l'ai dit, c'est la IC dont on était associé il y a quelques années, qui a vraiment amené à ce que la direction du numérique de l'État, poussée par Guillaume Rosier, vous savez le fameux créateur de CovidTracker, qui quand il rentre comme conseiller du président de la République à son premier tweet. porte sur la data météo donc le signal politique était quand même assez fort je pense que la météo france ils ont compris que ça serait fini et là ils se sont engagés avec le soutien technique de la direction du numérique de l'état et étalable pour vraiment de mettre en place une infrastructure aujourd'hui qui est vraiment franck et costaud parce que on sollicite beaucoup les données donc voilà c'était un petit peu l'historique sachez aussi qu'il ya une chose intéressante on parle des données donc des historiques pour refaire des séries harmoniser départir des données brutes et faire des statistiques qui était déjà accessible aux chercheurs, fort heureusement, mais qui l'était quand même assez difficilement pour toute autre institution, ou passionnée encore plus. Les données temps réels, certes, et puis aussi toutes les données de modélisation numérique. Les fameux modèles qui sont remarquables, qui sont reconnus mondialement pour leur qualité, Arpeggio Home, pour ne pas les citer, qui en fait ont eu un déficit de notoriété mondiale parce que leurs données sources n'ont été disponibles que tardivement. Historiquement, vos applications pour smartphones, elles utilisent le modèle américain qui s'appelle le GFS. avec une maille qui n'est pas du tout adaptée à notre territoire. Et voilà, ces données auraient été redisponibles plus tôt, ça aurait certainement permis à Météo France de faire valoir. Et en plus, d'avoir stratégiquement, c'est un peu comme le principe du logiciel libre. Ce n'était pas la data sur la data, ce n'était pas sur le code source, entre guillemets, qu'il fallait commencer à commercialiser, il fallait faire sur l'accompagnement. Parce qu'il y avait vraiment une vraie expertise de ce qu'on appelle le big data qui est détenu par Météo France depuis des dizaines d'années. C'est consubstantiel à la météo, ils font ça depuis des dizaines d'années. Ils avaient vraiment une clé à jouer, une carte à jouer, en se positionnant comme un accompagnateur de ces données qui étaient oubliées. Je me suis battu des années et des années, j'ai difficilement réussi à convaincre. Après, on peut comprendre leurs contraintes, quelles étaient-elles. Dernier sujet intéressant, c'est que maintenant, ils ont mis à disposition quelque chose qui s'appelle les données radar brutes, je ne vais pas rentrer dans la technique. Ils ont été très très très surpris que ces données radar soient exploitées d'une manière qu'ils avaient absolument pas anticipé en termes de volume de téléchargement parce que des particuliers, des techniciens, des professionnels, des bureaux d'études se sont emparés de ces données qui sont techniques vraiment pointues et qui ont extrait des données qu'ils avaient le plus grand mal à produire en interne. On appelle ça les images Doppler qui permettent de localiser les supercellules, les tornades, les choses comme ça et les champs de vent à partir des données radar et ça ils se sont... En quelques mois, ils ont vu apparaître sur Internet des choses qu'ils n'avaient absolument pas anticipées. Et avec ces données, aujourd'hui, on est en capacité, de manière libre et gratuite, d'identifier les zones à très forte intensité, les zones de grêle. Et ça rejoint une problématique qu'on avait un petit peu évoquée, c'est le ruissellement, par exemple. On a une tendance à l'évidence d'avoir des plus extrêmes, plus importantes aujourd'hui. Sur les grandes villes de France, du nord de la France, on peut avoir des intensités qu'on observait jusqu'ici que sur les villes méditerranéennes. Je viens de Montpellier, je peux vous dire que... Quand on prend 100 mm à Montpellier, c'est impressionnant, mais c'est gérable. Quand c'est à Paris, 50-60 mm pendant une heure, ce n'est pas du tout la même histoire. Et c'est le genre de choses aussi sur lesquelles nous, on s'intéresse beaucoup, en équipant ces communes avec des stations météo, avec des mailles fines. Et là, on a en temps réel, toutes les minutes, les intensités pluviométriques. Alors là aussi, ça demande un petit peu d'explication, d'accompagnement auprès des utilisateurs, parce que ce n'est pas forcément un concept très simple. Déjà, la mesure d'une précipitation, le millimètre est déjà très compliqué à expliquer. Alors quand on passe en millimètre heure, ça devient encore plus compliqué. N'empêche, il y a un vrai sujet maintenant de gestion. Et là, je passerai la main à des gens bien plus compétents que moi sur l'impact de ces phénomènes sur les communes. Et ça aussi, c'est quelque chose sur lequel on a des cas d'usage, sur lequel on travaille sur un faux climat.
- Speaker #1
Et alors, du coup, vous-même, dans toutes ces données que vous récupérez via les capteurs, est-ce que ces données, vous les mettez à disposition ?
- Speaker #3
Bien sûr, on est utilisateur de données, mais évidemment, producteur de données. Vous imaginez bien que quand on a harcelé... Amicalement, mais harceler quand même Météo France pendant des années.
- Speaker #1
Je me doutais de la réponse.
- Speaker #3
Le minimum des choses était en effet d'en faire autant, de montrer l'exemple. Donc oui, toutes les stations qui sont installées par l'association sont évidemment en open data complète. On est même sous une licence particulière qu'on appelle la licence étalable qui protège un peu le producteur de données. En gros, on ne peut pas utiliser le label Info Climat pour faire des interprétations des données qu'on ne voudrait pas voir. Ça nous protège comme producteur de données. Et on a... un ensemble de propriétaires privés qui installent leurs stations. On a des stations qui sont cofinancées. On considère à ce stade que les propriétaires des stations sont propriétaires de leurs données et ils décident quel est l'usage qui peut être autorisé. Donc là, c'est sous des licences un peu différentes qui sont du Creative Commons. Soit en effet, c'est non commercial, donc réservé à des travaux de thèse, de recherche ou de scolaire, ou alors c'est carrément diffusion interdite. C'est juste l'affichage des tableaux, mais pas le pays. On n'a pas quand même... On l'émerge les données, on est une plateforme d'échange, mais on laisse quand même le soin aux producteurs de données initiales de choisir ce qui... Mais évidemment, je plaide, je milite pour encourager tout un chacun de passer à la licence la plus ouverte possible, y compris pour des données utilisées à des fins commerciales.
- Speaker #1
Merci. Et alors Mathieu Renoir, au niveau du CIGF, vous avez commencé à l'évoquer tout à l'heure, ces actions qui permettent du coup de le partage de la connaissance avec le... Le PAPI, peut-être que vous voulez compléter un petit peu ce que vous avez commencé à aborder tout à l'heure. Peut-être expliquer le PAPI pour ceux qui n'en avaient pas.
- Speaker #4
Oui, alors le PAPI, c'est le programme d'action de prévention des inondations. C'est piloté par 5 Grands Lacs, qui est un établissement public aussi qui a la compétence au GéMAPI. Et donc, du coup, elle pilote en fait ce qu'on appelle un fonds barnier. qui permet de financer des actions qui sont propres à certaines collectivités, dont la nôtre, CIGF. On se lance dans une étude de résilience de nos infrastructures face aux risques crus. On espère mettre autour de la table, comme j'ai pu le dire, différents acteurs, des opérateurs publics, privés, des collectivités. des sachants pour recueillir l'information la plus juste et pour ensuite délivrer le bon message à nos collectivités membres. Effectivement, on a des communes sur notre territoire qui sont plus ou moins bien renseignées sur ce sujet-là. Si je prends la commune d'Alfortville, oui, depuis de très nombreuses années, ils ont un service dédié aux risques crus, parce que sachant que l'intégrité du territoire serait sous l'eau. Donc il n'y a pas de sujet, mais on a quand même quelques collectivités qui sont... qui seraient impactés par ce risque-là et qui ne sont pas forcément au fait, parce qu'ils n'ont pas forcément les moyens humains pour gérer ce type de crise. Donc il faudra qu'on travaille sur le bon déploiement de ces données-là dans la meilleure forme. Alors est-ce que ça prendra l'aspect d'une cartographie, d'un outil ? interopérables, d'API pour envoyer de l'information à des systèmes d'information géographique externe. Bon, à voir.
- Speaker #1
C'est encore à creuser.
- Speaker #4
Ça, c'est encore à creuser. Et puis, on a une deuxième fiche action dans ce papy. C'est les actions de sensibilisation, tout simplement. Donc, il va falloir qu'on sensibilise nos élus, parce que certains sont climato-sceptiques. Il ne faut pas... Il ne faut pas se le cacher, effectivement, ce n'est pas forcément... Aujourd'hui, il y a encore des gens qui n'y croivent pas. Et puis, nos services techniques, qui ont tellement de...
- Speaker #0
multitude de compétences dans leur escarcelle qui ne sont pas forcément sachant sur ce point-là. Donc il va falloir aussi qu'on soit pédagogue et utiliser les bons éléments de langage.
- Speaker #1
Alors justement Aurélien Boisselet, il y a effectivement, vous dites ça aussi un petit peu ce que vous dites, le besoin d'une culture du risque, le besoin d'une culture de la donnée. Il faut aussi que tout le monde arrive à s'emparer des enjeux qu'il y a autour de ces données.
- Speaker #2
Oui, c'est assez important. Ça permet d'avoir un socle commun sur la discussion. Ça permet pas mal de choses. Nous, on n'est pas producteur de données, mais par contre, les données accessibles sont très importantes. On en parlait de la NOAA ou l'USGS américain qui produisent énormément de données. Nous, on travaille beaucoup avec ça et donc cette accessibilité est importante. Et pour expliquer un peu comment on travaille, alors là, je peux vite fait donner un exemple. En fait, ça, c'est sur la partie assurantielle. Donc nous, comme j'ai expliqué, on travaille sur de l'assurance, mais on travaille sur l'assurance un peu particulière, ça s'appelle l'assurance paramétrique. Donc si je prends un exemple simple, il y a une catastrophe qui arrive, l'assurance classique, il faut qu'on attende, qu'on aille contacter son assureur, qu'il vienne sur place, qu'il fasse une estimation, qu'il revienne. Et puis après, ça prend trois plombes, ça met du temps, on estime les dégâts. Voilà. Nous, on travaille sur du paramétrique, c'est-à-dire qu'on utilise vraiment la donnée. En fait, tout est calibré à l'avance. On calibre avec des données, soit la vitesse de vent, soit l'accélération du sol pour du tremblement de terre. C'est des choses calibrées en avance. On a besoin de données pour apprendre, on a besoin de modélisation, on a besoin de comprendre la vulnérabilité. Tout ça, on le fait en avance, mais ce qui fait que quand il y a un événement qui arrive, globalement, on paye en quelques jours, voire quelques heures. Et là où on travaille, c'est pour ça qu'on a besoin de cette donnée. Un des exemples sur lesquels on a participé, c'était l'année dernière le sisme au Maroc. Donc nous, on a participé. On n'est pas seul assureur dessus. C'est sur un ensemble de groupes. Mais pour assurer le front de solidarité marocain pour l'ensemble des communes du Maroc. Et donc l'accessibilité à ces données, ça a permis de mettre en place ce type de structure. Ça a permis de mettre en place un paiement rapide. à destination de ce fonds de solidarité pour aller justement identifier très très rapidement quels ont été les villages impactés, etc. Et si on enlève, puisque c'est un peu les tendances qu'on entend actuellement, cette accessibilité aux données américaines, ou en tout cas si on met un système de paiement, des contrats comme ça, ça va être beaucoup plus compliqué à mettre en place. Parce qu'on est sur des contrats qui sont quand même solidaires avec différents acteurs. Donc voilà, un petit exemple sur de l'assurance. Et puis, bien entendu, comme on a parlé, la compréhension de l'historique, elle est clé. Et donc, sans les données, on resterait à des visions modélisées. Et on aurait du mal à calibrer un petit peu, justement, cette aléa avec impact dont on a besoin.
- Speaker #1
Alors, on a beaucoup échangé. Je vois l'heure qui... tourne et du coup je voudrais quand même qu'on puisse prendre éventuellement quelques questions bien sûr pour nos invités si vous voulez vous interpeller avant que vous n'hésitez pas mais voir peut-être déjà si dans la salle peut-être qu'il y a des questions si vous pouvez vous présenter
- Speaker #3
Oui, bonjour. Muriel Martin-Dupré, je représente l'association FNE Île-de-France, France Nature Environnement, Île-de-France. Puisque c'est une séquence intitulée « Au data citoyen » , je voulais dire que dans les acteurs que vous avez identifiés, il y a la société civile qui, quelquefois, s'organise dans des associations. Et je voudrais porter témoignage du fait que... A l'occasion de l'élaboration des PLU, lors du cours d'urbanisme, des PLU intercommunaux ou des PCAET, nos associations sur le terrain qui sont informées des risques sur la biodiversité, des risques... à l'occasion de projets d'urbanisme, etc., participent au débat, interpellent les collectivités locales, et qu'il ne faut pas négliger cet acteur associatif, parce que les gens sont animés de convictions et porteurs de valeurs, donc ils sont d'autant plus pugnaces, et donc il faut qu'ils puissent avoir accès à toutes ces données que vous avez évoquées, pour que leur interpellation soit prise en compte. soient nourris d'expertise et puissent, au cas où ils ne sont pas entendus, conduire des contentieux. Parce que, comme vous le savez, il y a un moment aussi où le rapport de force tient dans l'interpellation grâce à la justice. Et donc, voilà, s'il peut y avoir en open data un accès du citoyen de base regroupé éventuellement en association, ça sera un atout par rapport à ce que vous voulez dire. Et à titre d'illustration, je voulais dire qu'on a monté, grâce notamment à des fonds du Conseil Régional de l'Île-de-France, mais pas que, de l'OFB et de l'ADEME, une plateforme qui s'intitule Carto-Végétation. Et comme vous le savez, la végétation, ça a un impact positif pour le climat. Et donc cet outil qui est en open data, il permet de cartographier la végétation. en Ile-de-France pour mieux la protéger, et donc faire en sorte qu'elle soit prise en compte dans les documents d'urbanisme que vous évoquiez les uns et les autres. Ça, c'était ma première information et entre guillemets revendication que les acteurs associatifs soient pris en compte dans la réflexion. La deuxième remarque que je voulais faire, c'était, je veux dire, qu'on parle de multiplier effectivement les datas, mais à la sortie, est-ce que vous avez pensé au data center ? qui vont se multiplier dans la région Île-de-France, parce que c'est une région où effectivement les sièges de société, les besoins et les projets vont se multiplier. Et donc vous n'êtes pas sans savoir que ces data centers posent la question de l'hyperconsommation de l'énergie, de l'émission des gaz à effet de serre, etc. Donc je voulais que les intervenants, après avoir appelé à la multiplication des data, se rendent compte... de ce que ça va provoquer sur le territoire francilien.
- Speaker #1
Je ne sais pas si ça appelle une réponse, si l'un d'entre vous veut.
- Speaker #0
Oui ? Sur les data centers, effectivement, c'est quelque chose qu'on a déjà identifié, nous, au sein du syndicat. Il y a des solutions pour réduire cette empreinte carbone négative de ces data centers qui seront malheureusement essentielles pour... pour la transition numérique du territoire. On pourrait parler d'hybridation avec ELEC-Gas ou d'autres solutions. Mais effectivement, ce sont des points que nos exploitants GRDF et NEDIS ont identifiés et sur lesquels ils travaillent pour réduire l'empreinte carbone de ces fameux data centers.
- Speaker #2
Merci. Moi je vais plutôt réagir sur la première partie, sur la science que vous parliez d'association. Et ça en fait c'est quelque chose qu'on trouve assez clé. On en a parlé ce matin de sciences participatives justement. Pour le coup parce qu'on a beaucoup parlé de modélisation. Et justement on fait des modèles, on fait pas mal de choses. Mais il y a une connaissance locale qui est vraiment très importante. Et donc c'est en ça que des fois c'est compliqué à capter, mais c'est clé. de savoir qu'est-ce qui se passe sur le territoire. Et donc, il y a un essor de ces sciences participatives qui permettent d'avoir une visualisation, une accessibilité à ces données. Là, vous avez parlé sur la végétation, je sais que ça existe aussi sur la biodiversité. Moi, je ne travaille pas directement, mais j'ai des collègues qui travaillent dessus. Et donc, c'est des acteurs clés. Nous, on essaye de... C'est un effort qu'on fait... commence à faire en fait de travailler à l'échelle d'un territoire et typiquement donc on a parlé des collectivités on parle des entreprises mais il ya aussi le maillage associatif au final la connaissance modèle c'est important mais la connaissance locale elle est elle est tout autant et donc en fait faut qu'on arrive à concilier les deux sur la seconde partie data center ça on le sait aussi on l'a très bien identifié de sa travail sur le climat après malheureusement en termes d'impact ça c'est beaucoup plus compliqué pour nous
- Speaker #1
Il y en a quand même une association. Je ne peux pas laisser passer ma question,
- Speaker #4
madame. Quand Météo France vient nous chercher en 2010, vraiment il vient nous chercher, il mesure tout l'intérêt d'avoir un réseau de bénévoles disponibles et capables à 3h du matin de préciser si la précipitation qu'ils voient au radar se fait sous forme de neige ou de pluie. Quand ça se joue à demi-degré près et que ça conditionne une circulation autoroutière, croyez bien que c'est une information capitale pour eux. Donc oui, ça fonctionne quand même très bien depuis de nombreuses années. Mais aussi parce que la météo a toujours eu du sens en termes de collaboration. Il y a eu l'organisation mondiale de la météo. On commence à diffuser des messages entre les pays avant même l'ONU. Parce qu'on comprend bien assez facilement que le temps en Europe est conditionné par les conditions météo aux Etats-Unis 6-7 jours avant. Et c'est inhérent à la météo d'avoir toujours un fonctionnement en réseau. Et peu importe l'observateur de partager la donnée. Donc ça, ça a toujours été inhérent. Et c'est pour ça qu'on fait partie du... paysage national de la météo, en tout cas francophone, parce que ça a toujours été compris par Météo France comme un aspect complémentaire, en aucune façon de manière concurrentielle, sachant que le marché de la météo est devenu très concurrentiel ces dernières années. Sur le deuxième point, je pense que les datas existent déjà, donc on n'en produit pas beaucoup plus. C'est pas le sujet de dire de multiplier les datas. Les baies de stockage et les calculateurs, les datas elles existent déjà et le sujet c'est de les croiser, de les identifier, de les partager au bon moment et de les documenter via les métadonnées. Et en fait c'est plus une histoire de transmission de données que d'utilisation d'espace disque ou de CPU d'une certaine façon. Donc je pense qu'en fait, certes...
- Speaker #1
Mutualisation peut-être aussi.
- Speaker #4
Totalement, totalement. Donc évidemment il y a un impact incontestable. Info-climat c'est une 4, 12, 13 serveurs et croyez bien que... On a optimisé ça pour des raisons de coût, soyons pragmatiques. Mais en fait, on ne consomme pas beaucoup plus à les partager alors qu'elles sont déjà disponibles. On parle beaucoup en météo de ce qu'on appelle les données opportunes. Il y a plein de capteurs qui ne sont pas faits pour faire de la météo et qui sont aujourd'hui exploités par Météo France avec tout un tas de partenaires où à partir d'une température d'un rail, vous n'imaginez pas, d'un capteur de pluie sur un pare-brise de voiture qui déclenche le vaut de balai d'essuie-glaces, c'est des données qui existent. déjà en réalité. C'est juste le sujet, c'est qu'il faut savoir les identifier et après avoir le traitement pour les intégrer de manière optimale dans les modélisations, dans les observations. Voilà, je pense que il y a un coût incontestable, mais finalement il est peut-être assez marginal par rapport à tout ce qu'on peut en tirer comme déduction et comme un trait.
- Speaker #1
Est-ce qu'il y a une autre question ? Oui.
- Speaker #5
Joël Plancher, Aérodata France. Donc déjà ravi de la table ronde et de voir des expertises. diverses, donc ça souligne le couplage des disciplines. Ma question, c'est plus par curiosité sur le risque d'inondation. Une mesure qui avait été évoquée, c'est de densifier l'habitat. Mais derrière, est-ce qu'il n'y a pas de risque de subsidence régionale, l'affaissement des terrains sur ces constructions, qui augmenterait à la fois l'aléa, mais aussi l'enjeu ?
- Speaker #6
C'est de la géotechnique, j'imagine que quand vous faites une construction, il y a les études qui sont faites au préalable. Donc non, la question de la densification, en fait, c'est un vrai projet d'aménagement pour la région. C'est de savoir comment est-ce qu'on continue l'extension urbaine avec tous ces inconvénients, tous ces enjeux. Ça répond aussi à cette densification des investissements en matière de transport. Donc c'est densifier la ville à côté aussi, par exemple, d'un système de transport sur lequel on met quand même quelques dizaines de milliards d'euros et pour que ça soit le plus efficient, le plus efficace. La question de la densification, pour moi, elle se pose plus en termes de bonne échelle. Est-ce qu'on profite finalement, alors je ne veux même pas parler de densification, je vais parler de renouvellement urbain. Est-ce qu'on profite finalement de toutes les opérations de renouvellement urbain qui sont extrêmement nombreuses à l'échelle de notre territoire pour faire quelque chose de plus résilient ? Mais c'est résilient vis-à-vis du risque d'inondation, si on en est inondable, mais ça peut être aussi plus résilient vis-à-vis du risque climatique, de la canicule, peut-être du RGA. C'est profiter finalement de ces opportunités d'aménagement. nouvelles pour faire mieux. Et donc comment fait-on mieux ? C'est se poser les bonnes questions, poser les bonnes questions de la vulnérabilité, c'est en tout cas profiter de cet élément là pour une voie de progrès. Après la question de la densification pose d'autres problèmes mais ça ça peut être vis-à-vis d'inondations par rapport à la gestion de crise mais plus globalement c'est par rapport peut-être à un cadre de vie, par rapport à une adaptation, par rapport à des équilibres avec des espaces verts, des besoins d'espaces publics etc. Donc la composanterie ce n'est qu'une des composantes. de cette question d'identification. Après, sur la construction et de travailler sur les terrains, je pense que ça relève de la géotechnique. J'ose espérer que ceux qui font aujourd'hui des constructions de plus en plus denses s'intéressent quand même en amont à ces questions-là.
- Speaker #5
Oui, alors la subsidence, c'est au-delà de la géotechnique, c'est vraiment de la géologie. On augmente le poids des constructions, donc tout un quartier qui va finir par affaisser. Et donc, c'est plusieurs.
- Speaker #6
Je suis clairement en compétence.
- Speaker #1
Est-ce qu'il y a une autre question ?
- Speaker #4
Bonjour, Nicolas Lemaux, Open to Work. Je voulais vous poser une question parce qu'on a parlé de pas mal d'expertise sur le big data, notamment sur le gros volume de données, etc. Et ma question, c'était au niveau assurancé ou même dans le secteur de la recherche et des projections, quel est l'apport de l'IA si vous l'utilisez, pour les modèles prévisionnistes ?
- Speaker #2
Pour le coup, nous, on commence à l'utiliser. Alors, on a des limitations, parce qu'en fait, sur l'IA, typiquement, on ne va pas mettre des données sensibles, on ne sait pas où ça va aller. D'un point de vue... purement recherche parce que moi je fais partie d'une équipe qui est très liée à l'académique, on vient tous du monde académique, on l'utilise énormément pour tout ce qui est amélioration, code, etc. Et ça pour le coup, il y a quand même un vrai plus et ça permet d'aller beaucoup plus vide, qu'on veut coder, qu'on veut avancer sur ces choses-là. Donc pour dire, on ne met pas de données directement dedans, par contre en termes de connaissances, informatique, code, ça oui.
- Speaker #1
Et moi, je peux parler avec mon autre casquette, Institut. C'est vrai que du coup, l'IA, nous, sur ces sujets-là, on va l'utiliser surtout pour produire de la donnée. Et on produit de la donnée, c'était la thématique de mardi, avec Michel, surtout à partir des images satellites, qui va nous permettre effectivement de détecter des objets à partir d'imageries. Et là, on va pouvoir produire de la donnée qui va nous permettre d'alimenter, ce qu'on disait tout à l'heure, notre SIG, parfaire nos connaissances, avoir une socle de données sur laquelle on va pouvoir venir qualifier et aborder ces sujets de risque climatique. Après, il y a effectivement d'autres usages qui sont plus difficiles à évaluer, qui vont être effectivement la vérification d'un col, l'écriture d'un script ou ce genre de choses qui, effectivement, va pouvoir permettre de faire des traitements ou des géotraitements beaucoup plus rapidement sur des bases de données beaucoup plus larges que ce qu'on peut. pouvez faire il y a quelques années.
- Speaker #0
Si je peux me permettre. Alors, en laissant un autre risque, c'est les risques de sécurité industrielle, notamment lorsqu'on fait des travaux à proximité des réseaux électriques, gaziers ou autres. C'est là où on va utiliser un petit peu d'intelligence artificielle, notamment pour développer des outils qui vont nous permettre de visualiser, d'identifier des travaux qui seraient susceptibles d'engendrer des endommagements de réseaux. Donc ça, c'est le premier point. Et deuxième point, ce n'est pas forcément le thème de la matinale, mais c'est quid des plans de corps de rue simplifiés, PCRS. Il y a une réglementation. Alors, la réglementation, oui, elle nous régit, mais ce n'est pas que ça. On prend effectivement des décisions par rapport à notre connaissance des réseaux, des incidents. Mais... Mais effectivement, il va falloir qu'on s'y attelle assez rapidement. Un flou juridique sur quel est le gestionnaire à l'échelle du territoire de l'île de France. Est-ce que c'est la région ? Est-ce que c'est le territoire ? Est-ce que c'est la commune qui va gérer ce PCRS, ce fonds de plan de rue simplifié ? Et comment on va le financer ? Et quelles seront les mises à jour ? Là aussi, c'est un point qu'on n'a pas abordé, c'est la fréquence des mises à jour. Donc effectivement, on a de la data. Mais la fréquence, quelle est la bonne fréquence ? C'est difficile à quantifier, c'est difficile à le percevoir aujourd'hui, personnellement.
- Speaker #1
Complètement, surtout qu'on voit bien qu'on a quand même des injonctions à avoir des données qui collent le plus possible à l'actualité, avec des recensements qui ne sont pas de cet ordre-là. D'où le besoin aussi d'aller chercher d'autres sources de données comme des capteurs ou des enquêtes qui permettent effectivement de combler ces interstices d'inventaires plus, j'allais dire, classiques, mais qui ne sont pas forcément dans les temporalités dont on a besoin pour passer à l'action. Sébastien ?
- Speaker #4
Oui, clairement, le sujet temporalité sur les données météo entre la clim, on va dire, ce qu'on appelle la climato et le temps réel. Le cœur du site, ça a toujours été le temps réel. cumuler 20 ans de données, on a fini par faire de la climatologie d'une certaine façon. C'est inhérent à la science. Pour répondre à votre question par rapport à l'IA, il y a un truc très intéressant qui est en expérimental depuis deux ans. Sans rentrer dans les détails, les modèles de prévision météo sont un certain nombre. Ils sont produits par des agences nationales. Le meilleur reconnu, c'est ce qu'on appelle le CEP, le modèle européen. Même les Américains reconnaissent qu'il est meilleur. Donc on peut considérer qu'il est quand même efficace. Le CEP, le centre européen de prévision à court et moyen terme, qui était avant en Angleterre et qui a dû déménager suite au Brexit, a travaillé pendant des années sur un modèle qu'ils appellent l'AIFS. Et en fait, c'est ces terres à données qui sont utilisées en entrée pour faire un modèle numérique. dont tu as besoin d'ops, qui a besoin d'un modèle numérique pour faire une prévision du temps, et qui génère lui-même des teradonnées en sortie, c'était idéal pour mettre une IA, faire le cas à la prenne, pendant des années, en reprenant des réanalyses. Et aujourd'hui, le modèle AIFS, il est en opérationnel depuis le 25 février, c'est tout récent, avec des résultats qui sont assez spectaculaires. Ce n'est plus un modèle qui se base sur la physique de l'atmosphère, avec les équations un petit peu complexes qui régissent la atmosphère. qui ne sont jamais complètement résolus, qui sont juste par approximation. L'intelligence artificielle produit des premières versions, un peu expérimentales encore, qui sont vraiment très intéressantes en termes de résultats, en termes de prévision, sur des événements un peu spectaculaires, notamment on sent qu'ils réagissent un peu mieux, ils ont moins tendance à lisser, et puis surtout ils ont un énorme avantage, c'est qu'au lieu de faire un run, on considère qu'il faut 6 heures pour sortir une prévision météo, donc on en sort 4 par jour dans le meilleur des cas. Le modèle d'IA va vous sortir en 20 minutes une prévision. Parce qu'évidemment, il a moins besoin finalement de ce qu'on pourrait supposer, qu'un modèle physique doit intégrer quelques milliards de données et appliquer toutes les équations non linéaires qui doivent lui permettre de faire l'approximation pour chaque échéance. Donc oui, en météo, ça marche et ça marche de mieux en mieux. Et c'est très prometteur.
- Speaker #1
Merci beaucoup. Écoutez, on a passé un long moment pour cette table ronde qui était très dense et très riche. Je vous remercie beaucoup, chacun de nos invités, d'avoir participé à cette table ronde.