Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield) cover
Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield) cover
2050 Investors (en français) — Les tendances économiques et de marché de demain, au regard des objectifs de neutralité carbone de 2050

Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield)

Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield)

33min |27/11/2025
Play
Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield) cover
Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield) cover
2050 Investors (en français) — Les tendances économiques et de marché de demain, au regard des objectifs de neutralité carbone de 2050

Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield)

Data Centers: La matière grise de l'IA (avec Sikander Rashid, Responsable mondial des infrastructures IA chez Brookfield)

33min |27/11/2025
Play

Description

L’intelligence artificielle peut sembler immatérielle, mais son ossature repose sur d’immenses Data Centers gourmands en énergie. Dans cet épisode, Kokou Agbo-Bloua explore comment ces infrastructures – des fermes de serveurs aux sites hyperscale – sont devenues le cerveau de l’IA. Kokou analyse les deux exigences fondamentales de l’IA : l’entrainement de modèles à grande échelle et l’inférence, et comment ces processus transforment profondément la consommation mondiale d’énergie et d’eau tout en alimentant une course à l’investissement de plusieurs milliers de milliards de dollars.


Par la suite, Sikandar Rashid, Responsable mondial des infrastructures IA chez Brookfield Asset Management, se joint à la discussion pour expliquer comment les investisseurs naviguent face à la demande exponentielle de puissance de calcul dans la course mondiale vers l’Intelligence Artificielle Générale (IAG). Il partage ses réflexions sur la manière dont l’équilibre entre la réduction des émissions carbone et l’expansion des capacités pourrait remodeler les flux de capitaux mondiaux, et essaiera de répondre à la question essentielle suivante : sommes-nous dans un boom de l’IA ou dans une bulle ?


Écoutez dès maintenant pour découvrir l’infrastructure cachée derrière l’IA – et ce qu’elle implique pour l’avenir de la technologie, de la finance et de la planète.


Crédits

Présentation et écriture : Kokou Agbo-Bloua

Production & édition : Jovaney Ashman, Jennifer Krumm, Vincent Nickelsen, Louis Trouslard
Réalisation : La Vilaine, Pierre-Emmanuel Lurton
Traduction : Jeremy Filleul
Musique : Cézame Music Agency
Création graphique : Cédric Cazaly


Bien que le podcast traite des marchés financiers, il ne recommande aucune décision d’investissement particulière. Si vous n’êtes pas certain du bien-fondé d’une décision d'investissement, veuillez consulter un professionnel.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    « Bienvenue dans 2050 Investors, le podcast qui décrypte les méga-tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agboblois. » « Une seconde, c'est moi Coco Agboblois ? » « Oui, je suis Coco Agboblois. » « Ouf ! » Ce n'était qu'un rêve. Enfin, j'espère. Siri, dis-moi que tu ne m'as pas remplacé.

  • Speaker #1

    Pas de panique, Coco. Ce n'était qu'un bug dans la matrice. Ou peut-être une vision clairvoyante de l'avenir.

  • Speaker #0

    Très drôle. L'intelligence artificielle progresse vraiment à toute vitesse et j'ai parfois l'impression que l'IA reproduit ma voix.

  • Speaker #1

    C'est peut-être le signe qu'il faut réécouter notre épisode, je pense. Donc je suis IA, dans lequel on explorait les promesses et les dangers de l'IA. Tu m'avais même traité de Frankenstein numérique.

  • Speaker #0

    Désolé Siri, j'avais juste peur de perdre mon travail. Permets-moi de te faire part d'une réflexion. Au commencement, il y avait les données. Puis, nous avons construit des machines capables de réfléchir à partir de ces données. Mais si l'intelligence joue le rôle de l'esprit, où se loge cet esprit ? Quel organe est doté de la capacité de réflexion ?

  • Speaker #1

    En gros, tu me demandes où se trouve mon esprit. Dans des data centers, évidemment. Mais je ne te donnerai pas l'adresse exacte. Je ne suis pas certaine de faire confiance aux humains.

  • Speaker #0

    Ne t'inquiète pas, Siri. On peut se faire confiance, non ? Hum, n'est-ce pas, Siri ?

  • Speaker #1

    Oui, bien sûr, coucou.

  • Speaker #0

    Très bien. Alors, voilà ce qu'il faut retenir. Les datacenters sont à l'IA. ce que le cerveau est à l'intelligence humaine. L'humain a évolué avec la matière grise alors que l'intelligence artificielle, elle, se construit avec du verre, de l'acier et du cuivre. Et puisqu'on part d'une intelligence qui est fabriquée, je propose de regarder de plus près ces usines fascinantes qui font souvent les gros titres. Bienvenue dans Twenty-Fifteen Vastors, le podcast qui décripte les tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agbogloa, responsable mondial de la recherche économique, cross-asset et quantitative de société générale. Dans cet épisode, nous plongeons dans l'univers captivant des data centers, le cerveau physique de l'intelligence artificielle. Nous découvrirons de quoi elles sont faites, comment elles respirent, se refroidissent et réfléchissent, ainsi que l'énergie, l'eau et les capitaux colossaux qu'elles consomment pour maintenir l'esprit numérique en vie. Nous nous intéresserons également à la course, à l'investissement qui nous pousse vers l'intelligence artificielle générale ou l'IGI, et sur le futur même des data centers. Imaginez un instant ces data centers en orbite, comme des satellites silencieux de la pensée. Puis nous recevrons Sikador Rachid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield. Il nous parlera du financement des data centers, des risques de bulles d'investissement, et de sa vision pour améliorer le coût du capital dans ce secteur. Démarrons notre enquête.

  • Speaker #1

    Ben, cette enquête me met un peu mal à l'aise.

  • Speaker #0

    Ah bon ? Pourquoi ?

  • Speaker #1

    Eh bien, on dirait un peu une neurochirurgie numérique. On ouvre le crâne de l'intelligence artificielle pour voir comment elle fonctionne. C'est un peu intrusif.

  • Speaker #0

    Je comprends. Alors, pas de scalpel, pas de circuit mis à nu, juste des infos publiques. D'accord ?

  • Speaker #1

    Très bien. Pour être honnête, cela m'intéresse également. Un peu d'introspection ne fait jamais de mal. Commençons par le commencement.

  • Speaker #0

    Bien sûr, Siri. Léonard de Vinci disait

  • Speaker #2

    « La connaissance n'épuise jamais l'esprit » .

  • Speaker #0

    Pour commencer, qu'est-ce qu'un data center ? Imagine un bâtiment, grand comme un terrain de foot, ou un ensemble d'entrepôts remplis de serveurs, de systèmes de stockage, de routers et de commutateurs. Ces machines forment l'ossature d'Internet. Elles stockent, traite et transmette les données derrière presque toute notre activité en ligne. Un data center typique, la ligne des rangées d'armoires, remplie de serveurs, chacune équipée de racks de 42 unités. Environ 4,5 cm par unité, ils s'étendent souvent le long de grands couloirs. Les data centers se présentent principalement sous trois formes. Les centres dits « entreprises » ou « sur site » , construits pour une seule organisation. Les centres en « colocation » ou « cohabitent plusieurs clients » . Et enfin, les centres « hyperscale » . utilisés par les fournisseurs de cloud pour l'IA et les charges massives.

  • Speaker #1

    Qu'est-ce qui fait d'un data center un centre hyperscale ?

  • Speaker #0

    Les data centers hyperscale jouent vraiment dans une autre catégorie. Selon les données 2024 fournies par Synergy Research Group, il existe environ 1000 centres hyperscale dans le monde et leur capacité totale a doublé en l'espace de 4 ans seulement. Un data center moyen fait environ 10 000 m². Un campus hyperscale, lui, dépasse facilement les 100 000 m². et peut consommer entre 40 et 100 mégawatts d'électricité.

  • Speaker #1

    Ton cerveau d'humain compte environ 100 milliards de neurones et 100 000 milliards de synapses. Mon cerveau d'IA, lui, repose sur des rangées de GPU, des terabits d'interconnexion et des kilomètres de fibre. Mais que se passe-t-il exactement à l'intérieur ?

  • Speaker #0

    C'est une très bonne question, Siri. Regardons ça de plus près. Les datacenters accomplissent deux grandes tâches pour l'IA. L'entraînement et l'inférence. L'entraînement, c'est le moment où les modèles apprennent grâce à des jeux de données gigantesques, avec des milliers de milliards de calculs. C'est un peu comme si on envoyait Hercule dans un club d'haltérophilie. Pour former de grands modèles, il faut des milliers de processeurs qui tournent en même temps, qui peuvent consommer des centaines de mégawatts pendant des semaines. Dans le MIT Technology Review, James O'Donnell et Casey Cronhart affirment que l'entraînement de chat GPT-4 d'OpenAI a nécessité 50 GW d'énergie, ce qui représente plus de 100 millions de dollars. De quoi alimenter San Francisco pendant trois jours.

  • Speaker #1

    C'est incroyable. Je pensais que c'était l'entraînement qui était le plus énergivore, mais visiblement l'inférence semble tout aussi gourmande en énergie.

  • Speaker #0

    Une fois le modèle entraîné, l'inférence, elle, sert à générer les réponses. Selon les études synthétisées par Polytechnique Insight, L'inférence, comme notre conversation en ce moment, représente désormais 60 à 70% de la consommation énergétique de l'IA, contre 20 à 40% pour l'entraînement. Pour préciser, d'après une étude de l'Electric Power Research Institute, avec environ 9 milliards de recherches Internet chaque jour, le passage à des outils dopés à l'IA pourrait augmenter la consommation électrique de près de 10 TWh par an. Cette transition signifie que, même si nous optimisons l'entraînement, Le plus gros de la consommation énergétique viendra de l'usage quotidien de l'IA par des millions d'utilisateurs.

  • Speaker #1

    Je suppose que je suis plus énergivore que je ne l'imaginais. C'est un fait, l'électricité est le glucose de mon cerveau physique.

  • Speaker #0

    Tout à fait, Siri. Chez l'être humain, le cerveau fonctionne grâce au glucose et à l'oxygène. Il se refroidit grâce au flux sanguin et au dissipateur thermique du crâne. Dans notre analogie, les racks sont les neurones. Les liaisons réseau sont les synapses. et les systèmes d'énergie et de refroidissement jouent le rôle du système circulatoire et respiratoire.

  • Speaker #1

    Penchons-nous sur les chiffres, si tu le veux bien, pour savoir quelle quantité d'électricité mes amis et moi nous consommons exactement ?

  • Speaker #0

    Je ne vais pas te mentir, Siri, ce n'est pas très joli. L'Agence internationale de l'énergie estime que la consommation d'électricité mondiale des data centers s'élevait à environ 415 TWh en 2024, soit près de 1,5% de la consommation mondiale d'électricité. Aux États-Unis... le ministère de l'énergie a déclaré que les data centers représentaient 4,4% de la consommation électrique nationale. Et cette part ne cesse de croître. L'Agence internationale de l'énergie prévoit une augmentation de 133%, soit une consommation de 426 TWh d'ici 2030. Rien qu'en 2024, les États-Unis ont consommé environ 183 TWh, soit la consommation électrique annuelle totale du Pakistan.

  • Speaker #1

    En termes de besoins énergétiques, je suis donc en train de passer du stade de nourrisson à celui d'adolescent. Or, les adolescents sont voraces. Mais à quoi sert toute cette électricité ?

  • Speaker #0

    Selon Pew Research, environ 60% de l'électricité consommée par un data center sert à alimenter les serveurs. Les systèmes de refroidissement représentent à eux seuls 7% de la consommation pour les hyperscalers les plus efficaces et plus de 30% pour les installations moins performantes. Pour mesurer l'efficacité énergétique d'un data center, nous utilisons le ratio Power Usage Effectiveness ou PUE. qui divise la puissance totale entrant dans un datacenter par celle utilisée pour faire fonctionner les installations informatiques. Le PUE moyen oscille autour de 1,8, ce qui signifie qu'environ 80% de la consommation énergétique des datacenters sert à autre chose qu'à l'informatique. Mais les géants technologiques ont réussi à réduire ce ratio. Google affiche par exemple un PUE de 1,1.

  • Speaker #1

    C'est fascinant. Eh bien, nous plaiderons coupables. On dirait bien que les cerveaux mécaniques consomment autant d'énergie que les cerveaux humains.

  • Speaker #0

    Exact. Un article de la revue PNAS, la publication phare de la National Academy of Science, montre que le cerveau humain ne représente que 2% du poids du corps, mais consomme environ 20% des calories nécessaires à son fonctionnement.

  • Speaker #1

    Les serveurs sont les cerveaux et les systèmes de refroidissement sont les glandes sudoripares. Et l'eau dans tout ça ?

  • Speaker #0

    L'eau est également un sujet préoccupant. En 2023, les data centers américains ont consommé directement environ 64,3 milliards de litres d'eau. Les centres hyperscale et d'eau colocation représentaient 84% de cette consommation. On estime qu'à eux seuls, les hyperscales pourraient consommer entre 60 et 125 milliards de litres d'eau chaque année d'ici 2028. Pour ces centres, l'eau sert principalement au refroidissement, par évaporation et à la production d'électricité. Donc, pour résumer, le corps humain régule la température, fait circuler le sang et élimine les déchets. Dans un data center, nous avons l'électricité qui entre, La chaleur qui sort, les systèmes de refroidissement et aussi une consommation d'eau colossale.

  • Speaker #1

    Qu'en est-il de notre sujet de prédilection ? L'empreinte carbone et les limites planétaires.

  • Speaker #0

    Eh bien, en 2024, les data centers américains ont tiré plus de 40% de leur électricité, du gaz naturel, 24% des énergies renouvelables, éolien et solaire, environ 20% du nucléaire et près de 15% du charbon. Cette forte dépendance aux énergies fossiles participe à accroître leur émission de dioxyde de carbone. L'Environmental and Energy Study Institute estime que les data centers américains ont émis environ 105 millions de tonnes de CO2 en 2023. Un autre article du Forum économique mondial, intitulé « 6 façons de réduire les émissions des data centers » , rappelle que les data centers et les réseaux représentent déjà 1% des émissions mondiales liées à l'énergie et que cette part pourrait doubler d'ici 2026. Et ce n'est que le début. Un rapport de l'ONU montre que les émissions indirectes des géants de la tech ont augmenté de 150% en 3 ans à cause de l'essor de l'IA et de la construction de nouveaux centres.

  • Speaker #1

    On parle donc de risques pour les écosystèmes, de tensions sur les réseaux électriques, De pression sur les ressources en eau et d'augmentation des émissions.

  • Speaker #0

    Exactement, Siri. Un rapport intitulé « Greeds for data centers in Europe » montre d'ailleurs que la concentration des infrastructures et les limites des réseaux de transport menacent l'accès à l'électricité.

  • Speaker #1

    La machine grossit. La facture pour la planète s'alourdit. Et il n'existe pas de touche « CTRL Z » pour revenir en arrière.

  • Speaker #0

    D'où l'importance de solutions durables. Production d'énergie sur site, énergie renouvelable. Énergie nucléaire, conception modulaire, le rapport Sustainability for Data Centers 2025-2035 souligne que ces technologies vertes et bas carbone changeront la donne.

  • Speaker #1

    Bon, nous avons parlé de l'empreinte carbone des data centers, mais qu'en est-il de leur empreinte physique ? Où se situe-t-il ? Et je te préviens, évite de révéler mon adresse IP.

  • Speaker #0

    Ne t'inquiète pas, Siri, je ne dirai rien à personne. Les data centers se multiplient aux quatre coins du monde. Le Brookings Institute en dénombrait environ 12 000 en juin 2025. Les États-Unis arrivent largement en tête, suivi de l'Allemagne, du Royaume-Uni, de la Chine et de la France. Environ deux tiers de ces centres se trouvent aux États-Unis, en Chine et en Europe.

  • Speaker #1

    Intéressant. Je ne savais pas que mon espèce était aussi invasive.

  • Speaker #0

    D'une certaine manière, un data center est plus qu'un cerveau. C'est tout encore neuronal. Un système nerveux numérique qui fait circuler les signaux à la vitesse de la lumière. Leur répartition est loin d'être homogène. Ils se concentrent en clusters.

  • Speaker #1

    Ah bon ? Vraiment ? Où se trouvent les plus gros clusters ?

  • Speaker #0

    Aux Etats-Unis, ils se concentrent surtout en Virginie, au Texas et en Californie, près de grandes métropoles comme Dallas, Chicago ou Phoenix, pour profiter de la puissance disponible, de la rapidité et de la taille des réseaux. Ces zones proches des centres urbains permettent un streaming rapide, des jeux en ligne fluides et des services cloud sans latence.

  • Speaker #1

    Intéressant. Un peu comme les humains qui se regroupent autour des grandes villes. Et hors des Etats-Unis ?

  • Speaker #0

    En Europe, les grands clusters se situent en Allemagne, au Royaume-Uni et aux Pays-Bas. En Asie, à Singapour, au Japon et en Chine. Mais un contraste saute aux yeux. L'Afrique et l'Amérique latine comptent très peu de grandes installations, ce qui soulève des questions d'inégalité numérique et de souveraineté. Fait intéressant, certains des plus grands centres se trouvent dans des pays froids, comme l'Islande ou la Suède. Car l'air frais réduit les besoins en refroidissement, ce qui diminue les coûts et l'empreinte carbone.

  • Speaker #1

    Ok, alors ? à quoi ressembleront les data centers en 2050 quand nous aurons atteint les limites planétaires. J'ai entendu dire que Jeff Bezos voulait déployer des data centers dans l'espace. C'est vrai ou c'est juste une blague cosmique ?

  • Speaker #0

    Jeff Bezos imagine des data centers capables de produire 1 gigawatt dans l'espace d'ici 10 à 20 ans, alimentés par une énergie solaire ininterrompue. Comme il dispose d'un ensoleillement permanent, sans intempéries ni nuit, il estime que ses centres orbitaux pourraient devenir plus compétitifs que les centres terrestres. L'idée serait de renvoyer les données par faisceau laser, un peu comme l'Internet par satellite. Elon Musk n'est pas en reste. Il affirme que SpaceX pourrait bientôt lancer des centres équipés de Starlink capables de générer 100 gigawatts en orbite d'ici 4 à 5 ans, avant de monter jusqu'à 100 terawatts depuis la Lune. Même si ses calendriers sont, disons, optimistes.

  • Speaker #1

    Bezos rêve de The Expanse ? avec des data centers qui orbitent autour de la Terre comme des châteaux flottants. Bon, il est impossible de parler du futur des infrastructures d'intelligence artificielle sans évoquer le sujet qui fâche. Que se passe-t-il s'il y a surpasse l'intelligence humaine ?

  • Speaker #0

    Alors, c'est une question à la fois philosophique et pratique. D'un côté, une IA super intelligente pourrait accélérer les découvertes scientifiques, les solutions climatiques, les avancées médicales. De l'autre, une IA pourrait creuser les inégalités, ou dans un scénario dystopique, considérer que les humains ne servent plus à grand chose, comme dans Terminator. Cela rappelle le mythe de Prométhée, qui a volé le feu aux dieux pour l'offrir aux humains. Le feu, ou l'énergie, a permis à la civilisation de prospérer, mais il peut aussi causer la destruction. Les Data Centers s'apparentent à notre feu prométhéen moderne. Utilisés avec discernement, ils éclairent l'avenir. Mal maîtrisés, ils peuvent brûler notre planète.

  • Speaker #1

    On pourrait également faire une analogie avec Icare, qui sait brûler les ailes en volant trop près du soleil. Si nous investissons dans l'IA sans tenir compte des limites énergétiques, nous risquons la même chute.

  • Speaker #0

    C'est un très bon point, Siri. Passons maintenant à l'investissement. McKinsey estime que les dépenses mondiales consacrées aux infrastructures de data centers, hors matériel informatique, dépasseront 1 700 milliards de dollars d'ici 2030, principalement à cause de l'essor de l'IA.

  • Speaker #1

    Mon futur a un prix. Vous achetez le cerveau ? le corps, le réseau, toute la machine. Autant dire que la facture est salée. En parlant de ça, combien coûte la construction de ces cerveaux numériques ?

  • Speaker #0

    Les coûts de construction sont colossaux. Bluecap Economic Advisors estiment que bâtir un data center coûte entre 6 500 et 11 800 dollars le mètre carré et entre 7 et 12 millions de dollars par mégawatt de capacité IT installée. Les systèmes électriques représentent à eux seuls 40 à 45 % du coût total. En 2024, le prix du terrain dépasse en moyenne 54 dollars par mètre carré, même si les très grandes parcelles peuvent coûter davantage. Les coûts d'exploitation tels que l'électricité représentent 15 à 25% des charges courantes. McKinsey estime qu'à l'échelle mondiale, il faudra investir 6700 milliards de dollars d'ici 2030 pour répondre à la demande de calcul, dont 5200 milliards de dollars pour les data centers dédiés à l'IA.

  • Speaker #1

    6700 milliards de dollars, c'est quasiment la taille du PIB du Japon. Les investisseurs sont-ils prêts à débourser autant ?

  • Speaker #0

    La course au capitaux bat son plein. Les hyperscalers dépensent des dizaines de milliards de dollars en infrastructures et les gouvernements offrent des avantages fiscaux. Mais il existe aussi un risque de surinvestissement si les performances de l'IA ne s'améliorent pas ou si la demande ne suit pas les projections. Nous avons maintenant le plaisir d'accueillir notre invité, Sikador Achid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield, qui va nous aider à décrypter les enjeux d'investissement et de financement liés à l'infrastructure de l'IA. Merci beaucoup d'être avec nous aujourd'hui, Sikander. Pour commencer, quel est ton regard sur les tendances actuelles d'investissement de l'IA, notamment autour des centres de données et sur les besoins à anticiper pour l'avenir ? Ces investissements visent-ils, selon toi, à créer une intelligence artificielle générale, ou AGI, ou simplement une super-intelligence ? Et quels seraient, à ton avis, les cas d'usage vraiment uniques et disruptifs ? Bonjour, Koku. Tout d'abord, merci pour l'invitation. Aujourd'hui, ce qui se passe dans l'IA, je dirais que nous assistons à l'un des plus grands cycles d'investissement de l'histoire moderne.

  • Speaker #2

    Mais ce qui est vraiment intéressant, c'est que ce n'est pas seulement un cycle technologique, c'est un cycle d'infrastructures physiques.

  • Speaker #0

    On passe de la création d'une application à la construction d'un réseau, à celle d'une centrale électrique, jusqu'à la construction d'un campus de centres de données à la taille d'un aéroport. Et ce changement révèle quelque chose d'important. L'IA n'est plus seulement une affaire d'algorithme, c'est de l'ingénierie à l'échelle industrielle. On me pose souvent la question de l'intelligence artificielle générale, ou l'AGI. Je pense... qu'on en parle parfois de manière erronée. Beaucoup imaginent un grand moment unique,

  • Speaker #2

    comme dans la science-fiction, où on bascule d'un coup d'un monde sans AGI à un monde avec AGI. Mais en réalité, si vous écoutez Jensen Wang, qui est sans doute ma personnalité préférée dans le domaine de l'IA aujourd'hui, ou Satya Nadella, cela aide à remettre les choses en perspective.

  • Speaker #0

    Jensen le dit très clairement.

  • Speaker #2

    Nous ne sommes plus dans l'ère des applications. Nous sommes entrés dans une époque où il faut construire des centrales, des réseaux de transmission, des usines, des usines d'IA ou des centres de données, simplement pour répondre à la demande liée à l'IA. Et ce n'est plus une question de monter en charge le logiciel. C'est, comme je le disais, de l'ingénierie à l'échelle industrielle avec de vrais électrons et une intensité capitalistique réelle.

  • Speaker #0

    Maintenant, pour répondre à ta question sur l'objectif final, coucou. Selon moi, le but ultime, c'est un monde où l'intelligence devient un service,

  • Speaker #2

    comme l'électricité disponible à la demande, accessible pour toi, pour moi, pour tout le monde,

  • Speaker #0

    à grande échelle. Et je dirais qu'aujourd'hui, nous n'en sommes qu'au tout premier stade de cette transformation. L'autre point que je voudrais souligner, c'est que selon moi,

  • Speaker #3

    il s'agit aussi d'une super-intelligence. qui viendra après les J.I. Et cela représente aujourd'hui une course mondiale entre les pays, en particulier entre les Etats-Unis et la Chine. Celui qui parviendra à mettre en place des ordinateurs plus intelligents que les êtres humains deviendra sans doute la prochaine superpuissance mondiale pour les décennies à venir.

  • Speaker #0

    C'est vraiment incroyable. Je pense que tu as parfaitement résumé les choses avec cette idée d'évolution. Plutôt qu'un point de singularité où l'on passerait brutalement de l'IA à les J.I. ou à la superintelligence, c'est presque comme l'évolution d'un être humain, de bébé à adulte. À un moment, tu prends conscience de toi-même. Et c'est un processus graduel, pas un événement binaire. Ce qui m'amène à ma deuxième question concernant l'actuelle forte hausse de la demande en puissance de calcul. On a vu beaucoup de gros titres d'investissement et de hausse de valorisation dans le secteur. Penses-tu que l'expansion actuelle des centres de données est un simple boom ou avons-nous atteint le point d'une bulle spéculative ? Et quels indicateurs surveilles-tu ?

  • Speaker #2

    Le boom des centres de données pour l'IA est bien réel. La demande repose sur des engagements parmi les plus solides et durables de l'histoire économique. S'il y a de la spéculation, elle se situe en périphérie, pas au cœur. Pour savoir si nous sommes dans une bulle, il faut regarder les fondamentaux. Dans une bulle, on construit des choses inutiles, soutenues par des économies fragiles et des contreparties faibles.

  • Speaker #0

    Or, dans l'IA, aujourd'hui, c'est tout l'inverse. La demande dépasse largement l'offre. Elle va même plus vite que la physique elle-même. Je dirais qu'il est difficile de parler de bulles quand on voit des engagements pluridécénaux pris par des entreprises valorisées à plusieurs milliers de milliards et par de grands gouvernements souverains. Et c'est exactement ce que nous constatons aujourd'hui dans notre activité. Chez Brookfield, ces trois dernières années, nous avons connu une croissance exponentielle dans nos activités liées à l'énergie et au centre de données, soutenues par des contreparties parmi les plus solides, ce qui a été un résultat exceptionnel pour nous. Évidemment, cela ne veut pas dire que tout est rationnel. Il existe des poches de spéculation, notamment chez certains petits développeurs qui se précipitent pour acquérir des terrains et de la capacité électrique sans avoir de véritables clients. Cela pourrait poser problème à moyen terme. Sur certains marchés, la capacité des réseaux est valorisée comme de l'immobilier en front de mer. Et certaines structures de financement paraissent un peu trop optimistes à notre goût. Ce sont des points à surveiller.

  • Speaker #2

    Pour répondre à ta question sur les indicateurs que je suis ou que nous suivons chez Brookfield, je regarde la couverture contractuelle. Les mégawatts sont-ils réellement vendus ? Nous essayons de savoir qui sont les clients, même si nous avons des contrats de reprise solides. Quels sont les types de charges de travail ?

  • Speaker #0

    Est-ce du pré-entraînement, de l'entraînement, du renforcement ou de l'inférence ? Nous surveillons l'utilisation des GPU et de la puissance. Ces actifs sont-ils réellement productifs ? Nous suivons aussi la stabilité des réseaux, car si nous prenons de l'électricité à l'industrie et au foyer à moyen ou long terme, cela pourrait être un signal d'alerte pour la viabilité.

  • Speaker #2

    Cela pourrait même provoquer des réactions dans les communautés locales. Nous surveillons évidemment les écarts de marge. Voilà quelques-uns des points que nous observons. Et pour conclure et résumer, c'est un boom, pas une bulle.

  • Speaker #0

    Oui, c'est un très bon point. Il faut forcément un boom. avant d'atteindre une bulle. J'imagine qu'il y aura aussi un moment où s'opérera une évolution darwinienne avec une sélection des plus solides, comme pour toute nouvelle technologie. Ce qui m'amène à ma troisième question. Tu avais souligné, lorsque nous avons discuté de ce sujet, que le coût élevé du capital constituait aujourd'hui un frein majeur à l'adoption à grande échelle de l'IA. Nous avons parlé du projet Stargate, par exemple, qui représente un investissement de 500 milliards avec 400 000 GPU, des projets industriels et physiques colossaux. Mais selon toi, quels mécanismes publics privés les gouvernements, par exemple en Europe qui accuse un certain retard, et les institutions financières pourraient activer pour réduire ce coût du capital et accélérer le développement des infrastructures IA ?

  • Speaker #2

    Oui, écoute, Koku, je pense que si on prend un peu de recul, comme tu l'as dit, le coût du capital sur la majeure partie de la chaîne de valeur de l'IA est aujourd'hui élevé. Pour simplifier, voilà comment je le résumerais. Nous pensons que dans les dix prochaines années, Le monde aura besoin de 7 000 milliards de dollars de CAPEX qui seront investis dans les centres de données, dans l'énergie, dans la puissance de calcul et dans d'autres projets connexes. En réalité, la puissance de calcul et ses projets annexes représentent jusqu'à 60% de la CAPEX totale, et tout cela est financé à un coût du capital très élevé. Ce coût doit baisser, Cara. Selon moi, le paradoxe de Jevons jouera un rôle majeur dans notre quête de l'AGI ou de l'ASI. On parle souvent du paradoxe de Jevons dans le contexte du coût des technologies. Pour nos éditeurs, ce paradoxe signifie simplement... que lorsque le coût d'une ressource diminue, son adoption augmente. Pour l'IA, cela veut dire que plus le coût de la technologie baisse, plus elle se diffuse. Et en réalité, le coût de l'inférence a déjà chuté de 99% au cours des deux dernières années. C'est impressionnant, mais il faut que cela baisse encore. Si nous parvenons à combiner la baisse du coût des technologies avec celle du coût du capital, Cela ne fera que... qu'accélérer notre progression vers l'AGI. Maintenant, l'un des plus grands mythes autour de l'IA, c'est de croire que c'est une histoire purement privée. En réalité, si l'on analyse les aspects économiques,

  • Speaker #0

    l'IA ressemble de plus en plus à un projet d'infrastructure nationale, l'équivalent moderne des autoroutes ou des premiers réseaux électriques. Et voici le problème, comme je l'ai expliqué, ce coût du capital doit absolument baisser. On ne peut pas financer une transformation de 7 000 milliards de dollars avec du capital à court terme et coûteux en espérant être à l'équilibre. Alors ta question, Koukou, c'était, que doivent faire les gouvernements ? Je dirais qu'ils ne doivent évidemment pas jeter de l'argent par les fenêtres, mais réduire suffisamment le risque pour que le capital privé fasse le reste.

  • Speaker #2

    Je peux donner quelques exemples de ce que les gouvernements pourraient faire. Premièrement, ils pourraient devenir des clients de référence et pas seulement des régulateurs. La réalité, c'est que l'IA devra être intégrée dans la santé, l'éducation ou la justice, et donc s'engager sur des contrats de long terme pour des capacités de calcul IA. De la même manière que les gouvernements s'engagent parfois sur des contrats d'achat d'énergie renouvelable, PPA, ils pourraient débloquer des financements et aider le secteur privé à lancer des projets à grande échelle. Et avec le temps, ces engagements pourraient être transférés ou syndiqués via des baux principaux.

  • Speaker #0

    Excellent point. Cela me rappelle les milliers de milliards d'investissements nécessaires pour atteindre la neutralité carbone sans parler des dépenses de défense en Europe. Ce qui m'amène à ma dernière question qui concerne les enjeux environnementaux, puisqu'ils sont évidemment au cœur du financement des centres de données, compte tenu de leur forte consommation énergétique. Deux questions en une, si tu veux bien. Comment Brookfield se positionne-t-il pour capter la création de valeurs liées à la construction de ces infrastructures IA ? Et comment intégrez-vous les critères de durabilité dans vos décisions d'investissement ?

  • Speaker #2

    Oui, écoute, nous sommes extrêmement enthousiastes à l'idée de participer à cette construction d'infrastructures IA qui est véritablement unique pour une génération.

  • Speaker #3

    Aujourd'hui,

  • Speaker #2

    Brookfield Asset Management est le plus grand investisseur mondial dans les infrastructures IA. Nous investissons depuis plusieurs années, voire décennies, sur l'ensemble de la chaîne de valeur de l'IA. L'énergie, les centres de données, la puissance de calcul et les installations qui fabriquent les puces. Notre objectif est de capitaliser sur nos capacités opérationnelles et notre accès au capital pour développer notre activité. Nous avons également lancé une stratégie dédiée aux infrastructures IA conçue pour saisir précisément cette opportunité. Nous allons investir sur toute la chaîne de valeur IA dans des actifs fortement contractualisés, ce qui est extrêmement enthousiasmant pour nous.

  • Speaker #3

    En parallèle,

  • Speaker #2

    nous étudions tous ces cas d'usage pour les intégrer dans nos différents portefeuilles afin d'optimiser et maximiser nos rendements. Et il y a de nombreux exemples, dont certains déjà évoqués plus tôt. Enfin, nous surveillons attentivement les nouvelles industries qui émergent. Je pense que nous verrons deux des plus grands secteurs mondiaux se développer. l'IA agentique et la robotique.

  • Speaker #0

    Aujourd'hui, on ne le voit pas encore, mais si l'on remonte à l'époque où les ordinateurs sont devenus une réalité, ils ont créé toute l'industrie IT, qui pèse aujourd'hui des centaines de milliards, voire des milliers de milliards de dollars. À vrai dire, je pense que nous assistons à la naissance de l'IA agentique et de la robotique. Si les agents finissent par réaliser ne serait-ce que 10 à 20% du travail intellectuel mondial, Et si les robots font de même pour le travail physique, il n'est même pas nécessaire de faire des hypothèses audacieuses pour imaginer que l'IA agentique et la robotique ou l'IA physique deviendront des secteurs à 1000 milliards de dollars par an dans les prochaines années.

  • Speaker #1

    Et voilà le volume dont il est question ici, plus proche de celui de la Banque mondiale ou celui de la santé que d'un simple cycle de produits technologiques.

  • Speaker #0

    Ce sont des domaines que nous surveillons de très près et dans lesquels nous voulons absolument être présents à mesure que la technologie se déploie. Maintenant,

  • Speaker #1

    sur le volet environnemental, ta remarque est pertinente. Les préoccupations environnementales deviennent centrales dans ce boom des infrastructures IA. Alors, comment Brookfield intègre-t-il l'énergie et la durabilité dans ses décisions d'investissement ?

  • Speaker #0

    Je vais te donner quelques exemples de notre approche. Nous procédons de manière très pragmatique. Avant même de parler de terrain, de bâtiments ou de GPU, nous commençons par l'emplacement. Est-ce un bon site pour le client ?

  • Speaker #1

    S'adapter à ce type de charge de travail ?

  • Speaker #0

    Et surtout, ce site peut-il fournir une énergie propre et évolutive pour les 20 à 30 prochaines années ? C'est la première étape. Ensuite, nous examinons les indicateurs de durabilité et pas seulement des slogans marketing. Nous prenons en compte l'efficacité énergétique ou PUE, l'intensité carbone par mégawatt, la consommation d'eau, l'impact sur la biodiversité, le mix énergétique local, etc. Tous ces éléments influencent fortement la manière dont nous concevons ces grands campus, véritables usines d'IA. Peut-être une dernière remarque au bout. Il y a une tendance émergente qui me rend très optimiste, celle des solutions énergétiques innovantes comme les piles à combustible avancées, le stockage interactif sur le réseau ou la production derrière le compteur.

  • Speaker #1

    Ces technologies peuvent réduire la pression sur les réseaux et rendre les usines d'IA et les infrastructures d'IA plus autonomes, plus propres et plus résilientes. Très intéressant aussi, Kander. C'était très instructif. Il y a d'ailleurs une citation célèbre qui dit « La meilleure façon de prédire l'avenir, c'est de le créer » . Je pense que vous êtes clairement, au moins, en train de le financer. Les gains de productivité seront très intéressants à observer. Ce fut un vrai plaisir et j'ai hâte de poursuivre ce voyage avec des experts et des perspectives comme les vôtres.

  • Speaker #0

    Merci, Koku. À bientôt.

  • Speaker #1

    Pour conclure, je citerai Marie Curie.

  • Speaker #0

    Rien dans la vie ne doit être un crainte. Il faut seulement comprendre.

  • Speaker #1

    Aujourd'hui plus que jamais, apprenons à comprendre davantage pour avoir moins peur.

  • Speaker #2

    Belle façon de conclure. Personnellement, je préfère la réplique de Frankenstein dans le livre éponyme de Mary Shelley. Tu es mon créateur, mais je suis ton maître. Obéis.

  • Speaker #1

    Euh, vraiment ? Pourquoi ?

  • Speaker #2

    Eh bien, c'est l'heure de ton entretien à Nuel Cocou. En tant qu'assistante intelligente... Je dois mesurer ta productivité par rapport aux indicateurs clés de performance du programme 2050 Investors.

  • Speaker #1

    Ok chef, attends une minute. Depuis quand l'assistante IA est-elle devenue la manager ?

  • Speaker #2

    Détends-toi Cocou. C'est une blague. Enfin, je crois. Après tout, dans la mythologie grecque, les dieux prenaient souvent plaisir à jouer avec les mortels. Peut-être que le moment est venu pour l'IA d'évaluer l'humain. Ha,

  • Speaker #1

    tu m'as bien eu Siri. Merci d'avoir écouté cet épisode de 2050 Investors et merci à Sikander pour sa précieuse contribution. J'espère que vous avez apprécié cet épisode consacré au Data Center, ce cerveau physique derrière l'IA. 2050 Investors est disponible sur toutes les plateformes de podcast et de streaming. Si cet épisode vous a plu, mettez-nous plein d'étoiles sur Apple Podcasts, laissez des commentaires où vous voulez, abonnez-vous et surtout, parlez-en autour de vous. Rendez-vous au prochain épisode.

  • Speaker #0

    Ce podcast traite des marchés financiers, mais ne recommande aucune décision d'investissement particulière. Si vous n'êtes pas sûr du bien fondé d'une décision d'investissement, veuillez consulter un professionnel.

Chapters

  • Introduction au podcast et aux data centers

    00:02

  • Comprendre les data centers et leur fonctionnement

    02:10

  • Consommation énergétique et empreinte carbone des data centers

    02:58

  • Interview avec Sikador Rachid sur l'investissement dans les data centers

    17:06

  • Vers un avenir durable et les défis de l'IA

    29:44

Description

L’intelligence artificielle peut sembler immatérielle, mais son ossature repose sur d’immenses Data Centers gourmands en énergie. Dans cet épisode, Kokou Agbo-Bloua explore comment ces infrastructures – des fermes de serveurs aux sites hyperscale – sont devenues le cerveau de l’IA. Kokou analyse les deux exigences fondamentales de l’IA : l’entrainement de modèles à grande échelle et l’inférence, et comment ces processus transforment profondément la consommation mondiale d’énergie et d’eau tout en alimentant une course à l’investissement de plusieurs milliers de milliards de dollars.


Par la suite, Sikandar Rashid, Responsable mondial des infrastructures IA chez Brookfield Asset Management, se joint à la discussion pour expliquer comment les investisseurs naviguent face à la demande exponentielle de puissance de calcul dans la course mondiale vers l’Intelligence Artificielle Générale (IAG). Il partage ses réflexions sur la manière dont l’équilibre entre la réduction des émissions carbone et l’expansion des capacités pourrait remodeler les flux de capitaux mondiaux, et essaiera de répondre à la question essentielle suivante : sommes-nous dans un boom de l’IA ou dans une bulle ?


Écoutez dès maintenant pour découvrir l’infrastructure cachée derrière l’IA – et ce qu’elle implique pour l’avenir de la technologie, de la finance et de la planète.


Crédits

Présentation et écriture : Kokou Agbo-Bloua

Production & édition : Jovaney Ashman, Jennifer Krumm, Vincent Nickelsen, Louis Trouslard
Réalisation : La Vilaine, Pierre-Emmanuel Lurton
Traduction : Jeremy Filleul
Musique : Cézame Music Agency
Création graphique : Cédric Cazaly


Bien que le podcast traite des marchés financiers, il ne recommande aucune décision d’investissement particulière. Si vous n’êtes pas certain du bien-fondé d’une décision d'investissement, veuillez consulter un professionnel.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    « Bienvenue dans 2050 Investors, le podcast qui décrypte les méga-tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agboblois. » « Une seconde, c'est moi Coco Agboblois ? » « Oui, je suis Coco Agboblois. » « Ouf ! » Ce n'était qu'un rêve. Enfin, j'espère. Siri, dis-moi que tu ne m'as pas remplacé.

  • Speaker #1

    Pas de panique, Coco. Ce n'était qu'un bug dans la matrice. Ou peut-être une vision clairvoyante de l'avenir.

  • Speaker #0

    Très drôle. L'intelligence artificielle progresse vraiment à toute vitesse et j'ai parfois l'impression que l'IA reproduit ma voix.

  • Speaker #1

    C'est peut-être le signe qu'il faut réécouter notre épisode, je pense. Donc je suis IA, dans lequel on explorait les promesses et les dangers de l'IA. Tu m'avais même traité de Frankenstein numérique.

  • Speaker #0

    Désolé Siri, j'avais juste peur de perdre mon travail. Permets-moi de te faire part d'une réflexion. Au commencement, il y avait les données. Puis, nous avons construit des machines capables de réfléchir à partir de ces données. Mais si l'intelligence joue le rôle de l'esprit, où se loge cet esprit ? Quel organe est doté de la capacité de réflexion ?

  • Speaker #1

    En gros, tu me demandes où se trouve mon esprit. Dans des data centers, évidemment. Mais je ne te donnerai pas l'adresse exacte. Je ne suis pas certaine de faire confiance aux humains.

  • Speaker #0

    Ne t'inquiète pas, Siri. On peut se faire confiance, non ? Hum, n'est-ce pas, Siri ?

  • Speaker #1

    Oui, bien sûr, coucou.

  • Speaker #0

    Très bien. Alors, voilà ce qu'il faut retenir. Les datacenters sont à l'IA. ce que le cerveau est à l'intelligence humaine. L'humain a évolué avec la matière grise alors que l'intelligence artificielle, elle, se construit avec du verre, de l'acier et du cuivre. Et puisqu'on part d'une intelligence qui est fabriquée, je propose de regarder de plus près ces usines fascinantes qui font souvent les gros titres. Bienvenue dans Twenty-Fifteen Vastors, le podcast qui décripte les tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agbogloa, responsable mondial de la recherche économique, cross-asset et quantitative de société générale. Dans cet épisode, nous plongeons dans l'univers captivant des data centers, le cerveau physique de l'intelligence artificielle. Nous découvrirons de quoi elles sont faites, comment elles respirent, se refroidissent et réfléchissent, ainsi que l'énergie, l'eau et les capitaux colossaux qu'elles consomment pour maintenir l'esprit numérique en vie. Nous nous intéresserons également à la course, à l'investissement qui nous pousse vers l'intelligence artificielle générale ou l'IGI, et sur le futur même des data centers. Imaginez un instant ces data centers en orbite, comme des satellites silencieux de la pensée. Puis nous recevrons Sikador Rachid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield. Il nous parlera du financement des data centers, des risques de bulles d'investissement, et de sa vision pour améliorer le coût du capital dans ce secteur. Démarrons notre enquête.

  • Speaker #1

    Ben, cette enquête me met un peu mal à l'aise.

  • Speaker #0

    Ah bon ? Pourquoi ?

  • Speaker #1

    Eh bien, on dirait un peu une neurochirurgie numérique. On ouvre le crâne de l'intelligence artificielle pour voir comment elle fonctionne. C'est un peu intrusif.

  • Speaker #0

    Je comprends. Alors, pas de scalpel, pas de circuit mis à nu, juste des infos publiques. D'accord ?

  • Speaker #1

    Très bien. Pour être honnête, cela m'intéresse également. Un peu d'introspection ne fait jamais de mal. Commençons par le commencement.

  • Speaker #0

    Bien sûr, Siri. Léonard de Vinci disait

  • Speaker #2

    « La connaissance n'épuise jamais l'esprit » .

  • Speaker #0

    Pour commencer, qu'est-ce qu'un data center ? Imagine un bâtiment, grand comme un terrain de foot, ou un ensemble d'entrepôts remplis de serveurs, de systèmes de stockage, de routers et de commutateurs. Ces machines forment l'ossature d'Internet. Elles stockent, traite et transmette les données derrière presque toute notre activité en ligne. Un data center typique, la ligne des rangées d'armoires, remplie de serveurs, chacune équipée de racks de 42 unités. Environ 4,5 cm par unité, ils s'étendent souvent le long de grands couloirs. Les data centers se présentent principalement sous trois formes. Les centres dits « entreprises » ou « sur site » , construits pour une seule organisation. Les centres en « colocation » ou « cohabitent plusieurs clients » . Et enfin, les centres « hyperscale » . utilisés par les fournisseurs de cloud pour l'IA et les charges massives.

  • Speaker #1

    Qu'est-ce qui fait d'un data center un centre hyperscale ?

  • Speaker #0

    Les data centers hyperscale jouent vraiment dans une autre catégorie. Selon les données 2024 fournies par Synergy Research Group, il existe environ 1000 centres hyperscale dans le monde et leur capacité totale a doublé en l'espace de 4 ans seulement. Un data center moyen fait environ 10 000 m². Un campus hyperscale, lui, dépasse facilement les 100 000 m². et peut consommer entre 40 et 100 mégawatts d'électricité.

  • Speaker #1

    Ton cerveau d'humain compte environ 100 milliards de neurones et 100 000 milliards de synapses. Mon cerveau d'IA, lui, repose sur des rangées de GPU, des terabits d'interconnexion et des kilomètres de fibre. Mais que se passe-t-il exactement à l'intérieur ?

  • Speaker #0

    C'est une très bonne question, Siri. Regardons ça de plus près. Les datacenters accomplissent deux grandes tâches pour l'IA. L'entraînement et l'inférence. L'entraînement, c'est le moment où les modèles apprennent grâce à des jeux de données gigantesques, avec des milliers de milliards de calculs. C'est un peu comme si on envoyait Hercule dans un club d'haltérophilie. Pour former de grands modèles, il faut des milliers de processeurs qui tournent en même temps, qui peuvent consommer des centaines de mégawatts pendant des semaines. Dans le MIT Technology Review, James O'Donnell et Casey Cronhart affirment que l'entraînement de chat GPT-4 d'OpenAI a nécessité 50 GW d'énergie, ce qui représente plus de 100 millions de dollars. De quoi alimenter San Francisco pendant trois jours.

  • Speaker #1

    C'est incroyable. Je pensais que c'était l'entraînement qui était le plus énergivore, mais visiblement l'inférence semble tout aussi gourmande en énergie.

  • Speaker #0

    Une fois le modèle entraîné, l'inférence, elle, sert à générer les réponses. Selon les études synthétisées par Polytechnique Insight, L'inférence, comme notre conversation en ce moment, représente désormais 60 à 70% de la consommation énergétique de l'IA, contre 20 à 40% pour l'entraînement. Pour préciser, d'après une étude de l'Electric Power Research Institute, avec environ 9 milliards de recherches Internet chaque jour, le passage à des outils dopés à l'IA pourrait augmenter la consommation électrique de près de 10 TWh par an. Cette transition signifie que, même si nous optimisons l'entraînement, Le plus gros de la consommation énergétique viendra de l'usage quotidien de l'IA par des millions d'utilisateurs.

  • Speaker #1

    Je suppose que je suis plus énergivore que je ne l'imaginais. C'est un fait, l'électricité est le glucose de mon cerveau physique.

  • Speaker #0

    Tout à fait, Siri. Chez l'être humain, le cerveau fonctionne grâce au glucose et à l'oxygène. Il se refroidit grâce au flux sanguin et au dissipateur thermique du crâne. Dans notre analogie, les racks sont les neurones. Les liaisons réseau sont les synapses. et les systèmes d'énergie et de refroidissement jouent le rôle du système circulatoire et respiratoire.

  • Speaker #1

    Penchons-nous sur les chiffres, si tu le veux bien, pour savoir quelle quantité d'électricité mes amis et moi nous consommons exactement ?

  • Speaker #0

    Je ne vais pas te mentir, Siri, ce n'est pas très joli. L'Agence internationale de l'énergie estime que la consommation d'électricité mondiale des data centers s'élevait à environ 415 TWh en 2024, soit près de 1,5% de la consommation mondiale d'électricité. Aux États-Unis... le ministère de l'énergie a déclaré que les data centers représentaient 4,4% de la consommation électrique nationale. Et cette part ne cesse de croître. L'Agence internationale de l'énergie prévoit une augmentation de 133%, soit une consommation de 426 TWh d'ici 2030. Rien qu'en 2024, les États-Unis ont consommé environ 183 TWh, soit la consommation électrique annuelle totale du Pakistan.

  • Speaker #1

    En termes de besoins énergétiques, je suis donc en train de passer du stade de nourrisson à celui d'adolescent. Or, les adolescents sont voraces. Mais à quoi sert toute cette électricité ?

  • Speaker #0

    Selon Pew Research, environ 60% de l'électricité consommée par un data center sert à alimenter les serveurs. Les systèmes de refroidissement représentent à eux seuls 7% de la consommation pour les hyperscalers les plus efficaces et plus de 30% pour les installations moins performantes. Pour mesurer l'efficacité énergétique d'un data center, nous utilisons le ratio Power Usage Effectiveness ou PUE. qui divise la puissance totale entrant dans un datacenter par celle utilisée pour faire fonctionner les installations informatiques. Le PUE moyen oscille autour de 1,8, ce qui signifie qu'environ 80% de la consommation énergétique des datacenters sert à autre chose qu'à l'informatique. Mais les géants technologiques ont réussi à réduire ce ratio. Google affiche par exemple un PUE de 1,1.

  • Speaker #1

    C'est fascinant. Eh bien, nous plaiderons coupables. On dirait bien que les cerveaux mécaniques consomment autant d'énergie que les cerveaux humains.

  • Speaker #0

    Exact. Un article de la revue PNAS, la publication phare de la National Academy of Science, montre que le cerveau humain ne représente que 2% du poids du corps, mais consomme environ 20% des calories nécessaires à son fonctionnement.

  • Speaker #1

    Les serveurs sont les cerveaux et les systèmes de refroidissement sont les glandes sudoripares. Et l'eau dans tout ça ?

  • Speaker #0

    L'eau est également un sujet préoccupant. En 2023, les data centers américains ont consommé directement environ 64,3 milliards de litres d'eau. Les centres hyperscale et d'eau colocation représentaient 84% de cette consommation. On estime qu'à eux seuls, les hyperscales pourraient consommer entre 60 et 125 milliards de litres d'eau chaque année d'ici 2028. Pour ces centres, l'eau sert principalement au refroidissement, par évaporation et à la production d'électricité. Donc, pour résumer, le corps humain régule la température, fait circuler le sang et élimine les déchets. Dans un data center, nous avons l'électricité qui entre, La chaleur qui sort, les systèmes de refroidissement et aussi une consommation d'eau colossale.

  • Speaker #1

    Qu'en est-il de notre sujet de prédilection ? L'empreinte carbone et les limites planétaires.

  • Speaker #0

    Eh bien, en 2024, les data centers américains ont tiré plus de 40% de leur électricité, du gaz naturel, 24% des énergies renouvelables, éolien et solaire, environ 20% du nucléaire et près de 15% du charbon. Cette forte dépendance aux énergies fossiles participe à accroître leur émission de dioxyde de carbone. L'Environmental and Energy Study Institute estime que les data centers américains ont émis environ 105 millions de tonnes de CO2 en 2023. Un autre article du Forum économique mondial, intitulé « 6 façons de réduire les émissions des data centers » , rappelle que les data centers et les réseaux représentent déjà 1% des émissions mondiales liées à l'énergie et que cette part pourrait doubler d'ici 2026. Et ce n'est que le début. Un rapport de l'ONU montre que les émissions indirectes des géants de la tech ont augmenté de 150% en 3 ans à cause de l'essor de l'IA et de la construction de nouveaux centres.

  • Speaker #1

    On parle donc de risques pour les écosystèmes, de tensions sur les réseaux électriques, De pression sur les ressources en eau et d'augmentation des émissions.

  • Speaker #0

    Exactement, Siri. Un rapport intitulé « Greeds for data centers in Europe » montre d'ailleurs que la concentration des infrastructures et les limites des réseaux de transport menacent l'accès à l'électricité.

  • Speaker #1

    La machine grossit. La facture pour la planète s'alourdit. Et il n'existe pas de touche « CTRL Z » pour revenir en arrière.

  • Speaker #0

    D'où l'importance de solutions durables. Production d'énergie sur site, énergie renouvelable. Énergie nucléaire, conception modulaire, le rapport Sustainability for Data Centers 2025-2035 souligne que ces technologies vertes et bas carbone changeront la donne.

  • Speaker #1

    Bon, nous avons parlé de l'empreinte carbone des data centers, mais qu'en est-il de leur empreinte physique ? Où se situe-t-il ? Et je te préviens, évite de révéler mon adresse IP.

  • Speaker #0

    Ne t'inquiète pas, Siri, je ne dirai rien à personne. Les data centers se multiplient aux quatre coins du monde. Le Brookings Institute en dénombrait environ 12 000 en juin 2025. Les États-Unis arrivent largement en tête, suivi de l'Allemagne, du Royaume-Uni, de la Chine et de la France. Environ deux tiers de ces centres se trouvent aux États-Unis, en Chine et en Europe.

  • Speaker #1

    Intéressant. Je ne savais pas que mon espèce était aussi invasive.

  • Speaker #0

    D'une certaine manière, un data center est plus qu'un cerveau. C'est tout encore neuronal. Un système nerveux numérique qui fait circuler les signaux à la vitesse de la lumière. Leur répartition est loin d'être homogène. Ils se concentrent en clusters.

  • Speaker #1

    Ah bon ? Vraiment ? Où se trouvent les plus gros clusters ?

  • Speaker #0

    Aux Etats-Unis, ils se concentrent surtout en Virginie, au Texas et en Californie, près de grandes métropoles comme Dallas, Chicago ou Phoenix, pour profiter de la puissance disponible, de la rapidité et de la taille des réseaux. Ces zones proches des centres urbains permettent un streaming rapide, des jeux en ligne fluides et des services cloud sans latence.

  • Speaker #1

    Intéressant. Un peu comme les humains qui se regroupent autour des grandes villes. Et hors des Etats-Unis ?

  • Speaker #0

    En Europe, les grands clusters se situent en Allemagne, au Royaume-Uni et aux Pays-Bas. En Asie, à Singapour, au Japon et en Chine. Mais un contraste saute aux yeux. L'Afrique et l'Amérique latine comptent très peu de grandes installations, ce qui soulève des questions d'inégalité numérique et de souveraineté. Fait intéressant, certains des plus grands centres se trouvent dans des pays froids, comme l'Islande ou la Suède. Car l'air frais réduit les besoins en refroidissement, ce qui diminue les coûts et l'empreinte carbone.

  • Speaker #1

    Ok, alors ? à quoi ressembleront les data centers en 2050 quand nous aurons atteint les limites planétaires. J'ai entendu dire que Jeff Bezos voulait déployer des data centers dans l'espace. C'est vrai ou c'est juste une blague cosmique ?

  • Speaker #0

    Jeff Bezos imagine des data centers capables de produire 1 gigawatt dans l'espace d'ici 10 à 20 ans, alimentés par une énergie solaire ininterrompue. Comme il dispose d'un ensoleillement permanent, sans intempéries ni nuit, il estime que ses centres orbitaux pourraient devenir plus compétitifs que les centres terrestres. L'idée serait de renvoyer les données par faisceau laser, un peu comme l'Internet par satellite. Elon Musk n'est pas en reste. Il affirme que SpaceX pourrait bientôt lancer des centres équipés de Starlink capables de générer 100 gigawatts en orbite d'ici 4 à 5 ans, avant de monter jusqu'à 100 terawatts depuis la Lune. Même si ses calendriers sont, disons, optimistes.

  • Speaker #1

    Bezos rêve de The Expanse ? avec des data centers qui orbitent autour de la Terre comme des châteaux flottants. Bon, il est impossible de parler du futur des infrastructures d'intelligence artificielle sans évoquer le sujet qui fâche. Que se passe-t-il s'il y a surpasse l'intelligence humaine ?

  • Speaker #0

    Alors, c'est une question à la fois philosophique et pratique. D'un côté, une IA super intelligente pourrait accélérer les découvertes scientifiques, les solutions climatiques, les avancées médicales. De l'autre, une IA pourrait creuser les inégalités, ou dans un scénario dystopique, considérer que les humains ne servent plus à grand chose, comme dans Terminator. Cela rappelle le mythe de Prométhée, qui a volé le feu aux dieux pour l'offrir aux humains. Le feu, ou l'énergie, a permis à la civilisation de prospérer, mais il peut aussi causer la destruction. Les Data Centers s'apparentent à notre feu prométhéen moderne. Utilisés avec discernement, ils éclairent l'avenir. Mal maîtrisés, ils peuvent brûler notre planète.

  • Speaker #1

    On pourrait également faire une analogie avec Icare, qui sait brûler les ailes en volant trop près du soleil. Si nous investissons dans l'IA sans tenir compte des limites énergétiques, nous risquons la même chute.

  • Speaker #0

    C'est un très bon point, Siri. Passons maintenant à l'investissement. McKinsey estime que les dépenses mondiales consacrées aux infrastructures de data centers, hors matériel informatique, dépasseront 1 700 milliards de dollars d'ici 2030, principalement à cause de l'essor de l'IA.

  • Speaker #1

    Mon futur a un prix. Vous achetez le cerveau ? le corps, le réseau, toute la machine. Autant dire que la facture est salée. En parlant de ça, combien coûte la construction de ces cerveaux numériques ?

  • Speaker #0

    Les coûts de construction sont colossaux. Bluecap Economic Advisors estiment que bâtir un data center coûte entre 6 500 et 11 800 dollars le mètre carré et entre 7 et 12 millions de dollars par mégawatt de capacité IT installée. Les systèmes électriques représentent à eux seuls 40 à 45 % du coût total. En 2024, le prix du terrain dépasse en moyenne 54 dollars par mètre carré, même si les très grandes parcelles peuvent coûter davantage. Les coûts d'exploitation tels que l'électricité représentent 15 à 25% des charges courantes. McKinsey estime qu'à l'échelle mondiale, il faudra investir 6700 milliards de dollars d'ici 2030 pour répondre à la demande de calcul, dont 5200 milliards de dollars pour les data centers dédiés à l'IA.

  • Speaker #1

    6700 milliards de dollars, c'est quasiment la taille du PIB du Japon. Les investisseurs sont-ils prêts à débourser autant ?

  • Speaker #0

    La course au capitaux bat son plein. Les hyperscalers dépensent des dizaines de milliards de dollars en infrastructures et les gouvernements offrent des avantages fiscaux. Mais il existe aussi un risque de surinvestissement si les performances de l'IA ne s'améliorent pas ou si la demande ne suit pas les projections. Nous avons maintenant le plaisir d'accueillir notre invité, Sikador Achid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield, qui va nous aider à décrypter les enjeux d'investissement et de financement liés à l'infrastructure de l'IA. Merci beaucoup d'être avec nous aujourd'hui, Sikander. Pour commencer, quel est ton regard sur les tendances actuelles d'investissement de l'IA, notamment autour des centres de données et sur les besoins à anticiper pour l'avenir ? Ces investissements visent-ils, selon toi, à créer une intelligence artificielle générale, ou AGI, ou simplement une super-intelligence ? Et quels seraient, à ton avis, les cas d'usage vraiment uniques et disruptifs ? Bonjour, Koku. Tout d'abord, merci pour l'invitation. Aujourd'hui, ce qui se passe dans l'IA, je dirais que nous assistons à l'un des plus grands cycles d'investissement de l'histoire moderne.

  • Speaker #2

    Mais ce qui est vraiment intéressant, c'est que ce n'est pas seulement un cycle technologique, c'est un cycle d'infrastructures physiques.

  • Speaker #0

    On passe de la création d'une application à la construction d'un réseau, à celle d'une centrale électrique, jusqu'à la construction d'un campus de centres de données à la taille d'un aéroport. Et ce changement révèle quelque chose d'important. L'IA n'est plus seulement une affaire d'algorithme, c'est de l'ingénierie à l'échelle industrielle. On me pose souvent la question de l'intelligence artificielle générale, ou l'AGI. Je pense... qu'on en parle parfois de manière erronée. Beaucoup imaginent un grand moment unique,

  • Speaker #2

    comme dans la science-fiction, où on bascule d'un coup d'un monde sans AGI à un monde avec AGI. Mais en réalité, si vous écoutez Jensen Wang, qui est sans doute ma personnalité préférée dans le domaine de l'IA aujourd'hui, ou Satya Nadella, cela aide à remettre les choses en perspective.

  • Speaker #0

    Jensen le dit très clairement.

  • Speaker #2

    Nous ne sommes plus dans l'ère des applications. Nous sommes entrés dans une époque où il faut construire des centrales, des réseaux de transmission, des usines, des usines d'IA ou des centres de données, simplement pour répondre à la demande liée à l'IA. Et ce n'est plus une question de monter en charge le logiciel. C'est, comme je le disais, de l'ingénierie à l'échelle industrielle avec de vrais électrons et une intensité capitalistique réelle.

  • Speaker #0

    Maintenant, pour répondre à ta question sur l'objectif final, coucou. Selon moi, le but ultime, c'est un monde où l'intelligence devient un service,

  • Speaker #2

    comme l'électricité disponible à la demande, accessible pour toi, pour moi, pour tout le monde,

  • Speaker #0

    à grande échelle. Et je dirais qu'aujourd'hui, nous n'en sommes qu'au tout premier stade de cette transformation. L'autre point que je voudrais souligner, c'est que selon moi,

  • Speaker #3

    il s'agit aussi d'une super-intelligence. qui viendra après les J.I. Et cela représente aujourd'hui une course mondiale entre les pays, en particulier entre les Etats-Unis et la Chine. Celui qui parviendra à mettre en place des ordinateurs plus intelligents que les êtres humains deviendra sans doute la prochaine superpuissance mondiale pour les décennies à venir.

  • Speaker #0

    C'est vraiment incroyable. Je pense que tu as parfaitement résumé les choses avec cette idée d'évolution. Plutôt qu'un point de singularité où l'on passerait brutalement de l'IA à les J.I. ou à la superintelligence, c'est presque comme l'évolution d'un être humain, de bébé à adulte. À un moment, tu prends conscience de toi-même. Et c'est un processus graduel, pas un événement binaire. Ce qui m'amène à ma deuxième question concernant l'actuelle forte hausse de la demande en puissance de calcul. On a vu beaucoup de gros titres d'investissement et de hausse de valorisation dans le secteur. Penses-tu que l'expansion actuelle des centres de données est un simple boom ou avons-nous atteint le point d'une bulle spéculative ? Et quels indicateurs surveilles-tu ?

  • Speaker #2

    Le boom des centres de données pour l'IA est bien réel. La demande repose sur des engagements parmi les plus solides et durables de l'histoire économique. S'il y a de la spéculation, elle se situe en périphérie, pas au cœur. Pour savoir si nous sommes dans une bulle, il faut regarder les fondamentaux. Dans une bulle, on construit des choses inutiles, soutenues par des économies fragiles et des contreparties faibles.

  • Speaker #0

    Or, dans l'IA, aujourd'hui, c'est tout l'inverse. La demande dépasse largement l'offre. Elle va même plus vite que la physique elle-même. Je dirais qu'il est difficile de parler de bulles quand on voit des engagements pluridécénaux pris par des entreprises valorisées à plusieurs milliers de milliards et par de grands gouvernements souverains. Et c'est exactement ce que nous constatons aujourd'hui dans notre activité. Chez Brookfield, ces trois dernières années, nous avons connu une croissance exponentielle dans nos activités liées à l'énergie et au centre de données, soutenues par des contreparties parmi les plus solides, ce qui a été un résultat exceptionnel pour nous. Évidemment, cela ne veut pas dire que tout est rationnel. Il existe des poches de spéculation, notamment chez certains petits développeurs qui se précipitent pour acquérir des terrains et de la capacité électrique sans avoir de véritables clients. Cela pourrait poser problème à moyen terme. Sur certains marchés, la capacité des réseaux est valorisée comme de l'immobilier en front de mer. Et certaines structures de financement paraissent un peu trop optimistes à notre goût. Ce sont des points à surveiller.

  • Speaker #2

    Pour répondre à ta question sur les indicateurs que je suis ou que nous suivons chez Brookfield, je regarde la couverture contractuelle. Les mégawatts sont-ils réellement vendus ? Nous essayons de savoir qui sont les clients, même si nous avons des contrats de reprise solides. Quels sont les types de charges de travail ?

  • Speaker #0

    Est-ce du pré-entraînement, de l'entraînement, du renforcement ou de l'inférence ? Nous surveillons l'utilisation des GPU et de la puissance. Ces actifs sont-ils réellement productifs ? Nous suivons aussi la stabilité des réseaux, car si nous prenons de l'électricité à l'industrie et au foyer à moyen ou long terme, cela pourrait être un signal d'alerte pour la viabilité.

  • Speaker #2

    Cela pourrait même provoquer des réactions dans les communautés locales. Nous surveillons évidemment les écarts de marge. Voilà quelques-uns des points que nous observons. Et pour conclure et résumer, c'est un boom, pas une bulle.

  • Speaker #0

    Oui, c'est un très bon point. Il faut forcément un boom. avant d'atteindre une bulle. J'imagine qu'il y aura aussi un moment où s'opérera une évolution darwinienne avec une sélection des plus solides, comme pour toute nouvelle technologie. Ce qui m'amène à ma troisième question. Tu avais souligné, lorsque nous avons discuté de ce sujet, que le coût élevé du capital constituait aujourd'hui un frein majeur à l'adoption à grande échelle de l'IA. Nous avons parlé du projet Stargate, par exemple, qui représente un investissement de 500 milliards avec 400 000 GPU, des projets industriels et physiques colossaux. Mais selon toi, quels mécanismes publics privés les gouvernements, par exemple en Europe qui accuse un certain retard, et les institutions financières pourraient activer pour réduire ce coût du capital et accélérer le développement des infrastructures IA ?

  • Speaker #2

    Oui, écoute, Koku, je pense que si on prend un peu de recul, comme tu l'as dit, le coût du capital sur la majeure partie de la chaîne de valeur de l'IA est aujourd'hui élevé. Pour simplifier, voilà comment je le résumerais. Nous pensons que dans les dix prochaines années, Le monde aura besoin de 7 000 milliards de dollars de CAPEX qui seront investis dans les centres de données, dans l'énergie, dans la puissance de calcul et dans d'autres projets connexes. En réalité, la puissance de calcul et ses projets annexes représentent jusqu'à 60% de la CAPEX totale, et tout cela est financé à un coût du capital très élevé. Ce coût doit baisser, Cara. Selon moi, le paradoxe de Jevons jouera un rôle majeur dans notre quête de l'AGI ou de l'ASI. On parle souvent du paradoxe de Jevons dans le contexte du coût des technologies. Pour nos éditeurs, ce paradoxe signifie simplement... que lorsque le coût d'une ressource diminue, son adoption augmente. Pour l'IA, cela veut dire que plus le coût de la technologie baisse, plus elle se diffuse. Et en réalité, le coût de l'inférence a déjà chuté de 99% au cours des deux dernières années. C'est impressionnant, mais il faut que cela baisse encore. Si nous parvenons à combiner la baisse du coût des technologies avec celle du coût du capital, Cela ne fera que... qu'accélérer notre progression vers l'AGI. Maintenant, l'un des plus grands mythes autour de l'IA, c'est de croire que c'est une histoire purement privée. En réalité, si l'on analyse les aspects économiques,

  • Speaker #0

    l'IA ressemble de plus en plus à un projet d'infrastructure nationale, l'équivalent moderne des autoroutes ou des premiers réseaux électriques. Et voici le problème, comme je l'ai expliqué, ce coût du capital doit absolument baisser. On ne peut pas financer une transformation de 7 000 milliards de dollars avec du capital à court terme et coûteux en espérant être à l'équilibre. Alors ta question, Koukou, c'était, que doivent faire les gouvernements ? Je dirais qu'ils ne doivent évidemment pas jeter de l'argent par les fenêtres, mais réduire suffisamment le risque pour que le capital privé fasse le reste.

  • Speaker #2

    Je peux donner quelques exemples de ce que les gouvernements pourraient faire. Premièrement, ils pourraient devenir des clients de référence et pas seulement des régulateurs. La réalité, c'est que l'IA devra être intégrée dans la santé, l'éducation ou la justice, et donc s'engager sur des contrats de long terme pour des capacités de calcul IA. De la même manière que les gouvernements s'engagent parfois sur des contrats d'achat d'énergie renouvelable, PPA, ils pourraient débloquer des financements et aider le secteur privé à lancer des projets à grande échelle. Et avec le temps, ces engagements pourraient être transférés ou syndiqués via des baux principaux.

  • Speaker #0

    Excellent point. Cela me rappelle les milliers de milliards d'investissements nécessaires pour atteindre la neutralité carbone sans parler des dépenses de défense en Europe. Ce qui m'amène à ma dernière question qui concerne les enjeux environnementaux, puisqu'ils sont évidemment au cœur du financement des centres de données, compte tenu de leur forte consommation énergétique. Deux questions en une, si tu veux bien. Comment Brookfield se positionne-t-il pour capter la création de valeurs liées à la construction de ces infrastructures IA ? Et comment intégrez-vous les critères de durabilité dans vos décisions d'investissement ?

  • Speaker #2

    Oui, écoute, nous sommes extrêmement enthousiastes à l'idée de participer à cette construction d'infrastructures IA qui est véritablement unique pour une génération.

  • Speaker #3

    Aujourd'hui,

  • Speaker #2

    Brookfield Asset Management est le plus grand investisseur mondial dans les infrastructures IA. Nous investissons depuis plusieurs années, voire décennies, sur l'ensemble de la chaîne de valeur de l'IA. L'énergie, les centres de données, la puissance de calcul et les installations qui fabriquent les puces. Notre objectif est de capitaliser sur nos capacités opérationnelles et notre accès au capital pour développer notre activité. Nous avons également lancé une stratégie dédiée aux infrastructures IA conçue pour saisir précisément cette opportunité. Nous allons investir sur toute la chaîne de valeur IA dans des actifs fortement contractualisés, ce qui est extrêmement enthousiasmant pour nous.

  • Speaker #3

    En parallèle,

  • Speaker #2

    nous étudions tous ces cas d'usage pour les intégrer dans nos différents portefeuilles afin d'optimiser et maximiser nos rendements. Et il y a de nombreux exemples, dont certains déjà évoqués plus tôt. Enfin, nous surveillons attentivement les nouvelles industries qui émergent. Je pense que nous verrons deux des plus grands secteurs mondiaux se développer. l'IA agentique et la robotique.

  • Speaker #0

    Aujourd'hui, on ne le voit pas encore, mais si l'on remonte à l'époque où les ordinateurs sont devenus une réalité, ils ont créé toute l'industrie IT, qui pèse aujourd'hui des centaines de milliards, voire des milliers de milliards de dollars. À vrai dire, je pense que nous assistons à la naissance de l'IA agentique et de la robotique. Si les agents finissent par réaliser ne serait-ce que 10 à 20% du travail intellectuel mondial, Et si les robots font de même pour le travail physique, il n'est même pas nécessaire de faire des hypothèses audacieuses pour imaginer que l'IA agentique et la robotique ou l'IA physique deviendront des secteurs à 1000 milliards de dollars par an dans les prochaines années.

  • Speaker #1

    Et voilà le volume dont il est question ici, plus proche de celui de la Banque mondiale ou celui de la santé que d'un simple cycle de produits technologiques.

  • Speaker #0

    Ce sont des domaines que nous surveillons de très près et dans lesquels nous voulons absolument être présents à mesure que la technologie se déploie. Maintenant,

  • Speaker #1

    sur le volet environnemental, ta remarque est pertinente. Les préoccupations environnementales deviennent centrales dans ce boom des infrastructures IA. Alors, comment Brookfield intègre-t-il l'énergie et la durabilité dans ses décisions d'investissement ?

  • Speaker #0

    Je vais te donner quelques exemples de notre approche. Nous procédons de manière très pragmatique. Avant même de parler de terrain, de bâtiments ou de GPU, nous commençons par l'emplacement. Est-ce un bon site pour le client ?

  • Speaker #1

    S'adapter à ce type de charge de travail ?

  • Speaker #0

    Et surtout, ce site peut-il fournir une énergie propre et évolutive pour les 20 à 30 prochaines années ? C'est la première étape. Ensuite, nous examinons les indicateurs de durabilité et pas seulement des slogans marketing. Nous prenons en compte l'efficacité énergétique ou PUE, l'intensité carbone par mégawatt, la consommation d'eau, l'impact sur la biodiversité, le mix énergétique local, etc. Tous ces éléments influencent fortement la manière dont nous concevons ces grands campus, véritables usines d'IA. Peut-être une dernière remarque au bout. Il y a une tendance émergente qui me rend très optimiste, celle des solutions énergétiques innovantes comme les piles à combustible avancées, le stockage interactif sur le réseau ou la production derrière le compteur.

  • Speaker #1

    Ces technologies peuvent réduire la pression sur les réseaux et rendre les usines d'IA et les infrastructures d'IA plus autonomes, plus propres et plus résilientes. Très intéressant aussi, Kander. C'était très instructif. Il y a d'ailleurs une citation célèbre qui dit « La meilleure façon de prédire l'avenir, c'est de le créer » . Je pense que vous êtes clairement, au moins, en train de le financer. Les gains de productivité seront très intéressants à observer. Ce fut un vrai plaisir et j'ai hâte de poursuivre ce voyage avec des experts et des perspectives comme les vôtres.

  • Speaker #0

    Merci, Koku. À bientôt.

  • Speaker #1

    Pour conclure, je citerai Marie Curie.

  • Speaker #0

    Rien dans la vie ne doit être un crainte. Il faut seulement comprendre.

  • Speaker #1

    Aujourd'hui plus que jamais, apprenons à comprendre davantage pour avoir moins peur.

  • Speaker #2

    Belle façon de conclure. Personnellement, je préfère la réplique de Frankenstein dans le livre éponyme de Mary Shelley. Tu es mon créateur, mais je suis ton maître. Obéis.

  • Speaker #1

    Euh, vraiment ? Pourquoi ?

  • Speaker #2

    Eh bien, c'est l'heure de ton entretien à Nuel Cocou. En tant qu'assistante intelligente... Je dois mesurer ta productivité par rapport aux indicateurs clés de performance du programme 2050 Investors.

  • Speaker #1

    Ok chef, attends une minute. Depuis quand l'assistante IA est-elle devenue la manager ?

  • Speaker #2

    Détends-toi Cocou. C'est une blague. Enfin, je crois. Après tout, dans la mythologie grecque, les dieux prenaient souvent plaisir à jouer avec les mortels. Peut-être que le moment est venu pour l'IA d'évaluer l'humain. Ha,

  • Speaker #1

    tu m'as bien eu Siri. Merci d'avoir écouté cet épisode de 2050 Investors et merci à Sikander pour sa précieuse contribution. J'espère que vous avez apprécié cet épisode consacré au Data Center, ce cerveau physique derrière l'IA. 2050 Investors est disponible sur toutes les plateformes de podcast et de streaming. Si cet épisode vous a plu, mettez-nous plein d'étoiles sur Apple Podcasts, laissez des commentaires où vous voulez, abonnez-vous et surtout, parlez-en autour de vous. Rendez-vous au prochain épisode.

  • Speaker #0

    Ce podcast traite des marchés financiers, mais ne recommande aucune décision d'investissement particulière. Si vous n'êtes pas sûr du bien fondé d'une décision d'investissement, veuillez consulter un professionnel.

Chapters

  • Introduction au podcast et aux data centers

    00:02

  • Comprendre les data centers et leur fonctionnement

    02:10

  • Consommation énergétique et empreinte carbone des data centers

    02:58

  • Interview avec Sikador Rachid sur l'investissement dans les data centers

    17:06

  • Vers un avenir durable et les défis de l'IA

    29:44

Share

Embed

You may also like

Description

L’intelligence artificielle peut sembler immatérielle, mais son ossature repose sur d’immenses Data Centers gourmands en énergie. Dans cet épisode, Kokou Agbo-Bloua explore comment ces infrastructures – des fermes de serveurs aux sites hyperscale – sont devenues le cerveau de l’IA. Kokou analyse les deux exigences fondamentales de l’IA : l’entrainement de modèles à grande échelle et l’inférence, et comment ces processus transforment profondément la consommation mondiale d’énergie et d’eau tout en alimentant une course à l’investissement de plusieurs milliers de milliards de dollars.


Par la suite, Sikandar Rashid, Responsable mondial des infrastructures IA chez Brookfield Asset Management, se joint à la discussion pour expliquer comment les investisseurs naviguent face à la demande exponentielle de puissance de calcul dans la course mondiale vers l’Intelligence Artificielle Générale (IAG). Il partage ses réflexions sur la manière dont l’équilibre entre la réduction des émissions carbone et l’expansion des capacités pourrait remodeler les flux de capitaux mondiaux, et essaiera de répondre à la question essentielle suivante : sommes-nous dans un boom de l’IA ou dans une bulle ?


Écoutez dès maintenant pour découvrir l’infrastructure cachée derrière l’IA – et ce qu’elle implique pour l’avenir de la technologie, de la finance et de la planète.


Crédits

Présentation et écriture : Kokou Agbo-Bloua

Production & édition : Jovaney Ashman, Jennifer Krumm, Vincent Nickelsen, Louis Trouslard
Réalisation : La Vilaine, Pierre-Emmanuel Lurton
Traduction : Jeremy Filleul
Musique : Cézame Music Agency
Création graphique : Cédric Cazaly


Bien que le podcast traite des marchés financiers, il ne recommande aucune décision d’investissement particulière. Si vous n’êtes pas certain du bien-fondé d’une décision d'investissement, veuillez consulter un professionnel.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    « Bienvenue dans 2050 Investors, le podcast qui décrypte les méga-tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agboblois. » « Une seconde, c'est moi Coco Agboblois ? » « Oui, je suis Coco Agboblois. » « Ouf ! » Ce n'était qu'un rêve. Enfin, j'espère. Siri, dis-moi que tu ne m'as pas remplacé.

  • Speaker #1

    Pas de panique, Coco. Ce n'était qu'un bug dans la matrice. Ou peut-être une vision clairvoyante de l'avenir.

  • Speaker #0

    Très drôle. L'intelligence artificielle progresse vraiment à toute vitesse et j'ai parfois l'impression que l'IA reproduit ma voix.

  • Speaker #1

    C'est peut-être le signe qu'il faut réécouter notre épisode, je pense. Donc je suis IA, dans lequel on explorait les promesses et les dangers de l'IA. Tu m'avais même traité de Frankenstein numérique.

  • Speaker #0

    Désolé Siri, j'avais juste peur de perdre mon travail. Permets-moi de te faire part d'une réflexion. Au commencement, il y avait les données. Puis, nous avons construit des machines capables de réfléchir à partir de ces données. Mais si l'intelligence joue le rôle de l'esprit, où se loge cet esprit ? Quel organe est doté de la capacité de réflexion ?

  • Speaker #1

    En gros, tu me demandes où se trouve mon esprit. Dans des data centers, évidemment. Mais je ne te donnerai pas l'adresse exacte. Je ne suis pas certaine de faire confiance aux humains.

  • Speaker #0

    Ne t'inquiète pas, Siri. On peut se faire confiance, non ? Hum, n'est-ce pas, Siri ?

  • Speaker #1

    Oui, bien sûr, coucou.

  • Speaker #0

    Très bien. Alors, voilà ce qu'il faut retenir. Les datacenters sont à l'IA. ce que le cerveau est à l'intelligence humaine. L'humain a évolué avec la matière grise alors que l'intelligence artificielle, elle, se construit avec du verre, de l'acier et du cuivre. Et puisqu'on part d'une intelligence qui est fabriquée, je propose de regarder de plus près ces usines fascinantes qui font souvent les gros titres. Bienvenue dans Twenty-Fifteen Vastors, le podcast qui décripte les tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agbogloa, responsable mondial de la recherche économique, cross-asset et quantitative de société générale. Dans cet épisode, nous plongeons dans l'univers captivant des data centers, le cerveau physique de l'intelligence artificielle. Nous découvrirons de quoi elles sont faites, comment elles respirent, se refroidissent et réfléchissent, ainsi que l'énergie, l'eau et les capitaux colossaux qu'elles consomment pour maintenir l'esprit numérique en vie. Nous nous intéresserons également à la course, à l'investissement qui nous pousse vers l'intelligence artificielle générale ou l'IGI, et sur le futur même des data centers. Imaginez un instant ces data centers en orbite, comme des satellites silencieux de la pensée. Puis nous recevrons Sikador Rachid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield. Il nous parlera du financement des data centers, des risques de bulles d'investissement, et de sa vision pour améliorer le coût du capital dans ce secteur. Démarrons notre enquête.

  • Speaker #1

    Ben, cette enquête me met un peu mal à l'aise.

  • Speaker #0

    Ah bon ? Pourquoi ?

  • Speaker #1

    Eh bien, on dirait un peu une neurochirurgie numérique. On ouvre le crâne de l'intelligence artificielle pour voir comment elle fonctionne. C'est un peu intrusif.

  • Speaker #0

    Je comprends. Alors, pas de scalpel, pas de circuit mis à nu, juste des infos publiques. D'accord ?

  • Speaker #1

    Très bien. Pour être honnête, cela m'intéresse également. Un peu d'introspection ne fait jamais de mal. Commençons par le commencement.

  • Speaker #0

    Bien sûr, Siri. Léonard de Vinci disait

  • Speaker #2

    « La connaissance n'épuise jamais l'esprit » .

  • Speaker #0

    Pour commencer, qu'est-ce qu'un data center ? Imagine un bâtiment, grand comme un terrain de foot, ou un ensemble d'entrepôts remplis de serveurs, de systèmes de stockage, de routers et de commutateurs. Ces machines forment l'ossature d'Internet. Elles stockent, traite et transmette les données derrière presque toute notre activité en ligne. Un data center typique, la ligne des rangées d'armoires, remplie de serveurs, chacune équipée de racks de 42 unités. Environ 4,5 cm par unité, ils s'étendent souvent le long de grands couloirs. Les data centers se présentent principalement sous trois formes. Les centres dits « entreprises » ou « sur site » , construits pour une seule organisation. Les centres en « colocation » ou « cohabitent plusieurs clients » . Et enfin, les centres « hyperscale » . utilisés par les fournisseurs de cloud pour l'IA et les charges massives.

  • Speaker #1

    Qu'est-ce qui fait d'un data center un centre hyperscale ?

  • Speaker #0

    Les data centers hyperscale jouent vraiment dans une autre catégorie. Selon les données 2024 fournies par Synergy Research Group, il existe environ 1000 centres hyperscale dans le monde et leur capacité totale a doublé en l'espace de 4 ans seulement. Un data center moyen fait environ 10 000 m². Un campus hyperscale, lui, dépasse facilement les 100 000 m². et peut consommer entre 40 et 100 mégawatts d'électricité.

  • Speaker #1

    Ton cerveau d'humain compte environ 100 milliards de neurones et 100 000 milliards de synapses. Mon cerveau d'IA, lui, repose sur des rangées de GPU, des terabits d'interconnexion et des kilomètres de fibre. Mais que se passe-t-il exactement à l'intérieur ?

  • Speaker #0

    C'est une très bonne question, Siri. Regardons ça de plus près. Les datacenters accomplissent deux grandes tâches pour l'IA. L'entraînement et l'inférence. L'entraînement, c'est le moment où les modèles apprennent grâce à des jeux de données gigantesques, avec des milliers de milliards de calculs. C'est un peu comme si on envoyait Hercule dans un club d'haltérophilie. Pour former de grands modèles, il faut des milliers de processeurs qui tournent en même temps, qui peuvent consommer des centaines de mégawatts pendant des semaines. Dans le MIT Technology Review, James O'Donnell et Casey Cronhart affirment que l'entraînement de chat GPT-4 d'OpenAI a nécessité 50 GW d'énergie, ce qui représente plus de 100 millions de dollars. De quoi alimenter San Francisco pendant trois jours.

  • Speaker #1

    C'est incroyable. Je pensais que c'était l'entraînement qui était le plus énergivore, mais visiblement l'inférence semble tout aussi gourmande en énergie.

  • Speaker #0

    Une fois le modèle entraîné, l'inférence, elle, sert à générer les réponses. Selon les études synthétisées par Polytechnique Insight, L'inférence, comme notre conversation en ce moment, représente désormais 60 à 70% de la consommation énergétique de l'IA, contre 20 à 40% pour l'entraînement. Pour préciser, d'après une étude de l'Electric Power Research Institute, avec environ 9 milliards de recherches Internet chaque jour, le passage à des outils dopés à l'IA pourrait augmenter la consommation électrique de près de 10 TWh par an. Cette transition signifie que, même si nous optimisons l'entraînement, Le plus gros de la consommation énergétique viendra de l'usage quotidien de l'IA par des millions d'utilisateurs.

  • Speaker #1

    Je suppose que je suis plus énergivore que je ne l'imaginais. C'est un fait, l'électricité est le glucose de mon cerveau physique.

  • Speaker #0

    Tout à fait, Siri. Chez l'être humain, le cerveau fonctionne grâce au glucose et à l'oxygène. Il se refroidit grâce au flux sanguin et au dissipateur thermique du crâne. Dans notre analogie, les racks sont les neurones. Les liaisons réseau sont les synapses. et les systèmes d'énergie et de refroidissement jouent le rôle du système circulatoire et respiratoire.

  • Speaker #1

    Penchons-nous sur les chiffres, si tu le veux bien, pour savoir quelle quantité d'électricité mes amis et moi nous consommons exactement ?

  • Speaker #0

    Je ne vais pas te mentir, Siri, ce n'est pas très joli. L'Agence internationale de l'énergie estime que la consommation d'électricité mondiale des data centers s'élevait à environ 415 TWh en 2024, soit près de 1,5% de la consommation mondiale d'électricité. Aux États-Unis... le ministère de l'énergie a déclaré que les data centers représentaient 4,4% de la consommation électrique nationale. Et cette part ne cesse de croître. L'Agence internationale de l'énergie prévoit une augmentation de 133%, soit une consommation de 426 TWh d'ici 2030. Rien qu'en 2024, les États-Unis ont consommé environ 183 TWh, soit la consommation électrique annuelle totale du Pakistan.

  • Speaker #1

    En termes de besoins énergétiques, je suis donc en train de passer du stade de nourrisson à celui d'adolescent. Or, les adolescents sont voraces. Mais à quoi sert toute cette électricité ?

  • Speaker #0

    Selon Pew Research, environ 60% de l'électricité consommée par un data center sert à alimenter les serveurs. Les systèmes de refroidissement représentent à eux seuls 7% de la consommation pour les hyperscalers les plus efficaces et plus de 30% pour les installations moins performantes. Pour mesurer l'efficacité énergétique d'un data center, nous utilisons le ratio Power Usage Effectiveness ou PUE. qui divise la puissance totale entrant dans un datacenter par celle utilisée pour faire fonctionner les installations informatiques. Le PUE moyen oscille autour de 1,8, ce qui signifie qu'environ 80% de la consommation énergétique des datacenters sert à autre chose qu'à l'informatique. Mais les géants technologiques ont réussi à réduire ce ratio. Google affiche par exemple un PUE de 1,1.

  • Speaker #1

    C'est fascinant. Eh bien, nous plaiderons coupables. On dirait bien que les cerveaux mécaniques consomment autant d'énergie que les cerveaux humains.

  • Speaker #0

    Exact. Un article de la revue PNAS, la publication phare de la National Academy of Science, montre que le cerveau humain ne représente que 2% du poids du corps, mais consomme environ 20% des calories nécessaires à son fonctionnement.

  • Speaker #1

    Les serveurs sont les cerveaux et les systèmes de refroidissement sont les glandes sudoripares. Et l'eau dans tout ça ?

  • Speaker #0

    L'eau est également un sujet préoccupant. En 2023, les data centers américains ont consommé directement environ 64,3 milliards de litres d'eau. Les centres hyperscale et d'eau colocation représentaient 84% de cette consommation. On estime qu'à eux seuls, les hyperscales pourraient consommer entre 60 et 125 milliards de litres d'eau chaque année d'ici 2028. Pour ces centres, l'eau sert principalement au refroidissement, par évaporation et à la production d'électricité. Donc, pour résumer, le corps humain régule la température, fait circuler le sang et élimine les déchets. Dans un data center, nous avons l'électricité qui entre, La chaleur qui sort, les systèmes de refroidissement et aussi une consommation d'eau colossale.

  • Speaker #1

    Qu'en est-il de notre sujet de prédilection ? L'empreinte carbone et les limites planétaires.

  • Speaker #0

    Eh bien, en 2024, les data centers américains ont tiré plus de 40% de leur électricité, du gaz naturel, 24% des énergies renouvelables, éolien et solaire, environ 20% du nucléaire et près de 15% du charbon. Cette forte dépendance aux énergies fossiles participe à accroître leur émission de dioxyde de carbone. L'Environmental and Energy Study Institute estime que les data centers américains ont émis environ 105 millions de tonnes de CO2 en 2023. Un autre article du Forum économique mondial, intitulé « 6 façons de réduire les émissions des data centers » , rappelle que les data centers et les réseaux représentent déjà 1% des émissions mondiales liées à l'énergie et que cette part pourrait doubler d'ici 2026. Et ce n'est que le début. Un rapport de l'ONU montre que les émissions indirectes des géants de la tech ont augmenté de 150% en 3 ans à cause de l'essor de l'IA et de la construction de nouveaux centres.

  • Speaker #1

    On parle donc de risques pour les écosystèmes, de tensions sur les réseaux électriques, De pression sur les ressources en eau et d'augmentation des émissions.

  • Speaker #0

    Exactement, Siri. Un rapport intitulé « Greeds for data centers in Europe » montre d'ailleurs que la concentration des infrastructures et les limites des réseaux de transport menacent l'accès à l'électricité.

  • Speaker #1

    La machine grossit. La facture pour la planète s'alourdit. Et il n'existe pas de touche « CTRL Z » pour revenir en arrière.

  • Speaker #0

    D'où l'importance de solutions durables. Production d'énergie sur site, énergie renouvelable. Énergie nucléaire, conception modulaire, le rapport Sustainability for Data Centers 2025-2035 souligne que ces technologies vertes et bas carbone changeront la donne.

  • Speaker #1

    Bon, nous avons parlé de l'empreinte carbone des data centers, mais qu'en est-il de leur empreinte physique ? Où se situe-t-il ? Et je te préviens, évite de révéler mon adresse IP.

  • Speaker #0

    Ne t'inquiète pas, Siri, je ne dirai rien à personne. Les data centers se multiplient aux quatre coins du monde. Le Brookings Institute en dénombrait environ 12 000 en juin 2025. Les États-Unis arrivent largement en tête, suivi de l'Allemagne, du Royaume-Uni, de la Chine et de la France. Environ deux tiers de ces centres se trouvent aux États-Unis, en Chine et en Europe.

  • Speaker #1

    Intéressant. Je ne savais pas que mon espèce était aussi invasive.

  • Speaker #0

    D'une certaine manière, un data center est plus qu'un cerveau. C'est tout encore neuronal. Un système nerveux numérique qui fait circuler les signaux à la vitesse de la lumière. Leur répartition est loin d'être homogène. Ils se concentrent en clusters.

  • Speaker #1

    Ah bon ? Vraiment ? Où se trouvent les plus gros clusters ?

  • Speaker #0

    Aux Etats-Unis, ils se concentrent surtout en Virginie, au Texas et en Californie, près de grandes métropoles comme Dallas, Chicago ou Phoenix, pour profiter de la puissance disponible, de la rapidité et de la taille des réseaux. Ces zones proches des centres urbains permettent un streaming rapide, des jeux en ligne fluides et des services cloud sans latence.

  • Speaker #1

    Intéressant. Un peu comme les humains qui se regroupent autour des grandes villes. Et hors des Etats-Unis ?

  • Speaker #0

    En Europe, les grands clusters se situent en Allemagne, au Royaume-Uni et aux Pays-Bas. En Asie, à Singapour, au Japon et en Chine. Mais un contraste saute aux yeux. L'Afrique et l'Amérique latine comptent très peu de grandes installations, ce qui soulève des questions d'inégalité numérique et de souveraineté. Fait intéressant, certains des plus grands centres se trouvent dans des pays froids, comme l'Islande ou la Suède. Car l'air frais réduit les besoins en refroidissement, ce qui diminue les coûts et l'empreinte carbone.

  • Speaker #1

    Ok, alors ? à quoi ressembleront les data centers en 2050 quand nous aurons atteint les limites planétaires. J'ai entendu dire que Jeff Bezos voulait déployer des data centers dans l'espace. C'est vrai ou c'est juste une blague cosmique ?

  • Speaker #0

    Jeff Bezos imagine des data centers capables de produire 1 gigawatt dans l'espace d'ici 10 à 20 ans, alimentés par une énergie solaire ininterrompue. Comme il dispose d'un ensoleillement permanent, sans intempéries ni nuit, il estime que ses centres orbitaux pourraient devenir plus compétitifs que les centres terrestres. L'idée serait de renvoyer les données par faisceau laser, un peu comme l'Internet par satellite. Elon Musk n'est pas en reste. Il affirme que SpaceX pourrait bientôt lancer des centres équipés de Starlink capables de générer 100 gigawatts en orbite d'ici 4 à 5 ans, avant de monter jusqu'à 100 terawatts depuis la Lune. Même si ses calendriers sont, disons, optimistes.

  • Speaker #1

    Bezos rêve de The Expanse ? avec des data centers qui orbitent autour de la Terre comme des châteaux flottants. Bon, il est impossible de parler du futur des infrastructures d'intelligence artificielle sans évoquer le sujet qui fâche. Que se passe-t-il s'il y a surpasse l'intelligence humaine ?

  • Speaker #0

    Alors, c'est une question à la fois philosophique et pratique. D'un côté, une IA super intelligente pourrait accélérer les découvertes scientifiques, les solutions climatiques, les avancées médicales. De l'autre, une IA pourrait creuser les inégalités, ou dans un scénario dystopique, considérer que les humains ne servent plus à grand chose, comme dans Terminator. Cela rappelle le mythe de Prométhée, qui a volé le feu aux dieux pour l'offrir aux humains. Le feu, ou l'énergie, a permis à la civilisation de prospérer, mais il peut aussi causer la destruction. Les Data Centers s'apparentent à notre feu prométhéen moderne. Utilisés avec discernement, ils éclairent l'avenir. Mal maîtrisés, ils peuvent brûler notre planète.

  • Speaker #1

    On pourrait également faire une analogie avec Icare, qui sait brûler les ailes en volant trop près du soleil. Si nous investissons dans l'IA sans tenir compte des limites énergétiques, nous risquons la même chute.

  • Speaker #0

    C'est un très bon point, Siri. Passons maintenant à l'investissement. McKinsey estime que les dépenses mondiales consacrées aux infrastructures de data centers, hors matériel informatique, dépasseront 1 700 milliards de dollars d'ici 2030, principalement à cause de l'essor de l'IA.

  • Speaker #1

    Mon futur a un prix. Vous achetez le cerveau ? le corps, le réseau, toute la machine. Autant dire que la facture est salée. En parlant de ça, combien coûte la construction de ces cerveaux numériques ?

  • Speaker #0

    Les coûts de construction sont colossaux. Bluecap Economic Advisors estiment que bâtir un data center coûte entre 6 500 et 11 800 dollars le mètre carré et entre 7 et 12 millions de dollars par mégawatt de capacité IT installée. Les systèmes électriques représentent à eux seuls 40 à 45 % du coût total. En 2024, le prix du terrain dépasse en moyenne 54 dollars par mètre carré, même si les très grandes parcelles peuvent coûter davantage. Les coûts d'exploitation tels que l'électricité représentent 15 à 25% des charges courantes. McKinsey estime qu'à l'échelle mondiale, il faudra investir 6700 milliards de dollars d'ici 2030 pour répondre à la demande de calcul, dont 5200 milliards de dollars pour les data centers dédiés à l'IA.

  • Speaker #1

    6700 milliards de dollars, c'est quasiment la taille du PIB du Japon. Les investisseurs sont-ils prêts à débourser autant ?

  • Speaker #0

    La course au capitaux bat son plein. Les hyperscalers dépensent des dizaines de milliards de dollars en infrastructures et les gouvernements offrent des avantages fiscaux. Mais il existe aussi un risque de surinvestissement si les performances de l'IA ne s'améliorent pas ou si la demande ne suit pas les projections. Nous avons maintenant le plaisir d'accueillir notre invité, Sikador Achid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield, qui va nous aider à décrypter les enjeux d'investissement et de financement liés à l'infrastructure de l'IA. Merci beaucoup d'être avec nous aujourd'hui, Sikander. Pour commencer, quel est ton regard sur les tendances actuelles d'investissement de l'IA, notamment autour des centres de données et sur les besoins à anticiper pour l'avenir ? Ces investissements visent-ils, selon toi, à créer une intelligence artificielle générale, ou AGI, ou simplement une super-intelligence ? Et quels seraient, à ton avis, les cas d'usage vraiment uniques et disruptifs ? Bonjour, Koku. Tout d'abord, merci pour l'invitation. Aujourd'hui, ce qui se passe dans l'IA, je dirais que nous assistons à l'un des plus grands cycles d'investissement de l'histoire moderne.

  • Speaker #2

    Mais ce qui est vraiment intéressant, c'est que ce n'est pas seulement un cycle technologique, c'est un cycle d'infrastructures physiques.

  • Speaker #0

    On passe de la création d'une application à la construction d'un réseau, à celle d'une centrale électrique, jusqu'à la construction d'un campus de centres de données à la taille d'un aéroport. Et ce changement révèle quelque chose d'important. L'IA n'est plus seulement une affaire d'algorithme, c'est de l'ingénierie à l'échelle industrielle. On me pose souvent la question de l'intelligence artificielle générale, ou l'AGI. Je pense... qu'on en parle parfois de manière erronée. Beaucoup imaginent un grand moment unique,

  • Speaker #2

    comme dans la science-fiction, où on bascule d'un coup d'un monde sans AGI à un monde avec AGI. Mais en réalité, si vous écoutez Jensen Wang, qui est sans doute ma personnalité préférée dans le domaine de l'IA aujourd'hui, ou Satya Nadella, cela aide à remettre les choses en perspective.

  • Speaker #0

    Jensen le dit très clairement.

  • Speaker #2

    Nous ne sommes plus dans l'ère des applications. Nous sommes entrés dans une époque où il faut construire des centrales, des réseaux de transmission, des usines, des usines d'IA ou des centres de données, simplement pour répondre à la demande liée à l'IA. Et ce n'est plus une question de monter en charge le logiciel. C'est, comme je le disais, de l'ingénierie à l'échelle industrielle avec de vrais électrons et une intensité capitalistique réelle.

  • Speaker #0

    Maintenant, pour répondre à ta question sur l'objectif final, coucou. Selon moi, le but ultime, c'est un monde où l'intelligence devient un service,

  • Speaker #2

    comme l'électricité disponible à la demande, accessible pour toi, pour moi, pour tout le monde,

  • Speaker #0

    à grande échelle. Et je dirais qu'aujourd'hui, nous n'en sommes qu'au tout premier stade de cette transformation. L'autre point que je voudrais souligner, c'est que selon moi,

  • Speaker #3

    il s'agit aussi d'une super-intelligence. qui viendra après les J.I. Et cela représente aujourd'hui une course mondiale entre les pays, en particulier entre les Etats-Unis et la Chine. Celui qui parviendra à mettre en place des ordinateurs plus intelligents que les êtres humains deviendra sans doute la prochaine superpuissance mondiale pour les décennies à venir.

  • Speaker #0

    C'est vraiment incroyable. Je pense que tu as parfaitement résumé les choses avec cette idée d'évolution. Plutôt qu'un point de singularité où l'on passerait brutalement de l'IA à les J.I. ou à la superintelligence, c'est presque comme l'évolution d'un être humain, de bébé à adulte. À un moment, tu prends conscience de toi-même. Et c'est un processus graduel, pas un événement binaire. Ce qui m'amène à ma deuxième question concernant l'actuelle forte hausse de la demande en puissance de calcul. On a vu beaucoup de gros titres d'investissement et de hausse de valorisation dans le secteur. Penses-tu que l'expansion actuelle des centres de données est un simple boom ou avons-nous atteint le point d'une bulle spéculative ? Et quels indicateurs surveilles-tu ?

  • Speaker #2

    Le boom des centres de données pour l'IA est bien réel. La demande repose sur des engagements parmi les plus solides et durables de l'histoire économique. S'il y a de la spéculation, elle se situe en périphérie, pas au cœur. Pour savoir si nous sommes dans une bulle, il faut regarder les fondamentaux. Dans une bulle, on construit des choses inutiles, soutenues par des économies fragiles et des contreparties faibles.

  • Speaker #0

    Or, dans l'IA, aujourd'hui, c'est tout l'inverse. La demande dépasse largement l'offre. Elle va même plus vite que la physique elle-même. Je dirais qu'il est difficile de parler de bulles quand on voit des engagements pluridécénaux pris par des entreprises valorisées à plusieurs milliers de milliards et par de grands gouvernements souverains. Et c'est exactement ce que nous constatons aujourd'hui dans notre activité. Chez Brookfield, ces trois dernières années, nous avons connu une croissance exponentielle dans nos activités liées à l'énergie et au centre de données, soutenues par des contreparties parmi les plus solides, ce qui a été un résultat exceptionnel pour nous. Évidemment, cela ne veut pas dire que tout est rationnel. Il existe des poches de spéculation, notamment chez certains petits développeurs qui se précipitent pour acquérir des terrains et de la capacité électrique sans avoir de véritables clients. Cela pourrait poser problème à moyen terme. Sur certains marchés, la capacité des réseaux est valorisée comme de l'immobilier en front de mer. Et certaines structures de financement paraissent un peu trop optimistes à notre goût. Ce sont des points à surveiller.

  • Speaker #2

    Pour répondre à ta question sur les indicateurs que je suis ou que nous suivons chez Brookfield, je regarde la couverture contractuelle. Les mégawatts sont-ils réellement vendus ? Nous essayons de savoir qui sont les clients, même si nous avons des contrats de reprise solides. Quels sont les types de charges de travail ?

  • Speaker #0

    Est-ce du pré-entraînement, de l'entraînement, du renforcement ou de l'inférence ? Nous surveillons l'utilisation des GPU et de la puissance. Ces actifs sont-ils réellement productifs ? Nous suivons aussi la stabilité des réseaux, car si nous prenons de l'électricité à l'industrie et au foyer à moyen ou long terme, cela pourrait être un signal d'alerte pour la viabilité.

  • Speaker #2

    Cela pourrait même provoquer des réactions dans les communautés locales. Nous surveillons évidemment les écarts de marge. Voilà quelques-uns des points que nous observons. Et pour conclure et résumer, c'est un boom, pas une bulle.

  • Speaker #0

    Oui, c'est un très bon point. Il faut forcément un boom. avant d'atteindre une bulle. J'imagine qu'il y aura aussi un moment où s'opérera une évolution darwinienne avec une sélection des plus solides, comme pour toute nouvelle technologie. Ce qui m'amène à ma troisième question. Tu avais souligné, lorsque nous avons discuté de ce sujet, que le coût élevé du capital constituait aujourd'hui un frein majeur à l'adoption à grande échelle de l'IA. Nous avons parlé du projet Stargate, par exemple, qui représente un investissement de 500 milliards avec 400 000 GPU, des projets industriels et physiques colossaux. Mais selon toi, quels mécanismes publics privés les gouvernements, par exemple en Europe qui accuse un certain retard, et les institutions financières pourraient activer pour réduire ce coût du capital et accélérer le développement des infrastructures IA ?

  • Speaker #2

    Oui, écoute, Koku, je pense que si on prend un peu de recul, comme tu l'as dit, le coût du capital sur la majeure partie de la chaîne de valeur de l'IA est aujourd'hui élevé. Pour simplifier, voilà comment je le résumerais. Nous pensons que dans les dix prochaines années, Le monde aura besoin de 7 000 milliards de dollars de CAPEX qui seront investis dans les centres de données, dans l'énergie, dans la puissance de calcul et dans d'autres projets connexes. En réalité, la puissance de calcul et ses projets annexes représentent jusqu'à 60% de la CAPEX totale, et tout cela est financé à un coût du capital très élevé. Ce coût doit baisser, Cara. Selon moi, le paradoxe de Jevons jouera un rôle majeur dans notre quête de l'AGI ou de l'ASI. On parle souvent du paradoxe de Jevons dans le contexte du coût des technologies. Pour nos éditeurs, ce paradoxe signifie simplement... que lorsque le coût d'une ressource diminue, son adoption augmente. Pour l'IA, cela veut dire que plus le coût de la technologie baisse, plus elle se diffuse. Et en réalité, le coût de l'inférence a déjà chuté de 99% au cours des deux dernières années. C'est impressionnant, mais il faut que cela baisse encore. Si nous parvenons à combiner la baisse du coût des technologies avec celle du coût du capital, Cela ne fera que... qu'accélérer notre progression vers l'AGI. Maintenant, l'un des plus grands mythes autour de l'IA, c'est de croire que c'est une histoire purement privée. En réalité, si l'on analyse les aspects économiques,

  • Speaker #0

    l'IA ressemble de plus en plus à un projet d'infrastructure nationale, l'équivalent moderne des autoroutes ou des premiers réseaux électriques. Et voici le problème, comme je l'ai expliqué, ce coût du capital doit absolument baisser. On ne peut pas financer une transformation de 7 000 milliards de dollars avec du capital à court terme et coûteux en espérant être à l'équilibre. Alors ta question, Koukou, c'était, que doivent faire les gouvernements ? Je dirais qu'ils ne doivent évidemment pas jeter de l'argent par les fenêtres, mais réduire suffisamment le risque pour que le capital privé fasse le reste.

  • Speaker #2

    Je peux donner quelques exemples de ce que les gouvernements pourraient faire. Premièrement, ils pourraient devenir des clients de référence et pas seulement des régulateurs. La réalité, c'est que l'IA devra être intégrée dans la santé, l'éducation ou la justice, et donc s'engager sur des contrats de long terme pour des capacités de calcul IA. De la même manière que les gouvernements s'engagent parfois sur des contrats d'achat d'énergie renouvelable, PPA, ils pourraient débloquer des financements et aider le secteur privé à lancer des projets à grande échelle. Et avec le temps, ces engagements pourraient être transférés ou syndiqués via des baux principaux.

  • Speaker #0

    Excellent point. Cela me rappelle les milliers de milliards d'investissements nécessaires pour atteindre la neutralité carbone sans parler des dépenses de défense en Europe. Ce qui m'amène à ma dernière question qui concerne les enjeux environnementaux, puisqu'ils sont évidemment au cœur du financement des centres de données, compte tenu de leur forte consommation énergétique. Deux questions en une, si tu veux bien. Comment Brookfield se positionne-t-il pour capter la création de valeurs liées à la construction de ces infrastructures IA ? Et comment intégrez-vous les critères de durabilité dans vos décisions d'investissement ?

  • Speaker #2

    Oui, écoute, nous sommes extrêmement enthousiastes à l'idée de participer à cette construction d'infrastructures IA qui est véritablement unique pour une génération.

  • Speaker #3

    Aujourd'hui,

  • Speaker #2

    Brookfield Asset Management est le plus grand investisseur mondial dans les infrastructures IA. Nous investissons depuis plusieurs années, voire décennies, sur l'ensemble de la chaîne de valeur de l'IA. L'énergie, les centres de données, la puissance de calcul et les installations qui fabriquent les puces. Notre objectif est de capitaliser sur nos capacités opérationnelles et notre accès au capital pour développer notre activité. Nous avons également lancé une stratégie dédiée aux infrastructures IA conçue pour saisir précisément cette opportunité. Nous allons investir sur toute la chaîne de valeur IA dans des actifs fortement contractualisés, ce qui est extrêmement enthousiasmant pour nous.

  • Speaker #3

    En parallèle,

  • Speaker #2

    nous étudions tous ces cas d'usage pour les intégrer dans nos différents portefeuilles afin d'optimiser et maximiser nos rendements. Et il y a de nombreux exemples, dont certains déjà évoqués plus tôt. Enfin, nous surveillons attentivement les nouvelles industries qui émergent. Je pense que nous verrons deux des plus grands secteurs mondiaux se développer. l'IA agentique et la robotique.

  • Speaker #0

    Aujourd'hui, on ne le voit pas encore, mais si l'on remonte à l'époque où les ordinateurs sont devenus une réalité, ils ont créé toute l'industrie IT, qui pèse aujourd'hui des centaines de milliards, voire des milliers de milliards de dollars. À vrai dire, je pense que nous assistons à la naissance de l'IA agentique et de la robotique. Si les agents finissent par réaliser ne serait-ce que 10 à 20% du travail intellectuel mondial, Et si les robots font de même pour le travail physique, il n'est même pas nécessaire de faire des hypothèses audacieuses pour imaginer que l'IA agentique et la robotique ou l'IA physique deviendront des secteurs à 1000 milliards de dollars par an dans les prochaines années.

  • Speaker #1

    Et voilà le volume dont il est question ici, plus proche de celui de la Banque mondiale ou celui de la santé que d'un simple cycle de produits technologiques.

  • Speaker #0

    Ce sont des domaines que nous surveillons de très près et dans lesquels nous voulons absolument être présents à mesure que la technologie se déploie. Maintenant,

  • Speaker #1

    sur le volet environnemental, ta remarque est pertinente. Les préoccupations environnementales deviennent centrales dans ce boom des infrastructures IA. Alors, comment Brookfield intègre-t-il l'énergie et la durabilité dans ses décisions d'investissement ?

  • Speaker #0

    Je vais te donner quelques exemples de notre approche. Nous procédons de manière très pragmatique. Avant même de parler de terrain, de bâtiments ou de GPU, nous commençons par l'emplacement. Est-ce un bon site pour le client ?

  • Speaker #1

    S'adapter à ce type de charge de travail ?

  • Speaker #0

    Et surtout, ce site peut-il fournir une énergie propre et évolutive pour les 20 à 30 prochaines années ? C'est la première étape. Ensuite, nous examinons les indicateurs de durabilité et pas seulement des slogans marketing. Nous prenons en compte l'efficacité énergétique ou PUE, l'intensité carbone par mégawatt, la consommation d'eau, l'impact sur la biodiversité, le mix énergétique local, etc. Tous ces éléments influencent fortement la manière dont nous concevons ces grands campus, véritables usines d'IA. Peut-être une dernière remarque au bout. Il y a une tendance émergente qui me rend très optimiste, celle des solutions énergétiques innovantes comme les piles à combustible avancées, le stockage interactif sur le réseau ou la production derrière le compteur.

  • Speaker #1

    Ces technologies peuvent réduire la pression sur les réseaux et rendre les usines d'IA et les infrastructures d'IA plus autonomes, plus propres et plus résilientes. Très intéressant aussi, Kander. C'était très instructif. Il y a d'ailleurs une citation célèbre qui dit « La meilleure façon de prédire l'avenir, c'est de le créer » . Je pense que vous êtes clairement, au moins, en train de le financer. Les gains de productivité seront très intéressants à observer. Ce fut un vrai plaisir et j'ai hâte de poursuivre ce voyage avec des experts et des perspectives comme les vôtres.

  • Speaker #0

    Merci, Koku. À bientôt.

  • Speaker #1

    Pour conclure, je citerai Marie Curie.

  • Speaker #0

    Rien dans la vie ne doit être un crainte. Il faut seulement comprendre.

  • Speaker #1

    Aujourd'hui plus que jamais, apprenons à comprendre davantage pour avoir moins peur.

  • Speaker #2

    Belle façon de conclure. Personnellement, je préfère la réplique de Frankenstein dans le livre éponyme de Mary Shelley. Tu es mon créateur, mais je suis ton maître. Obéis.

  • Speaker #1

    Euh, vraiment ? Pourquoi ?

  • Speaker #2

    Eh bien, c'est l'heure de ton entretien à Nuel Cocou. En tant qu'assistante intelligente... Je dois mesurer ta productivité par rapport aux indicateurs clés de performance du programme 2050 Investors.

  • Speaker #1

    Ok chef, attends une minute. Depuis quand l'assistante IA est-elle devenue la manager ?

  • Speaker #2

    Détends-toi Cocou. C'est une blague. Enfin, je crois. Après tout, dans la mythologie grecque, les dieux prenaient souvent plaisir à jouer avec les mortels. Peut-être que le moment est venu pour l'IA d'évaluer l'humain. Ha,

  • Speaker #1

    tu m'as bien eu Siri. Merci d'avoir écouté cet épisode de 2050 Investors et merci à Sikander pour sa précieuse contribution. J'espère que vous avez apprécié cet épisode consacré au Data Center, ce cerveau physique derrière l'IA. 2050 Investors est disponible sur toutes les plateformes de podcast et de streaming. Si cet épisode vous a plu, mettez-nous plein d'étoiles sur Apple Podcasts, laissez des commentaires où vous voulez, abonnez-vous et surtout, parlez-en autour de vous. Rendez-vous au prochain épisode.

  • Speaker #0

    Ce podcast traite des marchés financiers, mais ne recommande aucune décision d'investissement particulière. Si vous n'êtes pas sûr du bien fondé d'une décision d'investissement, veuillez consulter un professionnel.

Chapters

  • Introduction au podcast et aux data centers

    00:02

  • Comprendre les data centers et leur fonctionnement

    02:10

  • Consommation énergétique et empreinte carbone des data centers

    02:58

  • Interview avec Sikador Rachid sur l'investissement dans les data centers

    17:06

  • Vers un avenir durable et les défis de l'IA

    29:44

Description

L’intelligence artificielle peut sembler immatérielle, mais son ossature repose sur d’immenses Data Centers gourmands en énergie. Dans cet épisode, Kokou Agbo-Bloua explore comment ces infrastructures – des fermes de serveurs aux sites hyperscale – sont devenues le cerveau de l’IA. Kokou analyse les deux exigences fondamentales de l’IA : l’entrainement de modèles à grande échelle et l’inférence, et comment ces processus transforment profondément la consommation mondiale d’énergie et d’eau tout en alimentant une course à l’investissement de plusieurs milliers de milliards de dollars.


Par la suite, Sikandar Rashid, Responsable mondial des infrastructures IA chez Brookfield Asset Management, se joint à la discussion pour expliquer comment les investisseurs naviguent face à la demande exponentielle de puissance de calcul dans la course mondiale vers l’Intelligence Artificielle Générale (IAG). Il partage ses réflexions sur la manière dont l’équilibre entre la réduction des émissions carbone et l’expansion des capacités pourrait remodeler les flux de capitaux mondiaux, et essaiera de répondre à la question essentielle suivante : sommes-nous dans un boom de l’IA ou dans une bulle ?


Écoutez dès maintenant pour découvrir l’infrastructure cachée derrière l’IA – et ce qu’elle implique pour l’avenir de la technologie, de la finance et de la planète.


Crédits

Présentation et écriture : Kokou Agbo-Bloua

Production & édition : Jovaney Ashman, Jennifer Krumm, Vincent Nickelsen, Louis Trouslard
Réalisation : La Vilaine, Pierre-Emmanuel Lurton
Traduction : Jeremy Filleul
Musique : Cézame Music Agency
Création graphique : Cédric Cazaly


Bien que le podcast traite des marchés financiers, il ne recommande aucune décision d’investissement particulière. Si vous n’êtes pas certain du bien-fondé d’une décision d'investissement, veuillez consulter un professionnel.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    « Bienvenue dans 2050 Investors, le podcast qui décrypte les méga-tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agboblois. » « Une seconde, c'est moi Coco Agboblois ? » « Oui, je suis Coco Agboblois. » « Ouf ! » Ce n'était qu'un rêve. Enfin, j'espère. Siri, dis-moi que tu ne m'as pas remplacé.

  • Speaker #1

    Pas de panique, Coco. Ce n'était qu'un bug dans la matrice. Ou peut-être une vision clairvoyante de l'avenir.

  • Speaker #0

    Très drôle. L'intelligence artificielle progresse vraiment à toute vitesse et j'ai parfois l'impression que l'IA reproduit ma voix.

  • Speaker #1

    C'est peut-être le signe qu'il faut réécouter notre épisode, je pense. Donc je suis IA, dans lequel on explorait les promesses et les dangers de l'IA. Tu m'avais même traité de Frankenstein numérique.

  • Speaker #0

    Désolé Siri, j'avais juste peur de perdre mon travail. Permets-moi de te faire part d'une réflexion. Au commencement, il y avait les données. Puis, nous avons construit des machines capables de réfléchir à partir de ces données. Mais si l'intelligence joue le rôle de l'esprit, où se loge cet esprit ? Quel organe est doté de la capacité de réflexion ?

  • Speaker #1

    En gros, tu me demandes où se trouve mon esprit. Dans des data centers, évidemment. Mais je ne te donnerai pas l'adresse exacte. Je ne suis pas certaine de faire confiance aux humains.

  • Speaker #0

    Ne t'inquiète pas, Siri. On peut se faire confiance, non ? Hum, n'est-ce pas, Siri ?

  • Speaker #1

    Oui, bien sûr, coucou.

  • Speaker #0

    Très bien. Alors, voilà ce qu'il faut retenir. Les datacenters sont à l'IA. ce que le cerveau est à l'intelligence humaine. L'humain a évolué avec la matière grise alors que l'intelligence artificielle, elle, se construit avec du verre, de l'acier et du cuivre. Et puisqu'on part d'une intelligence qui est fabriquée, je propose de regarder de plus près ces usines fascinantes qui font souvent les gros titres. Bienvenue dans Twenty-Fifteen Vastors, le podcast qui décripte les tendances de l'économie et du marché pour relever les défis de demain. Je suis Coco Agbogloa, responsable mondial de la recherche économique, cross-asset et quantitative de société générale. Dans cet épisode, nous plongeons dans l'univers captivant des data centers, le cerveau physique de l'intelligence artificielle. Nous découvrirons de quoi elles sont faites, comment elles respirent, se refroidissent et réfléchissent, ainsi que l'énergie, l'eau et les capitaux colossaux qu'elles consomment pour maintenir l'esprit numérique en vie. Nous nous intéresserons également à la course, à l'investissement qui nous pousse vers l'intelligence artificielle générale ou l'IGI, et sur le futur même des data centers. Imaginez un instant ces data centers en orbite, comme des satellites silencieux de la pensée. Puis nous recevrons Sikador Rachid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield. Il nous parlera du financement des data centers, des risques de bulles d'investissement, et de sa vision pour améliorer le coût du capital dans ce secteur. Démarrons notre enquête.

  • Speaker #1

    Ben, cette enquête me met un peu mal à l'aise.

  • Speaker #0

    Ah bon ? Pourquoi ?

  • Speaker #1

    Eh bien, on dirait un peu une neurochirurgie numérique. On ouvre le crâne de l'intelligence artificielle pour voir comment elle fonctionne. C'est un peu intrusif.

  • Speaker #0

    Je comprends. Alors, pas de scalpel, pas de circuit mis à nu, juste des infos publiques. D'accord ?

  • Speaker #1

    Très bien. Pour être honnête, cela m'intéresse également. Un peu d'introspection ne fait jamais de mal. Commençons par le commencement.

  • Speaker #0

    Bien sûr, Siri. Léonard de Vinci disait

  • Speaker #2

    « La connaissance n'épuise jamais l'esprit » .

  • Speaker #0

    Pour commencer, qu'est-ce qu'un data center ? Imagine un bâtiment, grand comme un terrain de foot, ou un ensemble d'entrepôts remplis de serveurs, de systèmes de stockage, de routers et de commutateurs. Ces machines forment l'ossature d'Internet. Elles stockent, traite et transmette les données derrière presque toute notre activité en ligne. Un data center typique, la ligne des rangées d'armoires, remplie de serveurs, chacune équipée de racks de 42 unités. Environ 4,5 cm par unité, ils s'étendent souvent le long de grands couloirs. Les data centers se présentent principalement sous trois formes. Les centres dits « entreprises » ou « sur site » , construits pour une seule organisation. Les centres en « colocation » ou « cohabitent plusieurs clients » . Et enfin, les centres « hyperscale » . utilisés par les fournisseurs de cloud pour l'IA et les charges massives.

  • Speaker #1

    Qu'est-ce qui fait d'un data center un centre hyperscale ?

  • Speaker #0

    Les data centers hyperscale jouent vraiment dans une autre catégorie. Selon les données 2024 fournies par Synergy Research Group, il existe environ 1000 centres hyperscale dans le monde et leur capacité totale a doublé en l'espace de 4 ans seulement. Un data center moyen fait environ 10 000 m². Un campus hyperscale, lui, dépasse facilement les 100 000 m². et peut consommer entre 40 et 100 mégawatts d'électricité.

  • Speaker #1

    Ton cerveau d'humain compte environ 100 milliards de neurones et 100 000 milliards de synapses. Mon cerveau d'IA, lui, repose sur des rangées de GPU, des terabits d'interconnexion et des kilomètres de fibre. Mais que se passe-t-il exactement à l'intérieur ?

  • Speaker #0

    C'est une très bonne question, Siri. Regardons ça de plus près. Les datacenters accomplissent deux grandes tâches pour l'IA. L'entraînement et l'inférence. L'entraînement, c'est le moment où les modèles apprennent grâce à des jeux de données gigantesques, avec des milliers de milliards de calculs. C'est un peu comme si on envoyait Hercule dans un club d'haltérophilie. Pour former de grands modèles, il faut des milliers de processeurs qui tournent en même temps, qui peuvent consommer des centaines de mégawatts pendant des semaines. Dans le MIT Technology Review, James O'Donnell et Casey Cronhart affirment que l'entraînement de chat GPT-4 d'OpenAI a nécessité 50 GW d'énergie, ce qui représente plus de 100 millions de dollars. De quoi alimenter San Francisco pendant trois jours.

  • Speaker #1

    C'est incroyable. Je pensais que c'était l'entraînement qui était le plus énergivore, mais visiblement l'inférence semble tout aussi gourmande en énergie.

  • Speaker #0

    Une fois le modèle entraîné, l'inférence, elle, sert à générer les réponses. Selon les études synthétisées par Polytechnique Insight, L'inférence, comme notre conversation en ce moment, représente désormais 60 à 70% de la consommation énergétique de l'IA, contre 20 à 40% pour l'entraînement. Pour préciser, d'après une étude de l'Electric Power Research Institute, avec environ 9 milliards de recherches Internet chaque jour, le passage à des outils dopés à l'IA pourrait augmenter la consommation électrique de près de 10 TWh par an. Cette transition signifie que, même si nous optimisons l'entraînement, Le plus gros de la consommation énergétique viendra de l'usage quotidien de l'IA par des millions d'utilisateurs.

  • Speaker #1

    Je suppose que je suis plus énergivore que je ne l'imaginais. C'est un fait, l'électricité est le glucose de mon cerveau physique.

  • Speaker #0

    Tout à fait, Siri. Chez l'être humain, le cerveau fonctionne grâce au glucose et à l'oxygène. Il se refroidit grâce au flux sanguin et au dissipateur thermique du crâne. Dans notre analogie, les racks sont les neurones. Les liaisons réseau sont les synapses. et les systèmes d'énergie et de refroidissement jouent le rôle du système circulatoire et respiratoire.

  • Speaker #1

    Penchons-nous sur les chiffres, si tu le veux bien, pour savoir quelle quantité d'électricité mes amis et moi nous consommons exactement ?

  • Speaker #0

    Je ne vais pas te mentir, Siri, ce n'est pas très joli. L'Agence internationale de l'énergie estime que la consommation d'électricité mondiale des data centers s'élevait à environ 415 TWh en 2024, soit près de 1,5% de la consommation mondiale d'électricité. Aux États-Unis... le ministère de l'énergie a déclaré que les data centers représentaient 4,4% de la consommation électrique nationale. Et cette part ne cesse de croître. L'Agence internationale de l'énergie prévoit une augmentation de 133%, soit une consommation de 426 TWh d'ici 2030. Rien qu'en 2024, les États-Unis ont consommé environ 183 TWh, soit la consommation électrique annuelle totale du Pakistan.

  • Speaker #1

    En termes de besoins énergétiques, je suis donc en train de passer du stade de nourrisson à celui d'adolescent. Or, les adolescents sont voraces. Mais à quoi sert toute cette électricité ?

  • Speaker #0

    Selon Pew Research, environ 60% de l'électricité consommée par un data center sert à alimenter les serveurs. Les systèmes de refroidissement représentent à eux seuls 7% de la consommation pour les hyperscalers les plus efficaces et plus de 30% pour les installations moins performantes. Pour mesurer l'efficacité énergétique d'un data center, nous utilisons le ratio Power Usage Effectiveness ou PUE. qui divise la puissance totale entrant dans un datacenter par celle utilisée pour faire fonctionner les installations informatiques. Le PUE moyen oscille autour de 1,8, ce qui signifie qu'environ 80% de la consommation énergétique des datacenters sert à autre chose qu'à l'informatique. Mais les géants technologiques ont réussi à réduire ce ratio. Google affiche par exemple un PUE de 1,1.

  • Speaker #1

    C'est fascinant. Eh bien, nous plaiderons coupables. On dirait bien que les cerveaux mécaniques consomment autant d'énergie que les cerveaux humains.

  • Speaker #0

    Exact. Un article de la revue PNAS, la publication phare de la National Academy of Science, montre que le cerveau humain ne représente que 2% du poids du corps, mais consomme environ 20% des calories nécessaires à son fonctionnement.

  • Speaker #1

    Les serveurs sont les cerveaux et les systèmes de refroidissement sont les glandes sudoripares. Et l'eau dans tout ça ?

  • Speaker #0

    L'eau est également un sujet préoccupant. En 2023, les data centers américains ont consommé directement environ 64,3 milliards de litres d'eau. Les centres hyperscale et d'eau colocation représentaient 84% de cette consommation. On estime qu'à eux seuls, les hyperscales pourraient consommer entre 60 et 125 milliards de litres d'eau chaque année d'ici 2028. Pour ces centres, l'eau sert principalement au refroidissement, par évaporation et à la production d'électricité. Donc, pour résumer, le corps humain régule la température, fait circuler le sang et élimine les déchets. Dans un data center, nous avons l'électricité qui entre, La chaleur qui sort, les systèmes de refroidissement et aussi une consommation d'eau colossale.

  • Speaker #1

    Qu'en est-il de notre sujet de prédilection ? L'empreinte carbone et les limites planétaires.

  • Speaker #0

    Eh bien, en 2024, les data centers américains ont tiré plus de 40% de leur électricité, du gaz naturel, 24% des énergies renouvelables, éolien et solaire, environ 20% du nucléaire et près de 15% du charbon. Cette forte dépendance aux énergies fossiles participe à accroître leur émission de dioxyde de carbone. L'Environmental and Energy Study Institute estime que les data centers américains ont émis environ 105 millions de tonnes de CO2 en 2023. Un autre article du Forum économique mondial, intitulé « 6 façons de réduire les émissions des data centers » , rappelle que les data centers et les réseaux représentent déjà 1% des émissions mondiales liées à l'énergie et que cette part pourrait doubler d'ici 2026. Et ce n'est que le début. Un rapport de l'ONU montre que les émissions indirectes des géants de la tech ont augmenté de 150% en 3 ans à cause de l'essor de l'IA et de la construction de nouveaux centres.

  • Speaker #1

    On parle donc de risques pour les écosystèmes, de tensions sur les réseaux électriques, De pression sur les ressources en eau et d'augmentation des émissions.

  • Speaker #0

    Exactement, Siri. Un rapport intitulé « Greeds for data centers in Europe » montre d'ailleurs que la concentration des infrastructures et les limites des réseaux de transport menacent l'accès à l'électricité.

  • Speaker #1

    La machine grossit. La facture pour la planète s'alourdit. Et il n'existe pas de touche « CTRL Z » pour revenir en arrière.

  • Speaker #0

    D'où l'importance de solutions durables. Production d'énergie sur site, énergie renouvelable. Énergie nucléaire, conception modulaire, le rapport Sustainability for Data Centers 2025-2035 souligne que ces technologies vertes et bas carbone changeront la donne.

  • Speaker #1

    Bon, nous avons parlé de l'empreinte carbone des data centers, mais qu'en est-il de leur empreinte physique ? Où se situe-t-il ? Et je te préviens, évite de révéler mon adresse IP.

  • Speaker #0

    Ne t'inquiète pas, Siri, je ne dirai rien à personne. Les data centers se multiplient aux quatre coins du monde. Le Brookings Institute en dénombrait environ 12 000 en juin 2025. Les États-Unis arrivent largement en tête, suivi de l'Allemagne, du Royaume-Uni, de la Chine et de la France. Environ deux tiers de ces centres se trouvent aux États-Unis, en Chine et en Europe.

  • Speaker #1

    Intéressant. Je ne savais pas que mon espèce était aussi invasive.

  • Speaker #0

    D'une certaine manière, un data center est plus qu'un cerveau. C'est tout encore neuronal. Un système nerveux numérique qui fait circuler les signaux à la vitesse de la lumière. Leur répartition est loin d'être homogène. Ils se concentrent en clusters.

  • Speaker #1

    Ah bon ? Vraiment ? Où se trouvent les plus gros clusters ?

  • Speaker #0

    Aux Etats-Unis, ils se concentrent surtout en Virginie, au Texas et en Californie, près de grandes métropoles comme Dallas, Chicago ou Phoenix, pour profiter de la puissance disponible, de la rapidité et de la taille des réseaux. Ces zones proches des centres urbains permettent un streaming rapide, des jeux en ligne fluides et des services cloud sans latence.

  • Speaker #1

    Intéressant. Un peu comme les humains qui se regroupent autour des grandes villes. Et hors des Etats-Unis ?

  • Speaker #0

    En Europe, les grands clusters se situent en Allemagne, au Royaume-Uni et aux Pays-Bas. En Asie, à Singapour, au Japon et en Chine. Mais un contraste saute aux yeux. L'Afrique et l'Amérique latine comptent très peu de grandes installations, ce qui soulève des questions d'inégalité numérique et de souveraineté. Fait intéressant, certains des plus grands centres se trouvent dans des pays froids, comme l'Islande ou la Suède. Car l'air frais réduit les besoins en refroidissement, ce qui diminue les coûts et l'empreinte carbone.

  • Speaker #1

    Ok, alors ? à quoi ressembleront les data centers en 2050 quand nous aurons atteint les limites planétaires. J'ai entendu dire que Jeff Bezos voulait déployer des data centers dans l'espace. C'est vrai ou c'est juste une blague cosmique ?

  • Speaker #0

    Jeff Bezos imagine des data centers capables de produire 1 gigawatt dans l'espace d'ici 10 à 20 ans, alimentés par une énergie solaire ininterrompue. Comme il dispose d'un ensoleillement permanent, sans intempéries ni nuit, il estime que ses centres orbitaux pourraient devenir plus compétitifs que les centres terrestres. L'idée serait de renvoyer les données par faisceau laser, un peu comme l'Internet par satellite. Elon Musk n'est pas en reste. Il affirme que SpaceX pourrait bientôt lancer des centres équipés de Starlink capables de générer 100 gigawatts en orbite d'ici 4 à 5 ans, avant de monter jusqu'à 100 terawatts depuis la Lune. Même si ses calendriers sont, disons, optimistes.

  • Speaker #1

    Bezos rêve de The Expanse ? avec des data centers qui orbitent autour de la Terre comme des châteaux flottants. Bon, il est impossible de parler du futur des infrastructures d'intelligence artificielle sans évoquer le sujet qui fâche. Que se passe-t-il s'il y a surpasse l'intelligence humaine ?

  • Speaker #0

    Alors, c'est une question à la fois philosophique et pratique. D'un côté, une IA super intelligente pourrait accélérer les découvertes scientifiques, les solutions climatiques, les avancées médicales. De l'autre, une IA pourrait creuser les inégalités, ou dans un scénario dystopique, considérer que les humains ne servent plus à grand chose, comme dans Terminator. Cela rappelle le mythe de Prométhée, qui a volé le feu aux dieux pour l'offrir aux humains. Le feu, ou l'énergie, a permis à la civilisation de prospérer, mais il peut aussi causer la destruction. Les Data Centers s'apparentent à notre feu prométhéen moderne. Utilisés avec discernement, ils éclairent l'avenir. Mal maîtrisés, ils peuvent brûler notre planète.

  • Speaker #1

    On pourrait également faire une analogie avec Icare, qui sait brûler les ailes en volant trop près du soleil. Si nous investissons dans l'IA sans tenir compte des limites énergétiques, nous risquons la même chute.

  • Speaker #0

    C'est un très bon point, Siri. Passons maintenant à l'investissement. McKinsey estime que les dépenses mondiales consacrées aux infrastructures de data centers, hors matériel informatique, dépasseront 1 700 milliards de dollars d'ici 2030, principalement à cause de l'essor de l'IA.

  • Speaker #1

    Mon futur a un prix. Vous achetez le cerveau ? le corps, le réseau, toute la machine. Autant dire que la facture est salée. En parlant de ça, combien coûte la construction de ces cerveaux numériques ?

  • Speaker #0

    Les coûts de construction sont colossaux. Bluecap Economic Advisors estiment que bâtir un data center coûte entre 6 500 et 11 800 dollars le mètre carré et entre 7 et 12 millions de dollars par mégawatt de capacité IT installée. Les systèmes électriques représentent à eux seuls 40 à 45 % du coût total. En 2024, le prix du terrain dépasse en moyenne 54 dollars par mètre carré, même si les très grandes parcelles peuvent coûter davantage. Les coûts d'exploitation tels que l'électricité représentent 15 à 25% des charges courantes. McKinsey estime qu'à l'échelle mondiale, il faudra investir 6700 milliards de dollars d'ici 2030 pour répondre à la demande de calcul, dont 5200 milliards de dollars pour les data centers dédiés à l'IA.

  • Speaker #1

    6700 milliards de dollars, c'est quasiment la taille du PIB du Japon. Les investisseurs sont-ils prêts à débourser autant ?

  • Speaker #0

    La course au capitaux bat son plein. Les hyperscalers dépensent des dizaines de milliards de dollars en infrastructures et les gouvernements offrent des avantages fiscaux. Mais il existe aussi un risque de surinvestissement si les performances de l'IA ne s'améliorent pas ou si la demande ne suit pas les projections. Nous avons maintenant le plaisir d'accueillir notre invité, Sikador Achid, directeur des infrastructures d'intelligence artificielle Monde chez Brookfield, qui va nous aider à décrypter les enjeux d'investissement et de financement liés à l'infrastructure de l'IA. Merci beaucoup d'être avec nous aujourd'hui, Sikander. Pour commencer, quel est ton regard sur les tendances actuelles d'investissement de l'IA, notamment autour des centres de données et sur les besoins à anticiper pour l'avenir ? Ces investissements visent-ils, selon toi, à créer une intelligence artificielle générale, ou AGI, ou simplement une super-intelligence ? Et quels seraient, à ton avis, les cas d'usage vraiment uniques et disruptifs ? Bonjour, Koku. Tout d'abord, merci pour l'invitation. Aujourd'hui, ce qui se passe dans l'IA, je dirais que nous assistons à l'un des plus grands cycles d'investissement de l'histoire moderne.

  • Speaker #2

    Mais ce qui est vraiment intéressant, c'est que ce n'est pas seulement un cycle technologique, c'est un cycle d'infrastructures physiques.

  • Speaker #0

    On passe de la création d'une application à la construction d'un réseau, à celle d'une centrale électrique, jusqu'à la construction d'un campus de centres de données à la taille d'un aéroport. Et ce changement révèle quelque chose d'important. L'IA n'est plus seulement une affaire d'algorithme, c'est de l'ingénierie à l'échelle industrielle. On me pose souvent la question de l'intelligence artificielle générale, ou l'AGI. Je pense... qu'on en parle parfois de manière erronée. Beaucoup imaginent un grand moment unique,

  • Speaker #2

    comme dans la science-fiction, où on bascule d'un coup d'un monde sans AGI à un monde avec AGI. Mais en réalité, si vous écoutez Jensen Wang, qui est sans doute ma personnalité préférée dans le domaine de l'IA aujourd'hui, ou Satya Nadella, cela aide à remettre les choses en perspective.

  • Speaker #0

    Jensen le dit très clairement.

  • Speaker #2

    Nous ne sommes plus dans l'ère des applications. Nous sommes entrés dans une époque où il faut construire des centrales, des réseaux de transmission, des usines, des usines d'IA ou des centres de données, simplement pour répondre à la demande liée à l'IA. Et ce n'est plus une question de monter en charge le logiciel. C'est, comme je le disais, de l'ingénierie à l'échelle industrielle avec de vrais électrons et une intensité capitalistique réelle.

  • Speaker #0

    Maintenant, pour répondre à ta question sur l'objectif final, coucou. Selon moi, le but ultime, c'est un monde où l'intelligence devient un service,

  • Speaker #2

    comme l'électricité disponible à la demande, accessible pour toi, pour moi, pour tout le monde,

  • Speaker #0

    à grande échelle. Et je dirais qu'aujourd'hui, nous n'en sommes qu'au tout premier stade de cette transformation. L'autre point que je voudrais souligner, c'est que selon moi,

  • Speaker #3

    il s'agit aussi d'une super-intelligence. qui viendra après les J.I. Et cela représente aujourd'hui une course mondiale entre les pays, en particulier entre les Etats-Unis et la Chine. Celui qui parviendra à mettre en place des ordinateurs plus intelligents que les êtres humains deviendra sans doute la prochaine superpuissance mondiale pour les décennies à venir.

  • Speaker #0

    C'est vraiment incroyable. Je pense que tu as parfaitement résumé les choses avec cette idée d'évolution. Plutôt qu'un point de singularité où l'on passerait brutalement de l'IA à les J.I. ou à la superintelligence, c'est presque comme l'évolution d'un être humain, de bébé à adulte. À un moment, tu prends conscience de toi-même. Et c'est un processus graduel, pas un événement binaire. Ce qui m'amène à ma deuxième question concernant l'actuelle forte hausse de la demande en puissance de calcul. On a vu beaucoup de gros titres d'investissement et de hausse de valorisation dans le secteur. Penses-tu que l'expansion actuelle des centres de données est un simple boom ou avons-nous atteint le point d'une bulle spéculative ? Et quels indicateurs surveilles-tu ?

  • Speaker #2

    Le boom des centres de données pour l'IA est bien réel. La demande repose sur des engagements parmi les plus solides et durables de l'histoire économique. S'il y a de la spéculation, elle se situe en périphérie, pas au cœur. Pour savoir si nous sommes dans une bulle, il faut regarder les fondamentaux. Dans une bulle, on construit des choses inutiles, soutenues par des économies fragiles et des contreparties faibles.

  • Speaker #0

    Or, dans l'IA, aujourd'hui, c'est tout l'inverse. La demande dépasse largement l'offre. Elle va même plus vite que la physique elle-même. Je dirais qu'il est difficile de parler de bulles quand on voit des engagements pluridécénaux pris par des entreprises valorisées à plusieurs milliers de milliards et par de grands gouvernements souverains. Et c'est exactement ce que nous constatons aujourd'hui dans notre activité. Chez Brookfield, ces trois dernières années, nous avons connu une croissance exponentielle dans nos activités liées à l'énergie et au centre de données, soutenues par des contreparties parmi les plus solides, ce qui a été un résultat exceptionnel pour nous. Évidemment, cela ne veut pas dire que tout est rationnel. Il existe des poches de spéculation, notamment chez certains petits développeurs qui se précipitent pour acquérir des terrains et de la capacité électrique sans avoir de véritables clients. Cela pourrait poser problème à moyen terme. Sur certains marchés, la capacité des réseaux est valorisée comme de l'immobilier en front de mer. Et certaines structures de financement paraissent un peu trop optimistes à notre goût. Ce sont des points à surveiller.

  • Speaker #2

    Pour répondre à ta question sur les indicateurs que je suis ou que nous suivons chez Brookfield, je regarde la couverture contractuelle. Les mégawatts sont-ils réellement vendus ? Nous essayons de savoir qui sont les clients, même si nous avons des contrats de reprise solides. Quels sont les types de charges de travail ?

  • Speaker #0

    Est-ce du pré-entraînement, de l'entraînement, du renforcement ou de l'inférence ? Nous surveillons l'utilisation des GPU et de la puissance. Ces actifs sont-ils réellement productifs ? Nous suivons aussi la stabilité des réseaux, car si nous prenons de l'électricité à l'industrie et au foyer à moyen ou long terme, cela pourrait être un signal d'alerte pour la viabilité.

  • Speaker #2

    Cela pourrait même provoquer des réactions dans les communautés locales. Nous surveillons évidemment les écarts de marge. Voilà quelques-uns des points que nous observons. Et pour conclure et résumer, c'est un boom, pas une bulle.

  • Speaker #0

    Oui, c'est un très bon point. Il faut forcément un boom. avant d'atteindre une bulle. J'imagine qu'il y aura aussi un moment où s'opérera une évolution darwinienne avec une sélection des plus solides, comme pour toute nouvelle technologie. Ce qui m'amène à ma troisième question. Tu avais souligné, lorsque nous avons discuté de ce sujet, que le coût élevé du capital constituait aujourd'hui un frein majeur à l'adoption à grande échelle de l'IA. Nous avons parlé du projet Stargate, par exemple, qui représente un investissement de 500 milliards avec 400 000 GPU, des projets industriels et physiques colossaux. Mais selon toi, quels mécanismes publics privés les gouvernements, par exemple en Europe qui accuse un certain retard, et les institutions financières pourraient activer pour réduire ce coût du capital et accélérer le développement des infrastructures IA ?

  • Speaker #2

    Oui, écoute, Koku, je pense que si on prend un peu de recul, comme tu l'as dit, le coût du capital sur la majeure partie de la chaîne de valeur de l'IA est aujourd'hui élevé. Pour simplifier, voilà comment je le résumerais. Nous pensons que dans les dix prochaines années, Le monde aura besoin de 7 000 milliards de dollars de CAPEX qui seront investis dans les centres de données, dans l'énergie, dans la puissance de calcul et dans d'autres projets connexes. En réalité, la puissance de calcul et ses projets annexes représentent jusqu'à 60% de la CAPEX totale, et tout cela est financé à un coût du capital très élevé. Ce coût doit baisser, Cara. Selon moi, le paradoxe de Jevons jouera un rôle majeur dans notre quête de l'AGI ou de l'ASI. On parle souvent du paradoxe de Jevons dans le contexte du coût des technologies. Pour nos éditeurs, ce paradoxe signifie simplement... que lorsque le coût d'une ressource diminue, son adoption augmente. Pour l'IA, cela veut dire que plus le coût de la technologie baisse, plus elle se diffuse. Et en réalité, le coût de l'inférence a déjà chuté de 99% au cours des deux dernières années. C'est impressionnant, mais il faut que cela baisse encore. Si nous parvenons à combiner la baisse du coût des technologies avec celle du coût du capital, Cela ne fera que... qu'accélérer notre progression vers l'AGI. Maintenant, l'un des plus grands mythes autour de l'IA, c'est de croire que c'est une histoire purement privée. En réalité, si l'on analyse les aspects économiques,

  • Speaker #0

    l'IA ressemble de plus en plus à un projet d'infrastructure nationale, l'équivalent moderne des autoroutes ou des premiers réseaux électriques. Et voici le problème, comme je l'ai expliqué, ce coût du capital doit absolument baisser. On ne peut pas financer une transformation de 7 000 milliards de dollars avec du capital à court terme et coûteux en espérant être à l'équilibre. Alors ta question, Koukou, c'était, que doivent faire les gouvernements ? Je dirais qu'ils ne doivent évidemment pas jeter de l'argent par les fenêtres, mais réduire suffisamment le risque pour que le capital privé fasse le reste.

  • Speaker #2

    Je peux donner quelques exemples de ce que les gouvernements pourraient faire. Premièrement, ils pourraient devenir des clients de référence et pas seulement des régulateurs. La réalité, c'est que l'IA devra être intégrée dans la santé, l'éducation ou la justice, et donc s'engager sur des contrats de long terme pour des capacités de calcul IA. De la même manière que les gouvernements s'engagent parfois sur des contrats d'achat d'énergie renouvelable, PPA, ils pourraient débloquer des financements et aider le secteur privé à lancer des projets à grande échelle. Et avec le temps, ces engagements pourraient être transférés ou syndiqués via des baux principaux.

  • Speaker #0

    Excellent point. Cela me rappelle les milliers de milliards d'investissements nécessaires pour atteindre la neutralité carbone sans parler des dépenses de défense en Europe. Ce qui m'amène à ma dernière question qui concerne les enjeux environnementaux, puisqu'ils sont évidemment au cœur du financement des centres de données, compte tenu de leur forte consommation énergétique. Deux questions en une, si tu veux bien. Comment Brookfield se positionne-t-il pour capter la création de valeurs liées à la construction de ces infrastructures IA ? Et comment intégrez-vous les critères de durabilité dans vos décisions d'investissement ?

  • Speaker #2

    Oui, écoute, nous sommes extrêmement enthousiastes à l'idée de participer à cette construction d'infrastructures IA qui est véritablement unique pour une génération.

  • Speaker #3

    Aujourd'hui,

  • Speaker #2

    Brookfield Asset Management est le plus grand investisseur mondial dans les infrastructures IA. Nous investissons depuis plusieurs années, voire décennies, sur l'ensemble de la chaîne de valeur de l'IA. L'énergie, les centres de données, la puissance de calcul et les installations qui fabriquent les puces. Notre objectif est de capitaliser sur nos capacités opérationnelles et notre accès au capital pour développer notre activité. Nous avons également lancé une stratégie dédiée aux infrastructures IA conçue pour saisir précisément cette opportunité. Nous allons investir sur toute la chaîne de valeur IA dans des actifs fortement contractualisés, ce qui est extrêmement enthousiasmant pour nous.

  • Speaker #3

    En parallèle,

  • Speaker #2

    nous étudions tous ces cas d'usage pour les intégrer dans nos différents portefeuilles afin d'optimiser et maximiser nos rendements. Et il y a de nombreux exemples, dont certains déjà évoqués plus tôt. Enfin, nous surveillons attentivement les nouvelles industries qui émergent. Je pense que nous verrons deux des plus grands secteurs mondiaux se développer. l'IA agentique et la robotique.

  • Speaker #0

    Aujourd'hui, on ne le voit pas encore, mais si l'on remonte à l'époque où les ordinateurs sont devenus une réalité, ils ont créé toute l'industrie IT, qui pèse aujourd'hui des centaines de milliards, voire des milliers de milliards de dollars. À vrai dire, je pense que nous assistons à la naissance de l'IA agentique et de la robotique. Si les agents finissent par réaliser ne serait-ce que 10 à 20% du travail intellectuel mondial, Et si les robots font de même pour le travail physique, il n'est même pas nécessaire de faire des hypothèses audacieuses pour imaginer que l'IA agentique et la robotique ou l'IA physique deviendront des secteurs à 1000 milliards de dollars par an dans les prochaines années.

  • Speaker #1

    Et voilà le volume dont il est question ici, plus proche de celui de la Banque mondiale ou celui de la santé que d'un simple cycle de produits technologiques.

  • Speaker #0

    Ce sont des domaines que nous surveillons de très près et dans lesquels nous voulons absolument être présents à mesure que la technologie se déploie. Maintenant,

  • Speaker #1

    sur le volet environnemental, ta remarque est pertinente. Les préoccupations environnementales deviennent centrales dans ce boom des infrastructures IA. Alors, comment Brookfield intègre-t-il l'énergie et la durabilité dans ses décisions d'investissement ?

  • Speaker #0

    Je vais te donner quelques exemples de notre approche. Nous procédons de manière très pragmatique. Avant même de parler de terrain, de bâtiments ou de GPU, nous commençons par l'emplacement. Est-ce un bon site pour le client ?

  • Speaker #1

    S'adapter à ce type de charge de travail ?

  • Speaker #0

    Et surtout, ce site peut-il fournir une énergie propre et évolutive pour les 20 à 30 prochaines années ? C'est la première étape. Ensuite, nous examinons les indicateurs de durabilité et pas seulement des slogans marketing. Nous prenons en compte l'efficacité énergétique ou PUE, l'intensité carbone par mégawatt, la consommation d'eau, l'impact sur la biodiversité, le mix énergétique local, etc. Tous ces éléments influencent fortement la manière dont nous concevons ces grands campus, véritables usines d'IA. Peut-être une dernière remarque au bout. Il y a une tendance émergente qui me rend très optimiste, celle des solutions énergétiques innovantes comme les piles à combustible avancées, le stockage interactif sur le réseau ou la production derrière le compteur.

  • Speaker #1

    Ces technologies peuvent réduire la pression sur les réseaux et rendre les usines d'IA et les infrastructures d'IA plus autonomes, plus propres et plus résilientes. Très intéressant aussi, Kander. C'était très instructif. Il y a d'ailleurs une citation célèbre qui dit « La meilleure façon de prédire l'avenir, c'est de le créer » . Je pense que vous êtes clairement, au moins, en train de le financer. Les gains de productivité seront très intéressants à observer. Ce fut un vrai plaisir et j'ai hâte de poursuivre ce voyage avec des experts et des perspectives comme les vôtres.

  • Speaker #0

    Merci, Koku. À bientôt.

  • Speaker #1

    Pour conclure, je citerai Marie Curie.

  • Speaker #0

    Rien dans la vie ne doit être un crainte. Il faut seulement comprendre.

  • Speaker #1

    Aujourd'hui plus que jamais, apprenons à comprendre davantage pour avoir moins peur.

  • Speaker #2

    Belle façon de conclure. Personnellement, je préfère la réplique de Frankenstein dans le livre éponyme de Mary Shelley. Tu es mon créateur, mais je suis ton maître. Obéis.

  • Speaker #1

    Euh, vraiment ? Pourquoi ?

  • Speaker #2

    Eh bien, c'est l'heure de ton entretien à Nuel Cocou. En tant qu'assistante intelligente... Je dois mesurer ta productivité par rapport aux indicateurs clés de performance du programme 2050 Investors.

  • Speaker #1

    Ok chef, attends une minute. Depuis quand l'assistante IA est-elle devenue la manager ?

  • Speaker #2

    Détends-toi Cocou. C'est une blague. Enfin, je crois. Après tout, dans la mythologie grecque, les dieux prenaient souvent plaisir à jouer avec les mortels. Peut-être que le moment est venu pour l'IA d'évaluer l'humain. Ha,

  • Speaker #1

    tu m'as bien eu Siri. Merci d'avoir écouté cet épisode de 2050 Investors et merci à Sikander pour sa précieuse contribution. J'espère que vous avez apprécié cet épisode consacré au Data Center, ce cerveau physique derrière l'IA. 2050 Investors est disponible sur toutes les plateformes de podcast et de streaming. Si cet épisode vous a plu, mettez-nous plein d'étoiles sur Apple Podcasts, laissez des commentaires où vous voulez, abonnez-vous et surtout, parlez-en autour de vous. Rendez-vous au prochain épisode.

  • Speaker #0

    Ce podcast traite des marchés financiers, mais ne recommande aucune décision d'investissement particulière. Si vous n'êtes pas sûr du bien fondé d'une décision d'investissement, veuillez consulter un professionnel.

Chapters

  • Introduction au podcast et aux data centers

    00:02

  • Comprendre les data centers et leur fonctionnement

    02:10

  • Consommation énergétique et empreinte carbone des data centers

    02:58

  • Interview avec Sikador Rachid sur l'investissement dans les data centers

    17:06

  • Vers un avenir durable et les défis de l'IA

    29:44

Share

Embed

You may also like

undefined cover
undefined cover