- Speaker #0
Nico, j'ai entendu que la consommation énergétique belga représente la consommation annuelle de l'ensemble de la Belgique. C'est inquiétant, ça, non ?
- Speaker #1
C'est inquiétant et c'est ce dont on parle le plus en ce moment.
- Speaker #0
AI Unboxed,
- Speaker #1
le podcast qui démystifie l'IA.
- Speaker #0
Je suis Hop. Je suis Nico. Et ensemble, on partage nos échanges sur cette révolution. Consommation énergétique importante. Mais essayons peut-être quand même d'un peu quantifier, un petit peu expliquer le pourquoi, d'où vient cette consommation importante.
- Speaker #1
Je pense qu'il y a plusieurs volets. Il y a évidemment d'abord le volet entraînement, parce que toutes ces IA génératives, tous ces modèles de langage ont bien dû être entraînés à un moment. Ils ont dû apprendre la connaissance humaine.
- Speaker #0
On leur a donné énormément de données.
- Speaker #1
On leur a donné tout, presque tout ce qui existe sur Terre, tout ce qui existe sur Internet, tous les livres. toutes les publications scientifiques. Ça fait beaucoup, beaucoup de data. Maintenant, attention que les datas du passé sont « figées » . Donc, ces études scientifiques, toutes celles qu'ils ont déjà analysées, ne devront plus le refaire.
- Speaker #0
Mais je crois, pour vraiment bien se réaliser, pourquoi beaucoup de data, ça représente beaucoup d'énergie, ça nécessite énormément de puissance en calculation. Parce que c'est vrai que, quelque part, ces modèles, ce n'est jamais... que de la statistique, où on va essayer de reconnaître certains liens, certaines fréquences, certaines connexions. Tout ça n'est pas tout simplement enregistré sur un disque. Il y a vraiment tout un apprentissage où on essaye de vraiment bien...
- Speaker #1
Dans l'aspect apprentissage, c'est un peu comme le cerveau humain. Le réseau neuronal va enregistrer des choses dans une mémoire à long terme, une mémoire à court terme, une mémoire vive. Et tout ça consomme. Ça consomme de l'énergie de processeurs, ça consomme des disques durs qui doivent tourner, ou des cartes SD, mais des serveurs qui doivent être refroidis. Donc oui, le calcul, c'est surtout la puissance de calcul. Les cartes graphiques de Nvidia, dont tout le monde en a autant parlé, elles doivent être refroidies.
- Speaker #0
Et je crois que, d'un côté, tu es optimiste, qu'effectivement, pour le futur, les connaissances historiques seront ce qu'elles sont. Je l'espère, parce que quand j'entends qu'effectivement, entraîner ChatGPT4 a nécessité 50 fois plus d'énergie que d'entraîner ChatGPT3, il faut effectivement espérer que ça ne continue pas à exploser de la même façon. Oui,
- Speaker #1
et qu'il y ait un moment où la courbe s'inverse. Je pense que ça devrait être le cas, parce qu'on va apprendre à optimiser beaucoup de choses, parce que l'IA va s'apprendre à elle-même à consommer moins, à consommer moins d'énergie, à optimiser ses... processus de réponse et pourquoi pas aussi a beaucoup utilisé ce qu'Internet a utilisé pendant des années. Au début d'Internet, dans les années 2000, quand vraiment ça a explosé, les sites Internet, chaque fois qu'on allait sur un site Internet, on retéléchargeait l'entièreté des images, des fichiers qu'il y avait, du texte, du code HTML. Puis la notion de cache est arrivée dans les navigateurs. Vous avez déjà certainement entendu un IT qui vous dit il faut vider votre cache. Le cache, c'est une mémoire locale qui dit, moi, si cette image, je l'ai déjà téléchargée une fois, si tu vas dix fois par jour sur ce site, je ne vais pas la télécharger dix fois. Les modèles de langage sont en train de mettre ça en place pour optimiser. Il ne faut pas oublier que ça optimise, ok, on parle d'écologie et de consommation énergétique, on parle aussi d'économie.
- Speaker #0
Voilà, je pense que la bonne nouvelle, c'est que ça a économisé au niveau énergétique, mais c'est une économie au niveau. Et donc, il y a quand même, même sur des sociétés capitalistes, philosophie américaine et tout le débat avec la réélection de Trump, on ne va pas l'imiter, on va laisser libre espace au développement. Quelque part, il y a quand même un bénéfice. réduire la consommation électrique, ne fût-ce que pour réduire la facture de l'électricité ?
- Speaker #1
Ils ont tout intérêt à le faire. Avec le bitcoin, je me souviens qu'on parlait de l'avènement de la blockchain, il y a encore déjà plus d'années, qu'en Chine, il y avait énormément de mineurs, des gens qui créaient des bitcoins. Ça consomme aussi énormément de calculs de puissance machine, des data centers remplis de machines qu'il fallait refroidir et qu'il fallait aussi apporter une source d'énergie. Et donc, ça a fait que la production de panneaux solaires en Chine, à l'époque où le bitcoin a explosé, a suivi une courbe. En fait, parce que les mineurs avaient de plus en plus de besoins et ils avaient tout intérêt à produire leur énergie de manière verte et de manière la moins chère possible.
- Speaker #0
Bon, là, on n'a fait jamais qu'entraîner l'IA. Puis ensuite, l'objectif de toutes ces sociétés, c'est quand même qu'on l'utilise.
- Speaker #1
Ensuite, on l'utilise. Et effectivement, chaque requête, chaque... La question posée à ChatGPT consomme. une des statistiques qui tourne, parce qu'il faut aussi être conscient, quand on me dit ça, la première chose que je réponds, je dis, d'abord, remettre les choses en contexte, quand tu fais une recherche Google, ça consomme de l'énergie aussi. On a peut-être oublié, on est peut-être tellement habitué, mais une recherche Google consomme de l'énergie sur le serveur de Google. Avec les années, avec ses 20 ans d'expérience, il a appris à optimiser tout ça. Il a appris à, comme on le disait, à ce que ça lui coûte moins cher et en énergie, évidemment, en dollars, de nous amener une réponse.
- Speaker #0
Mais... Ça consomme de l'énergie aussi. Pas tout autant.
- Speaker #1
Dix fois moins. D'après les spécialistes, une question à Tchad GPT en janvier 2005. On va essayer de préciser.
- Speaker #0
En janvier 2025.
- Speaker #1
En janvier 2025. On n'est pas au début d'Internet, mais au début de l'IA.
- Speaker #0
Un vrai visionnaire. Oui,
- Speaker #1
c'est ça.
- Speaker #0
En 2005. Je prévois qu'en 2025. Oui, ok, pardon. Donc,
- Speaker #1
effectivement, ici, en janvier 2025, les études montrent, prétendent. Je ne suis pas allé vérifier moi-même, mais effectivement, estime qu'une question à tchatche GPT consomme dix fois plus qu'une recherche Google. Alors ça, c'est un fait. Ce sont des datas intéressantes, des insights intéressants, mais ça manque quand même beaucoup de contexte.
- Speaker #0
Et puis, l'autre élément, c'est combien il me faut de requêtes pour trouver la réponse. Exactement. Je n'ai pas la réponse à la question-là, mais c'est vrai qu'on pourrait se dire, OK, si je fais un bon prompt, on va y revenir qu'effectivement, l'impact du... du prompt pour éviter...
- Speaker #1
Ce qu'on peut faire soi-même.
- Speaker #0
Ce qu'on peut faire soi-même est important. Mais effectivement, quelque part, la vraie question à se poser, ce n'est pas combien consomme une requête. C'est plutôt de se dire entre j'ai identifié un problème et j'ai obtenu la solution à mon problème, combien aussi est-ce qu'on a besoin de requêtes et quelque part, quelle est la consommation énergétique totale pour aller du problème à la solution.
- Speaker #1
Ce benchmark avec les recherches Google est bien parce qu'au moins, tout le monde le comprend et tout le monde a déjà fait une recherche Google.
- Speaker #0
Et puis là, à la limite, j'imagine aussi que le fameux no-click, c'est-à-dire que l'IA va nous donner la réponse et on n'a pas besoin d'accéder au site. Chaque clic a une consommation.
- Speaker #1
Chaque clic a une consommation. Il y a le serveur du site sur lequel tu vas. Et puis, si ta réponse est mauvaise, tu reviens en arrière, tu cliques sur un autre. Donc, clairement, tu passes du temps. Les calculs sont plus compliqués que ça. Tu sais, on peut aller très loin. On peut aller dire qu'avant, pour avoir une certaine réponse, j'aurais dû me déplacer. J'aurais dû aller voir un spécialiste, j'aurais dû aller dans une bibliothèque. Si on essaie de prendre tout en considération, c'est beaucoup plus complexe que ça, évidemment. Maintenant, il ne faut pas nier l'IA générative et les modèles de langage en janvier 2025 consomment énormément d'énergie, consomment beaucoup d'eau, notamment pour le refroidissement de leurs processeurs. Mais on est, selon moi, dans une phase de transition. Les phases de transition, comme dans toute révolution industrielle, font ça un petit peu tête baissée. Et puis, on verra bien et on va optimiser après. On est à ce stade-là.
- Speaker #0
Sans en être certain, j'ai quand même aussi entendu qu'il y avait des rumeurs comme quoi, dans les incendies récents à Los Angeles, les pompiers ont manqué d'eau et certains... pointé du doigt la consommation d'eau de l'IA. Bon, ça n'a pas été fact-checké, comme on dit.
- Speaker #1
Non, l'eau était à la Silicon Valley pour refroidir les serveurs d'OpenAI et de Google et n'était pas disponible pour les pompiers. En même temps, ces incendies à Los Angeles, c'est un peu compliqué, surtout pour nous à distance, de comprendre. Parce qu'il y a aussi eu beaucoup de fake news. La plupart des photos qu'on voit de pompiers avec des animaux et des flammes derrière sont totalement fausses, même les vidéos. sont des vidéos générées par l'intelligence artificielle. Donc voilà, on est dans un événement qui se passe justement à l'endroit où l'entièreté de l'IA a été inventée et gérée. Donc c'est assez intéressant de regarder ce qui s'est passé à Los Angeles.
- Speaker #0
Bon, recadrons quand même un petit peu pourquoi on a choisi nous dans ce podcast-ci qui a priori a quand même une vocation au sens large marketing, PME, business. Pourquoi on a choisi ce sujet qui semble un sujet écologique ?
- Speaker #1
Parce qu'il y a un terme que j'entends en tant que consultant depuis cinq ans, voire même un peu plus. Le vrai buzzword dans le business, c'est sustainability. Toute entreprise a injecté dans sa vision d'entreprise et dans sa mission d'entreprise de tout faire, de tout mettre en œuvre pour consommer moins et pour polluer moins.
- Speaker #0
Il y a effectivement ce côté, on va dire, image, image de marque. Et puis, il y a le pendant coût. C'est bon. C'est clair que les coûts énergétiques, la facture électricité locale au sein de mon entreprise va être relativement peu impactée en direct par l'utilisation ou pas de l'IA et de Google. En même temps, si la consommation énergétique est tellement importante, B... Les fournisseurs d'IA ont des coûts importants et finalement ça va être...
- Speaker #1
Tu déplaces la pollution.
- Speaker #0
Oui, je déplace la pollution, mais en même temps ça va être intégré dans les coûts et le coût de mon abonnement.
- Speaker #1
Oui, tout à fait. Donc déjà, tu le payes dans ton coût de ton abonnement. Mais c'est encore une fois se dire, tu sais, c'est comme le principe sur la voiture électrique. C'est bien, on pollue moins nos routes et nos villes, mais on pollue ailleurs. On a déplacé la pollution. On pollue en Afrique et en Asie, là où ils font les batteries ou ils minent pour des métaux rares.
- Speaker #0
Oui, en même temps, l'avantage de cette pollution-là, c'est qu'elle est quand même... Centraliser ? Je ne veux pas dire que ce n'est pas chez nous, donc on s'en fout. Mais en même temps, en tout cas pour moi, ça me semble plus réaliste ou plus faisable de gérer, de traiter, de résoudre un problème local bien ciblé que d'effectivement devoir changer le comportement de tout un chacun pour avoir un impact.
- Speaker #1
Et en même temps, tu as parfois des choses un peu absurdes ou illogiques de dire que la Californie est l'État qui... dans lequel il y a le plus de data centers, de serveurs et de processeurs, voire l'endroit dans le monde, alors que c'est un endroit très très chaud et qui a du mal à se refroidir en règle générale. Rien que ça, c'est un petit peu aberrant et contre-productif. À l'époque du bitcoin et de la blockchain dont j'ai parlé, des endroits comme le nord de l'Europe, la Scandinavie, la Sibérie, sont des endroits où on a vu pousser des data centers dans tous les sens. Parce que là-bas, il n'y a pas besoin de les refroidir, il suffit d'ouvrir la fenêtre. Oui,
- Speaker #0
tout à fait.
- Speaker #1
Et la Californie manque d'eau. La Californie est un des États américains qui manque le plus d'eau et qui a fait exploser sa consommation avec les data centers.
- Speaker #0
Peut-être une raison de plus pour Trump de revendiquer le Greenland.
- Speaker #1
Tout à fait, il pourra mettre tous les data centers là-bas et il n'aura plus besoin de les refroidir.
- Speaker #0
Ok, mais on a parlé de la consommation énergétique totale qui est clairement aussi dans le cadre du réchauffement climatique. posent question, mais il est peut-être un peu facile de juste se dire, bon, ok, les géants de la tech n'ont qu'à le résoudre, mais ils y travaillent. Et ça remet même au centre du débat tout le nucléaire. Tout à fait.
- Speaker #1
Amazon, Bezos a dit qu'il commençait à penser à l'éventualité, je crois que même c'est dans la roadmap. de se fournir en mini-centrale nucléaire.
- Speaker #0
Intéressant à suivre. En même temps, je suis certain qu'il y a des choses qu'on pourrait faire nous-mêmes, un impact personnel ou au niveau de l'entreprise. Quels seraient les premiers trucs à mettre en place ?
- Speaker #1
Des petits « good practice » qu'on peut dire. Je répète souvent que, alors après c'est accessible ou pas, mais moi j'ai la chance que l'anglais soit ma seconde langue et que j'ai passé une partie de ma vie à rêver en anglais, donc je n'ai pas de problème avec l'anglais. Effectivement, quand je prompte et quand je discute avec des modèles de langage et des intelligences artificielles, je le fais tout le temps en anglais.
- Speaker #0
Et pourquoi ? Parce qu'effectivement...
- Speaker #1
Pour deux raisons. D'abord parce que j'ai l'impression que je parle sa langue maternelle native et que donc il va mieux me comprendre. Et puis, clairement, les chiffres ne sont pas très clairs. Et puis, ça dépend des modèles de langage. Mais c'est sûr et certain que ça consomme nettement, nettement moins. Parce qu'il ne passe pas par deux couches. Une couche de traduction de l'input et une couche de traduction de l'output.
- Speaker #0
En plus, sur plusieurs itérations, il vaut beaucoup mieux, effectivement, faire toute la conversation en anglais en évitant qu'à chaque question-réponse, il y ait non seulement la recherche de la réponse, mais la traduction. Et à la limite, si on a besoin de la réponse en français ou toute autre langue, de la demander tout à la fin au moment que le texte en anglais est finalisé.
- Speaker #1
Exactement.
- Speaker #0
Et puis, autre élément, je crois, et bon, je pense que vraiment, il faut qu'on fasse un épisode prompting, parce que je crois qu'effectivement, la qualité du prompt, faire en sorte qu'effectivement, toutes les données, soit le contexte est bon, le cadrage est bon pour maximiser les chances d'avoir tout de suite la bonne réponse. À nouveau, c'est un élément clé dans ce cas-ci. pas seulement sur la qualité, mais aussi justement sur cette consommation énergétique.
- Speaker #1
Sur la consommation, d'éviter de faire dix requêtes pour peaufiner une seule demande. Attention aussi que, on en parlera dans le podcast sur le prompting, les prompts trop longs comportent des risques, comme un humain d'ailleurs. Si ma question fait un quart d'heure, tu auras oublié le début de ma question. C'est un peu la même chose avec les modèles de langage. Donc c'est ce juste milieu, en essayant d'être concis et en essayant que tout soit dedans pour éviter de devoir faire dix allers-retours derrière.
- Speaker #0
Je pense qu'il faut plus qu'un podcast, il faut un cours, voire une maîtrise à l'unif, je ne sais pas.
- Speaker #1
Je trouve que ça évolue très vite le prompting. C'est intéressant de savoir comment fonctionne le prompting, mais maintenant il y a des outils qui t'aident à prompter.
- Speaker #0
Ça évolue, chaque sujet est aussi un petit peu différent, donc je pense que là encore, il faut s'y mettre. Une certaine base, effectivement, de donner un rôle à l'IA, créer le contexte, mettre des limites. Je pense qu'il y a certains éléments à toujours intégrer. Puis après, il faut faire sa propre expérience et regarder un petit peu comment vraiment maximiser les chances d'avoir tout de suite une bonne réponse. Un autre élément, il ne faut pas forcément utiliser les modèles les plus performants, je crois.
- Speaker #1
Tout à fait. Alors ça, ça devient un petit peu geeky, on va dire. Pas technique, mais déjà quand... Ma tante, que je reprends souvent comme exemple, utilise ChatGPT, je suis déjà fier d'elle. Mais de là à ce qu'elle commence à d'abord challenger ses promptes, comme on disait, et ou à tester comment on répond. Déjà, est-ce qu'elle est au courant qu'il y a un GPT mini, qu'il y a un GPT 4O, qu'il y a un GPT... Je ne pense pas qu'elle est au courant. Qui est au courant de ça dans le grand public qui ne s'intéresse pas comme nous tous les jours à l'intelligence artificielle ? Peu de monde. Ils vont aller sur ChatGPT, ils vont prendre le modèle par défaut et puis ils ne vont pas se poser de questions.
- Speaker #0
Souvent, on a une... d'une certaine tendance naturelle, je vais prendre le plus performant parce que la réponse sera la meilleure. Mais c'est vrai que pour la plupart des questions qui n'impliquent pas de calcul, etc., un mini fait tout à fait l'affaire.
- Speaker #1
En quelle année est mort Napoléon ? Franchement, déjà, aller utiliser un modèle de langage pour ça, ça peut être étonnant, puisque tu as la réponse sur Wikipédia en deux secondes. Donc là aussi, ça va être le choix de l'outil en fonction de ton besoin.
- Speaker #0
Oui, mais bon, en même temps... pourquoi pas utiliser un modèle moins puissant ? Parce que la consommation est vraiment...
- Speaker #1
Vraiment moindre, clairement. Et surtout pour ce genre de questions. Mon exemple sur Napoléon, c'est une question qui va chercher dans la base de données du passé, qui est une base de données statique, qui n'évoluera jamais et qui n'est pas remise en question dans les fameux entraînements des IA.
- Speaker #0
Peut-être un exemple plus dans le contexte professionnel. On a pu... On a eu l'occasion de discuter d'applications, notamment dans le service clientèle, où la détection des émotions est importante. Mais si on a un projet de détection d'émotions, ça ne sert à rien d'utiliser un modèle qui peut calculer, qui peut être créatif, etc. Il y a des modèles très spécifiques qui sont très forts là-dedans et qui, à nouveau, de par leur spécificité, vont consommer moins d'énergie.
- Speaker #1
Oui, parce qu'il a... Tout de suite un contexte. Il a des œillères. Il ne va pas aller chercher... Tu imagines que le chat GPT générique, tu lui demandes quand est mort Napoléon, il va d'abord scanner dans toute sa base de données de la connaissance humaine pour repérer la période, pour repérer qui est Napoléon. Et ça fait beaucoup. Alors que s'il existe, et il existe en médecine, il y a maintenant totalement spécialisés en médecine, il devrait exister, certainement, je ne suis pas allé voir, mais... des GPT Custom totalement spécialisés en histoire de France et d'Angleterre, tout ce que tu veux. Eux, comme ils ont des grosses œillères et ils ont un contexte d'information qui est beaucoup plus restreint, ils vont aller plus vite et ils vont consommer moins parce que ça fait partie de leur ADN. Comme un prof d'histoire va mettre moins de temps à me répondre à une question d'histoire qu'un prof de chimie.
- Speaker #0
Tout simplement, pour ceux qui connaissent encore le dictionnaire, on ne lisait pas tout le dictionnaire, on se focalisait tout de suite à la section A, quand notre mot commençait par un A.
- Speaker #1
L'analogie est parfaite et que Chad GPT générique, si vous lui demandez la définition d'un mot, il va vite lire le dictionnaire, vite fait. Pour trouver où est le mot.
- Speaker #0
Je pense que tout le monde peut se rendre compte qu'effectivement, ça consommait pas mal d'énergie mentale si on devait lire tout le dictionnaire. Un dernier domaine qui est peut-être un tout petit peu plus technique. Je crois que dans la programmation, dans le développement, il y a quand même aussi des choses qu'on peut mettre en place pour éviter d'à chaque fois réinventer la roue, de faire des appels serveurs à chaque moment. Ne fût-ce que, là aussi, essayer de s'assurer de déjà choisir le bon modèle, on en a parlé, et puis structurer les données pour qu'effectivement, comme dans le dictionnaire, si on met tous les A ensemble, on va être beaucoup plus efficace dans la recherche. de l'info qu'on cherche. Le fameux caching, tu en parlais plus tôt, ne demandons pas à chaque fois de nous envoyer la même image. Mais même chose, s'il y a énormément de requêtes qui ne fût-ce que demande de calculer le coût moyen d'une certaine action à la boursière, stockons la réponse et réutilisons la réponse plutôt qu'à chaque fois relire.
- Speaker #1
Plutôt qu'à chaque fois, essayer de réfléchir et de processer la réponse. Mais beaucoup des choses dont tu parles là... ne dépendront pas de nous, vont dépendre d'OpenAI, de Google et de tous ceux qui vont mettre ça en place.
- Speaker #0
Oui, sauf pour les modèles custom où on a ses propres bases de données, où on interroge ses propres bases de données. Et je crois que là, c'est peut-être un domaine, parce qu'il y a beaucoup de choses, effectivement, avec les outils qui permettent de faire de la programmation assistée, etc. On en parlera certainement à un moment donné. On peut faire énormément de choses, même si on n'est pas développeur. mais justement l'efficacité d'une base de données, stocker des requêtes fréquentes, etc. Je crois que c'est là qu'on a quand même encore confronté un problème, ou en tout cas à court terme, un développeur avéré ou un ingénieur en informatique.
- Speaker #1
Va devoir nous aider. Voilà.
- Speaker #0
La réponse sera probablement plus rapide, peut-être plus juste, mais surtout, il y aura moins de requêtes, moins de consommation.
- Speaker #1
C'est de l'optimisation de code. Et c'est vrai que... On parle du no code, des barrières technologiques qui tombent. Clairement, les codes qui sont générés actuellement fonctionnent. Quand tu les montres à un développeur humain, j'avais ce débat-là hier, le développeur dit, écoute, c'est pas mal, c'est une bonne base, mais il y a encore des choses, notamment en termes de sécurité, typiquement.
- Speaker #0
Et confidentialité.
- Speaker #1
On s'éloigne un peu de l'énergie, même si c'est l'optimisation des choses que l'on fait. Il y a une autre chose... Ta question, c'était qu'est-ce qu'on peut faire personnellement ? Donc, utiliser l'anglais, c'est une des premières choses. Ne pas utiliser des modèles de langage pour demander combien en font 2 plus 2. Il y a d'autres moyens d'y arriver en consommant moins. Et moi, je pense que le futur va nous apporter une solution parmi d'autres, alors qu'il va déplacer la consommation. C'est quelque chose que j'utilise depuis quelques semaines, voire plusieurs mois. Ce sont des modèles de langage, des IA génératives en local, sur mon ordinateur. que je télécharge, que j'utilise je télécharge une partie de sa base de données de connaissances donc je peux l'utiliser en local si je n'ai pas internet ça c'est intéressant et deuxièmement je consomme moi en local, te dire moi j'utilise Cloud d'Anthropic qui est un des modèles de langage très connu qui a une version que tu peux installer sur ton desktop Mac ou PC, tu l'installes au départ elle n'a pas accès à internet elle a sa base de données de connaissances, tu l'utilises en local Quand je fais une requête, j'entends mon ventilo. Là, on est en hiver, ça réchauffe mon bureau. Ça réchauffe mon bureau, moi je suis content. Je baisse le radiateur et je fais des requêtes chat GPT, ça chauffe mon bureau. Et je ne consomme rien de plus. Je ne consomme rien de plus. À part la batterie de mon ordinateur, évidemment. Donc le local, c'est intéressant. Après, ça peut devenir encore un peu technique, mais les barrières vont tomber au fur et à mesure du temps. Après, j'ai décidé de lui... lui mettre un connecteur qui lui permet d'accéder à Internet quand il en a besoin. Mais quand il n'en a pas besoin, il n'y va pas. Quand il a la réponse, la date de naissance de Napoléon, il l'aura en interne. Ça prend un peu de place sur mon disque dur, mais il l'a. Et là, il n'a pas besoin de faire une requête Internet et il n'a pas besoin de consommer de l'énergie sur des serveurs dans la Silicon Valley.
- Speaker #0
Et je crois que clairement, c'est aussi une application des modèles plus spécialisés. Pour avoir fait moi-même l'expérience de catégoriser les mots-clés, une analyse des mots-clés en marketing. pour les catégoriser, pour les utiliser comme base pour une stratégie de contenu, c'est clair qu'un modèle local, si c'est un modèle de la marque, suffit largement.
- Speaker #1
Pour analyser un tableau, pour résumer un texte, pour toutes ces fonctionnalités, pour traiter des datas, pour plein de choses, ça suffit largement.
- Speaker #0
Je crois que c'est peut-être un des sujets, en tout cas pour passer à l'action le plus technique, dont on a déjà débattu, important. Mais je crois qu'à nouveau, réfléchir un petit peu à la... Implémenter cette efficacité sera peut-être plus compliqué à court terme, mais réfléchir avec du bon sens à rendre quelque chose efficace, je pense qu'effectivement, quand on a, même avant l'e-mail, quand en société, on avait un formulaire, une demande ou une question pour un collègue d'un service spécifique, on ne demandait pas à tous les autres services de lire la question. C'est un petit peu la même chose ici. Ça ne sert à rien. Et ça, c'est vraiment l'optimisation dans la programmation, de s'assurer que ce soit efficace, tout comme il faut que ce soit efficace en entreprise. Même pas les différents services, une boîte mail partagée, on n'a pas envie que tout le monde qui a accès à la boîte mail, peut-être tout un service d'une trentaine de personnes, que tout le monde se mette à répondre à cette question.
- Speaker #1
C'est évidemment que non. Et puis, il y aura à terme aussi, comme on le fait dans notre engagement citoyen, on va dire, le choix de ces solutions. Clairement, il y aura des produits bio, il y aura des produits éco, il y aura des produits moins chers, chinois, mais qui n'ont rien à faire de la pollution et de l'écologie. À nous de choisir, à nous de nous renseigner aussi. Je pense que ça pourrait devenir le positionnement d'un de ces modèles de langage, de dire, vous savez, nous, on a mis nos serveurs dans le nord de la Suède, on a une consommation énergétique dix fois moindre qu'OpenAI, et les mêmes résultats. À vous de faire un choix. Peut-être qu'ils seront un peu plus chers, parce qu'ils ont dû investir dans ça, mais c'est le consommateur, le citoyen, qui fera son choix. Une des technologies dont on n'a pas parlé, qui est en train d'exploser, est notamment le refroidissement des serveurs dans un liquide de refroidissement. C'est-à-dire que pour le moment, c'est du water cooling. La plupart des gros ordinateurs dans les data centers sont refroidis un peu comme un chauffage au sol inversé. C'est-à-dire que ce sont des tuyaux d'eau qui traversent à l'intérieur de l'ordinateur autour du processeur et qui refroidissent pour ne pas qu'ils fondent.
- Speaker #0
Donc on va vers les ordinateurs sous-marins.
- Speaker #1
Alors ici, sous-marin, peut-être pas, parce que c'est submergé dans un liquide, une sorte de gel spécial.
- Speaker #0
Ce n'est pas de l'eau,
- Speaker #1
non. Et c'est un gel qui peut diffuser beaucoup plus la chaleur et ils doivent moins la gérer, clairement. Mais je continue à dire que moi, déplacer les serveurs, parce que les serveurs d'OpenAI, qu'ils soient en Californie, en Suède ou en Sibérie, ça peut poser des problèmes géopolitiques.
- Speaker #0
Sibérie, en tout cas, à court terme, il faut peut-être mieux éviter.
- Speaker #1
À court terme, il faut éviter, mais en Suède, par exemple, ça leur pose aussi des problèmes géopolitiques, parce que là où est le serveur... C'est de là que doit être respectée la loi. Donc le GDPR devra être respecté si les serveurs sont en Europe. Et les IACTS aussi devraient être respectés. Donc je pense qu'ils vont rester aux États-Unis encore un bon bout de temps.
- Speaker #0
Au Greenland.
- Speaker #1
Oui, mais même rien qu'aux États-Unis, entre les maîtres en Californie, dans les États désertiques autour de l'Alaska, ou en Alaska, ou même déjà plus à l'Est, ce serait déjà mieux. Mais bon, ça ce sont des choix.
- Speaker #0
Bon, qui va prendre le défi ? Une minute. J'ai essayé de noter pendant qu'on discutait et tu complèteras. J'en aurais besoin de moins qu'une minute et tu complèteras. Je crois qu'effectivement, commençons chacun par apprendre le prompting. Je crois qu'effectivement, il faut absolument qu'on mette cet épisode au planning parce qu'on en parle quasi à chaque épisode. Et ici, avoir un prompt efficace qui permet d'éviter les questions à répétition.
- Speaker #1
Les tips and tricks, tout faire dans un seul prompt pour avoir vraiment une... Ou même plusieurs propositions de réponses. Il y a pas mal de choses à dire.
- Speaker #0
Essayer de choisir un modèle plus simple, plus focalisé. Alors ça peut paraître technique, mais je pense que ne fût-ce que dans les options de modèles qui sont présentes dans ChatGPT, essayer un mini et comparer-le aux autres. Et les custom. Et les custom. Je crois qu'il y a vraiment moyen, tout en restant dans un outil, de déjà en tout cas comprendre et constater que ces modèles plus simples... permettent de résoudre la plupart des problèmes.
- Speaker #1
Pour ceux qui ont encore les customs, c'est encore un peu abstrait pour eux. Donc, les customs GPT, je le rapporte souvent à l'App Store, à l'époque où l'App Store est arrivé. There's an app for that. Donc, il y a sûrement un customs GPT pour votre problème. Il y en a des spécialistes de l'immobilier, il y en a des spécialistes de la médecine. Je parlais de l'exemple dans un autre podcast de mon ami qui a voulu tester une sorte d'entretien avec un psy. Il y en a qui sont spécialisés dans la psychologie humaine. Voilà, déjà, allez chercher ça, vous aurez des meilleurs résultats et vous consommerez moins.
- Speaker #0
Je pense que voilà, à nouveau, commencer par essayer de comprendre, en faire l'expérience.
- Speaker #1
Prendre les mains dedans. Voilà,
- Speaker #0
et dans ce cas-ci, ce n'est vraiment pas complexe, il faut juste cocher une petite case qui permet de changer de modèle. Peut-être dernier point, on a parlé de développement, développement efficace, etc. Bon, ça peut paraître technique et on pourrait se dire, c'est pas pour moi, c'est pour mon développeur. Mais justement, avoir une compréhension de base et ne fût-ce que... Challenger le développeur, lui donner ça comme un de ses objectifs dans le projet, ça permet déjà de conscientiser et de quand même y travailler, même si ce n'est pas un gérant d'entreprise ou un directeur marketing qui va lui-même passer à l'action et coder, essayer d'optimiser le code. De plus, mettre ce débat sur la table et mettre ces possibilités sur la table permettra déjà de progresser.
- Speaker #1
Bien expliquer ses objectifs, bien faire son briefing. Et pour le côté développeur, il faut qu'ils comprennent aussi que pendant des années, on a payé des développeurs pour écrire du code à la main, que maintenant, ils ne doivent plus l'écrire. Ils doivent, comme on l'a dit tout à l'heure, l'optimiser, le peaufiner, le sécuriser. Ce n'est plus le même métier tout à fait.
- Speaker #0
Non, mais en même temps, ça leur permettra de sécuriser leur job. à terme, parce que c'est une vraie valeur à ajouter donc optimiser En tout cas les développeurs ici européens,
- Speaker #1
les développeurs indiens qui faisaient des lignes de code toute la journée je pense qu'ils ont des soucis à se faire
- Speaker #0
On a parlé beaucoup des aspects négatifs, en tout cas écologiques.
- Speaker #1
Des peurs.
- Speaker #0
Des peurs et des risques et d'un problème réel dont il faut être conscient et il faut travailler aux solutions. En même temps, je crois que l'IA et le développement de l'IA ouvrent aussi de nouvelles opportunités, de nouvelles pistes de réduction de consommation énergétique, que ce soit l'utilisation par l'IA, on en a parlé, ou alors la consommation dans d'autres domaines. Et je crois qu'il y a, pour rester peut-être d'abord dans un exemple ou un cas qui est relativement proche, c'est que Google a fait un projet en utilisant un de leurs modèles IA DeepMind, le projet DeepMind, qui leur a permis de réduire de 40% les coûts pour refroidir les serveurs en faisant des prévisions de demandes par rapport à leur data center. et en évitant de faire tourner des processeurs qui ne seront absolument pas nécessaires parce que la demande sera relativement faible. Donc je crois qu'il y a vraiment des opportunités aussi en termes de consommation.
- Speaker #1
Des opportunités pour l'IA d'optimiser la façon dont elle fonctionne elle-même, donc de s'auto-améliorer, donc ça, ça va arriver. On parlait des modèles qui consomment moins, etc. Mais aussi de l'IA pour trouver des solutions importantes dans la structure de nos sociétés, dans le fonctionnement de nos sociétés, notamment en termes de gestion énergétique. Il y a des problématiques complexes sur lesquelles des ingénieurs et des gens très talentueux travaillent depuis longtemps, comme les grilles énergétiques, les energy grids, qui permettent de répartir l'énergie et d'anticiper les besoins énergétiques de certaines zones, etc. pour éviter, parce qu'il faut savoir que les énergies vertes, c'est bien beau, mais beaucoup des énergies vertes sont produites en journée et sont rejetées dans la terre parce qu'il n'y a personne pour les utiliser. L'anticipation... La planification, l'optimisation de cette gestion énergétique de tous les jours, clairement, l'intelligence artificielle va permettre à l'humain de comprendre et d'avoir une vue beaucoup plus complète sur ce qu'il peut faire. Et il y a plein de domaines dans lesquels c'est le cas. Dans le transport, dans la mobilité, l'IA va certainement trouver des solutions pour optimiser la façon dont on fonctionne. L'humain a été fort pour optimiser pendant des années. C'était assez lent, c'était des étapes... humaine, donc ça pouvait prendre des années, des générations, l'IA va aller plus vite pour pointer du doigt les pain points dans la façon dont on gère notre énergie, par exemple. Il y a d'autres domaines dans lesquels elle va pouvoir optimiser aussi très fortement la façon dont on fait les choses.
- Speaker #0
Ok, passionnant. En tout cas, je suis content qu'on ait pris un sujet qui, peut-être au premier abord, était un peu moins technique, un peu plus loin du marketing, même si effectivement, l'image de marque était importante. Mais je crois que c'était intéressant d'ouvrir le débat et d'intégrer cette composante, que ce soit du côté négatif ou du côté opportunité pour le futur.
- Speaker #1
Avec le néant débat sur le greenwashing, est-ce que certaines entreprises qui vont dire nous on n'utilise pas l'IA parce que ça pollue, ok c'est bien, ils se positionnent en termes de sustainability, mais est-ce que derrière leur service client sera une bonne expérience, sera optimisé, est-ce que derrière leurs produits seront bien faits ? Voilà, donc il faut faire des choix et comme toute entreprise, en fonction de sa vision et de sa mission, mettre la barre là où on pense qu'elle doit être.
- Speaker #0
Peut-être dernière remarque, c'est que je pense que notre objectif aujourd'hui, c'était vraiment ouvrir le débat, mettre la problématique sur la table. Et effectivement, sur la plupart des chiffres qu'on a cités, on peut trouver de tout autres chiffres dans d'autres études, d'autres méthodologies. Mais en tout cas, la conclusion est toujours la même, c'est qu'il y a un vrai défi. à gérer la consommation énergétique. Okido, super, mais peut-être un peu moins que lors des autres épisodes, un appel à partager vos tests. Mais puisqu'effectivement, peut-être quand même, est-ce que vous avez eu l'opportunité de tester les différents modèles, peut-être plus simples, et quelles ont été les conclusions ? Ça peut peut-être être un sujet, une question intéressante, un défi à lancer.
- Speaker #1
Et pour ceux qui sont plus à l'aise, si certains commencent à tester des modèles en local, avant c'était encore un peu technique avec un serveur à soi sur son ordinateur. Maintenant, Claude, c'est le download, comme si on downloadait un programme informatique plutôt classique. On l'ouvre et puis, si on ne sait pas quoi faire, on en a parlé dans un épisode sur le support client, si on ne sait pas quoi faire, on peut lui demander à lui ce qu'on doit faire et il va tout nous expliquer.
- Speaker #0
Ou à la limite, oui, lancez-nous le défi. on vous aide on n'est en même temps pas candidat à faire tous les développements et ton support client non plus bon allez, c'est un sujet intéressant et on se revoit Très très bien.
- Speaker #1
C'était un sujet très intéressant, un sujet de société dont tout le monde parle et on avait envie quand même d'un petit peu démystifier tout ce qui se dit à ce sujet.
- Speaker #0
Ok, merci beaucoup. Ciao, ciao.