undefined cover
undefined cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet cover

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Subscribe
undefined cover
undefined cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet cover

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Subscribe

Description

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.   


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.   


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

415 episodes

24 playlists

  • Et voici les faux numéros de service client générés par l'IA cover
    Et voici les faux numéros de service client générés par l'IA cover
    Et voici les faux numéros de service client générés par l'IA

    Et aujourd’hui, voici une nouvelle forme d’arnaque qui prend de l’ampleur. Il s'agit des faux numéros de service client générés par l’intelligence artificielle. Oui, vous avez bien entendu. Des personnes se sont déjà fait piéger en appelant ce qu’elles pensaient être le service client officiel d’une grande entreprise, mais qui en réalité était un numéro frauduleux proposé par Google AI (https://www.zdnet.fr/actualites/google-muscle-son-ia-face-a-chatgpt-search-et-perplexity-479068.htm) ou même ChatGPT. Alors, comment ça marche ? De plus en plus de personnes font de plus en plus confiance dans l’IA Quand on cherche un numéro sur Google en mode classique, on voit plusieurs résultats, on compare, on recoupe. Mais avec les nouveaux résumés générés par l’IA, on reçoit une seule réponse présentée comme “la bonne”. Résultat, plus de chances de tomber directement dans le piège sans vérifier. La sophistication des arnaques Car oui les victimes ne sont pas naïves, mais souvent font face à des escrocs particulièrement malins. Les escrocs ne se contentent pas de décrocher et de demander votre carte bancaire. Ils imitent à la perfection les procédures des vraies entreprises. Et voici un exemple cité par The Washington Post. Un dirigeant pensait appeler Royal Caribbean, et l’arnaqueur connaissait les bons tarifs, la bonne terminologie, et a réussi à obtenir ses coordonnées bancaires avant qu’il ne réalise la supercherie. Tout ceci repose aussi sur une faille technique Des experts en cybersécurité expliquent que ces escroqueries reposent parfois sur une technique dite de “prompt injection”. En clair, les pirates manipulent les modèles d’IA pour qu’ils intègrent un faux numéro dans leur réponse. Google et OpenAI assurent travailler sur des correctifs, mais le problème persiste, surtout sur des requêtes rares. La leçon à retenir, c’est qu’il ne faut jamais faire confiance aveuglément à un numéro de téléphone affiché par une IA. Si vous cherchez le service client d’une entreprise, allez directement sur son site officiel ou utilisez une recherche classique pour croiser plusieurs résultats. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on September 8, 2025

  • Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ? cover
    Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ? cover
    Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ?

    Aujourd’hui, on parle de l’avenir des carrières dans l’informatique à l’heure de l’intelligence artificielle. Alors, faut-il encore miser sur les études en informatique, ou chercher ailleurs ? L’effet inquiétant de l’IA sur l’emploi commence à se faire sentir D'abord, il faut bien noter que l’effet inquiétant de l’IA sur l’emploi commence à se faire sentir. (https://www.zdnet.fr/actualites/voici-les-emplois-qui-risquent-le-plus-detre-pris-en-charge-par-lia-selon-microsoft-479790.htm) Comme le souligne un article récent du New York Times, les outils de programmation dopés à l’IA peuvent désormais générer des milliers de lignes de code en un clin d’œil. Ajoutez à cela les vagues de licenciements chez Amazon, Meta ou Microsoft, et on obtient une équation qui refroidit beaucoup d’étudiants en informatique. Bref, le fameux "golden ticket" vers une carrière tech semble un peu terni. La relation entre l’IA et le monde de l'emploi est plus complexe Oui, parce que si l’IA peut tuer certains emplois, elle en crée d’autres (https://www.zdnet.fr/actualites/ces-15-nouveaux-emplois-que-lia-pourrait-creer-un-nouveau-job-pour-vous-478059.htm). Les compétences liées au développement de modèles d'IA, à la gouvernance des données ou encore à l’éthique de l’IA sont très recherchées. Devenir spécialiste en supervision de l’IA, c’est aujourd’hui un pari gagnant. L’IA peut aussi être vu comme un tremplin entrepreneurial Et c’est peut-être là le plus grand bouleversement. Pour les créateurs de startups, l’IA est une arme redoutable. (https://www.zdnet.fr/pratique/entreprenariat-comment-utiliser-les-outils-dia-pour-faciliter-la-creation-dentreprise-394390.htm) Elle permet de prototyper une idée en quelques semaines, d'automatiser des tâches coûteuses, et peut-être de rivaliser avec de grands groupes. Comme le dit le capital-risqueur Spiros Margaris, “devenir AI-first n’est plus une option, c’est une condition de survie”. Mais attention, IA ne rime pas avec facilité. Elle apporte aussi son lot de défis, notamment dans les domaines de la cybersécurité et de la réglementation. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 27, 2025

  • Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA cover
    Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA cover
    Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA

    Aujourd’hui, on parle d’un gros chantier chez Google Traduction qui devrait nous être livré sous peu. L’application de traduction s’apprête à intégrer plus largement l’IA Gemini (https://www.zdnet.fr/gemini-6728q.htm) et à vous laisser choisir votre “style” de traduction. Deux modes avec deux promesses différentes Une nouvelle option “model picker” va apparaître en haut de l’écran pour basculer entre deux modes. Le mode rapide est pensé pour la vitesse et l’efficacité. Le mode avancé s’appuie sur Gemini pour privilégier le contexte et la précision. À ce stade, le mode avancé ne fonctionnerait que pour quelques paires de langues, dont l'anglais et le français. En clair, c’est un pas vers des traductions plus naturelles. Google traduction lorgne du côté de Duolingo et Babbel Ensuite, Google Traduction va embarquer un nouveau mode qui lorgne du côté de ses désormais concurrents Duolingo et Babbel. Google teste en effet un espace d’entraînement, avec des leçons courtes, des objectifs à atteindre, et des scénarios de conversation du quotidien. Mieux, vous pouvez créer vos propres exercices. Pour l’instant, les entraînements disponibles concernent surtout l’espagnol et le français, mais la mécanique se veut extensible. A quoi s’attendre côté usage pro ? D’abord, un arbitrage assumé entre latence et qualité. Le mode rapide conviendra pour déchiffrer un mail ou un message instantané en urgence. Le mode avancé sera lui taillé pour un brief client, un support technique ou une réponse commerciale où le ton et le contexte comptent. Ensuite, l’ergonomie à lécran bouge. Le micro est plus discret et déplacé à droite, la ligne de boutons est placée en bas de l'interface pour un usage à une main. Tout cela confirme un cap, amener l’IA de compréhension du langage au cœur de l’interprétation. Mais et c'est important, Google n’a pas encore officialisé le calendrier. Et certaines fonctions pourraient évoluer avant la sortie grand public. Mais la direction est claire. Google Traduction va faire moins de traductions “mot à mot”, proposer un coach linguistique. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 25, 2025

  • Comment l'augmentation de données permet de mieux faire fonctionner des IA cover
    Comment l'augmentation de données permet de mieux faire fonctionner des IA cover
    Comment l'augmentation de données permet de mieux faire fonctionner des IA

    Aujourd’hui, on parle d’augmentation des données dans le monde de l'intelligence artificielle. Derrière ce terme, une idée simple. Il s'agit de créer, à partir de vos données existantes, de nouvelles variantes synthétiques pour entraîner des modèles de machine learning (https://www.zdnet.fr/actualites/ia-et-machine-learning-idees-recues-et-pratiques-peu-repandues-39964696.htm) plus robustes. Pourquoi c’est utile ? Parce que dans la vraie vie, les jeux de données sont souvent limités, sensibles, ou pas assez variés. Alors on enrichit artificiellement le jeu d’entraînement… mais intelligemment. Je vous propose trois points pour tout comprendre avec l'aide d'une documentation AWS sur le sujet. (https://aws.amazon.com/fr/what-is/data-augmentation/) L'augmentation de données, à quoi ça sert, concrètement ? L’augmentation des données améliore la performance et la généralisation des modèles. En multipliant les versions d’une même donnée, une image un peu plus sombre, un texte reformulé, un son avec un léger bruit, le modèle voit plus de cas et se trompe moins sur des données qu’il n’a jamais vues. Et cette augmentation des données réduit la dépendance à de très gros jeux de données, donc coûte moins cher. Elle limite également le sur-apprentissage, le fameux overfitting, où le modèle « apprend par cœur » ses exemples sans savoir généraliser. L'augmentation de données, comment ça marche, en pratique ? D'abord, les spécialistes de l'IA auditent le jeu de données et appliquent des transformations et des déclinaisons adaptées. Il peut s'agir de retournement et de changement de contraste pour une image. Mais aussi d'ajout de bruit et de variation de vitesse pour un son. Ou encore de permutation de mots et de paraphrases pour un texte. Mais attention, si vos données de départ sont biaisées, vos données augmentées hériteront de ces biais. Il faut donc les corriger à la source avant l'entraînement. Enfin troisième point, quels sont les premiers cas d'usage ? Dans le domaine de la santé, on multiplie les versions des images médicales pour mieux détecter des pathologies rares. En finance, on génère des scénarios de fraude ou des séries de risque pour entraîner la détection et le scoring. Dans la grande distribution, on varie angles, fonds et éclairages de photos de produits pour les faire reconnaître par l'IA en conditions réelles. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 22, 2025

  • L'apprentissage zero-shot de l'IA, qu'est ce que c'est ? cover
    L'apprentissage zero-shot de l'IA, qu'est ce que c'est ? cover
    L'apprentissage zero-shot de l'IA, qu'est ce que c'est ?

    Aujourd’hui, on parle d’« apprentissage zero-shot », ou ZSL pour zero shot learning. En clair, c’est la capacité d’un modèle d'IA (https://www.zdnet.fr/guide-achat/les-meilleurs-modeles-dia-open-source-toutes-les-options-gratuites-expliquees-pour-vous-401011.htm) à reconnaître ou classer des choses qu’il n’a jamais vues lors de son entraînement. Et voici l’essentiel en trois points sur la base d'un document d'explication d'IBM. (https://www.ibm.com/fr-fr/think/topics/zero-shot-learning) Le ZSL, à quoi ça sert ? Alors dans un premier temps, à quoi ça sert et en quoi c’est différent des méthodes d'apprentissage classiques utilisées par les concepteurs d'intelligence artificielle. La plupart des modèles d'IA apprennent en mode supervisé. C'est à dire qu'on leur montre des milliers d’exemples étiquetés, d'un chat par exemple. Et le système apprend à reconnaître un chat avec cette méthode. Le problème, c'est que étiqueter des données coûte cher, prend du temps, et surtout que certaines classes sont rares, voire inédites, comme les nouvelles maladies, des espèces animales peu documentées, ou encore un nouveau type d’attaque informatique. Le zero-shot répond donc à cette contrainte. Le ZSL, comment ça marche ? Au lieu d’apprendre à reconnaître un oiseau en regardant des photos étiquetées, l'entraînement consiste à lire à l'IA une définition qui contient par exemple plumes, bec, et ailes. L'IA apprend ainsi à reconnaître un oiseau sans l’avoir vu auparavant. Le modèle s’appuie donc sur des connaissances auxiliaires. Le modèle ne dessine donc pas directement une frontière entre les classes qu’il a vues, mais calcule des scores de probabilité à partir des connaissances auxiliaires. À noter que les grands modèles de langage, les LLM (https://www.zdnet.fr/pratique/quest-ce-quun-llm-tout-ce-que-vous-devez-savoir-sur-ce-qui-se-cache-derriere-lia-generative-476377.htm), excellent souvent dans l'exercice de zero-shot. Pourquoi ? Parce qu’ils comprennent les étiquettes en langage naturel et peuvent classer, extraire, résumer ou suivre des instructions sans exemples, simplement via la consigne, c'est à dire le prompt. Le zero-shot a aussi ses limites Enfin, le troisième point, c'est que le zero-shot a aussi ses limites. Et je vous donne direct un exemple pour que vous compreniez bien. En se basant sur les étiquettes et non les images étiquetées, difficile de savoir si le mot jaguar fait référence à une marque de voiture ou à un animal. Cette sensibilité sémantique fait chuter les performances si le domaine réel s’éloigne trop de ce que le modèle d'IA a appris. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 21, 2025

  • Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ? cover
    Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ? cover
    Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ?

    Aujourd’hui, on démêle un grand classique : l’apprentissage automatique, ou machine learning (https://www.zdnet.fr/machine-learning-4000237825q.htm). Qu’est-ce que c’est, comment ça s’entraîne, et quels sont ses enjeux concrets en entreprise ? Voici trois points pour aller à l’essentiel, puisés dans une page d'assistance de Red Hat. (https://www.redhat.com/fr/topics/ai/what-is-machine-learning) Qu'est ce que c’est et comment ça marche ? L’apprentissage automatique, c’est une branche de l’IA (https://www.zdnet.fr/actualites/machine-learning-en-pratique-quelles-competences-quelles-ressources-39920503.htm) où l’on apprend à des algorithmes à repérer des traces identiques dans des données. Il peut d'agir de chiffres, de texte, ou encore d'images. Et pour y parvenir, on prend un modèle d'IA et on le nourrit de données. Côté méthode, tout commence par un pipeline bien huilé : Collecte et préparation des données Séparation de l'entraînement, des tests et de la validation Et souvent réduction des données pour ne garder que l’utile Et il faut faire face à quelques écueils, comme le surentraînement et le sous-entraînement, qui faussent les résultats attendus. Et il faut aussi surveiller la “fuite de données” quand, par erreur, des infos du test contaminent l’entraînement. Le machine learning est renforcé par les réseaux de neurones Le second point c'est que de nos jours, le machine learning est renforcé par les réseaux de neurones. C'est ce que l'on appelle l’apprentissage profond, ou deep learning (https://www.zdnet.fr/pratique/qu-est-ce-que-l-apprentissage-profond-voici-tout-ce-qu-il-faut-en-savoir-39964504.htm), ou s'empilent dans le réseau neuronal plusieurs couches pour apprendre des représentations de plus en plus abstraites. C'est cette évolution qui donne aujourd'hui des performances remarquables en vision, en reconnaissance vocale et en traitement du langage. L'apprentissage profond est même le socle de l’IA générative et des grands modèles de langage (https://www.zdnet.fr/pratique/quest-ce-quun-llm-tout-ce-que-vous-devez-savoir-sur-ce-qui-se-cache-derriere-lia-generative-476377.htm), qui sont désormais capables de produire du texte, de résumer, ou d'assister la recherche. Pourquoi un usage responsable est-il nécessaire ? Le troisième point c'est que la surpuissance actuelle de l'IA générative et de l'apprentissage automatique exige un usage responsable. Comme les modèles apprennent sur l’historique, ils peuvent hériter de biais présents dans les données et amplifier ces biais dans des décisions sensibles, dans les domaines du recrutement, de l'attribution de crédit bancaire, ou encore en matière de décision de justice. D’où l’importance de méthodes et d’outils d’explicabilité (https://www.zdnet.fr/actualites/quand-l-accessibilite-et-l-explicabilite-de-l-ia-accelere-son-adoption-en-entreprise-39931469.htm) pour sortir l'IA de son image de “boîte noire”. En résumé, l’apprentissage automatique, c’est la capacité d’extraire des patterns des données pour décrire, prédire et recommander. Et l’apprentissage profond décuple ces possibilités. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    03min | Published on August 20, 2025

  • Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ? cover
    Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ? cover
    Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ?

    Aujourd’hui, on s’attaque à un sujet délicat : faut-il vraiment se méfier de l’anthropomorphisme avec les IA (https://www.zdnet.fr/intelligence-artificielle-ia-4000237536q.htm), ou bien apprendre à l’apprivoiser sans se faire piéger ? Mais avant tout, un peu de définition. Qu'est ce que l’anthropomorphisme dans le domaine de l'IA ? Et bien c'est tout simplement notre tendance naturelle à considérer les IA comme des humains. Et cela s'observe de plus en plus avec les chatbot comme ChatGPT, auxquels de plus en plus de personnes confient dans le cadre de dialogues leurs états d'âmes. L’anthropomorphisme n’est pas une faute, c’est un réflexe Le premier point, mentionne le psychiatre et psychanalyste Serge Tisseron (https://sergetisseron.com/blog/ia-generatives-oui-a-lanthropomorphisme-non-a-lanthropocentrisme/), c'est que l’anthropomorphisme n’est pas une faute, c’est un réflexe. Depuis longtemps, nous traitons spontanément les ordinateurs comme s'il s'agissait de personnes réelles. Et ce n’est pas de la naïveté, c’est une stratégie mentale bien pratique. Car dire « merci » à une machine ou lui parler naturellement fluidifie l’interaction et réduit notre charge cognitive. La clé est donc d’admettre ce réflexe mais de garder en tête que la machine, elle, n’éprouve rien. Une petite gymnastique à mettre en place C'est une petite gymnastique à mettre en place, mais elle s'avère efficace. D'abord, il faut dialoguer avec une IA comme avec un collègue, parce que c’est rapide et confortable. Mais ensuite, l'analytique, doit ensuite reprendre la main pour vérifier, demander les sources, reformuler, comparer plusieurs pistes. On adopte donc une règle simple. Il faut être convivial dans la forme, et exigent dans le fond. Et si l’IA nous flatte, on lui demande aussitôt les limites de sa réponse. Ni maître, ni gourou, ni élève Et cela pose naturellement la question de la place de l'IA dans notre vie professionnelle. Ni maître, ni gourou, ni élève, mais collègue affirme Serge Tisseron. Et surtout, on impose des garde-fous, comme lui demander de citer des sources quand c’est possible, de signaler l’incertitude, et de versionner les étapes. Utilisez la convivialité pour aller vite, et l’esprit critique pour aller juste dit le psychiatre. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 19, 2025

  • Pourquoi l'alignement de l'IA devient un sujet crucial ? cover
    Pourquoi l'alignement de l'IA devient un sujet crucial ? cover
    Pourquoi l'alignement de l'IA devient un sujet crucial ?

    C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent. L’alignement des intelligences artificielles (https://www.zdnet.fr/intelligence-artificielle-ia-4000237536q.htm), en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs. Pourquoi l'alignement est crucial Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé. Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif (https://www.ibm.com/fr-fr/think/topics/ai-alignment), parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme. Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt. Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement. Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes. Robustesse, Interopérabilité, Contrôlabilité et Éthique Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE (https://www.microsoft.com/en-us/microsoft-365-life-hacks/organization/understanding-the-rice-model-and-its-framework), et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique. La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques. L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA. Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter. Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement. Comment faire de l'alignement ? Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince. Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF (https://www.zdnet.fr/actualites/comment-fonctionne-chatgpt-39955306.htm) pour Reinforcement learning from human feedback. Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent. Bref, le fameux “problème de l’alignement” reste ouvert. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    03min | Published on August 18, 2025

  • Linux fait son petit bout de chemin côté grand public cover
    Linux fait son petit bout de chemin côté grand public cover
    Linux fait son petit bout de chemin côté grand public

    Aujourd'hui, on parle d'une tendance qui, contre toute attente, montre que le système d'exploitation Linux fait son petit bout de chemin sur les bureaux des consommateurs. Une analyse récente de Lansweeper, une société spécialisée dans la découverte d'actifs informatiques, nous révèle des chiffres étonnants sur la part de marché des desktops Linux (https://www.zdnet.fr/guide-achat/les-meilleures-distributions-de-bureau-linux-pour-les-debutants-2021-39932715.htm). La part de marché de Linux grimpe ! D'après Lansweeper, Linux représente désormais plus de 6 % du marché des PC de bureau, un chiffre confirmé par d'autres études récentes. Par exemple, l'analyse de la société StatCounter montre que Linux a atteint un pic de 5,24 % en juillet. On pourrait se dire que c'est marginal. Mais pour un système longtemps perçu comme réservé aux développeurs ou aux utilisateurs avancés, c’est un véritable signe de croissance. De grandes différences entre le marché entreprise et le marché grand public Mais, et c'est le second point, il existe de grandes différences entre le marché entreprise et le marché grand public. Ce qui est intéressant dans l'étude, c'est la distinction en effet entre les ordinateurs personnels et ceux gérés par des entreprises. Sur les PC grand public, Linux gagne réellement du terrain, notamment en Europe. En revanche, dans le monde des entreprises, son adoption reste plus faible, à environ 1,9 %. Mais cela est peut-être en train de changer. Les entreprises commencent en effet à adopter Linux grâce à des fonctionnalités comme l’intégration avec Active Directory, un point essentiel pour les infrastructures d'entreprise. Une croissance mondiale Enfin le troisième point c'est que ce phénomène de croissance de Linux est mondial. Mais l'adoption de Linux varie également selon les régions. En Europe, on remarque que les services aux entreprises, la grande distribution et même certains gouvernements se tournent de plus en plus vers Linux, notamment en raison des récentes décisions politiques. En revanche, en Amérique du Nord, ce sont surtout les secteurs de la technologie et des télécommunications qui montrent une plus grande adoption de Linux, notamment pour les avantages de l'open source et sa flexibilité. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 14, 2025

  • La recharge sans fil pour smartphone Qi2 à 25 watts arrive ! cover
    La recharge sans fil pour smartphone Qi2 à 25 watts arrive ! cover
    La recharge sans fil pour smartphone Qi2 à 25 watts arrive !

    Aujourd’hui, parlons d’une petite révolution qui arrive tout bientôt pour vos smartphones. Il s'agit de l’arrivée de la recharge sans fil Qi2 à 25 watts. Et cette avancée pourrait bien faire oublier évidemment les bons vieux câbles USB-C. Qu’est-ce que Qi2 25 watts ? C’est une nouvelle norme développée par le Wireless Power Consortium (https://www.wirelesspowerconsortium.com/), qui regroupe plus de 300 acteurs du secteur. Elle permet une recharge magnétique sans fil allant jusqu’à 25 watts. Et pour vous donner une idée, cela signifie que la recharge est près de 70 % plus rapide que la version précédente, limitée à 15 watts. Et surtout, cette puissance est désormais standardisée et certifiée, ce qui garantit une compatibilité fiable entre marques. Qui va pouvoir en bénéficier ? Les iPhones seront bien sûr compatibles, mais la grande nouveauté, c’est l’ouverture vers Android. Jusqu’ici, chaque constructeur Android proposait son propre protocole de recharge, souvent peu compatible avec les autres appareils. Avec Qi2, on entre dans un monde où un chargeur pourra fonctionner indifféremment avec un Google Pixel, un Samsung Galaxy ou un iPhone d'Apple, à condition que le smartphone intègre les aimants nécessaires à l’alignement magnétique. Quels smartphones Android sont d'ors et déjà prêts ? Eh bien, selon les dernières fuites, le Pixel 10, attendu pour la fin août, serait le premier Android à intégrer nativement ces aimants. Cela signifie qu'l y aura une recharge magnétique sans besoin de coque spéciale. D’autres modèles, comme les Galaxy S25 (https://www.zdnet.fr/guide-achat/prise-en-main-samsung-galaxy-s25-et-s25-les-fonctions-dintelligence-artificielle-sont-etonnamment-avancees-405232.htm), pourraient être compatibles, mais nécessiteraient encore une coque magnétique supplémentaire. Bref, c’est un vrai tournant pour Android, qui pourrait enfin rivaliser avec l’écosystème MagSafe d’Apple. (https://www.zdnet.fr/guide-achat/les-4-meilleurs-batteries-magsafe-39952132.htm) Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 13, 2025

  • 1
    2

    ...

    42

Description

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.   


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.   


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

415 episodes

24 playlists

  • Et voici les faux numéros de service client générés par l'IA cover
    Et voici les faux numéros de service client générés par l'IA cover
    Et voici les faux numéros de service client générés par l'IA

    Et aujourd’hui, voici une nouvelle forme d’arnaque qui prend de l’ampleur. Il s'agit des faux numéros de service client générés par l’intelligence artificielle. Oui, vous avez bien entendu. Des personnes se sont déjà fait piéger en appelant ce qu’elles pensaient être le service client officiel d’une grande entreprise, mais qui en réalité était un numéro frauduleux proposé par Google AI (https://www.zdnet.fr/actualites/google-muscle-son-ia-face-a-chatgpt-search-et-perplexity-479068.htm) ou même ChatGPT. Alors, comment ça marche ? De plus en plus de personnes font de plus en plus confiance dans l’IA Quand on cherche un numéro sur Google en mode classique, on voit plusieurs résultats, on compare, on recoupe. Mais avec les nouveaux résumés générés par l’IA, on reçoit une seule réponse présentée comme “la bonne”. Résultat, plus de chances de tomber directement dans le piège sans vérifier. La sophistication des arnaques Car oui les victimes ne sont pas naïves, mais souvent font face à des escrocs particulièrement malins. Les escrocs ne se contentent pas de décrocher et de demander votre carte bancaire. Ils imitent à la perfection les procédures des vraies entreprises. Et voici un exemple cité par The Washington Post. Un dirigeant pensait appeler Royal Caribbean, et l’arnaqueur connaissait les bons tarifs, la bonne terminologie, et a réussi à obtenir ses coordonnées bancaires avant qu’il ne réalise la supercherie. Tout ceci repose aussi sur une faille technique Des experts en cybersécurité expliquent que ces escroqueries reposent parfois sur une technique dite de “prompt injection”. En clair, les pirates manipulent les modèles d’IA pour qu’ils intègrent un faux numéro dans leur réponse. Google et OpenAI assurent travailler sur des correctifs, mais le problème persiste, surtout sur des requêtes rares. La leçon à retenir, c’est qu’il ne faut jamais faire confiance aveuglément à un numéro de téléphone affiché par une IA. Si vous cherchez le service client d’une entreprise, allez directement sur son site officiel ou utilisez une recherche classique pour croiser plusieurs résultats. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on September 8, 2025

  • Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ? cover
    Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ? cover
    Et si l'IA vous permettait de vous lancer dans le monde de l'entreprenariat ?

    Aujourd’hui, on parle de l’avenir des carrières dans l’informatique à l’heure de l’intelligence artificielle. Alors, faut-il encore miser sur les études en informatique, ou chercher ailleurs ? L’effet inquiétant de l’IA sur l’emploi commence à se faire sentir D'abord, il faut bien noter que l’effet inquiétant de l’IA sur l’emploi commence à se faire sentir. (https://www.zdnet.fr/actualites/voici-les-emplois-qui-risquent-le-plus-detre-pris-en-charge-par-lia-selon-microsoft-479790.htm) Comme le souligne un article récent du New York Times, les outils de programmation dopés à l’IA peuvent désormais générer des milliers de lignes de code en un clin d’œil. Ajoutez à cela les vagues de licenciements chez Amazon, Meta ou Microsoft, et on obtient une équation qui refroidit beaucoup d’étudiants en informatique. Bref, le fameux "golden ticket" vers une carrière tech semble un peu terni. La relation entre l’IA et le monde de l'emploi est plus complexe Oui, parce que si l’IA peut tuer certains emplois, elle en crée d’autres (https://www.zdnet.fr/actualites/ces-15-nouveaux-emplois-que-lia-pourrait-creer-un-nouveau-job-pour-vous-478059.htm). Les compétences liées au développement de modèles d'IA, à la gouvernance des données ou encore à l’éthique de l’IA sont très recherchées. Devenir spécialiste en supervision de l’IA, c’est aujourd’hui un pari gagnant. L’IA peut aussi être vu comme un tremplin entrepreneurial Et c’est peut-être là le plus grand bouleversement. Pour les créateurs de startups, l’IA est une arme redoutable. (https://www.zdnet.fr/pratique/entreprenariat-comment-utiliser-les-outils-dia-pour-faciliter-la-creation-dentreprise-394390.htm) Elle permet de prototyper une idée en quelques semaines, d'automatiser des tâches coûteuses, et peut-être de rivaliser avec de grands groupes. Comme le dit le capital-risqueur Spiros Margaris, “devenir AI-first n’est plus une option, c’est une condition de survie”. Mais attention, IA ne rime pas avec facilité. Elle apporte aussi son lot de défis, notamment dans les domaines de la cybersécurité et de la réglementation. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 27, 2025

  • Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA cover
    Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA cover
    Google Traduction lorgne du côté de Duolingo et Babbel grâce à l'IA

    Aujourd’hui, on parle d’un gros chantier chez Google Traduction qui devrait nous être livré sous peu. L’application de traduction s’apprête à intégrer plus largement l’IA Gemini (https://www.zdnet.fr/gemini-6728q.htm) et à vous laisser choisir votre “style” de traduction. Deux modes avec deux promesses différentes Une nouvelle option “model picker” va apparaître en haut de l’écran pour basculer entre deux modes. Le mode rapide est pensé pour la vitesse et l’efficacité. Le mode avancé s’appuie sur Gemini pour privilégier le contexte et la précision. À ce stade, le mode avancé ne fonctionnerait que pour quelques paires de langues, dont l'anglais et le français. En clair, c’est un pas vers des traductions plus naturelles. Google traduction lorgne du côté de Duolingo et Babbel Ensuite, Google Traduction va embarquer un nouveau mode qui lorgne du côté de ses désormais concurrents Duolingo et Babbel. Google teste en effet un espace d’entraînement, avec des leçons courtes, des objectifs à atteindre, et des scénarios de conversation du quotidien. Mieux, vous pouvez créer vos propres exercices. Pour l’instant, les entraînements disponibles concernent surtout l’espagnol et le français, mais la mécanique se veut extensible. A quoi s’attendre côté usage pro ? D’abord, un arbitrage assumé entre latence et qualité. Le mode rapide conviendra pour déchiffrer un mail ou un message instantané en urgence. Le mode avancé sera lui taillé pour un brief client, un support technique ou une réponse commerciale où le ton et le contexte comptent. Ensuite, l’ergonomie à lécran bouge. Le micro est plus discret et déplacé à droite, la ligne de boutons est placée en bas de l'interface pour un usage à une main. Tout cela confirme un cap, amener l’IA de compréhension du langage au cœur de l’interprétation. Mais et c'est important, Google n’a pas encore officialisé le calendrier. Et certaines fonctions pourraient évoluer avant la sortie grand public. Mais la direction est claire. Google Traduction va faire moins de traductions “mot à mot”, proposer un coach linguistique. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 25, 2025

  • Comment l'augmentation de données permet de mieux faire fonctionner des IA cover
    Comment l'augmentation de données permet de mieux faire fonctionner des IA cover
    Comment l'augmentation de données permet de mieux faire fonctionner des IA

    Aujourd’hui, on parle d’augmentation des données dans le monde de l'intelligence artificielle. Derrière ce terme, une idée simple. Il s'agit de créer, à partir de vos données existantes, de nouvelles variantes synthétiques pour entraîner des modèles de machine learning (https://www.zdnet.fr/actualites/ia-et-machine-learning-idees-recues-et-pratiques-peu-repandues-39964696.htm) plus robustes. Pourquoi c’est utile ? Parce que dans la vraie vie, les jeux de données sont souvent limités, sensibles, ou pas assez variés. Alors on enrichit artificiellement le jeu d’entraînement… mais intelligemment. Je vous propose trois points pour tout comprendre avec l'aide d'une documentation AWS sur le sujet. (https://aws.amazon.com/fr/what-is/data-augmentation/) L'augmentation de données, à quoi ça sert, concrètement ? L’augmentation des données améliore la performance et la généralisation des modèles. En multipliant les versions d’une même donnée, une image un peu plus sombre, un texte reformulé, un son avec un léger bruit, le modèle voit plus de cas et se trompe moins sur des données qu’il n’a jamais vues. Et cette augmentation des données réduit la dépendance à de très gros jeux de données, donc coûte moins cher. Elle limite également le sur-apprentissage, le fameux overfitting, où le modèle « apprend par cœur » ses exemples sans savoir généraliser. L'augmentation de données, comment ça marche, en pratique ? D'abord, les spécialistes de l'IA auditent le jeu de données et appliquent des transformations et des déclinaisons adaptées. Il peut s'agir de retournement et de changement de contraste pour une image. Mais aussi d'ajout de bruit et de variation de vitesse pour un son. Ou encore de permutation de mots et de paraphrases pour un texte. Mais attention, si vos données de départ sont biaisées, vos données augmentées hériteront de ces biais. Il faut donc les corriger à la source avant l'entraînement. Enfin troisième point, quels sont les premiers cas d'usage ? Dans le domaine de la santé, on multiplie les versions des images médicales pour mieux détecter des pathologies rares. En finance, on génère des scénarios de fraude ou des séries de risque pour entraîner la détection et le scoring. Dans la grande distribution, on varie angles, fonds et éclairages de photos de produits pour les faire reconnaître par l'IA en conditions réelles. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 22, 2025

  • L'apprentissage zero-shot de l'IA, qu'est ce que c'est ? cover
    L'apprentissage zero-shot de l'IA, qu'est ce que c'est ? cover
    L'apprentissage zero-shot de l'IA, qu'est ce que c'est ?

    Aujourd’hui, on parle d’« apprentissage zero-shot », ou ZSL pour zero shot learning. En clair, c’est la capacité d’un modèle d'IA (https://www.zdnet.fr/guide-achat/les-meilleurs-modeles-dia-open-source-toutes-les-options-gratuites-expliquees-pour-vous-401011.htm) à reconnaître ou classer des choses qu’il n’a jamais vues lors de son entraînement. Et voici l’essentiel en trois points sur la base d'un document d'explication d'IBM. (https://www.ibm.com/fr-fr/think/topics/zero-shot-learning) Le ZSL, à quoi ça sert ? Alors dans un premier temps, à quoi ça sert et en quoi c’est différent des méthodes d'apprentissage classiques utilisées par les concepteurs d'intelligence artificielle. La plupart des modèles d'IA apprennent en mode supervisé. C'est à dire qu'on leur montre des milliers d’exemples étiquetés, d'un chat par exemple. Et le système apprend à reconnaître un chat avec cette méthode. Le problème, c'est que étiqueter des données coûte cher, prend du temps, et surtout que certaines classes sont rares, voire inédites, comme les nouvelles maladies, des espèces animales peu documentées, ou encore un nouveau type d’attaque informatique. Le zero-shot répond donc à cette contrainte. Le ZSL, comment ça marche ? Au lieu d’apprendre à reconnaître un oiseau en regardant des photos étiquetées, l'entraînement consiste à lire à l'IA une définition qui contient par exemple plumes, bec, et ailes. L'IA apprend ainsi à reconnaître un oiseau sans l’avoir vu auparavant. Le modèle s’appuie donc sur des connaissances auxiliaires. Le modèle ne dessine donc pas directement une frontière entre les classes qu’il a vues, mais calcule des scores de probabilité à partir des connaissances auxiliaires. À noter que les grands modèles de langage, les LLM (https://www.zdnet.fr/pratique/quest-ce-quun-llm-tout-ce-que-vous-devez-savoir-sur-ce-qui-se-cache-derriere-lia-generative-476377.htm), excellent souvent dans l'exercice de zero-shot. Pourquoi ? Parce qu’ils comprennent les étiquettes en langage naturel et peuvent classer, extraire, résumer ou suivre des instructions sans exemples, simplement via la consigne, c'est à dire le prompt. Le zero-shot a aussi ses limites Enfin, le troisième point, c'est que le zero-shot a aussi ses limites. Et je vous donne direct un exemple pour que vous compreniez bien. En se basant sur les étiquettes et non les images étiquetées, difficile de savoir si le mot jaguar fait référence à une marque de voiture ou à un animal. Cette sensibilité sémantique fait chuter les performances si le domaine réel s’éloigne trop de ce que le modèle d'IA a appris. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 21, 2025

  • Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ? cover
    Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ? cover
    Qu'est-ce que l’apprentissage automatique, dit aussi machine learning ?

    Aujourd’hui, on démêle un grand classique : l’apprentissage automatique, ou machine learning (https://www.zdnet.fr/machine-learning-4000237825q.htm). Qu’est-ce que c’est, comment ça s’entraîne, et quels sont ses enjeux concrets en entreprise ? Voici trois points pour aller à l’essentiel, puisés dans une page d'assistance de Red Hat. (https://www.redhat.com/fr/topics/ai/what-is-machine-learning) Qu'est ce que c’est et comment ça marche ? L’apprentissage automatique, c’est une branche de l’IA (https://www.zdnet.fr/actualites/machine-learning-en-pratique-quelles-competences-quelles-ressources-39920503.htm) où l’on apprend à des algorithmes à repérer des traces identiques dans des données. Il peut d'agir de chiffres, de texte, ou encore d'images. Et pour y parvenir, on prend un modèle d'IA et on le nourrit de données. Côté méthode, tout commence par un pipeline bien huilé : Collecte et préparation des données Séparation de l'entraînement, des tests et de la validation Et souvent réduction des données pour ne garder que l’utile Et il faut faire face à quelques écueils, comme le surentraînement et le sous-entraînement, qui faussent les résultats attendus. Et il faut aussi surveiller la “fuite de données” quand, par erreur, des infos du test contaminent l’entraînement. Le machine learning est renforcé par les réseaux de neurones Le second point c'est que de nos jours, le machine learning est renforcé par les réseaux de neurones. C'est ce que l'on appelle l’apprentissage profond, ou deep learning (https://www.zdnet.fr/pratique/qu-est-ce-que-l-apprentissage-profond-voici-tout-ce-qu-il-faut-en-savoir-39964504.htm), ou s'empilent dans le réseau neuronal plusieurs couches pour apprendre des représentations de plus en plus abstraites. C'est cette évolution qui donne aujourd'hui des performances remarquables en vision, en reconnaissance vocale et en traitement du langage. L'apprentissage profond est même le socle de l’IA générative et des grands modèles de langage (https://www.zdnet.fr/pratique/quest-ce-quun-llm-tout-ce-que-vous-devez-savoir-sur-ce-qui-se-cache-derriere-lia-generative-476377.htm), qui sont désormais capables de produire du texte, de résumer, ou d'assister la recherche. Pourquoi un usage responsable est-il nécessaire ? Le troisième point c'est que la surpuissance actuelle de l'IA générative et de l'apprentissage automatique exige un usage responsable. Comme les modèles apprennent sur l’historique, ils peuvent hériter de biais présents dans les données et amplifier ces biais dans des décisions sensibles, dans les domaines du recrutement, de l'attribution de crédit bancaire, ou encore en matière de décision de justice. D’où l’importance de méthodes et d’outils d’explicabilité (https://www.zdnet.fr/actualites/quand-l-accessibilite-et-l-explicabilite-de-l-ia-accelere-son-adoption-en-entreprise-39931469.htm) pour sortir l'IA de son image de “boîte noire”. En résumé, l’apprentissage automatique, c’est la capacité d’extraire des patterns des données pour décrire, prédire et recommander. Et l’apprentissage profond décuple ces possibilités. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    03min | Published on August 20, 2025

  • Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ? cover
    Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ? cover
    Faut-il vraiment lutter contre l'anthropomorphisme en matière d'IA ?

    Aujourd’hui, on s’attaque à un sujet délicat : faut-il vraiment se méfier de l’anthropomorphisme avec les IA (https://www.zdnet.fr/intelligence-artificielle-ia-4000237536q.htm), ou bien apprendre à l’apprivoiser sans se faire piéger ? Mais avant tout, un peu de définition. Qu'est ce que l’anthropomorphisme dans le domaine de l'IA ? Et bien c'est tout simplement notre tendance naturelle à considérer les IA comme des humains. Et cela s'observe de plus en plus avec les chatbot comme ChatGPT, auxquels de plus en plus de personnes confient dans le cadre de dialogues leurs états d'âmes. L’anthropomorphisme n’est pas une faute, c’est un réflexe Le premier point, mentionne le psychiatre et psychanalyste Serge Tisseron (https://sergetisseron.com/blog/ia-generatives-oui-a-lanthropomorphisme-non-a-lanthropocentrisme/), c'est que l’anthropomorphisme n’est pas une faute, c’est un réflexe. Depuis longtemps, nous traitons spontanément les ordinateurs comme s'il s'agissait de personnes réelles. Et ce n’est pas de la naïveté, c’est une stratégie mentale bien pratique. Car dire « merci » à une machine ou lui parler naturellement fluidifie l’interaction et réduit notre charge cognitive. La clé est donc d’admettre ce réflexe mais de garder en tête que la machine, elle, n’éprouve rien. Une petite gymnastique à mettre en place C'est une petite gymnastique à mettre en place, mais elle s'avère efficace. D'abord, il faut dialoguer avec une IA comme avec un collègue, parce que c’est rapide et confortable. Mais ensuite, l'analytique, doit ensuite reprendre la main pour vérifier, demander les sources, reformuler, comparer plusieurs pistes. On adopte donc une règle simple. Il faut être convivial dans la forme, et exigent dans le fond. Et si l’IA nous flatte, on lui demande aussitôt les limites de sa réponse. Ni maître, ni gourou, ni élève Et cela pose naturellement la question de la place de l'IA dans notre vie professionnelle. Ni maître, ni gourou, ni élève, mais collègue affirme Serge Tisseron. Et surtout, on impose des garde-fous, comme lui demander de citer des sources quand c’est possible, de signaler l’incertitude, et de versionner les étapes. Utilisez la convivialité pour aller vite, et l’esprit critique pour aller juste dit le psychiatre. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 19, 2025

  • Pourquoi l'alignement de l'IA devient un sujet crucial ? cover
    Pourquoi l'alignement de l'IA devient un sujet crucial ? cover
    Pourquoi l'alignement de l'IA devient un sujet crucial ?

    C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent. L’alignement des intelligences artificielles (https://www.zdnet.fr/intelligence-artificielle-ia-4000237536q.htm), en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs. Pourquoi l'alignement est crucial Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé. Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif (https://www.ibm.com/fr-fr/think/topics/ai-alignment), parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme. Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt. Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement. Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes. Robustesse, Interopérabilité, Contrôlabilité et Éthique Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE (https://www.microsoft.com/en-us/microsoft-365-life-hacks/organization/understanding-the-rice-model-and-its-framework), et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique. La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques. L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA. Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter. Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement. Comment faire de l'alignement ? Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince. Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF (https://www.zdnet.fr/actualites/comment-fonctionne-chatgpt-39955306.htm) pour Reinforcement learning from human feedback. Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent. Bref, le fameux “problème de l’alignement” reste ouvert. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    03min | Published on August 18, 2025

  • Linux fait son petit bout de chemin côté grand public cover
    Linux fait son petit bout de chemin côté grand public cover
    Linux fait son petit bout de chemin côté grand public

    Aujourd'hui, on parle d'une tendance qui, contre toute attente, montre que le système d'exploitation Linux fait son petit bout de chemin sur les bureaux des consommateurs. Une analyse récente de Lansweeper, une société spécialisée dans la découverte d'actifs informatiques, nous révèle des chiffres étonnants sur la part de marché des desktops Linux (https://www.zdnet.fr/guide-achat/les-meilleures-distributions-de-bureau-linux-pour-les-debutants-2021-39932715.htm). La part de marché de Linux grimpe ! D'après Lansweeper, Linux représente désormais plus de 6 % du marché des PC de bureau, un chiffre confirmé par d'autres études récentes. Par exemple, l'analyse de la société StatCounter montre que Linux a atteint un pic de 5,24 % en juillet. On pourrait se dire que c'est marginal. Mais pour un système longtemps perçu comme réservé aux développeurs ou aux utilisateurs avancés, c’est un véritable signe de croissance. De grandes différences entre le marché entreprise et le marché grand public Mais, et c'est le second point, il existe de grandes différences entre le marché entreprise et le marché grand public. Ce qui est intéressant dans l'étude, c'est la distinction en effet entre les ordinateurs personnels et ceux gérés par des entreprises. Sur les PC grand public, Linux gagne réellement du terrain, notamment en Europe. En revanche, dans le monde des entreprises, son adoption reste plus faible, à environ 1,9 %. Mais cela est peut-être en train de changer. Les entreprises commencent en effet à adopter Linux grâce à des fonctionnalités comme l’intégration avec Active Directory, un point essentiel pour les infrastructures d'entreprise. Une croissance mondiale Enfin le troisième point c'est que ce phénomène de croissance de Linux est mondial. Mais l'adoption de Linux varie également selon les régions. En Europe, on remarque que les services aux entreprises, la grande distribution et même certains gouvernements se tournent de plus en plus vers Linux, notamment en raison des récentes décisions politiques. En revanche, en Amérique du Nord, ce sont surtout les secteurs de la technologie et des télécommunications qui montrent une plus grande adoption de Linux, notamment pour les avantages de l'open source et sa flexibilité. Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 14, 2025

  • La recharge sans fil pour smartphone Qi2 à 25 watts arrive ! cover
    La recharge sans fil pour smartphone Qi2 à 25 watts arrive ! cover
    La recharge sans fil pour smartphone Qi2 à 25 watts arrive !

    Aujourd’hui, parlons d’une petite révolution qui arrive tout bientôt pour vos smartphones. Il s'agit de l’arrivée de la recharge sans fil Qi2 à 25 watts. Et cette avancée pourrait bien faire oublier évidemment les bons vieux câbles USB-C. Qu’est-ce que Qi2 25 watts ? C’est une nouvelle norme développée par le Wireless Power Consortium (https://www.wirelesspowerconsortium.com/), qui regroupe plus de 300 acteurs du secteur. Elle permet une recharge magnétique sans fil allant jusqu’à 25 watts. Et pour vous donner une idée, cela signifie que la recharge est près de 70 % plus rapide que la version précédente, limitée à 15 watts. Et surtout, cette puissance est désormais standardisée et certifiée, ce qui garantit une compatibilité fiable entre marques. Qui va pouvoir en bénéficier ? Les iPhones seront bien sûr compatibles, mais la grande nouveauté, c’est l’ouverture vers Android. Jusqu’ici, chaque constructeur Android proposait son propre protocole de recharge, souvent peu compatible avec les autres appareils. Avec Qi2, on entre dans un monde où un chargeur pourra fonctionner indifféremment avec un Google Pixel, un Samsung Galaxy ou un iPhone d'Apple, à condition que le smartphone intègre les aimants nécessaires à l’alignement magnétique. Quels smartphones Android sont d'ors et déjà prêts ? Eh bien, selon les dernières fuites, le Pixel 10, attendu pour la fin août, serait le premier Android à intégrer nativement ces aimants. Cela signifie qu'l y aura une recharge magnétique sans besoin de coque spéciale. D’autres modèles, comme les Galaxy S25 (https://www.zdnet.fr/guide-achat/prise-en-main-samsung-galaxy-s25-et-s25-les-fonctions-dintelligence-artificielle-sont-etonnamment-avancees-405232.htm), pourraient être compatibles, mais nécessiteraient encore une coque magnétique supplémentaire. Bref, c’est un vrai tournant pour Android, qui pourrait enfin rivaliser avec l’écosystème MagSafe d’Apple. (https://www.zdnet.fr/guide-achat/les-4-meilleurs-batteries-magsafe-39952132.htm) Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous ! (https://smartlink.ausha.co/zd-tech-tout-comprendre) Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.

    02min | Published on August 13, 2025

  • 1
    2

    ...

    42