undefined cover
undefined cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
Cogitons sciences

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

42min |03/05/2021
Play
undefined cover
undefined cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
Cogitons sciences

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

42min |03/05/2021
Play

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 


Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans cet épisode de Cogitons Sciences. 


Les nouvelles technologies numériques nous sont-elles imposées ? [1:26 - 12:53]

Selon le président du COMETS, nous serions “individuellement très contraints” car il serait “difficile de refuser une nouvelle norme de transmission de données, comme la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône des “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoirecollectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  


Vers une innovation numérique responsable ? [13:05 - 24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société.“, explique Christine Balagué.


À l’origine des biais discriminants des algorithmes [24:22 - 28:59]

A propos des effets de discrimination des algorithmes, “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”, nous informe Christine Balagué.


Les algorithmes en milieu professionnel [29:25 - 34:37] 

Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Il poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.


La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55 - 37:54] 

On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, répond Christine Balagué. Deux règles sont mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

  • La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek, où le mot “robot” est apparu pour la première fois. 

  • La notion de “privacy by design” (RGPD)

  • L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

  • Les webinars disponibles sur le site de la chaire “Good in Tech”

  • Les rapports du Conseil supérieur de l’audiovisuel sur les fake news

  • Les rapports disponibles sur les sites du COMETS, de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene et du Comité national pilote d'éthique du numérique.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 


Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans cet épisode de Cogitons Sciences. 


Les nouvelles technologies numériques nous sont-elles imposées ? [1:26 - 12:53]

Selon le président du COMETS, nous serions “individuellement très contraints” car il serait “difficile de refuser une nouvelle norme de transmission de données, comme la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône des “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoirecollectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  


Vers une innovation numérique responsable ? [13:05 - 24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société.“, explique Christine Balagué.


À l’origine des biais discriminants des algorithmes [24:22 - 28:59]

A propos des effets de discrimination des algorithmes, “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”, nous informe Christine Balagué.


Les algorithmes en milieu professionnel [29:25 - 34:37] 

Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Il poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.


La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55 - 37:54] 

On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, répond Christine Balagué. Deux règles sont mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

  • La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek, où le mot “robot” est apparu pour la première fois. 

  • La notion de “privacy by design” (RGPD)

  • L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

  • Les webinars disponibles sur le site de la chaire “Good in Tech”

  • Les rapports du Conseil supérieur de l’audiovisuel sur les fake news

  • Les rapports disponibles sur les sites du COMETS, de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene et du Comité national pilote d'éthique du numérique.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Share

Embed

You may also like

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 


Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans cet épisode de Cogitons Sciences. 


Les nouvelles technologies numériques nous sont-elles imposées ? [1:26 - 12:53]

Selon le président du COMETS, nous serions “individuellement très contraints” car il serait “difficile de refuser une nouvelle norme de transmission de données, comme la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône des “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoirecollectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  


Vers une innovation numérique responsable ? [13:05 - 24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société.“, explique Christine Balagué.


À l’origine des biais discriminants des algorithmes [24:22 - 28:59]

A propos des effets de discrimination des algorithmes, “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”, nous informe Christine Balagué.


Les algorithmes en milieu professionnel [29:25 - 34:37] 

Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Il poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.


La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55 - 37:54] 

On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, répond Christine Balagué. Deux règles sont mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

  • La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek, où le mot “robot” est apparu pour la première fois. 

  • La notion de “privacy by design” (RGPD)

  • L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

  • Les webinars disponibles sur le site de la chaire “Good in Tech”

  • Les rapports du Conseil supérieur de l’audiovisuel sur les fake news

  • Les rapports disponibles sur les sites du COMETS, de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene et du Comité national pilote d'éthique du numérique.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 


Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans cet épisode de Cogitons Sciences. 


Les nouvelles technologies numériques nous sont-elles imposées ? [1:26 - 12:53]

Selon le président du COMETS, nous serions “individuellement très contraints” car il serait “difficile de refuser une nouvelle norme de transmission de données, comme la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône des “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoirecollectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  


Vers une innovation numérique responsable ? [13:05 - 24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société.“, explique Christine Balagué.


À l’origine des biais discriminants des algorithmes [24:22 - 28:59]

A propos des effets de discrimination des algorithmes, “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”, nous informe Christine Balagué.


Les algorithmes en milieu professionnel [29:25 - 34:37] 

Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Il poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.


La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55 - 37:54] 

On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, répond Christine Balagué. Deux règles sont mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

  • La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek, où le mot “robot” est apparu pour la première fois. 

  • La notion de “privacy by design” (RGPD)

  • L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

  • Les webinars disponibles sur le site de la chaire “Good in Tech”

  • Les rapports du Conseil supérieur de l’audiovisuel sur les fake news

  • Les rapports disponibles sur les sites du COMETS, de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene et du Comité national pilote d'éthique du numérique.

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Share

Embed

You may also like