[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
Cogitons sciences

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

42min |03/05/2021
Listen
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique cover
Cogitons sciences

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

[Sciences et éthique #3] Biais, fantasmes, et pratique du numérique

42min |03/05/2021
Listen

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans ce troisième épisode de Cogitons Sciences. 

Les nouvelles technologies numériques nous sont-elles imposées ? [1:26] - [12:53]

Selon le président du COMETS, concernant la 5G par exemple, nous serions “individuellement très contraints” car serait “difficile de refuser une nouvelle norme de transmission de données, comme par exemple la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône les “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoire” collectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  

Vers une innovation numérique responsable ? [13:05] - [24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. On parle alors avec Christine Balagué d’innovation numérique responsable. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société”. “

À l’origine des biais discriminants des algorithmes [24:22] - [28:59]

Les effets de discrimination des algorithmes viennent de deux parties, nous informe Christine Balagué : “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”

Les algorithmes en milieu professionnel [29:25] - [34:37] 

“Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Le président du COMETS poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.

La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55] - [37:54] 

“On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, nous répond Christine Balagué. Aujourd'hui, deux règles ont été mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek et où le mot “robot” est apparu pour la première fois. 

La notion de “privacy by design” (RGPD)

L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

Les ressources, dont des webinars, disponibles sur le site de la chaire “Good in Tech”

Les rapports du CSA (Conseil supérieur de l’audiovisuel) sur les fake news

Les rapports disponibles sur les sites du COMETS, de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene)  et du CNPEN (Comité national pilote d'éthique du numérique)

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans ce troisième épisode de Cogitons Sciences. 

Les nouvelles technologies numériques nous sont-elles imposées ? [1:26] - [12:53]

Selon le président du COMETS, concernant la 5G par exemple, nous serions “individuellement très contraints” car serait “difficile de refuser une nouvelle norme de transmission de données, comme par exemple la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône les “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoire” collectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  

Vers une innovation numérique responsable ? [13:05] - [24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. On parle alors avec Christine Balagué d’innovation numérique responsable. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société”. “

À l’origine des biais discriminants des algorithmes [24:22] - [28:59]

Les effets de discrimination des algorithmes viennent de deux parties, nous informe Christine Balagué : “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”

Les algorithmes en milieu professionnel [29:25] - [34:37] 

“Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Le président du COMETS poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.

La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55] - [37:54] 

“On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, nous répond Christine Balagué. Aujourd'hui, deux règles ont été mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek et où le mot “robot” est apparu pour la première fois. 

La notion de “privacy by design” (RGPD)

L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

Les ressources, dont des webinars, disponibles sur le site de la chaire “Good in Tech”

Les rapports du CSA (Conseil supérieur de l’audiovisuel) sur les fake news

Les rapports disponibles sur les sites du COMETS, de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene)  et du CNPEN (Comité national pilote d'éthique du numérique)

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Share

Embed

You may also like

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans ce troisième épisode de Cogitons Sciences. 

Les nouvelles technologies numériques nous sont-elles imposées ? [1:26] - [12:53]

Selon le président du COMETS, concernant la 5G par exemple, nous serions “individuellement très contraints” car serait “difficile de refuser une nouvelle norme de transmission de données, comme par exemple la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône les “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoire” collectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  

Vers une innovation numérique responsable ? [13:05] - [24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. On parle alors avec Christine Balagué d’innovation numérique responsable. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société”. “

À l’origine des biais discriminants des algorithmes [24:22] - [28:59]

Les effets de discrimination des algorithmes viennent de deux parties, nous informe Christine Balagué : “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”

Les algorithmes en milieu professionnel [29:25] - [34:37] 

“Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Le président du COMETS poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.

La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55] - [37:54] 

“On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, nous répond Christine Balagué. Aujourd'hui, deux règles ont été mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek et où le mot “robot” est apparu pour la première fois. 

La notion de “privacy by design” (RGPD)

L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

Les ressources, dont des webinars, disponibles sur le site de la chaire “Good in Tech”

Les rapports du CSA (Conseil supérieur de l’audiovisuel) sur les fake news

Les rapports disponibles sur les sites du COMETS, de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene)  et du CNPEN (Comité national pilote d'éthique du numérique)

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Description

Sommes-nous libres de refuser les objets numériques ? Comment faire de l’innovation numérique responsable ? Quid des biais des algorithmes ? 

Christine Balagué, professeure à l’Institut Mines-Télécom Business School, titulaire de la chaire “Good in tech”, et Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université et président du Comité d’éthique du CNRS, répondent à ces questions dans ce troisième épisode de Cogitons Sciences. 

Les nouvelles technologies numériques nous sont-elles imposées ? [1:26] - [12:53]

Selon le président du COMETS, concernant la 5G par exemple, nous serions “individuellement très contraints” car serait “difficile de refuser une nouvelle norme de transmission de données, comme par exemple la 5G ; ou alors il faudrait refuser d’avoir un téléphone portable !” Il prône les “choix éclairés”, adossés à une “bonne maîtrise des technologies”, pour éviter de “s’engager dans un moratoire” collectif contre telle ou telle technologie, “sous prétexte qu’il existe des risques”.  

Vers une innovation numérique responsable ? [13:05] - [24:06]

On peut se demander dans ce cas ce qui peut être faisable au-delà de l’individu et de la communauté des utilisateurs : c’est-à-dire au niveau de l’entreprise elle-même. On parle alors avec Christine Balagué d’innovation numérique responsable. “On a trois critères à l’innovation numérique responsable. La technologie doit avoir un impact positif sur la société ; la technologie doit prendre en compte le fait qu’elle n’impacte pas négativement l’environnement [...] ; et enfin, il faut s’assurer que la technologie n’impacte pas négativement la société”. “

À l’origine des biais discriminants des algorithmes [24:22] - [28:59]

Les effets de discrimination des algorithmes viennent de deux parties, nous informe Christine Balagué : “soit ils viennent de l’algorithme lui-même, c’est-à-dire du traitement ou de l’apprentissage ; soit ils viennent, et c’est ici souvent la majorité des cas, de la base de données qui rentre dans l’algorithme.”

Les algorithmes en milieu professionnel [29:25] - [34:37] 

“Il faut évacuer un certain nombre de craintes qui relèvent plus de la légende et du mythe”, assure Jean-Gabriel Ganascia. Le président du COMETS poursuit : “pour trouver sa place dans cette société de la connaissance, le numérique joue un rôle important. [...] Le risque est de laisser des gens à côté du progrès et donc de les rendre inemployables. Le grand défi est de former l’ensemble de la population aux nouvelles technologies, et les former à tout âge de la vie”.

La désinformation sur les réseaux sociaux, non-éthique par excellence [34:55] - [37:54] 

“On est complètement dans des stratégies non-éthiques lorsqu’on veut diffuser massivement des fake news pour manipuler l’opinion”, nous répond Christine Balagué. Aujourd'hui, deux règles ont été mises en place par les plateformes, développe la chercheuse : “la première est qu’on ne peut pas diffuser de fake news pendant une période électorale ; la deuxième est qu’on ne peut pas diffuser de fake news qui peuvent porter atteinte à la vie d’un individu.” Elle rappelle qu’il existe quand même des technologies d’IA qui permettent de lutter contre… les dérives de l’IA ! 

Références citées : 

La pièce de théâtre R. U. R. écrite en 1920 par Karel Čapek et où le mot “robot” est apparu pour la première fois. 

La notion de “privacy by design” (RGPD)

L’étude “Dissecting racial bias in an algorithm used to manage the health of populations”, publiée le 25 octobre 2019 dans Science.

Ressources pour aller plus loin : 

Les ressources, dont des webinars, disponibles sur le site de la chaire “Good in Tech”

Les rapports du CSA (Conseil supérieur de l’audiovisuel) sur les fake news

Les rapports disponibles sur les sites du COMETS, de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene)  et du CNPEN (Comité national pilote d'éthique du numérique)

Cogitons Sciences est un podcast produit par Techniques de l’Ingénieur. Cet épisode a été réalisé par Intissar El Hajj Mohamed, en collaboration avec Alexandra Vépierre. Le générique a été réalisé par Pierre Ginon et le visuel du podcast a été créé par Camille Van Belle. 

Share

Embed

You may also like