undefined cover
undefined cover
Les entreprises sourient et pleurent quand les pros utilisent l’IA cover
Les entreprises sourient et pleurent quand les pros utilisent l’IA cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Les entreprises sourient et pleurent quand les pros utilisent l’IA

Les entreprises sourient et pleurent quand les pros utilisent l’IA

03min |19/12/2024
Play
undefined cover
undefined cover
Les entreprises sourient et pleurent quand les pros utilisent l’IA cover
Les entreprises sourient et pleurent quand les pros utilisent l’IA cover
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Les entreprises sourient et pleurent quand les pros utilisent l’IA

Les entreprises sourient et pleurent quand les pros utilisent l’IA

03min |19/12/2024
Play

Description

Aujourd’hui, parlons d’un défi de taille pour les entreprises. Il s'agit de contrôler l’utilisation des outils d’intelligence artificielle par leurs salariés. C'est un véritable défi parce que l'invasion de l'IA en entreprise soulève autant d’opportunités que pose des questions.

D'abord, il faut acter désormais l’adoption rapide et discrète de l’IA par les salariés. De nombreux employés se tournent vers des outils comme ChatGPT pour améliorer leur efficacité au travail. Que ce soit pour rédiger des textes, écrire du code ou effectuer des recherches, ces outils se sont glissés dans le quotidien des professionnels, parfois sans l’aval explicite de leurs entreprises.

Un exemple ? Une employée de la néo-banque allemande N26 me racontait la semaine dernière que son manager avait interdit en interne l'utilisation de ChatGPT. Mais que le site était accessible depuis les postes de travail. Ce qui fait que tout le monde l'utilise chez N26.

Et N26 n'est pas seule dans ce cas. Une étude révèle que près d’un quart des employés aux États-Unis utilisent déjà ces technologies chaque semaine, avec des pics atteignant 50 % dans les secteurs comme le logiciel ou la finance.

Beaucoup d’entreprises manquent encore de règles claires

Surtout, face à cette adoption rapide, beaucoup d’entreprises manquent encore de règles claires. Certaines, comme Apple et Samsung, ont commencé par interdire totalement l’usage de ChatGPT, souvent par crainte pour la sécurité des données.

Mais ces interdictions strictes deviennent vite impraticables à long terme. C'est pourquoi N26 a proposé récemment à ses employés l'utilisation de Gemini de Google intégré à Google Workspace, dont la banque est cliente. Mais il est difficile de changer les habitudes une fois que vos employés utilisent de manière tout à fait sauvage et à l'envie ChatGPT.

Il faut donc accompagner les employés en cas de comportements inappropriés, avec une approche non punitive pour éviter la récidive et encourager un usage responsable.

La méfiance de l'IA persiste chez les salariés

Même dans les entreprises où l’IA est acceptée, beaucoup d’employés préfèrent garder pour eux leur utilisation de ces outils. Pourquoi ? Parce qu'ils ont peur d’être jugés comme paresseux.

Pire, ils ont peur de rendre visible une productivité accrue qui pourrait conduire à des suppressions de postes.

L’intégration de l’IA au travail demande donc un équilibre subtil : fournir des outils fiables, établir des règles claires, et surtout, construire une confiance réciproque entre employeurs et salariés.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Aujourd’hui, parlons d’un défi de taille pour les entreprises. Il s'agit de contrôler l’utilisation des outils d’intelligence artificielle par leurs salariés. C'est un véritable défi parce que l'invasion de l'IA en entreprise soulève autant d’opportunités que pose des questions.

D'abord, il faut acter désormais l’adoption rapide et discrète de l’IA par les salariés. De nombreux employés se tournent vers des outils comme ChatGPT pour améliorer leur efficacité au travail. Que ce soit pour rédiger des textes, écrire du code ou effectuer des recherches, ces outils se sont glissés dans le quotidien des professionnels, parfois sans l’aval explicite de leurs entreprises.

Un exemple ? Une employée de la néo-banque allemande N26 me racontait la semaine dernière que son manager avait interdit en interne l'utilisation de ChatGPT. Mais que le site était accessible depuis les postes de travail. Ce qui fait que tout le monde l'utilise chez N26.

Et N26 n'est pas seule dans ce cas. Une étude révèle que près d’un quart des employés aux États-Unis utilisent déjà ces technologies chaque semaine, avec des pics atteignant 50 % dans les secteurs comme le logiciel ou la finance.

Beaucoup d’entreprises manquent encore de règles claires

Surtout, face à cette adoption rapide, beaucoup d’entreprises manquent encore de règles claires. Certaines, comme Apple et Samsung, ont commencé par interdire totalement l’usage de ChatGPT, souvent par crainte pour la sécurité des données.

Mais ces interdictions strictes deviennent vite impraticables à long terme. C'est pourquoi N26 a proposé récemment à ses employés l'utilisation de Gemini de Google intégré à Google Workspace, dont la banque est cliente. Mais il est difficile de changer les habitudes une fois que vos employés utilisent de manière tout à fait sauvage et à l'envie ChatGPT.

Il faut donc accompagner les employés en cas de comportements inappropriés, avec une approche non punitive pour éviter la récidive et encourager un usage responsable.

La méfiance de l'IA persiste chez les salariés

Même dans les entreprises où l’IA est acceptée, beaucoup d’employés préfèrent garder pour eux leur utilisation de ces outils. Pourquoi ? Parce qu'ils ont peur d’être jugés comme paresseux.

Pire, ils ont peur de rendre visible une productivité accrue qui pourrait conduire à des suppressions de postes.

L’intégration de l’IA au travail demande donc un équilibre subtil : fournir des outils fiables, établir des règles claires, et surtout, construire une confiance réciproque entre employeurs et salariés.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like

Description

Aujourd’hui, parlons d’un défi de taille pour les entreprises. Il s'agit de contrôler l’utilisation des outils d’intelligence artificielle par leurs salariés. C'est un véritable défi parce que l'invasion de l'IA en entreprise soulève autant d’opportunités que pose des questions.

D'abord, il faut acter désormais l’adoption rapide et discrète de l’IA par les salariés. De nombreux employés se tournent vers des outils comme ChatGPT pour améliorer leur efficacité au travail. Que ce soit pour rédiger des textes, écrire du code ou effectuer des recherches, ces outils se sont glissés dans le quotidien des professionnels, parfois sans l’aval explicite de leurs entreprises.

Un exemple ? Une employée de la néo-banque allemande N26 me racontait la semaine dernière que son manager avait interdit en interne l'utilisation de ChatGPT. Mais que le site était accessible depuis les postes de travail. Ce qui fait que tout le monde l'utilise chez N26.

Et N26 n'est pas seule dans ce cas. Une étude révèle que près d’un quart des employés aux États-Unis utilisent déjà ces technologies chaque semaine, avec des pics atteignant 50 % dans les secteurs comme le logiciel ou la finance.

Beaucoup d’entreprises manquent encore de règles claires

Surtout, face à cette adoption rapide, beaucoup d’entreprises manquent encore de règles claires. Certaines, comme Apple et Samsung, ont commencé par interdire totalement l’usage de ChatGPT, souvent par crainte pour la sécurité des données.

Mais ces interdictions strictes deviennent vite impraticables à long terme. C'est pourquoi N26 a proposé récemment à ses employés l'utilisation de Gemini de Google intégré à Google Workspace, dont la banque est cliente. Mais il est difficile de changer les habitudes une fois que vos employés utilisent de manière tout à fait sauvage et à l'envie ChatGPT.

Il faut donc accompagner les employés en cas de comportements inappropriés, avec une approche non punitive pour éviter la récidive et encourager un usage responsable.

La méfiance de l'IA persiste chez les salariés

Même dans les entreprises où l’IA est acceptée, beaucoup d’employés préfèrent garder pour eux leur utilisation de ces outils. Pourquoi ? Parce qu'ils ont peur d’être jugés comme paresseux.

Pire, ils ont peur de rendre visible une productivité accrue qui pourrait conduire à des suppressions de postes.

L’intégration de l’IA au travail demande donc un équilibre subtil : fournir des outils fiables, établir des règles claires, et surtout, construire une confiance réciproque entre employeurs et salariés.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Description

Aujourd’hui, parlons d’un défi de taille pour les entreprises. Il s'agit de contrôler l’utilisation des outils d’intelligence artificielle par leurs salariés. C'est un véritable défi parce que l'invasion de l'IA en entreprise soulève autant d’opportunités que pose des questions.

D'abord, il faut acter désormais l’adoption rapide et discrète de l’IA par les salariés. De nombreux employés se tournent vers des outils comme ChatGPT pour améliorer leur efficacité au travail. Que ce soit pour rédiger des textes, écrire du code ou effectuer des recherches, ces outils se sont glissés dans le quotidien des professionnels, parfois sans l’aval explicite de leurs entreprises.

Un exemple ? Une employée de la néo-banque allemande N26 me racontait la semaine dernière que son manager avait interdit en interne l'utilisation de ChatGPT. Mais que le site était accessible depuis les postes de travail. Ce qui fait que tout le monde l'utilise chez N26.

Et N26 n'est pas seule dans ce cas. Une étude révèle que près d’un quart des employés aux États-Unis utilisent déjà ces technologies chaque semaine, avec des pics atteignant 50 % dans les secteurs comme le logiciel ou la finance.

Beaucoup d’entreprises manquent encore de règles claires

Surtout, face à cette adoption rapide, beaucoup d’entreprises manquent encore de règles claires. Certaines, comme Apple et Samsung, ont commencé par interdire totalement l’usage de ChatGPT, souvent par crainte pour la sécurité des données.

Mais ces interdictions strictes deviennent vite impraticables à long terme. C'est pourquoi N26 a proposé récemment à ses employés l'utilisation de Gemini de Google intégré à Google Workspace, dont la banque est cliente. Mais il est difficile de changer les habitudes une fois que vos employés utilisent de manière tout à fait sauvage et à l'envie ChatGPT.

Il faut donc accompagner les employés en cas de comportements inappropriés, avec une approche non punitive pour éviter la récidive et encourager un usage responsable.

La méfiance de l'IA persiste chez les salariés

Même dans les entreprises où l’IA est acceptée, beaucoup d’employés préfèrent garder pour eux leur utilisation de ces outils. Pourquoi ? Parce qu'ils ont peur d’être jugés comme paresseux.

Pire, ils ont peur de rendre visible une productivité accrue qui pourrait conduire à des suppressions de postes.

L’intégration de l’IA au travail demande donc un équilibre subtil : fournir des outils fiables, établir des règles claires, et surtout, construire une confiance réciproque entre employeurs et salariés.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Share

Embed

You may also like