L’Équipe Spark

Alors que les outils axés sur l’intelligence artificielle (IA) commencent à susciter de l’enthousiasme au travail, les employeurs sont impatients de saisir les occasions fournies par l’IA, tout en protégeant leurs organisations des risques.

Dans la vidéo de Workforce News Minute ci-dessous, Helena Almeida, avocate directrice chez ADP, présente certains conseils pour veiller à ce que la technologie améliorée par l’IA puisse être utilisée sans qu’elle présente des biais.

En savoir plus

[Webdiffusion sur demande :] Comment l’IA transforme-t-elle le monde du travail : perspectives et stratégies à envisager

Bien qu’elles permettent des avancées positives, les applications d’intelligence artificielle peuvent entraîner des répercussions négatives, comme en arriver à des recommandations incorrectes ou amplifier les facteurs de biais. De plus, quand on utilise ces technologies, il est essentiel d’adopter de bonnes pratiques en matière de confidentialité. Si les entreprises gardent en tête ces principes importants pour contrer de tels effets, elles peuvent surmonter ces obstacles, surtout si les organismes de réglementation américains et d’ailleurs tiennent compte de nouvelles règles pour aborder l’incidence sociétale de l’IA.

Lancez cette webdiffusion en tout temps pour obtenir des renseignements critiques et connaître les meilleures pratiques dont les entreprises doivent tenir compte.

Transcription

Vous savez, les biais sont illégaux, qu’il s’agisse d’une décision d’embauche, de licenciement ou de promotion prise par un être humain. Si la décision est biaisée, c’est tout aussi inapproprié que si une machine le faisait.

Et fait intéressant, c’est qu’en tant que personnes, nous avons tous des biais, n’est-ce pas?

Nous travaillons tous au quotidien à contrôler en quelque sorte les biais inconscients qui s’infiltrent dans nos prises de décisions. Lorsqu’il est question d’un algorithme d’IA, l’avantage c’est que nous avons des scientifiques des données qui se concentrent sur les données à lui fournir pour l’évaluation de candidats. Comment garantir que l’algorithme n’utilise pas d’éléments inappropriés comme la race, le genre ou d’autres catégories protégées lorsqu’il aide à faire des recommandations? Ce que j’observe c’est que les gens n’utiliseront pas la nouvelle technologie comme l’IA générative, comme toute nouvelle technologie, s’ils n’y font pas confiance.

Il faut s’assurer que le produit est conforme, qu’il respecte les règles existantes, les cadres de travail et les meilleures pratiques, comme le mentionne Jack, pour veiller à ce que les données soient intègres, à ce que les préoccupations liées à la confidentialité soient surveillées et à ce qu’on fasse un suivi d’éléments comme les biais et l’exactitude.

Une partie de cette confiance viendra de l’information fournie aux gens sur toutes les mesures que prennent les entreprises pour s’assurer de protéger leurs données et que l’IA fonctionne comme elle le devrait.

Cet article est paru à l’origine dans SPARK parrainé par ADP.

Article précédent[Vidéo] L’innovation est à l’honneur dans la lutte à l’acquisition de talents
Article suivantDémontrer le besoin de solutions éthiques d’intelligence artificielle