Par Paul McCormack

Les solutions d’intelligence artificielle peuvent transformer la façon dont les entreprises embauchent des employés et leur offrent des promotions. Voici comment les entreprises peuvent s’assurer que ces programmes de pointe agissent de manière éthique.

L’intelligence artificielle (IA) représente une force transformatrice qui a le potentiel de refaçonner le fonctionnement des entreprises de toute taille. Bien qu’il existe un besoin pressant pour des solutions éthiques d’intelligence artificielle qui aideront les entreprises avec l’établissement d’un bassin de main-d’œuvre, les entrevues, le choix de candidats et les décisions de cheminement de carrière, de telles solutions peuvent occasionner des risques que l’on doit aborder. Par exemple, une solution d’IA doit s’assurer que chaque candidat est considéré de manière égale, peu importe sa race, son origine ethnique, sa nationalité, sa religion ou son sexe.

Pour réduire les risques associés aux solutions d’IA, les entreprises doivent prioriser l’éthique comme composante essentielle de leurs plans de mise en œuvre. Cela signifie que l’IA doit refléter l’engagement de l’entreprise envers les pratiques d’affaires éthiques et aider à favoriser la conformité réglementaire.

Voici quelques questions d’orientation pour aider les entreprises à prioriser l’éthique lors du déploiement de solutions d’IA.

Comment les solutions d’IA peuvent-elles soutenir les pratiques d’affaires éthiques?

Avant d’adopter une solution d’IA qui vous aidera dans le choix et la gestion des talents, documentez-vous sur la façon dont la solution en question contribuera à ce que votre entreprise agisse de manière éthique. Si vous avez déjà déployé une solution, concentrez-vous sur la façon dont elle vous a aidé à y arriver jusqu’à maintenant. Si votre entreprise utilise une solution tierce, demandez au fournisseur de vous expliquer la façon dont sa technologie soutient les décisions d’embauche éthiques.

Pour obtenir les réponses nécessaires, vous devrez également analyser les données de votre entreprise. Par exemple, selon vos statistiques d’embauche, si votre entreprise utilisait l’IA, serait-elle mieux positionnée pour atteindre ses objectifs de diversité et d’inclusion pour les nouveaux employés?

« Par exemple, si l’on prend l’origine ethnique, soit les différentes mains-d’œuvre dans diverses régions du pays, cela va varier, déclare Jack Berkowitz, dirigeant principal des données chez ADP. Cela ne veut pas dire que vous ne devriez pas vous efforcer d’avoir une diversité qui fonctionne pour votre entreprise. La technologie actuelle peut aider les entreprises à facilement évaluer leurs mesures par rapport à celles recueillies par d’autres dans leur région. Pensez à ce que vous pouvez faire si vous avez une idée de la situation de votre entreprise et de la façon dont elle se compare à ses pairs et à ses concurrents à proximité. »

Quels mécanismes existent pour détecter la prise de décisions biaisée?

Avant son déploiement initial et durant son exploitation, toute solution d’IA nécessite un degré de surveillance humaine pour s’assurer qu’elle inclut des pratiques et des fonctions d’embauche éthiques comme prévu. Sans une telle surveillance, il peut se produire des erreurs et des biais.

Par exemple, une solution qui ne reconnaît pas les diplômes d’établissements étrangers pourrait rejeter des candidats qualifiés, peu importe leur expérience ou leur maîtrise de la langue anglaise ou française. Pour découvrir les biais non intentionnels d’une solution d’IA, il faut une volonté de scruter régulièrement sa performance. À quelle fréquence un humain doit-il examiner les résultats d’une solution d’IA pour éviter qu’il se produise ce genre d’erreurs? Avec un examen mensuel, il serait possible de trouver rapidement une erreur, peut-être même pendant qu’un poste demeure vacant, ce qui permet à votre entreprise de communiquer de nouveau avec des candidats qui ont été refusés.

De plus, existe-t-il un canal pour que les employés ou les candidats puissent faire part de leurs préoccupations quant au fonctionnement de la solution? La solution la plus facile et la plus pratique serait de créer un formulaire Web à l’intention des employés et des candidats pour qu’ils puissent envoyer leurs motifs de préoccupation.

« On peut se servir des données fournies par l’IA pour prendre de meilleures décisions, mais on doit rester vigilants pour reconnaître ce qui nourrit le système et l’utiliser de manière sensée pour nos entreprises sans biais », indique Meg Ferrero, vice-présidente et avocate-conseil adjointe chez ADP.

Y a-t-il une équipe interdivisonnaire pour critiquer et soutenir la solution?

Il faut une approche multidisciplinaire pour s’assurer du fonctionnement des solutions d’intelligence artificielle éthiques comme prévu pour qu’elles ne présentent pas de risques sur le plan de la conformité. Par exemple, l’intégration de la confidentialité dans la conception, ce qui priorise la vie privée à toutes les étapes des activités d’une entreprise, peut nécessiter les commentaires de professionnels du domaine. De même, le respect de la législation sur l’emploi requerra l’implication de conseillers juridiques en normes d’emploi qualifiés.

Les dirigeants des opérations devraient aussi fournir leur rétroaction sur le rendement des employés que la solution a identifiés comme étant des candidats. Si les activités d’embauche de votre entreprise augmentent, le climat social change ou l’environnement réglementaire évolue, l’équipe devrait surveiller davantage la solution.

L’intelligence artificielle éthique peut transformer le processus d’embauche de votre entreprise, permettant aux professionnels des ressources humaines de consacrer plus de temps aux candidats potentiels et moins aux éléments administratifs de leur poste. Cependant, les erreurs importantes, comme celles concernant la façon dont la solution scanne les CV et saisit les mots clés, pourraient enfreindre l’engagement de votre entreprise envers les pratiques d’embauche éthiques.

Par conséquent, avec l’utilisation éthique de l’IA, les entreprises doivent s’assurer que les erreurs et les biais implicites ou explicites n’entraînent pas des décisions d’embauche qu’une personne raisonnable considérerait comme non éthique et contraire à leurs valeurs. « Les gens n’utiliseront pas une technologie à laquelle ils ne font pas confiance. Nous avons besoin de données pour propulser l’IA. Voilà comment nous obtenons des renseignements, souligne Jason Albert, responsable mondial de la confidentialité chez ADP. Ils ne feront pas confiance à la technologie s’ils n’ont pas leur mot à dire dans la façon dont leurs données sont utilisées ou s’ils ne comprennent pas comment ces données sont protégées. »

Pour en savoir plus à ce sujet, vous pouvez lancer le webinaire d’ADP Artificial Intelligence in Making Employment Decisions (l’intelligence artificielle et la prise de décisions concernant l’emploi), qui approfondit la façon dont les entreprises peuvent tirer parti de l’IA pour bâtir leurs effectifs.

Nous vous invitons également à lire notre énoncé sur l’éthique liée à l’IA.

Cet article est paru à l’origine dans SPARK parrainé par ADP.

Article précédent[Vidéo] Les outils d’IA peuvent réduire les biais
Article suivantComment traiter les questions sur la planification familiale en milieu de travail : bâtir une culture de respect