PRINCIPES NORMATIFS POUR L’ÉQUITÉ DANS L’IA


Introduction

Les principes mentionnés ci-dessous sont autant d’outils pouvant servir à lutter selon deux grands axes contre les iniquités de genre dans le domaine de l’intelligence artificielle (IA). Premièrement, ils concourent à favoriser un environnement de travail accueillant et inclusif, fondé sur des valeurs d’égalité, de respect, de réflexivité et de responsabilité. Deuxièmement, ils rappellent la nécessité de procéder à une réévaluation critique des pratiques de recherche sur l’apprentissage machine (AM) et sur intelligence artificielle (IA), de même que de leurs répercussions sociales, afin de favoriser le développement de systèmes d’IA plus inclusifs et socialement responsables.  

1. Assurer la diversité des équipes de recherche 

Une participation diversifiée commence dès les premiers stades de la formation des équipes de recherche en IA, jusqu’au développement et au déploiement des systèmes d’IA. Cela signifie qu’il faut mettre l’accent sur l’inclusion de personnes aux perspectives diverses qui peuvent participer et contribuer de manière pertinente au processus de développement. Les équipes diversifiées sont plus créatives et plus rigoureuses que les équipes non diversifiées, et favorisent des résultats plus innovants (Bodla et coll., 2018; Díaz-García et coll., 2014).

Les systèmes d’AM développés par des équipes de concepteurs dont la diversité reflète celle des utilisateurs potentiels de ces systèmes engendrent des résultats moins biaisés et discriminatoires. Par exemple, la diversité des genres au sein des équipes de recherche sur l’AM peut éviter que les personnes bispirituelles, non binaires, transsexuelles et intersexuées soient catégorisées à tort comme binaires par les systèmes d’AM. Souvent, les systèmes qui exploitent des données fondées sur une catégorisation exclusivement binaire ne tiennent pas compte de la diversité des identités de genre. La constitution d’équipes diversifiées peut remédier à cette lacune et donner lieu à des analyses et à des projets plus nuancés et inclusifs. Pour que cela soit le cas, il faut veiller à ce que tous les acteurs puissent influer sur les projets, apporter leur expertise personnelle et prendre part aux processus décisionnels. 


La diversification des équipes de recherche exige aussi que les points de vue pertinents des acteurs soient pris en compte dans la conception des projets. Les experts compétents et les membres des communautés sur lesquels les technologies concernées ont le plus d’incidence doivent pouvoir collaborer au développement des systèmes d’IA. Par exemple, en cas de projet visant la mise au point d’une technologie destinée aux utilisateurs de fauteuils roulants, des experts, décideurs, prestataires de soins de santé et personnes handicapées doivent être consultés et participer à la conception du projet. Des protocoles de refus de participation doivent être établis, en particulier en ce qui concerne les décisions touchant le déploiement des technologies ou l’utilisation des données. 

[cliquez sur le texte pour en savoir plus]

2. Prioriser les cadres intersectionnels

En 2022, selon le ministère du Travail des États-Unis, les femmes constituaient environ un tiers de la main-d’œuvre américaine. Cependant, seules 3 % d’entre elles étaient des femmes noires et 2 %, des femmes latino-américaines. Ces statistiques révèlent que les obstacles à la participation des femmes blanches sont différents de ceux rencontrés par les femmes de couleur. Nous pouvons nous attaquer plus efficacement à ces obstacles à la participation en adoptant un cadre intersectionnel.

Intersectionality recognizes that individuals have multiple interlocking social identities (such as race, gender, class, sexuality, and ability) that shape their lived experiences to create distinct personal realities (Crenshaw, 1989). Women with different identities interact differently with technology (Haraway, 1985; Kafer, 2014; Benjamin, 2019). Conceptualizing diversity through an intersectional framework helps to work toward research teams composed of a wide range of professionals with varied personal expertise. This makes teams better at identifying and addressing blind spots and erroneous assumptions, making development processes more efficient, rigorous, and trustworthy.


L’on entend par « intersectionnalité » le fait que les personnes possèdent de multiples identités sociales liées, p. ex., leur race, leur genre, leur classe sociale, leur sexualité ou leurs capacités, qui façonnent leurs expériences vécues et engendrent des réalités personnelles distinctes (Crenshaw, 1989). Les femmes porteuses d’identités différentes entretiennent des relations différentes avec la technologie (Haraway, 1985; Kafer, 2014; Benjamin, 2019). La conceptualisation de la diversité fondée sur un cadre intersectionnel favorise la constitution d’équipes de recherche composées d’un large éventail de professionnels aux expertises variées. De telles équipes sont davantage en mesure de cerner les zones d’ombre et les hypothèses erronées ainsi que d’y remédier, ce qui contribue à l’élaboration de processus plus efficaces, rigoureux et fiables. 

[cliquez sur le texte pour en savoir plus]

3. Concevoir des projets réflexifs

Si les cadres intersectionnels mettent en évidence les différentes manières dont des personnes d’horizons divers appréhendent les systèmes d’IA et d’AM, il s’ensuit que les projets d’IA et d’AM sont aussi inextricablement façonnés par les praticiens qui les élaborent. Comme personne n’est impartial, il est essentiel de prêter attention à la manière dont les besoins et les désirs des concepteurs et des parties prenantes influencent les systèmes qu’ils créent, ainsi qu’à l’origine et aux caractéristiques des ensembles de données qu’ils utilisent.

Cela est essentiel à la conception de systèmes d’AM et d’IA, pour les deux raisons exposées ci-après. Premièrement, dans la mesure où le développement de systèmes d’IA et d’AM est perçu comme une entreprise tributaire de la culture et des décisions d’êtres humains, il est impossible de prétendre que leur conception repose sur une démarche neutre. Deuxièmement, le fait de savoir qui participe à la conception d’un projet permet de mieux évaluer le potentiel de celui-ci. 


Par exemple, l’Université Gallaudet, au sein de laquelle seule la langue des signes américaine (ASL) est employée, fait appel à des développeurs sourds pour concevoir une architecture conviviale fondée sur la langue des signes, dite « DeafSpace », ce qui présente des défis absents de tout autre cas liés à l’espace, à la proximité, à la couleur des murs et à la perception sensorielle (Gallaudet University, 2023). La maîtrise de l’ASL et la détention d’un diplôme en architecture de systèmes aident les personnes sourdes à déterminer comme concevoir l’espace physique expressément aux fins de la communication en langue des signes. Cet exemple montre qu’il existe un lien direct entre, d’une part, le positionnement d’un projet, et d’autre part, sa conception et ses objectifs, ce qui engendre des modes différents de génération de connaissances pratiques. 


L’humanisation des processus d’AM est étroitement liée à l’intersectionnalité, car elle prend en compte le fait que chaque personne possède des expertises et points de vue propres, issus de son vécu. Une personne réflexive est consciente de ses propres points de vue et expertises, mais travaille aussi avec les autres pour les compléter. La réflexivité engendre une transparence accrue en faisant en sorte que les objectifs d’un projet soient conformes aux capacités et aux expériences vécues des participants à celui-ci. 

[cliquez sur le texte pour en savoir plus]

4. Appréhender la réalité de l’IA

L’imagerie, le marketing et les discours présentent souvent l’IA comme une technologie immatérielle et abstraite. Une approche critique de l’apprentissage machine va au-delà de ces conceptions pour mettre en évidence l’intervention humaine, le travail et les impacts environnementaux inhérents au développement des systèmes d’apprentissage machine.

Les modèles d’AM sont conçus et développés par des personnes, et les ensembles de données ne sont jamais constitués de données « brutes ». Il est important d’en être conscients pour remettre en question l’idée voulant que les personnes concernées par les données œuvrent à masquer leurs intérêts, leurs expériences vécues et leur emplacement dans le cadre de relations de pouvoir (Gray et Witt, 2021). De plus, des décisions humaines entrent en jeu dans la collecte, l’organisation et la préparation des données bien que, souvent, ce travail ne soit pas reconnu et soit sous-évalué. Le développement de l’IA repose sur un travail d’extraction visant l’organisation et l’étiquetage des données. Pour contrer ce facteur d’iniquité dans le cadre d’un projet, il faut être conscients de la façon dont les données ont été organisées, de l’endroit où elles l’ont été et par qui elles l’ont été. En plus de veiller à l’équité entre les genres au fil des étapes du développement des systèmes d’IA et d’AM, il faut être conscients des aspects de leur développement traditionnellement assurés par des travailleurs précaires, sous-payés et invisibilisés, parmi lesquels les personnes issues de l’hémisphère sud sont souvent surreprésentées (Crawford, 2021; Irani, 2015). 


La mise en lumière de la réalité des systèmes d’AM passe aussi par la reconnaissance des conséquences environnementales du développement technologique. Il est important de prendre en compte l’extraction de ressources naturelles que cela implique et l’importance des émissions carbonées liées aux cycles de vie des systèmes d’AM, car ce n’est qu’ainsi que des stratégies pourront être mises en place pour atténuer les conséquences environnementales de leur développement. Il est important de reconnaître ces conséquences et la contribution des travailleurs chargés de l’extraction afin de prendre des mesures pour atténuer les importantes retombées négatives que cela engendre. 

[cliquez sur le texte pour en savoir plus]

5. Déceler les biais et y remédier

Pour garantir l’équité des systèmes d’IA et la génération de résultats non discriminatoires, les professionnels doivent déterminer à quel moment du processus de développement des systèmes d’IA les différentes sources de préjudice peuvent se manifester. Ces sources de préjudice peuvent en effet se manifester sous la forme d’une série de biais divers, en fonction de l’étape et du processus du projet; pour cette raison, il n’existe pas de stratégies d’atténuation standard et les questions doivent être abordées au cas par cas. Mais en cernant les sources des biais, les professionnels peuvent mieux définir le problème et prévenir les pires scénarios dans les projets à venir.

Les biais qui entachent les systèmes peuvent être décelés et atténués au fil des diverses étapes allant de collecte des données au déploiement des modèles. Les professionnels de l’AM ou de l’IA ont mis en lumière divers types de biais qui peuvent influer sur le développent des systèmes d’IA. Il peut s’agir de biais historiques, mais aussi de biais touchant la représentation, les mesures, la compilation, l’apprentissage, l’évaluation ou le déploiement (Suresh et Guttag, 2021, p. 3-4). L’on entend par biais historique tout biais qui entache les ensembles de données existants de sorte qu’il est reproduit dans les systèmes d’AM. Par exemple, les ensembles de données textuels utilisés pour développer les modèles de langage sont connus pour comporter des préjugés et des stéréotypes liés au genre. On parle de biais touchant la représentation en cas d’emploi, pour développer un modèle, d’un échantillon de données non représentatif des utilisateurs de ce modèle ou souffrant d’une sous-représentation d’une partie d’entre eux. On parle par ailleurs de biais touchant l’évaluation lorsque les comparatifs employés pour évaluer les modèles et algorithmes d’AM comportent une représentation erronée de leurs utilisateurs. Par exemple, les technologies de reconnaissance faciale sont connues pour comporter des biais touchant la représentation et l’évaluation. Les taux élevés d’erreurs liées aux visages à peau sombre sont bien documentés et découlent de la sous-représentation de tels visages dans les ensembles de données qui servent au développement des modèles. 


Il ne s’agit là que de quelques exemples de biais qui peuvent entacher les systèmes d’IA. Pour remédier à ces biais, les algorithmes et modèles d’AM doivent régulièrement faire l’objet d’une surveillance et d’évaluations reposant sur diverses mesures et techniques, afin de garantir leur caractère équitable. Ils doivent également faire l’objet de vérifications et d’interventions assurées par des êtres humains. 

[cliquez sur le texte pour en savoir plus]

6. Assurer la transparence et la responsabilisation pour prévenir l’exploitation des projets à de mauvaises fins.

Les processus de développement et de prise de décision des systèmes d’IA doivent être clairs, compréhensibles et interprétables afin de permettre la vérification et la mise en lumière des biais qui peuvent en découler. Il est également essentiel que les équipes de développement soient honnêtes quant aux capacités du projet et qu’elles communiquent ces capacités à l’interne comme à l’externe, afin d’éviter toute utilisation abusive du projet final.

Dans le cadre d’une première étape vers la transparence, des mécanismes de responsabilisation doivent être établis en collaboration avec les communautés concernées, et ce, avant le début ou dès les premières étapes d’un projet. Cela passe par l’établissement de canaux de communication et la tenue d’échanges entre d’une part les équipes responsables des systèmes d’AM ou d’IA, et d’autre part, les communautés et acteurs concernés. Ces mêmes communautés doivent, au fil du projet, bénéficier d’un libre accès aux ensembles de données, aux algorithmes, ainsi qu’aux processus de développement et de prise de décisions. Dans la mesure où il est assuré avec réflexivité, soin et respect, ce libre accès peut faciliter l’instauration d’un cadre de confiance et d’un sentiment de fiabilité. En collaboration avec des équipes de communication, les professionnels de l’AM ou de l’IA peuvent œuvrer à documenter les risques qui se posent et les améliorations susceptibles d’être apportées aux divers stades du processus de développement, ainsi qu’à informer les communautés et acteurs concernés de ces risques et améliorations. Cela permet d’éviter l’opacité et de favoriser le dialogue entre les professionnels, l’ensemble de l’équipe du projet ainsi que les membres des collectivités concernées. 


La responsabilisation exige que les êtres humains soient, à toutes les étapes d’un projet et en fonction de leur poste, responsables des conséquences potentielles liées au développement du système d’AM concerné. Elle passe d’abord par une solide formation des chercheurs et concepteurs portant sur les retombées de leur travail. Cette formation peut être assurée sur le lieu de travail, ainsi que s’accompagner de directives et de ressources destinées aux équipes de développement. La responsabilisation peut aussi passer par une formation interdisciplinaire dans le cadre de programmes d’études supérieures en sciences, technologies, génie et mathématiques (STIM). Enfin, la mise en place de processus visant, par exemple, à exposer des solutions claires au public et à désigner des personnes chargées de rendre des comptes en cas de retombées sociales négatives peut contribuer à assurer la responsabilisation des créateurs de systèmes d’AM. 

[cliquez sur le texte pour en savoir plus]

7. Démocratiser les connaissances et la recherche en matière d’IA

Les connaissances et la recherche en matière d’AM et d’IA doivent être accessibles aux acteurs concernés pour garantir l’inclusion ainsi que la participation du public à la création de systèmes d’IA responsables. La suppression des obstacles et disparités touchant l’accès aux ressources en matière d’IA (rapports de recherche, outils pédagogiques, documentation technique, etc.) peut contribuer à rendre le milieu de l’IA plus inclusif et démocratique. Cela passe notamment par la mise à la disposition du public des connaissances et des fruits de la recherche, en lui assurant un accès libre aux ressources grâce à des moyens de communication et de diffusion simples permettant à davantage de gens, peu importe leur expertise, d’avoir accès et de contribuer au développement des systèmes d’IA. Cela passe aussi par le fait de rendre le fonctionnement des systèmes d’IA aisément explicable au public, afin que les utilisateurs comprennent non seulement comment les utiliser, mais aussi comment leurs résultats ont été générés et quelles sont leurs limites. Cela permet aussi aux gens de se renseigner au sujet des prédictions ou décisions qui les concernent, de comprendre comment elles ont été établies, ainsi que d’exiger au besoin une seconde évaluation ou une intervention humaine.

Plutôt que de s’adresser au public dans son ensemble, les connaissances diffusées doivent prendre en compte le contexte de la communauté où se trouve le système d’AM ou l’IA concerné ou sur laquelle il a une incidence. L’accès aux connaissances doit donc être assuré en fonction des besoins des diverses communautés. La diffusion des connaissances peut prendre diverses formes, en fonction du handicap des personnes concernées, de leur langue, de leur expertise, de leur accès ou non à Internet, de leurs compétences sociales ou culturelles ou encore de leur manque d’information.

[cliquez sur le texte pour en savoir plus]


Bibliographie