« Nous sommes entrés dans l’ère de l’automatisation trop sûrs de nous et mal préparés » déclare Joy Buolamwini, dans une vidéo qui décrit comment les systèmes de reconnaissance faciale commercialisés échouent à identifier le genre d’une femme sur trois lorsqu’il s’agit de personnes de couleur. Plus leur peau est foncée, plus les résultats sont mauvais.
Ce genre de biais s’avère particulièrement inquiétant à l’heure où l’intelligence artificielle (IA) entre en jeu dans l’attribution de prêts bancaires et d’emplois, mais également dans la sélection des contenus visibles pour un internaute, explique-t-elle.
Les systèmes de reconnaissance faciale commercialisés se prévalent de leur précision et de leur neutralité. Cependant, peu d’efforts sont déployés pour s’assurer qu’ils respectent des règles d’éthique, d’inclusivité, les droits humains ou l’égalité de genre, avant d’entrer en fonction pour des organismes d’application de la loi ou des entreprises qui peuvent avoir des répercussions sur votre vie.
Joy Buolamwini a fondé l’Algorithmic Justice League, une initiative qui vise à favoriser la discussion sur les préjugés fondés sur l’origine ethnique et le sexe, et à élaborer de nouvelles pratiques en matière de responsabilité technologique. En mêlant recherche, art et activisme en ligne, elle attire l’attention sur les dangereux biais contenus dans les produits commercialisés qui intègrent une IA qu’elle appelle le « regard codé ». Dans le but d’informer le public et de plaider en faveur du changement, elle a témoigné devant la Commission fédérale du commerce des États-Unis, fait partie du Global Tech Panel de l’Union européenne, rédigé des tribunes pour d’importantes publications et participé à de nombreux événements organisés par les secteurs universitaires, industriels et médiatiques à titre de conférencière principale.
Sur des sites web et dans des vidéos, elle partage son expérience et ses créations poétiques parlées sur ce sujet, habituellement traité, le cas échéant, en termes techniques et ternes.
« Ne suis-je pas une femme ? »
Le « regard codé » se réfère à la façon dont les systèmes d’intelligence artificielle considèrent les individus, d’une manière qui reflète et amplifie les injustices qui prévalent dans notre société. Au Center for Civic Media du MIT Media Lab, Joy Buolamwini étudie les systèmes d’analyse des visages commercialisés et a illustré comment ils intègrent des préjugés et des inexactitudes liés à l’origine ethnique et au genre. L’utilisation de données imparfaites et incomplètes pour entraîner les algorithmes, des hypothèses erronées, l’absence d’audits techniques font partie des nombreux problèmes qui entraînent une augmentation des risques.
Pour riposter, l’Algorithmic Justice League et le Center on Privacy & Technology de la faculté de droit de Georgetown ont lancé le Safe Face Pledge en décembre 2018, une série de mesures que les entreprises peuvent prendre pour s’assurer que la technologie d’analyse faciale ne nuise pas aux individus. Une poignée d’entreprises ont signé cet engagement et de nombreux chercheurs de pointe dans l’IA ont apporté leur soutien à’initiative.
C’est l’une des nombreuses solutions que Joy Buolamwini et ses collègues testent pour favoriser le changement dans les grandes entreprises technologiques. Elle a constaté que le fait d’attirer l’attention du public sur les biais en matière de reconnaissance faciale a permis de réduire de façon mesurable les inexactitudes. Quand Amazon a tenté de contester les conclusions de ses recherches, des spécialistes en intelligence artificielle de premier plan ont riposté et demandé à la société de cesser de vendre sa technologie de reconnaissance faciale à des organismes chargés de l’application des lois.
Toutefois, elle souligne que davantage peut être entrepris. « L’utilisation de la technologie de l’analyse des visages, quel que soit son degré de précision, pour identifier un individu en particulier (reconnaissance faciale) ou déterminer des caractéristiques personnelles (genre ou origine ethnique) peut conduire à des violations des libertés civiles », écrit Joy Buolamwini sur le blog du MIT Media Lab, hébergé par la plateforme Medium.
Elle considère que des garanties sont nécessaires pour éviter les abus. « Il est encore temps de s’orienter vers le développement de systèmes d’IA éthiques qui respectent la dignité et les droits humains. Nous avons le pouvoir de façonner l’avenir de l’intelligence artificielle, mais nous devons agir maintenant pour lui faire prendre la voie de la justice et de l’inclusion. »
Que pensez-vous des systèmes de reconnaissance faciale ?
j'en veux un !