Dans les histoires de science-fiction du début du 20e siècle, l’intelligence artificielle prenait souvent une forme physique : de volumineuses et bruyantes machines en cuivre et en acier.

Des décennies plus tard, la réalité ne correspond pas tout à fait aux œuvres de l’époque. Les intelligences artificielles modernes se situent souvent dans les tableaux de bord de nos véhicules ou dans des enceintes à commande vocale, comme l’Amazon Echo. D’autres, parfaitement cachées, sont employées pour optimiser nos recherches sur le Web, détecter des fraudes à l’assurance ou nous bombarder de publicités en ligne.

Cependant, les intelligences artificielles développées actuellement reproduisent un aspect différent et présent dans les travaux de science-fiction : l’idée que les machines intelligentes pourraient ne pas toujours être employées à de nobles objectifs ou fonctionner exactement selon les attentes des êtres humains.

Elles révolutionnent déjà la médecine, les affaires et le transport, mais peuvent également favoriser la désinformation et perpétuer les préjugés, même lorsqu’elles sont conçues avec les meilleures intentions.

Meredith Whittaker, cofondatrice de l’AI Now Institute, occupe un poste de chercheuse à l’Université de New York, où elle étudie les implications sociales de l’intelligence artificielle. Elle explique que l’un des principaux problèmes de cet écosystème tient aux ressources nécessaires pour lancer une activité dans ce domaine. Il va sans dire que la grande majorité des innovations technologiques est développée et contrôlée par un petit groupe de puissantes entreprises, comme Google, Amazon et Facebook aux États-Unis ou TenCent et Baidu en Chine.

Meredith Whittaker
Meredith Whittaker. Photo de Justine Suzanne Jones (CC BY-SA 4.0)

« Contrairement au mythe de la Silicon Valley, il serait tout simplement impossible de lancer une entreprise d’intelligence artificielle avec une bonne idée et un ordinateur au fond d’un garage », explique Meredith Whittaker.

Développer des systèmes d’intelligence artificielle requiert une puissance de calcul importante et coûteuse. En outre, pour que ces systèmes apprennent efficacement, ils doivent accéder à des quantités massives de données, un volume disponible pour les géants des médias sociaux ou les fabricants de smartphones destinés à la grande consommation et non pour les petites entreprises ou les petits fabricants.

De plus, réunir les talents nécessaires s’avère tout aussi compliqué : les personnes qui possèdent des diplômes d’études supérieures en mathématiques et en informatique sont très sollicitées. « Il y a une telle concurrence parmi les géants de la technologie pour ces experts que les entreprises déboursent des primes à l’embauche dignes de celles des vedettes de football. »

Le problème des préjugés

Meredith Whittaker explique que le fait qu’un petit nombre d’acteurs et qu’un réservoir restreint de talents se chargent de la conception et du déploiement de vastes systèmes d’intelligence artificielle crée des conditions qui favorisent les inégalités. Quand un groupe homogène de personnes, par exemple un groupe d’hommes américains de la Silicon Valley, développent des technologies, ils peuvent négliger les points de vue et les besoins des individus trop éloignés de leur expérience personnelle.

Les journalistes et les chercheurs ont déjà découvert un certain nombre d’exemples troublants de systèmes biaisés. Selon une enquête approfondie menée par ProPublica en 2016, les algorithmes et les ensembles de données connexes utilisés par les forces de l’ordre à travers les États-Unis évaluent systématiquement mal la probabilité qu’un individu commette un crime selon ses origines ethniques. À Houston, au Texas, l’intelligence artificielle utilisée pour évaluer les enseignants a donné des résultats erronés et débouché sur un procès contre le district scolaire l’an dernier. De plus, une série d’études a prouvé que la technologie de reconnaissance faciale identifie plus difficilement les personnes de couleur et les femmes que les hommes blancs.

« La diversité dans le secteur technologique représente un problème majeur à tous les niveaux, mais elle revêt une importance capitale en matière d’incidence sociale et politique de l’intelligence artificielle. Nous devons nous inquiéter des types de contrôle possibles lorsqu’un petit groupe homogène d’acteurs décide de la technologie qui influence la vie de milliards de personnes. »

La voie à suivre

L’ouverture du secteur de l’intelligence artificielle peut aider à relever plusieurs de ces défis.

La production d’ensembles de données ouvertes et diversifiées d’entraînement des systèmes peut réduire les barrières à l’entrée pour les plus petits acteurs du secteur de l’intelligence artificielle. Ouvrir des voies plus efficaces pour que des personnes d’horizons divers s’épanouissent dans des carrières de ce domaine peut élargir l’éventail des voix au chapitre. En outre, faciliter pour chacun, technophile ou non, la compréhension des implications de l’intelligence artificielle pourrait nous aider à avoir notre mot à dire sur les rôles que ces technologies devraient jouer dans nos communautés.

Les technologues et les décideurs concernés, du AI Now Institute de Meredith Whittaker au maire de New York, travaillent déjà sur ce sujet. En effet, AI Now a récemment publié un cadre d’évaluation, le Algorithmic Impact Assessments, afin d’aider les principaux organismes gouvernementaux à utiliser et à évaluer les systèmes automatisés de manière plus responsable.

Toutefois, Meredith Whittaker ajoute que ce n’est qu’un premier pas. « Nous avons besoin d’analyses, de débats et de discussions constantes. Je n’estime pas que nous soyons en mesure de parler de solution, car je ne crois pas que nous disposions d’une compréhension claire de l’ampleur des problèmes. »

Selon elle, nous devons répondre aux questions sous-jacentes : qui sont les personnes les plus vulnérables aux systèmes biaisés et inexacts ? Comment savoir si un système est juste ? Et, comment pouvons-nous, en tant que public, décider quand nous devrions ou ne devrions pas utiliser l’intelligence artificielle ? Meredith Whittaker souligne que les secteurs à risque élevé  de conséquences négatives, tels que la santé et l’éducation, sont ceux qui exigent de plus importantes garanties.

« L’industrie a dépensé beaucoup d’énergie et de ressources pour faire progresser les systèmes d’intelligence artificielle et les rendre commercialisables et utilisables », poursuit Mme Whittaker. « Mais, elle a très peu investi pour comprendre leur impact au niveau social et politique. »

À court terme, Meredith Whittaker recommande la prudence. « Nous pourrions considérer d’attendre avant d’utiliser certaines technologies d’intelligence artificielle jusqu’à avoir développé l’infrastructure pour la comprendre. Il doit exister des façons de dire : « Nous n’utiliserons pas ce système tant que nous n’aurons pas la garantie qu’il est sûr. » »