Enjeu : exigeons davantage de l’intelligence artificielle

IHR2019_spotlight_AI-2-3

Stefania Druga enseigne aux enfants la programmation en intelligence artificielle. Dans le cadre de ses recherches, elle a étudié comment 450 enfants de sept pays perçoivent et interagissent avec des jouets et des assistants virtuels connectés, comme Amazon Alexa ou Google Home.

Les enfants ont les capacités de comprendre, bien plus que ce qu’imaginent les parents, indique-t-elle, y compris que l’apprentissage automatique des machines dépend des données disponibles pour leur entraînement.

La philosophie derrière le logiciel qu’elle a développé pour l’enseignement considère que si nous offrons aux enfants la possibilité de jouer un véritable rôle dans leurs relations avec les technologies « intelligentes », ils peuvent décider activement du comportement qu’ils souhaitent les voir adopter. Les enfants recueillent des données et instruisent leur ordinateur.

Une approche similaire, simple : voilà ce qui devrait de toute urgence s’appliquer à d’autres domaines de la société.

Pour saisir les implications de l’intelligence artificielle pour l’humanité, nous devons la comprendre, puis décider ce que nous voulons qu’elle réalise. Son utilisation augmente à une vitesse vertigineuse (aussi bien à des fins de divertissement, que de gouvernance ou dans les activités militaires ou commerciales). Pourtant, les risques connexes ne sont certainement pas suffisamment étudiés.

« Oui, il s’agit probablement d’ intelligence artificielle » : telle est presque invariablement la réponse donnée par le diagramme de déductions inventée par la journaliste Karen Hao, spécialiste de l’intelligence artificielle, à propos de toute technologie capable d’écouter, de parler, de lire, de bouger et de raisonner. Sans nécessairement s’en rendre compte, tous les internautes interagissent déjà avec une certaine forme d’intelligence artificielle.

Schématiquement, l’apprentissage automatique et les intelligences artificielles représentent simplement la prochaine génération de l’informatique. Ces technologies rendent possible un niveau bien supérieur d’automatisation, de prédiction et de personnalisation.

En outre, elles constituent un changement si fondamental dans les possibilités offertes par les ordinateurs en réseau que nous pouvons imaginer qu’elles occuperont bientôt une place bien plus importante dans notre vie.

Qu’il s’agisse des résultats des moteurs de recherche, des listes de lecture musicales ou d’itinéraires de navigation, ces services ne reposent pas sur la magie. Des spécialistes codent des algorithmes, à savoir des formules qui décident comment les décisions doivent être automatisées en fonction des données qui leur sont fournies.

Le sentiment de magie commence lorsque la technologie ouvre de nouvelles possibilités. This Person Does Not Exist représente un bon exemple. Consultez le site et actualisez la page pour voir s’afficher une infinité de visages de personnes qui n’existent pas. Ces images, inspirées par une base de données de visages de personnes bien réelles, sont générées de manière aléatoire par un algorithme.

Si vous observez attentivement, vous remarquerez des erreurs : oreilles de travers, cheveux qui ne tombent pas naturellement, arrière-plans flous, etc. This Cat Does Not Exist s’avère moins convaincant. Ces générateurs pourraient s’améliorer grâce à des données et des instructions supplémentaires. Il existe aussi un risque que de telles photos soient utilisées pour déformer la réalité, même pour de telles créations fantaisistes.

Conscients des dangers liés à l’utilisation malveillante de ce type de technologie, les chercheurs d’OpenAI ont déclenché une tempête médiatique en annonçant qu’ils ne publieraient pas le code intégral d’une intelligence artificielle capable de rédiger automatiquement des textes convaincants à partir du contenu de 8 millions de pages web. « En raison de nos préoccupations relatives aux utilisations malveillantes de la technologie, nous avons décidé de ne pas publier le modèle dont la formation est achevée », ont-ils expliqué, qualifiant leur démarche pionnière de « divulgation responsable ».

Reconnaître les défaillances et les risques liés à une utilisation abusive de l’intelligence artificielle arrive trop rarement. Au cours des dix dernières années, les grandes entreprises technologiques qui contrôlent les médias sociaux et le commerce électronique, tant aux États-Unis qu’en Chine, ont contribué à tracer la voie à suivre pour l’intelligence artificielle. Grâce à leur capacité à recueillir d’énormes quantités de données d’entraînement, elles peuvent développer une technologie encore plus puissante. Une activité qu’elles pratiquent à un rythme effréné et qui semble incompatible avec une véritable préoccupation pour les possibles effets néfastes.

Amazon, Microsoft et d’autres se sont lancés dans la vente directe de systèmes de reconnaissance faciale aux autorités policières et d’immigration, même si, aux États-Unis, des erreurs inquiétantes et des risques graves pour les personnes de couleur ont été rigoureusement documentés et dénoncés publiquement. Les employés de grandes entreprises Internet qui développent des systèmes basés sur l’intelligence artificielle, dont Amazon et Google, ont sonné l’alarme avec insistance sur des questions d’éthique.

Les dirigeants d’entreprise font évoluer avec confiance leurs modèles économiques, vantent leur exactitude et semblent ignorer ou ne pas considérer les énormes risques liés à cette technologie. Plusieurs entreprises, dont Axxon, Salesforce et Facebook, ont cherché à apaiser les inquiétudes suscitées par les controverses en formant des comités d’éthique destinés à superviser les décisions de la société.

La cofondatrice de l’institut de recherche AI Now, Meredith Whittaker, se réfère à ces actions comme à une mise en scène de l’éthique et explique qu’aucune preuve n’indique que les décisions relatives aux produits soient réellement soumises aux comités ou qu’ils aient un vrai droit de veto. Dans une interview pour Recode, Meredith Whittaker a demandé aux entreprises si elles allaient nuire à l’humanité et, plus précisément, aux populations historiquement marginalisées, ou si elles comptaient se ressaisir et apporter des changements structurels importants afin de garantir le développement de produits et de services sûrs et non préjudiciables.

Il se trouve que l’annonce de Google au sujet de la création d’un comité d’éthique s’est retournée de manière spectaculaire contre le groupe qui a dissout l’organe en avril 2019 après les protestations des employés et l’indignation publique concernant les personnes invitées ou pas à y prendre part. Bien que l’entreprise se soit exprimée haut et fort au sujet de l’établissement de principes à suivre pour développer des intelligences artificielles et engagée dans des projets d’intérêt social, elle définit des priorités contradictoires à travers ses nombreuses activités.

Quels dilemmes éthiques du monde physique ces comités pourraient relever s’ils suivaient les conseils de Meredith Whittaker ? Une option consisterait à s’interroger sur une fonctionnalité du quotidien qui affecte des milliards de personnes. YouTube, la plateforme vidéo détenue par Google, est souvent considéré comme un « terrier de lapin » : des tunnels sans fin qui relient les vidéos entre elles. Même si YouTube le réfute, les études montrent que les algorithmes de recommandation de contenu alimentent la désinformation et les croyances de type sectaires, par exemple sur les vaccins, le cancer, les discriminations sexuelles, le terrorisme, les théories du complot et [ajoutez votre sujet].

De même, Pinterest et Amazon suscitent également l’intérêt des utilisateurs par l’apprentissage qu’ils offrent et la proposition de nouveaux contenus intéressants. Tous deux rencontrent des variantes du même problème. En réponse aux scandales publics, elles ont annoncé des efforts afin d’interrompre la propagation de contenus anti-vaccins, mais peu d’éléments traduisent un véritable changement dans l’intention première ou le fonctionnement de base de ces systèmes.

Mais il n’y a pas que les entreprises du secteur technologique qui doivent se questionner sur la dimension éthique de leur utilisation de l’intelligence artificielle. Tout le monde, des organismes municipaux et gouvernementaux aux banques et aux assureurs, doit y réfléchir.

Les autorités aux frontières de neuf pays de l’Union européenne ont testé un détecteur de mensonges qui repose sur une intelligence artificielle pour contrôler les voyageurs. Des systèmes qui permettent de déterminer la solvabilité de la population sont actuellement déployés sur les marchés émergents d’Afrique et d’Asie. Aux États-Unis, les assurances maladie consultent les médias sociaux et prennent en compte ces données lorsqu’elles décident qui doit avoir accès à quelle couverture de santé. L’intelligence artificielle a même été utilisée pour déterminer qui maintenir en détention.

Ces utilisations de l’intelligence artificielle sont-elles éthiques ? Respectent-elles les droits humains ? Comme chacun le sait, la Chine a commencé à évaluer les citoyens et à leur attribuer des points au moyen d’un système de crédit basé sur leur comportement social. Les autorités chinoises ciblent désormais systématiquement en Chine une minorité opprimée avec leurs systèmes de reconnaissance faciale.

Où placer la limite ?

Fondamentalement, en matière d’intelligence artificielle, deux défis distincts se posent aujourd’hui : corriger les erreurs que nous sommes conscients de commettre et déterminer comment l’intelligence artificielle peut s’avérer bénéfique.

Exclure la dimension humaine des procédures gouvernementales et opérationnelles peut rendre ces dernières plus efficaces et moins coûteuses, mais parfois nous sommes loin de sortir gagnants de l’application de tel dispositifs.

Les citoyens questionnent trop rarement la pertinence des mesures mises en place. De même pour leur efficacité. Il y a lieu de s’interroger sur l’utilisation de l’intelligence artificielle à des fins prédictives et sur son importante présence dans nos foyers.

Une partie des erreurs les plus importantes découle de données d’apprentissage erronées ou simplement utilisées sans admettre les graves biais ayant influencé leur collecte et leur analyse.

Par exemple, certains systèmes automatisés qui présélectionnent les candidats à un emploi attribuent invariablement des notes négatives aux femmes, parce que les données montrent que le domaine en question est actuellement dominé par les hommes.

« Les catégories de collecte de données s’avèrent essentielles, surtout lorsqu’il s’agit de diviser les gens par catégories », affirment les auteurs de l’ouvrage Data Feminism, qui étudie comment les décisions fondées sur des données ne feront qu’amplifier les inégalités sans l’adoption de mesures concrètes pour atténuer les risques.

Il semble que déléguer cette responsabilité aux neuf grandes sociétés qui dominent le domaine de l’intelligence artificielle agite le spectre d’un monde de surveillance et de conformité contrôlé par les entreprises, surtout tant que la diversité de genre, ethnique et mondiale fera défaut à tous les niveaux de ces entreprises. Le fait que des ingénieurs, des éthiciens et des spécialistes des droits humains étudient ensemble comment l’intelligence artificielle devrait fonctionner augmente les chances que celle-ci offre de meilleurs résultats, pour le bien de la société.

Nous commençons à peine à élaborer des demandes claires et convaincantes au sujet de l’avenir que nous voulons.

Depuis quelques années, nous voyons s’installer un mouvement qui vise à mieux comprendre les défis liés à l’intelligence artificielle. Des spécialistes en droits numériques, des technologues, des journalistes et des chercheurs du monde entier ont, de diverses manières, exhorté les entreprises, les gouvernements, les forces armées et les services de police à reconnaître les dilemmes éthiques, les inexactitudes et les risques relatifs à cette technologie.

Tout internaute soucieux de la santé d’Internet doit améliorer sa compréhension de l’intelligence artificielle. Celle-ci est désormais intégrée à presque tous les types de produits numériques et appliquée à un nombre croissant de décisions qui affectent des citoyens aux quatre coins du monde. Pour que notre compréhension collective  évolue, nous devons partager ce que nous apprenons. Dans les salles de classe, Stefania Druga ouvre la voie par son travail avec des groupes d’enfants. En Finlande, une grande initiative viset à former 1 % de la population du pays (soit 55 000 personnes) aux questions liées à l’intelligence artificielle. Et vous, que comptez-vous faire ?

Comment considérer et adopter sereinement une technologie que nous ne comprenons pas encore ?

  1. Claude M.

    Je trouve très intéressant et cela me bouscuel dans les pensées que j'aki mais je suis content de trouver des explications que je compten d pas forcemment mais qui me fait voir dans le monde informatique il y a des gens bien, ce que je savais un peu mais je suis ravi