Lutte contre les biais dans les algorithmes : des règles mais aussi beaucoup de pratiques

L’intelligence artificielle est venue apporter une aide à la lutte contre la pandémie, permettant à la communauté scientifique et à la presse de nourrir de grands espoirs dans la science des données et des algorithmes. Image bannière : Shutterstock / Andrii Chagovets
Lutte contre les biais dans les algorithmes : des règles mais aussi beaucoup de pratiques
Like

Cet article s’inscrit dans une série de contributions d’experts de l’OCDE et d’influenceurs – du monde entier et de tout secteur de la société – qui répondent à la crise du COVID-19, partageant et développant des solutions pour aujourd’hui et demain. Cette série vise à favoriser un échange constructif de vues et d’expertises développées dans différents domaines afin de nous permettre de relever ensemble ce défi majeur. Les opinions exprimées ne reflètent pas nécessairement celles de l’OCDE.

Afin de rester informés de l’ensemble des travaux de l’OCDE dans la lutte contre le COVID-19, visitez la plateforme de l’OCDE  dédiée.

L’intelligence artificielle est venue apporter une aide à la lutte contre la pandémie,[1] permettant à la communauté scientifique et à la presse de nourrir de grands espoirs dans la science des données et des algorithmes.

Néanmoins, alors que la technologie a connu un développement sans précédent, portée comme une sorte de remède à la maladie, les avantages comme les risques de son usage se développent conjointement. L’un des risques majeurs est celui de la reproduction et de l’amplification des discriminations par les algorithmes ainsi que leur « automatisation ».[2] A l’été 2020, la Commission Nationale Informatique et Liberté (CNIL) et le Défenseur des droits (le médiateur des services publics français) prévenaient d’un « tournant inédit »[3] dans « l’utilisation intensive des algorithmes »[4] Si ces derniers apportent beaucoup à la prise de décision notamment au niveau de nos services publics et pour nos entreprises, ils peuvent, à mauvais escient, avoir un impact majeur sur nos droits fondamentaux. Les données et les algorithmes ne sont pas neutres mais bien le reflet de pratiques humaines qui peuvent véhiculer des procédés discriminants vis-à-vis de certains groupes sociaux et participer à reproduire des inégalités.

Lire aussi : The Green and the Blue: How AI may be a force for good par Luciano Floridi et Anna C. Nobre, University of Oxford

A l’échelle d’un individu, les biais discriminatoires ne seront peut-être pas visibles. Cependant ils peuvent produire des discriminations à l’échelle de groupes et peuvent avoir des conséquences comme un accès inégal aux biens[5] et aux services, cela peut être le cas par exemple d’un logiciel de recrutement ou encore dans la cartographie des crimes et délits par les forces de l’ordre. D’autres biais sont au contraire très visibles. « Alexia » d’Amazon, « Siri »[6] d’Apple ou « Cortana » de Microsoft sont des voix féminines, qui, selon un rapport de l’UNESCO[7], continue « d’associer le genre féminin à un caractère de service, voire de servilité ».

Le politique doit agir devant cette nouvelle forme de discrimination en intégrant la lutte contre les biais dans les négociations internationales avec l’objectif d’une régulation éthique de l’intelligence artificielle. Cette lutte doit également servir pour l’instauration d’un cadre de confiance afin d’ancrer la pratique dans nos entreprises et la société tout entière. L’OCDE s’est saisie de ces questions en adoptant en juin 2019 une recommandation sur l’intelligence artificielle dont l’un des principes est de construire des algorithmes fondés sur des valeurs centrées sur l’humain et l’équité.[8]

Lire la publication : Recommandation du Conseil sur l’intelligence artificielle, et pour en savoir plus, consultez le site de l'Observatoire des politiques de l'IA de l'OCDE

En juin 2019, dans cette continuité, j’ai monté un groupe de travail composé de parlementaires allemands et français sur les innovations de rupture et l’intelligence artificielle. Dans le cadre de l’élaboration de la délibération finale, j’ai proposé aux Gouvernements d’engager des procédures d’examen adaptées afin de mieux évaluer les risques éthiques mais aussi pour prêter une attention particulière à l’inclusion des femmes et des minorités.

En janvier 2021, avec pour objectif de créer un « espace européen unique des données » sécurisé, de confiance et stimulant la croissance, l’Union européenne proposera à la suite de son livre blanc sur l’intelligence artificielle une régulation à valeur législative sur les enjeux éthiques et les biais discriminatoires.[9] Cette régulation devra permettre que le principe de nondiscrimination dans les algorithmes ne soit pas une option mais bien « un droit fondamental »[10] , comme le rappelle le Défenseur des Droits.

Car les décisions ne sont pas qu’au niveau international. La réalité sociale des discriminations est encore trop peu prise en compte par nos entreprises expertes des données et des algorithmes et ce, alors que le manque de diversité au sein des métiers de l’informatique est très souvent pointé.[11]

Présidente de la fondation femmes@numérique qui vise à promouvoir en France la place des femmes dans le numérique, les chiffres remontés doivent nous donner les moyens d’agir : seulement 30 % de femmes dans le secteur numérique et ce principalement dans les fonctions supports. Selon une récente étude aux Etats-Unis, 15 % des chercheurs en IA à Facebook sont des femmes, 10 % pour Google.[12] Plus que jamais, l’importance de la formation à la non-discrimination au numérique est nécessaire et renforcera la confiance in-fine dans les technologies.

L’éducation au numérique permettra également de limiter les biais discriminatoires, par la prise de conscience du problème par chacune et chacun de nous. En juillet 2020, j’ai rendu un rapport sur la diffusion en France d’une identité numérique de confiance où l’une de nos principales recommandations a été la nécessité de mettre en œuvre une culture de l’apprentissage du numérique inclusif pour tous et de l’appropriation des citoyens à la culture de la donnée.

Un premier pas a été fait en septembre 2020 où, dans le cadre d’une loi de simplification de l’action publique, j’ai proposé que les collectivités locales se saisissent de ces sujets et aient les moyens de coordonner des actions pour renforcer notre éducation au numérique en France, particulièrement pour ce qui concerne la formation professionnelle continue. Le Gouvernement a lancé dernièrement un plan de formation visant à créer des conseillers numériques numériques en France.

La crise accélérant le développement de l’intelligence artificielle, il nous faut aller plus vite et plus loin sur l’éducation au numérique. Ce « tournant inédit » qui marque une nouvelle décennie de la donnée ne doit en effet pas se construire au détriment de nos valeurs démocratiques et universalistes.

Références
[1] De manière non exhaustive, les algorithmes ont notamment été utilisés par le SAMU pour cartographier les besoins en ambulance, l’AP-HP pour la gestion des parcours de soin ou encore le Ministère de la Santé afin d’effectuer des prévisions sur la pandémie.
[2] CNIL, Défenseur des Droits, Algorithmes : prévenir l’automatisation des discriminations, 2020. Disponible sur : https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/836200110_ddd_algorithmes_access.pdf
[3] Conseil d’Etat, Puissance publique et plateformes numériques : accompagner « l’ubérisation », La documentation française, 2017, p. 59
[4] CNIL, Defenseur des Droits, 2020.
[5] Ibid.
[6] Qui signifie en norvégien « belle femme qui mère à la victoire »
[7] UNESCO, I'd blush if I could: closing gender divides in digital skills through education, 2019. Disponible sur : https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=1
[8] Alessandro Gasparotti, OCDE, Les lignes directrices en matière d’éthique dans le domaine de l’intelligence artificielle, juin 2019
[9] L’Union européenne dispose déjà d’un corpus législatif sur la question. Le RGPD pour exemple rappelle dans ses considérant que «le responsable du traitement devrait utiliser des procédures mathématiques ou statistiques adéquates aux fins du profilage, appliquer les mesures techniques et organisationnelles appropriées pour faire en sorte et prévenir, entre autres, les effets discriminatoires à l’égard des personnes physiques fondés sur l’orientation sexuelle, ou tout traitement qui se traduit par des mesures produisant un tel effet. » Le livre blanc sur l’intelligence artficielle rappelle néanmoins que son application peut être limitée à la vue de l’augmentation des potentialités des systèmes algorithmiques.
[10] CNIL, Defenseur des Droits, 2020.
[11] Sarah Myers West, Meredith Whittaker et Kate Crawford, Discriminating systems: Gender, Race and Power in AI, AI Now, New York University, avril 2019.
[12] Sarah Myers West, Meredith Whittaker et Kate Crawford, avril 2019.



Decrouvrez Le Réseau parlementaire mondial de l'OCDE, un lieu d'échange pour les législateurs et les parlementaires de toutes les familes politiques

Decrouvrez Le Réseau parlementaire mondial de l'OCDE, un lieu d'échange pour les législateurs et les parlementaires de toutes les familes politiques

Please sign in

If you are a registered user on The OECD Forum Network, please sign in