Imprimer Imprimer Imprimer Envoyer à un ami

L'intelligence artificielle, avec elles !

Picardie - Amiens / Publication : 24 septembre 2019
Les intelligences artificielles peuvent être sexistes, tout comme les humains qui les conçoivent. Mais ce n'est pas une fatalité. Pour relever le défi d'une IA équitable, les entreprises ont besoin des femmes.

Femmes IA

Une intelligence artificielle d'aide au recrutement qui écarte les CV féminins pour les métiers techniques, un logiciel de reconnaissance faciale qui discrimine les femmes à la peau sombre, des assistantes vocales programmées à répondre par "l'humour" aux insultes sexistes… Par quels mécanismes des IA deviennent-elles sexistes ?

L'intelligence artificielle, la science et les techniques qui cherchent à imiter l'intelligence humaine, a fait des progrès spectaculaires ces dernières années grâce à une nouvelle génération d'algorithmes. Nourris par d'énormes volumes de données qui servent à leur entrainement, ils sont devenus "apprenants". Et en chemin, ils ont aussi assimilé les préjugés sexistes et racistes de notre société.

Des bases de données biaisées

Le manque de diversité dans les bases de données explique en partie ce phénomène. Dans le cas de l'IA d'Amazon destinée à trier automatiquement les CV, l'algorithme s'était entrainé sur les données de recrutement récoltées entre 2004 et 2014. Sur cette période, l'entreprise embauchait quasiment exclusivement des hommes pour des postes techniques. Les concepteurs du système n'avaient pas anticipé que l'algorithme assimilerait le stéréotype "métiers techniques = métiers d'hommes", et les éventuelles discriminations à l'embauche qui l'accompagnent. Dans sa froide logique, il favorisait donc les candidatures masculines.

Je rougirais, si je le pouvais

Le sexisme des IA s'explique aussi par le manque de femmes parmi les équipes qui conçoivent les algorithmes. C'est ce que pointe un rapport de l'Unesco sur les assistants vocaux, paru en mai 2019. Leur nom et leur voix par défaut sont quasiment toujours féminins : Alexa, Cortana, Siri… Pour l'Unesco, cela "envoie comme signal que les femmes sont serviables, dociles, toujours prêtes à aider". Pire, les IA à la base des assistants vocaux ont été programmées pour tolérer les insultes sexistes et y répondre par "l'humour". A un interlocuteur qui la qualifiait de garce, l'IA répondait "je rougirais, si je le pouvais". Depuis la publication du rapport de l'Unesco, l'algorithme a été remanié.

Les remèdes au sexisme digital

Un algorithme mal calibré peut contribuer à faire rejeter une demande de prêt, un logement social ou à écarter une candidature... Les enjeux d'une intelligence artificielle équitable, qui ne perpétue pas les discriminations entre les hommes et les femmes, sont considérables. Les entreprises, les pouvoirs publics, les scientifiques explorent les solutions pour débusquer et corriger les stéréotypes véhiculés par l'IA.

A partir d'un certain seuil de diversité dans une équipe, on assiste à l'émergence de nouveaux points de vue et de comportements. Une des pistes est de recruter beaucoup plus de femmes. Sachant que ces équipes sont à 85% masculines, nul besoin d'un ordinateur pour comprendre que l'IA est un secteur d'avenir pour les femmes.

Vient de paraître