Photo non contractuelle
L'Unesco tire la sonnette d'alarme sur les biais sexistes de l'intelligence artificielle : des mesures essentielles recommandées

L'Unesco tire la sonnette d'alarme sur les biais sexistes de l'intelligence artificielle : des mesures essentielles recommandées

 2 minutes

Préoccupations de l’Unesco concernant les préjugés sexistes de l’intelligence artificielle générative

L’Unesco met en garde contre les biais de genre propagés par les grands modèles de langage d’entreprises telles que Meta et OpenAI

L’Unesco a récemment publié une étude mettant en lumière les préjugés sexistes véhiculés par les modèles d’intelligence artificielle générative développés par des entreprises telles que Meta et OpenAI. Selon l’institution de l’ONU, ces modèles tels que GPT 2, GPT 35 et Llama 2 favorisent des stéréotypes de genre néfastes, notamment en associant plus fréquemment les femmes aux tâches ménagères et familiales, tandis que les hommes sont liés à des termes tels que “entreprise”, “cadre”, “salaire” et “carrière”.

Appels à la diversification des équipes et à la réglementation

Face à ces constatations préoccupantes, l’Unesco recommande aux entreprises du secteur de l’intelligence artificielle de diversifier leurs équipes d’ingénieurs. En outre, l’institution encourage les gouvernements à élaborer des cadres réglementaires clairs pour contrer ces préjugés sexistes et promouvoir une IA plus inclusive et équitable.

Vers une collaboration mondiale pour atténuer les préjugés

Malgré ces préoccupations, l’Unesco souligne que les modèles en open source comme Llama 2 et GPT 2 offrent une opportunité de collaboration pour atténuer ces préjugés de genre. En favorisant une approche transparente et ouverte, ces modèles pourraient permettre à la communauté scientifique mondiale de travailler ensemble pour améliorer ces technologies et les rendre plus inclusives.

Les risques des biais sexistes dans les applications IA

Des chercheurs ont révélé que les récits générés par les interfaces IA sont souvent basés sur des stéréotypes, en particulier en ce qui concerne les personnes de cultures minoritaires ou les femmes. Cette situation soulève des inquiétudes quant à la propagation de préjugés sexistes et de discrimination.

Appel à la diversité et à la réglementation

Leona Verdadero, spécialiste des politiques numériques à l’Unesco, souligne que ces entreprises ne parviennent pas à représenter correctement tous leurs utilisateurs. Pour lutter contre ces préjugés, l’organisation recommande aux entreprises d’intégrer davantage de diversité dans leurs équipes, en particulier en incluant plus de femmes.

Recommandations de l’Unesco

L’Unesco encourage également les gouvernements à mettre en place des cadres réglementaires clairs pour contrôler les biais systémiques dans les applications IA. Il est essentiel que les entreprises effectuent un contrôle continu et une évaluation des préjugés afin de garantir une représentation équitable de tous les utilisateurs.