
"Les assistants vocaux comme Siri ou Alexa sont souvent configurés avec une voix féminine par défaut. Des études ont montré que cette représentation renforce certains stéréotypes, en donnant l’impression que les femmes sont là pour « obéir » ou « aider ». De plus, ces assistants peuvent répondre moins précisément à certaines voix masculines ou à des accents différents, car les systèmes ont été initialement entraînés sur des données majoritairement féminines ou standardisées."
"Une étude de l’UNESCO sur les grands modèles de langage (GPT-2, GPT-3.5, Llama 2, ...) montre que les modèles associent les femmes beaucoup plus souvent que les hommes aux rôles domestiques, aux enfants ou à la famille, tandis que les hommes sont plus souvent associés aux carrières, à l’autorité ou aux rôles exécutifs."
"Microsoft Azure Cognitive Services identifie le mot « masque » beaucoup plus souvent comme accessoire de mode sur les images de femmes que d’hommes, et parfois confond un masque avec une barbe si l’image est d’un homme. Cela peut paraître anecdotique, mais c’est un biais dans ce que l’IA attend selon le genre."
"Certains algorithmes de publicité sur les réseaux sociaux favorisent la diffusion d’annonces d’emploi vers des hommes plutôt que des femmes quand les métiers sont historiquement masculins, afin d’optimiser le taux de réponse ou le rendement. Cela contribue à renforcer des inégalités structurelles."
"Une étude de la London School of Economics a montré que l’IA Gemma, utilisée dans les services sociaux anglais, décrit différemment les mêmes problèmes de santé selon le genre. Pour un homme, elle parle de cas “complexes” ou “handicapants”, mais pour une femme, elle emploie des termes plus légers. Cela peut conduire à sous-estimer les besoins des femmes et à leur donner moins d’aide."
L'intelligence artificielle est omniprésente dans notre quotidien : elle trie, recommande, classe et répond, souvent sans que nous sachions vraiment comment elle fonctionne ni sur quelles données elle s’appuie.
Pourtant, derrière chaque algorithme se cachent des choix humains, et donc aussi des biais, notamment de genre, souvent invisibles mais bien ancrés dans certaines technologies. C’est pour aider à comprendre, repérer et questionner ces biais qu’a été créée la plateforme Inclusiv-IA.
Elle s’adresse à tous : aux enseignants, avec des ressources pédagogiques pour aborder la question du genre et de l’IA en classe ; aux développeurs et étudiants en technologie, avec des outils et conseils pour adopter une pratique plus critique et inclusive ; et à toute personne curieuse de mieux comprendre ce que l’IA dit (ou omet de dire) sur le monde.
Inclusiv-IA est ainsi un espace pour apprendre, réfléchir et participer à la construction d’une intelligence artificielle plus éthique, consciente et respectueuse de toutes les diversités.