L'intelligence artificielle est omniprésente dans notre quotidien : elle trie, recommande, classe et répond, souvent sans que nous sachions vraiment comment elle fonctionne ni sur quelles données elle s’appuie.
Pourtant, derrière chaque algorithme se cachent des choix humains, et donc aussi des biais, notamment de genre, souvent invisibles mais bien ancrés dans certaines technologies. C’est pour aider à comprendre, repérer et questionner ces biais qu’a été créée la plateforme Inclusiv-IA.
Elle s’adresse à tous : aux enseignants, avec des ressources pédagogiques pour aborder la question du genre et de l’IA en classe ; aux développeurs et étudiants en technologie, avec des outils et conseils pour adopter une pratique plus critique et inclusive ; et à toute personne curieuse de mieux comprendre ce que l’IA dit (ou omet de dire) sur le monde.
Inclusiv-IA est ainsi un espace pour apprendre, réfléchir et participer à la construction d’une intelligence artificielle plus éthique, consciente et respectueuse de toutes les diversités.
Après avoir regardé la vidéo, listez les mots-clés qui vous semblent révéler des biais de genre (séparés par des virgules)