La notion de genre dans l’enseignement secondaire
Outil pédagogique développé par RoSa vzw, qui promeut la sensibilisation au genre en Flandre et contribue à la déconstruction des inégalités entre les hommes et les femmes dans la société. Disponible en traduction française. Suite de la vidéo "Le Grand Show du Genre".
Le Grand Show du Genre
Le Grand Show du Genre vous emmène à travers un parcours de tables rondes, d'interprétations d'experts et de témoignages. Successivement, le genre, les stéréotypes de genre et l'intersectionnalité seront abordés. En néerlandais sous-titré français. Cette vidéo a servi de base à la fiche pédagogique "La notion de genre dans l'enseignement secondaire".
Chouette pas Chouette
Activités d'éducation aux médias et à l'information sur le thème de l'égalité filles-garçons.
Lutter contre les stéréotypes de genre à l’école
Formations et ressources pour mettre en place une pédagogie de l’égalité, et lutter efficacement contre les stéréotypes de genre à l'école.
Egalia : mission Stéréotypos
Escape game pédagogique sur l'égalité filles-garçons.
eMERGE (e-Media Education about Representations of GEnder)
Projet Erasmus+ d'éducation aux médias sur les représentations de genre.
OK Mila
Podcast sur différents enjeux de l'IA. Les biais de genre sont abordés dans les deux épisodes consacrés à la diversité.
Outils pour lutter contre les stéréotypes de genre dans l’orientation scolaire et professionnelle
Outils concrets et interactifs qui s’adressent aux professionnel·le·s de la formation en Alternance pour sensibiliser les jeunes de 15 à 24 ans aux stéréotypes de genre qui influencent leurs choix scolaires et professionnels.
Stéréotypes de genre : organiser une séance pédagogique en classe
L’orientation a-t-elle un sexe ? La réponse est encore malheureusement oui, tant les manuels scolaires, les médias et nos biais cognitifs poussent les jeunes à l'auto-censure. Voici quelques ressources utiles pour le primaire et le secondaire pour organiser une séance pédagogique.
Comment l’IA renforce les préjugés sexistes, et ce que l’on peut faire pour tenter d’y remédier
Entretien avec Zinnya del Villar, experte en IA responsable, sur les biais sexistes de l’intelligence artificielle et la mise au point d’une technologie inclusive.
Pourquoi le travail des femmes risque d’être plus impacté par l’intelligence artificielle que celui des hommes
Article de la RTBF expliquant en quoi les femmes sont surreprésentées dans les métiers les plus impactés par l'IA.
Not my AI
Projet qui cherche à rapprocher les mouvements féministes des problèmes sociaux et politiques que les décisions algorithmiques comportent. Articles, cartographies de projets potentiellement néfastes en Amérique latine.
L’IA génère de nouvelles formes d’inégalités entre les femmes et les hommes
Article sur le besoin de débiaiser les algorhitmes, et sur les lacunes de la légistlation européenne en la matière.
Les métiers ont-ils un genre pour l'intelligence artificielle ?
Séance de cours de 2 heures qui explore l’évolution des enjeux liés à l’emploi et aux inégalités de genre depuis les écrits
d’Olympe de Gouges jusqu’aux défis actuels liés à l’intelligence artificielle.
Pacte pour une intelligence artificielle égalitaire entre les femmes et les hommes.
Le pacte pour une intelligence artificielle égalitaire entre les femmes et les hommes.
IA générative : Une étude de l’UNESCO révèle la présence d’importants stéréotypes de genre
Article de presse sur une étude de l'UNESCO qui révele la présence d'importants stéréotypes de genre dans l'IA générative.
AI tools show biases in ranking job applicants’ names according to perceived race and gender
Article de presse sur une expérience menée par l'université de Washington qui met en avant des baii de genre dans le
classement des noms des candidat.e.s pour un emploi.
Gender bias in artificial intelligence : empowering women through digital literacy
Article de presse sur les préjugés sexistes dans l'intelligence articielle et sur la manière d'autonomiser les femmes grâce
à la culture numérique.
The Gender Bias Built Into AI — And Its Threat to Women’s Health
Article sur l'impact des biais de genre dans l'IA sur la santé des femmes.
Les intelligences artificielles et leurs usages en éducation
Site internet sur l’usage de l’IA dans l’éducation.
Inégalité de genre et IA : un défi pour l’innovation éthique
Cet article explore comment les systèmes d’intelligence artificielle intègrent des biais de genre. Il appelle à une plus grande transparence, à des dispositifs législatifs contraignants et à une meilleure représentation des femmes en STIM pour garantir une innovation réellement éthique.
Algorithm Watch
Site internet d'une association en Allemagne qui vise à réduire les discriminations induites par les algorithmes.
The Algorithm for Equality
Article de presse qui questionne la manière dont les biais humains se reproduisent dans les algorithmes d’intelligence
artificielle, et qui invite à repenser leur conception pour en faire des outils plus justes et inclusifs.
Guide pour une approche réflexive de l'IA en éducation
Guide qui explore les postures possibles face à l’introduction de l’IA en éducation, en offrant des pistes
réflexives et des outils pour enseignants et apprenants.
The Soccer-Playing Unicorn: Mitigating Gender Bias in AI-Created STEM Teaching Materials
Article de conférence qui analyse les risques de biais de genre dans les contenus pédagogiques créés avec l’aide d’IA,
notamment en STEM, et propose des stratégies concrètes pour que les enseignant.e.s atténuent ces biais.
Guide pratique de l’IA à l’Inspé de l’académie de Créteil : Une approche technique, pédagogique et critique de son usage dans un cadre scolaire et universitaire
Guide pratiquede l’usage de l’IA qui recense les enjeux techniques, pédagogiques et éthiques de l’IA, propose des exemples d’usage en enseignement et des bonnes pratiques pour construire des “prompts” efficaces.
Catalogue of Tools & Metrics for Trustworthy AI
LangBiTe est une plateforme de test pour détecter les biais dans les grands modèles de langage (LLM). Elle génère automatiquement des scénarios de test à partir d’un catalogue de plus de 300 questions multilingues pour évaluer l’équité et la transparence.
Meta releases a dataset to probe computer vision models for biases
Meta a publié un jeu de données appelé FACET pour évaluer les biais dans les modèles de vision par ordinateur.
Composé de 32 000 images représentant 50 000 personnes, FACET permet d'analyser les discriminations liées à des
attributs démographiques et physiques, ainsi qu'à des professions ou activités spécifiques. L'objectif est de fournir aux
chercheurs un outil pour tester et améliorer l'équité de leurs modèles.
The "Fairness" of AI - Meta's New FACET Benchmark
Le benchmark FACET de Meta est une ressource avancée pour évaluer les biais dans les modèles de vision par ordinateur, en offrant une analyse détaillée des stéréotypes liés au genre, à la race, à l'âge et aux professions.
Décrypter les stéréotypes et biais sexistes dans l’intelligence artificielle
Séquence pédagogique en EMC avec des élèves de 5ᵉ (y compris avec handicap) pour comprendre les stéréotypes
de genre et les biais sexistes dans les IA, via des activités variées (jeux, analyse, production vidéo).
Stéréotypes et IA
Séance pédagogique pour des élèves de secondaire qui analyse les biais de genre dans les images générées par des outils d’IA générative, à travers des ateliers de comparaison, des exercices de prompt, et une réflexion critique sur les stéréotypes.
Sensibilisation aux biais de genre dans l'intelligence artificielle
Module de sensibilisation aux enjeux des biais de genre dans l’IA, destiné à accompagner des publics dans
leur réflexion et leur action face aux discriminations algorithmiques.
Fiche 15 : Stéréotypes de genre
Atelier pour sensibiliser au concept de stéréotypes de genre via des exercices de tri d’images, de discussion et de
déconstructions des clichés.
Abécédaire de l’IA
Fiches classées en ordre alphabétique abordant des concepts phares de l’intelligence artificielle. Chaque fiche comporte une définition et un exemple pour mieux cerner les concepts ciblés. Chacune d’elles appartient à une des trois catégories suivantes : concepts fondamentaux, éthique de l’IA et technique de l’IA.
Formation aux biais de genre dans l'IA
Vidéo de promotion pour une formation aux biais de genre dans l’IA (1m 52s).
Battling AI bias in the classroom
Webinaire pour enseignants sur les biais dans l'IA (59m 27s).
Conférence « L'IA générative en éducation : Comprendre pour mieux enseigner et apprendre »
Enregistrement d'un séminaire sur l'utilisation de l'IA dans l'éducation (29m 30s).
Timeline of gender bias in AI
Vidéo introductive sur l'origine des biais de genre dans l'IA (3m 59s).
Biais de genre dans les nouvelles technologies
Vidéo introduction aux biais de genre dans l'IA et leurs conséquences dans le monde réel (5m 58s).
L’IA et le genre
Vidéo de sensibilisation au genre, à l'inclusivité, et aux discriminations dans l'IA.
The importance of gender perspective in technology
Conférence sur la reproduction des biais dans les technologies et leurs conséquences dans le monde réel.
Brisk Outils d'IA pour les enseignants
Brisk Teaching est une plateforme d’intelligence artificielle qui aide les enseignants à créer, adapter et corriger plus
facilement leurs cours grâce à des outils automatisés comme la génération de plans de leçons, de quiz et de commentaires personnalisés.
L'IA pour les Enseignants : Réinventer l’enseignement avec les nouveaux outils
Article qui explique comment l'IA aide les enseignants à automatiser les tâches, créer des supports pédagogiques et personnaliser l'apprentissage.
Comment de nouveaux outils détectent et atténuent les biais dans les systèmes d’IA
Article présentant un outil qui détectent les biais dans l'IA.
Fairlearn
Fairlearn est un package Python permettant aux développeurs de systèmes d'intelligence artificielle (IA) d'évaluer l'équité de leurs systèmes et d'atténuer les problèmes d'injustice observés. Fairlearn contient des algorithmes d'atténuation ainsi que des métriques pour l'évaluation des modèles. Outre le code source, ce dépôt contient également des notebooks Jupyter avec des exemples d'utilisation de Fairlearn.
Aequitas: Bias Auditing & "Correction" Toolkit
Outil pour auditer les prédicteurs des modèles de Machine Learning, ainsi que pour expérimenter la correction des modèles biaisés à l'aide des méthodes Fair ML dans des contextes de classification binaire.
Trusted-AI/AIF360
Un ensemble complet de métriques pour les jeux de données et les modèles d'apprentissage supervisés, des explications sur ces métriques et des algorithmes pour réduire les biais sur les jeux de données et les modèles. La bibliothèque est écrite en Python.
SeeBias
Un ensemble complet de métriques pour les jeux de données et les modèles d'apprentissage supervisés, des explications sur ces métriques et des algorithmes pour réduire les biais sur les jeux de données et les modèles. La bibliothèque est écrite en R.
LangBite
Un cadre de développement (framework) pour tester les biais dans les grands modèles de langages (LLM) écrit en Python.
Faceset
Un jeu de données pour évaluer l'équité dans les systèmes de visions par ordinateur.
Beyond Accuracy: Understanding Fairness Score in LLM Evaluation
Cet article explore le concept d'équité pour les LLM. Il illustre comment évaluer l'équité d'un modèle
et comment remédier à un manque d'équité.
Fairness metrics in machine learning
Cet article présente des métriques pour évaluer l'équité d'un modèle d'apprentissage.
Getting started with fairlearn
Cet article montre comment fairlearn aide à évaluer l'équité d'un modèle d'apprentissage et à réduire les biais liés à l'équité.
Évaluer l'équité dans les modèles d'apprentissage auto-supervisé
Cet article présente une recherche scientifique où des techniques d'apprentissage non-supervisé ont été appliquées avant des techniques d'apprentissage supervisées pour améliorer l'équité dans les prédictions.
Equité et explicabilité des algorithmes d’apprentissage automatique : un défi technique et juridique
Un article de recherche scientifique mettant en évidence les défis techniques et juridiques liés à l'équité, notamment de genre, dans les algorithmes d'apprentissage supervisé.
Meta releases tool to detect computer vision bias
Article sur un outil de Meta pour détecter les biais raciaux et de genre dans l'interprétation d'image par IA.
Intelligence artificielle : l’UNESCO lance le Réseau des femmes pour une IA éthique, plateforme d'expertes pour faire progresser l’égalité des genres
Article sur le lancement de la plateforme Women4Ethical AI par l'UNESCO.
Measuring and Mitigating Bias: Introducing Holistic AI's Open-Source Library
Bibliothèque open source pour mesurer et atténuer les biais dans l'IA.
Gender Bias In AI: Addressing Technological Disparities
Cet article examine les origines des biais de l’IA et ses conséquences dans différents secteurs, et propose des solutions concrètes pour créer des systèmes d’IA plus équitables.
Gender Bias in AI: An Experiment with ChatGPT in Financial Inclusion
L'article du Center for Financial Inclusion qui expérimente les biais que Chat GPT présente dans ses conseils financiers.
"Is AI sexist?" - Emily Maxie on examining gender bias in Large Language Models
Présentation d'Emily Maxie qui explore la question des préjugés dans l'intelligence artificielle (19m 38s).
Ouvrage d'introduction au machine learning
Ce document est une introduction complète au machine learning. Il couvre les fondations (types d’apprentissages, formalisation, évaluation), les algorithmes supervisés classiques (régression, arbres, SVM, réseaux de neurones) ainsi que le clustering et la réduction de dimension.
Digital Wallonia IA
Un programme régional pour accélérer l’adoption de l’IA en Wallonie notamment via des formations gratuites.
Analyser un texte littéraire et un texte produit par l’IA pour questionner les stéréotypes de genre
L’activité propose de comparer un texte littéraire classique et un texte produit par une intelligence artificielle.
Les apprenants identifient les représentations genrées des personnages, observent la présence de stéréotypes et
réfléchissent à la manière dont ces représentations se transmettent dans la culture et les outils numériques.
La démarche permet de croiser analyse littéraire et esprit critique numérique.
Vittascience
Vittascience est une plateforme éducative pensée pour l’apprentissage de l’IA et du codage, qui propose des outils innovants pour l'enseignement.
Programmer des cartes, robots, jeux, etc., la seule limite est l'imagination !

