On imagine souvent l’intelligence artificielle (IA) comme une entité froide, logique et parfaitement neutre. Pourtant, la réalité est beaucoup plus complexe: l’IA peut agir comme un miroir qui amplifie les failles de notre société. Ce qu’on appelle le biais en IA n’est pas une simple erreur de calcul, mais une différence systématique dans le comportement d’un modèle qui mène à des résultats injustes ou discriminatoires.
Voici un tour d’horizon pour comprendre pourquoi nos machines «dérapent» et comment nous tentons de les corriger.
D’où viennent ces biais?
Selon le cadre de gestion des risques du NIST (National Institute of Standards and Technology), les biais naissent de trois sources principales:
- Le biais systémique: Il est ancré dans les données historiques. Si une société a discriminé certains groupes pendant des décennies, l’IA entraînée sur ces archives apprendra et reproduira ces schémas.
- Le biais d’échantillonnage: Il survient lorsque les données ne sont pas représentatives. Par exemple, une IA de diagnostic médical entraînée majoritairement sur des peaux claires sera moins précise pour les peaux foncées.
- Le biais cognitif humain: Les concepteurs injectent inconsciemment leurs propres préférences ou préjugés lors de la création de l’algorithme, par exemple en choisissant certaines variables plutôt que d’autres.
Quand l’IA décide de notre avenir: justice et emploi
L’impact des biais devient critique lorsqu’il touche des domaines qui transforment des vies:
- En justice: L’affaire Loomis vs Wisconsin a mis en lumière le logiciel COMPAS, utilisé pour prédire le risque de récidive. L’algorithme surévaluait systématiquement le risque pour les personnes afro-américaines par rapport aux personnes blanches, perpétuant ainsi des préjugés raciaux.
- Dans le secteur bancaire: Si une IA est entraînée pour évaluer l’octroi d’un crédit, elle pourrait décider de refuser un prêt simplement parce que le demandeur habite dans un code postal jugé «à risque». La machine établit un lien statistique entre ce quartier et un risque de défaut de paiement, sans «savoir» qu’elle est en train de pénaliser injustement une communauté spécifique sur la base de son origine ou de sa pauvreté.
- Même les outils comme ChatGPT ne sont pas épargnés. Ils souffrent parfois d’un biais de vraisemblance (likelihood bias), privilégiant des phrases statistiquement probables (bien structurées) au détriment de la justesse ou de la pertinence réelle du contenu.
Peut-on «guérir» une IA biaisée?
La réponse courte est: c’est très difficile. Les experts parlent du principe «No Free Lunch» (pas de repas gratuit): réduire un biais spécifique (comme le genre) peut, par un effet d’entraînement, en augmenter un autre ou nuire à la performance globale du modèle.
De plus, il existe un risque appelé l’effet performatif: les humains ont tendance à faire une confiance aveugle à la machine, craignant de commettre une faute s’ils contredisent un résultat algorithmique, même s’il semble injuste.
Pour lutter contre cela, certaines approches peuvent être adoptées:
- Intervenir sur les données: Rééquilibrer les dossiers pour que toutes les populations soient représentées équitablement ou de manière représentative de la réalité.
- La diversité humaine: Pour créer une intelligence artificielle plus juste, il est essentiel d’avoir des équipes de développement diversifiées qui permettent de repérer les «angles morts» ou les préjugés cachés que l’on ne voit pas toujours seul. En mélangeant des points de vue variés, on réduit l’influence des préférences personnelles des concepteurs et on s’assure que la technologie traite tout le monde de façon plus équitable.
- L’interprétabilité: Plutôt que d’essayer d’expliquer après coup le fonctionnement d’une «boîte noire» complexe et opaque, certains experts prônent l’utilisation de modèles intrinsèquement simples et transparents pour les décisions graves (santé, justice), afin que chaque citoyen puisse comprendre le «pourquoi» d’une décision.
Vers une IA plus juste: la loi s’en mêle
Avec la montée en puissance de l’intelligence artificielle, les gouvernements commencent à poser des limites claires. En Europe, une nouvelle loi appelée AI Act fixe désormais des règles strictes. Certains usages de l’IA sont totalement interdits, par exemple le fait de noter les citoyens ou d’analyser leurs émotions au travail.
D’autres applications, comme celles utilisées pour recruter des employés ou aider à rendre des décisions de justice, sont considérées comme plus sensibles. Elles restent autorisées, mais seulement sous une surveillance étroite, avec de lourdes amendes en cas d’abus.
Au Québec, il n’existe pas encore de loi dédiée uniquement à l’IA. Cela ne veut pas dire pour autant que tout est permis. Les règles actuelles reposent surtout sur la Loi 25, qui protège les données personnelles et oblige les organisations à être transparentes lorsqu’une décision importante est prise automatiquement par un système informatique.
Mais le cadre légal est appelé à évoluer. Un groupe d’experts réunis par le Conseil de l’innovation du Québec recommande maintenant d’adopter une loi spécifique sur l’IA, inspirée de ce qui se fait en Europe. L’idée serait d’évaluer les systèmes selon leur niveau de risque: interdire ceux qui posent un danger pour la société, comme la surveillance de masse, et encadrer de très près ceux utilisés dans des domaines sensibles, comme la santé ou l’éducation.
En attendant, les entreprises ont déjà intérêt à prendre ces enjeux au sérieux. Au Québec, le non-respect des règles actuelles sur les données peut entraîner des sanctions importantes, avec des amendes pouvant aller jusqu’à 25 millions de dollars.
Les biais en IA à la GRICS
À la GRICS, la question des biais en intelligence artificielle est prise très au sérieux. Dès la conception de nos outils, nous travaillons à identifier, réduire et surveiller les risques de biais, en particulier dans un contexte aussi sensible que celui de l’éducation.
Pour y parvenir, nous collaborons étroitement avec des experts reconnus, notamment à l’Obvia (Observatoire international sur les impacts sociétaux de l’IA et du numérique) et Mila (Institut québécois d’intelligence artificielle), afin d’adopter les meilleures pratiques scientifiques et éthiques de l’industrie.
Cette approche proactive nous place en avance sur les exigences réglementaires actuelles: nous contribuons même à l’élaboration d’un guide de bonnes pratiques pour le développement d’une IA responsable dans le secteur de l’éducation.
Note: Cet article a été rédigé avec l’appui d’outils d’intelligence artificielle générative, puis révisé et validé par l’équipe de rédaction.
Références
- Conseil de l’innovation du Québec. (2024). Réflexion collective sur l’encadrement de l’IA – Dossier thématique no 1 : Le cadre de gouvernance de l’intelligence artificielle.
- National Institute of Standards and Technology (NIST). (2022). Special Publication 1270: Towards a Standard for Identifying and Managing Bias in Artificial Intelligence.
- Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). (2025). Understanding the European AI Act and Its International Echoes.
- OBVIA. Comprendre les enjeux éthiques et juridiques de l’IA.
- Amine, Mehdi. Intelligence artificielle et justice : un respect des droits de l’homme par un robot est-il possible?, Essai réalisé pour le concours du Conseil Supérieur de la Justice.
- Commission des droits de la personne et des droits de la jeunesse (CDPDJ) et OBVIA. Respecter les droits de la personne en intelligence artificielle.
- Caton, Simon et Christian Haas. (2020). Fairness in Machine Learning: A Survey, arXiv:2010.04053.
- Chand, Shireen, Faith Baca, Emilio Ferrara et Thomas Lord. (2024). No Free Lunch in Language Model Bias Mitigation? Targeted Bias Reduction Can Exacerbate Unmitigated LLM Biases, arXiv.
- Langlois Avocats. (2023). Encadrement légal de l’intelligence artificielle : où en sommes-nous au Canada et au Québec?.
- Skadden, Arps, Slate, Meagher & Flom LLP. (2023). AI Risk: Evaluating and Managing It Using the NIST Framework.