Comprendre les biais dans les intelligences artificielles génératives

Cette leçon expose comment Stable Diffusion, un outil d’intelligence artificielle générative, reproduit des biais de genre et d’ethnie présents dans ses données d’entraînement, tout en soulignant la nécessité d’un regard critique et de solutions pour améliorer l’équité des modèles IA.

Détails de la leçon

Description de la leçon

Dans cette vidéo pédagogique, le fonctionnement des intelligences artificielles génératives comme Stable Diffusion est analysé sous l’angle des biais sociaux et culturels qu'elles peuvent amplifier. L'orateur met en lumière que, lors de la création d’images à partir de demandes textuelles simples, l’IA tend à générer de manière récurrente les mêmes stéréotypes : un PDG représenté systématiquement comme un homme blanc, entouré d'employé·es dans un bureau moderne. Cet exemple illustre le biais de genre et souligne un manque de diversité dans les réponses produites.

La leçon aborde également le biais d’ethnie, particulièrement visible lorsque Stable Diffusion génère des images de criminels ou d’arrestations, illustrant plus souvent des personnes sud-américaines ou nord-africaines, ce qui révèle une reproduction de stéréotypes historiques par l’algorithme. Cependant, une évolution positive est soulignée : certains nouveaux prompts aboutissent à une plus grande diversité d’apparences, sans intervention complexe ni prompt négatif, montrant que les IA peuvent s’améliorer avec le temps et la correction de leurs modèles d'apprentissage.

Cette réflexion sur les biais vise à sensibiliser les utilisateurs professionnels et grand public, et à engager une démarche responsable dans la création et l’utilisation d’images générées par IA.

Objectifs de cette leçon

Les objectifs sont de détecter et analyser les biais sociétaux présents dans les images générées par l’IA, de sensibiliser à l’importance d’une utilisation responsable de ces outils, et de favoriser la réflexion critique sur l’amélioration de l’équité dans les modèles génératifs.

Prérequis pour cette leçon

Une connaissance de base de l’intelligence artificielle, de la génération d’images par IA ou une familiarité avec des outils tels que Stable Diffusion facilitera la compréhension complète de la leçon.

Métiers concernés

Les professionnels concernés incluent les data scientists, concepteur·rices d’IA, spécialistes de l’éthique, graphistes, chargé·es de communication visuelle ou encore des chercheurs en sciences sociales appliquées à la technologie.

Alternatives et ressources

Parmi les alternatives à Stable Diffusion, on peut citer Midjourney, DALL-E, Craiyon ou encore des solutions open source telles que Disco Diffusion. Chacune présente des particularités relatives à la diversité et au contrôle des sorties générées.

Questions & Réponses

Les principaux biais sont le biais de genre, où l’IA génère quasi systématiquement des images de PDG représentés comme des hommes blancs, et le manque de diversité, reflétant des stéréotypes dominants dans les données d’entraînement.
Le biais d’ethnie se manifeste par la représentation disproportionnée de personnes sud-américaines ou nord-africaines dans des situations d’arrestation, ce qui témoigne d’une amplification des stéréotypes historiques par l’algorithme.
Oui, il est mentionné que certains progrès sont visibles : de nouvelles générations d’images peuvent présenter une plus grande diversité phénotypique, même sans prompts négatifs, ce qui indique un perfectionnement progressif des modèles génératifs.