L’intelligence artificielle, miroir de nos sociétés stéréotypées
L’intelligence artificielle, miroir de nos sociétés stéréotypées
Tech Biais inconscients Sexisme Inclusion IA
Daphné Marnat
Daphné Marnat est anthropologue de formation et fondatrice de la startup Unbias, spécialisée dans la lutte contre les biais sexistes dans l'intelligence artificielle.
Biais automatiques du langage, bulles algorithmiques... L'intelligence artificielle, par son fonctionnement même d’apprentissage, renforce les biais sexistes.
Alors que l’intelligence artificielle se développe, la prise de conscience de ces biais est nécessaire.
Comment les détecter et comment les corriger ? Comment agir pour plus de diversité parmi celles et ceux qui construisent l’intelligence artificielle ? Comment promouvoir une intelligence artificielle éthique et inclusive ?
Grâce à son expertise interdisciplinaire en sciences sociales et en intelligence artificielle, Daphné offre un regard unique sur la manière dont les préjugés sexistes se manifestent dans les algorithmes et les implications de ces biais sur la société. Elle partage également sa vision sur la façon dont les entreprises et les développeurs.euses peuvent travailler à créer des technologies plus justes et équitables.
En mettant en lumière le rôle crucial de l'IA en tant que reflet de nos sociétés, elle encourage une réflexion approfondie sur la manière dont nous pouvons façonner un avenir numérique plus inclusif.
Cette conférence se déroule en trois grandes parties :
Partie 1 – Quand l’IA reflète (et amplifie) les inégalités de nos sociétés
Le fonctionnement des modèles de langues utilisés par les IA
Le mythe de l’IA neutre : pourquoi “refléter la société” revient à reproduire ses inégalités
Exemples concrets de biais sexistes, racistes et âgistes dans les usages de l’IA
Les effets de loupe : amplification des stéréotypes dans la génération de textes, d’images et de recommandations
Les risques pour les organisations qui déploient des outils d’IA
Partie 2 – Les biais de l’IA : un enjeu qui va au-delà de la dimension technique
Ce qu’est un biais : regards croisés entre sciences de l’information et sciences humaines
Les biais à toutes les étapes : données d’entraînement, langues, méthodes d’apprentissage, choix de conception
Le rôle des imaginaires technologiques et de la sous-représentation de certains groupes dans la Tech
Les limites d’une réponse purement technologique aux discriminations
Partie 3 – Faire de l’IA un levier pour réduire les discriminations
Identifier, mesurer et rendre visibles les biais à l’aide des outils d’IA
Exemples d’usages pour concevoir des systèmes plus inclusifs
L’IA comme outil d’introspection collective plutôt que de reproduction automatique
Les conditions de réussite : gouvernance, diversité des équipes, vigilance humaine et cadre réglementaire
Vers une IA au service du dialogue, de l’égalité et de la responsabilité sociétale