L’intelligence artificielle, miroir de nos sociétés stéréotypées

L’intelligence artificielle, miroir de nos sociétés stéréotypées

Tech Biais inconscients Sexisme Inclusion IA

Daphné Marnat

Daphné Marnat est anthropologue de formation et fondatrice de la startup Unbias, spécialisée dans la lutte contre les biais sexistes dans l'intelligence artificielle.

 

Biais automatiques du langage, bulles algorithmiques... L'intelligence artificielle, par son fonctionnement même d’apprentissage, renforce les biais sexistes.

Alors que l’intelligence artificielle se développe, la prise de conscience de ces biais est nécessaire.
Comment les détecter et comment les corriger ? Comment agir pour plus de diversité parmi celles et ceux qui construisent l’intelligence artificielle ? Comment promouvoir une intelligence artificielle éthique et inclusive ?

Grâce à son expertise interdisciplinaire en sciences sociales et en intelligence artificielle, Daphné offre un regard unique sur la manière dont les préjugés sexistes se manifestent dans les algorithmes et les implications de ces biais sur la société. Elle partage également sa vision sur la façon dont les entreprises et les développeurs.euses peuvent travailler à créer des technologies plus justes et équitables.

En mettant en lumière le rôle crucial de l'IA en tant que reflet de nos sociétés, elle encourage une réflexion approfondie sur la manière dont nous pouvons façonner un avenir numérique plus inclusif.

Cette conférence se déroule en trois grandes parties :

Partie 1 – Quand l’IA reflète (et amplifie) les inégalités de nos sociétés

  • Le fonctionnement des modèles de langues utilisés par les IA

  • Le mythe de l’IA neutre : pourquoi “refléter la société” revient à reproduire ses inégalités

  • Exemples concrets de biais sexistes, racistes et âgistes dans les usages de l’IA

  • Les effets de loupe : amplification des stéréotypes dans la génération de textes, d’images et de recommandations

  • Les risques pour les organisations qui déploient des outils d’IA

Partie 2 – Les biais de l’IA : un enjeu qui va au-delà de la dimension technique

  • Ce qu’est un biais : regards croisés entre sciences de l’information et sciences humaines

  • Les biais à toutes les étapes : données d’entraînement, langues, méthodes d’apprentissage, choix de conception

  • Le rôle des imaginaires technologiques et de la sous-représentation de certains groupes dans la Tech

  • Les limites d’une réponse purement technologique aux discriminations

Partie 3 – Faire de l’IA un levier pour réduire les discriminations

  • Identifier, mesurer et rendre visibles les biais à l’aide des outils d’IA

  • Exemples d’usages pour concevoir des systèmes plus inclusifs

  • L’IA comme outil d’introspection collective plutôt que de reproduction automatique

  • Les conditions de réussite : gouvernance, diversité des équipes, vigilance humaine et cadre réglementaire

  • Vers une IA au service du dialogue, de l’égalité et de la responsabilité sociétale


 

Informations pratiques

1h
Public illimité
Présentiel / Distanciel
Français / Anglais
 

 

D’autres conférences sur les mêmes thématiques