Les IA sont-elles plus sexistes que nous ?
Les IA sont-elles plus sexistes que nous ?
Intelligence artificielle Sexisme Biais discriminants Bonnes pratiques
Thomas Belhalfaoui
Thomas travaille depuis 2013 en tant qu'ingénieur en machine learning, à la croisée de l'informatique et des mathématiques appliquées. Il conçoit et développe des algorithmes d'intelligence artificielle auprès d'entreprises et de services publics. Il est également formateur sur ces sujets et porte un intérêt particulier aux enjeux sociétaux de ces technologies. Il est par ailleurs l'auteur du podcast "Mais c'était un bon père" portant sur les violences conjugales vues par les enfants.
Depuis la sortie en 2022 de ChatGPT, l’usage les intelligences artificielles génératives est en passe de devenir hégémonique, que ce soit pour produire des textes ou des images, rechercher des informations ou prendre des décisions. Mais si les productions des IA sont virtuelles, leur impact sur nos vies, lui, est bien réel. Loin d’être neutres, ces outils sont le miroir grossissant des stéréotypes de notre société, à commencer par ceux liés au genre.
Comment les stéréotypes sexistes des IA se manifestent-ils en pratique ? D’où proviennent-ils ? Les IA sont-elles un simple reflet des stéréotypes qui traversent notre société ou jouent-elles un rôle d’amplification ? Comment, dans nos usages quotidiens, peut-on s’en prémunir ?
Lors de cette conférence interactive, nous verrons ensemble comment utiliser au mieux les outils d’IA dans une perspective d’égalité entre les femmes et les hommes :
À travers des exemples concrets (textes et images) mise en évidence de la vision sexiste du monde sous-tendue par les IA,
Une mise en lumière les enjeux sociétaux que pose leur usage massif,
Et un bref détour par le fonctionnement interne des IA pour comprendre l’origine de leurs biais sexistes.
En replaçant l’utilisateur·ice au centre de l’interaction humain-machine, nous proposerons des solutions concrètes pour faire un usage réflexif des IA en apprenant à contrecarrer leurs biais.