Dans cet épisode d’IA Café,  nous replongeons dans un sujet que vous avez aimé : les biais en IA.  Avec Jean-Philippe Beauregard, nous retournons à la source en explorant non pas les biais en intelligence artificielle, mais les biais propres à notre intelligence humaine, et donc ... naturelle! Et cela, évidemment afin d'approfondir notre compréhension des biais en IA!

Nous avions entamé cette réflexion dès l’épisode 8 (avec Justine Dima) intitulé : «Dis-moi qui tu embauches, et je te dirai qui tu es» (publié le 28 janvier 2021). Nous avions poursuivi notre réflexion avec l’équipe et les collaborateur d’IA Café à l’épisode 9 intitulé : «Biais psychosociaux -  une IA humaine trop humaine» (publié le11 février 2021). 

Cette enquête sur les biais n’a donc jamais pris de repos. Le nombre de fois où le terme biais est mentionné dans nos 35 premiers épisodes! C’est un thème récurrent, mais nous prenons rarement le temps de l’approfondir. Les réflexions de Jean-Philippe Beauregard nous permettront de faire quelques pas de plus dans notre enquête.Plusieurs thèmes abordés:Analyse des faits - De la discrimination et du racisme systémique en ressources humaines et dans le processus d'embauche - quelques expériences et résultats surprenants!Le problème - Des biais en ressources humaines - Définition, exemple, nature, fréquence Les causes - Des causes pyschologiques et sociales Les solutions et conseils - De la gestion prudente des biais en RH et quelques conseils à celles et ceux qui sont impliqués dans la conception d'IA  Bonne écoute! 

Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Fredérick Plamondon, Sylvain Munger, Shirley Plumerand.

Principales sources Jean-Philippe Beauregard, Thèse de doctorat : Les frontières invisibles de l’embauche des Québécois minoritaires : hiérarchie ethnique, effet modérateur du genre féminin et discrimination systémique. Dévoiler la barrière à l’emploi par un testing à Québec (2020)