Mon 24 Jun 2024
Podcast /
NEOQUÉBEC

Lien de l'épisode /
NEOQUÉBEC


Dans cettte chronique, MÉLISSA CANSELIET discute de l\'importance cruciale de l\'intelligence artificielle (IA), des biais algorithmiques et de la justice sociale.
Pour la Directrice de Humanet, \"...Bien que l\'IA soit perçue comme une technologie avancée, il n\'en reste pas moins qu\'elle repose sur des données fournies et traitées par des humains, lesquels peuvent introduire des biais\". Ces biais algorithmiques peuvent avoir des impacts sociaux significatifs, notamment en marginalisant certaines minorités lors de la prise de décisions importantes, telles que l\'octroi de prêts bancaires ou l\'admission universitaire.
Mélissa Candeliet insiste sur la nécessité de comprendre les fondamentaux de l\'IA pour pouvoir participer à des débats pertinents et corriger ces biais. Elle explique en outre que l\'IA reproduit des calculs basés sur des données humaines, et dès lors que ces données sont biaisées, l\'IA l\'est aussi. Par des exemples concrets, comme des dispositifs de reconnaissance ne fonctionnant pas pour toutes les couleurs de peau, l\'experte en neurosciences souligne l\'importance de la diversité et de l\'inclusion dans le développement de l\'IA.
Enfin pour elle, il est crucial de comprendre que l\'inclusion et la diversité ne sont pas seulement des questions idéologiques mais aussi des enjeux pragmatiques et financiers. Des biais dans les systèmes d\'IA peuvent mener à des erreurs coûteuses pour les entreprises. Il est donc essentiel de corriger ces biais pour garantir des décisions justes et représentatives.
En conclusion, Mélissa Canseliet appelle à une prise de conscience collective et à une participation active des citoyens dans les discussions autour de l\'IA, en soulignant que comprendre l\'IA ne nécessite pas des compétences techniques poussées, mais une volonté de s\'impliquer et de poser des questions pour un futur technologique équitable.
(c) CYEK-LE PODCAST (Juin 2024)
Hébergé par Acast. Visitez acast.com/privacy pour plus d\'informations.