Thu 25 Feb 2021
Épisode 10 - Actualités: Clearview AI, Gebru, DEDA.
Cet épisode est presque en direct. Nous souhaitions publier, de temps à autre, des épisodes de type actualité. La formule est connue. On regarde un peu ce qui se dit, ce qu’on lit, ce qui se passe dans le monde de l’AI. On vous en fait un résumé. On en discute un peu.
Dans cet épisode:Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.Jean-François un outil d\'aide à la décision en matière d\'éthique des données massives: le Data Ethics Decision Aid (DEDA).Les articles cités sont ici:Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001 Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503. Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology. Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493.
Dans cet épisode:Ève explore l’affaire Clearview AI. Un rapport conjoint des commissaires à la protection de la vie privée du Canada et des commissaires de trois provinces a en effet conclu que la société technologique américaine Clearview AI représentait de la «surveillance de masse» et avait commis une violation manifeste du droit à la vie privée des Canadiens.David fait un suivi sur le cas Timnit Gebru. Il a lu deux articles, dont celui publié par la principale concernée.Jean-François un outil d\'aide à la décision en matière d\'éthique des données massives: le Data Ethics Decision Aid (DEDA).Les articles cités sont ici:Enquête conjointe sur Clearview AI, Inc. par le Commissariat à la protection de la vie privée du Canada, la Commission d’accès à l’information du Québec, le Commissariat à l’information et à la protection de la vie privée de la Colombie-Britannique et le Commissariat à l’information et à la protection de la vie privée de l’Alberta. Rapport de conclusions d’enquête en vertu de la LPRPDE no 2021-001 Tamkin, A., Brundage, M., Clark, J., & Ganguli, D. (2021). Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models. arXiv preprint arXiv:2102.02503. Aline Shakti Franzke, Iris Muis et Mirko Tobias Schäfer, Data Ethics Decision Aid (DEDA): a dialogical framework for ethical inquiry of AI and data projects in the Netherlands, Ethics and Information Technology. Mörch, C. M., Gupta, A., & Mishara, B. L. (2019). Canada protocol: An ethical checklist for the use of artificial Intelligence in suicide prevention and mental health. arXiv preprint arXiv:1907.07493.