Thu 30 Mar 2023
Épisode 57 - Moratoire (ou pause) sur l'intelligence artificielle! Un pas de recul?
Gros programme. On parle de l’actualité IA. Et on parle (évidemment!) de cette lettre, publiée par l’institut Future of Life, qui demande aux chercheurs dans le domaine de l’I.A. de prendre une pause de six mois dans leurs recherches et expérimentations en IA. Six mois pour se donner le temps de réfléchir à la place que l’on souhaite donner à l’IA en société, est-ce nécessaire? Est-ce suffisant?
Avec mes collaborateurs et collaboratrices (Fred, Shirley, Sylvain), nous tentons de prendre un «pas de recul» pour décider si cette pause est un «pas de recul» ou non.
Au programme:GPT4, Bard, LlaMA - Premières expérimentations et commentairesEncadrement normatif de la vidéosurveillance algorithmique au jeux Olympiques de 2024 - Indifférence et acceptabilité passiveUn homme se suicide - l'imputabilité du robot conversationnelCours 101 sur les LLM (Large language models)Taxonomie des risques en IA - Un peu d'ordre!Lettre de l'institut Future of life - Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/Quelques références mentionnées par Fred:Shanahan, M. (2022). Talking About Large Language Models (arXiv:2212.03551). arXiv. Floridi, L., & Chiriatti, M. (2020). GPT-3 : Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681‑694. https://doi.org/10.1007/s11023-020-09548-1 Weidinger, L., Uesato, J., Rauh, et al. (2022). Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness, Accountability, and Transparency, 214‑229. https://doi.org/10.1145/3531146.3533088 Emily Bender : https://medium.com/@emilymenonbenderAI Snake Oil : https://newsblur.com/site/8752802/ai-snake-oil: https://newsblur.com/site/8943851/iris-van-rooij Dan Mcquillan : https://www.danmcquillan.org/chatgpt.html , Resisting AI Collaboratrices et collaborateurs invités: Shirley Plumerand, Frédérick Plamondon, Sylvain Munger.
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: Ève Gaumond, David Beauchemin, Maxime Heuillet.
Avec mes collaborateurs et collaboratrices (Fred, Shirley, Sylvain), nous tentons de prendre un «pas de recul» pour décider si cette pause est un «pas de recul» ou non.
Au programme:GPT4, Bard, LlaMA - Premières expérimentations et commentairesEncadrement normatif de la vidéosurveillance algorithmique au jeux Olympiques de 2024 - Indifférence et acceptabilité passiveUn homme se suicide - l'imputabilité du robot conversationnelCours 101 sur les LLM (Large language models)Taxonomie des risques en IA - Un peu d'ordre!Lettre de l'institut Future of life - Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/Quelques références mentionnées par Fred:Shanahan, M. (2022). Talking About Large Language Models (arXiv:2212.03551). arXiv. Floridi, L., & Chiriatti, M. (2020). GPT-3 : Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681‑694. https://doi.org/10.1007/s11023-020-09548-1 Weidinger, L., Uesato, J., Rauh, et al. (2022). Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness, Accountability, and Transparency, 214‑229. https://doi.org/10.1145/3531146.3533088 Emily Bender : https://medium.com/@emilymenonbenderAI Snake Oil : https://newsblur.com/site/8752802/ai-snake-oil: https://newsblur.com/site/8943851/iris-van-rooij Dan Mcquillan : https://www.danmcquillan.org/chatgpt.html , Resisting AI Collaboratrices et collaborateurs invités: Shirley Plumerand, Frédérick Plamondon, Sylvain Munger.
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: Ève Gaumond, David Beauchemin, Maxime Heuillet.