Thu 5 Nov 2020
Épisode 3 - Debriefing (Philippe Després) - Nourrir la bête
Retour sur l\'entrevue de Philippe Després.
JF, David et Fred discutent de l\'entrevue et des thèmes abordés par Philippe Després.
1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner? Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre.
2. Le consentement (à l’utilisation de données). Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé». Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne.
3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :o Facile à (re) trouver : identifiant unique et pérenne, indexé, langage commun
o Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles)
o Interopérables : ???
o Réutilisables : données qui peuvent être réutilisées
JF, David et Fred discutent de l\'entrevue et des thèmes abordés par Philippe Després.
1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner? Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre.
2. Le consentement (à l’utilisation de données). Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé». Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne.
3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :o Facile à (re) trouver : identifiant unique et pérenne, indexé, langage commun
o Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles)
o Interopérables : ???
o Réutilisables : données qui peuvent être réutilisées