Privacy-Preserving Federated Learning
Substra Framework a rejoint LF AI & Data en tant que nouveau projet incubé !
Pour plus d’information, consultez le communiqué de presse.
Approche et concepts clés de Substra
Différentes technologies de protection de la confidentialité (privacy-enhancing technologies) font l’objet de recherches et sont développées par la communauté ‘privacy’. Elles constituent une palette d’options pour renforcer la confidentialité des jeux de données et des modèles dans les projets de data science, et deviennent de plus en plus critiques.
Le framework Substra permet d’orchestrer des tâches de machine learning entre plusieurs partenaires, de manière sécurisée, traçable et distribuée. Il vient outiller les projets collaboratifs de data science. Il vise à être compatible avec un maximum de privacy-enhancing technologies afin de compléter leur usage et permettre la création de workflows de data science efficace, transparent, protecteur de la confidentialité des données. Son ambition est de permettre l’émergence de nouvelles collaborations scientifiques et industrielles en data science.
Données immobiles
Les jeux de données sont immobiles et restent dans les infrastructures des organisations qui les gèrent. Les algorithmes circulent sur le réseau sécurisé.
Traçabilité
Les traces des opérations effectuées sont enregistrées de manière immuable et incorruptible dans le registre distribué, permettant par exemple la certification de modèles.
Confiance décentralisée
Toutes les tâches de ML sont orchestrées par un registre distribué (DLT). Il devient possible de se passer d'un tiers de confiance, la sécurité est construite au coeur de l'application décentralisée.
Modularité
Différents régimes de permissions peuvent être configurés sur les objets (e.g. algorithmes, jeux de données...) afin de modéliser différents cas d'usage et les workflows de data science correspondants.