Data science responsable et de confiance

 
 
unnamed.png

AUJOURD’HUI, IL EST DIFFICILE D’AVOIR CONFIANCE DANS L’IA

 

Les technologies d’IA requièrent des volumes de données importants pour atteindre de bons niveaux de performance, ce qui soulève des questionnements légitimes sur les risques de fuite de données sensibles. La manière dont les algorithmes sont entraînés et validés, ainsi que leurs niveaux de performance et leurs robustesses, sont également une source de préoccupation croissante pour de nombreux acteurs. Aujourd’hui, il est difficile d’avoir confiance dans l’IA.

 
 
 
 

Dans le même temps, le machine learning poursuit son expansion dans la recherche, les processus métiers, les produits et services, ou le marketing dans de nombreux secteurs. En tant qu’approches techniques ou déjà comme outils spécialisés, la data science est au cœur d’une quantité innombrable de projets qui visent à découvrir de nouvelles choses, optimiser l’existant ou ouvrir des possibilités innovantes. Le potential de l’IA est immense.

Substra foundation_Illustration 8.png

LE POTENTIEL DE L’IA EST IMMENSE

 
 
 
Substra foundation_Illustration 1.png

IL FAUT INVENTER L’IA DE CONFIANCE BY-DESIGN

 

Les deux tendances décrites ci-dessus ne vont pas ralentir dans les années qui viennent. Nous pensons que les deux sont nécessaires, et qu’elles doivent être réconciliées, conjuguées ensemble. Des solutions techniques et organisationnelles nouvelles sont indispensables pour cela, pour créer la confiance qui manque encore, pour rendre possible des collaborations à grande échelle entre les entreprises, les institutions publiques et les citoyens. En un mot, il faut inventer l’IA de confiance ‘by-design’.

 
 

Nous sommes une organisation à but non lucratif indépendante, dédiée au développement d’écosystèmes de data science de confiance (Plus d’infos).

 

Nos grands projets collaboratifs

 
 

IA responsable et de confiance - label Labelia

Nous animons depuis 2019 une initiative participative sur le thème de l’IA responsable et de confiance.

Lauréate en 2020 du prix Dataforgood, l’initiative a déjà produit 3 outils à destination des praticiens :

Il s’agit du 1er label en Europe dans le champ de l’IA responsable et de confiance. À ce jour, 8 organisations l’ont obtenu : Axionable, MAIF, Artefact, Apricity, Quantmetry, Ekimetrics, Crédit Agricole Datalab Groupe, Gradiant.ai (Canada).

Plus d’infos

Substra foundation_Illustration 3.png
 
 
Logo_Melloddy_color.jpg

MELLODDY - Recherche pharmaceutique (terminé)

Le projet MELLODDY vise à développer une plateforme pour créer des modèles plus performants de prédiction du potentiel de composés chimiques dans le domaine de la recherche pharmaceutique. Il démontre un nouveau modèle de collaboration entre des industriels concurrents dans le domaine de la recherche pharmaceutique, et implique un volume de données de recherches sans précédent. La plateforme développée répond aux besoins exigeants de sécurité et de préservation de la confidentialité entre les industriels, tout en permettant un apprentissage collaboratif distribué à même d’améliorer la performance prédictive générale.

(17 partenaires, financement 18m€, juin 2019 - mai 2022)

Plus d'infos

 

HealthChain - IA sur données cliniques (terminé)
Le consortium HealthChain rassemble des hôpitaux, des laboratoires de recherche, de jeunes entreprises innovantes et Labelia Labs (ex Substra Foundation) dans l’objectif d’élaborer des modèles d’IA sur des données cliniques. L’entraînement et la validation de ces modèles sont réalisés grâce au framework Substra, afin de sécuriser l’exécution distante et distribuée des apprentissages machine sur les données de santé. Ce projet est une première preuve de concept du framework Substra et vise également à établir sa conformité au RGPD.

(9 partenaires, financement 10m€, juin 2018 - mai 2021)

Plus d'infos

 

Vers des approches responsable et de confiance de la data science

 
 
 
Bannière Home site Substra-09.png