Posts by Labelia Labs
Replay Meetup Data Science Responsable et de confiance - S04E03

Au programme de ce troisième opus de la saison 4 :

  • "L'Union Européenne va-t-elle interdire ChatGPT ? Enjeux et sur les méthodologies d’audit des LLMs qui se dégagent dans le paysage réglementaire et scientifique."
    Grégoire Martinon, Hao Li, Aymen Mejro, Hadrien Strichard (Quantmetry)

  • Synthèse du livre blanc "Generative AI Survey - The Technology, the Rewards & the Risks" pour l'élaboration duquel Artefact a interviewé plus de 50 entreprises
    Hanan Ouazan (Artefact)

Read More
Replay Meetup Data Science Responsable et de confiance - S03E05

Au programme de ce meetup :

  • Giada Pistilli, Principal Ethicist d'Hugging Face présente ses travaux sur l'éthique ainsi que sur OpenRail, nouveau cadre de licence open source des modèles d'IA

  • Xavier Lioneton de datacraft et Gwendal Bihan d'Axionable et Impact AI présentent l'­AI Act Day, événement le 15 décembre 2022 à la Sorbonne pour comprendre, mettre en pratique et anticiper le futur règlement européen de l'IA

Read More
Replay Meetup Data science responsable et de confiance - Saison 3 - épisode 2

Au programme :

  • Hafid Ait Sidi Hammou, chargé de mission chez la Métropole Européenne de Lille a présente certaines problématiques d’IA dans les organismes publics.

  • Alexis Leautier de la CNIL présente le guide d'auto-évaluation pour les systèmes d'intelligence artificielle et ses travaux sur l'IA.

  • Emmanuelle Legrand, de la Direction Générale des Entreprises intervient pour présenter les enjeux et le calendrier autour de la réglementation européenne de l'IA.

Read More
Labelia Labs
Découvrez “Labelia”, le label IA responsable et de confiance

Labelia, le Label IA Responsable et de Confiance !

Alors que le projet de règlement européen sur l’IA a été dévoilé au printemps 2021 et dans un contexte où les risques liés aux Data Sciences sont de plus en plus prégnants, les organisations se doivent d’adopter des pratiques, des outils, des approches de l’IA qui soient responsables afin de donner confiance.


Read More
Labelia Labs
[Part 2/2] Using Distributed Learning for Deepfake Detection

In the first part of this article, we introduced a secure, traceable and distributed ML approach for a deepfake detection benchmark using the Substra framework. In this second part, we will present the technical details of the Substra framework and see the whole process of implementing an example on Substra, in order to allow you to submit your own algorithms or add your dataset to the Substra network.

Read More
Labelia Labs
The nuts and bolts of Differential Privacy (Part 1/2)

Does the term Differential Privacy ring a bell? If it doesn’t then you’re in for a treat! The first part of this article provides a quick introduction to the notion of Differential Privacy, a new robust mathematical approach to formulate the privacy guarantee of data related tasks. We will be covering some of its use cases, untangle its mechanisms and key properties and see how it works in practice.

This article has been written by Heytem Boumaza, intern at Substra Foundation.

Read More
Labelia Labs
[Post invité] - Data for Good x Substra Foundation - Pour une data science responsable et de confiance

Substra Foundation est une organisation à but non lucratif indépendante, qui a pour objectif de développer et de promouvoir un écosystème pour une data science responsable et de confiance. Elle a été créée en partant d’un constat : « le potentiel des technologies d’IA est immense, mais, aujourd’hui, il est difficile d’avoir confiance en l’IA » ; la solution proposée : développer des approches pour une IA responsable et de confiance.

Read More
Labelia Labs
Pourquoi et comment évaluer la contributivité d’un partenaire dans un projet collaboratif de machine learning ?

our satisfaire aux exigences de sécurité relatives aux données dans certains domaines, une solution est de se diriger vers des approches d’apprentissage automatique distribué, collaboratif et multi-acteurs. Mais cela implique alors l'élaboration d'une notion de contributivité pour quantifier la participation d’un partenaire au modèle final. La définition d’une telle notion n’est pas immédiate : pouvoir implémenter facilement, expérimenter et comparer différentes approches demande un outil de simulation. C’est ce que nous avons entrepris de développer, sous la forme de la librairie Python open source mplc dans le cadre d’un groupe de travail réunissant plusieurs partenaires.

Read More
Labelia Labs
[1/2] Utilisation de l'apprentissage distribué pour la détection de deepfakes

Dans cet article, nous présentons plusieurs techniques de manipulation faciale appelées «deepfakes» et montrons pourquoi il est important d'améliorer la recherche sur la détection de deepfakes. Nous présentons l'état de l'art des jeux de données et des algorithmes de détection de deepfake, et introduisons une approche d'apprentissage automatique sécurisée, traçable et distribuée pour un benchmark d’algorithmes de détection de deepfake à l'aide du framework Substra.


Read More
Labelia Labs