Au programme de ce dernier opus de la saison 4 :
Une vision “patrimoine IA” pour gérer l’intégration d’un grand nombre de briques IA en production
Samuel Jaulin, Yann Golhen (MAIF)Les coûts cachés (voire oubliés) des LLMs
Céline Alby (Axionable)
Voici la version française du blog de Labelia Labs. There is also an English version.
Au programme de ce dernier opus de la saison 4 :
Une vision “patrimoine IA” pour gérer l’intégration d’un grand nombre de briques IA en production
Samuel Jaulin, Yann Golhen (MAIF)
Les coûts cachés (voire oubliés) des LLMs
Céline Alby (Axionable)
Au programme de ce troisième opus de la saison 4 :
"L'Union Européenne va-t-elle interdire ChatGPT ? Enjeux et sur les méthodologies d’audit des LLMs qui se dégagent dans le paysage réglementaire et scientifique."
Grégoire Martinon, Hao Li, Aymen Mejro, Hadrien Strichard (Quantmetry)
Synthèse du livre blanc "Generative AI Survey - The Technology, the Rewards & the Risks" pour l'élaboration duquel Artefact a interviewé plus de 50 entreprises
Hanan Ouazan (Artefact)
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)
Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Au programme du 1er meetup de cette saison 4 :
IA éthique et responsable : comment s'aligner sur la future règlementation européenne ?
Grégoire Martinon, Philippe Neveux, Olivier Petit, Nicolas Girard (Quantmetry)
Projet P16 porté par l’INRIA dans le cadre de la Stratégie Nationale pour l'IA
François Goupil (INRIA)
Au programme de ce meetup :
Giada Pistilli, Principal Ethicist d'Hugging Face présente ses travaux sur l'éthique ainsi que sur OpenRail, nouveau cadre de licence open source des modèles d'IA
Xavier Lioneton de datacraft et Gwendal Bihan d'Axionable et Impact AI présentent l'AI Act Day, événement le 15 décembre 2022 à la Sorbonne pour comprendre, mettre en pratique et anticiper le futur règlement européen de l'IA
Au programme de ce meetup :
La MAIF présente Eurybia, sa nouvelle librairie open source permettant de surveiller les modèles de machine learning en production et d'éviter les dérives des modèles
Quantmetry présente sa méthode pour adapter des données temporelles impactées par le COVID-19 pour le machine learning
Read MoreArtefact est fière d’annoncer l’obtention du label Labelia - IA Responsable et de Confiance décerné par l’association indépendante Labelia Labs.
Read MoreAu programme :
Hafid Ait Sidi Hammou, chargé de mission chez la Métropole Européenne de Lille a présente certaines problématiques d’IA dans les organismes publics.
Alexis Leautier de la CNIL présente le guide d'auto-évaluation pour les systèmes d'intelligence artificielle et ses travaux sur l'IA.
Emmanuelle Legrand, de la Direction Générale des Entreprises intervient pour présenter les enjeux et le calendrier autour de la réglementation européenne de l'IA.
Retrouvez le replay de notre premier Meetup de la saison 3 co-organisé avec Data for Good et la Fing.
Read MoreA l'occasion de ce 3ème meetup Data Science Responsable et de Confiance de l'année organisé par Substra Foundation et Data For Good du 21 juin 2021, nos invités ont défriché et discuté des perspectives d la proposition de réglementation européenne de l'Intelligence Artificielle.
Read MorePionnier des services et solutions d’IA responsable et à finalité durable en France et au Canada, Axionable double la mise après avoir été la première entreprise certifiée IA éthique par le LNE
Read MoreLabelia, le Label IA Responsable et de Confiance !
Alors que le projet de règlement européen sur l’IA a été dévoilé au printemps 2021 et dans un contexte où les risques liés aux Data Sciences sont de plus en plus prégnants, les organisations se doivent d’adopter des pratiques, des outils, des approches de l’IA qui soient responsables afin de donner confiance.
In the first part of this article, you had your first encounter with Differential Privacy and learned why it’s so awesome. In this second part, we’ll present to you three python libraries for implementing Differential Privacy: Difflibpriv, TensorFlow-Privacy and Opacus.
Read MoreIn the first part of this article, we introduced a secure, traceable and distributed ML approach for a deepfake detection benchmark using the Substra framework. In this second part, we will present the technical details of the Substra framework and see the whole process of implementing an example on Substra, in order to allow you to submit your own algorithms or add your dataset to the Substra network.
Read MoreDoes the term Differential Privacy ring a bell? If it doesn’t then you’re in for a treat! The first part of this article provides a quick introduction to the notion of Differential Privacy, a new robust mathematical approach to formulate the privacy guarantee of data related tasks. We will be covering some of its use cases, untangle its mechanisms and key properties and see how it works in practice.
This article has been written by Heytem Boumaza, intern at Substra Foundation.
Read MoreCet article de blog est une introduction à la notion de distillation de modèle et son lien avec la privacy. Il a été écrit par Gijs Barmentlo dans le cadre de la saison 8 de Data For Good.
Read MoreCet article tente d'éclaircir le sujet complexe et vaste de l'équité dans le machine learning. Sans être exhaustif, il propose un certain nombre de définitions et d'outils très utiles que tout Data Scientist doit s'approprier pour aborder ce sujet.
Read MoreSubstra Foundation est une organisation à but non lucratif indépendante, qui a pour objectif de développer et de promouvoir un écosystème pour une data science responsable et de confiance. Elle a été créée en partant d’un constat : « le potentiel des technologies d’IA est immense, mais, aujourd’hui, il est difficile d’avoir confiance en l’IA » ; la solution proposée : développer des approches pour une IA responsable et de confiance.
Read Moreour satisfaire aux exigences de sécurité relatives aux données dans certains domaines, une solution est de se diriger vers des approches d’apprentissage automatique distribué, collaboratif et multi-acteurs. Mais cela implique alors l'élaboration d'une notion de contributivité pour quantifier la participation d’un partenaire au modèle final. La définition d’une telle notion n’est pas immédiate : pouvoir implémenter facilement, expérimenter et comparer différentes approches demande un outil de simulation. C’est ce que nous avons entrepris de développer, sous la forme de la librairie Python open source mplc dans le cadre d’un groupe de travail réunissant plusieurs partenaires.
Read MoreDans cet article, nous présentons plusieurs techniques de manipulation faciale appelées «deepfakes» et montrons pourquoi il est important d'améliorer la recherche sur la détection de deepfakes. Nous présentons l'état de l'art des jeux de données et des algorithmes de détection de deepfake, et introduisons une approche d'apprentissage automatique sécurisée, traçable et distribuée pour un benchmark d’algorithmes de détection de deepfake à l'aide du framework Substra.