Citi Seminar : Nicolas Papernot 15th december 10:00 AM

Speaker
Nicolas Papernot
https://www.papernot.fr/

Title
Learning from unlearning: how to audit ML systems?

When / Where 
Monday, December 15th at 10.
Bibliothèque Marie Curie, 31 avenue Jean Capelle 69621 Villeurbanne.
Salle Créativité 202/203

Abstract :
The talk first illustrates the challenges of having end users trust that machine learning algorithms were deployed responsibly, i.e., in a trustworthy way, through a deep dive on the problem of unlearning. The need for machine unlearning, i.e., obtaining a model one would get without training on a subset of data, arises from privacy legislation and more recently as a potential solution to data poisoning or copyright claims. As we present different approaches to unlearning, it becomes clear that they fail to answer our motivating question: how can end users verify that unlearning was successful? Taking a step back, we draw lessons for the broader area of trustworthy machine learning and present ongoing research that lay the foundations for companies, regulators, and countries to be able to verify meaningful properties at the scale that is required for stable governance of AI algorithms, both nationally and internationally.


CITI seminar Marc-Olivier Killijian : Monday, December 1st

Speaker
Marc-Olivier Killijian
https://kirija.github.io/

Title
les avancées du chiffrement homomorphe appliqué au machine learning

When / Where 
Monday, December 1st at 10.
Bibliothèque Marie Curie, 31 avenue Jean Capelle 69621 Villeurbanne.
Salle Créativité 202/203

Abstract :
Au cours des dernières années, la communauté du chiffrement homomorphe a franchi un cap décisif : le développement du functional bootstrapping dans les cryptosystèmes de type TFHE a transformé le paysage de la cryptographie appliquée au machine learning. En permettant d’évaluer efficacement des fonctions non linéaires
— longtemps considérées comme l’un des goulots d’étranglement fondamentaux du calcul chiffré — ces avancées offrent aujourd’hui la possibilité de transposer, presque sans compromis, des primitives d’apprentissage automatique dans un cadre entièrement chiffré.

Dans ce séminaire, il dressera un panorama de ces progrès et illustrerai, à travers trois contributions récentes, comment ces nouvelles briques cryptographiques ouvrent la voie à une véritable chaîne complète de machine learning sécurisé :
– Inférence chiffrée grâce à PROBONITE (WHAC’22), une des première méthode non-interactive permettant la traversée d’arbres de décision sous chiffrement en exploitant les opérations de comparaison dérivées du bootstrapping programmable.
– Apprentissage chiffré, avec BlindSort et Private k-NN (PETS’25), qui montrent comment exploiter les LUT homomorphes et les opérations inconscientes pour trier, agréger ou classer des données sensibles sans jamais les déchiffrer.
– Dés-apprentissage chiffré, présenté pour la première fois dans notre travail en cours, qui démontre qu’il est désormais possible de supporter de l’exact unlearning d’arbres de décision sous TFHE, de manière inconsciente, c’est-à-dire en rendant indiscernables les requêtes de formation, d’inférence et de dés-apprentissage.

Ces trois résultats illustrent une vision unifiée : l’utilisation de primitives comme le programmable bootstrapping, les LUT chiffrées ou les opérations d’accès aveugle (blind access) permet de dépasser la simple inférence privée, longtemps considérée comme l’horizon du FHE, pour aller vers des modèles réellement dynamiques, adaptatifs et conformes aux exigences modernes de protection de la vie privée — incluant notamment le droit à l’effacement.

Il conclura en discutant les perspectives offertes par ces nouveaux paradigmes, leurs défis pratiques et les questions ouvertes pour le déploiement de systèmes d’apprentissage machine complètement chiffrés, sûrs et auditables.