Search engine for discovering works of Art, research articles, and books related to Art and Culture
ShareThis
Javascript must be enabled to continue!

Trustworthy collaborative learning : Personalization, privacy, and robustness at the edge

View through CrossRef
Apprentissage collaboratif de confiance : Personnalisation, confidentialité et cobustesse en environnements décentralisés Il y a une vingtaine d'années, l'émergence du Web 2.0 a profondément transformé notre rapport au numérique en permettant aux utilisateurs de créer et partager du contenu sur une multitude de plateformes, générant ainsi un volume croissant de données. Combinée aux récents progrès en apprentissage automatique, cette abondance de données a permis l'apparition de nombreux services basés sur l'apprentissage (e.g., agents conversationnels, assistants vocaux, détection de fraude). Traditionnellement, l'entraînement des modèles sous-jacents à ces services reposait sur la collecte de données sensibles par des entités centralisées, souvent les fournisseurs de service eux-mêmes. Cette centralisation a soulevé de sérieuses préoccupations en matière de confidentialité, comme en témoignent les multiples scandales liés à la vie privée au cours de la dernière décennie. En réponse, plusieurs réglementations, telles que le Règlement Général sur la Protection des Données (RGPD), ont été mises en place. Dans ce contexte, repenser les paradigmes d'apprentissage classiques pour les rendre plus respectueux de la vie privée est devenu essentiel. L'apprentissage fédéré a vu le jour en 2017 avec la promesse de préserver la confidentialité des données en permettant à des utilisateurs d'entraîner collaborativement un modèle sans jamais partager leurs données brutes. Ce paradigme a donné naissance à une classe plus large d'approches appelée apprentissage collaboratif. Il est désormais bien établi que l'apprentissage fédéré souffre de plusieurs limitations, notamment sa dépendance à un serveur central (point de défaillance unique) et sa vulnérabilité à diverses attaques en confidentialité et robustesse. C'est dans cette optique que l'apprentissage par commérage a été proposé, avec la promesse d'une décentralisation totale, s'appuyant sur des protocoles de communication pair-à-pair, dits protocoles de bavardage. Dans ce paradigme, chaque nœud agit comme un mini-serveur fédéré, coordonnant l'apprentissage avec ses voisins via un graphe de communication dynamique. Toutefois, il reste à démontrer si cette approche permet réellement de dépasser les limites de l'apprentissage fédéré, notamment en matière de personnalisation, de protection de la vie privée et de robustesse face aux comportements malveillants. Cette thèse s'attache à explorer ces questions. Dans un premier temps, nous comparons les performances individuelles des modèles produits par ces deux paradigmes, avant de proposer PEPPER, une structure logicielle permettant d'exploiter pleinement le potentiel de l'apprentissage par commérage à des fins de personnalisation, et de surpasser l'approche fédérée sur cet aspect. Dans un second temps, nous introduisons CIA, une attaque d'inférence de communautés utilisée pour auditer les vulnérabilités de confidentialité des deux paradigmes. Cette étude révèle une certaine résilience intrinsèque de l'apprentissage par commérage face à ce type d'attaques d'inférence comparative. Enfin, nous nous penchons sur la robustesse de ce paradigme face aux attaques par empoisonnement de modèles. Bien que sa nature dynamique puisse l'exposer davantage à ce type de menaces, nous proposons GRANITE, un cadre logiciel robuste pour l'apprentissage par commérage sur des graphes dynamiques. Dans l'ensemble, ce travail met en évidence le potentiel de l'apprentissage par commérage à s'imposer comme une alternative crédible à long terme pour des systèmes d'apprentissage décentralisés, transparents et centrés sur l'utilisateur.
Agence Bibliographique de l'Enseignement Supérieur
Title: Trustworthy collaborative learning : Personalization, privacy, and robustness at the edge
Description:
Apprentissage collaboratif de confiance : Personnalisation, confidentialité et cobustesse en environnements décentralisés Il y a une vingtaine d'années, l'émergence du Web 2.
0 a profondément transformé notre rapport au numérique en permettant aux utilisateurs de créer et partager du contenu sur une multitude de plateformes, générant ainsi un volume croissant de données.
Combinée aux récents progrès en apprentissage automatique, cette abondance de données a permis l'apparition de nombreux services basés sur l'apprentissage (e.
g.
, agents conversationnels, assistants vocaux, détection de fraude).
Traditionnellement, l'entraînement des modèles sous-jacents à ces services reposait sur la collecte de données sensibles par des entités centralisées, souvent les fournisseurs de service eux-mêmes.
Cette centralisation a soulevé de sérieuses préoccupations en matière de confidentialité, comme en témoignent les multiples scandales liés à la vie privée au cours de la dernière décennie.
En réponse, plusieurs réglementations, telles que le Règlement Général sur la Protection des Données (RGPD), ont été mises en place.
Dans ce contexte, repenser les paradigmes d'apprentissage classiques pour les rendre plus respectueux de la vie privée est devenu essentiel.
L'apprentissage fédéré a vu le jour en 2017 avec la promesse de préserver la confidentialité des données en permettant à des utilisateurs d'entraîner collaborativement un modèle sans jamais partager leurs données brutes.
Ce paradigme a donné naissance à une classe plus large d'approches appelée apprentissage collaboratif.
Il est désormais bien établi que l'apprentissage fédéré souffre de plusieurs limitations, notamment sa dépendance à un serveur central (point de défaillance unique) et sa vulnérabilité à diverses attaques en confidentialité et robustesse.
C'est dans cette optique que l'apprentissage par commérage a été proposé, avec la promesse d'une décentralisation totale, s'appuyant sur des protocoles de communication pair-à-pair, dits protocoles de bavardage.
Dans ce paradigme, chaque nœud agit comme un mini-serveur fédéré, coordonnant l'apprentissage avec ses voisins via un graphe de communication dynamique.
Toutefois, il reste à démontrer si cette approche permet réellement de dépasser les limites de l'apprentissage fédéré, notamment en matière de personnalisation, de protection de la vie privée et de robustesse face aux comportements malveillants.
Cette thèse s'attache à explorer ces questions.
Dans un premier temps, nous comparons les performances individuelles des modèles produits par ces deux paradigmes, avant de proposer PEPPER, une structure logicielle permettant d'exploiter pleinement le potentiel de l'apprentissage par commérage à des fins de personnalisation, et de surpasser l'approche fédérée sur cet aspect.
Dans un second temps, nous introduisons CIA, une attaque d'inférence de communautés utilisée pour auditer les vulnérabilités de confidentialité des deux paradigmes.
Cette étude révèle une certaine résilience intrinsèque de l'apprentissage par commérage face à ce type d'attaques d'inférence comparative.
Enfin, nous nous penchons sur la robustesse de ce paradigme face aux attaques par empoisonnement de modèles.
Bien que sa nature dynamique puisse l'exposer davantage à ce type de menaces, nous proposons GRANITE, un cadre logiciel robuste pour l'apprentissage par commérage sur des graphes dynamiques.
Dans l'ensemble, ce travail met en évidence le potentiel de l'apprentissage par commérage à s'imposer comme une alternative crédible à long terme pour des systèmes d'apprentissage décentralisés, transparents et centrés sur l'utilisateur.

Related Results

Personalizing the Museum Experience in Qatar
Personalizing the Museum Experience in Qatar
IntroductionMuseum Personalization was identified as one of the six most important emerging trends for museums in 2015 by the Center for the Future of Museums.[1] It is an approach...
Magic graphs
Magic graphs
DE LA TESIS<br/>Si un graf G admet un etiquetament super edge magic, aleshores G es diu que és un graf super edge màgic. La tesis està principalment enfocada a l'estudi del c...
Augmented Differential Privacy Framework for Data Analytics
Augmented Differential Privacy Framework for Data Analytics
Abstract Differential privacy has emerged as a popular privacy framework for providing privacy preserving noisy query answers based on statistical properties of databases. ...
Privacy Risk in Recommender Systems
Privacy Risk in Recommender Systems
Nowadays, recommender systems are mostly used in many online applications to filter information and help users in selecting their relevant requirements. It avoids users to become o...
Personalization and Consumer Privacy: Balancing Targeted Marketing with Trust
Personalization and Consumer Privacy: Balancing Targeted Marketing with Trust
The high rate of growth of digital commerce has changed the way businesses relate with consumers, making personalization a key strategy to generate engagement, customer satisfactio...
THE SECURITY AND PRIVACY MEASURING SYSTEM FOR THE INTERNET OF THINGS DEVICES
THE SECURITY AND PRIVACY MEASURING SYSTEM FOR THE INTERNET OF THINGS DEVICES
The purpose of the article: elimination of the gap in existing need in the set of clear and objective security and privacy metrics for the IoT devices users and manufacturers and a...
Heterogeneous Differential Privacy
Heterogeneous Differential Privacy
The massive collection of personal data by personalization systems has rendered the preservation of privacy of individuals more and more difficult. Most of the proposed approaches ...
Personalization Technologies in Cyberspace
Personalization Technologies in Cyberspace
Hundreds of thousands of companies worldwide are using the Web as a major channel to interact with their customers for brand promotion, product marketing, order fulfillment, and af...

Back to Top