Search engine for discovering works of Art, research articles, and books related to Art and Culture
ShareThis
Javascript must be enabled to continue!

Hybrid processing for algorithmic fairness

View through CrossRef
Traitement hybride pour l'équité algorithmique Les décisions algorithmiques sont actuellement utilisées quotidiennement. Ces décisions reposent souvent sur des algorithmes d'apprentissage automatique (machine learning, ML) qui peuvent produire des modèles complexes et opaques. Des études récentes ont soulevé des problèmes d'iniquité en révélant des résultats discriminatoires produits par les modèles ML contre des minorités et des groupes non privilégiés. Comme les modèles ML sont capables d'amplifier la discrimination en raison de résultats injustes, cela révèle la nécessité d'approches qui découvrent et suppriment les biais inattendues. L'évaluation de l'équité et l'atténuation de l'iniquité sont les deux tâches principales qui ont motivé la croissance du domaine de recherche en équité algorithmique (algorithmic fairness). Plusieurs notions utilisées pour évaluer l'équité se concentrent sur les résultats et sont liées à des attributs sensibles (par exemple, l'éthinicité) par des mesures statistiques. Bien que ces notions aient une sémantique distincte, l'utilisation de ces définitions est critiquée pour sa compréhension réductrice de l'équité, dont le but est essentiellement de mettre en œuvre des rapports d'acceptation/non-acceptation, ignorant d'autres perspectives sur l'iniquité et l'impact sociétal. Process fairness (équité des procédures) est au contraire une notion d'équité subjective, centrée sur le processus qui conduit aux résultats. Pour atténuer ou supprimer l'iniquité, les approches appliquent généralement des interventions en matière d'équité selon des étapes spécifiques. Elles modifient généralement soit les données avant l'apprentissage, la fonction d'optimisation ou les sorties des algorithmes afin d'obtenir des résultats plus équitables. Récemment, les recherches ont été consacrées à l'exploration de combinaisons de différentes interventions en matière d'équité, ce qui est désigné dans cette thèse par le traitement hybride de l'équité. Une fois que nous essayons d'atténuer l'iniquité, une tension entre l'équité et la performance apparaît, connue comme le compromis équité/précision. Cette thèse se concentre sur le problème du compromis équité/précision, puisque nous sommes intéressés par la réduction des biais inattendues sans compromettre les performances de classification. Nous proposons donc des méthodes ensemblistes pour trouver un bon compromis entre l'équité et la performance de classification des modèles ML, en particulier les classificateurs binaires. De plus, ces méthodes produisent des classificateurs d'ensemble grâce à une combinaison d'interventions sur l'équité, ce qui caractérise les approches de traitement hybride de l'équité. Nous proposons FixOut (FaIrness through eXplanations and feature dropOut), un framework centré sur l'humain et agnostique vis-à-vis des modèles qui améliore l'équité sans compromettre les performances de classification. Il reçoit en entrée un classificateur pré-entraîné, un ensemble de données, un ensemble de attributs sensibles et une méthode d'explication, et il produit un nouveau classificateur qui dépend moins des attributs sensibles. Pour évaluer la dépendance d'un modèle pré-entraîné aux attributs sensibles, FixOut utilise des explications pour estimer la contribution des attributs aux résultats du modèle. S'il s'avère que les attributs sensibles contribuent globalement aux résultats, alors le modèle est considéré comme injuste. Dans ce cas, il construit un groupe de classificateurs plus justes qui sont ensuite agrégés pour obtenir un modèle d'ensemble. Nous montrons l'adaptabilité de FixOut sur différentes combinaisons de méthodes d'explication et d'approches d'échantillonnage. Nous évaluons également l'efficacité de FixOut par rapport au process fairness mais aussi en utilisant des notions d'équité standard bien connues disponibles dans la littérature. De plus, nous proposons plusieurs améliorations telles que l'automatisation du choix des paramètres et l'extension de FixOut à d'autres types de données.
Agence Bibliographique de l'Enseignement Supérieur
Title: Hybrid processing for algorithmic fairness
Description:
Traitement hybride pour l'équité algorithmique Les décisions algorithmiques sont actuellement utilisées quotidiennement.
Ces décisions reposent souvent sur des algorithmes d'apprentissage automatique (machine learning, ML) qui peuvent produire des modèles complexes et opaques.
Des études récentes ont soulevé des problèmes d'iniquité en révélant des résultats discriminatoires produits par les modèles ML contre des minorités et des groupes non privilégiés.
Comme les modèles ML sont capables d'amplifier la discrimination en raison de résultats injustes, cela révèle la nécessité d'approches qui découvrent et suppriment les biais inattendues.
L'évaluation de l'équité et l'atténuation de l'iniquité sont les deux tâches principales qui ont motivé la croissance du domaine de recherche en équité algorithmique (algorithmic fairness).
Plusieurs notions utilisées pour évaluer l'équité se concentrent sur les résultats et sont liées à des attributs sensibles (par exemple, l'éthinicité) par des mesures statistiques.
Bien que ces notions aient une sémantique distincte, l'utilisation de ces définitions est critiquée pour sa compréhension réductrice de l'équité, dont le but est essentiellement de mettre en œuvre des rapports d'acceptation/non-acceptation, ignorant d'autres perspectives sur l'iniquité et l'impact sociétal.
Process fairness (équité des procédures) est au contraire une notion d'équité subjective, centrée sur le processus qui conduit aux résultats.
Pour atténuer ou supprimer l'iniquité, les approches appliquent généralement des interventions en matière d'équité selon des étapes spécifiques.
Elles modifient généralement soit les données avant l'apprentissage, la fonction d'optimisation ou les sorties des algorithmes afin d'obtenir des résultats plus équitables.
Récemment, les recherches ont été consacrées à l'exploration de combinaisons de différentes interventions en matière d'équité, ce qui est désigné dans cette thèse par le traitement hybride de l'équité.
Une fois que nous essayons d'atténuer l'iniquité, une tension entre l'équité et la performance apparaît, connue comme le compromis équité/précision.
Cette thèse se concentre sur le problème du compromis équité/précision, puisque nous sommes intéressés par la réduction des biais inattendues sans compromettre les performances de classification.
Nous proposons donc des méthodes ensemblistes pour trouver un bon compromis entre l'équité et la performance de classification des modèles ML, en particulier les classificateurs binaires.
De plus, ces méthodes produisent des classificateurs d'ensemble grâce à une combinaison d'interventions sur l'équité, ce qui caractérise les approches de traitement hybride de l'équité.
Nous proposons FixOut (FaIrness through eXplanations and feature dropOut), un framework centré sur l'humain et agnostique vis-à-vis des modèles qui améliore l'équité sans compromettre les performances de classification.
Il reçoit en entrée un classificateur pré-entraîné, un ensemble de données, un ensemble de attributs sensibles et une méthode d'explication, et il produit un nouveau classificateur qui dépend moins des attributs sensibles.
Pour évaluer la dépendance d'un modèle pré-entraîné aux attributs sensibles, FixOut utilise des explications pour estimer la contribution des attributs aux résultats du modèle.
S'il s'avère que les attributs sensibles contribuent globalement aux résultats, alors le modèle est considéré comme injuste.
Dans ce cas, il construit un groupe de classificateurs plus justes qui sont ensuite agrégés pour obtenir un modèle d'ensemble.
Nous montrons l'adaptabilité de FixOut sur différentes combinaisons de méthodes d'explication et d'approches d'échantillonnage.
Nous évaluons également l'efficacité de FixOut par rapport au process fairness mais aussi en utilisant des notions d'équité standard bien connues disponibles dans la littérature.
De plus, nous proposons plusieurs améliorations telles que l'automatisation du choix des paramètres et l'extension de FixOut à d'autres types de données.

Related Results

Algorithmic Individual Fairness and Healthcare: A Scoping Review
Algorithmic Individual Fairness and Healthcare: A Scoping Review
AbstractObjectiveStatistical and artificial intelligence algorithms are increasingly being developed for use in healthcare. These algorithms may reflect biases that magnify dispari...
Bertrand Game with Nash Bargaining Fairness Concern
Bertrand Game with Nash Bargaining Fairness Concern
The classical Bertrand game is assumed that players are perfectly rational. However, many empirical researches indicate that people have bounded rational behavior with fairness con...
The Fairness–Accuracy Frontier: Impossibility Theorems and Optimal Tradeoffs in Algorithmic Decision-Making
The Fairness–Accuracy Frontier: Impossibility Theorems and Optimal Tradeoffs in Algorithmic Decision-Making
Abstract This paper provides a comprehensive theoretical and empirical analysis of the fundamental tradeoffs between fairness and accuracy in algorithmic decision-m...
Utilizing data sampling techniques on algorithmic fairness for customer churn prediction with data imbalance problems
Utilizing data sampling techniques on algorithmic fairness for customer churn prediction with data imbalance problems
Background: Customer churn prediction (CCP) refers to detecting which customers are likely to cancel the services provided by a service provider, for example, internet services. Th...
Utilizing data sampling techniques on algorithmic fairness for customer churn prediction with data imbalance problems
Utilizing data sampling techniques on algorithmic fairness for customer churn prediction with data imbalance problems
Background: Customer churn prediction (CCP) refers to detecting which customers are likely to cancel the services provided by a service provider, for example, internet services. Th...
Adaptive radio resource management for ofdma-based macro- and femtocell networks
Adaptive radio resource management for ofdma-based macro- and femtocell networks
Las demandas y expectativas de los usuarios y operadores móviles crecen sin parar y, consecuentemente, los nuevos estándares han incorporado tecnologías de acceso de radio cada vez...
Fair Allocation of Network Resources for Internet Users
Fair Allocation of Network Resources for Internet Users
In a commercial Internet, the traffic behavior is determined by the contracts between the ISPs and the users, where a user can be a dial-up user, or one corporate network or a grou...
Fairness in Multilingual Large Language Models: Addressing the Language Disparity Gap in AI Systems
Fairness in Multilingual Large Language Models: Addressing the Language Disparity Gap in AI Systems
Current Large Language Models (LLMs) exhibit significant performance disparities across languages, with English and high-resource languages receiving disproportionate model capacit...

Back to Top