公平的分类通过领域适应:双重敌对的学习方法
- 1伊利诺理工大学计算机科学系,芝加哥,美国
- 2斯图尔特商学院,伊利诺理工大学,芝加哥,美国
现代机器学习(ML)模型正变得越来越受欢迎,广泛应用于决策系统。然而,研究表明毫升歧视和不公平的关键问题,这阻碍了他们采用高风险的应用程序。在公平的分类器的最近的研究已经引起重大关注发展中有效的算法来实现公平和良好的分类性能。尽管这些fairness-aware机器学习模型的巨大成功,大多数现有的模型需要敏感属性预处理数据,调整模型学习或后处理预测合理预测。然而,敏感属性往往是不完整的,甚至不可用由于隐私、法律或法规限制。虽然我们缺乏训练的敏感属性模型在目标域,可能存在类似的敏感属性的域。因此,重要的是要利用辅助信息从一个类似的域,以帮助改善公平分类在目标域。因此,在本文中,我们研究小说的探索领域适应问题分类。我们提出一个新的框架,可以学会适应敏感属性从源域公平分类在目标域。大量真实数据集的实验说明了该模型的有效性分类,即使没有敏感属性在目标域。
1。介绍
机器学习模型的最新发展已经越来越多地用于高风险的决策如过滤贷款申请人(哈米德·艾哈迈德,2016),部署警察(中东和北非地区,2011)等。然而,一个突出的问题是当一个学习模式的偏见等特定人群种族或性别。例如,最近的一份报告表明,软件学校筛选学生所使用的应用程序可能偏向特定的种族群体1;和节奏(雷蒙德,2011),犯罪预测的工具,显示更有可能分配一个更高的风险评分比白种人和黑人罪犯相同的概要文件。偏见在算法可以是从代表性或不完整的训练数据或有缺陷的信息,反映了历史不平等(杜et al ., 2020),这可能导致不公平的决定有一个集体和不同对某些群体的影响。因此,重要的是要确保公平的机器学习模型。
最近机器学习研究公平引起重大关注发展中有效的算法来实现公平和保持良好的预测性能(Barocas et al ., 2017)。然而,大多数这些模型需要敏感属性预处理数据,调整模型学习或后处理预测合理预测。例如,Kamiran和考尔德(2012)建议每个训练样本的权重分配不同的权重,以确保公平之前模型的训练。此外,马德拉斯et al。(2018)利用对手的训练对敏感属性和预测标签去分类结果。然而,敏感属性往往是不完整的,甚至不可用由于隐私、法律或法规限制。例如,通过法律的美国消费者金融保护局(CFPB),债权人不得请求或者收集信息关于申请人的种族,肤色,性别,等等2。
虽然我们缺乏训练的敏感属性模型在目标域,可能存在类似的敏感属性域,这为我们的方式适应公平相关的源域到目标。例如,如图所示图1,当历史特性和风险标签可用于信用风险评估,而用户敏感属性(即。,gender) are unavailable when expanding into new markets, we may learn models from its existing market data (source) to score people in the new market (target).
尽管有广泛的工作领域适应气候变化,他们绝大多数是在分类或知识转移(谭et al ., 2018;壮族et al ., 2020);虽然工作公平分类通过域适应相当有限。
最近的研究工作很少浅场景转移不同组之间的敏感属性在同一个域公平分类(火焰et al ., 2019;舒曼et al ., 2019)。我们研究一个通用的跨域公平分类问题的特定的敏感属性,没有了我们最好的知识。
因此,我们提出一个dual-adversarial学习框架学会去适应公平分类敏感属性在目标域。从本质上讲,我们调查以下挑战:(1)如何适应敏感属性的目标领域转移的知识从源域;和(2)如何准确预测标签和满足公平标准。这是不平凡的,因为跨域和域差异不显式锚用于知识转移。解决这些挑战导致小说框架称为F空气达对公平分类通过领域适应气候变化。总结我们的主要贡献如下:
•我们研究小说的公平问题分类通过领域适应气候变化。
•我们提出一个新的框架空气DA,同时转移知识适应敏感属性和一个公平的学习分类器在目标域有双重敌对的学习方法。
•我们进行理论分析证明可以实现公平的目标域与估计敏感属性派生从源域。
•我们执行广泛的真实数据集的实验,证明了该方法的有效性公平没有敏感属性分类。
2。相关工作
在本节中,我们简要回顾相关工作公平机器学习和深度域的适应。
2.1。公平的机器学习
最近的研究在机器学习引起了重大的关注公平发展有效的算法来实现公平和保持良好的预测性能。通常专注于个人公平(康et al ., 2020)或组织公平(Hardt et al ., 2016;Zhang et al ., 2017)。个人公平需要给类似的个体(类似的预测模型卡顿和哈斯商学院,2020年;程et al ., 2021)。在组织公平,类似的预测中所需的多个组分类通过特定的敏感属性(例如,性别)。其他领域的公平观念包括小组公平(卡恩斯et al ., 2018)和不等式性质公平(Lahoti et al ., 2020),旨在跨组最低期望效用最大化。在这项工作中,我们注重公平。改善组织公平,去偏技术已经应用于不同阶段的机器学习模型:(1)预处理方法(Kamiran考尔德,2012年)对原始数据集应用专用转换消除固有的歧视和之前获得无偏训练数据建模;(2)在处理方法(Bechavod Ligett, 2017;阿加瓦尔et al ., 2018)解决这个问题通过加入公平约束或fairness-related机器学习模型的设计目标函数;和(3)后处理方法(Dwork et al ., 2018)修改偏差预测标签去机制。
尽管上述方法可以改善组织公平,他们通常需要访问敏感的属性,这通常是不可行的。近期作品很少研究公平有限的敏感属性。例如,赵et al。(2022)和Gupta et al。(2018)探索和使用的相关特性的代理敏感属性来达到更好的公平的结果。Lahoti et al。(2020)提出了一种敌对的再加权方法对罗尔斯的不等式性质来实现公平目标旨在改善最坏情况的准确性受保护的群体。然而,这些方法可能需要领域知识近似敏感属性或不适合确保公平。此外,虽然马德拉斯et al。(2018)提到公平转移,他们研究的是cross-task转移(谭et al ., 2021),这是不同于我们的设置。
在本文中,我们研究小说的跨域问题公平分类旨在估计的敏感属性目标领域实现公平。
2.2。深度域适应
领域适应(锅和阳,2009年)旨在减轻泛化瓶颈领域引入的转变。深层神经网络的快速发展,深度域适应近来备受关注。一般来说,深度域的适应方法的目标是学习一个域不变特征空间,可以减少源和目标域之间的差异。完成这一目标通过转换从一个域的特性更接近另一个域,或通过投影域到一个域不变潜在空间(蜀et al ., 2019)。例如,TLDA (壮族et al ., 2015)是一个深autoencoder-based模型学习域不变表示分类。灵感来自生成对抗网络的想法(GAN) (格拉汉姆·古德费勒et al ., 2014),研究人员还提出执行域适应在一个敌对的培训模式(Ganin et al ., 2016;Tzeng et al ., 2017);蜀et al ., 2019)。利用域鉴别器区分域标签在学习深度特征混淆鉴别器,丹(Ganin et al ., 2016)达到卓越的领域适应性能。加入(Tzeng et al ., 2017))学习歧视表示使用标记源数据,然后将目标数据映射到相同的空间通过一个敌对的损失。最近,很少工作学习技术转移申请公平分类(火焰et al ., 2019;舒曼et al ., 2019)。虽然敏感属性在目标域不可用,可能存在一些公开的数据集可以作为辅助能源。然而,这些方法主要是考虑一个浅的场景不同敏感属性之间的传输相同的数据集。
在本文中,我们提出一个新的域自适应方法基于双敌对的学习目标领域实现公平的分类。
3所示。问题陈述
我们首先介绍本文的符号,然后给正式的定义问题。让表示数据的源域,,,表示一组数据样本,敏感的属性,和相应的标签。让是目标域,目标域的敏感属性是未知的。源和目标的数据分布域与域相似但不同的差异。在现有工作公平的分类(Barocas et al ., 2017;Mehrabi et al ., 2019),我们使用指标如机会均等和公平性能评估人口平价。不失一般性,我们认为二元分类。平等机会的概率要求积极带任意敏感属性的实例一个被分配给一个积极的结果是相等的:Ŷ∣一个=一个Y= 1)= (Ŷ∣一个=b, Y= 1),Ŷ预计标签。人口平价需要公平的行为预测模型不同敏感组。具体地说,它要求积极率在敏感属性是相等的:(Ŷ∣一个=一个)= (Ŷ∣一个=b),∀a、b。公平的问题分类领域适应正式定义如下:
问题陈述:给定的训练数据和从源和目标域,学习目标域的一种有效的分类器而令人满意的公平标准,如人口平价。
4所示。F空气DA:公平的分类与域的适应
在本节中,我们提出的细节提出了适应公平与域分类框架。所示图2,我们的框架包括两个主要模块:(1)一个敌对的领域适应模块估计敏感属性为目标域;和(2)一个敌对的模块去学习一个公平的分类器在目标域。
具体地说,首先,对抗的领域适应模块包含一个敏感属性预测fθ一个描述的建模预测敏感属性和一个域分类器fθd的过程,说明了知识转移到目标域估计敏感属性。此外,对抗去模块包含一个标签预测fθY在目标域模型标签分类,预测和偏见fθ一个的过程来说明微分估计敏感属性的目标域数据。
4.1。估计目标敏感属性
自从敏感属性在目标域是未知的,需要估计目标敏感属性构建公平的分类器。最近的进步在无人监督的领域适应适应了有前景的结果分类器在源域到无标号数据到目标域(Ganin Lempitsky, 2015)。因此,我们建议调查来推断一个无监督领域适应框架的敏感属性在目标域。具体来说,减少敏感属性的预测误差源域,用下面的目标函数:
在哪里fθ一个是用来预测敏感属性,ℓ表示损失函数来减少预测误差,如熵损失,和嵌入函数h1(·)是学习预测敏感属性的表示。以确保fθ一个培训可以估计的敏感属性呢。我们进一步引入域分类器fθd让源和目标域的表示在同一个特征空间。具体地说,fθd旨在区分如果表示从源或目标;而h1(·)的目标是学习一个域不变表示,傻瓜fθd,也就是说,
在θd域分类器的参数。这个模块的总体目标函数是min-max游戏之间的敏感属性预测fθ一个和域分类器fθd如下:
在α控制域的对抗性的学习分类器的重要性。估计敏感属性在目标域,我们将使用以下功能:。
4.2。敌对的去公平的分类
学习分类器为目标域,我们将利用派生的敏感属性一个2和标签Y2在目标域。具体地说,我们的目标是学习可以预测标签准确的表示,当被无关紧要的敏感属性。为此,我们建议喂表示成一个标签预测预测和偏见。具体来说,预测预测是最小化的标签错误标签的目标函数如下:
在哪里fθY是预测标签,h2(·)是一种嵌入层编码到一个潜在的表示空间的特性,和ℓ叉损失。此外,学习公平表示,做出公平的预测在目标域,我们将偏差预测预测敏感属性;而h2(·)努力学习表示,傻瓜fθY:
在θ一个对手的参数来预测敏感属性。最后,对抗的总体目标函数去公平分类是一个min-max函数:
在β控制偏差预测的重要性。
4.3。拟议的框架:F空气达
我们已经介绍了如何估计由敌对的领域适应气候变化敏感的属性,以及如何保证公平与敌对的去分类。我们一起集成组件的整体目标函数双敌对的学习如下:
客观的参数是通过RMSProp学到的,这是一种自适应学习速率的方法,把学习速率的指数衰减平均平方梯度。我们选择RMSProp优化器,因为它是一个受欢迎的和有效的方法来确定学习速率失败地广泛用于对抗训练神经网络(窦et al ., 2019;李et al ., 2022;周和锅,2022年)。亚当是另一个广泛采用优化器扩展RMSProp动力条件,然而,动量项可能让亚当不稳定(毛et al ., 2017;罗et al ., 2018;克拉维诺et al ., 2021)。我们还将优先处理的培训fθ一个确保良好的估计一个2。接下来,我们将进行理论分析的双重对立学习公平的保证。
5。理论分析了公平的保证
在本节中,我们执行一个公平保证根据该框架的理论分析空气达与关键假设。模型本质上包含两个模块:(1)对抗的领域适应估算敏感属性(在方程(3);和(2)对抗性的去学习一个公平的分类器(在方程6)。第二模块的性能依赖于输出(例如,一个2第一个模块。
理解的理论保证第一个模块,我们遵循最近的研究在分析了传统的无监督领域适应(Zhang et al ., 2019;刘et al ., 2021)。他们中的大多数认为模型有效性在不同类型的领域变化如标签转变,协变量转变,条件变化等。Kouw Loog, 2018;刘et al ., 2021)。在分析领域适应气候变化模型,研究人员通常认为存在的转变而假设另一个变化是不变的跨域(Kouw Loog, 2018)。标签转移的存在是一种常见的无监督领域适应(陈et al ., 2018;立顿et al ., 2018;Azizzadenesheli et al ., 2019;吴et al ., 2019)。我们遵循上述论文同样的假设标签转变,这在我们的场景中敏感属性转变在两个领域,即。,the prior distribution changes asp(一个1)≠p(一个2)。此外,我们假设跨域的其他变化是不变的,例如,p(X1|一个1)=p(X2|一个2)。假设下的敏感属性的转变,我们可以推导出目标领域的风险Kouw和Loog (2018):
在哪里比p(一个2)/p(一个1)代表的比例的变化敏感的属性。因为我们没有样品具有敏感属性从目标域,我们可以使用样本来自源分布来估计目标敏感属性分布意味着匹配(车载et al ., 2009)通过最小化以下函数:米1是向量实证样本均值从源域,例如,。μ2是编码特性为目标。估计我们将结合上述战略目标敏感属性与梯度下降的比例在对抗训练(李et al ., 2019)。
估计目标的噪声诱导敏感属性一个2是不可忽视的,它可能影响对抗去第二模块。接下来,我们从理论上表明,在较弱的条件下,我们可以满足公平性指标如人口平价。首先,我们可以证明的全球最佳当且仅当能够实现什么p(Z2|一个2= 1)=p(Z2|一个2= 0),的表示X2根据命题1。在格拉汉姆·古德费勒et al。(2014)。接下来,我们介绍下面的定理在两个合理的假设:
定理1。让Ŷ2表示预测的目标域的标签,如果
(1)估计敏感属性一个2的表示X2是独立的条件在真正的敏感属性,例如,
p(一个2,Z2|一个2)=p(一个2|一个2)p(Z2|一个2);
(2)估计敏感属性不是随机的,也就是说,
p(一个2= 1 |一个2= 1)≠p(|一个2= 0 |一个2= 1)。
如果达到全局最优,标签预测fθY将会实现人口平价,即
p(Ŷ2|一个2= 0)=p(Ŷ2|一个2= 1)。
我们首先解释了两个假设:
(1)由于我们使用两个单独的嵌入层h1(·)和h2(·)来预测目标敏感属性,和学习的演讲中,通常认为一个2表示的是独立的吗X2,也就是说,p(一个2,Z2|一个2)=p(一个2|一个2)p(Z2|一个2);
(2)由于我们使用敌对的学会学习有效的估计量fθ一个对于敏感的属性,它是合理的假设它不产生随机预测的结果。
我们证明定理1如下:
自p(一个2,Z2|一个2)=p(一个2|一个2)p(Z2|一个2),我们有p(Z2|一个2,一个2)=p(Z2|一个2)。此外,当算法收敛,p(Z2|一个2= 1)=p(Z2|一个2= 0),这是等价的。因此,
基于上述方程,我们可以得到,
,这表明全球最小实现,也就是说,p(Z2|一个2= 1)=p(Z2|一个2= 0),我们可以得到p(Ŷ2|一个2= 1)=p(Ŷ2|一个2= 0),人口平价。
6。实验
在本节中,我们目前的实验评估的有效性空气哒。我们的目标是回答以下研究问题(rq):
•RQ1F:空气DA获得公平没有访问敏感属性在目标域的预测?
•RQ2:我们如何才能公平转移知识从源域而有效地使用它来调整目标的预测?
•RQ3:如何选择不同的两个敌对的组件的重量影响F的性能空气哒?
6.1。数据集
我们进行实验四个公平公开的基准数据集分类:节奏(安格文et al ., 2016),成人(Dua格拉夫,2017),毒性(迪克森et al ., 2018)和CelebA (刘et al ., 2015)。
•节奏3:本数据集描述的任务的再犯预测个人在美国“性”和“种族”的敏感属性的数据集(Le Quy et al ., 2022)。
•成人4个人年收入:该数据集包含的记录,和标签是否特定个人的收入超过50 k。后赵et al。(2022),我们选择“性”的敏感属性。
•毒性5:这个数据集收集评论标签指示是否每个评论是有毒的。后壮族和Mroueh (2021),我们选择“种族”的敏感属性。
•CelebA6:这个数据集包含名人图片,每个图片有40 human-labeled二进制属性。后壮族和Mroueh (2021)属性“吸引力”,我们选择我们的预测任务和“性”的敏感属性。
所有模型的评价是衡量目标数据集上的性能。我们分开训练:eval:测试为目标数据集设置为0.5:0.25:0.25。源数据集,因为我们不评价,我们分割训练:eval设置为0.6:0.4。值得注意的是,上述数据,我们需要定义一个过滤器来为实证研究得出源和目标域。我们的一般原则是选择一个功能,在特定的场景中是合理的。例如,在节奏中,我们使用年龄随着滤波器由于先验知识在不同的年龄段有不同的偏好,个人公开他们的性别和种族的信息。对于成人,我们认为每个人的性别是敏感的属性,并定义两个过滤器的基础上工人阶级和国家获得源和目标域。显示了数据集的统计数据表1。
6.2。实验设置
6.2.1。基线
由于没有现有的跨域合理分类,我们比较建议F空气DA与下面的代表方法公平没有敏感属性分类。
•香草:这种方法直接火车没有明确规则的基分类器的敏感属性。
•陆军研究实验室(Lahoti et al ., 2020):该方法利用权重对弱势地区检测到敌对的模型来减少偏见。它侧重于提高不等式公平而不是组织公平在我们的设置。然而,这是一个公平的机器学习的重要工作。我们实验的完整性,我们仍然需要它作为我们的一个基线。
•KSMOTE(燕et al ., 2020):它首先来自伪组织,然后使用它们来设计规范化,确保公平。
•FairRF(赵et al ., 2022):该优化预测公平没有敏感的属性,但是一些可用的特性与敏感属性。
对于KSMOTE7和FairRF8,我们直接使用作者所提供的代码。对于所有其他方法,我们采用三层multi-layer-perceptron (MLP)作为基分类器的一个例子,并设置两个隐藏的维度MLP 64和32,并使用RMSProp优化器与0.001最初的学习速率。我们也有类似的观察等其他类型的分类器逻辑回归和支持向量机。
6.2.2。评价指标
现有的工作公平模型后,我们测量的分类性能和精度(ACC)和F1,基于公平性能人口平价和平等的机会(Mehrabi et al ., 2019)。我们考虑的场景时,敏感的属性和标签是二进制,自然可以扩展到更一般的情况。
•人口平价:分类器被认为是公平的,如果预测Ŷ是独立于敏感属性一个。换句话说,人口平价要求每个人群都有相同的机会积极成果:(Ŷ|一个= 1)= (Ŷ|一个= 0)。我们将报告的区别每个敏感组的人口平价(ΔDP):
•机会平等:平等机会考虑一个比人口平价条件。分类器被认为是公平的,如果预测Ŷ积极的实例是独立于敏感属性。具体地说,它需要不同的敏感组的真正积极的利率等于:(Ŷ|一个= 1,Y= 1)= (Ŷ|一个= 0,Y= 1)。同样,在实验中,我们报告的区别每个敏感组的机会均等(ΔEO):
注意,人口平等和机会平等衡量公平表现在不同的方面,和值越小,公平的性能越好。
6.3。公平的表现(RQ1)
回答RQ1,我们比较建议的框架和前面提到的基线预测和公平。所有实验都进行了5次,平均性能和标准偏差报告表2- - - - - -4ΔACC, F1EO,ΔDP。我们有以下的观察:
•适应敏感属性信息从一个类似的源域可以帮助实现更好的公平性性能在目标域。例如,与陆军研究实验室相比,KSMOTE FairRF,利用隐式敏感信息在目标领域内,整体F空气DAΔ性能更好的公平性指标DP和ΔEO在所有六个实验。
•在一般情况下,该框架F空气DA的公平可以实现更好的性能,同时仍然相对良好的预测性能。例如,在Exp。6 CelebA数据集,Δ的性能DPF的空气香草DA相比增加21.2%,没有明确公平正则化应用,和ACC的性能仅下降0.1%。
•我们在不同的源和目标数据集进行实验。我们注意到,无论在源域是实例的数量大于或小于目标,提出的F空气DA优于基线一致,这表明提出的直觉敏感的适应是有效和F空气达是健壮的。
6.4。烧蚀研究(RQ2)
在本节中,我们的目标是分析中的每个组件的有效性提出了F空气大框架。如部分(4)所示,F空气DA包含两个敌对的组件。第一个是专为做出更好的预测目标领域的敏感属性的知识学会了从源域。第二个是专为去的敏感属性域自适应预测的分类器。为了回答RQ2我们调查的这些组件通过定义两个变量的影响空气大卫·爱登堡:
•F空气达w / o哒F:这是一个变体空气达没有域的对手在源域。它首先训练一个分类器与源域的敏感属性和直接应用它来预测目标域的敏感属性。
•F空气达w / o去F:这是一个变体空气达没有去对手在目标域。简而言之,它相当于香草。
表5报告与标准差为每个方法的平均表现。我们可以做以下的观察:
•当我们消除对适应域对手(即敏感属性信息。F空气Δ哒w / o哒)DP和ΔEO增加,这意味着公平性能降低。此外,分类性能也下降相比,F空气哒。这表明,适应能够更好地估计目标敏感的属性,这有助于更好地公平表现。
•当我们消除消除对手偏见(即。F空气DA w / o去),没有公平目标域正则化应用。因此,它相当于香草。我们可以观察到公平性能大幅下降,这表明添加去对手F空气达是必不可少的。此外,即使去偏对抗,F空气DA仍然可以达到比较好的F1与F空气DA w / o去。这增强了利用对手debias的直觉。
6.5。参数分析(RQ3)
回答RQ3,我们探索的参数灵敏度的两个重要hyperparameters模型,使用Exp.1。α控制对手的影响预测的敏感属性,而β控制对手的影响去。我们不同α和β(0.0001,0.001,0.01,0.1,1],和其他Exp.1设置是一样的。所示的结果图3。值得注意的是,对图3 c,D更好的公平性,降低值的表演,而为图3一,B,值越大表示更好的预测性能。从图3 c,D我们可以观察到:(1)一般来说,更大的α和β将实现更公平的预测,而较小的α和β导致糟糕的公平;(2)当我们增加α的值,这两个ΔDP和ΔEO先降低,然后增加当α的值太大。这可能是因为估计目标敏感属性仍然是嘈杂和加强对抗去优化噪声敏感属性不一定导致更好的公平的表现;(3)为β,公平性能更好的更高的价值。从图3 b时,我们观察到的分类性能更好的α和β是平衡的。总的来说,我们观察到当α和β的[0.001,0.1],F空气DA能达到公平和分类的表现相对较好。
7所示。结论和未来的工作
在本文中,我们研究一种新颖的和具有挑战性的问题,利用领域适应公平和准确的分类为目标域不敏感属性的可用性。我们提出一个新的框架空气DA使用双重敌对的学习方法来实现一个公平和准确的分类。我们提供一个理论分析证明,我们能够学习一个公平模型预测在较弱的假设。真实数据集的实验表明,该方法可以实现一个更公平的性能比现有方法利用信息从源域,甚至不知道敏感属性在目标域。对于未来的工作,首先,我们可以考虑多个源域和探索如何利用可用跨多个域域差异提高公平在目标域分类器的性能。第二,我们将探索公平转移在不同类型的域的变化,如有条件转移的敏感属性。第三,我们将探索其他领域的适应meta-transfer学习等方法来实现跨域合理分类。
数据可用性声明
最初的贡献提出了研究中都包含在本文/辅料,可以针对相应的作者进一步询问。
作者的贡献
所有作者列出了一大笔,直接和知识贡献的工作,批准发布。
资金
这项工作由思科支持部分研究奖和徐工集团美国研究公司。
的利益冲突
作者声明,这项研究是在没有进行任何商业或财务关系可能被视为一个潜在的利益冲突。
出版商的注意
本文表达的所有索赔仅代表作者,不一定代表的附属组织,或出版商、编辑和审稿人。任何产品,可以评估在这篇文章中,或声称,可能是由其制造商,不保证或认可的出版商。
脚注
1。^https://www.fastcompany.com/90342596/schools-are-quietly-turning-to-ai-to-help-pick-who-gets-in-what-could-go-wrong
2。^https://www.consumerfinance.gov/rules-policy/regulations/1002/5/
3所示。^https://github.com/propublica/compas-analysis
4所示。^https://archive.ics.uci.edu/ml/machine-learning-databases/adult/
5。^https://www.kaggle.com/c/jigsaw-unintended-bias-in-toxicity-classification
6。^http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
引用
阿加沃,一个。,Beygelzimer, A., Dudík, M., Langford, J., and Wallach, H. (2018). “A reductions approach to fair classification,” in国际会议上机器学习(斯德哥尔摩),60 - 69。
安格文,J。,l一个rson, J., Mattu, S., and Kirchner, L. (2016). “Machine bias,” in道德的数据和分析(奥尔巴赫出版物),254 - 264。
Azizzadenesheli, K。刘,。,Y一个ng, F., and Anandkumar, A. (2019). Regularized learning for domain adaptation under label shifts.arXiv预印本arXiv: 1903.09734。doi: 10.48550 / arXiv.1903.09734
Barocas, S。哈特,M。,Narayanan, A. (2017). “Fairness in machine learning,” inNeurIPS教程,卷。12。网上:http://www.fairmlbook.org
Bechavod Y。,ligett, K. (2017). Learning fair classifiers: a regularization-inspired approach.arXiv预印本arXiv: 1707.00044。doi: 10.48550 / arXiv.1707.00044
卡顿,S。,Haas, C. (2020). Fairness in machine learning: a survey.相关系数、abs / 2010.04053。doi: 10.48550 / arXiv.2010.04053
陈,Q。,liu, Y., Wang, Z., Wassell, I., and Chetty, K. (2018). “Re-weighted adversarial adaptation network for unsupervised domain adaptation,” in《IEEE计算机视觉与模式识别会议(盐湖城犹他:IEEE), 7976 - 7985。
程,L。,Varshney, K. R., and Liu, H. (2021). Socially responsible ai algorithms: Issues, purposes, and challenges.arXiv预印本arXiv: 2101.02032。doi: 10.1613 / jair.1.12814
克拉维诺,j . M。Glaysher, P。Jitsev, J。,Katzy, J. (2021). Adversarial domain adaptation to reduce sample bias of a high energy physics event classifier.马赫。学习。科学。抛光工艺。3,015014。2632 - 2153 . doi: 10.1088 / / ac3dde
火焰,。,R一个mamurthy, K. N., Wei, D., Varshney, K. R., Speakman, S., Mustahsan, Z., et al. (2019). “Fair transfer learning with missing protected attributes,” in学报2019 AAAI / AI ACM会议上,伦理和社会(嗨火奴鲁鲁),91 - 98。
迪克逊,L。李,J。,Sorensen, J., Thain, N., and Vasserman, L. (2018). “Measuring and mitigating unintended bias in text classification,” in学报2018 AAAI / AI ACM会议上,伦理和社会(洛杉矶新奥尔良),67 - 73。
窦,Q。,Ouyang, C., Chen, C., Chen, H., Glocker, B., Zhuang, X., et al. (2019). Pnp-adanet: plug-and-play adversarial domain adaptation network at unpaired cross-modality cardiac segmentation.IEEE访问7:99065 - 99076。doi: 10.1109 / ACCESS.2019.2929258
杜,M。,Y一个ng, F., Zou, N., and Hu, X. (2020). Fairness in deep learning: a computational perspective.IEEE智能。系统。36岁,25至34岁。doi: 10.1109 / MIS.2020.3000681
Dua D。,Graff, C. (2017).UCI机器学习库。欧文CA:加州大学。网上:http://archive.ics.uci.edu/ml
Dwork C。,Immorlica, N., Kalai, A. T., and Leiserson, M. (2018). “Decoupled classifiers for group-fair and efficient machine learning,” in会议上公平、问责和透明度(纽约),119 - 133。
Ganin Y。,lempitsky, V. (2015). “Unsupervised domain adaptation by backpropagation,” in国际会议上机器学习(里尔:PMLR), 1180 - 1189。
Ganin Y。,Ustinova, E., Ajakan, H., Germain, P., Larochelle, H., Laviolette, F., et al. (2016). Domain-adversarial training of neural networks.j·马赫。学习。Res。17日,1-35。doi: 10.1007 / 978 - 3 - 319 - 58347 - 1 - _10
格拉汉姆·古德费勒,我。,Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., et al. (2014). “Generative adversarial nets,” in少量的酒蒙特利尔(QC), 2672 - 2680。
的作用。Smola,。黄,J。,Schmittfull, M., Borgwardt, K., and Schölkopf, B. (2009). Covariate shift by kernel mean matching.数据集马赫的转变。学习。3、5。doi: 10.7551 / mitpress / 9780262170055.003.0008
Gupta, M。,Cotter, A., Fard, M. M., and Wang, S. (2018). Proxy fairness.arXiv预印本arXiv: 1806.11212。doi: 10.48550 / arXiv.1806.11212
哈米德·a·J。,一个hmed, T. M. (2016). Developing prediction model of loan risk in banks using data mining.马赫。学习。:。3,3101。doi: 10.5121 / mlaij.2016.3101
哈特,M。,Price, E., and Srebro, N. (2016). Equality of opportunity in supervised learning.arXiv预印本arXiv: 1610.02413。doi: 10.48550 / arXiv.1610.02413
Kamiran F。,Calders, T. (2012). Data preprocessing techniques for classification without discrimination."。正系统。。33岁的1-33。doi: 10.1007 / s10115 - 011 - 0463 - 8
康,J。他,J。,米一个ciejewski, R., and Tong, H. (2020). “Inform: individual fairness on graph mining,” in第26届ACM SIGKDD学报》国际会议上知识发现和数据挖掘(圣地亚哥,CA), 379 - 389。
卡恩斯,M。奈尔,S。罗斯,。,Wu, Z. S. (2018). “Preventing fairness gerrymandering: auditing and learning for subgroup fairness,” in国际会议上机器学习(斯德哥尔摩),2564 - 2572。
Kouw, w . M。,loog, M. (2018). An introduction to domain adaptation and transfer learning.arXiv预印本arXiv: 1812.11806。doi: 10.48550 / arXiv.1812.11806
Lahoti, P。,Beutel, A., Chen, J., Lee, K., Prost, F., Thain, N., et al. (2020). Fairness without demographics through adversarially reweighted learning.arXiv预印本arXiv: 2006.13114。
Le Quy T。罗伊,。,Iosifidis, V., Zhang, W., and Ntoutsi, E. (2022). “A survey on datasets for fairness-aware machine learning,” in威利跨学科评论:数据挖掘和知识发现,e1452。
李,Y。,米urias, M., Major, S., Dawson, G., and Carlson, D. (2019). “On target shift in adversarial domain adaptation,” in22日人工智能国际会议和统计数据(冲绳那霸:PMLR), 616 - 625。
李,Y。,张,Y。,Y一个ng, C. (2022). Unsupervised domain adaptation with joint adversarial variational autoencoder."。基于系统。17日,109065年。doi: 10.1016 / j.knosys.2022.109065
利普顿Z。,Wang, Y.-X., and Smola, A. (2018). “Detecting and correcting for label shift with black box predictors,” in国际会议上机器学习(斯德哥尔摩:PMLR), 3122 - 3130。
刘,X。,Guo, Z., Li, S., Xing, F., You, J., Kuo, C.-C. J., et al. (2021). “Adversarial unsupervised domain adaptation with conditional and label shift: Infer, align and iterate,” in《IEEE / CVF计算机视觉国际会议(蒙特利尔,QC: IEEE), 10367 - 10376。
刘,Z。,luo, P., Wang, X., and Tang, X. (2015). “Deep learning face attributes in the wild,” in程序的计算机视觉国际会议(ICCV)。
罗,Y。,Zh一个ng, S.-Y., Zheng, W.-L., and Lu, B.-L. (2018). “Wgan domain adaptation for eeg-based emotion recognition,” in神经信息处理国际会议(蒙特利尔,QC: Springer), 275 - 286。
马德拉斯,D。,Creager, E., Pitassi, T., and Zemel, R. (2018). “Learning adversarially fair and transferable representations,” in国际会议上机器学习(斯德哥尔摩:PMLR), 3384 - 3393。
毛,X。,li, Q., Xie, H., Lau, R. Y., Wang, Z., and Paul Smolley, S. (2017). “Least squares generative adversarial networks,” in《IEEE计算机视觉国际会议(威尼斯:IEEE), 2794 - 2802。
Mehrabi, N。,米orstatter, F., Saxena, N., Lerman, K., and Galstyan, A. (2019). A survey on bias and fairness in machine learning.arXiv预印本arXiv: 1908.09635。doi: 10.48550 / arXiv.1908.09635
锅,s . J。,Y一个ng, Q. (2009). A survey on transfer learning.IEEE反式。"。数据中。22日,1345 - 1359。doi: 10.1109 / TKDE.2009.191
雷蒙德,m (2011)。社区和犯罪非规范数据集。UCI机器学习库。网上:http://www.ics.uci.edu/mlearn/MLRepository.html
舒曼,C。王,X。,Beutel, A., Chen, J., Qian, H., and Chi, E. H. (2019). Transfer of machine learning fairness across domains.arXiv预印本arXiv: 1906.09688。doi: 10.48550 / arXiv.1906.09688
蜀,Y。,Cao, Z., Long, M., and Wang, J. (2019). Transferable curriculum for weakly-supervised domain adaptation.Proc。AAAI相依Artif。智能。33岁,4951 - 4958。doi: 10.1609 / aaai.v33i01.33014951
棕褐色,C。,Sun, F., Kong, T., Zhang, W., Yang, C., and Liu, C. (2018). “A survey on deep transfer learning,” in国际会议上人工神经网络(罗兹:Springer), 270 - 279。
棕褐色,Y。,李,Y。,Huang, S.-L. (2021). “Otce: a transferability metric for cross-domain cross-task representations,” in《IEEE / CVF计算机视觉与模式识别会议(TN纳什维尔:IEEE), 15779 - 15788。
Tzeng, E。,Hoffman, J., Saenko, K., and Darrell, T. (2017). “Adversarial discriminative domain adaptation,” in《IEEE计算机视觉与模式识别会议(檀香山,你好:IEEE), 7167 - 7176。
吴,Y。,Winston, E., Kaushik, D., and Lipton, Z. (2019). “Domain adaptation with asymmetrically-relaxed distribution alignment,” in国际会议上机器学习(长滩,CA: PMLR), 6872 - 6881。
燕,S。,Kao, H.-T., and Ferrara, E. (2020). “Fair class balancing: Enhancing model fairness without observing sensitive attributes,” in学报》第29届ACM国际会议信息知识管理,1715 - 1724。
张,L。吴,Y。,Wu, X. (2017). “Achieving non-discrimination in data release,” in第23届ACM SIGKDD学报》国际会议上知识发现和数据挖掘哈利法克斯(NS), 1335 - 1344。
张,Y。刘,T。,long, M., and Jordan, M. (2019). “Bridging theory and algorithm for domain adaptation,” in国际会议上机器学习(长滩,CA: PMLR), 7404 - 7413。
赵,T。,D一个i, E., Shu, K., and Wang, S. (2022). “You can still achieve fairness without sensitive attributes: exploring biases in non-sensitive features,” inWSDM的22日,十四ACM国际会议在网络搜索和数据挖掘,凤凰城3月8 - 12,2022(凤凰城:ACM)。
周,R。,P一个n, Y. (2022). “Flooddan: unsupervised flood forecasting based on adversarial domain adaptation,” in2022年IEEE第五大数据和人工智能国际会议(BDAI)(福州:IEEE), 6 - 12。
壮族,F。,Cheng, X., Luo, P., Pan, S. J., and He, Q. (2015). “Supervised representation learning: Transfer learning with deep autoencoders,” inIJCAI(布宜诺斯艾利斯)。
关键词:公平的机器学习,敌对的学习,学习领域适应,可信度、转让
引用:梁Y,陈C,田T和蜀K(2023)公平的分类通过领域适应:双重敌对的学习方法。前面。大数据5:1049565。doi: 10.3389 / fdata.2022.1049565
收到:2022年9月20日;接受:07年12月2022;
发表:2023年1月04。
编辑:
气李美国爱荷华州立大学版权©2023梁、陈、田和蜀。这是一个开放分布式根据文章知识共享归属许可(CC)。使用、分发或复制在其他论坛是允许的,提供了原始作者(年代)和著作权人(s)认为,最初发表在这个期刊引用,按照公认的学术实践。没有使用、分发或复制是不符合这些条件的允许。
*通信:Kai蜀,kshu@iit.edu