清研智库:解决AI算法偏见的五个策略
从谷歌搜索和约会网站到检测信用卡欺诈,人工智能(AI)一直在寻找新的方式进入到我们的生活中。但我们能信任驱动它的算法吗?
作为人类,我们会犯错误。我们可能会出现注意力失常,误解信息。然而当我们重新评审视时,我们可以挑出错误并纠正它们。但是当一个AI系统犯了错误时,无论在相同的环境下看了多少次相同的数据,它都会一次又一次地重复。
AI系统是不可避免地使用反映过去的数据进行训练的。如果一个训练数据集包含了过去人类决策的固有偏见,这些偏见就会被系统编纂和放大。或者如果它包含的关于特定少数群体的数据较少,那么对该群体的预测就会趋于糟糕。这就是所谓的 “算法偏见”。
算法偏见是如何产生的?
算法偏见可能是由于缺乏合适的训练数据,或者是由于不适当的系统设计或配置而产生的。例如,一个帮助银行决定是否发放贷款的系统,通常会使用银行以前的贷款大量数据集(以及银行可以访问的其他相关数据)进行训练。该系统可以将新的贷款申请人的财务历史、就业情况和人口统计信息与以前申请人的相应信息进行比较。由此,它试图预测新申请人是否有能力偿还贷款。
但这种方法可能存在问题。在这种情况下,可能产生算法偏见的一种方式是通过之前贷款经理对抵押贷款申请做出的决定所产生的无意识偏见。如果客户过去被不公平地拒绝贷款,AI会认为这些群体的普遍还款能力低于实际水平。年轻人、有色人种、单身女性、残疾人和蓝领工人只是一些可能处于不利地位的群体的例子。
算法偏见对个人和公司都有风险
上述有偏见的AI系统给银行带来了两个关键风险。首先,银行可能会错失潜在客户,将偏见的受害者送到其竞争对手那里。根据反歧视法,它还可能被追究责任。如果一个AI系统不断地在其决策中应用固有的偏见,那么政府或消费者团体就会更容易识别这种系统性模式。这可能会导致巨额的罚款和惩罚。
减轻算法偏见
五种减轻算法偏见的方法。可以应用于各行各业的企业,帮助确保AI系统的公平和准确。
1. 获取更好的数据
通过获取更多的数据点或新型的个人信息,特别是那些可能在现有数据中出现不准确的人,可以减少算法偏见的风险。
2.对数据进行预处理
这包括编辑数据集,以掩盖或删除与反歧视法保护相关的属性信息,如种族或性别。
3. 增加模型的复杂性
一个简单的AI模型可以更容易测试、监测和询问。但它也可能不那么准确,并导致偏向多数人而非少数人。
4. 修改系统
可以主动调整AI系统的逻辑和参数,直接对抗算法偏见。例如,可以通过为弱势群体设置不同的决策门槛来实现。
5. 改变预测目标
选择用来指导AI系统的具体措施,会直接影响到它在不同群体中的决策方式。找到一个更公平的措施作为预测目标,将有助于减少算法偏见。
采用AI决策的政府和企业的建议
在向想要采用AI决策的政府和企业提出的建议中,首先强调在使用AI决策时必须考虑公平和人权的一般原则。而这一点必须在系统投入使用之前完成。还建议对系统进行严格的设计和测试,以确保输出结果不会受到算法偏见的污染。一旦投入使用,就应该对其进行密切监控。
最后建议,以负责任和道德的方式使用AI系统,不仅仅是遵守狭义的法律条文。它还要求系统与广泛接受的社会规范保持一致–并考虑到对个人、社区和环境的影响。
随着AI决策工具的普及,如果我们谨慎地使用他们,我们不仅有机会提高生产力,而且有机会创造一个更加公平公正的社会。
作者:Tiberio Caetano、Bill Simpson-Young,清研智库李梓涵编译