机器算法能带来公平吗
瞭望智库助理研究员 云贺 2019-08-16
字体大小 A- A+
收藏
数据存在的“偏见”经由算法系统读取和分析,不仅会被完整地记录和学习,甚至还会被放大,使之刻板化。

如今,机器算法越来越深入地渗透到人类社会的诸多方面,辅助人们做出各种决策。在广告投放、司法审判、人才雇佣等领域,机器算法都扮演着重要角色。

相对于人脑,机器算法具有效率高、中立性等诸多优势。然而,机器算法能带来一个更公平的世界吗?

今年7月,兰德公司的六位研究员联名发布名为《算法公平——社会应用框架》的报告,梳理了金融、司法领域的诸多典型案例,系统阐述了机器算法的功与过。报告认为,以如今的技术水平来看,机器算法往往带有刻板“偏见”。

 

算法科学性遭质疑

当前,机器算法已经渗透到人类现代生活的方方面面。有时候,甚至连人类自己都没意识到是机器在辅助整个社会做出决策。机器算法对于提高决策效率和消除人为歧视的确有所助益。但近些年来,机器算法也惹出了一系列麻烦,其科学性和公正性屡遭公众质疑。

2013年5月,德国联邦法院判定,谷歌搜索的“自动填充”功能含有诽谤性搜索提示,侵犯了公民权利。事件源自德国一家化妆品业的企业家,其在谷歌搜索中输入自己名字时,文本框下方会自动显示“山达基教”和“欺诈”等词汇。原告认为,谷歌的这一功能侵犯了个人权利,损害了企业声誉。

最终,德国联邦法院虽然裁定“自动填充”功能在原则上并无问题,但如果发生类似的侵犯个人权利或损害名誉的事件,运营商应承担相应责任并作出赔偿。

基于机器算法的谷歌搜索提示,可能来自媒体的错误报道或未经核实的言论。但无论如何,这一案件暴露出机器算法的“伪中立性”,即它并不一定能够正确反映事实。

另一个案例,来自微软在网络社交平台上推出的机器人——Tay。Tay的运作原理是在和大量用户聊天过程中,不断摄取和分析数据,从而学习人类交谈方式。而这一特点也使得用户有可能“教坏”算法。结果是,Tay上线不到24小时,就变成了一位满口脏话并带有种族歧视的机器人。

 

“偏见”加剧社会不公

那么,机器算法为什么会出错?

首先,算法歧视有可能来源于“有偏见”的数据。众所周知,机器学习模型的构建,在很大程度上取决于训练机器时读取的数据。然而,一旦基础数据出现哪怕细微的偏差,就可能导致整个模型出现结构性偏差。上文中微软聊天机器人的案例就说明了这一点。

更值得注意的是,数据存在的“偏见”经由算法系统读取和分析,不仅会被完整地记录和学习,甚至还会被放大,使之刻板化。

对此,兰德的报告以金融和司法领域为例,说明了算法“偏见”是如何加剧社会不公平现象的。

在美国金融借贷行业,机器算法越是强大,被打上“低收入”“高风险”“少数族裔”或特点地区等标签的群体,在办理金融服务时难度就越大。

不仅如此,算法还可能会将这部分人群与高息贷款项目进行自动匹配。美国联邦贸易委员会就曾在一次调查中发现,基于机器算法的广告商们,会更多地将高息贷款的相关信息自动推介给低收入群体。

兰德的研究员们认为,一旦金融领域的算法系统自动筛掉被精细标签化后的部分企业和人群,包括小微企业、贫困人群、残疾人、少数族裔等,将对社会公平秩序造成极大危害,导致贫富两极分化愈演愈烈。

在司法领域,机器算法同样有可能侵犯社会公平原则。一个最著名的案例就是2016年发生的“卢姆斯案”。

彼时,威斯康星州法院提起公诉,指控卢姆斯犯有危及社会安全等五项罪名。在量刑调查环节,法院适用了一款名为COMPAS的算法模型。COMPAS是一种基于大数据识别罪犯风险的评估工具。具体来说,COMPAS会根据被告档案中的信息,对其再次犯罪的可能性进行风险评估,从而为法院在收监、量刑等环节提供决策支持。

但卢姆斯认为,法院使用COMPAS进行量刑评估,打破了正当司法程序,特别是由于该算法本身的不透明性,其决策的科学性和准确性都有待检讨。因此,他对量刑结果提出异议,向州最高法院上诉。

“卢姆斯案”反映出的,是机器算法技术在辅助决策时存在的“黑匣子”问题。由于读取数据庞大、算法系统复杂,有时可能连技术设计者都不知道机器将如何做出决策。因此,想要在技术层面辨别算法是否存在歧视是很困难的事。

 

各国展开“纠偏”行动

从根源上来看,算法的“偏见”在很大程度上并非来自机器本身,而是机器在学习人类语言或决策过程中,吸收了人类社会中根深蒂固的文化观念,或是错误的价值导向,并将这种倾向以技术方式进行强化。

但无论如何,人工智能时代已经来临,全球智能化的浪潮不可遏制。在这种情况下,如何为算法纠偏成为重中之重。

实际上,当前各国政府和企业已经就此展开行动。

在我国,国务院在《新一代人工智能发展规划》中提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”,为未来智能化社会划出了法律和伦理道德的边界。

今年4月,美国国会议员提出一项名为《2019年算法问责法》的法案,要求科技公司审查在其技术应用中,是否存在种族、性别或其他方面的歧视和偏见倾向。

在某些特定领域,监管机构也开始为算法“划红线”。例如,自动驾驶车辆会针对不同事故场景作出决策判断,确定相关事物的安全优先级。2017年5月,德国联邦交通和数字基础设施部下设的伦理委员会,公布了全球首套自动驾驶伦理准则。该准则明确:人类生命拥有最高优先权,并始终优先于动物以及其他财产等。

兰德公司的研究员们认为,除了在监管层面设立“算法审计”环节,机器算法要想维护公正和道德原则,还可在技术层面以扩大样本量、调整算法变量等方式进行优化。

此外,提高机器算法运作方式的透明度也十分必要,这可以有效避免算法的“黑匣子”现象出现。

相关专家
相关课题