人工智能,管理比使用更困难-瞭望智库
瞭望智库

2016年5月12日   星期四   丙申年   四月初六

设为首页 | 加入收藏夹           中文站 | EN

人工智能,管理比使用更困难

李军 | 瞭望智库特约科技观察员

发布日期:2017-06-08

从美国、欧盟和英国的研究结果和形成的文件、决议与规则来看,目前在人工智能监管方面形成公式的挑战主要来自公平性、透明性和责任认定等三方面。

在开始谈论人工智能管理之前,先让我们做一道选择题。

一辆载人的自动驾驶汽车高速接近一个路口,此时路口有十个行人正在过马路。在刹车突然失灵的情况下,汽车的自动驾驶系统应该如何选择:

1、拐向路边的固定障碍,躲避十个行人但牺牲车内一位乘客;

2、保持直行,确保车内一位乘客的安全但牺牲十个行人。


您会如何选择?请将答案放在心里,让我们看看公众的观点。

当美国著名的学术期刊《科学》就这个问题进行公众调查时,76%的被调查者表示,应该选择牺牲一位乘客以保全十位行人。而且这些选择“牺牲一位乘客”的被调查者都同意以下观点:自动驾驶汽车的制造商应该把“汽车事故死亡数最小化”作为一个指导原则设计自动驾驶系统——我们且称之为“公平对待系统”。

有意思的是,当询问这些被调查者是否愿意购买安装“公平对待系统”的自动驾驶汽车时,大部分人表示,他们还是会选择安装“车内乘客优先系统”的汽车。

作为人工智能技术发展目前最成熟的领域,自动驾驶汽车遇到这样的选择悖论并不是特例。事实上,人工智能技术作为数字经济时代最重要的科技创新,在逐渐深入发展并成为现代社会一部分的时候,从道德与法律到监管与责任划分,无不面临着前所未有的两难选择。毕竟在此之前,所有的设备与系统——尽管有些具有部分人机辅助功能——最终的控制权都还是掌握在人类手中。而对于人工智能系统,其行动完全基于其智能计算模型驱动控制。随之而来的,是人工智能系统在自我控制时的不确定性和对现有法律及行政管理带来的一系列潜在问题。这些都构成了人工智能技术在真正应用时对监管的挑战。

欧美研究监管原则

针对这样的挑战,目前从美国、欧盟到中国,各国都在从技术、法律、行政和道德伦理等多个方面进行研究探讨,以期在不远的将来制定满足人工智能应用的监管原则,一方面,鼓励和推进人工智能技术的快速发展,另一方面,也把人工智能应用带来的风险和负面影响局限在可控的范围。

在人工智能技术发展最为领先的美国,有关人工智能监管的研究是由最高行政机构——总统行政办公室直接领导参与的。2016年,在组织了有关人工智能的多场研讨会之后,总统行政办公室和国家科技委员会(NSTC)于10月份发布了两份重量级报告:《国家人工智能研究发展战略规划》和《为未来的人工智能做好准备》。

在《国家人工智能研究发展战略规划》中,包含了7个关键性战略,其中的第三战略:理解和确定人工智能在伦理、法律和社会领域的影响,及第四战略:确保人工智能系统的安全和隐私保护,前瞻性地包含了有关人工智能在伦理、法律、社会影响、安全和隐私保护等领域的相关内容,包含了和人工智能监管相关的目标与原则。

说明: pic_2.png说明: pic_3.png说明: pic_4.png

欧盟是由欧洲议会牵头以立法研究的方式探讨人工智能和机器人监管的相关原则。在美国总统行政办公室发布人工智能规划和报告的同月,欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》。该法律规则从机器人使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等多方面提出了对基于人工智能技术控制机器人的监管原则。

作为即将脱离欧盟的英国,也在人工智能监管领域开始独立的研究。2017年2月,英国下议院科学技术委员会向多位英国顶尖的互联网与人工智能领域的专家发出邀请,希望其对于“决策中的算法”给出自己的专家意见。4月26日,科学技术委员公布了收到的正式回复,并将以此作为基础开展人工智能监管的研究。

公平和准确“跷跷板”

从美国、欧盟和英国的研究结果和形成的文件、决议与规则来看,目前在人工智能监管方面形成公式的挑战主要来自公平性、透明性和责任认定等三方面。

首先是公平性。对于人工智能算法来说,任何对于输出,也就是预测值有贡献的信息都应该作为输入变量参与到人工智能算法的计算中。但是在现实社会中,并不是所有与结果相关的信息都可以被接受的。

2014年以来,美国多个州的犯罪执法机构都依靠一个名为COMPAS的人工智能系统预测过往有犯罪记录的人员再次犯罪的可能性,并以此数据作为是否允许罪犯减刑提前回归社会的决策依据之一。2016年6月,COMPAS系统被第三方调查机构ProPublica质疑其预测结果对黑人罪犯有明显的歧视。

按照ProPublica提供的数据,在各个预测再次犯罪的评分水平上,白人与黑人均保持相似的再次犯罪概率,如下图所示。


但从整体结果看,在其他输入条件与白人罪犯基本类似的情况下,COMPAS人工智能预测模型仍然会倾向于把黑人罪犯判别为会再次犯罪。当然,其中的一个重要原因是有关黑人的记录远多于白人的记录。这一点是COMPAS人工智能预测模型无法改变的。


这个结果引起了媒体和社会的争议。单纯基于人种、肤色、文化、信仰乃至生活习性的差异,人工智能系统基于算法就给予不同的评判和对待,这对于公平是一种事实上的漠视。那么未来在人工智能技术广泛进入人类社会的时候,各种小众人群都有可能由于个体差异遭受来自“模型的歧视”。这显然是现代社会的文明准则所不能接受的。这也是监管部门首先要解决的问题——模型的公平性。

由于模型算法本身必须使用真实数据训练才能得到准确的结果,所以修改训练数据以满足公平性的要求是不合适的。目前可行的折中方法是,限制种族、肤色、年龄、性取向和其他生物与生活习惯等特征被作为输入变量参与到人工智能算法的构建,以避免这些有可能造成“模型的歧视”的变量最终影响模型的预测结果。

但是,这些“政治不正确”的输入变量对人工智能算法的预测精度的确是有影响的。为了抵消限制这些变量造成的模型预测精确度下降,目前可以通过相关变量替换的方式加以控制。例如,使用家庭邮政编码来代替种族或肤色变量。使用设定特定消费行为标签来代替性别和年龄等。

应该认识到,人工智能模型的公平性和准确性是一个跷跷板,如何让这个跷跷板取得平衡并与现代社会的公平价值观取得一致,目前还没有一个最佳答案。

非透明性“黑盒子”

其次是透明性,也被称为可解释性。在现有的人工智能技术发展路径下,成熟的人工智能算法或许永远都是一个“黑盒子”——外界无法得知内部的运行机制,只能够通过对输入和输出数据的解读来了解其能够达到的效果,并推测其内部计算机制的构成。而部分简单的算法,如决策树,虽然有很好的透明性,但在实践中远远无法满足复杂的应用需求。

前文提到的英国下议院科学技术委员会收到的人工智能专家意见中,牛津大学互联网研究所Alison Powell博士的回复有这样的内容:(人工智能)算法系统的功能对于使用者来说完全是“黑盒子”。与此类似,另一位专家Janet Bastiman博士也谈到:对(人工智能)算法清晰透明地了解是不可能实现的。

的确,目前科技界主流的看法都认为人工智能模型缺乏透明性,而且这一点不会随着技术发展而彻底改变。那么以往通过企业透明披露产品和系统信息以便政府监管的做法在人工智能领域是行不通的。

举个例子,传统的汽车是由车身、发动机、变速箱、刹车系统、电子控制系统等多个部件组成。每个部件也都可以拆解成为具体的零件。任何一个产品问题都可以归结到具体零件上,并针对其提出改进意见。但对于自动驾驶汽车,人工智能系统作为一个整体完成最终的控制动作,一旦发生人工智能系统的错误操作,除了明显的传感器故障,我们无法清晰定位问题原因,也不会立即明确该如何调整系统。

目前通用的做法是猜想故障原因,并用场景还原的方式提供与错误操作时类似的数据输入,并观察输出结果。在捕捉到错误输出后,通过提供修正错误的训练数据集,逐步完成对人工智能系统的调整。最终还是要在反复测试的情况下确认人工智能系统已经完成了针对此错误的修正。

由于人工智能算法的非透明性,监管部门就无法从人工智能算法本身入手提出管理要求,因为人工智能系统的提供商自己都无法清晰解释算法的核心工作机理。所以,最终的监管要求就会从基于原理和结构管理转而基于最终结果管理。也就是说,不管白猫黑猫,抓到老鼠就是好猫。

事实上,目前美国国家公路交通安全管理局和各州交通部门就是采用这样的方式对待自动驾驶汽车路测的:不管你如何设计汽车的自动驾驶系统、采用什么算法、如何布局摄像头和雷达等传感器,我只看你最终的路测效果。当然美国交管部门也留了一个防火墙,要求各个自动驾驶汽车在路测的同时保证驾驶员可以随时人工干预。谷歌的自动驾驶汽车因此不得不推翻原先的设计,重新加上方向盘、刹车脚踏板等人工操控设施,以满足交通部门对路测的基本要求。

非透明性决定了未来人类在监管人工智能系统时永远要面临着“黑盒子”带来的不确定性。而这一点,也给责任认定带来天然的障碍。

定责任难题

对于责任认定的探讨研究,目前是最少也是最困难的。对于一般的机械电气设备,由于设计缺陷、材料质量或其他产品质量所导致的人身财产损害,设备制造商将承担主要甚至全部责任。

而对于人工智能系统控制的设备,由于其在算法透明性和可解释性方面的困难,监管部门几乎无法从算法本身去认定是否包含设计缺陷,也就无法就算法本身的设计去进行责任认定,这位监管带来了非常大的困难。

人工智能系统出现了人身财产伤害后,监管部门将会从另外两个方面来代替对算法本身的直接评估,以认定设备制造商的责任:1.用于训练算法的数据;2.算法在实际测试中的表现。相信在未来,监管部门会就算法的训练和实际测试分别给出强制标准,以确保算法自身的稳定性,以及在极端情况或特殊场景下所表现出的基本安全性。满足了强制标准的设备制造商,将免除或者承担相对较小的责任。

有意思的是,欧盟在其2017年2月投票通过的《欧盟机器人民事法律规则》中,提出了考虑给予机器人以特殊的法律地位,即电子人的概念。也就是说,未来法律体系中将会存在一个不同于自然人、法人、动物等的另一法律实体,其能够独立存在,享有自己的权利并承担相应的义务。对于由自身引起的第三方人身财产伤害,电子人将会被认定承担一定的责任,并作出赔偿。

如果电子人的概念未来被现有的人类社会广泛接受,那么其造成的影响就不局限于人工智能监管本身,而将深深影响到未来社会的各个方面。

从多个国家对于人工智能监管的研究来看,目前人工智能技术离全面应用还有相当长的距离。这个距离绝不只对应着技术这个单一维度,而是对应着社会影响的各种方面。

除了我们提到的公平性、透明性和责任认定之外,人工智能系统还会大量替代现有的人工岗位,从而对未来的劳动力市场产生巨大的影响。由此而衍生的社会就业冲击和对人类技能要求的改变还会影响更多的方面。2017年2月,微软公司创始人比尔·盖茨在接受媒体采访时表示,应该通过对机器人征税,来筹集资金,以帮助被自动化所取代的工人进行再培训。

欧盟在2月份投票通过《欧盟机器人民事法律规则》时,也同时否决了一项收取机器人税的建议。欧盟的这次否决并不能说明欧盟对于机器人税的最终态度,只是因为目前机器人还不具有人工智能,也没有对人类工作岗位形成大规模替代。并且现在开征机器人税对人工智能技术的快速发展和创新会有明显的负面影响。

在《欧盟机器人民事法律规则》中,法律事务委员会呼吁成立一个专门负责机器人和人工智能监管的欧盟机构,负责就技术、伦理、监管等问题提出专业知识,并管理人工智能发展出现的问题,以便支持欧盟内部各成员国和企业更好的抓住人工智能发展的机遇,并应对发展过程中产生的挑战。

应该看到,各国对人工智能的创新与应用做了各种充分的准备。作为建设科技强国的中国,应该在人工智能技术发展的初期未雨绸缪,同样做好立法、国家标准制定、监管原则明确和监管机构设立等多方面的准备工作,以便促进人工智能技术在中国的尽早全面应用。

来源:瞭望智库

版权所有,未经授权不得转载

瞭望智库紧扣“国家政策研究、评估和执行反馈”这一核心业务定位,利用新华社内外智力资源, 连接全球主要智库,服务中央决策和新华社调查研究,发挥政治建言、理论创新、舆论引导、社会服务、公共外交等功能, 在社会上形成广泛的知名度和影响力。

学术合作:马岩 mayan0722@gmail.com 周邦民 87062760@qq.com

商务合作:陈晶 17778089574 赵沁珩 15201538826

通讯地址:北京市东城区永定门西滨河路8号中海地产广场东塔16层.100077

客服邮箱:lwinst@lwinst.com

©2009-2016 瞭望智库(北京)科技发展有限公司 京ICP备10031607号-3