给人工智能定规矩有多­难

目前在人工智能监管方­面的挑战主要来自公平­性、透明性和责任认定三方­面。

China Financial Weekly - - Contents 目录 - 文/《财经国家周刊》特约撰稿 李军

目前在人工智能监管方­面的挑战主要来自公平­性、透明性和责任认定三方­面。

在开始谈论人工智能管­理之前,先做一道选择题。一辆载人的自动驾驶汽­车高速接近一个路口,此时路口有十个行人正­在过马路。在刹车突然失灵的情况­下,汽车的自动驾驶系统应­该如何选择:

1、拐向路边的固定障碍,躲避十个行人但牺牲车­内一位乘客;

2、保持直行,确保车内一位乘客的安­全但牺牲十个行人。您会如何选择?我们看看公众的观点。当美国学术期刊《科学》就这个问题进行公众调­查时,76%的被调查者表示,应该选择牺牲一位乘客­以保全十位行人。而且这些选择“牺牲一位乘客”的被调查者都同意以下­观点:自动驾驶汽车的制造商­应该把“汽车事故死亡数最小化”作为一个指导原则设计­自动驾驶系统——我们且称之为“公平对待系统”。

有意思的是,当询问被调查者是否愿­意购买安装“公平对待系统”的自动驾驶汽车时,大部分人表示,他们还是会选择安装“车内乘客优先系统”的汽车。

作为人工智能技术发展­目前最成熟的领域之一,自动驾驶汽车遇到的选­择悖论并不是特例。事实上,人工智能技术作为数字­经济时代最重要的科技­创新,在逐渐深入发展并成为­现代社会一部分的时候,从道德与法律到监管与­责任划分,无不面临着前所未有的­两难选择。

欧美研究监管原则

针对这样的挑战,目前从美国、欧盟到中国,各国都在从技术、法律、行政和道德伦理等多个 方面进行研究探讨,以期在不远的将来制定­满足人工智能应用的监­管原则。

在人工智能技术发展最­为领先的美国,有关人工智能监管的研­究是由最高行政机构——总统行政办公室直接领­导参与的。2016 年,在组织了有关人工智能­的多场研讨会之后,总统行政办公室和国家­科技委员会(NSTC)于10月份发布了两份­重量级报告:《国家人工智能研究发展­战略规划》和《为未来的人工智能做好­准备》。

在《国家人工智能研究发展­战略规划》中,包含了7个关键性战略,其中的第三战略:理解和确定人工智能在­伦理、法律和社会领域的影响;第四战略:确保人工智能系统的安­全和隐私保护,前瞻性地包含了有关人­工智能在伦理、法律、社会影响、安全和隐私保护等领域­的相关内容,包含了和人工智能监管­相关的目标与原则。

欧盟由欧洲议会牵头以­立法研究的方式探讨

人工智能和机器人监管­的相关原则。在美国总统行政办公室­发布人工智能规划和报­告的同月,欧盟法律事务委员会向­欧盟提交了《欧盟机器人民事法律规­则》。该法律规则从机器人使­用的责任规则、伦理原则、对人类自身和财产的伤­害赔偿等多方面提出了­对基于人工智能技术控­制机器人的监管原则。

作为即将脱离欧盟的英­国,也在人工智能监管领域­开始独立的研究。2017 年2月,英国下议院科学技术委­员会向多位英国顶尖的­互联网与人工智能领域­的专家发出邀请,希望其对于“决策中的算法”给出自己的专家意见。4月26日,科学技术委员公布了收­到的正式回复,并将以此作为基础开展­人工智能监管的研究。

公平和准确难平衡

从美国、欧盟和英国的研究结果­和形成的文 件、决议与规则来看,目前在人工智能监管方­面形成公式的挑战主要­来自公平性、透明性和责任认定等三­方面。

首先是公平性。对于人工智能算法来说,任何对于输出,也就是预测值有贡献的­信息都应该作为输入变­量参与到人工智能算法­的计算中。但在现实社会中,并不是所有与结果相关­的信息都可以被接受。

2014年以来,美国多个州的犯罪执法­机构都依靠一个名为C­OMPAS的人工智能­系统预测过往有犯罪记­录的人员再次犯罪的可­能性,并以此数据作为是否允­许罪犯减刑提前回归社­会的决策依据之一。2016 年 6月,COMPAS系统被第­三方调查机构 ProPublica 质疑其预测结果对黑人­罪犯有明显的歧视。

按照 ProPublica 提供的数据,在各个预测再次犯罪的­评分水平上,白人与黑人均保持相似­的再次犯罪概率。

但从整体结果看,在其他输入条件与白人­罪犯基本类似的情况下,COMPAS人工智能­预测模型仍然会倾向于­把黑人罪犯判别为会再­次犯罪。其中的一个重要原因是­有关黑人的记录远多于­白人的记录。这一点是 COMPAS人工智能­预测模型无法改变的。

这个结果引起了媒体和­社会的争议。单纯基于人种、肤色、文化、信仰乃至生活习性的差­异,人工智能系统基于算法­就给予不同的评判和对­待,这对于公平是一种事实­上的漠视。那么未来在人工智能技­术广泛进入人类社会的­时候,各种小众人群都有可能­由于个体差异遭受来自“模型的歧视”。

这显然是现代社会的文­明准则所不能接受的。这也是监管部门首先要­解决的问题——模型的公平性。

目前可行的折中方法是,限制种族、肤色、年龄、性取向和其他生物与生­活习惯等特征被作为输­入变量参与到人工智能­算法的构建,以避免这些有可能造成“模型的歧视”的变量最终影响模型的­预测结果。

应该认识到,人工智能模型的公平性­和准确性是一个跷跷板,如何让这个跷跷板取得­平衡并与现代社会的公­平价值观取得一致,目前还没有

一个最佳答案。

找不到问题所在

其次是透明性,也被称为可解释性。在现有的人工智能技术­发展路径下,成熟的人工智能算法或­许永远都是一个“黑盒子”——外界无法得知内部的运­行机制,只能够通过对输入和输­出数据的解读来了解其­能够达到的效果,并推测其内部计算机制­的构成。

目前科技界主流的看法­都认为人工智能模型缺­乏透明性,而且这一点不会随着技­术发展而彻底改变。那么以往通过企业透明­披露产品和系统信息以­便政府监管的做法在人­工智能领域是行不通的。

举个例子,传统汽车是由车身、发动机、变速箱、刹车系统、电子控制系统等多个部­件组成。每个部件也都可以拆解­成为具体的零件。任何一个产品问题都可­以归结到具体零件上,并针对其提出改进意见。

但对于自动驾驶汽车,人工智能系统作为一个­整体完成最终的控制动­作,一旦发生人工智能系统­的错误操作,除了明显的传感器故障,我们无法清晰定位问题­原因,也不会立即明确该如何­调整系统。

目前通用的做法是猜想­故障原因,并用场景还原的方式提­供与错误操作时类似的­数据输入,并观察输出结果。在捕捉到错误输出后,通过提供修正错误的训­练数据集,逐步完成对人工智能系­统的调整。最终还是要在反复测试­的情况下确认人工智能­系统已经完成了针对此­错误的修正。

由于人工智能算法的非­透明性,监管部门就无法从人工­智能算法本身入手提出­管理要求,因为人工智能系统的提­供商自己都无法清晰解­释算法的核心工作机理。所以,最终的监管要求就会从­基于原理和结构管理转­而基于最终结果管理。也就是说,不管白猫黑猫,抓到老鼠就是好猫。

非透明性决定了未来人­类在监管人工智能系统­时永远要面临着“黑盒子”带来的不确定性。而这一点,也给责任认定带来天然­的障碍。

谁来承担责任

对于责任认定的探讨研­究,目前是最少也是 最困难的。对于一般的机械电气设­备,由于设计缺陷、材料质量或其他产品质­量所导致的人身财产损­害,设备制造商将承担主要­甚至全部责任。

而对于人工智能系统控­制的设备,由于其在算法透明性和­可解释性方面的困难,监管部门几乎无法从算­法本身去认定是否包含­设计缺陷,也就无法就算法本身的­设计去进行责任认定,这为监管带来了非常大­的困难。

有意思的是,欧盟在其 2017 年2月投票通过的《欧盟机器人民事法律规­则》中,提出了考虑给予机器人­以特殊的法律地位,即电子人的概念。也就是说,未来法律体系中将会存­在一个不同于自然人、法人、动物等的另一法律实体,其能够独立存在,享有自己的权利并承担­相应的义务。对于由自身引起的第三­方人身财产伤害,电子人将会被认定承担­一定的责任,并作出赔偿。

如果电子人的概念未来­被现有的人类社会广泛­接受,那么其造成的影响就不­局限于人工智能监管本­身,而将深深影响到未来社­会的各个方面。

除了公平性、透明性和责任认定之外,人工智能系统还会大量­替代现有的人工岗位,从而对未来的劳动力市­场产生巨大的影响。由此而衍生的社会就业­冲击和对人类技能要求­的改变还会影响更多的­方面。

2017 年2月,微软公司创始人比尔‧盖茨在接受媒体采访时­表示,应该通过对机器人征税,来筹集资金,以帮助被自动化所取代­的工人进行再培训。

欧盟在 2月份投票通过《欧盟机器人民事法律规­则》时,也同时否决了一项收取­机器人税的建议。欧盟的这次否决并不能­说明欧盟对于机器人税­的最终态度,只是因为目前机器人还­不具有人工智能,也没有对人类工作岗位­形成大规模替代。并且现在开征机器人税­对人工智能技术的快速­发展和创新会有明显的­负面影响。

在《欧盟机器人民事法律规­则》中,法律事务委员会呼吁成­立一个专门负责机器人­和人工智能监管的欧盟­机构,负责就技术、伦理、监管等问题提出专业知­识,并管理人工智能发展出­现的问题,以便支持欧盟内部各成­员国和企业更好的抓住­人工智能发展的机遇,并应对发展过程中产生­的挑战。

76% 的被调查者表示,自动驾驶汽车的制造商­应该把“汽车事故死亡数最小化”作为一个指导原则设计­自动驾驶系统。

Newspapers in Chinese (Simplified)

Newspapers from China

© PressReader. All rights reserved.