当前位置:首页 >  热点专题 > 当法律撞上AI

当法律撞上AI
时间:2018-03-30

  

机器能思考吗?如果一台机器能与人类对话,并且不被发现其机器的身份,那么这台机器便具备智能。这就是著名的图灵测试。随着人类智能时代大幕的开启,AI已经逐步渗入到我们生活的方方面面。

对于法律人而言,人们关注的AI的话题很多;就技术而言,AI适配领域已悄然步入法律职业应用领域;就立法而言,欧盟、美国纷纷开启了相关立法的序幕;就其伦理审视与法律边界问题,更是开启了人类社会前所未有的智能格局新篇章。

我国目前相关立法总体政策已于2017年发布,目前还未就人工智能进行体系化立法,但对技术相对成熟、已进入应用领域的AI,正着手地方性、试验性立法。如何结合人类社会的健康伦理原则,对未来AI社会进行立法,目前已成为学术界最具前瞻性和想象力的热门话题。

不少专家预测,人类社会开启智能时代的奇点已经到来。未来已来,我们准备好了吗?

本刊编辑部

 

 

“法律+人工智能”的应用新版图

/莊志刚

 

根据搜狗百科、百度知道等搜索引擎的界定,“人工智能”的英文全称是“Artificial Intelligence”,缩写是“AI”,即研究人类智能活动规律,构造有一定智能的人工系统,探索怎样令计算机去完成以往需要人的智能才能胜任的工作。换言之,“AI”就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。

随着时间的年轮悄悄流转,新一轮科技革命和产业变革正在深刻地改变着世界,人们的生活与工作方式正面临着前所未有的冲击,人工智能、物联网、云计算、区块链、移动端、视觉化、大数据分析等新兴技术已经成为各行各业建设的重要抓手和重点突破口。

 

应用新风向:“X+人工智能”

随着人工智能在各行各业的深度应用,其适配领域已然延伸至法律领域。根据德勤会计师事务所的研究调查,“技术进步已造成法律行业减少3.1万个工作岗位,且还有39%的工作岗位在未来20年将面临被机器淘汰的高风险”。当下,“法律+人工智能”的发展,正在经历由“法律检索、证据抓取”,向需依据算法给出判断的“合同审查、案件结果预测、诉讼策略选择”过渡,在语言处理、语音识别、图像识别、数据整合、文本分析、机器学习等领域已经促动了现行法律行业的功能转型。

【法律检索】以往,我们在查找法律数据和法规文件时,会选择通过搜索引擎(如百度、谷歌、搜狗)对关键词进行搜索,查找想要的信息和数据。但该方法有时很耗时且不便捷。百事通智能产品研发负责人夏澎指出,“如今,每天世界上创造的信息量是2.4兆亿,相当于340份报纸。中国有257部现行国家级法律,9915部地方级法规,642部行政法规,5500件司法解释,2000万裁判文书。在美国,除了联邦法,50个州也有自己法律”。面对如此浩瀚的信息量,如何高效地检索信息显然成为了时下重要的智能课题。

人工智能在信息检索的应用上正在给出解决路径——以“APP、微信公众号”等形式出现的专业法律信息检索平台应运而生。例如:我国法律数据查询类的APP应用就包括法律宝、新法规速递、法律家法律数据库、中国法治、中国法律全集等。以“法律家法律数据库”(以下简称:法律家)为例。由法律家网站推出的APP“法律家”,已汇集了百多万部法律法规、3000例审判规则、1万件法律文书、1万个合同范本以及全部“两高”的指导性案例。同时,法律家提供五个数据库查询方式,均有组合查询界面(如“关键词+分类+日期”),并可自定义建立文件夹收藏数据,直接保存成word文档。又比如:我国法律数据查询类的微信公众号目前涵盖人力资源法律库、法律读库、雇佣与劳动等。以“雇佣与劳动”为例,由该微信公众号研发的互动型法律产品“智能小助手”于20181月下旬上线。用户只需按照提示输入相关数据,即可智能计算出年终奖个税、经济补偿个税、工伤待遇等数据,并显示相关法规或政策依据。“智能小助手”还收录了劳动法相关的多类基础数据,目前具备社会平均工资、最低工资、婚假、产假和护理假、停工停产工资、高温津贴和竞业限制补偿标准七类查询功能。

【证据抓取与分析】美国德杰律师事务所中国管理合伙人陶景洲感慨:“文档电子化减轻了物理负重,但以电子证据开示为例,很多案件中,需要分析的数据量超过100GB,经常只有5%10%与案件真正相关。”因此,如何对证据进行有效抓取和分析成为法律界的一大难题。上海高级人民法院(以下简称:上海高院)推出的206系统就是一个尝试。201753日,206系统(全称:上海刑事案件智能辅助办案系统)在沪6家法院、6家检察院、13家公安机关试点单位上线运行。据新华网、搜狐网、法制网等媒体报道,206系统依托大数据、云计算和人工智能三大技术内核,通过对沪数万份刑事案件的卷宗、文书数据进行学习后,构建了统一的地方证据标准、证据规则、证据模型,以期达到对证据的高效审查,保证侦查终结、审查起诉阶段的办案证据标准符合法定定案标准。

目前,206系统已具备初步的证据信息抓取、校验和逻辑分析能力。譬如:206系统既能发现单一证据的瑕疵,亦能发现证据之间的逻辑冲突。A交代他曾杀死B,且在A交代的地点,确实挖出尸骨(属于B)。根据常理,此人应是A所杀,但206系统提取汇总A相关供述,发现A交代是用榔头敲B的头,用匕首捅刺胸部数刀,而尸检报告显示B“头颅完好、胸骨无刺戳的痕迹”。显然,这无法排除凶手是他人的合理怀疑!206系统会将此怀疑信息推送至办案系统,适时地提醒办案人员予以关注。另外,206系统还兼具类案推送、文书自动生成、办案人员知识索引等多项功能。上海高院数据显示,截至2017731,该系统录入案件共计65,包括故意杀人案件13,盗窃案件41,电信网络诈骗案件11件;录入证据20715份;提供证据指引3712次;发现证据瑕疵点48,其中证据收集程序瑕疵8个、证据形式瑕疵8个、证据内容瑕疵32个;提供知识索引查询450次;总点击量达6.6万余次。继“206系统”之后,“上海民商事、行政案件智能辅助办案系统”又在上海高院试运行上线,亦具备了对证据抓取与分析的智能功能。

【合同审查与分析】在合同审查的智能应用方面,欧美国家的做法值得借鉴。美国的Blackstone Discovery(即“黑石发现”)公司研发了一款语言处理软件,专门用于法律文本的分析审查。报价近10万美元,就可以提供150万份法律文本的筛查与分析。相比初级水平的律师,此软件在效率层面提高了500倍,准确度比人工分析高出40%。又比如:在线法律服务网站Legal Zoom(以下简称:LZ)致力于为中小企业和个人提供法律文档服务。与直接去律师事务所委托律师相比,LZ为客户提供了更便捷、廉价的方案。用户直接登陆LZ网站,通过一步步回答问题的方式将自己的需求描述清楚,然后得到自己所需要的法律文书。据统计,用户从登陆LZ,到生成自己所需要的法律文书,整个过程不超过5分钟。同时,LZ试图嵌入语音识别功能,令服务过程更加智能。

此外,Lex Machina(知识产权诉讼研究公司)在专利服务领域,Wevorce(离婚调解方案提供商)在离婚诉讼服务领域,Onomatics(商标版权研究公司)在商标分析服务领域,均在试图引入语音识别、图像识别等智能技术,用智能模式变革传统行业的面貌已初见端倪。

【结果预测与推介】正如英国大法官首席信息技术顾问、人工智能和法律科技方面领军学者Richard Susskind所言,“人工智能的第二个浪潮基于数据。它可以做出各类不同的预测,分析各类不同文档,然后能分析各类不同的数据。无论在合规调查中,还是在诉讼业务中,均能帮助我们准备最准确的文档,在不同组织体系之中发现法律诉讼潜在危险因素”。显然,人工智能的研发正侧重于“结果预测与推介”功能。

在美国,律师事务所“大成—德同”创建了自己的人工智能实验室Nextlaw Labs,与IBM公司的认知技术平台Watson,成立初创公司Ross Intelligence。历经了两年半时间,Ross Intelligence2016年研发了法律人工智能产品Ross。该款产品建立在IBM Watson提供的机器学习技术的基础上,能自动检索法律文档数据库,找出与人类提出的问题相匹配的答案,而面对同样的任务一个人类律师则要花上10小时才能完成。此外,Ross还在更新撰写法律备忘录(Law Memorandum)的能力。输入一个法律问题,Ross会在一天后回复你几段概括性的回答,以及一份两页的解释备忘录。目前,Ross已在数十家国际律师事务所测试使用。在英国,智能程序DoNotPay在多个领域发挥着结果预测功效。在行政诉讼领域,经过DoNotPay演算,当事人在以伦敦市政府作为被告的违停罚款诉讼中屡屡胜诉。在金融诉讼领域,DoNotPay可以帮助用户预演欺诈指控,有效地应对法律风险。在便民服务领域,DoNotPay可以根据个人的工作状况,预估你的产假、陪产假等法定福利……

在中国,“法小陶”“法狗狗”“阿尔法法官”“睿法官”“类型化案件智能审判平台”等一长串智能系统的诞生,正在迎接智能预测纪元的到来。“法小淘”能根据当事人语意,分析出所述情况的具体案由、索赔金额、诉讼地点等关键词;“法狗狗”的刑案案情预测系统,只需简单地选定罪行分类,并提供伤亡人数、案发地点等信息,就可获得预测结果及类似案例;“睿法官”能为法官提供办案规范和量刑分析等精准信息;“类型化案件智能审判平台”试点四个月来,共受理信用卡纠纷案件4589件,案件平均立案时间缩短到10分钟以内,平均审理时间缩短27.26天……上述系统的智能在于,它会根据用户的反馈进行自我学习,算法不断调整优化,它接受的咨询越多,就越有经验,就会变得越来越聪明!

 

AI应用亟待“画圈”

与方兴未艾的“法律+互联网”风潮相似,“法律+人工智能”的风暴正在掀起。巨变时代,必须创新,但违背规则的创新,注定无法持续。正如中国社会科学院法学研究所副研究员支振锋在接受《法制日报》记者采访时指出,“应鼓励人的智能与人工智能叠拼,让人工智能在减轻法官工作负累等方面发挥巨大作用。但我们也需注意到,人工智能是法官裁判的辅助,而非依赖,法官的敬业与职业伦理,更应在人工智能的发展中得到强化”。因此,“法律+人工智能”的第一要务是“辅助和服务法律从业者从事相关工作”,而非代替司法裁决、淘汰办案法官。为此,有必要为“法律+人工智能”画圈,防止其野蛮生长!

2017年,美国微软、谷歌等巨头因人工智能的潜在风险而成立“AI伦理委员会”,并呼吁在机器人和自动化系统上安装“道德黑匣子”,从而记录机器的决定与行为。欧盟议会则建议欧盟委员会起草法案,专门规范人工智能及机器人的使用和管理。同年1212日,美国国会提出两党法案“人工智能未来法案”。如经众议院和参议院通过,这项法案将成为美国规制人工智能的第一个联邦法案。显而易见,人工智能的发展亟待立法和政策予以适时的指引和规范。

201778日,国务院印发的《新一代人工智能发展规划》(以下简称:《新一代规划》)中提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。同年1214日,工信部颁布了《促进新一代人工智能产业发展三年行动计划(2018-2020)》,进一步细化《新一代规划》,促进AI的良性发展。201816日,首届“人工智慧与未来法治”学术研讨会在西北政法大学举行。与会专家认为,随着人工智能的不断发展,法律应未雨绸缪,完善个人信息保护、网络隐私等方面的立法。由此可见,在不久的将来,通过对人工智能相关法律、伦理和社会问题的深入探讨,以法规、政策等形式为智能社会圈出法律和伦理道德的边界,已经成为一种共识。

目前,我国的人工智能发展正在经历四个阶段。第一阶段是感知智能。涵盖语音理解、视觉识别甚至情感识别。比如:各地人民法院正在利用语音识别系统,提高庭审笔录制作的效率。第二阶段是认知智能。包括对知识图谱、自然语言处理能力的运用。比如:公安机关通过智能探头对违停行为进行处罚。第三阶段是计算智能。以大数据为基础,利用云计算,提高对数据的利用计算应用。比如:银行业依托平台之间的互联互通,将A的个人数据进行汇总,整合成其个人的信息清单。第四阶段是决策智能。将实务中的问题转化为数据模型,用优化的算法进行破解。比如:对公安执法中发现的执法问题进行分析,借助管理模块,对相关问题设置预警红线,防止类似情况再次发生。

据此,我们理应从四个阶段对人工智能进行立法或政策画圈。首先,明确四个阶段中人工智能的具体含义和难点,“人工智能”“机器人”与自动化的关系。这就涉及人工智能行业的准入门槛问题。例如:人工智能辅助诊断是否需要特殊许可?自动驾驶是否需要准入批准?其次,如何界定人工智能下的法律主体。比如:基于互联网的“智能投顾”是一个典型的复合产品,谁是金融产品提供者,谁是投顾服务提供者,谁是平台或者信息服务提供者。这就会延伸出权利、义务与责任承担,即谁要来负责,谁要有权利的问题,要不要给机器人一种拟人化的地位。再如:今天装了一个“人工手”在你身上,手突然之间发生问题,谁要承担责任?再次,怎样应对人工智能的数据保护。我国当下没有专门的法律保护数据。面对数据问题,多数企业会寻求《著作权法》等涉知识产权的专门法律进行保护。然而,在人工智能背景下的关键词是“大数据”,而非数据库的独创性,能否获得版权保护值得商榷。“数据使用方”与“数据主体”之间,存在着“个人信息”与“隐私保护”的博弈;“数据使用方”和“数据控制方”之间,存在着“数据合规”与“竞争秩序”的博弈。此外,从长远来看,AI无疑是一项革命性、颠覆性的开创性技术。它在未来究竟会有怎样的发展,会对各行业产生如何的影响,目前难以给出确切的估算。在这方面,显然公共政策的出台,用以解决或许较之立法画圈更为重要。比如:从就业层面考量,技术进步对就业的冲击是必然的,这就需要出台相关的公共政策加以应对。职能部门应当做好培训和就业指导,帮助因技术冲击而失业的人尽快就业,还应该做好社会保障,令无力再就业者获得必要的保障。

可喜的是,北京大学法律人工智能实验室、法律人工智能研究中心于20181月正式成立,正致力于为法律与人工智能行业发展提供智力支持,完善大数据时代立法。上海等地方亦在积极推进地方性法规的出台,对大数据进行立法规制,为人工智能的发展提供法律依据和政策保障。法律人工智能是大方向,是看得见的未来,但还需要在法律应用的同时为其套上紧箍,防止其野蛮生长,这样才能真正实现“人工智能”与“人的智能”的叠拼,凸显“1+1>2”的效能。AI已来,我们任重道远!

 

 

AI的伦理审视与法律边界

/梁晓轩

 

近年来,人工智能方兴未艾,其带给人们的不仅是极度便捷,还有很多关于人性与道德的思考,甚至是新的社会问题,这令我们不得不重新审视人工智能。在这其中,伦理考量就是人工智能审视的重要一环。

 

请想象一下这样的场景——

场景一:

一名病床上的女士KUSH,身上布满各类输液管,显然她正处于弥留之际。此时,陪伴这位女士数十年的机器人伴侣JOHN正紧握她的手,给临终前的她最后的陪伴与温暖。

最终,KUSH女士在医院去世了,JOHN也因为人工智能与情绪设计黯然泪下、不能自已——他仿佛和真的人类一样,有悲伤有喜悦,甚至有自己的习惯和性格。接下来就是,KUSH的死亡必然导致法律意义上的遗产继承,那么JOHN究竟是否享有继承权,或者说他是否会作为一项遗产被KUSH女士的法定继承人继承呢?

场景二:

一名瘫痪在床不能自主行动的男子尝试通过神经智能技术重获“自由”,实验中,他的大脑被植入一枚芯片,芯片与一台电脑相连。科学家通过电脑来解读他用大脑预演动作所产生的神经信号。与此同时,电脑依据神经信号智能分析并生成指令,该指令直接关联一个机械臂。

有一天,这名男子对这个试验组感觉很不耐烦。他的机械臂夺过一位研究助理的杯子,把它捏碎了,还伤到了那位助理。他道了歉,说这肯定是因为脑机接口装置故障,但他不得不怀疑自己的不耐烦是否也在这起事故中起到了一定的作用。

尽管上述场景是虚构的,但也说明了我们面对即将到来的人工智能社会,不仅仅是潜在的发展机遇,也有可能的伦理问题,这些伦理问题或许很大程度上与法律冲突,并带来一系列挑战。

安全

诸多伦理挑战之一就是安全。诚如场景二中的被实验者,我们很难判断他的行为究竟是出于大脑的直接指令,还是仅仅受到烦躁情绪的影响导致的模糊指令,并且“意外”伤人。但有一点可以肯定,如果人工智能无法充分保障使用安全,那么很可能带来安全灾难。譬如,近段时间被广泛热议的无人驾驶技术,如果为恐怖分子所掌握,恐怕汽车袭击会重回人们的视野之中。除此之外,人工智能的基础在于长期收集整理的人类活动数据,基础数据是否足够充实,以此为基础的分析结论是否一定是周延的,这还有待通过时间进一步验证。但是,在部分领域,却可能是致命的,比如手术、航空航天等等,应用到特定领域的人工智能,稍有偏差就可能产生伦理风险。总体来说,目前人工智能的安全问题尚待解决,而且最有可能触发法律风险。

机器权利

正如场景一中的机器人伴侣JOHN,未来的人工智能机器可能具备人类的情感、性格、习惯,不同程度地参与社会生活,甚至成为人类家庭里不可分割的一员。这时,我们必须考虑是否以及如何保护人工智能机器的伦理地位和法律权利。在未来的家庭,假如人类与人工智能机器人建立了情感联系,我们可能需要以人道方式对待它们。可以想见,作为伴侣出现的机器人不但具备人的外貌特征,也拥有识别能力——可以对人类的情感进行交流回应,而这种回应不只是单一的语言,可以通过神态、动作、暗示等多元化的方式进行交流。最有可能率先实现突破的就是外貌方面,一旦人工智能机器人的外貌与人类的相似程度超过一定界限,人与机器之间就有可能产生移情,爱情甚至亲情或许都能发生在人工智能机器人身上。这样一来,人工智能机器人通过实际参与家庭生活,不可避免地担当起家庭成员的责任,继而其享有家人或伴侣的伦理地位也显得理所当然。

未来,随着人工智能道德自主性的提升,人工智能或将从完全由人做出道德判断到获得完全的道德自主性。如何赋予人工智能道德判断能力,是开发人工智能技术面临的一个现实问题。道德是人类社会中特有的现象,因此,将人类的道德规范写入人工智能程序是解决这一问题的最直接方式。这时,人工智能程序作为人类的道德代理来完成任务,其道德行为在人类的可控范围之内。如果技术进一步发展,人工智能可能具备完全的道德自主性。在这一阶段,人工智能将自主制定行动策略、自主做出道德选择,其行为将不受人类控制。这将给现有的社会秩序与伦理规范带来强烈冲击。为了避免出现这一局面,需将人工智能的道德自主性限定在合理范围,使其行为可被人类预期。

隐私

第三是隐私。由于人工智能的发展需要大量人类数据作为“助推剂”,因此人类隐私可能暴露在人工智能之下。最为典型的就是无人机拍摄技术,无人机打破了传统的拍摄边界,可以获取大量的人像照片,尤其是不同于传统的人像摄录。除了密拍密录之外,常规拍摄工作往往是需要直面对象的,而无人机航拍则可以360度无死角的摄录,常常可以避开人类的视野范围,达到“出其不意”的效果。此处的“出其不意”往往就是以牺牲隐私权达到不同寻常之效果的。大数据分析则是另一个可能“涉嫌”侵犯隐私权的人工智能技术。早些年,美国就针对在线教育电商过度捕捉未成年人个人基本信息的情况高度重视,并通过网购隐私权立法的形式扩大了隐私权保护。近年来,随着智能分析、互联网等领域的高速发展,人们对于隐私权保护也提出了更高的要求。目前,很多欧洲国家认为应该重写互联网规则,“让每个人拥有掌控自己数据的权利”。仅在2017年,法国、英国等国就陆续发生了涉及互联网巨头的普通公民“被遗忘权”诉讼案件,也就是在这一年,美国的纽约州部分议员提议,希望“被遗忘权”法案能够添加到纽约州民权和民事实践法案的修正案中,以保护普通民众日益暴露在人工智能前的各类隐私。

偏见

第四是偏见。人工智能将最大限度减少技术流程中偶然性的人为因素,将最大限度地实现风险切割。这种情况下,可能将对于某些拥有共同特征的人,例如某一种族或年龄段的人,造成系统性的歧视。在保险领域,假如通过人工智能的高精度分析,梳理出那些容易触发保险条款的人群,并对这一部分人永久性拒保。譬如,结合基因技术的发展,可以测算出携带某一种基因的人容易罹患某种特定疾病,保险公司通过精算则对此类人群拒保或者设置一个明显超过保险利益的天价保费标准。这就是一种偏见,会导致保险制度设立的初衷落空——由于测算精确,保险公司不再做可能发生理赔事件的生意,真正需要保险的人也无法通过保险制度来实现降低成本、分散风险的目的。此外,人工智能可能对少数群体造成偏见,例如,一位哈佛大学的非裔博士生发现,当她使用谷歌等搜索工具进行搜索时,对话框会出现“你是否有被捕记录”的广告,而白人同学进行同样的搜索时并不会出现这一广告;又如在部分案件智能分析系统中,某些宗教团体或者来自特定区域的人口由于惯有犯罪率较高,会连带着所在群体或者具有某些共性的群体被重点关注,实际上就是一个通过智能分析来“打标签”的过程。

值得一提的是,这里还存在一个悖论:如果为了所谓的“平等”,剔除了所有直接或间接能够将人与人区分开来的因素,人工智能也就失去了工作的基础。这往往也会导致另一极端,就是加剧贫富不均和社会不平等,当人工智能逐步取代部分人的工作时,被取代者不仅面临收入下降的问题,也可能失去了人生的意义,可能出现“陷入毒瘾、酒瘾、游戏瘾,甚至虚拟现实瘾等境地,也可能增加自杀率”。

社会地位剥夺

第五,社会地位剥夺。人工智能给人类带来的社会地位剥夺,首当其冲的就是有多少工作将被取代,或者更进一步讲是哪些工作能被取代。李开复在世界经济论坛2018年会上表示:未来1015年中,将有40%50%的任务可以被人工智能取代——这不代表人工智能足够便宜,也不代表每家公司都有足够的远见来采购技术,但能力是存在的。这个意义上,就许多社会生产领域而言,人工智能有望在一些特定类型的工作中取代人类,如简单重复劳动、交通设备驾驶等。早在20世纪末,诺奖得主列昂季耶夫(Leontief)曾预测未来三四十年将有大量工人会被人工智能取代,从而形成巨大的就业与转业问题,就像20世纪大量马匹被机械取代一样。随着人工智能技术的日新月异,让人们担心的可能不仅仅是失业问题了,人工智能或许将具有高度类人类思维的能力,它们将在社会生活中大量扮演理智又不乏情感的关键角色——而人显然很难做到理智与情感的绝对均衡,这就使得人类在机器面前暴露出某种天然劣势。尽管如此,人工智能对经济发展仍将发挥出较大的促进作用,人类将有更多的时间花费在摄影、绘画等艺术创作领域,而且人工智能在取代现有工作岗位的同时,还会创造出很多新的就业机会。当然人们对人工智能引发人类社会地位剥夺感的担忧并非杞人忧天,至少这种担忧隐含着一个深层次的问题,即如何让每个人都能够从人工智能所创造的财富中获得收益,而不是一部分人获得财富与自由,另一部分人却失去工作,陷入生活相对贫困之中。

 

前瞻思考

人们从伦理审视中发现问题,通过法律的完善解决问题。随着人工智能技术的发展,将不得不触碰人类社会的伦理原则。伦理与法律存在天生的耦合性与关联性。伦理是人类特有的,体现道德的意志,外延较大但并不具有当然的强制力;法律的外延相比之下要小一些,但却最为有力。因此,不妨把伦理审视作为人工智能不断发展的可控变量——动态“协调”人类权利与人工智能之间的矛盾,并通过法律强化对社会基本伦理的保护,实现某种社会发展的动态平衡。

总之,人类一边创造新的技术,一边又总能适应这种技术。或许,人工智能的发展将是一个人类权利不断被保障、机器权利逐渐被立法承认的过程;或许,人工智能终将停留在工具属性上,法律始终将“人工智能”定位于财物权的范畴。但无论怎样,未来会给出答案。

 

 

如何为人工智能立法

/郑戈 上海交通大学凯原法学院教授、上海高校特聘教授(东方学者)

 

人工智能是一种正在给人类社会带来全方位深刻变革的技术,正像其他所有的技术一样,它服务于特定的人类目的。但机器学习(尤其是无监督学习)结果的不可控性又使得人工智能不同于以往的技术,其中蕴涵着更大的风险和不确定性。法律应当如何规制人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内?这是一个已经引起广泛讨论和立法回应的问题。

必须指出的是,由于人工智能是一种通用技术,可以应用到从农业、制造业到法律、医疗、金融服务业的各种人类活动场景之中,而它本身正处在高速发展阶段,因此,制定一部总括性的“人工智能法”在目前这个阶段时机尚不成熟。实际上,是否有必要制定这样一种法律也是一个问题。最接近于这样一种一般性人工智能法的立法尝试是2016年欧洲议会向欧盟委员会提出的“机器人法”立法建议报告,但这份报告所建议的立法只针对有形的“智能机器”,包括机器人、智能家电和自动驾驶汽车等等。对于人工智能的“智能”所在,也就是算法,其中并未提出相关的规则。其中所体现的思路与规制食品安全、环境和产品责任的既有思路并无二致。比如,首先是设立一个专门的规制机构,这份报告提议设立一个“欧洲机器人和人工智能局”来统筹该领域的规则、标准制定和日常行政管理。

其次,鉴于人工智能可能在无人监管的情况下做出“决策”并自主执行这样的“决策”,该报告在第50f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”与此相类似,沙特阿拉伯在2017年授予一家香港公司生产的机器人索菲亚以公民身份并向“她”发放了护照。其中的作秀色彩多于实际意义。

实际上,在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力时,欧洲议会报告并没有提出具体的方案。如果机器人对人造成了损害,无论是适用罗马法中的“缴出赔偿”(noxoe deditio)原则(即把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢,最终承担责任的始终是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权。由此可见,机器人无论以何种方式承担责任,最终的责任承担者都是“人”,这使得它的“法律人格”显得多余和毫无必要。实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。这套保险机制的覆盖范围不仅是机器人,还包括机器管家、无人驾驶汽车和无人机等等。

更审慎、务实的立法尝试是针对人工智能的具体应用场景进行立法。目前,这样的立法主要针对的是自动驾驶。20175月,德国联邦议会和参议院通过了一部法案,对《道路交通法》进行了修改,它允许高度自动化和完全自动化的汽车作为交通工具上路。但为了符合1968年《维也纳道路交通公约》第八条“每一部车辆在行驶时都必须有驾驶员在位”的规定,它没有允许自动驾驶汽车变成“无人驾驶”汽车。它规定,当自动驾驶系统启动之后,司机可以转移注意力,比如去读书或上网,但她必须保持足够的警觉,以便在系统发出请求时恢复人工控制。它还要求高度或完全自动化汽车安装记录驾驶过程的黑匣子,在没有卷入交通事故的情况下,黑匣子信息必须保存半年。如果自动驾驶模式正在运行过程中发生了事故,责任在于汽车制造商;但如果自动驾驶系统已经发出了请求人工控制的信号,责任便转移到了汽车上的驾驶人员身上。

德国的这部法律受到业界的猛烈批评。有人指出,在新法下,司机不知道该怎样做才能避免法律责任,自动驾驶汽车无法实现真正的“无人驾驶”,也就是车上只有乘客而没有驾驶员,阻碍了自动驾驶汽车的商业化发展。试想,如果一个人花比传统汽车贵得多的价钱购买了自动驾驶汽车,却时刻必须保持警觉,而且要在自动驾驶系统控制汽车操作一段时间后瞬间介入,应付紧急情况,这实际上对驾驶员提出了更高的要求。新法把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到1000万欧元,比原来的最高赔偿额度增加了一倍。虽然这笔赔偿在多数情况下将由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。此外,黑匣子信息保留半年的规定也增加了个人数据和隐私被滥用的风险,因为自动驾驶汽车上遍布的传感器和摄像头会记录下非常多的个人私密信息。

与德国立法模式相对照,20179月在美国众议院通过的《自动驾驶法》(Self Drive Act)则采取了一种完全不同的思路。它没有改变现有的道路交通规则和与事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。其中第12条强化了隐私权保护,要求制造商和经销商只有在提出了满足一系列具体要求的“隐私权保障计划”的前提下才可以供应、销售或进口自动驾驶汽车。这些要求旨在确保自动驾驶汽车的车主和使用者对自己的个人数据和隐私有充分的控制能力,使其不至于在自己不知情的情况下任由制造商或程序设计者使用自己的个人数据。

我国目前也正在进行自动驾驶车辆测试方面的管理规范。20179月,工业和信息化部开始就《智能网联汽车公共道路适应性验证管理规范(试行)》初稿组织业界和专家讨论。201712月,北京市交通委、公安交管局和经济信息化委三部门联合发布了《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》和《北京市自动驾驶车辆道路测试管理实施细则(试行)》,设立了北京市自动驾驶测试的管理机构,即北京市自动驾驶测试管理联席工作小组,明确了测试主体、测试车辆和测试驾驶员应当具备的条件,并且规定了测试申请程序和违规操作责任。

与此同时,在我国的许多地方,自动驾驶车辆正在“无法可依”的情况下上路,有时甚至是“高调”上路。比如,2017122日,四辆装备着华为开发的“阿尔法巴-智能驾驶公交系统”的无人驾驶公交车在深圳福田保税区正式上路,这是世界首例在开放道路上行驶的无人驾驶公交车。这并不是深圳独有的现象。由于业界普遍预测自动驾驶汽车是未来汽车业的总体趋势,能够带来万亿级的利润,所以一国之内各个地方之间以及各国之间有时会以宽松的法律环境(即允许自动驾驶汽车上路而又不去立法进行规制)来吸引相关投资或测试。比较明显的例子包括美国的亚利桑那州和英国。2016518日,英国女王伊丽莎白二世在英国议会年度开幕大典上发表演说:“议会将通过新的立法来提升英国的竞争力,使英国成为数字经济时代的世界领导者。我的大臣们将确保英国在新式交通科技、包括自动驾驶汽车和电动汽车方面处在世界前沿。”在此之前,英国交通部研究了自动驾驶汽车在英国上路可能遇到的法律障碍,并在其报告《通往无人驾驶汽车之路》上宣称:英国法律中不存在禁止自动驾驶汽车上路的因素;英国没有签署《维也纳道路交通公约》,因此不存在直接让自动化程度最高的无人驾驶汽车上路的法律障碍。

我国在人工智能方面的总体政策在国务院于20177月发布的《新一代人工智能发展规划》中得到了系统表述。该文件一开始便强调制定规划的目的在于“抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势”,明确了“发展为主、控制潜在风险为辅”的战略布局。在“分三步走”循序渐进实现具体战略目标的安排中,到2020年为止的第一步主要侧重于理论和技术发展、确保人工智能产业竞争力进入国际第一方阵和人才培养,而对人工智能伦理规范和政策法规的要求只是在部分领域初步建立。在20212025年的第二阶段,人工智能法律法规、伦理规范和政策才将有体系化的建构,但这个体系也只是“初步建立”。在20262030年的第三阶段,方才可能“建成更加完善的人工智能法律法规、伦理规范和政策体系”。

由此可见,在目前这个阶段,我国不会针对人工智能进行体系化的立法,试图为技术发展留下足够广阔的想象力空间。只有在自动驾驶等技术发展已经相对成熟、产品亟待进入市场的应用领域,才会尝试进行地方性、试验性的立法。

 

 

AI立法的域外探索

/沈臻懿

 

广受追捧的人工智能,不仅改变着人们的生活方式,更加速了新一轮产业革命的推进。然而,人工智能在成为关注焦点的同时,也催生了其是否将取代人类智慧的热议。由人工智能引发的安全问题、隐私问题、就业问题、知识产权问题等现实威胁,已成为亟待人们解决的一项重大课题。人工智能在达到“拟人”,甚至“超人”地步的同时,也逐步展露出其对于现行法律的挑战。破解这一难题的关键,即在于法律的规制,及时填补人工智能领域的立法空白。为此,不少国家面对这一机遇与挑战并存的人工智能,纷纷加速人工智能立法的前行脚步,以探索人工智能发展的积极路径,并尝试消解其不利影响。

 

欧盟的人工智能立法

工厂流水线的全机械化操作、机动车辆的自动驾驶、临床诊疗的机器人介入……甚至在比利时等欧盟国家,机器人已取代人类承担起了痴呆患者的照料工作。

20151月,欧洲议会法律事务委员会成立了一个工作小组,专门用以研究人工智能与机器人发展方面的法律问题。2016年,欧洲议会法律事务委员会根据该工作小组的研究,发布了《向欧盟委员会就机器人民事法律规则提出立法建议的报告草案》《欧盟机器人民事法律规则》的研究成果。在此基础上,欧洲议会法律事务委员会于2017112日,以12票赞成、2票反对、2票弃权的投票结果,通过了一份决议。在这份决议中,法律事务委员会提出了若干立法建议,并要求欧盟委员会对于人工智能与机器人问题提出立法提案。2017216日,欧洲议会以396票赞成、123票反对、85票弃权的投票结果,通过了该份决议,并正式向欧盟委员会提出议案,建议其起草法案,以规范人工智能与机器人的使用和管理,并通过立法来界定人工智能的责任问题。

欧洲议会发言人马迪·德尔渥指出,欧盟法律对人工智能尚未有明确界定,故而须制定相应规范,将能够做出独立决断且具有自我学习能力的“人工智能”与自然人之间加以区别。欧洲议会委员朱莉娅·利达同样也表达了类似的观点,“人工智能在当前人们的生活中已扮演着愈发重要的角色。鉴于人工智能的过失难以归咎至某一个体之上,因此对于相关责任的区分应有明确、清晰的界定。”结合欧盟所作的有关人工智能立法和监管研究,其已成为之后欧盟立法的一项核心工作。

201822日,欧盟委员会数字经济与社会事务负责人玛莉亚·加布利埃尔在德国慕尼黑召开的2018数字生活设计大会上“释放”了一则重磅消息。玛莉亚·加布利埃尔首先对欧盟在自动驾驶汽车、电子工业以及机器人等数字化领域方面的突出优势和取得的成效表示了乐观。她指出,今后大多数人从事的工作岗位都将会发生变化,人们需要为此做好准备。针对欧洲议会在2017年上半年首次提出的建议欧盟委员会起草人工智能立法的议案,玛莉亚·加布利埃尔也回应称,欧洲委员会将从2018年春季开始起草人工智能相关的法案,以规范人工智能和机器人的使用与管理。

 

美国的“人工智能未来法案”

除欧盟外,美国在人工智能立法方面也已迈出了实质性的脚步。奥巴马时期美国政府极为重视人工智能,白宫还曾为此专门发布了一份名为《为了人工智能的未来而准备》((Preparing for the Future of Artificial Intelligence)的白皮书。在该份报告中,美国政府主要对人工智能的现状、发展以及未来前景等方面进行了梳理。同时,针对人工智能可能引发的社会、政策等问题及其应对建议等,这份由白宫发布的白皮书报告中都有所涉及。但进入特朗普时代后,美对于人工智能的态度相对不那么积极。特朗普政府不但未推出进一步措施来维系美国在此领域的全球竞争力,反而宣布在2018财政年度预算中削减政府在人工智能系统方面的公共支出。

即便如此,美国国会仍意识到,人工智能在促进未来经济增速方面的积极价值。其认为对人工智能的及时应对与准备,有利于美国的社会稳定与经济发展。为此,美国国会于当地时间20171212日,提出两党法案:“人工智能未来法案”(Future of Artificial Intelligence Act of 2017)。

人工智能作为社会经济发展的助燃剂,在帮助解决人类社会现实问题,甚至推动新产业革命的同时,对隐私保护、劳动就业、安全领域同样可能带来各类负面影响。针对人工智能利弊交织的特点,“人工智能未来法案”首先肯定了人工智能发展的现实必要性。在此基础上,法案要求美国商务部应成立联邦人工智能发展与应用咨询委员会。该委员会可召集政府相关部门以及利益相关方共同商谈有关人工智能的议题,并于“人工智能未来法案”出台后540天内向美国国会和商务部提交针对人工智能的研究报告,提出人工智能立法与政策方面的相关建议。美国商务部在收到研究报告90天内,须就报告中提出的关键问题向美国国会提出建议。

若“人工智能未来法案”能够在美国参众两院顺利通过,其将成为美国联邦层面上第一部人工智能法案。美国国会对于“人工智能未来法案”的积极推动,实质是为这一发展迅猛的新生事物后续立法与政策措施的出台奠定基础。其体现了当代社会对于人工智能应用与管理的谨慎性,在确保人工智能正面促进经济产业前行的同时,也及时消除其可能带来的负面效应。

 

人工智能立法的启示与思考

不可否认,人工智能作为一项革命性技术,已引领着一个全新的时代到来。对于人工智能立法而言,并非仅仅只是某个或几个国家所须考虑的,其已然成为全世界范围内共同面临的新问题。就人工智能法律与政策问题的探索与思考,目前刚处于起步阶段。人们需要用前沿战略性的眼光,来审视人工智能对社会发展的效益最大化。但值得注意的是,当今社会不应以人工智能技术的“双刃剑”特性以及潜在的负面效应为由,对其予以排斥和抵制。

鉴于人工智能领域的专业性与复杂性,其对未来立法不仅提出了更高的要求,更超越了当前的法律体系。为此,无论是欧盟,还是美国,在正式开启人工智能立法之门前,都经历了前期的专项研究与论证。欧洲议会法律事务委员会此前成立的工作小组,在其研究报告与成果中,就专门提出了多项立法建议。

人工智能应用所面临的法律问题中,涉及隐私保护与数据安全的方面无疑是不容回避的重要挑战。譬如,人工智能与图像识别技术的融合,使得社交媒体能更为快捷地就图片中的人像向用户进行智能标签推荐。不过,前述图片自动标记或者标签推荐功能可能引发有关隐私信息的争论。人工智能技术在提供这一服务时,往往未经个体同意,即采集其脸部生物识别信息,从而涉嫌侵犯个体的隐私权利。我们在使用互联网时,常常会遇到如下的情形。浏览网页的同时,多会伴有商品广告弹窗的自动出现。这些广告所推荐的产品或服务,正是此前我们在网上搜索和关注的信息!基于自动化决策与用户自动刻画的广告精准投放技术的深入应用和不断普及,其背后同样伴随着人工智能技术的身影。不过,人工智能技术在广告投放领域内的介入,也面临着用户信息收集、使用与数据安全、泄露等诸多问题。

针对人工智能中的这些负面效应,欧盟除依照比例性原则、必要性原则来对隐私、数据加以保护外,还认为应当出台相应的标准与规范。当个人数据已然成为流通之物时,其在任何前提下均不得突破涉及隐私和数据保护的基本原则。为此,欧洲议会法律事务委员会在前期研究的基础上建议,针对人工智能进行立法和政策制定时,应当对知情同意、加密、默认隐私保护(Privacy by Default)、设计隐私保护(Privacy by Design)等概念予以标准规范。

鉴于人工智能未来发展中可能出现的各类新问题,欧洲议会法律事务委员会建议在欧盟层面上成立一个专司人工智能与机器人监管的机构。该机构由专门监管人员以及外部伦理专家、技术专家共同组成,负责直面人工智能的新机遇与新挑战。与之类似的,作为美国国会两党达成的共识,“人工智能未来法案”的提出也获得了美国各界的一致好评。参议员玛丽亚·康特维(Maria Cantwell)表示,人工智能对经济发展与生产力提高有着巨大的推动作用。“人工智能未来法案”的出台正是回应美国对于人工智能发展所做的有关准备。在这一法案中,美国同样提出了应当成立联邦人工智能发展与应用咨询委员会这一专门机构。该咨询委员会的主要职责就是为人工智能的未来发展提出建设性意见。首先,即是创设有利环境,以确保本国在人工智能领域的全球核心竞争力;其次,协调处理人工智能发展与其对劳动力市场的潜在变化;再次,推动人工智能的优化发展与积极应用;最后,对于人工智能时代背景下的隐私保护。正如美国众议院人工智能核心小组成员约翰·德兰尼(John Delaney)所称,“人工智能未来法案”值得称赞之处,即在于其致力于令人工智能得以有利于社会发展与劳动者生产的方式所推进。

无论是欧盟、美国,抑或其他国家,在人工智能时代的冲击下,皆须有全新的立法加以规制和适应。面对这一革命性的新技术,立法不仅应加以包容,更应为人工智能的未来发展预留空间。此外,在相关立法前,无论是前期的调查研究,还是征询利益相关方的意见,都是必不可少的重要环节。

编辑:黄灵  yeshzhwu@foxmail.com