法律怎么样应对人工智能挑战,畅谈人工智能与法律的前程

法律如何应对人工智能,人工智能对法律职业的挑战并不仅限于取代某些法律岗位,缺乏哲学、伦理学、法学等其他社会学科的参与

www.bifa7777.com 8

人工智能是当今社会的热点。从年初“阿法狗”横扫世界顶级棋手,到近期“阿法元”100比0全胜“阿法狗”,再到近日世界首位机器人公民的诞生,人工智能以迅猛的发展势头不断冲击着人们的日常生活,也给法律带来了全新的挑战。面对全新的问题与挑战,法律是否能提供妥当的解决方案?近日,北京大学法学院刑事法治研究中心主办题为“法律如何应对人工智能”沙龙,来自学界、司法界、企业界的专家、学者就此进行了探讨。

2017年11月3日下午,应皖西学院法学院邀请,著名学者、法学家,上海高校东方学者特聘教授,上海交通大学凯原法学院博士生导师郑戈教授做客皖西学院法学院“政法周末大讲堂”第90、91期,为法学院师生作了主题为“人工智能与法律的未来”、“法律如何回应大数据技术革新的挑战”法学前沿学术讲座。法学院师生、安徽英锐律师事务所律师、学校其他学院教师和学生近400人聆听了报告。讲座由法学院院长刘鑫主持。

作者:梁东星              班级:1402019              学号:14020199040

上海交通大学凯原法学院教授郑戈:

www.bifa7777.com 1

【嵌牛导读】:人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让人工智能真正有益于人类社会,我们也不能忽视人工智能背后的伦理问题。现在的人工智能界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来跨学科的人工智能伦理测试需要加强研究。

法律要智能地应对人工智能

讲座开始,郑戈以电话发明人亚力山大•贝尔“一扇门关了,另一扇门开了”的名言开头,暗示人工智能在关闭法律学科某些传统领域之门的同时,又为法学学科的发展开启了新的领域。他首先梳理了人工智能的发展历程,指出人工智能是现代工业文明发展的必然产物。从16世纪西欧想象的如同钟表一样精确的“机械人”(Automaton)到19世纪孔德试图用物理学法则去制造的“人形造物”,再到20世纪初取代部分人力劳动的Robot(机器人),进而发展到21世纪的“合成智能”(synthetic
intellects)和“人造劳动者”(forged
labors),人工智能的迅猛发展不仅仅是一个科学技术领域的新现象,它正在迅速改变人类社会的经济形态、社会交往模式和政治-法律结构。人工智能在给人类带来很多便利的同时,也带来很多风险。由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们希望法律能够应对这种风险并提供保障。

【嵌牛鼻子】:人工智能  伦理问题

人工智能是现代工业文明发展的必然产物,其发展进程始终与工业文明的发展相伴而行。与人工智能的飞速发展相对照的,是发端于农业社会的、以具有有限理性的人为规制对象的法律体系所天然具有的滞后性。

www.bifa7777.com 2

【嵌牛提问】:人工智能的持续发展进步是否会给社会带来很多伦理问题?我们应该怎样来应对?

当人工智能极大地强化了人类能力时,现有的法律制度就会呈现出其局限性。以美国的电子取证、诉讼管理、合同起草和审核为例,人工智能目前在法律职业中的应用,说明此类技术被全面推广以后,大量的法律职业将被人工智能取代,人工智能甚至可能导致法律思维和法律应用方式的根本性变革。

郑戈指出,现代法律体系的核心概念是建立在农业社会的基础之上,普通法源自亨利时代的英国,大陆法的基础罗马法也诞生在农业时代。农业时代的特点是:每个个体与其他人之间产生关系的频率、范围和方式都是有限的、可控的,人与人的交往中会产生什么样的过错,不同的过错要承担什么样的责任,都是比较清楚的。

【嵌牛正文】:

但人工智能对法律更根本的冲击在于人工智能会导致极化社会。人工智能使法律滞后于技术和经济的发展,使把握先机的人获得巨大的边际回报。并且,由于数据是人工智能时代最重要的资源,这将导致个人隐私和自由变得非常脆弱。同时,掌握了大量公民数据的企业可以利用这些信息对公民进行隐秘诱导,由此导致人们都“自愿服从”于某种看不见的力量。最后,一旦人工智能被应用于充满不确定性的金融市场,还可能带来各种灾难性后果。

www.bifa7777.com 3

**人工智能时代加速到来,算法决策兴起
**

面对这一系列困局,一种应对思路是为人工智能赋予法律人格。但是,无论机器人以何种方式承担责任,最终的责任承担者都是人,这使得它的法律人格显得毫无必要。

郑戈认为,发端于农业社会的现代法律体系尽管经过了工业时代的修补,但这种以行为主义和矫正主义为中心的法律观却难以应对大数据时代人工智能的挑战。由于法律思维与人工智能在演绎和归纳两种逻辑上的表面相似性,导致法律职业甚至是一个最容易被人工智能取代的行业。郑戈以2010年5月6日导致美国股市瞬间发生“闪电崩盘”,蒸发万亿美元的股灾和欧盟试图赋予电子人法律人格的立法困局两个例子说明,传统法律在应对人工智能的挑战时多么苍白无力。2017年10月25日机器人索菲亚被沙特授予公民身份更是将这一窘境凸显出来,当然,人工智能在法律领域中的应用也大大增强了法律职业的效率。例如美国的电子取证、诉讼管理、合同起草与审核等原本需要耗费大量人力物力的工作变得相当简单,不过70%的美国律师很可能在人工智能广泛应用之后面临失业。近期,BBC基于剑桥大学研究者Michael
osborne和Carl
Frey的数据体系分析了365个职业在未来的“被淘汰概率”。其中,律师、法官被取代概率仅为3.5%。

第三次AI(人工智能,以下简称AI)浪潮已经开启。在技术层面,有算法的进步。当1956年人工智能开始起步的时候,人们更多是在说人工智能;在第二次浪潮期间,机器学习成为主流;这一次则是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,AI应用在不断加深、不断成熟,甚至已经开始超越人类,引发人们关于失业的担忧。同时也让人们开始期待具有通用智能的终极算法。在商业层面,面对可预期的好处和利益,国内外主流的互联网公司如腾讯、谷歌等都开始向AI看齐,AI领域的创业和投资在如火如荼地进行着。全球已经有超过1000家AI公司,市场规模增长空间是非常大的,未来八年内将超过350亿美元。

而在自动驾驶汽车领域,人工智能和法律的冲突则更为明显。为此,德国和美国提出了两种截然相反的应对方案:德国侧重于自上而下的规则设计,美国则采取了一种“行业自治+政府把关”的公法模式。此外,第三种规制思路是对算法设计者提出伦理性约束,要求其始终将人的生命放在首位。

www.bifa7777.com 4

在此背景下,各种互联网服务中越来越多地看到人工智能的影子,人们日益生活在算法之下,算法决策开始介入甚至主导越来越多的人类社会事务。比如,人们在互联网上获取的内容,诸如新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户的,而不是有人在背后决策。再比如,在金融领域,算法可以决定是否给某个用户发放贷款,以及具体的贷款额度。此外,一家美国投资公司早在几年前就开始研发管理公司的AI系统,招聘、投资、重大决策等公司事务都由这个AI系统来管理并决策。也许在未来,一家公司的成功不再主要依赖于拥有像乔布斯那样伟大的CEO,而是一个足够智能足够强大的AI系统。更有甚者,英国、欧盟等都在大力推动人工智能技术在政务和民生方面的更深应用,政府服务不仅是数字化,而且是智能化。

  • 法律如何更加“智能”地应对人工智能?

在郑戈看来,人工智能对法律职业的挑战并不仅限于取代某些法律岗位,更重要的是对法律思维、法律概念带来冲击。传统法律是人的有限理性的产物,因而也是以有限理性的常人为标准设立的,对于迅速超越人类极限的人工智能就很可能失去调节能力。他认为在法律概念领域,首先带来的便是宪法层面的冲击,其会改变宪法所要规制的最基本的政治结构、社会结构。随后,他指出,人工智能导致了极化社会,使本来就不平等的社会更加不平等,法律在该领域滞后与技术的发展速度,法律约束的只是后来者,并稳固了先来者的垄断地位。同时,人工智能的发展,也逐渐模糊了私权利与公权力的界限,使政府本来应当监管的对象,变成政府的合作伙伴,乃至实际掌控者。掌握人工智能的企业,通过对大数据的分析,也可能在潜移默化中诱导消费者的消费行为、政府的决策行为、乃至立法行为等,使得我们逐步进入如扎克伯格所述“我们即将进入算法而不是法律统治人的时代”。他通过美国金融行业的相关案例谈及人工智能对法律规制模式的冲击,又通过电子取证、诉讼管理、合同起草和审核等环节论述了人工智能对法律职业造成的冲击。郑戈认为,目前法律应对人工智能,赋予其法律人格是一条走不通的路,机器人无论以何种方式承担责任,最终责任承担都会归结于人类本身;他对比了美德两国在无人驾驶汽车领域的立法模式,分析了两种立法模式的利弊。

人工智能伦理问题日益凸显

首先,法律人士应当学习人工智能知识,使人工智能的基础操作系统符合人类伦理和法律。其次,政府应当加大对人工智能的投入,吸收更多人工智能人才参与立法、行政和司法工作。第三,相比上述德国模式,美国模式更值得提倡的,即相应的技术标准、安全标准和个人数据保护标准应该是对行业自身发展出的标准与公共利益、个人权利保护原则的综合考量。最后,应当制定相关规则约束算法设计者的行为,倡导和强化算法伦理。

www.bifa7777.com 5

人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让AI真正有益于人类社会,我们也不能忽视AI背后的伦理问题。

最高法院司改办规划处处长何帆:

对于法律如何更加“智能”地应对人工智能,郑戈给出了具体建议:首先,应加强“顶层设计”,制定“人工智能社会的宪法”;其次,政府应当加大投入,吸收更多的人工智能人才参与相关立法、行政和司法工作;再次,采用美国的公法模式确立行业的相关技术标准,兼顾技术创新和公民权的保护;遵循公众参与、听证等行政程序,对行业自身发展出来的标准与公共利益、个人权利保护进行综合考量;最后,参考德国对自动驾驶汽车程序设计伦理规范的思路,制定相关规则,约束算法设计者的行为。

第一个是算法歧视。可能人们会说,算法是一种数学表达,是很客观的,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视呢?之前的一些研究表明,法官在饿着肚子的时候,倾向于对犯罪人比较严厉,判刑也比较重,所以人们常说,正义取决于法官有没有吃早餐。算法也正在带来类似的歧视问题。比如,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”。此外,2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。

人工智能短期内不可能淘汰法律人

www.bifa7777.com 6

为什么算法并不客观,可能暗藏歧视?算法决策在很多时候其实就是一种预测,用过去的数据预测未来的趋势。算法模型和数据输入决定着预测的结果。因此,这两个要素也就成为算法歧视的主要来源。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。比如,数据是社会现实的反映,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子;再比如,数据可能是不正确、不完整或者过时的,带来所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI系统依赖多数学习,自然不能兼容少数族裔的利益。此外,算法歧视可能是具有自我学习和适应能力的算法在交互过程中习得的,AI系统在与现实世界交互过程中,可能没法区别什么是歧视,什么不是歧视。

必须承认的是,尽管人工智能目前的确已开始取代一部分低端的法律职业,但是,囿于人工智能广泛运用的诸多前提要求,人工智能在短期内不可能淘汰法律人。

法律如何回应大数据技术革新的挑战,郑戈认为,大数据技术是当代最引人注目的科技革新,其兴起也引发了一系列的伦理和法律问题。法学界目前讨论得比较多的是大数据分析对隐私权构成的威胁。但是,大数据技术的广泛应用实际上正重塑着整个法律体系运作于其中的社会空间,改变着大数据掌控者(包括国家和商业机构)与公民个人之间的权力关系,并创生出许多无需借助法律的社会控制方式。大数据技术使个人变得越来越透明,而权力行使者却变得越来越隐秘。法律人的社会功能之一就是站在已有的伦理和法律共识的立场上,清醒地观察和反思这些变化所蕴藏的可能毁灭人类美善生活的因素,并提出保守而平衡的制度对策。毕竟,科技的进步是为了使人的生活变得更加美好,而不是为了让机器终有一天能统治人。郑戈指出,我们一方面要承认大数据技术发展的进步性和不可避免性,另一方面也要正视它对权力制衡、阳光政府、公正程序和权利保护等核心法律价值的挑战。创新需要法律的支持,而给创新套上缰绳,使其不至于走向威胁基本人权和公共福祉的道路,也需要法律的约束。我们需要探寻一条鼓励创新和保护个人权利之间的允正中道。

更进一步,算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似问题。归根到底,算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。

目前,部分法院已经开始以语音识别、图像识别、证据指引、知识图谱为媒介,对人工智能进行初步运用。但这一过程也面临各种制约和障碍,例如,部分法官对人工智能的深度运用仍存疑虑,认为人工智能并未减轻其工作负担;人工智能的深度应用要求打通公检法办案平台,但平台搭建需要强化统筹;人工智能的类案推送功能未来可能导致部分办案人员产生说理懈怠,或者过度依赖机器,等等。

www.bifa7777.com 7

第二个是隐私忧虑。很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。

法律人应当积极参与到技术研发中,为人工智能的深度应用提供场景、提炼规则,制作各种证据指引和知识图谱,推进机器深度学习。总之,投入多大人工,就会有多大智能。

郑戈教授的报告立意高远、内容充实、案例典型生动、理论性与实践性密切结合。他严谨的学术态度、精湛的学术功底、缜密的逻辑思维、幽默诙谐的语言、真实而丰富的人生阅历让听众在如沐春风中享受了一次丰盛的学术盛宴,他精辟独到的见解给在场的每位师生留下了深刻印象。在互动环节,郑戈教授对法科学生提出了学习建议:由于人工智能最容易取代基于计算理性的职业,他建议法科大学生应该多学点文史哲之类的“无用”知识,以培养审美趣味和人格;要对新知和未来保持开放的心态,文科生也需要学点儿应对未来风险所必备的科学知识;法科大学生也要关注社会和自然事实,以此来了解和把握法学中的规范性知识。讲座结束后,很多同学争相与郑戈教授交流探讨。

第三个是责任与安全。霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。但在具体层面,AI安全包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟

京东集团法务部高级总监丁道勤:

www.bifa7777.com 8

www.bifa7777.com,第四个是机器人权利,即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。此外,越来越多的教育类、护理类、服务类的机器人在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步研究。

人工智能的法律实践仍处于起步阶段

郑戈,现为上海交通大学凯原法学院教授,上海高校“东方学者”特聘教授。他15岁时进入四川大学法律系学习,1991年大学毕业,之后在四川省自贡市公安局工作两年。1993年赴北京大学法律学系攻读研究生,1996年获法学硕士学位,1998年获法学博士学位,并留校任教。在北大法学院就读时,就已是蜚声校内外的才子,与强世功、赵哓力一起被誉为“北大法学三剑客”。2000年7月开始游学北美,先后在密歇根大学、多伦多大学、杜克大学和哥伦比亚大学做访问学者、访问教授。2004年1月起任教于香港大学法律学院,2014年离开港大,就职于上海交通大学凯原法学院。郑戈的主要研究领域为中国宪法、比较宪法、政治思想史和法理学,著有《西方法律思想史》与《法律与现代人的命运》等,同时翻译了大量西方学术名著,如《法律的道德性》《公法的变迁》与《普通法》,都收入了商务印书馆“汉译世界学术名著丛书”。人工智能、大数据与法律之间的关系是郑戈最近感兴趣的领域。郑戈说,刚开始自己是从隐私权角度去思考大数据问题的,写作过程中,“发现还没那么简单,它不仅涉及隐私权,甚至整个现代法律体系的一些核心概念,都会受到大数据的冲击”。(文/大学生新闻中心汪淑媛
图/贾良国 审核/刘鑫)

构建算法治理的内外部约束机制

人工智能的应用领域是十分广阔的,图像识别和语音识别仅是其中很小的一个分支。

一是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI系统的规范和价值,存在道德过载和价值位阶的问题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI系统,需要方法论,有自上而下和自下而上两种路径。第三步是对已经嵌入AI系统的规范和价值进行评估,看其是否和人类社会的相一致。一方面是使用者评估,需要建立对AI的信任,比如当AI系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

人工智能的三个核心要素是场景、数据和算力,但人工智能不一定意味着大数据。以鹦鹉模式和乌鸦模式为例,相比于只会模仿的鹦鹉,能自主感知、推理、学习、执行的乌鸦式人工智能才是更值得推崇的。

但是需要解决两个困境。其一是伦理困境。比如,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题

目前,人工智能已经开始被运用于法律领域,但相较商业领域,人工智能的法律实践仍处于起步阶段。人工智能的法律影响主要体现在主体论即机器人的法律主体资格问题,以及应用论包括知识产权保护、侵权责任、隐私保护、劳动法和伦理问题等两大方面。

其二是价值对接的问题。现在的很多机器人都是单一目的的,扫地机器人就会一心一意地扫地,服务机器人就会一心一意给你去拿咖啡,诸如此类。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。就像Midas国王想要点石成金的技术,结果当他拥有这个法宝的时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的真正意图,那么机器人会不会给我们人类带来类似的情况呢?这个问题值得深思。所以有人提出来兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是考虑人类,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。

腾讯研究院法律研究中心副主任蔡雄山:

二是在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。另一方面,需要建立AI伦理审查制度,伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议。

人工智能可能带来五方面法律问题

三是对算法进行必要的监管,避免算法作恶。现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,未来可能需要对算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等采用的算法,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

人工智能带来了下一波产业浪潮,基础研究领域的进步使全球互联网企业都在积极进行战略转变。从产业界的视角出发,人工智能可能带来如下法律问题:

四是针对算法决策和歧视,以及造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。

其一,个人数据保护问题。在人工智能时代,数据具有巨大商业价值,因此如何对数据进行保护、是否要赋予数据所有权,就是值得思考的。

在今天这个人工智能快速发展,人类在诸如围棋、图像识别、语音识别等等领域开始落后于人工智能的时代,对人工智能进行伦理测试同样重要,包括道德代码、隐私、正义、有益性、安全、责任等等,都是十分重要的。现在的AI界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来这样跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范及需求相一致。

其二,算法歧视问题。例如,当运用大数据对个人征信进行评估时,由于系统设计的主观性和数据本身的不全面性,得出的结论可能不够客观。

其三,监管以及由此引发的责任分配问题。一个典型的例子就是自动驾驶汽车发生事故后的归责问题,尤其是在加入机器学习之后,这一困境将更加凸显。

其四,人工智能作品的知识产权归属问题。这个问题已在中国出现。

其五,机器人的法律人格问题。这既关涉法律,更关涉伦理。

面对人工智能带来的这一系列问题,中国和西方现在正站在同一起跑线上。如何在这一特殊的历史阶段作出我们独特的贡献,是当下有必要深入探讨的。

华宇元典公司副总经理黄琳娜:

法律知识工程师可能是新就业方向

人工智能处理民间借贷案件中的“签名伪造抗辩”可能遇到的语言识别障碍,说明法律AI不能复制围棋的成功。“阿法狗”成功的原因在于围棋边界封闭、规则明晰,这使得机器可以自造数据。但法律世界包罗万象、复杂混沌,常常没有明确的对错之分,且法律实践必须纳入人类知识,法律AI不可能摆脱人类经验积累数据。并且,在法律中存在着诸如“数额较大”与“数额巨大”、“抢劫”与“抢夺”等文本非常相似但法律含义有明确区别的概念,以及诸如“时效”等基于特定目的而由人类拟制的概念和制度,这给机器的无监督学习带来了巨大困难。

目前研发中探索出的方式是通过专业法律人积累带标签数据,并且将监督学习与强化学习相结合,使机器先通过较小规模的训练样本得到初步模型,再在法律人的不断反馈下扩张样本规模,通过数据循环最终得到较优的模型。在这个过程中,法律人进行的数据标注是非常重要的。

人工智能的发展不会导致法律人失业,但可能会使法律人的工作形态发生转化。未来,法律知识工程师可能成为一个新的就业方向。法律知识工程师的工作是制作法律知识图谱,将人类知识转化为机器可以理解的形态。与围棋不同,法律人工智能行业是一个强人工干预的知识驱动行业,因此必须探索一条独特的发展路径。

北京大学法学院副教授车浩:

人工智能带来三个现实法律问题

一是自动驾驶问题。自动驾驶汽车的出现将导致以人为中心所建立的各种法律规则和概念体系逐渐消亡。当自动驾驶汽车进入市场后,自动驾驶汽车和非自动驾驶汽车在一定时期内将并存于交通领域,这将给交通领域注意义务的设置和过失责任的认定带来挑战。并且,注意义务规则的提炼和自动驾驶汽车应当遵循的原则必须与当地的实际交通状况相适应,这就意味着自动驾驶领域的法律和技术必须本土化,而不能一味地移植借鉴。而等到自动驾驶全面普及、交通领域完全被人工智能支配的那一天,法律将不得不限制、禁止人的驾驶,以保证人工智能始终能作出正确判断。这时,统治交通领域的将不再是规则,而是算法。人类生活的基本领域将被机器所侵蚀。

二是人工智能的人格问题。这是基于立法与学术研究角度生发出的思考。通常而言,法律规制的对象是社会一般理性成年人;对于达不到这一理性标准的儿童、精神病人等群体,法律会另行设定规则,对其进行特殊保护。但是,当人工智能开始普及,当社会上出现能力高于一般理性成年人的“超人”时,传统的法律制度和规范将捉襟见肘。有必要考虑为这类人设定专门的法律规则。

三是人的退化问题。当人把脑力活动都交给机器,当人类生活的各个领域都被机器所取代,人类的智力必然会因为用进废退而发生退化。到了那时,法律或许也就可有可无。

北大英华科技有限公司总经理赵晓海:

人工智能推动法学教育转型

人工智能不仅会影响法律职业,同时还会推动法学教育的转型。比起传授知识,创新、实践能力和判断力的塑造才是未来法学院的主要培养方向。今后法学院应当建立人工智能研究院,以理智和积极的态度应对人工智能以及它带来的新挑战。