• 投稿邮箱:fzbl@fzblzz.com
  • 在线编辑QQ:1541328756
法制博览版权信息

主管单位:共青团山西省委

主办单位:共青团山西省委

编辑出版:《法制博览》编辑部

国际标准刊号:ISSN2095-4379

国内统一刊号:CN 14-1188/D

邮发代号:22-80

语   言:中文

周   期: 半月刊

出 版 地:山西省太原市

语  种: 中文

开  本: 16开

投稿邮箱 :fzbl@fzblzz.com

在线编辑QQ :1541328756

论文鉴赏 当前位置:首页 > 论文鉴赏 > 正文

人工智能的法律人格

发布时间:2020-07-26 阅读数:742

黄博 刘丽荣

摘要:随着人工智能时代的到来,智能机器人也逐渐走入我们的生活。其广泛运用于公、检、法系统的日常工作中,极大地提高国家公职人员的司法作风及办案效率。社会各界对人工智能是否具备法律人格的讨论日益热烈。本文基于对人工智能的法律人格的合理性及其本身存在的弊端问题展开分析。若将人工智能赋予法律人格,会导致责任划分困难、阻碍人工智能的发展,从而抑制研发者的积极性,也会与当前法律理念相矛盾的弊端出现。各界人士对人工智能的法律人格问题进行探讨,会促进社会主义法制建设,但仓促的赋予其法律人格,弊大于利。

关键词:人工智能;法律人格;弊端

中图分类号:D923.42文献标识码:A文章编号:2095-4379-(2018)32-0078-03

作者簡介:黄博(1998-),女,汉族,吉林长春人,长春财经学院,本科生,研究方向:法律;刘丽荣(1980-),女,汉族,吉林长春人,硕士研究生,长春财经学院,讲师,研究方向:宪法行政法学。

1956年的特茅斯会议标志着"人工智能"学术概念的诞生,从此开辟了利用智能机器代替人类从事脑力劳动的新纪元。此后,显著减轻脑力劳动和实现生产过程智能化成为可能。人工智能不但在社会、经济、文化等诸多方面产生不可或缺的作用,而且在法律层面也产生重要的影响。一、人工智能的概述

人工智能的概念从被提出至今,没有一个精准的定义。但学者普遍认为人工智能技术是研究、开发用于模拟、延伸和发展人类智能的理论方法、技术及应用系统的一门新技术学科。①美国麻省理工学院的维斯顿教授对人工智能的定义是:人工智能就是研究如何使计算机去做过去只有人才能做的智能的工作。若计算机去做以前人类去做的事,那么,人工智能人格问题也就此产生了。二、人工智能的法律人格

人工智能是否应被赋予法律人格,即未来人工智能是否可成为法律上的主体,我持有否定的态度。我认为这不但妨碍人工智能领域的发展,而且受损害者则是机器人的拥有者,进而使人工智能科研家们丧失对其制造商品的积极性。但凡事都具有两面性,在人工智能是否应被赋予”法律人格”的问题上,也同样具有它对人类的有益之处。

(一)将人工智能赋予“法律人格”的合理性

1.方便于人类,促进法律职业的改革

人工智能在法律上的作用也不容忽视,近年“智能律师”的出现给法律咨询者提供极大的方便,咨询者可以用最短的时间获取更多的有用信息,而且与一个小时要几百元的人工律师相比,简直是即经济又方便。若是给人工智能赋予法律人格,即机器人可具有等同律师的法律责任和义务,与律师“平起平坐”,例如法学界中“法小淘”的产生,它是中国第一个应用于法律行业的机器人,咨询者可通过简单的手机语言对话方式将实际案例描绘出来,法小淘能可快速的得出法律相关损害事实,赔偿依据及事实,并且可在30万律师中分析出3位于此案例相关的开庭律师。这对人类未来的法律发展无疑起到促进的作用,人们可以廉价且快速的使用人工智能通行法律咨询。

随着人工智能时代的到来,智能机器人已逐渐被引入到法院、检察院,参与到司法人员的工作中,可谓将法律相关工作引入一个改革时代。比如检察院的检务智能语言系统,该系统具备较强的语言识别功能,可以将不同的声音甚至方言信息转化为较为精准的电子文本,而且随着系统的不断升级,文字转换的准确率也不断地提升。针对智能语言系统开发的智能询问系统、会议系统,都经过智能语言试点逐批引入检察机关,此语言系统的发明,不但在很大程度上减轻检察人员的书写、记录的工作量,在案件繁琐量大时,也可以提高工作人员的工作效率。与此系统可以媲美的还有近年研发的案管机器人,它是现今检察院在整个司法办案活动中的一个非常重要的平台,其中有智能绩效考核、智能大数据应用等多个子系统多个应用平台。他不但能完成上述对海量的数据进行总结,还可以帮助案件处理人员提供准确的案件有关资料、案件相关人员,并对这些数据进行大数据采集,可以说便利了检察人员整个办案流程。案管智能系统除了对案件进行分析处理,还可对检察院各部门,甚至各检察官的工作进行监管,通过对各检察人员,部门录入相应的工作要求,例如办案数量、工作作风、司法技能等各工作指标,案管机器人会将工作人员、各部门日常工作情况记录下来,最后两者进行比较,通过生成业务报表的形式对每一位检察人员、检察部门生成各个的综合考核结果,从而形成了前所未有的良好监督管理机制,从很大程度上提高检察官的司法作风和工作质量。可见,智能系统被引入检察院,参与进检察工作的作用不容忽视。随着信息科技的不断发展,法律行业也随之进入大数据时代,那么将人工智能引入法院将成为大多数人关注的问题,在现实生活中法院代表着国家的权威,是为公民赢得公平的圣地,但仍存在一些“同案不同罪”,也会有少数贪污受贿的法官为了一举私利而作出显失公平的判决,这严重影响当事人的利益和国家的信誉。因此,将人工智能系统引入法院,将会促进法院对案件的公平审理。针对案件的处理,人工智能可在裁判文书网生成的大数据中找到相似案件的裁判情况,并分析出此案件应适用的规则、原则。这在很大程度上为法官分析案件提供了便利条件,也促进案件审理的公平正义。倘若法官审判案件的结果与数据分析得出结论相差巨大,系统会自动提示此法官是否对本次判决不做改动,若法官选择“确定不做改动”的情况时,系统会自动将该案件及审判结果移送给法官联合会议,并要求每位法官提出自己的看法,这避免“同案不同判”的情况发生。

2.方便通过法律手段加以规范和管制

若将人工智能赋予“法律人格”,不但在很大程度上促进法律职业的改革,而且会更加方便法律对人工智能的规划与管制。规范律师行为可适用《律师法》等行业道德规范等一切法律都将适用于人工机器人。这样,无论是像“法小淘”,“阿尔法狗”这样的人工机器人,还是提供语言咨询的手机“助理”,都将会被人类的法律规范。若人工智能违法,则会按照人类的法律对其进行管制。这样,则不用再担心人工智能的“肆无忌惮”从而威胁人类生活。赋予人工智能以法律人格给人类带来的利益是值得肯定的,但它所带来的弊端也不容忽视。(二)人工智能赋予“法律人格”的弊端

1942年伊萨克.阿莫夫在短篇小说《转圆圈》中提出机器人应遵守的三条法则“第一:一个机器人不得伤害一个人类也不能因不作为而允许一个人类被伤害;第二:一个机器人必须遵守人类施加给他的规则,除非一些规则与第一条规则相冲突;第三:一个机器人必须保护自己的存在,只要这种自我保护不与第一或第二条相冲突”。但发现,机器人无法同时遵守二、三两条规则,从而不断重复他先前的行为,形成“转圆圈”的状况。霍布斯说过:“自我保护是第一自然法则。”任何一个人类都不会发生这些怪异行为。因为人类是变通的,无论何时遇到危险其第一生理现象应是自我保护,只有这种强行的规则才会使机器人陷入到这个“转圆圈”当中。从此可见,机器人完全像人类一样遵守规则,没有独立自主辨别事物的能力显然是不能做到的。

1.造成损害责任划分困难

2016年,欧洲会议向欧盟委员会提出报告,为规范机器人的生产及市场的流通要制定相應的民事规范。也就是说,赋予机器一定的“法律人格”,即“电子人格”,这是对机器人独立与第三人交往的案例中所要遵守的法律,但报告中并没有提出明确的处罚方法,若是机器人违法,是像人类法律中规定的那样罚款?缴费?若机器人触犯到人类的生命安全,是予机器人一定的刑罚?还是判处死刑?还是由它的生产者、制造商或是它的使用者来承担应有的法律责任?我认为这都不是最合适、有效的方法。

首先机器本身没有生命,从何谈及“生命权”?而它所谓的“生命权“也是归他的拥有者所有的;作为一个机器人,不会有独立的个人财产,因此对它进行罚款也是不可能的。

其次,如果让人工智能的生产者、制造商对其的行为而担责,这虽然在一定程度上的确会促进生产商对机器人产品的质量严格把关,但如果真的将此规则写入法律,就等于鞭炮制造商要对因顾客不当使用鞭炮而伤害他人的行为承担责任;枪支的生产商可因谋杀而造成的损害被起诉。现是人工智能发展的初步阶段,因技术和经济的问题对人工机器人潜在危险性存在尚不明确的情况,对此有待探明。因此,其生产者、制造商一味对其产品统揽其责,可能造成机器人的高价,从而导致购买者的数量随之下降。

再次,换一种问责角度,让人工智能的消费者承担损害责任,消费者购买机器人后独立承担其风险,其法律问责与生产者、销售商都无关,是一种消费者风险自负方式。这种方式的优点在于促进人工智能的设计者对机器人的定价下调,也是大多数顾客可以承担得起对机器人的购买,促进商品经济的发展。但不可忽视的是会有一些人工智能的生产者和开发商因不需承担任何法律责任,而忽略产品的质量,从而给消费者带来不可估量的损失。

最后,如果责任由生产者和消费者双方分担,那么,又将涉及到归责比例问题。对于归责原则,依照我国目前法律体系来看,有过错责任制和严格责任制两种,而两种责任方式都要求生产商在设计人工智能的过程中尽可能各个环节都谨慎、考虑周全,制造者能够保障机器的质量、功能的健全,人工智能的所有者在转让他物权时有提醒义务,保障其能够正常使用的义务。但人工智能与我们日常使用的雨伞、背包不同,机器人更像我们使用的电子产品,例如手机、电脑等,简单的从外观很难辨别其好坏,也许在使用以后的某个时间节点出现问题,甚至有些问题究竟是因为消费者使用不当所造成的还是因为生产者在生产过程中的过错而造成的,难以分辨。综上,从责任界定角度来看,若想给予人工智能以法律人格目前难以实现。

2.阻碍人工智能的发展,抑制研发者的积极性

在当今科技发展如此迅速的社会,毫无疑问,人工智能给人类带来的好处远大于弊端。但倘若仓促的赋予人工智能以法律人格,不但不能有效的对人工智能领域起到很好的规范作用,还会抑制研发者对人工智能创新研发的积极性。因为人工智能法律人格的赋予,会将机器人的研发与市场销售都规定在义务范围内,这种规定的局限性在于没有把因机器人自身不可避免的缺陷和消费者使用不当的原因考虑在内。这会导致就算科技研发者有了新的创新思维,但因为智能主体拥有主体资格,惧怕于新产品的出现会导致新风险的产生,从而被追究法律责任,进而降低新产品的研发,这在一定程度上也阻碍了智能技术的发展。因此,法学界对此问题的充分讨论是有必要的,但盲目对人工智能赋予则是不正当行为。

3.与当前的法律理念相矛盾

弱人工智能是指例如在我们日常生活中随处可见的搜索引擎、自动驾驶、室内智能体温计等,多数是在某一领域有实用价值的人工智能;强人工智能是指具有类似人一样的自我意识和较高的创新思维,可完全支配自己的行为和思想,可达到"人类认知"水平,并在处理问题的速度上远高于人类;超强人工智能是指人工智能达到可以像人一样去思考问题,去社交,甚至可以利用以储备的知识完成自主的学习、去发掘新技术、新领域。而我国目前处于弱人工智能阶段,可以说是弱人工智能的初步发展阶段。从我国当前的法律领域来看,“独立认知能力”和“表意能力”是拥有法律主体资格的前提。机器人经不断的自主学习和深度学习,在一定程度上可超过人类的认知能力。例如,近几年研发的“法小淘”、“阿尔法围棋”等智能机器人。但单单用认知能力去衡量法律人格问题是不全面的,我国目前还处于弱人工智能阶段,现阶段的机器人还未达到完全拥有人类的思维,而是缺乏人类的情感和感性思想。因此,仓促的赋予人工智能以法律人格显然与我国立法原则相违背,存在一定的矛盾。三、结语

目前,人工智能还处于初步发展阶段,虽然现在其人格问题还没有在法律层面对人类构成太大的威胁,但未雨绸缪,人工智能是未来社会发展的必然结果,“强人工智能”在不久的将来定会走进我们的生活。因此,人工智能是否具有法律人格是我们应该面对的问题,我们应如何控制并合理分配对机器人潜在危险的预防;怎样制定法律规则既不与法律根本原则相违背又能达到规范机器人行为的目的,是立法者在目前需要解决的问题。

我认为,要从根本上解决对人工智能法律问责的问题,盲目的赋予其法律主体资格显然局限,我们应从以下三个方面对人工机器人进行法律上的防控:第一,在机器人发生危险时,应明确法律问责的主体,调整人工智能的生产者、销售商以及其拥有者之间责任划分的矛盾;第二,在有关人工智能的法律规则的制定中,要充分的保护人工智能科技研发者的利益,使其对新技术的开发具有积极性,进而促进我国人工智能技术早日向“强人工智能”发展。第三,立法者在法律制定的过程中,要注意其立法规则不能与传统的法律原则相违背,更不能与《宪法》发生抵触,违宪即无效。

法学界对人工智能问责的相关问题进行充分的讨论是一个好的趋势,但盲目的对其立法、设规显然局限,也不能解决实时性问题。因此,对人工智能法律人格应如何设定的问题,还要在我们未来的法律学习中继续摸索。[注释]

①赵梓含.人工智能与法律的未来[J].法治与社会,2018.2(上).[参考文献]

[1]杨焘.人工智能在司法领域运行的现状及完善对策研究[J].科技与法律,2018.

[2]昕航,武文芳.法律人工智能对检察类职业的挑战与应对[J].政治与法律,2017.

[3]郑戈.人工智能与法律的未来[J].时事观察,2017.

[4]詹可.人工智能法律问题研究[J].信息安全研究,2018.


编辑整理:法制博览杂志社编辑部 官方网站:www.fzblzz.com