杨立新:民事责任在人工智能发展风险管控中的作用
2019年3月15日      ( 正文字号: )
[ 导语 ]
       人工智能的迅猛发展既给人们带来了生活、生产便利,也给人们带来现实风险和可能风险,民法如何适用民事责任管控人工智能发展风险引发学者关注。天津大学法学院杨立新教授在《民事责任在人工智能发展风险管控中的作用》一文中,对于人工智能技术带来的现实风险与可能风险、民法在风险管控中的作用进行分析,进而提出通过民事责任制度塑造管控人工智能发展的管道。
一、人工智能技术发展中的风险

人工智能技术虽肇始于人类智慧的发明创造,但是其风险也来源于人类的管控不足与无法管控。一方面,人类受到现阶段科技水平的制约,容易管控不足;另一方面,随着人工智能远超人类的智慧水平,人类将无法管控。目前,人工智能技术的影响主要在三个方面:一是改变就业结构;二是冲击法律与社会伦理;三是侵犯个人隐私。鉴于此,人工智能技术发展存在现实风险与可能风险。对于这些存在的风险,应当纳入民法规范的轨道,接受民事责任的规制。

二、民法在风险管控中的基本作用

(一)事前预防人工智能发展风险

一方面,对于不影响人类生存根本利益的人工智能,民法应当通过限制无序发展进行一般性预防。首先,由于人工智能没有道德观念,若其依赖的算法和程序出现偏差、错误,将会对人类的自主性、公正性甚至生存造成威胁。其次,人工智能的广泛应用有可能加剧人文精神的衰落,导致“数学人类”的伦理风险。

另一方面,对于影响人类生存根本利益的人工智能,民法必须通过禁止技术滥用进行特殊性预防。否则,当人工智能成为社会主导力量时,该技术可能导致社会的变革、文明的颠覆和社会格局的重整,甚至会成为人类的灾难,影响人类的生存和发展。

(二)事后救济人工智能风险损害

第一,民法必须管控人工智能对个人信息和隐私的侵权行为。企业通过人工智能技术广泛搜集数据和信息,汇聚成巨大的数据库,这不仅酝酿着信息泄露的现实风险,而且数据收集过程中的公开性、透明性和合法性也受到威胁。如何从技术层面和法律层面规范智能机器人搜集个人信息的合法性问题,是民法学面临的又一个新挑战。

第二,民法应当制裁人工智能发展中出现的新型侵权行为。除了引入强制保险制度来解决人工智能损害的归责问题,更重要的是民法对新型侵权行为确定责任规则。

此外,民法管控人工智能发展的风险,不需要改变民法的基本理念和规则,只要全面分析、认真对待,适当调整现行民法的基本制度,就可以管控人工智能发展的风险。

三、民事责任在管控人工智能发展风险中的职能作用

(一)民事责任制度管控人工智能发展风险的法理基础

民法对人工智能风险进行管控的着眼点,是人工智能产品所带来的损害以及未来人工智能产品所带来的危害。因而,民事责任制度是民法对人工智能成果进行管控的主要方法。其基本的法理基础在于人工智能成果的法律地位是物。

关于人工智能成果的法律地位,目前学界的三种主流意见分别是人、物及准人。其分歧集中表现为对待传统民法人与物二分格局的态度。这里认为,人工智能机器人具有的只能是类似于人格的“物格”,其仍属于物的范畴。传统民法的人与物二分格局仍然具有一定的现实意义,能够将人工智能的发展及其风险纳入自己的管控范围。

(二)民事责任对人工智能现实风险的管控

1.划清人工智能应用中人的责任与物的责任的界限

人的责任就是行为人对自己的行为造成的后果所负的责任。物的责任则是在人管领下的物,因管领人的疏忽而造成他人损害时,管领人应当承担的责任。无论是人的责任还是物的责任,最终都是人来承担责任。

2.确定人工智能发展中的民事责任主体

在人工智能发展的民事法律关系中,主要的民事主体是设计者、生产者、销售者和使用者。在这些主体之间发生的民事法律关系,既有侵权责任关系,也有违约责任关系。

3.认定人工智能技术发展中民事责任的基本规则

第一,确定人工智能产品所致损害是人的责任,还是物的责任。因人工智能产品存在缺陷而造成损害的,是物的责任;人工智能产品符合质量要求,因使用人工智能产品的人的过错造成损害的,是人的责任。在设计者与生产者之间的委托研发合同,违约行为是债法领域中的人的责任;在制造人工智能产品的生产合同,交付的人工智能产品存在缺陷,则是加害给付的违约行为,因缺陷或者瑕疵的人工智能产品致害,则为物的责任。

第二,根据人的责任还是物的责任确定责任主体。人工智能产品形成的人的责任,其责任人是有过错的人工智能产品的使用者。如自动驾驶机动车不存在缺陷或者瑕疵,是购买、使用自动驾驶机动车的人因其错误使用而致损害发生,就是人的责任。反之,如果自动驾驶机动车存在缺陷,并且因该缺陷而造成交通肇事发生责任,则为物的责任。同样,在委托进行人工智能技术研发的合同关系中,如果研究者提供的人工智能技术软件存在缺陷,违反了研发合同的要求,则构成人的责任,违约人应当承担违约责任。

第三,准确确定责任主体承担的民事责任。在人工智能产品造成损害,确定了责任的性质属于人的责任还是物的责任之后,按照承担民事责任的基本规则,就要将责任归咎于应当承担责任的主体,使其受到制裁。依照法律的规定一一对号入座,明确民事责任时,不仅制裁了违法者,也警示了同行从业者和所有人。

(三)民事责任对人工智能发展可能风险的管控

不同于民事责任对现实风险防控中的“对号入座”模式,民事责任是用一般性规范防控可能风险,也即通过《民法总则》所规定民事责任的一般条款规范人工智能技术发展的路径和方向。

第一,将人工智能发展纳入民法和民事责任塑造的正确管道。民事责任居于民法“权利——义务——责任”三段逻辑结构的终点,保障了人的行为自由,加强了对行为人的责任管控。发展人工智能,造福于人类,自然属于自由行使权利的范畴,但是必须遵守其应当遵守的不得危害人类的义务,否则民事责任将强制其纠正错误。

第二,民事责任必须保持对人工智能发展的可能风险,施加强大的遏制力。民事责任约束人工智能研发人员只能将人工智能发展应用于造福人类的用途,而不能用于相反的目的,触犯者必将承受严重后果。

第三,民事责任绝不是仅仅针对民事违法者、违约者单个的人,这只是民事责任的特殊预防作用,其还具有警示社会的一般预防作用。

 

 

(实习编辑:张皓月,未经授权不得转载)

 

 

文献链接:《民事责任在人工智能发展风险管控中的作用》

[ 参考文献 ]

本文选编自杨立新:《民事责任在人工智能发展风险管控中的作用》,载《法学杂志》2019年第2期。
【作者简介】杨立新,天津大学卓越教授,中国人民大学民商事法律科学研究中心研究员,中国民商法律网授权学者。

[ 学术立场 ]
1
50%
1
50%
发表评论
推荐阅读
王利明:论受害人自甘冒险
应将自甘冒险规则适用比较过失规则,并对组织者的责任进行区分以确定是否应该承担责任。
李永军:对《民法总则》第16条关于胎儿利益保护的质疑
《民法总则》第16条没有规定胎儿的法定代理人,有关胎儿利益的规定不完善,在法律适用中存在问题。
王文军:论继续性合同的解除
继续性合同的解除具有特殊性,无论是以立法论视角还是从解释论层面关注继续性合同的特殊性,都具有重大意义。
热门排行
学术公告
问答集锦
相关文章
本期评价
0个赞
0个踩
敬请关注中国法学会民法典编纂项目领导小组组织撰写的《中华人民共和国民法典•民法总则专家建议稿(征求意见稿)》

编辑:林文静

向编辑提问:

分享

扫二维码
用手机看民商
用微信扫描
还可以分享至
好友和朋友圈

中国民法学研究会
教育部人文社会科学重点研究基地
中国人民大学民商事法律科学研究中心

本网站由王利明教授创办并提供全部运作资金 Copyright◎2000-2015 All Rights Reserved 京ICP备05066828号-27 
E-mail: ccclarticles@126.com