当前位置:民商法律网 > 学术前沿 >正文

民事法学|2024年7月数字法学月鉴

发布日期:2024/8/28 正文字号:

文章标签:#人工智能  #数据  #平台责任

导语

      为使读者更好地获取当下数字法学研究动态,中国民商法律网按月选取相关研究成果进行分类整理汇总。本期围绕人工智能立法、大模型训练、数据确权、企业数据合同法和侵权法保护、死者个人信息保护、平台治理元规制、平台算法与责任等主题,选取文章若干进行归纳。本文为不完全的归纳总结,有未尽周延之处,敬请读者谅解。

内容

一、人工智能

  (一)人工智能立法

  丁晓东教授在《全球比较下的我国人工智能立法》一文中从比较法角度指出,目前美国并未在联邦层面有人工智能法案且在可预见的将来不太可能有相关的综合性立法。美国在人工智能领域注重对政府的规制,私人主体以自我规制为主,并继续采取消费者保护或民权保护的进路。虽然美国人工智能立法存在霸权主义与排外主义的问题,但其场景化等特征与我国契合。而欧盟在人工智能立法方面存在价值优越主义和过度规制的陷阱,欧盟《人工智能法》存在僵化分类的问题,其过于注重形式上的统一性,例如将人工智能分级为禁止性、高风险、有限风险、最小风险,并不具有一定的灵活性,故而为应对生成式人工智能在随后的修订过程中提出“通用人工智能模型”,但其对弱势群体保护的立场也具有一定的合理性。对于人工智能系统不应适用产品责任:一是人工智能系统不能保证不会出错;二是提供者/制造者并非“最小成本避免者”/预防公共安全的最佳主体,因为风险如何将取决于嵌入的产品特点。法律可以对人工智能提供者施加合同责任、侵权过错责任、伦理责任,并对终端产品施加严格产品责任。文章认为目前我国在立法进程中采取审慎立场,并对人工智能进行场景化规制,可以较好应对现实问题,虽然统一立法具有发挥法的表达功能的作用,但人工智能立法不能操之过急,应当通过小切口立法对特定风险进行规制,并通过积累司法经验为人工智能提供发展空间。在未来时机成熟时,我国人工智能立法:在立法价值方面,反对美国霸权主义和欧盟优越主义的同时,应认同美国的发展主义与欧盟的弱势群体保护立场;在公法规制方面,应当区分国家安全、重大公共安全、一般公共安全以及非公共安全问题。对于一般安全,立法应当以实际风险为指引,适度照顾公众的感知风险,避免零风险的风险监管;在私法责任方面,应当以现行侵权法与产品责任法为基础,在进行司法个案规则创设后,可以对某些达成共识的裁判创设新制度。

  丁晓东教授在《人工智能风险的法律规制——以欧盟〈人工智能法〉为例》一文中详细梳理了欧盟《人工智能法》的风险进路、风险分类、风险分级与规制问题、特殊风险问题。首先,人工智能分级为禁止性、高风险、有限风险、最小风险并对其有不同的要求。其次,欧盟《人工智能法》因将风险分类为产品风险与基本权利风险受到了许多批评,也通过在最终版本中对部署者施加“基本权利影响评估”义务等方式来予以回应。需要指出的是,产品风险具有的“计算性”“概率性”“离散性”“单一维度性”等特征确实与侵害基本权利的风险的“整体性”等特点不同。“如果说产品风险类似于一种市场环境下的功利性计算,则基本权利的风险更接近于特定政治与文化背景下的价值判断。”虽然该种分类存在不足,但具有一定的可操作性和实质主义精神。而后对于风险分级规制的难题,文章认为欧盟人工智能风险分级没有回应以下问题:规制风险应当以实际风险还是感知风险为基础,仅因其是新兴科技就对其进行额外关注吗?文章指出,人工智能风险判断应当以实际风险为基础,对于感知风险应当通过风险沟通等方式来消除。同时,欧盟《人工智能法》的风险分级存在很大的弹性解释空间,使其不具有确定性,且分类存在科学性问题。后续为应对生成式人工智能在随后的修订过程中提出“通用人工智能模型”也体现了这种不确定性,然后文章指出,不应当要求通用人工智能和大模型提供者对其带来的非公共性侵权风险承担一般性的风险减轻义务。基于上述分析与梳理,文章提出了更合理的人工智能风险规制原理与制度:一是应继续坚持场景化的风险规制,从而可以对风险进行准确判断、合理法律规制并设置合理的监管机构与监管体系。二是将人工智能的应用者或其构成的产品作为风险规制的对象,并区分市场主体与公权力机构应用人工智能的情况,制定不同规制框架,对于市场化应用应当注重侵权法对其进行事后司法规制。

  (二)大模型训练

  张吉豫副教授和汪赛飞博士研究生在《大模型数据训练中的著作权合理使用研究》一文中指出,围绕人工智能相关的著作权纠纷主要涉及输入端大模型训练是否侵犯著作权以及输出端人工智能的生成物如若与先前作品实质性相似是否侵权。文章认为输入和输出端是相互关联但可分别讨论的过程,文章集中讨论了大模型训练与著作权侵权的关系,特别是其是否构成合理使用。相较于以往机器学习,大模型的“生成性”和一定程度的“通用性”使得合理使用更为复杂,大模型训练需要的超大规模的数据训练也是不可忽视的技术特征。文章继而讨论了合理使用制度所具有的社会回应功能,即“积极能动地回应社会,法律的实施机关需要顺应社会变革潮流而富有弹性地解释和适用法律”。我国的著作权法合理使用条款规定的“法律、行政法规规定的其他情形”为未来立法提供制度接口,文章认为对合理使用应当根据利益适度原则进行经济分析,不可对“三步检验法”进行过严解释,还应考量:一是社会价值;二是作品使用是否有障碍,特别是市场失灵;三是是否“不影响该作品的正常使用”;四是是否不合理地损害著作权人的合法权益,重点考量对市场的影响。对于大模型训练,大模型发展为人类创作提供新的模式和空间并可以推动文化艺术领域外的功能创新和社会发展,与此同时,训练数据数量、质量以及丰富性对大模型发展具有很大影响。在大模型训练中使用大量作品属于附随性复制或中间复制,具体表达并不会直接复制到模型中,同时其对作品的使用构成了转换性使用。大模型训练中作品使用许可还存在市场失灵:一是合理定价困难,交易成本过高;二是许可费堆积;三是许可意愿的有限性和选择性问题;四是人工智能大模型发展的公共利益考量。文章后续指出大模型并不会对著作权人的合法权益造成不合理损害。最后文章认为我国对于机器学习合理使用规则构建不应局限于科研活动并设置“选择退出”机制,同时应当对人工智能系统采取预防侵权措施,包括必要提示、明晰责任边界等,并鼓励著作权人与人工智能企业合作来实现共赢。

二、数据规制

  (一)数据确权

  申卫星教授在《论数据来源者权》一文中指出,对于数据来源者的界定学界大致存在三种观点,第一种观点认为数据来源者为信息来源者;第二种观点认为数据来源者分为信息来源者和数据初始生成者,均享有一定的数据权利;第三种观点认为数据来源者是初始的数据生产者。文章认为,数据来源者应认定为数据的初始生成者,并要区别于信息来源者。数据产权关注数据的控制和使用而非对信息内容的独占,其并不能通过(个人)信息权益解决,因此数据来源者应当理解为在数据生成过程中作出劳动贡献和经济投入,例如浏览网页和购买手机等。对于数据来源者赋权的正当性,一是数据“复用”理论,将数据产权完全配置给企业不利于数据复用,将数据产权配置则可以有效化解数据垄断,提高社会整体福利;二是收益孳息理论,该理论将数据视为用户所做经济投入后所产生的孳息,即一种收益回报;三是数字劳动理论,在数字时代下应当肯定用户的数字劳动,免费的网络服务不能构成用户数据的合理对价,参考“自物权-他物权”等权利分割模式,数据处理者通过劳动投入可以取得用户数据的用益权,如若将数据所有权配置给企业将违背洛克财产理论的“充足留存”和“禁止浪费”要件。数据来源者权具体包括:一是访问权,用户对自身数据享有访问权,但双方应商定技术和组织措施以保障商业秘密,用户主张该权利也可以授权第三方访问,数据持有者可以对第三方访问收取合理费用并约定限制其使用目的,对于衍生数据,用户可以出于预测性维护等合理目的并支付合理费用。二是数据使用权,用户使用数据受到一定的限制,数据持有者也要获得用户授权才可以使用。三是数据收益权,企业在尊重用户权利前提下,通过“获取授权+支付对价”的模式,获得稳定充分独立的数据集合专有权。实践中,我国也开始探索用户数据红利的分享机制。

  季卫东教授和翁壮壮博士研究生在《个人数据财产权的证立及诠释》一文中指出,个人数据不等于狭义的个人信息数据,其亦包括个人通过购买等合法途径获取的数据。文章认为“将个人信息的财产性权益纳入既有框架,无需单独创设个人数据财产权”的解释进路存在学术争议、概念范围不一致、制度分工紊乱等问题,因此应根据数字劳动构建个人数据财产权。文章在此处对“个人数据独立经济价值稀薄”“降低数据流通效率”等质疑予以回应。通过制度功能对赋权予以证成,文章指出,制度功能整理并非仅因个人数据财产权具有经济价值等就应获得权利方面的保护,该证成旨在考察其是否能均衡多元法律价值:一是对抗功能,该功能可以避免企业对数据进行垄断,缓解个人与平台等数据处理者之间的实质不平等,并可以提升个人数据采集和处理过程中的公平性。二是互惠功能,借助数据信托等数据交易使得个人获得公平对价并非“用隐私换便利”的“伪互惠模式”,并可以促进数字经济的正向循环并可激励数据处理者采取负责任的数据处理措施。三是协商功能,该功能赋予个人数据交易的经济自主权,并可以培育数据经济秩序的制度信任,提供了通过协商方式塑造经济秩序的契机。文章对个人数据财产权分别在静态和动态层面予以诠释,在静态结构方面,权利主体仅限于有能力授权其他主体使用个人数据的自然人,权利客体仅限于依法可转让的显名个人数据,权利内容是通过法律授权实现财产权,权利内容通过法律授权实现财产权,具体权能包括:持有、使用、收益和处分。在动态运作方面,通过技术、合同、中介多层面提高数据汇聚效率,并通过构建透明交易市场开发估值工具等合理评估数据价格,以管理组织等方式建构实现机制。文章最后在不同个人数据、个人数据与企业数据、个人数据与公共数据三个维度梳理了个人数据财产权的制度边界。

  (二)合同与侵权法保护

  丁晓东教授在《企业数据的合同法与侵权法保护》一文中指出,对企业数据采取合同法与侵权法的保护进路可以充分信任和调动市场在数据资源配置中的作用,从而更灵活地符合数据的非标准化特征与权利边界的个案性。文章指出,合同法对于知识产权具有灵活补充的作用,当数据合同的形式符合合同要件且其影响主要限于合同双方时,数据合同具有明显的正面收益。其次,数据来源者权利在公平性和效率方面存在问题:一是对没有付出或付出较少的被观察者赋予权利不具有正当性,二是赋权也难以提高数据流转效率。并且数据的场景化特征使得数据合同不以财产权为前提,而应当采取供需双方合作服务或中介撮合型交易的模式。在侵权法保护方面,文章认为应当以知识产权为基准,在此基础上进行事后保护和个案保护,并且根据威慑与激励理论,应当以影响收集与共享数据为损害标准而不是企业因涉嫌侵权方获取数据而丧失的收益。对于如何区分侵权和不正当竞争,文章提出可以以外部性作为区分标准,同时反不正当竞争法应当以知识产权类权益和合同类权益为基础,在此基础上进行实验性保护,并将消费者权益作为最终判断标准。在互联网背景下,应当允许企业进行合同自治,并利用侵权法对某些企业数据进行保护,保护各方合理预期,也不影响数据的网络效应和规模效应。法律应当结合互联网的特征对各类用户协议和其机器人协议进行判断,在此前提下,应当将点击协议视为合同,而浏览协议和机器人协议不应当被视为合同。对于网络爬虫行为判断应当参考数据性质、数量、方式和后续的数据利用、对网站安全的影响等因素,不应当一概认为是侵权、不正当竞争甚至构成犯罪。最后文章指出,应当以多维视角看待数据领域问题并加强相应的法理学研究。

  (三)死者个人信息的私法保护

  彭诚信教授和李佳桐助理研究员在《我国死者个人信息权利保护的私法构造》一文中从个人信息权的客体属性分析与主体利益冲突梳理出发,提出死者个人信息权保护的私法架构。在个人信息权的客体属性方面,要区分死者个人信息与传统人格权客体,即要明确死者个人信息权客体的“可识别”应为算法识别且该个人信息必要具备继续存在的意义。再者,与纯粹的虚拟财产相比,死者个人数据具有强烈的人身属性,但也会出现死者个人数据与虚拟财产杂糅的情况。文章指出随着数字时代的发展,死者个人数据权益具有可继承性。死者个人信息权也面临着不同主体之间的利益冲突:一是死者与个人信息权继承者在实践层面和法律规范层面存在利益冲突;二是个人信息继承者与相关第三人的利益冲突,包括特定第三人不愿他人知晓的信息和涉及公共利益的不特定第三人的利益;三是个人信息继承者与网络平台利益冲突,涉及协议效力和同意规则。文章继而提出我国死者个人信息权保护的应然模式:对于死者个人信息人格权利保护采取三层递进保护模式,即将其抽离传统人格权对人格权利积极保护,对侵权进行事后救济并适用过错推定原则。对于死者个人数据与死者数字遗产采取双层区分保护模式,即先判断是否杂糅,如杂糅则对其进行内部划分,人身属性部分权利参照个人信息权保护规则,对于财产属性部分参照使用财产权保护规则。其次,对于死者个人信息权主体间权利义务责任进行衡量规制,包括继承人充分尊重死者生前遗愿并承担为死者以及相关第三人保密的义务,以及第三人不可以“可能被隐私侵犯”等风险当然阻止继承等内容。

三、平台治理

  (一)元规制进路

  黄文艺教授和孙喆玥博士研究生在《论互联网平台治理的元规制进路》一文中指出,元规制是以初级规则为对象的次级规制,即以社会自我规制为对象的政府规制,使得规制不再是政府的专有权利,推动规制理念从政府中心向社会优位变革。对于社会自我规制的优势:自愿性、合法性、信息对称性、效率性。但社会自我规制也存在一定缺陷:私利干扰、私权滥用、公责规避、公信不足和规制俘获。元规制不是对社会的自我规制的替代,而是对社会自我规制的再规制,即处于第二顺位,具有以下特征:一是谦抑性,在平台自治面前保持克制;二是后设性,用各种制度和工具激励自我规制;三是反思性,政府从划桨者变为掌舵者;四是共治性,政府和平台是平等的合作共治关系。对于互联网平台元规制的操作原则:一是多主体协同机制,包括行政机构之间、行政机构和司法机构、行政机构和行业组织,以及行政机构与第三方专业机构的协同机制。二是私权利保障,包括实体性权利、程序性权利、救济性权利;三是公共利益保护,平台要履行准入规制、内容规制义务以及安全风险规制义务;四是预防性规制优先,将其贯穿在各环节与全过程;五是包容审慎规制,即政府要给予平台一定发展时间和试错空间;六是外部激励约束,包括声誉、合规、行政指导、司法建议与检察建议。在互联网平台元规制的实施路径方面,对准立法权建立立法指引、备案审查、司法审查相衔接的元规制体系;对准行政权构建起互联网平台管理权的自律与他律体系;对准司法权构建对平台纠纷解决权的元规制体系;对数字私权力将法律规制、技术规制与伦理规制相结合。

  (二)算法与责任

  基于“全国首例算法推荐案”(北京爱奇艺科技有限公司诉北京字节跳动科技有限公司侵害作品信息网络传播权纠纷案)和2023年的优酷信息技术(北京)有限公司诉上海喜马拉雅科技有限公司、喜大(上海)网络科技有限公司侵害作品信息网络传播权纠纷案,宋建立副主任在《推荐算法运用下的平台义务与责任》一文中指出目前对于平台使用算法应当承担的注意义务的意见仍处于统一的过程中,而后分析了推荐算法的基本原理与商业实践,包括基于协同过滤的推荐算法、基于内容的推荐算法和混合推荐算法。文章指出目前推荐算法面临以下几个问题:一是算法设计或实施不当可能产生与预期不符合结果;二是算法自有的偏见和歧视影响公平正义;三是算法黑箱造成监管审查困境;四是推荐算法加速了违法侵权等不良信息传播。文章梳理了我国对于推荐算法治理的立法情况,具体包括类型化明确监管范围、明确主体责任以及算法公示等内容。同时指出,“如果一味强调以平台义务和平台责任为杠杆的治理机制可能会导致较高的总体社会成本,从而影响产业的发展”。面对相关案件新增,判决应当在以下两个方面进行优化:一是所涉推荐算法技术事实对用户权益的影响论述有待丰富;二是被诉平台承担责任的论理有待强化。对于推荐算法运用平台的注意义务,文章认为,由于推荐算法不同于传统技术的被动性,且客观上增加了侵权内容传播,获得经济收益不具有中立性,同时以盈利为目的的算法存在滥用行为,因此推荐算法运用平台应当具有更高的注意义务。在判断平台注意义务时,也应考量技术和经济方面,不可遏制平台发展。在举证责任方面,用户承担初步举证责任,提供反证的义务转移给平台。

  上海知识产权法院课题组在《算法推荐服务提供者的注意义务》一文中,同样从“全国首例算法推荐案”和优酷信息技术(北京)有限公司诉上海喜马拉雅科技有限公司、喜大(上海)网络科技有限公司侵害作品信息网络传播权纠纷案出发,讨论了算法推荐服务提供者的注意义务。文章指出对于算法推荐技术应当进行综合评价,技术中立原则是此类案件的重要考量因素但并非绝对抗辩事由,应当在现有归责体系的基础上考量产业发展需求、结合不同应用场景来确定责任认定规则。文章对目前责任认定存在的几个困惑作出回应:第一,算法推荐服务提供者是否仍属于网络服务提供者范畴?通过梳理历史沿革和域外法,文章认为算法推荐服务提供者仍然属于网络服务提供者;第二,算法推荐是否区别于人工推荐?文章认为虽然算法推荐具有一定的主动性,但过程不涉及内容识别,因此不等同于人工推荐;第三,收到侵权通知后,如何认定算法推荐服务提供者是否已采取合理必要措施?文章认为应当要求算法推荐提供者承担合理的事后算法过滤义务,例如设置黑名单词库,在算法推荐中增加撞库过程,也要承担算法修正义务,即定期审查算法风险并修正,也要承担算法解释义务以提高算法的透明度;第四,在举证责任分配上,算法推荐服务提供者是否应主动披露算法并就算法的合理性进行说明?文章认为在法律未规定相关案件适用举证责任倒置时,仍应适用谁主张谁举证的基本原则,原告应当尽到初步举证责任,再根据情况判断是否适用举证责任转移,对于解释程度不应要求告知算法全部技术细节,以算法相对人可理解为限,从而保护其商业秘密。

参考文献

1.丁晓东:《全球比较下的我国人工智能立法》,载《比较法研究》2024年第4期;
2.丁晓东:《人工智能风险的法律规制——以欧盟〈人工智能法〉为例》,载《法律科学(西北政法大学学报)》2024年第5期;
3.张吉豫、汪赛飞:《大模型数据训练中的著作权合理使用研究》,载《华东政法大学学报》2024年第4期;
4.申卫星:《论数据来源者权》,载《比较法研究》2024年第4期;
5.季卫东、翁壮壮:《个人数据财产权的证立及诠释》,载《法制与社会发展》2024年第4期;
6.丁晓东:《企业数据的合同法与侵权法保护》,载《法制与社会发展》2024年第4期;
7.彭诚信、李佳桐:《我国死者个人信息权利保护的私法构造》,载《华东政法大学学报》2024年第4期;
8.黄文艺、孙喆玥:《论互联网平台治理的元规制进路》,载《法学评论》2024年第4期;
9.宋建立:《推荐算法运用下的平台义务与责任》,载《法律适用》2024年第7期;
10.上海知识产权法院课题组:《算法推荐服务提供者的注意义务》,载《法律适用》2024年第7期。

推荐阅读