内容
(一)人力资源管理中的个人信息处理
程啸教授在《论实施人力资源管理所必需的个人信息处理活动》一文中指出,“实施人力资源管理所必需”作为处理劳动者个人信息的法律根据,规范目的在于促进个人信息合理使用、便于企业经营管理,需限定于劳动关系,遵循必要和目的限制原则。
1、适用范围:限于劳动关系
该规定适用范围限于劳动关系,这具有两方面的意义:第一,国家机关与其工作人员之间的关系不属于劳动关系,不适用该项规定;第二,个人信息处理活动还受到《劳动法》的约束,需“按照依法制定的劳动规章制度和依法签订的集体合同”进行,劳动规章和集体合同在内容和程序上需符合《劳动法》的规定,否则不得作为信息处理依据。
2、构成要件:“必需”的判断
“必需”要件要求信息处理活动符合《个保法》中的必要和目的限制原则,满足处理目的的合法性与直接相关性、处理活动对维护用人单位的合法利益“绝对必要”、对个人权益影响最小三个方面的要求。
3、体系关联:与其他法律根据
在与其他条款的关系方面,该条款与“为履行合同所必需”存在依据的差异,与“为履行法定义务所必需”则在特定场景中存在竞合。最后,从比较法上看,虽然《个保法》未像欧盟将“处理者的合法利益”作为独立的法律根据,但“实施人力资源管理所必需”的规定很大程度上涵盖了用人单位为维护自身合法利益而处理个人信息的需求。
(二)数据产权的知识产权保护
董涛教授在《知识产权历史演进下的数据产权法律属性研究》一文中指出,数据与知识产权客体同源、同质、同构,借鉴数据库特别权的模式,将数据产权置于知识产权框架下,是最符合立法经济与效率原则且降低民法财产权体系混乱风险的方案。
1、数据产权的知识产权属性
从自然属性来看,数据与知识产权客体均来自卡尔·波普尔提出的“人类知识世界”。在性质上,数据与知识产权均具有共享性、传递性、阶段性、稀缺性与可独占性,共同区别于有形物质。在法律属性上,数据产权与知识产权在构建基础与权利设计方面具有相似的结构。二者运行机理均需解决客体共享性带来的问题,正当性依据均基于劳动价值论,权利形态在客体确定、内容构成、主体交织及侵害判定上相似。
虽然数据与知识存在智力含量的异质性,但知识产权框架的开放性与包容性能够容纳这种异质性。目前学界存在高估知识产权对智力含量的要求、低估数据智力含量性的误读。
2、数据产权制度构建的路径选择
在现有知识产权体系框架下,可参考欧盟的数据库特别权方案与美国的作品汇编权方案来解决数据产权诉求。在路径选择方面,可以类比商业秘密的保护模式,兼采赋权与行为规制。制度目标应激励数据生产者投入,同时平衡个人隐私、国家数据安全。数据产权边界确定面临登记的性质、内容与效力问题。个人数据受多种法律保护,展现出多重属性,需要解决个人利益保护与数据产业发展之间的平衡问题。公共数据则需要重点考虑如何确权与防止垄断的问题。
(三)数据集合财产性权益的保护
徐小奔副教授在《人工智能时代数据集合财产性权益的侵权救济路径》一文中指出,人工智能时代数据集合具有独立价值,现有保护路径存在不足,有必要对数据集合赋权立法。
1、著作权救济路径
有独创性的数据集合可以通过汇编作品予以保护,这要求数据在“选择”或“编排”上具备独创性。数据集合独创性认定关键在于数据要素生成数据呈现时的选择或编排关系,利用算法调用、排列、整合数据的过程可视为独创性汇编行为。
2、商业秘密救济路径
商业秘密救济需满足秘密性、保密性、价值性,数据集合具有价值的集合性与集合的秘密性。价值的集合性将数据的规模性视为独立的价值来源,区别于海量单一数据的汇集。同样,数据集合的秘密性也在于集合整体处于不为公众知悉的秘密状态。
3、反不正当竞争法救济路径
反不正当竞争法主要通过规制不正当数据爬取行为来救济,适用一般条款或“互联网专条”,数据集合的竞争性利益源于规模性的采集等技术劳动,法律保护的激励对象是数据处理者。
4、结论:必要的补充性赋权立法
分析既有保护路径,可以发现人工智能时代数据财产的特点:一是数据集合具有独立的价值;二是数据权益设置应以数据处理者为中心展开。现有保护路径均存在一定的不足:汇编作品著作权保护难以涵盖无独创性数据集合,商业秘密保护无法涵盖公开数据,反不正当竞争法保护限于事后救济与个案效力,无法为数据财产的积极利用提供充分依据。未来应在现有保护模式下进行补充性赋权立法,建立数据专有保护与数据共享使用例外的利益平衡机制,明晰数据要素市场中各方主体的具体权利与义务,形成专有权保护与行为竞争法规制的多元保护模式。
(四)数据资产的价值利用
李鸣捷讲师在《公共数据资产权益担保的法律实现》一文中指出,公共数据资产权益担保宜在授权运营场域展开,担保人可以为控制者或授权运营机构。采抵押或权利质押构造,需重点检视其公益属性所致适用层面的特殊性。经登记生效,担保的实现可采变价或就所生收益主张权利。
1、公共数据资产担保的法理构造
公共数据的范畴界定采形式主义进路的公共机构数据说,以“主体-行为”为公共数据划清边界。公共数据资产的法律定位是公共数据控制者利用权,该权益具备交换价值,因此具有可担保性。但适格担保客体须经规范审查,符合数据内容和来源规范。
2、担保的实施场域及主客体构造
担保实践宜在公共数据授权运营这一特定场景下进行。在公共数据控制者作为担保人时,行政事业单位不得作为担保人,而除此之外的公共服务机构具备担保人资质。被授权运营机构可以对其享有的非控制者利用权设立担保。公共数据资产权益属财产权范畴,可以采抵押或权利质押构造。
3、担保的设立与公示
公共数字资产权益担保的设立是处分行为,除应满足担保合同、客体特定、有处分权等一般要件,由于资产的公共属性,还需要满足登记的特别要件。同时,该担保以登记作为公示方式,并采登记生效主义。
4、担保的实现进路
在以变价的方式实现担保时,要注意被授权运营机构的变更需要授权主体介入,不得擅自转让,同时需要探求妥适的数字资产评估方法作为配套制度。在变价无法适用时,可以通过对收益主张权利的方式来实现,组合设定“数据资产权益担保+账户质押”,也可以在事后通过强制管理制度来实现。
(一)合意制度的数字化转型
杨彪副教授在《数字时代合同合意的制度困境及其解决机制》一文中指出,数字场景下合同合意制度已经形同虚设,未来的合同法改革应重视认知和技术因素,对合同合意制度进行体系化再造,以重拾交易共识。
1、协商环节的重要意义及其消亡
传统合同法关注合同文本而忽略交易结果。交易过程的协商环节将交易载体和交易收益真正联系在一起,应当居于核心地位,市场的治理重心应放在合同协商机制上。关注合同协商机制能够激励对允诺的道德认同,也能够折射出规则背后的力量对比,是探讨改进交易结构的重要起点。
互联网时代的大部分线上交易中,交易协商机制已经名存实亡,合同不再是双方当事人讨价还价的结果。这一方面由于“网络脱抑制效应”和可读性差等导致“不阅读合同”问题;另一方面则是由于“长期关系裹挟”带来的合同条款不可协商性、地位不平等问题。这均与形式主义的合同法倾向有关。
2、合同法教义背后的复杂运作机制
形式主义的路径存在其优势与合理性:与之相对的功能主义合同解释机制虽然更灵活开放,但存在结果随意性强、司法取代市场的缺陷,以此取代形式主义得不偿失。社会抗争成为消费者维权的主要方式,弥补了形式主义的缺憾,但数字技术对消费者的操控进一步强化形式主义,削弱了合意基础。
3、解决方案:合同合意制度的数字化转型
就上述制度困境,合同合意制度的数字化转型提出三项主张:第一,以消费者认知为导向,建立基于同意负担的强监管体系,通过监管激励商家将消费者的同意负担降到合适的水平。第二,对合同的呈现方式“征税”:该税与消费者的理解成本成比例,合同越复杂难懂,商家的税收负担越重。以此激励简单合同,保障消费者同意的真实可信。第三,限制隐形条款与单方变更实现透明合同,以系统化的事前行政监管提供实质性保护。
(二)算法合同重大误解的救济
杨勇助理研究员在《算法合同重大误解的救济机制》一文中指出,代理法规则无法解决算法合同的重大误解问题。在相对人不存在合理信赖时可赋予算法使用人撤销权,算法使用人应对相对人信赖利益损失承担损害赔偿责任。
1、算法合同重大误解的既有处理方案及特殊性分析
算法合同指通过自动化或自主化决策算法订立的合同,前者按预设的指令执行,后者可自主学习并自行决策。传统理论将算法决策与使用人意思不一致视为动机错误,一般否定撤销权,但双方均存在动机错误时应赋予撤销权。
在算法订约中,相对人因未亲自介入难察觉异常,注意义务降低,高频交易中相对人更难察知误解;自主化决策算法因黑箱效应和不可预见性,加剧了错误风险。
2、既有理论无法有效应对算法合同重大误解
代理法无法解决责任主体界定问题,算法不具民事主体资格,赋予其电子人格模糊了谁应承担合同错误风险的问题。而将责任归为算法设计者会增加相对人救济成本、侵害其合理信赖。合同法中的风险归责通过分配错误风险至低成本避免方,但对自主化决策算法意义有限,因算法使用人无法预见风险并采取防免措施,强求其承担风险会抑制其算法应用意愿。
3、算法合同重大误解撤销权的合理性
由于算法系统错误可能构成共同错误、算法使用人在自主化决策算法错误中应得到救济、避免不当保护相对人虚假信赖、相对人信赖强度范围存在差异以及对消费者倾斜性保护等因素,在一定情形下赋予算法使用人撤销权具有合理性。
4、算法合同因重大误解被撤销时的损害赔偿
在合同撤销后,对于相对人的信赖利益损失,自动化算法使用人承担过错责任,自主化决策算法使用人承担无过错责任。
(一)生成式人工智能法律责任的一般理论
杨利华教授在《生成式人工智能服务提供者注意义务研究》一文中指出,从法理、利益平衡、激励等理论出发,应当为生成式人工智能服务提供者设置注意义务。内涵包括致害后果预见与避免、同业平均高度注意标准等,具体规则涵盖事前风险防范、事中干预及事后处置规则。
1、设置注意义务的理论基础
为生成式人工智能服务提供者设定注意义务符合权利义务相一致与禁止权利滥用的一般法理,是对利益平衡理论和产业激励理论的实践,也符合“守门人”理论与科技向善的技术理性。
2、注意义务的内涵依据
注意义务的内容包括对致害后果的预见与避免,是一种高度注意义务。程度标准以同专业领域平均注意义务水平为准,也需充分考量具体服务的差异性。注意要素应当结合具体情形中被侵害的权利客体、侵权行为的实施主体和差异化的商业服务模式予以综合性考量。
3、注意义务的规则设计
具体规则设计涵盖三个阶段:事前防范规则,包括对语料来源与内容安全的审查、语料标注安全管理以及模型的安全性、准确性审查和定期更新升级;事中干预规则,主要是对高危用户行为的监控(如暂停服务、封禁账号)和对生成内容的风险提示;事后处置规则,包括建立分场景、分类型的人工智能生成内容标识机制,以及针对用户举报投诉的及时响应、处置和公示反馈机制。
通过在侵权责任法框架下合理设定和适用注意义务,可将生成式人工智能服务提供者的间接侵权责任控制在合理范围,平衡自由与安全,推动人工智能技术健康发展与社会良性互动。
(二)人工智能与产品责任
李雅男讲师在《生成式人工智能的法律定位与侵权归责路径》一文中指出,生成式人工智能系统符合产品定义,在产品责任框架下,开发者与运营者可类比生产者与销售者,根据其生命周期和层次属性确定各类缺陷及发展风险抗辩的条件与标准。
1、生成式人工智能提供者不属于网络服务提供者
学界对其侵权归责主要有两种思路:一是将提供者视为网络服务提供者,适用过错责任原则与“通知—删除”规则;二是将其解释为产品,适用产品责任。但生成式人工智能提供者与传统网络服务提供者存在实质差异,其内容非源于第三方、存在独立侵权情形,且避风港规则适用存在难题,故排除网络服务提供者定位。
2、生成式人工智能适用产品责任的合理性论证
从产品属性看,生成式人工智能经人工设计、编码、训练并运营,具备产品加工、制作、销售属性,欧盟等立法也将软件纳入产品范畴。产品责任契合其多层次、多样态特征,能应对动态风险,如基础模型开发者需承担下游风险警示义务,且可与监管形成良性互动,类似药品监管的反馈循环机制。
3、生成式人工智能适用产品责任的具体规则
在产品责任框架下,责任主体应扩展至设计者、运营者,类比生产者与销售者承担连带责任。缺陷应当根据不同阶段和层次进行认定,包括训练阶段的制造缺陷、算法设计阶段的设计缺陷、风险告知不足的警示缺陷及上市后监测缺失的跟踪观察缺陷。同时需明确发展风险抗辩的适用条件,以当时科技水平为标准,建构技术合规框架下的“安全港”制度,为经过监管机构技术审核的开发者提供责任豁免,平衡创新与权利保护。
进一步,在特殊的医疗领域,候曼曼助理研究员在《诊疗式人工智能的医疗产品责任认定》一文中指出,诊疗式人工智能不论是否依托物质载体均属产品责任法中的“产品”,有关主体之间承担不真正连带责任。
1、诊疗式人工智能致害适用医疗产品责任的证成
在规范层面,无实物载体的软件可以被纳入产品责任法的适用范围;在风险程度层面,医疗人工智能属于高风险人工智能,应受到更严格的规制;在人机交互关系上,适用产品责任有助于保护医务人员行为自由;从激励创新的角度,产品责任也不会过分提高生产者的注意义务。从商品的概念、域外法规定、诊疗式人工智能的特点以及产品责任的本质来看,将其认定为产品具有合理性,符合矫正正义和分配正义的价值目标。
2、诊疗式人工智能医疗产品责任核心成立要件
在产品责任成立要件方面,以研发、生产、销售者违反相应注意义务作为产品缺陷的判定因素,并通过事实推定的方式减轻受害人的证明负担。以“风险增加的可能性”作为事实因果关系的判定标准,采用可反驳的因果关系推定规则;以“实质性风险增加”作为法律因果关系的判定标准。行为人对其可预见范围内的风险导致的损害承担责任,包括:违反法定义务导致风险实质性增加、超出研发者合理预见范围的算法自主输出错误、医务人员介入行为不构成中断因果关系的情形。
3、责任主体及承担
直接向患者承担损害赔偿责任的主体应当包括产品的生产者、销售者、医疗机构、医疗器械注册人及备案人。该产品责任应当是不真正连带责任,直接责任主体对外承担连带责任后可向有过错的最终责任主体追偿。
程威副教授在《大模型嵌入公司治理的法理省思与规范调适》一文中指出,应通过组织法的理念重塑来应对大模型嵌入公司治理引发的治理失衡和竞争失序风险。
1、大模型嵌入公司治理的制度冲击
不同于以往的辅助决策工具,大模型正在深度介入公司决策的核心环节,这种技术嵌入对以人类决策者为中心的传统内部治理规范形成了结构性冲击:大模型提升了股东参与公司经营治理的能力,两权分离可能转化为扁平化结构;人机协同决策所引发的董事义务与责任问题将比人类独立决策时更为复杂。在外部性方面,大模型强化了企业在细分领域的经营能力,引发头部公司形成垄断的公共性风险。
2、大模型嵌入公司治理的理念调整
对此,理念上应重塑权力配置与强化组织调整。组织内部的所有权、执行权和监督权,三类权力在不同组织形态中应动态调整;决定权的分配则取决于治理导向;强化内部问责的积极性和负责性。以公共性的组织干预手段对模型化公司的公共性风险进行系统化调整,认可公司法与反垄断法在公司治理目的上的同源性。
3、大模型嵌入公司治理的规范调适
第一,建构多维监督规则,实现监督主体专业化、监督模式场景化、监督结构内外联动。第二,更新信义义务体系,根据不同的人机交互模式对忠实义务进行场景化调试,以建构“负责任算法”为重要价值追求。在注意义务中强化知情判断,在内容上将模型引入合理性和治理意见监督作为主要的审查标准。第三,在组织拆分上进行监管创新,对因大模型引入而产生优势地位的判断宜保持谨慎,从监管者视角构建事前和事后方案。
(本文文字编辑龚欣雨。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)