内容
成亮助理教授在《个人信息权的法理证成与逻辑展开》一文中提出个人信息权是一项保障个人“自我呈现”人格尊严利益的新型人格权。
首先,权利的证立需要内在理由和外在理由,“自我呈现的”尊严利益是个人信息权的内在理由。法律保护个人信息的规范目标是保护每一个人自主选择在他人面前展现自我的哪些面向的自由,即“自我呈现”。这是塑造自我身份和维护自我人格的关键机制,因而成为一项独特的尊严(自主)利益。数字时代“自我呈现”的危机则是该权利证立的外在理由。信息传播环境的“不可预测性”“观众抽离”“语境塌陷”、低成本的数据分析可能会完全剥夺“自我呈现”的机会和空间。因此,需要设置一项权利来确保主体进行“自我呈现”的自主性和完整性。
其次,个人信息权具有其独特的功能。个人信息权将各项具体信息权利(如知情权、同意权、更正权、删除权等)统摄为一个有机整体。从功能角度,这些子权利可以划分为确保个人“自我呈现”的自主选择性、完整准确性、可预期性以及确保个人享有“自我呈现”的必要性四个组别。
最后,在“自我呈现”视阈下,个人信息权的保护路径应以权利保护为核心,而非风险控制。确立个人信息权不会阻碍信息流通,个人信息权的保护对象是具有可识别性的个人信息,其效力主要涵摄信息“内容”层面的人格利益。维护个人信息权利本身也是维护公共利益的体现。
孙莹教授在《论已公开个人信息合理处理范围的认定》一文中提出既有关于已公开个人信息合理处理范围的认定过度依赖外部理论,可能导致立法者已作出的权衡被遮蔽,应回归《个人信息保护法》,通过教义学解释作出判断。
首先,处理已公开个人信息应遵守目的限制原则,但可以通过宽泛解释“处理目的”以契合实践需求。只要对已公开个人信息的处理出于合理目的,而且这一目的以明确的方式表达,实际的处理行为也与该目的直接相关,那么便应当认为这一处理行为符合目的限制原则,而不再要求处理行为与公开目的直接相关或者兼容。
其次,对“合理范围”的认定由对个人权益有重大影响、个人拒绝权、处理者告知义务的边界三个核心维度构成。“对个人有重大影响”的法律内涵可被界定为个人权益被侵害的高风险状态,需要综合考虑对个人权益影响程度和安全事件可能性两个要素。个人拒绝权的适用范围受到《个保法》第44、13条的限制,需要依据处理者建立的申请受理和处理机制以较为明确的方式作出,不能通过直接起诉的方式行使。拒绝权在法律效力上是一种“终止形成权”。除了《个保法》第18条第1款和第35条的法定豁免情形外,信息处理者均应履行告知义务。法官可以在个案中利用成本收益分析对豁免范围进行解释。
最后,在生成式人工智能场景中,应在模型训练和模型运行阶段对目的、处理行为与目的是否直接相关进行审查。对个人权益有重大影响的判断标准应具有客观性并进行事前评估。拒绝权的替代性保障至少应包括“阻断未来的再学习”和“屏蔽已有的再输出”两项。生成式人工智能服务提供者披露数据来源的告知义务也应进行强化。
钭晓东教授在《超越个体赋权:群体数据利益保护及其推进进路》一文中提出群体数据利益具有正当性,但当前法律体系未能有效保护这一利益,需要在现行法下构建新的保护制度。
群体数据利益是算法基于共同特征构建的群体所具有的免受不当数据分析的消极利益。不当数据分析会产生预测性隐私问题以及容易引发歧视性对待,因此群体数据利益具有正当性。但现有个人数据治理法律不能很好地保护该利益。
学界对此问题发展出群体隐私理论和数据关系理论,前者提出群体隐私权,后者试图建构数据的民主治理制度。但群体隐私权与既有权利理论存在冲突,数据治理的民主路径也与我国个人数据治理框架不兼容。两者均将群体数据利益视为集体利益,但这无法兼顾不同主体需求,也不契合其利益本质。群体数据利益的本质是个人数据利益之和,不具有独立性。
群体数据利益及保护须以公共利益为基准,充分借助公权力构建“积极治理”制度机制框架,推进公私法融合回应群体数据利用中“个体权益克减—公共利益增进”的动态平衡需求。在实现路径方面,应在现行法基础上,通过保护个人数据利益间接实现群体数据利益保护。对个人数据利益的保护应以个人数据自决权为主,部分采用公法规制,形成公私法交融的保护制度。对涉及敏感个人信息的预测行为,鉴于其高风险性,应通过数据安全保障义务构建公法规制制度。对其他个人信息预测行为,可赋予个人自动化决策拒绝权,退出分析预测,但不宜扩张至其他个人数据权利主张。
王文君博士后在《论数据抓取行为的正当性判断》一文中指出数据抓取行为的正当性评价应考虑保护意愿、技术措施是否被突破、数据集合的价值(竞争性权益)、抓取数据集合的合理限度四个方面的因素。
当前司法裁判中采取的竞争秩序、经营者、消费者三重利益评估框架存在模糊性,应根据数据的特性确定数据抓取的正当性认定标准。根据数据利用的非排他性,应在数据抓取正当性评价中考虑保护意愿和技术措施是否被突破这两项因素,将其作为数据集合可保护性的条件。数据效用的不确定性决定其价值动态变化,难以以“实质性替代”作为评估规则,应以抓取行为的合理限度作为正当性判断的根本。
在判断“合理限度”时,《反不正当竞争法》一般条款的不确定性导致演绎推理方法失灵,司法裁判实质上是一种利益衡量。应以市场主体和消费者的具体利益为起点,在社会公共利益和国家利益的基础上,联系同类市场主体和消费者的群体利益、公平竞争制度的利益,特别是对公平竞争制度的利益进行综合衡量。
具体而言,在不涉及个人信息的抓取中,以比例失衡原则作为一般标准,考虑robots协议的阻却效应时需要警惕其被用于垄断,结合平台的公共性、行业管理等因素判断抵御抓取的技术措施的强度要求。在涉及个人信息的数据抓取中,应区分智能处理与传统处理行为,在四级标识度区分下分别进行利益衡量。原则上应禁止一切抓取敏感个人信息的活动,而抓取其他直接体现公开个人信息数据的行为应得到最大限度的容忍。
武翠丹讲师在《健康医疗数据应用的法律规制》一文中提出健康医疗数据的合规应用需通过“人格权益—财产权益—公共利益”的法益衡平框架,实现从权利保护到数字治理新模式的转变。
健康医疗数据应用面临隐私性与公开性、经济性与普惠性、技术性与管理性的结构性矛盾。现有法律规制主要依赖知情同意模式和合理处理模式,但前者存在“无限授权”“形式同意”和“义务履行”困境,后者则过度严格,凸显单纯依赖传统司法路径的局限性。
基于健康医疗数据的属性,应确立“人格权益—财产权益—公共利益”的法益衡平框架,承认医疗机构基于数据加工行为的有限财产权。采用“三权分置”理论,将数据权利解构为持有权、使用权与经营权,实现数据资源在不同主体间的有序流转。通过“人财两分”的立法路径,确认健康医疗数据来源者(患者)享有个人信息人格权,数据使用者则拥有财产权。
在具体路径方面,构建医联体健康医疗数据合规共享机制,建立分类授权使用框架,设置差异化访问权限。根据场景划分(常规性和紧急性)界定数据调取边界,重构知情同意规则。建立医疗健康企业非个人数据许可使用专项限制与转售禁止规则,防止数据滥用和垄断。
付大学教授在《论数据权益容他》一文中提出数据权益容他是驱动数字经济发展的底层逻辑,能够超越数据确权之争,促进数据的生产、利用与流通。
容他是指财产权人并非以排他方式行使权利,而是依法或依约定容许他人对财产(或资源)进行访问(或占有)、使用、收益的权益安排。学术界关于数据确权的争论可分为“支持确权”“反对确权”与“折中立场”三类,各方均承认数据权益的容他性,主要分歧在于实现权益容他路径的差异,权益容他是数据制度构建的底层逻辑。
在路径选择上,原始数据应作为公共资源而不予赋权,即使数据收集者亦不享有独立排他性权利。具体通过强制公共数据开放共享、界定企业原始数据为公共资源而不予赋权、构建数据标准化规则、以可信数据空间为关键技术路径。衍生数据应作为有限排他性财产予以确权,数据处理者享有有限排他性财产权,其他主体需经授权方能行使相应权利(如访问权、使用权等)。以产权分置确立多元权益的法律基础,以契约选择平衡私益激励与社会共享,以技术工具化解流通中的安全隐忧。
郭轩扬博士研究生在《所有权在数据场景中终结了吗?——数据平行所有权论》一文中提出所有权的核心是“归属”,可以通过“一数多权、平行支配、有限排他、完整权利束”等原理实现制度再生。
在所有权的概念变迁中,多重所有权在不同时期以不同含义相继复现,为数据确权中的平行所有结构提供了历史渊源。相对所有权的出现表明有限排他性本身蕴含于所有权的制度基因之中,并非数据产权独有,也无法成为否定数据产权所有权性质的依据。所有权的核心特征是“确保归属利益”这一制度功能,而非绝对性、排他性、支配性、完整性等外在形式。
在数据场景下,“一数必有确定归属、平行支配、有限排他、完整权利束”的数据产权的制度重构并未颠覆所有权的教义,而是以更适配数据场景的方式延续了所有权“归属权”的内核。数据所有权是与(物的)所有权等绝对权并列的新兴所有权,其排他性效力受到多元主体权益的外部限制和平行所有权之间的内部制约。对于数据所有权权能可以无限扩张的特点,应从权能分离学说转向“权能增殖”逻辑。
在制度建构方面,对于多方同时持有同一数据的场景,按份共有无法适配数据的物理属性和应用逻辑,应设置“平行所有”的新兴所有权形态。该权利具有“一数多权、一人一权、权能相同”的基本结构。可以通过“数据产权链”和登记公示制度将平行所有权与派生权利的复杂关系网络转化为可供外部观测的文字,既化解了数据无形性导致的权属模糊困境,又为善意取得、一数多卖等规则提供了制度基础。
王承堂教授在《电子商务平台守门人责任研究》一文中提出电子商务平台应依据《消费者权益保护法》第43条承担守门人责任,对平台内经营者行为承担替代责任。
对于电子商务平台的法律责任,现行法依据是否属于“自营”分别施加产品责任和补充责任。在开展非自营业务时,电子商务平台与传统商场、展销会具有相似性,但《消费者权益保护法》对二者配置了不同的法律责任:商场、展销会对平台内经营者的控制力更弱,却承担更严格的先行赔付责任,电子商务平台承担补充责任。这有悖于法经济学原理。
从交易成本的角度,以严格责任为归责原则的产品责任作为一种企业责任,相对于合同责任而言更具成本优势。产品责任的责任主体取决于产品所有权的归属,但电子商务平台对资产享有接入权而非所有权,因而规避了现有法律责任体系,形成了规制套利。对此,需要转变责任基础,要求平台承担相应的责任。
但在形式上,平台在非自营业务中并非所售商品的所有者或销售者,由其承担产品责任存在法理障碍。可以要求平台承担替代责任以消解这种障碍。替代责任的法理源于委托人对代理人的控制力。平台通过提供技术接口、设定技术条款对平台内经营者形成控制,满足替代责任的控制力要求。因此,平台对其内部的经营者的行为承担替代责任,即守门人责任。“控制”与“获利”是平台守门人责任的构成要件,《消费者权益保护法》第43条规定的先行赔付责任能够发挥平台守门人责任的功能。
李丹副教授在《人工智能特殊侵权责任的理论证成及规范储备》一文中提出传统侵权法难以应对人工智能侵权问题,应将人工智能侵权定型为一种新型特殊侵权责任。
首先,既有侵权责任框架在人工智能领域面临适用障碍。对一般侵权进行扩张性解释面临侵权关系结构与归责原则不适配、因果关系难证明、损害结果难评估的困境,具体而言:网络侵权方案存在逻辑不周延、保护不足和“明知”难证明的问题。产品侵权方案面临人工智能属于产品或服务的争议;医疗损害责任方案存在责任主体认定与多因致害相冲突、过错认定标准模糊和因果关系证明受阻问题;机动车交通事故责任方案面临责任主体定位模糊、过错认定标准失效和因果关系证明受阻问题。不同责任模式之间还存在着冲突。
因此,应将人工智能侵权确立为一类独立的特殊侵权责任。在理论上,危险责任理论、报偿责任理论、过错推定与替代责任与人工智能侵权问题具有适配性。从现实来看,各国立法并非单一依赖危险责任,对特殊侵权的运用呈现多元协同特征,灵活组合不同归责原则。
未来,技术向善与风险分配原则能为人工智能技术发展的法律指引。具体而言,人工智能特殊侵权责任应根据不同的主体设置不同的归责原则和责任形态。在归责原则方面,应对设计者/生产者适用无过错责任;对平台服务提供方适用过错推定原则;在专业人士侵权情境中设置过错责任原则;对普通用户适用过错责任。在责任形态方面,设计者/生产者和服务提供者需承担连带责任;在涉及专业人士因审核疏忽导致侵权且产品存在警示缺陷时,专业人士与设计者/生产者应承担按份责任。若用户实施侵权行为,服务提供者应承担补充责任。最后,技术发展和过失相抵可以作为免责事由。
(本文编辑龚欣雨。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)