人工智能法规制的重点已从替代问题转向风险问题。以欧盟《人工智能法》为代表的立法将风险分为产品风险与基本权利风险,将风险级别分为禁止性风险、高风险、有限风险和最小风险,并对生成式人工智能与大模型作出特殊规定。此种分类在具有合理性的同时也引发了内在紧张关系,此种分级存在不科学与僵化的困境,对生成式人工智能与大模型的规制也不尽合理。欧盟《人工智能法》的困境根源在于追求对人工智能风险的统一化规制。我国人工智能立法不应简单效仿欧盟,应坚持对人工智能风险的场景化规制,将人工智能应用者或其构成产品作为风险规制的对象。对人工智能系统及其提供者,应注重国家安全、重大公共安全规制与其他领域的自我规制。人工智能风险规制应区分市场主体与公权力机构主体,注重用侵权法对市场化的人工智能风险进行事后规制。
债务人行为被撤销后,该行为相对无效。债权人撤销权更应强调私益性。相对人就其对债务人的抗辩不能对抗撤销权人。
若存在集中统一的登记公示系统,物权自由模式不会比物权法定模式引发更高的社会经济成本,不会阻碍财产后续价值发现。
《公司法(修订草案三审稿)》增加了有限责任公司股东认缴的出资需在五年内缴足的规定,引发了各界的讨论热潮。
对各类数据权利条块主张进行划界,将它们标准化为权利模块,以数据权利体系来形塑数据权利“束体”。
遗嘱继承呈现出“意定设立+保障功能”的体系定位。界定居住权的物权变动应区分继承的两个阶段,其自首次登记时设立。