点击右上角微信好友

朋友圈

点击浏览器下方“”分享微信好友Safari浏览器请点击“”按钮

文化人 天下事
正在阅读: 人工智能数字空间秩序的法律构建
首页> 光明日报 > 正文

人工智能数字空间秩序的法律构建

来源:光明网-《光明日报》2026-02-27 04:05

调查问题加载中,请稍候。
若长时间无响应,请刷新本页面

  【析理论道】

  作者:陈姿含(北京市习近平新时代中国特色社会主义思想研究中心研究员、北京理工大学法学院副教授)

  人工智能驱动的数字空间是由算法与数据融合建构的智能环境,通过感知、决策与交互实现虚实共生,这一新型空间同样需要构建有效治理体系。习近平总书记指出:“要把依法治网作为基础性手段,继续加快制定完善互联网领域法律法规,推动依法管网、依法办网、依法上网,确保互联网在法治轨道上健康运行。”近年来,我国对人工智能治理与高质量发展立法模式的探索,本质上就是通过规则供给重塑数字空间秩序的过程。国家网信办等七部门联合印发的《生成式人工智能服务管理暂行办法》将“生成式人工智能服务提供者”明确为维护网络安全法律责任主体,设定了生成内容标识等具体义务;2026年1月1日,新修订的网络安全法正式生效,将总体国家安全观、数字中国与法治中国建设目标内嵌于人工智能治理的规范框架。面向未来,以法律方式实现人工智能数字空间实时响应、算法正义、数据可信与伦理共识等新的秩序要求,还需进一步明确法律关系、基本原则与可行路径。

  数字空间秩序关涉的法律关系

  人工智能治理的规则本质上是回应技术发展的产物,其没有颠覆法律规范中“主体—客体”的基本逻辑,而是通过功能性拟制、范畴性拓展、风险性预防,建立起一套适应数字空间的规范体系。这套规则超越了单纯用法律术语重新命名数字存在,而是在技术带来的混沌中,创造出一种可以被清晰描述、表达和治理的秩序。

  功能性主体的创设。传统法律主体理论建立在“意志”与“责任能力”基础之上,并以意志作为责任能力的前提。然而,人工智能具有自主学习和决策能力,不同于自然人的生物意志或法人的拟制意志,因此对其治理的重点并非纠结于其是否具有法律主体地位,而在于如何在功能与关系中对其进行法律建构。我国立法设定“生成式人工智能服务提供者”这一新型法律主体身份,目的并非承认人工智能具有独立人格,而是以“责任者身份”先于“人格者身份”的法律设定逻辑,以“谁能够”作为“谁应当”的主要依据。这标志着法律关系的中心从过去由外向内的意志性还原,转向由内向外关注行为控制的功能性考量。

  系统化数字存在的拓展。人工智能技术所依赖的数据流、大模型与系统行为,具有无形、可复制和动态演化的特征,较之于传统客体相对明确的物理形态和边界,更强调系统性:数据价值取决于在模型中的处理以及在平台中的适用;算法输出由用户行为、平台规则、训练模型等共同构成;数字身份在不同平台、场景交互中持续构建和确认。相应地,法律规制也呈现出系统性拓展的特点。例如,在涉及关键性基础设施的重要数据、核心数据时,法律规制超越静态资源价值,也指向国家安全和公共属性;在对算法进行安全评估、备案与透明性解释时,法律审查对象不是表达形式,而是其作为独立表达系统的功能和效果;在规制系统性行为时,法律不限于追究背后自然人或法人的意图,而是更直接着眼于对行为模式的预防,如通过对“深度合成”“自动决策”等场景设定场景标识与合规义务,防止虚假信息传播,为法律客体的行为化和场景化拓展提供规范依据。

  以关系型网络实现系统性风险的控制。无论是法律主体的功能性转向,还是法律客体的数字化系统存在,都从强调个体性与静态性,转向对复杂关系网络与系统性风险的调控。这既是对法律框架的拓展,也是对关键治理要素的回归,更加关注法律关系的构造效果。法律关系需要应对法律事件在时间上并发与循环,因果关系不再单一线性发展而呈网络涌现,法律行为自主生成且与环境交互,法律价值与风险同时出现分层。例如,在人工智能运行所涉及的技术开发者、部署者、平台、用户等多方主体构成的网络中,法律既尊重既有的权责关系,又明确“生成式人工智能服务提供者”这一关键节点,实现通过节点治理网络的治理策略。同时,通过安全可控、防范歧视、保障公平等原则,法律为整个治理网络设定了清晰的价值锚点,引导各方在技术创新与风险防控之间实现动态平衡。

  数字空间秩序法律构建的基本原则

  在人工智能数字空间秩序的法律构建中,安全与发展、权力与透明、责任配置三组规范关系应当遵循何种基本原则,构成了制度设计的重点和难点。

  在安全与发展的关系上,以“安全可控”为原则。长期以来,安全与发展的关系被置于科技伦理与技术治理的对立框架之中:发展侧重效率、创新与竞争优势,体现技术理性;安全侧重风险防控、权利保护与社会稳定,体现规范理性。但在治理实践中,偏重任何一端都将引发系统性失衡。确立“安全可控”作为元价值,本质是通过构建风险可预测、责任可追溯、权利可救济的制度体系,为技术发展提供可持续的合法性基础,使发展目标能够在安全边界内运行。

  在权力与透明的平衡中,以“对算法黑箱进行认知性规制”为原则。算法黑箱造成的知识不对称与权力集中,导致决策难以解释、责任难以认定、权利难以救济等问题。认知性规制并非简单的信息披露义务扩张,而是通过设定可解释性标准、建立审计机制、推动技术接口治理等方式,重塑算法权力的可见性与可问责边界,使公共权力与平台权力在透明框架下接受法治约束,从而避免技术理性对程序正义与实体正义的侵蚀。

  在责任配置方面,以“网络性适配”为原则。人工智能系统的分布式行动特征,使传统以单一主体为中心的责任模式面临失配风险。责任的网络性适配要求将研发者、部署者、运营者、数据提供者以及平台治理者等共同纳入协同责任结构,并借助过错推定、风险责任、合规免责、保险机制等制度工具,实现责任在技术链条中的合理分配与动态调整。这种模式并非弱化责任,而是通过网络化配置提升治理的整体稳定性与激励相容性。

  数字空间秩序法律构建中的张力弥合

  在构建人工智能数字空间的法治秩序时,不仅需要准确把握法律关系的关键要素,确立稳固的基本原则,还必须有效化解多对结构性张力,推动数字空间实现持续健康的发展。

  权威规范与动态技术之间的张力。传统法律规范以既往经验为基础,追求稳定和可预期;而技术发展则以突破为导向,不断推陈出新、快速迭代。为化解这一张力,数字空间治理在注重实体规则完备的同时,也应追求程序机制的敏捷性与适应性。当前,“实验性治理”与“学习型法律”已经通过监管沙盒、标准动态更新、年度影响评估等报告工具得到一定程度的实施。过去人们常用“软法”或者“硬法”来形容和区分治理规则的效力,这是一种平面化或者静态意义上的评价,当下我国人工智能治理规则正通过框架立法、动态标准和持续反馈机制,推动规则体系向具备感知、学习与适应能力的“智能规则体”演进。

  主权边界与全球网络之间的张力。人工智能治理规则的域外适用,反映了国家主权在数字领域的延伸,这是主权国家对管辖范围内数字活动行使最高权威的体现。与此同时,服务器域外部署、开发者身份匿名、分布式网络服务的存在,对以地域管辖权为基础的规则、司法与执行提出新的挑战。国家主权在传统领域强调绝对控制,在数字领域强调规范竞争与协调能力。正如中国通过巨大的数字经济市场吸引跨国企业主动遵循治理规则,促进人工智能监管标准域外拓展,不断扩大合作性共识,逐步推动先进的治理理念转化为普遍标准,并为条约化进行准备,为全球治理提供有效经验。

  统一规范与场景多元之间的张力。法律作为公共产品,必须为社会确立基本的行为预期与价值共识。然而,人工智能在不同应用场景中的风险性质、伦理关切与社会影响差异显著。例如,自动驾驶直接关涉生命安全,需应对瞬息万变的物理环境;而生成式人工智能则更聚焦于知识产权、隐私与意识形态风险。因此,基于场景的差异化规制成为必然选择。调和统一规范与多元场景这对张力,要求治理体系建立一种架构性分层机制,授权监管机构与行业组织根据不同场景的技术逻辑、风险谱系与伦理敏感度,制定相适应的标准、工具与合规路径,在统一法治框架下实现精准、灵活的制度供给。

  以网络安全法的修订为代表的一系列数字空间立法举措,为我国数字空间治理确立了初步的规范基准与制度框架。这些立法并不旨在构建一套封闭的治理体系,而是在坚守安全可控底线的基础上,以足够的制度智慧、伦理自觉与协作精神,推动兼具韧性、公正与活力的数字文明秩序的长期健康发展。

  《光明日报》(2026年02月27日 11版)

[ 责编:王宏泽 ]
阅读剩余全文(