智幻时刻Fungimind发于上海—7月27日,在上海世博中心的会场里,来自欧盟、联合国、韩国、美国及中国的立法者、政策顾问和企业高管,正在围绕一个议题展开讨论:当生成式人工智能和智能体系统以月为单位迭代,立法者和监管体系还可以做些什么?
这场由司法部指导,中国政法大学和联合国教科文组织联合主办的“人工智能规则全球对话与协同发展”论坛,邀请到了中华人民共和国司法部副部长武增、上海市副市长、市公安局局长张亚宏、阿尔及利亚知识经济、初创和微型企业部长努尔丁·瓦多赫、联合国秘书长数字与新兴技术特使办公室成员,以及来自国际标准化组织等十余个国家和地区的近200名国际组织负责人、业界领袖、政府部门代表、学术机构代表及专家学者参加。
论坛同步发布了两项重要成果:由中国政法大学教授张凌寒牵头的“全球人工智能治理规则地图2025”和“全球人工智能治理规则研究协作平台”。
前者以可视化方式呈现全球218个经济体的AI治理规则现状,后者汇聚哈佛大学、纽约大学、南安普顿大学等国际知名院校专家,在各大洲建立研究节点,以为破解全球AI治理碎片化困局提供具体的解决方案。
与惯常的政策致辞不同,这场论坛的议题涵盖欧盟AI法案的实施困境、亚洲的AI监管路线、中国的司法实践,以及企业自身的合规探索。
来自不同地区的立法者对现实的挑战直言不讳,欧盟AI法案的起草人Gabriele Mazzini向台下的各国政策制定者坦承了一个事实:他们花费三年时间精心设计的监管框架,曾在ChatGPT横空出世后几乎全盘重构。“我们原本以为AI就是那些传统的应用场景,”这位来自布鲁塞尔的立法专家说道,”但ChatGPT改变了一切。”
当生成式人工智能在短短两年内从实验室走向大规模商业应用,AI治理也正从传统的技术适应论走向动态发展,而这一转变也正在重新定义全球科技治理的基本逻辑。

碎片化困局与立法赛跑
据论坛发布显示,虽然人工智能技术已经逐渐扩散到社会各个垂直行业和领域之中,但目前只有116个国家制定了可公开获取的治理规则信息,其中仅50多个国家制定了专门的AI治理规则。
研究团队获取的1622条全球AI治理规则动态显示,大部分国家依赖区域组织或国际组织的规则成果,缺乏针对本国实际情况的具体制度设计。
这种碎片化的深层原因之一,是技术发展太快,新应用层出不穷。该困境在欧盟人工智能法的立法中已经有所体现。
“治理体系的复杂性呈指数级增长,”Mazzini表示,“目前在布鲁塞尔已经有人提出暂停实施的建议,理由是现有的执行机构难以承担这样的制度负担。” 他指出,法案的快速扩展虽增强了覆盖面,但也放大了执行难度与法律重叠问题。
各国的监管策略呈现显著差异。韩国个人信息保护部公私联合委员会数据处理标准小组主席金炳弼表示,韩国AI法的“轻监管”取向源于竞争焦虑:“中国拥有强大的人力资源和投资,韩国担心会落后。”
在这种考量下,韩国选择了“半软法”模式——虽然设置了高影响AI、生成式AI、一般AI三类系统分类,但“只有5项强制性法律义务,最高罚款仅约2万美元”。
美国的情况也同样复杂。特朗普政府上台后,移除了前任政府AI政策中的"多样性、公平性和包容性"要求,以及气候变化考量。斯坦福大学国际安全与合作中心讲师魏光明指出,过度强调AI创新确实可能损害其他利益:“我们已经看到对知识产权的损害、环境问题,以及对社会公平原则的冲击。”
中国科学院自动化所研究员曾毅提供了量化研究的观点支撑。他对全球40个国家AI治理状况的评估显示,各国在不同维度上的表现差异巨大,而且大模型安全性并未随技术进步而显著提升:“即使是上个月发布的大语言模型,相比三个月前的版本也没有显著更安全。” 这一发现进一步证明了持续监管和国际协调的必要性。
曾毅同时通过分析联合国可持续发展目标相关的AI科学论文发现,研究主要集中在工业创新领域,但在性别平等、生物多样性保护等重要议题上贡献不足。这种失衡反映了当前AI发展仍然缺乏价值引导,也说明了全球协作在价值对齐方面的重要性。
这种全球治理分化的根本原因在于技术发展速度与立法周期的根本性不匹配。当技术迭代以月计算,而立法周期以年计算时,传统的先发展后规范模式已经失效。

中国样本
在这种全球治理碎片化的背景下,中国产业界和政策制定者也在积极寻找自己的AI立法实践。 司法部副部长武增在开幕致辞中表达了中国的愿景:“让AI更好服务经济社会发展,让技术创新造福全人类。”
而如何实现这个目标,仍然是摆在所有人面前的开放性问题。
中央网信办网络法治局副局长唐磊在论坛上详细阐述了中国方案:不是等待技术成熟后再立法,而是在技术发展过程中同步构建制度框架。
这种伴随式立法已经形成了相对完整的制度体系,从基础层面的网络安全法、数据安全法、个人信息保护法,到应用层面的汽车数据安全管理规定,再到前沿技术的专门立法,特别是在技术前沿领域的突破:
2021年的《互联网信息服务算法推荐管理规定》成为全球首部针对算法管理的专门立法;2022年的《互联网信息服务深度合成规定》针对深度伪造问题压实平台责任;2023年7月的《生成式人工智能服务管理暂行办法》则是针对生成式人工智能的专门规定。
截至2025年6月,400余款生成式AI服务完成备案,180余款服务登记。这些数字背后体现的治理逻辑是通过制度设计引导技术发展方向,而不是被动适应技术既成事实。
蚂蚁集团的实践提供了另一个视角。蚂蚁集团资深副总裁周志峰表示,“人类从来没有因为技术的不确定性而停下脚步,”他引用蒸汽机时代的故事说,”当时也有卢德分子破坏机器,但最终通过工厂法实现了机器与工人的协同。”
虽然有专家认为法律应该管理技术,但律师出身的周志峰认为,技术同样也是治理的工具和手段。他以深度伪造检测为例说明,传统的禁止性规范在面对AI技术时往往无效:“去年在某东南亚国家,70%的线上开户护照都是AI伪造的,哪怕通过视频验证也难以辨别,只能通过技术手段来解决技术问题。”
周志峰透露,蚂蚁集团在大模型研发中投入20%人员进行安全工具开发,“在对抗深度伪造方面达到99%以上成功率”。这实际上体现了一种新的监管模式:将法律要求直接嵌入技术系统,通过技术手段实现合规目标。
数字法学的挑战与全球协作的起点
有趣的是,技术治理本身就是一个研究焦点。就在3个多月前,张凌寒曾在《第三届法学学术批评与学术创新论坛》上发表了一篇名为《如何看待数字法学的”泡沫”?》的主旨发言。
“没有解决现实问题能力的法学,不是真正的法学。” 她谈道,“在参与人工智能国际和国内治理的工作实践中,我确实非常焦虑,明显感受到法学正在被迅猛地边缘化。在解决技术带来的问题风险的过程中,法学专家并不像技术专家那样具有优势,技术专家正在更直接地从代码层面解决安全问题、伦理问题和隐私问题。”

面对技术发展与监管分化的双重挑战,论坛发布的两项成果为构建新的全球治理基础设施提供了具体尝试。
由张凌寒牵头的“全球人工智能治理规则地图2025”,将218个经济体的规则以可视化形式呈现,支持中英双语和跨法域检索,平均72小时更新一次新规。
另一项“全球AI治理规则研究协作平台”,则为解决知识生产碎片化问题提供了创新方案。该平台汇聚了提出“代码即法律”的哈佛大学法学院资深教授劳伦斯·莱斯格、纽约大学斯特恩商学院教授等国际顶尖学者,覆盖欧美、亚太、北非、拉美等多区域,以搭建全球研究网络。
两者被与会专家形容为“全球AI治理的操作系统”,希望在分化的制度环境中,降低跨国对话的成本。
可以看出,尽管全球立法者在监管路径上存在分歧,但共识也很显著:如今,关于监管AI的争论焦点已不在于“是否监管”,而是“如何监管”。欧盟的复杂框架、韩国的轻量化路径、中国的伴随式立法、企业的技术治理,以及学术界的反思,构成了全球AI治理现阶段的多重拼图。
正如2024年诺贝尔奖获得者Geoffrey Hinton在开幕式上形容AI是“一只正在长大的小老虎”一样,而立法者的工作,是确保它成长为可控的力量。
当代表们离开上海世博中心时,五分钟路程的展览馆中正在展示各种模型类新产品和具身机器人的新技术。但事实上,在27日这间会议室里进行的对话,和技术一样都将决定人类社会的未来。
毕竟,技术的力量最终要服务于人类的选择,而这种选择需要的不仅是智慧,也需要合作。在这场技术与法的赛跑中,没有人能够独自获胜。
智幻时刻是一个年轻的科技人文研究品牌。我们重点关心技术扩散中对社会以及人群的影响,并提供全球科技政策和立法的解读、以及技术哲学脉络的梳理。欢迎各位科技人文主义者们和我们一起围绕技术的“社会性”展开研究和对话。