5月6日,2026全球数字合作交流会暨全球数据周 Tech Week Shanghai(以下简称全球数据周)在上海举办。联合国大学全球人工智能网络理事会联席主席、上海交通大学人文社科资深教授季卫东表示,“概率的世界不可能通往意义的世界。技术可以解决一部分安全问题,但有些东西,机器真的做不了。”

联合国大学全球人工智能网络理事会联席主席、上海交通大学人文社科资深教授季卫东
谈及AI发展速度与安全的不平衡,季卫东引用了AI领域权威专家杰弗里·辛顿(Geoffrey Hinton)的警告:“不受监管的AI就是一辆没有方向盘的高速跑车,全球只有1%的AI研究在做安全。”季卫东告诉记者,2024年,中国召集国际专家和企业界领袖一起呼吁将AI研发预算的1/3投入安全领域。面对外界“不切实际”的质疑,季卫东认为这恰恰展现了中国治理的技术性思路:“这并非增加企业负担,反而会开拓一片技术蓝海市场。因为防范风险的技术开发本身,就是产业的一部分。”他指出,通过机器检测等技术手段让合规可以通过“智能合约”自动化执行,能让科技企业从抵触转向拥抱。
治理困境:再聪明的AI,也算不出对错
当前智能体(AI Agent)发展迅猛,它们能跨系统调用数据,可能做出超出代码设计的举动,引发“人格蒸馏”等复杂问题。对此,季卫东态度审慎。他认为,尽管可以技术性检测评价、算法审计进行智能体行为监管,但在维护系统间互操作公正方面还需要程序正义原则的指引,需要人类的监督和干预,机器和大模型都有其根本局限。“概率的世界不可能通往意义的世界,价值判断的问题只能靠人自己。”
今天的大模型和智能体,本质上都是在做一件事——在海量数据里计算概率,猜出最有可能的那个答案。它能写诗,是因为算出这几个字挨在一起概率最高;它能对话,是因为推演出下一句话最可能的排列组合。但是机器没有人的心灵,没有直觉、感情以及意志。
而“意义的世界”则完全是另一回事。什么是公平?什么是善意?什么是对错?这些价值判断不是概率可以计算出来的。机器可以算出怎么做最安全,但算不出怎么做才更对。
面对AI带来的深刻变革和范式创新,面对综合性人工智能立法的诉求,季卫东呼吁保持历史耐心。他强调,AI治理必然是一个先制定特殊法律、再根据技术和情况不断修改、最终形成法规群的漫长过程。要注意的是人工智能会同时破坏市场经济赖以为生的知识产权体制和金融信用体系,这是一个复杂悖论,如何在不妨碍科技进步的情况下确保安全,需要动态平衡。
数据出海:“三位一体,三权分立”
对于如何协同推进数据合规出海与跨国互认,季卫东提出了“三位一体,三权分立”的模式。即政府、企业和国际组织通力合作,但权限分明:政府负责提供法规、标准与“硬法托底”;企业加强安全技术创新,将合规举措技术化落地;国际组织则负责协调不同规则、进行数字素养培训。
针对备受关注的AI Agent数据互认问题,季卫东坦承,智能体的跨系统特性使得数据调动更加自动化,也带来了新的痛点。在人工智能具有身体性后,感受性和弹性都增大了。“智能体之间需要通过模型上下文协议、数据协议等方式来互认,因为涉及不同标准,确实有一定难度。”
他指出,目前推进的基本路径是以智能体之间的网络协议的方式逐步摸索,例如签署跨系统协议来实现互认。同时,个人和平台的知情同意原则是基础。在法律层面,则需要明确不能越界的规则,通过规范来划定边界。“无论是上海在长三角的数据合作机制,还是与中国香港、新加坡的数字身份认证制度和数据要素市场合作,都是很好的试点。通过这些渠道逐步延伸,有望与更多国家达成共识。”季卫东表示,数据互认刚刚起步,问题很多,需要在经验摸索的基础上,逐步形成合理的模式。
文、图/广州日报新花城记者:陈庆辉
广州日报新花城编辑:麦晓颖