谷歌DeepMind首席执行官德米斯·哈萨比斯近日公开表示,将现有AI模型的规模扩展至极限是实现通用人工智能(AGI)的核心路径。这位凭借Gemini 3模型引发行业关注的科学家认为,单纯依靠扩大模型参数、增加训练数据和计算资源,可能成为构建AGI的关键组成部分,甚至直接构成完整系统。但他同时指出,完全依赖规模定律或许存在局限性,最终可能需要一到两次技术突破才能彻底突破瓶颈。
规模定律作为机器学习领域的核心原则,描述了模型性能与规模、数据量及算力之间的量化关系。其通俗理解可概括为:参数规模越大、训练数据越丰富、计算时间越长,模型智能水平越高。这一经验性规律已成为当前大模型研发的核心依据,全球顶尖科技公司均围绕其展开技术竞赛。但哈萨比斯承认,该路径面临现实挑战——公开可用数据总量存在天然上限,持续增加算力不仅推高训练成本,还会加剧能源消耗与碳排放问题。
行业内部对此存在显著分歧。前meta首席AI科学家杨立昆(Yann LeCun)公开质疑规模定律的普适性。他在新加坡国立大学演讲时强调,多数复杂问题无法通过单纯堆砌数据和算力解决,例如需要理解物理世界的场景。这位近期离职创业的学者透露,其新项目将聚焦构建"世界模型",通过空间数据而非语言数据训练AI,试图开辟区别于大语言模型的技术路线。
当前AI领域对AGI的探索呈现两条并行路径:一条延续规模定律,通过持续扩大模型边界逼近人类智能;另一条则试图突破现有框架,寻找更高效的认知架构。哈萨比斯代表的第一阵营认为,现有技术路线尚未触及理论极限,而杨立昆等学者则警告过度依赖规模可能导致资源错配。这场争论折射出AI发展进入深水区后的战略选择困境——在算力竞赛与范式革新之间,行业尚未形成共识性方向。










