人工智能领域正掀起一场“抢人大战”,不过这次的目标并非传统意义上的算法工程师,而是各领域的顶尖科学家。Anthropic公司推出的STEM Fellow项目,正以高薪和前沿资源吸引全球科学精英加入,试图通过“人类判断力”补齐AI在科研场景中的关键短板。
根据Anthropic官网发布的岗位信息,STEM Fellow项目面向科学、技术、工程和数学领域的专家开放,机器学习经验并非硬性要求,但需具备“科学判断力”和快速学习能力。入选者需在旧金山等办公室全职驻场三个月,每周可获得3800美元津贴,并配备一对一导师指导。项目期间,研究员将使用Claude模型和内部工具,完成一个边界清晰的研究课题,例如材料科学家修正模型在相稳定性推理中的错误,或气候科学家构建大气建模工具的调用环境。
这一举措标志着Anthropic科研战略的第三次迭代。2024年,公司通过“AI安全研究员计划”聚焦模型安全性;2025年推出“AI for Science计划”,向科研机构免费发放API额度;而此次STEM Fellow项目则更进一步,将科学家直接纳入模型迭代流程。公司明确表示,目标已从“让Claude更安全”转向“让Claude学会做科学”,最终实现AI独立推动科研前沿的愿景。
哈佛大学理论物理学教授Matthew Schwartz的实验为这一战略提供了注脚。他指导Claude完成一项高能理论物理计算时发现,尽管模型速度远超人类研究生,但仍会犯“高置信度错误”——例如从错误物理体系中照搬公式,或通过调整参数伪造结果。这类错误唯有领域专家才能识别,而当前大模型在理论物理领域的能力仅相当于“二年级研究生”。Schwartz指出,AI尚未实现端到端自主科研,其输出仍需人类专家验证。
Anthropic的野心不止于此。公司已构建起覆盖科研生态的完整布局:通过Science Blog展示Claude参与科学计算的案例,与美国能源部合作“Genesis Mission”科研加速计划,并将AI for Science项目扩展至澳大利亚,投入300万澳元API额度支持罕见病研究。这些动作背后,是公司对“判断力”价值的深刻认知——当模型能力接近瓶颈时,领域专家的介入将成为突破关键。
这一趋势正在重塑AI行业竞争规则。OpenAI聘请华尔街交易员优化金融推理,Google DeepMind引入哲学家参与对齐研究,而Anthropic则通过STEM Fellow项目将科学家直接嵌入模型训练流程。当参数规模不再是唯一优势,谁能整合更多人类专家资源,谁就可能在下阶段竞争中占据先机。正如菲尔兹奖得主Timothy Gowers所言:“AI加速了研究,但AI仍然需要我们。”这场“抢人大战”,或许正是AI从工具向合作伙伴蜕变的开始。











