【发现者网】11月16日消息,微软在美国时间周三发布了首款自研人工智能(AI)芯片,标志着该公司在AI领域迈出了重要一步。这款新芯片将有望摆脱对英伟达昂贵芯片的依赖,为Azure数据中心提供更灵活的选择。
微软的新产品包括Azure Maia AI芯片和Arm架构的Azure Cobalt CPU,计划于2024年上市。当前,英伟达的H100 GPU在市场上需求激增,价格甚至在eBay上超过了4万美元。微软希望通过推出自家芯片,有效降低人工智能的成本,提供更经济实惠的解决方案。
微软硬件系统和基础设施主管拉尼·博卡在接受采访时表示:“微软在芯片开发方面有着悠久的历史,早在20多年前,我们就与人合作开发了Xbox的芯片,这些努力都是建立在这些经验基础之上的。”他指出,微软自2017年开始构建云硬件堆栈,并在今年推出了这两款自研芯片,目的是重新构想人工智能时代的云基础设施。
Azure Cobalt CPU是一款128核芯片,基于Arm的Neoverse CSS设计,旨在为Azure上的通用云服务提供支持。博卡表示:“我们花了很多心思,不仅要让它具有高性能,还要注意到电源管理。为此我们做了许多有意识的设计选择,包括控制每个内核和每台虚拟机上性能和功耗的能力。”
而Azure Maia AI芯片专为运行云端人工智能工作负载而设计,如大语言模型训练和推理。该芯片将支持微软在Azure上的一些最大的人工智能工作负载,包括与OpenAI高达100多亿美元的合作。微软与OpenAI在Maia的设计和测试方面进行合作,共同努力提升芯片性能。
据发现者网了解,Maia 100目前正在GPT 3.5 Turbo上进行测试,该模型正在支持ChatGPT、Bing AI和GitHub Copilot等工具。微软正处于Cobalt CPU的工作负载测试阶段,计划明年为客户提供各种工作负载的虚拟机。
微软在人工智能领域的投入不仅体现在硬件芯片上,还包括参与制定人工智能模型的下一代数据格式的标准。微软正以开放计算项目(OCP)的协作为基础,使整个系统适应人工智能的需求,并与多家公司合作,包括AMD、Arm、英特尔、meta、英伟达和高通等。
微软强调Maia和Cobalt的发布不是为了与合作伙伴竞争,而是为了提供更多选择。博卡表示:“在云计算运营的规模下,优化和整合堆栈的每一层,以最大限度地提高性能,使供应链多样化,并为我们的客户提供基础设施选择,这真的非常重要。”
新的自研芯片对于微软来说至关重要,不仅可以提高性能,还可以加速人工智能服务器的部署速度,降低运营成本。微软的Maia芯片是该公司的第一个完整的液冷服务器处理器,为更高效的服务器密度提供了可能性。
尽管微软目前未透露Maia和Cobalt的具体规格和性能基准,但博卡透露,初步测试表明与商用Arm服务器相比,性能提高了40%。这显示微软在自研芯片的研发上取得了一定的成就。
在人工智能云服务领域,微软还在谨慎探索定价策略。尽管尚未公布新服务器的定价,但微软已经推出了针对Microsoft 365的Copilot,并在本周对Bing Chat进行了品牌重塑。这显示微软正在积极满足市场对支持新体验的人工智能芯片的需求。
总体而言,微软在人工智能领域的自研芯片发布,标志着该公司对未来技术发展的持续投入和努力,为行业创新注入了新的活力。