生活网 2月2日 消息:社交媒体巨头 meta 计划于今年在其数据中心部署一款定制的第二代 AI 芯片,代码名为 "Artemis"。
据路透社报道,新芯片将用于 meta 的数据中心中的 "推断",即运行 AI 模型的过程。该举措的目标是减少对 Nvidia 芯片的依赖,并控制 AI 工作负载的成本。此外,meta 还在其服务中提供生成式 AI 应用,并正在训练名为 Llama3的开源模型,旨在达到 GPT-4的水平。
图源备注:图片由AI生成,图片授权服务商Midjourney
meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 Nvidia H100GPU,总共约有60万个 GPU 用于运行和训练 AI 系统。这使得 meta 成为 Nvidia 除微软外最大的公开客户。然而,随着更强大和更大规模的模型,AI 工作负载和成本不断增加。除了 meta 外,OpenAI 和微软等公司也试图通过专有 AI 芯片和更高效的模型来打破这种成本螺旋。
在2023年5月,meta 首次推出了名为 meta Training and Inference Accelerator(MTIA)的新芯片系列,旨在加速并降低运行神经网络的成本。据官方公告,第一款芯片预计将在2025年投入使用,并在当时已在 meta 的数据中心进行测试。据路透社报道,Artemis 已经是 MTIA 的更高级版本。
meta 的这一举措表明他们希望通过自家 AI 芯片的部署来降低对 Nvidia 芯片的依赖,以及控制 AI 工作负载的成本。他们计划在今年将 Artemis 芯片投入生产,并表示:"我们认为我们自主开发的加速器与市面上可购买的 GPU 在 meta 特定工作负载上提供了性能和效率的最佳组合。" 这一举措将为 meta 带来更大的灵活性和自主性,同时也有望降低 AI 工作负载的成本。