​Meta 计划于今年部署自家 AI 芯片,减少对 Nvidia GPU 的依赖

2月2日讯 社交媒体巨头 Meta 计划于今年在其数据中心部署一款定制的第二代 AI 芯片,代码名为 “Artemis”。

据路透社报道,新芯片将用于 Meta 的数据中心中的 “推断”,即运行 AI 模型的过程。该举措的目标是减少对 Nvidia 芯片的依赖,并控制 AI 工作负载的成本。此外,Meta 还在其服务中提供生成式 AI 应用,并正在训练名为 Llama3的开源模型,旨在达到 GPT-4的水平。

​Meta 计划于今年部署自家 AI 芯片,减少对 Nvidia GPU 的依赖

Meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 Nvidia H100GPU,总共约有60万个 GPU 用于运行和训练 AI 系统。这使得 Meta 成为 Nvidia 除微软外最大的公开客户。然而,随着更强大和更大规模的模型,AI 工作负载和成本不断增加。除了 Meta 外,OpenAI 和微软等公司也试图通过专有 AI 芯片和更高效的模型来打破这种成本螺旋。

在2023年5月,Meta 首次推出了名为 Meta Training and Inference Accelerator(MTIA)的新芯片系列,旨在加速并降低运行神经网络的成本。据官方公告,第一款芯片预计将在2025年投入使用,并在当时已在 Meta 的数据中心进行测试。据路透社报道,Artemis 已经是 MTIA 的更高级版本。

Meta 的这一举措表明他们希望通过自家 AI 芯片的部署来降低对 Nvidia 芯片的依赖,以及控制 AI 工作负载的成本。他们计划在今年将 Artemis 芯片投入生产,并表示:”我们认为我们自主开发的加速器与市面上可购买的 GPU 在 Meta 特定工作负载上提供了性能和效率的最佳组合。” 这一举措将为 Meta 带来更大的灵活性和自主性,同时也有望降低 AI 工作负载的成本。

声明:魔果智讯倡导尊重与保护知识产权。如发现本站文章存在版权等问题,烦请30天内提供版权疑问、身份证明、版权证明、联系方式等发邮件至moguoai@yeah.net!我们将及时沟通与处理。
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索