正式发布新款芯片Maia 200,该公司称这款芯片是为 AI 推理规模化部署打造的高性能核心算力芯片。
作为 2023 年推出的Maia 100的升级款,微软表示,Maia 200 在技术上实现了升级,能够以更快的速度、更高的能效运行高性能 AI 模型。这款芯片集成超 1000 亿个晶体管,4 比特精度下的算力可达 10 petaflops 以上,8 比特精度算力约 5 petaflops,相较上一代产品实现大幅提升。
AI 推理指运行已训练完成模型的计算过程,与模型训练所需的计算过程不同。随着人工智能企业的发展走向成熟,推理成本在企业整体运营成本中的占比持续提升,也让行业重新聚焦于推理流程的优化方案。
微软希望 Maia 200 能成为推动这一优化的关键产品,助力 AI 企业实现更稳定的业务运行与更低的能耗。微软表示:“实际应用中,单节点 Maia 200 可轻松运行当前规模最大的 AI 模型,且为未来更大规模的模型运算预留了充足的算力空间。”
当前科技巨头纷纷自研芯片,以此降低对英伟达的依赖 —— 英伟达的前沿图形处理器(GPU)已成为人工智能企业发展的核心算力支撑,微软这款新芯片的推出,正是这一趋势的体现。例如,推出了张量处理单元(TPU),该产品并非以芯片形式对外销售,而是通过谷歌云平台以算力服务的形式开放;电商巨头则拥有自研 AI 加速芯片 Trainium,其最新款 Trainium3 已于去年 12 月发布。这些自研芯片均可承接原本由英伟达 GPU 承担的部分计算任务,从而降低企业的整体硬件成本。
这款芯片采用 3 纳米制程工艺,每台服务器内集成四颗芯片,通过以太网电缆实现连接,而非 InfiniBand 高速互联标准。英伟达在 2020 年收购迈络思后,便开始推出 InfiniBand 交换机产品。
格斯里在博客中写道,同等价格下,Maia 200 的性能较同类产品高出 30%。微软表示,单颗 Maia 200 搭载的高带宽内存,容量超过亚马逊云科技第三代 Trainium AI 芯片和谷歌第七代张量处理单元。
格斯里还指出,微软可将多达 6144 颗 Maia 200 芯片组网联动,在实现高性能算力的同时,降低能耗与整体拥有成本。
微软透露,Maia 系列芯片已投入实际应用,为该公司超智能团队的各类 AI 模型提供算力支持,同时也为旗下聊天机器人 Copilot 的日常运营提供技术支撑。截至 1 月 26 日,微软已邀请开发者、科研学者以及前沿人工智能实验室等多方主体,在其业务算力负载中试用 Maia 200 软件开发工具包(SDK)。




还没有评论,来说两句吧...