Alphabet 旗下 Google 部门于周三发布两款专用人工智能处理器,这是其张量处理器架构首次被分拆为专门用于训练与推理运算的独立芯片。
TPU 8t 专为 AI 模型训练而设计,而其对应产品 TPU 8i 则专注于推理——即将已训练模型部署于实际应用场景的过程。Broadcom 担任联合开发合作伙伴,延续了双方长达十年以上的合作关系。
Alphabet Inc., GOOGL
这标志着与以往方案的战略性转变。早期的 TPU 版本将训练与推理功能整合于单一处理器中。Google 将此次转变归因于智能体 AI 系统的兴起——这类自主模型在几乎无需人工监督的情况下持续运行于反馈循环中——因此需要更具针对性的专用芯片。
以推理为导向的 TPU 8i 每颗处理器搭载 384 兆字节 SRAM,是 Ironwood 容量的三倍。Google 表示,这一架构改进消除了"等待室"瓶颈,降低了多名用户同时查询模型时出现的延迟峰值。
与 Ironwood 相比,TPU 8i 的成本效益提升 80%。以实际运营而言,机构可在不增加预算的情况下承载近两倍的用户需求。
该芯片还展示出每瓦能效最高提升 2 倍的表现,这得益于动态电源管理技术,可根据实时工作负载需求调节能耗。
两款处理器首次采用 Google 的 Axion CPU 作为主处理器,使优化工作能够在系统架构层面进行,而非局限于单颗芯片的性能提升。
在训练能力方面,TPU 8t 超级节点配置支持最多 9,600 颗处理器的集群,并配备 2 拍字节的高带宽内存。这代表芯片间通信带宽是 Ironwood 的两倍,Google 声称可将前沿模型的开发周期从数月压缩至数周。
该训练处理器在同等价位下,运算性能是第七代 Ironwood 架构的 2.8 倍。
早期采用势头正在加速。Citadel Securities 利用 Google 的 TPU 基础设施开发量化研究平台。美国能源部旗下全部十七个国家实验室均在该处理器上运行 AI 协作科学家应用。Anthropic 已承诺使用数千兆瓦的 Google TPU 算力。
DA Davidson 的分析师于九月预测,Google 的 TPU 部门与 Google DeepMind 合并后,估值或将接近 9,000 亿美元。
Google 对 TPU 采用独家分发模式——不提供直接购买渠道,仅可通过 Google Cloud 服务访问。Nvidia 持续向 Google 供应 GPU 硬件,该公司亦确认将成为首批在 Nvidia 即将推出的 Vera Rubin 平台上线时提供该平台的云服务商之一。
这两款处理器与 Google DeepMind 紧密合作开发,后者已将其用于训练 Gemini 语言模型,并优化驱动 Search 与 YouTube 平台的算法。
Google 宣布,TPU 8t 与 TPU 8i 将于 2025 年稍后向云平台客户正式开放。
The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.

