AI算力的能源危机
随着生成式AI应用的蓬勃发展,深度学习模型的规模与复杂度不断攀升,对算力与能效提出前所未有的挑战。2024年,全球资料中心的用电量已占全世界电力消耗的约4%,其中AI训练与推理便贡献了近三分之一。以OpenAI训练GPT 4为例,其能源消耗相当於1,200辆汽车行驶一年所排放的碳排放量;而Google内部评估若不针对TPU做能效优化,其AI业务在五年内就可能触及电网的承载上限。
面对这场能源危机,半导体产业必须重新定义「效能」:不再仅以每秒浮点运算次数(FLOPS)比较,而以每瓦特浮点运算(FLOPS/W)为核心指标。本文将从制程微缩、先进封装、架构革新三个维度,深入剖析xPU的节能技术路线,并展??量子计算与光子晶片的潜在颠覆。
...
...
另一名雇主 |
限られたニュース |
文章閱讀限制 |
出版品優惠 |
一般使用者 |
10/ごとに 30 日間 |
0/ごとに 30 日間 |
付费下载 |
VIP会员 |
无限制 |
25/ごとに 30 日間 |
付费下载 |