生成式AI驱动的模型规模与复杂度急遽上升,正迫使晶片架构以远超摩尔定律的速度进化。在这场硬体竞赛中,NVIDIA、AMD、Google等科技巨头纷纷推出「算力核弹级」晶片,并在效能、功耗与生态系三大战场上展开正面交锋。
2023年,ChatGPT在短短五天内突破亿级用户,彻底改写科技与应用场景的版图。背後支撑其运行的GPT-4模型,不仅需动用约1.7万颗GPU,耗电量更高达50GWh,相当於3.6万户家庭全年的用电需求。而最新的Sora影片生成模型,其单次训练成本更被传已突破5亿美元,堪称「算力黑洞」的代表。

图一 : ChatGPT需耗用大量的GPU运算资源。 |
|
生成式AI驱动的模型规模与复杂度急遽上升,正迫使晶片架构以远超摩尔定律的速度进化。在这场硬体竞赛中,NVIDIA、AMD、Google等科技巨头纷纷推出「算力核弹级」晶片,并在效能、功耗与生态系三大战场上展开正面交锋。OpenAI执行长Sam Altman更喊出募资7兆美元自建晶片厂,预示这场竞赛不仅将改写AI产业的格局,更可能重塑整个半导体生态。
...
...
另一名雇主 |
限られたニュース |
文章閱讀限制 |
出版品優惠 |
一般使用者 |
10/ごとに 30 日間 |
0/ごとに 30 日間 |
付费下载 |
VIP会员 |
无限制 |
25/ごとに 30 日間 |
付费下载 |