adtopr
ad1
您所在的位置: 首页 > 新闻

新订单12月才能交付!英伟达GPU持续缺货涨价客户“勒紧裤带”节约使用

来源:金融界    发布时间:2023-05-15 13:32   作者:金融界   阅读量:7258   

在持续已久的“AI热潮”中,各家争相推出的大模型、AI应用,都进一步推升了对算力狂热的需求。本周已有报道指出英伟达后续对AI顶级规格芯片需求明显看增,紧急向台积电追加预订先进封装产能。

,有代理商透露,英伟达A100价格从去年12月开始上涨,截至今年4月上半月,其5个月价格累计涨幅达到37.5%;同期A800价格累计涨幅达20.0%。

同时,英伟达GPU交货周期也被拉长,之前拿货周期大约为一个月,现在基本都需要三个月或更长。甚至,部分新订单“可能要到12月才能交付”。

供需的巨大鸿沟面前,在这一情形之下,众多客户也不得不“勒紧腰带”。上述文章指出,国内可用于训练AI大模型的A100大约有4万-5万个,供应相当吃紧,一些云服务厂商已严格限制内部使用这些先进芯片,以将其保留至需要强力运算的任务。

值得一提的是,类似的事情在微软内部也早已发生。3月已有外媒报道指出,微软内部陷入AI服务器硬件短缺的窘境,不得不对AI硬件资源采取“配额供给”机制,限制公司内部其他AI工具开发团队的资源用量。

拉长时间线来看,有GPU业内人士指出,实际上从去年6月起,英伟达就已宣布上调A100价格,涨幅20%左右,渠道商在加紧囤货。至于英伟达A800,在ChatGPT火爆之前就已出现涨价,但反映到市场则有一定的滞后性,赶上ChatGPT爆火这一时间点,更放大了这一现象。

“英伟达GPU涨价与ChatGPT有一定的关联性,且交货周期也受到了连带的影响,导致市场上出现了众多炒卡的行为。”

此外,在海外电商平台上,英伟达新旗舰级GPU H100的价格在4月中旬就已炒到了超过4万美元。

随着如今各家科技巨头争相推出自家大模型,GPU需求量仍在持续攀升。OpenAI指出,AI大模型要持续取得突破,所需要消耗的计算资源每3~4个月就要翻一倍,资金也需要通过指数级增长获得匹配。

据财通证券测算,2023/2024/2025年大模型有望为GPU市场贡献69.88/166.2/209.95亿美元增量。

其中在训练端,以目前主流的训练端GPU英伟达A100测算,假设ASP为1万美元,2023/2024/2025年全球训练端GPU需求市场规模预计分别为0.74/2.00/4.07亿美元;

在推理端,以目前英伟达用于推理端计算的A10测算,假设ASP为2800美元,2023/2024/2025年全球推理端GPU需求市场规模预计分别为69.14/164.2/205.88亿美元。

业内人士也表示,AI大模型训练成本之一是基础算力,大概需要384-3000块左右的A100才能基本满足要求,如果价格持续上涨,无论是互联网、AI大厂、还是创业新贵,要追加的投入都可能远超当初。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。