两家公司本周都推出了新的生成AI工具,用户蜂拥而至。
Google和Openai本周推出的新生成AI(Genai)模型使这些公司的数据中心受到压力 - 两家公司都试图赶上需求。
Openai的首席执行官Sam Altman周四发推文说,他的公司在对Chatgpt上的图像生成服务的需求压倒性需求之后暂时限制了GPU的使用。
此举是在Openai之后的一天发生的引入了4O图像生成工具。 “看到人们喜欢Chatgpt中的图像真是太有趣了。但是我们的GPU融化了,” Altman在X上的帖子中写了。
Openai主要依靠NVIDIA GPU来为其Chatgpt服务提供动力,并且过去遇到了AI基础设施不堪重负的问题。 Altman表示,OpenAI将引入速率限制(限制了在GPU上使用AI的使用),直到系统提高效率为止。
同样,Google也正在处理对其的需求激增双子座2.5你有模型, 哪个。
“我们目前正在看到对Gemini 2.5 Pro的大量需求,并且激光器专注于尽快将更高的利率限制掌握在开发人员的手中,” Google AI工作室开发人员工具的产品负责人Logan Kilpatrick,在X上的帖子中说。
Google已在本土TPU(张量处理单元)上建立了其AI基础架构 - 定制芯片调整为运行双子座。 TPU与GPU不同,GPU可以运行各种AI,图形和科学应用。
Tirias Research的首席分析师Jim McGregor说,需求飙升的问题提醒人们,以确保稳定的计算能力以防止AI的下降。他说:“转向图像,视频,代理……,它将推动对可预见的未来对更多AI计算资源的需求。”
Openai和Google被个人和企业广泛使用。分析师说,通常,硬件需要时间才能有效地操作新的AI软件,而意外的中断会影响公司的生产力。
半导体咨询公司半分析的创始人迪伦·帕特尔(Dylan Patel)表示,开放型新车型始终存在容量问题。帕特尔说:“对人工智能的需求是无法满足的。”
Technalsys的首席分析师Bob O'Donnell说,OpenAI的图像创建工具比文本创建更为密集,它也需要GPU的更多计算能力。他说:“那只是经典的系统超载。”
NVIDIA的GPU消耗大量功率,如果超载或过热,则可以降低性能。 GPU还在较低的温度下运行,这会影响性能。
多伦多公司首席执行官Gennady Pekhimenko表示,CentML在NVIDIA GPU上提供了AI服务,尤其是在支持新车型的情况下经历了很大的需求。
该公司在开始服务后的头几天内看到了注册的激增,今年早些时候发布。
CentML制定了保证在服务级协议的一部分的计划,预留实例和保证的产出计划。
多伦多大学计算机科学副教授佩基门科说,Openai可以做很多事情来赶上需求,包括减少模型的规模或优化代码。
对于某些商业用例,(LLMS)Openai和Google Gemini使用的可能太重了; Pekhimenko说,较小或开源的语言模型需要更少的计算资源,而且成本较低的模型就足够了。
Pekhimenko说,企业还可以从不同的公司购买Genai计算能力,该计算能力为行业庞然大物提供了防止停机时间的保护。
也是Centml提供了从Majr云供应商那里获得计算能力的选项。但是,与往年不同的几年,GPU短缺的AI缩放量不足,没有计算能力。
Altman对GPU的“燃烧”的令人回味的看法可能是促进新图像产生模型的一种方式。佩基门科说:“大概[Openai]也喜欢在它周围产生更多的炒作。因此,他们试图以这种方式构图。”
主要的云提供商正在新的数据中心投资数十亿美元,以跟上不断增长的需求。美国总统唐纳德·J·特朗普(Donald J. Trump)最近吹捧了5000亿美元的私营部门投资,以从OpenAI,Softbank和Oracle等公司建立AI基础设施。
订阅我们的新闻通讯
从我们的编辑直接到您的收件箱
通过在下面输入您的电子邮件地址开始。