在生成式ai领域,推出了chatgpt的openai是处于领先地位的,他们的gpt-4已经是万亿参数级别,还在训练更先进的gpt-5,届时又会在技术水平上甩开国内的追赶者。
openai能够领先,先进ai显卡用到的gpu是功不可没的,背靠微软这棵大树,他们在算力资源上不会受到限制,gpt-4的训练就使用了2万张nvidia的ai显卡训练。
但是万张显卡级别的算力还不是终点,今年也投身ai创业的前搜狗ceo王小川日前在采访中透露了openai的动向,提到后者正在做更先进的训练方法,设计能够将1000万张gpu连在一起的计算模型。
1000万张gpu是什么概念?目前nvidia每年的产量也就是100万块gpu(应该主要是指ai方面的gpu),openai的规模相当于10倍于nvidia年产能的水平。
王小川称openai的1000万张gpu算力的目标是登月级别的计划,显然认为它很伟大。
不说这些gpu显卡能不能生产出来,购买花费多少,光是1000万张显卡互联的难度都是不可想象的,openai要是做到了就真的无敌于天下了。
不过这也非常让人怀疑openai是否表达错了,还是王小川听来的投行报告写错了,从几万张gpu到1000万张gpu的互联难度可不是一个级别的。