爆火的AIGC当前最大瓶颈或是它

 add   Will AIGC Become Next Big Thing?

Published Feb 02 '23

Prediction   #chatgpt #算力  

#ChatGPT #算力

最近AIGC领域催化不断,而随着ChatGPT大火之际,财通证券等指出,算力作为人工智能的“发动机”,已是行业当前最大的瓶颈,国盛证券也表示AIGC等应用的普及将带来巨大的算力市场。

具体来看,财通证券分析称,算力的瓶颈并不体现在算力的绝对大小,而在于实现该算力的成本,特别是在算法场景众多、迭代速度较快的AI领域。

此前,OpenAI联合创始人兼CEO曾在推特上表示,ChatGPT的运营费用高得“令人瞠目结舌”。在用户抛出问题之后,ChatGPT回应的每一个字,花的都是真金白银。

据悉,ChatGPT托管于微软云服务Azure上,目前微软对单个100 GPU的收费是每小时3美元,按照ChatGPT加载模型和文本的速度,生成一个单词的费用约为0.0003美元;而ChatGPT的回复通常至少有30个单词,因此ChatGPT每回复一次,至少花Open AI 1美分。

而摩根士丹利的分析甚至认为,ChatGPT的一次回复可能会花掉Open AI 2美分,大约是谷歌搜索查询平均成本的七倍。尤其考虑到ChatGPT面向全球大众用户,用的人越多,带宽消耗越大,服务器成本只会更高。

AIGC应用将产生巨大的算力市场

根据早些时候OpenAI发表了一份研究成果表明,AI训练所需算力指数增长,增长速度超越硬件的摩尔定律。

数据显示,自2012年至2018年,用于训练AI所需要的算力大约每隔3~4个月翻倍,整体呈现指数级上涨(而摩尔定律仅仅是18个月翻一倍)1。从2012年到2018年,训练AI所耗费的算力增长了30万倍,而摩尔定律在相同时间只有7倍的增长。

中信建投研报的数据也显示,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。


 

Terms of Use: You are in agreement with our Terms of Services and Privacy Policy. If you have any question or concern to any information published on SaveNowClub, please feel free to write to us at savenowclub@gmail.com