ChatGPT背后的算力博弈,中国企业亟待打破美国桎梏

如今,AIGC市场上到处都是鲜花和棉花食用油。无论是ChatGPT,AUTOGPT,还是国内的文艺心,市场都是乱象丛生,你方唱罢我登场,你方继续登上热搜。

华西证券预测,2025年全球AI软件市场规模将达到1260亿美元,2021-2025年复合增长率为41.02%。

chat GPT繁荣的背后是天文计算能力。

据测算,在AI训练服务器方面,单个大型语言模型训练驱动的AI训练服务器需求约为2亿美元;在AI推理服务器方面,以ChatGPT为例,初期可以带动推理服务器需求达到45亿美元左右。

一时间ChatGPT层出不穷,背后的AI服务器赛道也开始兴起。

计算确定ChatGPT

作为大模型的核心引擎,计算能力的计算公式很简单:有多少GPU芯片能产生多少计算能力,高端GPU芯片的数量能直接影响计算能力的大小。

chat GPT所需的计算能力不是固定的,而是逐渐增加的。ChatGPT越智能,需要的计算能力就越大。

据媒体推测,GPT-3的训练费用预计为500万美元/次,GPT-3模型的训练费用约为140万美元,谷歌PaLM模型的训练费用约为1120万美元。

据微软高管介绍,为ChatGPT提供计算支持的AI超级计算机是微软在2019年投资10亿美元建造的大型顶级超级计算机。它配备了数万个NVIDIA A 100 GPUs和60多个数据中心。总共部署了几十万个NVIDIA GPUs。

为了满足日益增长的ChatGPT计算能力需求,微软宣布将推出基于英伟达最新旗舰芯片H100GPU和英伟达Quantum-2InfiniBand网络互联技术的大规模扩展AI虚拟机系列,以显著加速AI模型的发展。

貌似ChatGPT背后是英伟达,英伟达,英伟达。

ChatGPT背后的算力博弈,中国企业亟待打破美国桎梏

事实上,作为硬件霸主,NVIDIA不仅占据了大部分消费级市场,更是AI服务器芯片领域的头号选择。

目前,英伟达旗舰芯片H100的价格在一周内上涨了近7万人民币,价格普遍高达30万人民币。次旗舰A100芯片,短短三个多月,从6万元涨到9万元,涨幅超过50%。

不仅涨价买不到,连美国都禁止英伟达卖芯片。去年8月,美国政府发布出口管制政策,禁止英伟达向中国销售A100和H100芯片。

为了不失去中国市场,满足美国的出口管制,Nvidia随后推出了“性能阉割版”A800和H800芯片。不过这两款芯片也是被市场抢光供不应求空,价格也水涨船高。

以百度阿里腾讯为首,国内大部分互联网公司都宣布进入大模式。据市场统计,自ChatGPT以来,今年中国将推出的大型车型已超过10款。

如果要达到ChatGPT的水平,至少需要3000颗A100芯片,以9万颗芯片的价格计算就是2.7亿人民币,才能完成一个大型号的部署。10个大型号需要3万个A100芯片,总成本27亿人民币。

再加上后期培训的费用,需要的芯片是天文数字。不过按照英伟达目前的发货时间来看,想要买到足够的芯片并不是一件容易的事情。

恍惚中,矿卡时代又来了。

Nvidia又坐到出风口了

前几年虚拟货币火热的时候,作为挖矿必不可少的显卡提供商,Nvidia在几年内获得了48亿美元的巨额利润。现在我靠ChatGPT过第二人生,让历史重演。

面对激增的市场需求,借AI浪潮翻身的英伟达推出了“计算能力租赁”服务。

3月21日,在GTC 2023大会上,英伟达创始人兼首席执行官黄仁勋推出了英伟达DGX云,可以为企业提供训练高级人工智能模型所需的基础设施和软件。DGX云的每个实例都配备了8个H100或10080GB的GPU。企业可以以“云租赁”的形式按月租用DGX云集群,价格为每个实例3.7万美元起。

英伟达真的没有替代品吗?为什么公司比其他GPU芯片商更倾向于租赁?

IDC数据显示,2021年国内服务器市场,国产GPU服务器占比超过88.4%,使用英伟达的产品占比超过80%。

AI大模型需要的芯片,对信息处理精度和运算速度要求更高。在超级计算领域,双精度浮点计算能力FP64是高计算能力的硬性指标。Nvidia H100和A100是唯一具有这些功能的芯片。

卡在美国的不仅仅是英伟达芯片的销量,还有制约中国企业RD的技术、设备、材料。然而,在美国重重限制下,中国企业仍面临跑出几匹黑马的压力。

根据IDC最新发布的《中国加速计算市场跟踪报告(2021年下半年)》,2021年中国AI服务器市场规模达到350.3亿元,同比增长68.6%。

在企业级GPU芯片领域,中国厂商比奇科技于2022年推出“BR100”芯片,石天智芯推出“智甲100”芯片,寒武纪推出“思源270”芯片。

其中,沃尔科技表示,BR100拥有全球最高的计算能力,峰值计算能力达到了市面上旗舰产品的3倍以上。16位浮点运算能力达到1000t以上,8位定点运算能力达到2000t以上,单芯片峰值运算能力达到PFLOPS级别。

虽然数据不错,但是缺乏处理FP64的至关重要的能力,仍然无法完全取代NVIDIA H100和A100兄弟。

而且英伟达使用的CUDA平台早已是应用最广泛的AI开发生态系统,只支持英伟达的Tesla架构GPU,现阶段无法被国产芯片替代。

虽然中国芯片厂商在GPU芯片领域正在迎头赶上,但技术差距和美国卡脖子仍是关键问题,还需要一段时间的努力。

不仅仅是AI服务器

不仅仅是AI服务器和GPU芯片,存储市场也借着大模式东风一路上涨。

ChatGPT的运行条件包括训练数据、模型算法和高计算能力,其中高计算能力的底层基础设施是完成海量数据和训练的基础。

最明显的特点是ChatGPT经过多次迭代,参数数量从1.17亿增加到1750亿,增加了近2000倍,这也给计算和存储带来了极大的挑战。

随着AI新时代的开启,预计全球数据生成、存储和处理量将等比例增长,内存将显著受益。计算存储是ChatGPT的重要基石。随着阿里、百度等科技巨头ChatGPT项目的进入,整体计算存储市场需求将进一步快速增长。

随着AIGC的持续火热,京、沪、穗等数字经济发达地区也纷纷出台政策,推动智能计算中心的建设。例如,北京提出“建设一批计算数据中心和人工智能计算中心,到2023年培育成为人工智能计算枢纽”;上海提出要“布局建设一批高性能、高通量的人工智能计算中心,推进公共计算服务平台建设”。

而各行各业都将面临ChatGPT的洗礼。在人工智能的新浪潮下,AI相关行业将迎来广阔的市场空。

而中国企业必然会突破美国的束缚,打破不公平的枷锁。

本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系admin#jikehao.com删除。
(0)
极客号的头像极客号
上一篇 2023年 4月 25日
下一篇 2023年 4月 25日

相关推荐

合作联系:1152QQ041010