本周四,谷歌发布资深小编PaLM2与OpenAI旗下GPT-4等系统展开竞争,国内云从科技、引力传媒等多家A股上市公司亦宣布AI大模型产品最新进展。在“AI百模大战”背后,随之带动的算力需求开始呈“爆炸式”增长,一场“算力储备战”已暗潮汹涌,全球算力市场持续火热。
据悉,AI由数据、算法(即模型)和算力驱动,其中任意一方的发展会推动其他方面需求的增长。有分析认为,当下行业内虽然拥有更多的数据以及做了更多的AI模型研究,但算力的扩展速度却没有跟上。今年4月,OpenAI就因需求量过大而停止了ChatGPTPlus的销售。对此,东方证券研报认为,主要系计算资源供不应求。
根据数据预测,AI时代算力的增长已远远超过了摩尔定律每18个月翻番的速率,预计到2030年全球超算算力将达到0.2ZFLOPS,平均年增速超过34%。华为更是预测,未来10年人工智能算力需求将会增长500倍以上。那么,身处“智能革命”起点的当下,什么才是AI算力的最优解?国内“算力军备竞赛”又走到哪一步了?
短期堆起的GPU竞争高地:以量取胜筑起大模型算力门槛低配版英伟达GPU国内炒至10万元
众所周知,芯片能力直接影响着高算力训练效果和速度,相较于基于CPU芯片的通用算力,AI所需的智能算力则主要基于GPU、GPGPU及AISC等AI芯片所提供算力,用于人工智能的训练和推理。其中,GPU是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备,凭借相较于其他硬件在算力方面的较大优势脱颖而出,同时随着英伟达A100、H100等型号产品的发布,前款产品在AI推理时吞吐量是CPU的249倍。GPU已成为当前AI算力的核心硬件。
中金公司研报表示,多GPU互联能力加强可以提高并行计算能力,因而算力提升对GPU数量的要求日益提高。随着单GPU的计算能力越来越难以应对深度学习对算力的需求,英伟达已经开始用多个GPU去解决问题。对此,业内分析认为,高端GPU的数量基本决定了一个厂商能够练多大的模型,后期将成为业内判断企业大模型能力的重要指标。
据TrendForce数据显示,如果以英伟达A100显卡的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。亦有业内公认看法,做好AI大模型的算力门槛是1万枚A100芯片。
目前,全球GPU市场主要由英伟达、英特尔和AMD三家巨头垄断,去年Q4独立GPU份额分别为
3月,在2021比特大陆小伙伴高峰会上,詹克团的一句话能够归纳今日全世界比特币算率销售市场的现况:算率布局已在巨大变化前夕。国外算率经营规模逐渐扩张,另外挖矿相关概念股在国外金融市场慢慢盛行。 事实上,...
2021年11月至2022年3月(4月数据信息升级中),开售平台总数大幅度提高,从26个提升到100 ,且增长势头依然强悍。中国数字藏品开售平台的藏品迁移现阶段大部分是根据转赠作用完成,大部分平台不敢随便对外开放二级市场...
61月21日,中国农业银行网站宣布,为进一步贯彻国务院财委会议精神,严格执行《关于防范代币发行融资风险的公告》 和《关于防范虚拟货币交易投机风险的公告》。最近,中国人民银行有关部门采访并指导要求继续打击虚拟货币交易中国农...
保险板块龙头股股票一览表(总市值):涨跌幅保险板块个股资金流向上看,主力资金净流出金额前三名:中国平安、中国人寿、中国太保;...