新宇

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 112|回复: 20

ChatGPT造孽!中国高校因它算力荒

[复制链接]

1

主题

1

帖子

3

积分

新手上路

Rank: 1

积分
3
发表于 2023-3-25 20:54:22 | 显示全部楼层 |阅读模式
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI
不做大模型,就没有算力用。
这是ChatGPT点燃AI风口后,国内某top3高校AI实验室的残酷现状。
同一个实验室里,非大模型团队6人用4块3090卡,比起同实验室的大模型团队10个人用10块A800卡,本就已经不算富裕。
现在,校企合作也更偏爱大模型。去年11月ChatGPT发布后,与非大模型团队合作的企业骤减,近期找上门的,也是张口就问:
“你们做大模型不?”
做,有高校和企业的通力支持;不做?那就只能眼睁睁看着算力花落别家。
哪怕某量化私募基金的有10000张A100卡,还对高校研究团队开放申请,也不见得能落一张到你头上。



“要是我们组能分到一些就好了。”看到这条微博,非大模型团队带队的数据科学方向博士小哥羡慕不已,因为缺算力,他都愁得快仰天长啸了:我们也值得投资啊!!!
现在,大伙争先恐后扑向ChatGPT背后GPT-3.5般的各种大模型,算力流向亦然。
其他AI领域本就不足的算力更荒了,尤其是国内学界手里的算力分配下来,贫富差距肉眼可见。
一整个实验室就4块3090卡

巨大规模算力以月为单位的租用成本,对研究团队来说不是小数目。大模型正当其道,学界研究大模型的实验室或团队拥有算力资源的优先分配权
就拿小哥在学校的亲身体验来说,在他们研究室,大模型小组10个人有10块A800卡可用,而另一个研究传统机器学习方向的实验室,整个实验室只有4块3090卡



拥抱主流趋势是一重原因,另一重原因是实验室需要运转和维护的经费,获得拨款的一种形式是申请国家项目,但必要步骤是提供论文成果。
双重原因下,本就不多的算力资源,不得不优先分配给大模型这样热门且相对容易出成果的研究。哪怕对学界来说,训一个大模型其实练不太动——因为数据、算力和资金都有些捉襟见肘。
为了获得更多的资源,有的非大模型实验室甚至额外专门成立研究大模型的团队。
当然,想要获得资金和资源,校企合作也是不可或缺的一种方式。
这种推动产研融合的重要支撑形式持续已久,2020年,KDD中校企合作论文占比超过50%,这个比例在ICCV中达到45%。
举例来说,2021年,清华大学KEG、PACMAN(并行与分布式计算机系统)、NLP等实验室着手推进训练千亿参数的稠密模型,但团队用于训练模型的计算资源并不充足。最终,校外企业智谱AI租用了近百台A100的服务器,免费提供所需算力,这才有了双语预训练语言大模型GLM-130B的诞生。



△GLM-130B的任务表现
但在众人争先恐后扑向GPT-3.5般大模型的当下,非大模型团队开始不太好谈这类合作了。
去年11月ChatGPT发布后,与小哥所在团队洽谈校企合作事宜的公司数量急剧减少。在其他高校,AI领域的非大模型团队也总是面临企业询问,“要不要/会不会做大模型”。
本就稀缺的算力,在学界有成为追逐热点的砝码的倾向,算力资源分配的马太效应由此逐渐扩大,带给学术研究很大困扰。
ChatGPT加剧算力分配贫富分化

算力是AI飞速发展必不可少的指标,2018年,OpenAI发布的报告中点出一个算力趋势
自2012年以来,AI训练任务所运用的算力每3.43个月就会翻倍。到2018年,AI算力需求增长了30万倍。




产学研对算力需求暴增,我们能提供的算力有多少?
据中国算力集团统计,截至2022年6月底,我国数据中心机架使用总规模超过590万标准机架,服务器规模约2000万台,算力总规模排名全球第2
这个排名还算不错,但摊开来看仍旧远远不够,毕竟放眼全球,没有哪个国家不是嗷嗷待哺,等着更多的算力资源“投喂”
再退一步讲,买得起显卡,拥有的算力上去了,电费也是天文数字。
况且我国还有特殊情况——
开放原子开源基金会业务发展部部长朱其罡在本月举办的CCF YOCSEF上发言阐述现状称,超算领域的核心技术,一个是IBM LSF超算系统,一个是开源系统。目前,国内多数超算中心都基于开源系统做封装,但这个版本调度资源的效率和能力都有很大的提升空间。
以及,因为众所周知的原因,A100、H100这俩目前性能最强的GPU,还没找到可规模替代的方案。
综上,算力不够已是积弊,但ChatGPT时代,算力需求剧烈扩张,除了大量训练算力,大量推理算力也需要支撑。
所以现在的情况是,因为ChatGPT显示出大模型的推理能力,训练和研究大模型的算力需求增加;同时因为大模型热度爆棚,蜂拥至大模型的算力资源也增加。
分配给大模型领域的算力资源丰富起来,其他AI领域缺衣少食的情况逐渐加剧,研发能力受到掣肘。
可以说,ChatGPT成为如今的AI届白月光后,加剧了算力分配的贫富分化
这般“富”甲一方的大模型,是不是AI研究路径上最好的?还没人能够回答。
但值得引起注意和重视的是,GPT系列为首的大模型不应该吸引全部目光,整个AI领域还有各种各样的研究方向,还有更加细分的垂直领域,以及带来更多生产力的模型和产品。
当ChatGPT的热度趋于平缓,学界的算力资源分配差距会缩小吗?
所有非大模型方向的实验室和团队,恐怕都在期待之中。
—完—
@量子位 · 追踪AI技术和产品新动态
深有感触的朋友,欢迎赞同、关注、分享三连վ'ᴗ' ի ❤
回复

使用道具 举报

0

主题

1

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-3-25 20:55:18 | 显示全部楼层
哈哈哈完全看不懂你在说些什么
回复

使用道具 举报

2

主题

8

帖子

11

积分

新手上路

Rank: 1

积分
11
发表于 2023-3-25 20:55:59 | 显示全部楼层
目前,国内多数超算中心都基于开源系统做封装,但这个版本调度资源的效率和能力都有很大的提升空间。这是高智商的说法吧。[大笑]低智商说法,我国超算中心运行效率非常差。[酷]
回复

使用道具 举报

2

主题

6

帖子

8

积分

新手上路

Rank: 1

积分
8
发表于 2023-3-25 20:56:43 | 显示全部楼层
可悲
回复

使用道具 举报

0

主题

1

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-3-25 20:57:02 | 显示全部楼层
这玩意其实无所谓的……美帝直接砸钱砸显卡,你跟我谈效率优化?加卡就完事了。就是在芯片被卡脖子的时候这玩意才显得有价值,否则芯片架构的迭代带来的提升都比你研究效率优化来的多。
回复

使用道具 举报

2

主题

5

帖子

8

积分

新手上路

Rank: 1

积分
8
发表于 2023-3-25 20:57:28 | 显示全部楼层
想起来当年去美国某普通高校做暑研,我一个本科生就拿了 8 块 1080ti 同时跑 8 个不同的实验[捂脸]
回复

使用道具 举报

0

主题

1

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-3-25 20:58:21 | 显示全部楼层
清华,4块显卡都紧缺!!!你这是想说什么:上亿经费都去哪里啦[蹲]
回复

使用道具 举报

1

主题

4

帖子

6

积分

新手上路

Rank: 1

积分
6
发表于 2023-3-25 20:59:15 | 显示全部楼层
现在闲鱼上的二手3090矿卡也就4500一张,自费花钱买几个也没多贵,我没有科研经费,自掏腰包收了四张3090矿卡自己用。
回复

使用道具 举报

0

主题

2

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-3-25 20:59:25 | 显示全部楼层
沒辦法,硬件卡到AI ,這一步被美國將了一軍。。真的希望中國可以顯卡自由
回复

使用道具 举报

0

主题

4

帖子

0

积分

新手上路

Rank: 1

积分
0
发表于 2023-3-25 21:00:16 | 显示全部楼层
不太明白为啥缺显卡。一块多少钱,某东就可以买啊
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|新宇

GMT+8, 2025-3-15 16:21 , Processed in 0.110758 second(s), 19 queries .

Powered by Discuz! X3.4 技术支持:迪恩网络

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表