吞电巨兽,核反应堆伺候#人工智能 #chatgpt #openai #科技 #AI

  • 宫雅卓
  • 2024-03-31

gpu到底有多耗电呢?给大家讲个小故事啊,昨天在推特上面有一个帖子引起了全球的讨论。有一个微软的工程师说他正在搭建一个巨大的g p u算力中心,为g p t六的训练做服务。他抱怨说,不同的区域之间还必须要用光网络连接。那有人就问他了,说你傻呀,你为什么还要把它分布在不同区域呢?你把所有的g p u都堆在一个地方,那多好,数据传输又快,又不用这种光网络模块。他说你才傻呢,你知不知道十万张g p u堆在一个地方,就能把这个州的电网拖垮。巴掌啊非常夸张,所以啊我们可以算一算,像open a i这种公司。如果它搭建一个一千万张g p u卡的算力中心,那每一个城市只能堆十万张卡,那就要一百个城市相互之间连接。那每一个城市一年要消耗多少遍呢?初步算一下,以七百瓦一张卡h一百作为标准功耗来计算,一年一个城市的电费就要一亿美金,一百个城市就是一百亿美金。所以啊你看玩g p u算力中心的都是巨头,他们真正的起步都是以几百亿美金开始干的,所以非常的夸张。按照这个趋势算下去,美国所有的发电量的百分之十五都要给g p u算力中心可能才够用。那怎么办?这么巨大的gpu的算力中心的电能消耗怎么去应对呢?两种办法分两步走,第一步就是优化输电网络,尽可能降低在输电过程当中的电力消耗。但这是有尽头的,五年左右就挖掘到极致了。那以后怎么办?最终极的办法就是为每一个算力中心专门建发电站,搞一个小型核反应堆,放在它旁边专门给它发电,并且再配上一个巨大的散热结构。散热还不能用风冷,因为风冷的效率不够,要用液冷,要采用全浸没式的,也就是把算力中心泡在冷却液里,真的非常夸张。所以可以想象这种投入是多么的巨大,这种基础设施相当的夸张。这也某种程度上能解释为什么奥特曼非要搞七万亿来建所谓的算力基础设施的原因了。就会发现英伟达真的是很幸运,在目前这么一个巨大的g p u算力需求的情况下,英伟达几乎是唯一那个能满足这个需求的公司,所以不是偶然。好,今天分享就到这里。

🔥 热门活动

添加小助手微信「bd779966」,领取免费会员