为何ChatGPT日耗电超50万度?

看新闻说,ChatGPT每天的耗电量是50万度,国内每个家庭日均的耗电量不到10度,ChatGPT耗电相当于国内5万个家庭用量。

网上流传,英伟达创始人黄仁勋说:“AI的尽头是光伏和储能”,大佬的眼光就是毒辣,点出了AI发展的根基。

我觉得这样的耗电算是稀松平常,训练AI模型需要算力,用户访问也需要算力,而算力要用到GPU显卡,就像挖矿一样,非常的耗电。以Chat GPT这样的参数和访问规模,其耗电量只会越来越大。

微软为训练ChatGPT所使用的是英伟达A100显卡,其典型功耗是400W,也就是说一张A100训练一天的能耗是400W * 24h = 9.6KWh,也就是9.6度电。

ChatGPT这样规模的AI应用至少也得大几千张A100,加上其他辅助系统(CPU、内存、降温等)的功耗,一天50万度电也只能算洒洒水。

AI不光耗电还耗水,AI训练需要大量的水去冷却计算机,据说GPT 3训练过程中大约消耗了 70 万升,如果一个用户与 ChatGPT 进行 25~50 个问题的对话,大概就相当于请 ChatGPT 喝了 500ml 水。

所以AI基础算力成为了一个非常大的壁垒,只有超级大公司才能拿到入场券。

回过头来,计算一项技术耗费多少电,本身是没有意义的,还要考虑它的产出,是否值得消耗这么多电。

过去一百年里,全球电动机消耗掉的电量就占到了总发电量的一半,但电动机所产生的价值远超其耗电量,如果AI能够给人类带来足够的价值,谁会去考虑它的耗电呢?当然这其中的公式还有待明确。

从能源的角度看,我的猜测是未来AI会主要依靠太阳能、风能等可再生能源,因为随着算力的不断扩大,仅仅靠煤炭、石油等传统能源是无法持续的,所以说AI革命也是能源革命啊。

相关推荐

  1. 21.<span style='color:red;'>59</span><span style='color:red;'>万</span>

    21.59

    2024-03-26 05:24:12      42 阅读
  2. 10活服务器配置选择,费用价格明细

    2024-03-26 05:24:12       206 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-03-26 05:24:12       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-03-26 05:24:12       106 阅读
  3. 在Django里面运行非项目文件

    2024-03-26 05:24:12       87 阅读
  4. Python语言-面向对象

    2024-03-26 05:24:12       96 阅读

热门阅读

  1. 数据结构奇妙旅程之深入解析快速排序

    2024-03-26 05:24:12       44 阅读
  2. Github 2024-03-25 开源项目日报Top10

    2024-03-26 05:24:12       45 阅读
  3. redis分布式锁-----基于RedLock算法实现分布式锁

    2024-03-26 05:24:12       44 阅读
  4. mysql exists 和not exists 联合使用的bug

    2024-03-26 05:24:12       38 阅读
  5. Spring 实现 OAuth2 授权之解决方案

    2024-03-26 05:24:12       37 阅读
  6. ORA-29548

    ORA-29548

    2024-03-26 05:24:12      37 阅读
  7. C++细节

    C++细节

    2024-03-26 05:24:12      43 阅读
  8. 强化学习:让AI自主学习与决策

    2024-03-26 05:24:12       43 阅读