首页 美股最前线 正文

从用电量揭穿美国GDP注水的底裤……

稀土掘金
176 0 0
一组非常有意思的数据对比。
中国国家能源局发布的2024年1~2月全社会用电量数据是15316亿千瓦时(1千瓦时等于1度),同比增长了11%,其中一产增长11.1%,二产增长9.7%,三产增长15.7%,城乡居民生活用电增长了10.5%。
用电量的增加,这说明我们的生产制造都在快速发展,老百姓的生活条件也在改善,这是GDP持续增长的有力证明。
相比之下,美国2007年以来,GDP实际增长了40%,名义值更是增长了82%,但2007年以后,美国的用电量就停止增长了,在4万亿度上下小幅波动。
例如根据美国能源信息署公开的信息,2023全美全年用电量4.067万亿度,相比2022年的4.3万亿度下降了6%,但是美国宣布自己的GDP增长了2.5%,失业率也创下历史新低,那么问题来了,美国的GDP涨了,就业率上去了,为何用电量却下降了?
如今的美国制造业衰落是不争的事实,虽然特朗普和拜登一直在大呼制造业回归,但用电量却持续下降那就说明美国的制造业这块目前还没有太大成效。
不过也不是美国所有的行业用电量都在下降。
据《纽约客》杂志引援国外研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力,也就是说,ChatGPT每天用电量相当于1.7万个美国家庭的用电量。另外,据论文估算,类似GPT-3 这种体量的模型训练用电量可达 1300 兆瓦时,约等于 130 个美国家庭一年的用电量。Ai生成一张图的用电量足够充满一部手机,这也是为什么GPT-3还停留在PPT阶段。
OpenAI文生视频大模型Sora也是耗电大户,一天就会用掉100亿度电,一个月3000亿度电,用电量是现在的40万倍。大约是美国1/11的发电量。OpenAI的CEO奥特曼说,“我们需要的能源确实比之前想象的要多得多”。
马斯克最近也大胆预言,对人工智能芯片需求的不断增长,很快就会导致电力短缺。“明年你会找不到足够的电力来运行所有芯片。”而随着生成式AI的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
所以,AI的尽头,是能源。这话没问题。
当然,用电量虽然和经济模式有关,而且今后中国有可能也会过渡到用电量不增加,但经济继续增长的阶段。只不过现在的美国将大量耗电都用在虚拟币挖掘、AI这些领域,对老百姓真的有用么?
也难怪美国人要拼命吹AI,因为它必须要用AI算力来吃掉那些电力,否则天天吹美国GDP大涨,但发电用电量却是肉眼可见的萎缩,不搞AI每天拼命只投喂海量垃圾信息,这样的美国就真的要穿帮了!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

稀土掘金 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    32