人工智能 (AI) 的能源消耗正在迅速上升:根据一些计算,预计到 2030 年,人工智能消耗的能源将是整个法国能源消耗的两倍。
人工智能现在不仅已经对气候产生了显着的影响,而且还使应对气候变化的斗争变得更加复杂。所有这些额外的电力需求使得尽快实现交通电气化变得更加困难。
推出一年半后,ChatGPT 已拥有 1.8 亿用户。人工智能聊天机器人可用于各种各样的事情,从创建旅行行程到写论文或只是问一个愚蠢的问题。
然而,ChatGPT 在此过程中消耗大量能源,比 Google 搜索高出 25 倍。此外,运行所有软件的服务器还使用大量的水来冷却。每进行大约 20 到 50 个查询的对话,就会蒸发半升水——换句话说,就是一小瓶水。
然而,这些“对话”甚至还不是最大的能量消耗。到目前为止,大部分精力都投入到了语言模型 GPT(聊天机器人背后的软件)的训练上,该模型是通过超高速超级计算机完成的,并从互联网上获取大量文本。
斯坦福大学计算出,最新版本GPT3 需要 1,287 MWh(兆瓦时)的电力。
此外,像 GPT 这样的人工智能技术在其发展的每一步中都需要指数级能量。咨询公司Gartner计算得出,按照这个速度,到2030年,人工智能将占全球电力需求的3.5%。这相当于目前农业和林业消耗的总和,是整个法国的两倍。
这反过来又会对气候产生影响,因为能源消耗会导致温室气体排放。在拥有许多用于人工智能服务器的美国,16%的电力仍然来自煤炭——这是污染最大的能源。训练 GPT3 会产生 502 吨二氧化碳:这相当于一辆汽车往返月球的排放量。