您当前位置:资讯中心 >IDC >浏览文章

到2027年,人工智能数据中心的用电量将超过荷兰

来源:互联网 日期:2023/10/16 14:21:18 阅读量:(0)

新研究表明,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。

预计到2027年,全球每年与人工智能相关的用电量可能会增加85.4-134.0太瓦时。这代表了全球用电量的0.5%左右,数据中心用电量的大幅增长,目前估计占全球用电量的1%到2%。

近年来,数据中心的用电量相对稳定地占全球用电量的1%,不包括加密货币挖矿。2010年至2018年间,全球数据中心电力消耗可能仅增加了6%。人们越来越担心开发和维护人工智能模型、应用所需的计算资源,可能会导致数据中心对全球电力消耗的贡献激增。

在短短几年的时间内,人工智能所消耗的电力可能会与比特币现在的消耗量一样多。虽然人工智能服务器的供应链在不久的将来面临一些瓶颈,这将抑制人工智能相关的电力消耗,但这些瓶颈可能用不了多久就会得到解决,预计到2027年,全球新制造的服务器与人工智能相关的电力消耗可能会增加85.4至134.0太瓦时。这个数字与荷兰、阿根廷和瑞典等国家的年用电量相当。

加密货币估值直线下降,导致采矿量减半。但在气候紧急情况下,比特币的耗电量仍然相当于整个国家的耗电量。虽然大多数注意力都集中在训练人工智能系统所使用的能源上,但其使用的应用或“推理”阶段可能同样耗能。

像百度搜索这样的应用中,人工智能可能会被频繁使用,以至于低功耗推理阶段使用的能量会成倍增加,与训练中使用的能量一样大。

在最坏的情况下,将人工智能应用到百度的搜索中是可能的。将其能源消耗提高到大约爱尔兰的水平,即每年29太瓦时,但指出这样做的巨大成本可能会阻止百度实施它。

人工智能和之前的区块链等新兴技术,都伴随着大量的炒作和对错过的恐惧。这通常会导致创建的应用对终端用户几乎没有任何好处。

然而,由于人工智能是一种能源密集型技术,这也可能导致大量资源浪费。通过退后一步,尝试构建最适合最终用户需求的解决方案(避免强制使用特定技术),可以减少这种浪费的很大一部分。

人工智能不会成为包治百病的灵丹妙药,因为它最终有各种局限性。这些限制包括幻觉、歧视效应和隐私问题等因素。

关键字:
声明:我公司网站部分信息和资讯来自于网络,若涉及版权相关问题请致电(63937922)或在线提交留言告知,我们会第一时间屏蔽删除。
有价值
0% (0)
无价值
0% (10)

分享转发:

发表评论请先登录后发表评论。愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。