合作机构:阿里云 / 腾讯云 / 亚马逊云 / DreamHost / NameSilo / INWX / GODADDY / 百度统计
新研究表明,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。
预计到2027年,全球每年与人工智能相关的用电量可能会增加85.4-134.0太瓦时。这代表了全球用电量的0.5%左右,数据中心用电量的大幅增长,目前估计占全球用电量的1%到2%。
近年来,数据中心的用电量相对稳定地占全球用电量的1%,不包括加密货币挖矿。2010年至2018年间,全球数据中心电力消耗可能仅增加了6%。人们越来越担心开发和维护人工智能模型、应用所需的计算资源,可能会导致数据中心对全球电力消耗的贡献激增。
在短短几年的时间内,人工智能所消耗的电力可能会与比特币现在的消耗量一样多。虽然人工智能服务器的供应链在不久的将来面临一些瓶颈,这将抑制人工智能相关的电力消耗,但这些瓶颈可能用不了多久就会得到解决,预计到2027年,全球新制造的服务器与人工智能相关的电力消耗可能会增加85.4至134.0太瓦时。这个数字与荷兰、阿根廷和瑞典等国家的年用电量相当。
加密货币估值直线下降,导致采矿量减半。但在气候紧急情况下,比特币的耗电量仍然相当于整个国家的耗电量。虽然大多数注意力都集中在训练人工智能系统所使用的能源上,但其使用的应用或“推理”阶段可能同样耗能。
像百度搜索这样的应用中,人工智能可能会被频繁使用,以至于低功耗推理阶段使用的能量会成倍增加,与训练中使用的能量一样大。
在最坏的情况下,将人工智能应用到百度的搜索中是可能的。将其能源消耗提高到大约爱尔兰的水平,即每年29太瓦时,但指出这样做的巨大成本可能会阻止百度实施它。
人工智能和之前的区块链等新兴技术,都伴随着大量的炒作和对错过的恐惧。这通常会导致创建的应用对终端用户几乎没有任何好处。
然而,由于人工智能是一种能源密集型技术,这也可能导致大量资源浪费。通过退后一步,尝试构建最适合最终用户需求的解决方案(避免强制使用特定技术),可以减少这种浪费的很大一部分。
人工智能不会成为包治百病的灵丹妙药,因为它最终有各种局限性。这些限制包括幻觉、歧视效应和隐私问题等因素。
TOP