合作机构:阿里云 / 腾讯云 / 亚马逊云 / DreamHost / NameSilo / INWX / GODADDY / 百度统计
2023年至2026年,全球在AI系统上的支出将翻一番,显然,数据中心的容量将迅速增加,以满足需求。
然而,令人惊讶的是,在过去的一年里,许多数据中心运营商对新项目踩下了刹车,放缓了投资,伦敦的空置容量在2022-23年间下降了6.3%。
这种违反直觉的趋势背后是什么原因?要解释这一点,我们需要了解围绕AI计算和支持它的基础设施的一些问题。
数据中心历来是围绕使用CPU的机架构建的,以应对传统的计算工作负载,然而,AI计算转而需要使用GPU驱动机架,与同等的CPU容量相比,它消耗更多的电力,释放更多的热量,占用更多的空间。
在实践中,这意味着AI计算能力通常需要更多的电源连接或替代冷却系统。
由于这是嵌入式基础设施,它被内置到数据中心综合体的结构中——这使得更换它往往代价高昂,如果不是在经济上完全不可能的话。
在实践中,运营商必须承诺在他们的新数据中心中有多少空间专门用于AI和传统计算之间的“分割”。
如果弄错了这一点,并过度承诺AI,可能会让数据中心运营商背负着永久未充分利用和无利可图的负担。
AI市场还处于初级阶段,这加剧了这个问题,Gartner声称,它目前正处于炒作周期中夸大预期的顶峰。因此,许多运营商选择在设计阶段按兵不动,而不是过早承诺在新数据中心项目中承担AI计算的比例。
然而,运营商敏锐地意识到,在失去市场份额和竞争优势之前,他们只能冒着推迟投资的风险,但考虑到数据中心基础设施的许多基本要素正在被实时重写,这是一项艰巨的任务。
为了满足成为先行者的需求,同时抵消风险,运营商需要将他们的数据中心设计为在AI计算时代具有最大的效率和弹性,这需要一种全新的整体设计方法。
无论操作员决定AI和传统计算之间的确切分离,具有AI计算能力的数据中心站点有望比传统设施复杂得多。更复杂的往往意味着更多的故障点,特别是在AI计算比传统计算有更多需求的情况下。
因此,为了保证正常运行时间并降低站点生命周期内出现代价高昂的问题的风险,团队需要在数据中心的规划阶段更加彻底。
特别是,设计阶段应在项目开始时寻求更广泛的团队和专业知识的投入。除了寻求电力和冷却方面的专业知识外,设计人员还应该及早接触运营、布线和安全团队,以了解潜在的瓶颈或故障来源。
由于运营商现在在现场进行AI计算,他们应该利用自己的能力来利用AI来提高运营的新效率。AI在数据中心的采用已经有很长时间了,这项技术能够以极高的精度和质量承担工作流。例如,AI可以在以下方面提供帮助:
通过在数据中心生命周期的每个阶段主动使用该技术,运营商可以显著提高其运营的效率和稳健性。AI非常适合于帮助应对采用这些新一代数据中心新颖而复杂的布局时遇到的新挑战,例如通过故障检测和预测性维护。
在高峰期,例如在培训运行期间或在生产中运行企业级模型时,AI会给数据中心带来更大的负载。在这些期间,AI计算在功耗、冷却需求和数据吞吐量方面往往会大大超出传统的预期。
在最基本的层面上,这意味着数据中心的底层材料面临更大的压力。如果这些底层材料或部件质量不高,这意味着它们更容易失败。由于AI计算意味着一个站点的组件和连接数量急剧增加,这意味着在传统站点中运行良好的更便宜、更低质量的材料可能会使运行AI计算的数据中心陷入停顿。
为此,运营商应该避免通过购买质量较低的材料来节省资金,比如不合格的电缆。这样做可能会带来虚假的经济风险,因为这些材料更容易失效,需要更频繁地更换。但是,最有问题的是,不合格的材料和部件的故障往往会导致网站停机或停机,从而影响其盈利能力。
尽管AI计算的基础设施要求可能是运营商拖延投资的主要原因,但从长远来看,情况并非如此。
随着市场不确定性的消除,公司将在数据中心的传统计算和AI计算之间的分裂问题上汇聚到他们的“适中区域”。
随着这种情况的发生,公司将需要确保随着他们的学习和成熟,他们在网站的运营中拥有一切可能的优势。
这意味着从一开始就进行整体设计,利用AI本身来发现他们网站的新效率,并投资于能够满足更大的AI计算需求的高质量组件。
TOP