精品国产av一区二区三区,国产av一区二区三区,丰满少妇大乳高潮在线,9lporm自拍视频区九色

當前位置:首頁 > 最新資訊 > 行業資訊

人工智能的發展如何引發數據中心的重新設計

人工智能的發展如何引發數據中心的重新設計

正在進行的數據中心重新設計的一個主要方面是,由于人工智能的龐大、復雜的工作負載以及需要添加更多圖形處理單元(GPU)、張量處理單元(TPU)或加速器。

這些單元所需的功率和產生的熱量,迫使設計人員重新思考什么是可行的和最佳的布局設計。而且,重新設計的成本正在不斷增加。

因此,根據Tirias Research的數據,到2028年,業主每年可能會在新的人工智能數據中心基礎設施上花費760億美元。

數據中心當前面臨的挑戰:當今基于GPU的密集集群

Tom's Hardware的Anton Shilov最近評估了人工智能工作負載對GPU的巨大需求:

Omdia表示,Nvidia在2023年第二季度實際上售出了900噸H100處理器。

Omdia估計,Nvidia在第二季度為人工智能(AI)和高性能計算(HPC)應用銷售了超過900噸(180萬磅)H100計算GPU。Omdia認為,帶有散熱器的Nvidia H100計算GPU的平均重量超過3公斤(6.6磅),因此Nvidia在第二季度出貨了超過30萬臺H100。

因此,單個Nvidia H100圖形處理單元(GPU)的重量約為一個輕型保齡球的重量。Omdia上面計算的重量不包括相關的布線或液體冷卻。

Schneider Electric數據中心創新副總裁Steven Carlini表示,用于人工智能的機架必須重新設計,以適應額外的重量和熱量。其將當今密集的人工智能服務器集群與“整齊分布”的成排普通服務器機架進行了對比,這些服務器機架在當代人工智能開始認真發展之前很常見,將整齊的行變成了密集的熱運行集群。

Carlini表示,這些人工智能集群每個機架的功耗高達100千瓦,而傳統的非人工智能數據中心機架的每個機架功耗高達20千瓦。Carlini的同事、Schneider Electric能源管理研究中心的高級研究分析師Victor Avelar指出,每臺Nvidia H100的功耗為700瓦,而舊款A100的功耗為400瓦,后者的需求量仍然很高。兩種GPU類型都需要液體冷卻。

每個GPU中密集的800億個晶體管硅區域產生大部分熱量。Amazon和Google等企業正在安裝的一臺人工智能服務器包含8個這樣的GPU。如果設計得當,人工智能服務器集群可以持續100%運行,相比之下,非人工智能AI應用的服務器利用率要低得多。

數據中心能源管理的長遠視角

承載當今人工智能工作負載的主要數據中心的所有者,長期以來一直致力于減輕對環境的影響,并且在能源管理方面,他們往往著眼于長遠。的確,能源消耗比以往任何時候都高,但現在大部分頂級數據中心容量都是由可再生能源供電,業主正在尋找其他零排放替代方案。例如,Microsoft在5月份簽署了一份合同,從2028年開始從聚變能源初創企業Helion購買至少50兆瓦的電力。

Victor Avelar致力于量化當今數據中心在其生命周期內的碳足跡,并幫助優化未來數據中心的布局和設計。Avelar在其免費的數據中心生命周期二氧化碳當量計算器上進行了演示,該計算器既關注了隱含碳,如數據中心建設中使用的混凝土的資源、制造和澆筑過程中排放的碳,也關注了數據中心運營過程中產生的碳。

成本計算器幫助規劃者考慮替代方案并選擇最佳設計標準。例如,Schneider Electric對電源進行了研究。Avelar對比了西弗吉尼亞州的一個燃煤電廠和法國的一個核電廠。

通過按范圍查看年度總二氧化碳當量,發現西弗吉尼亞選項的范圍2(從當地公用事業購買的電力)排放量在混合排放中所占的比例要大得多。相比之下,法國的選項在范圍3(間接能源,例如新數據中心混凝土中的隱含碳)中所占的比例更大。范圍1和范圍2的排放更多地在規劃者的控制范圍內。

數據中心所有權的轉變

Carlini指出,從歷史上看,數據中心往往遵循一種類似購物中心的模式,即主要租戶和精品店,所有者只專注于滿足當地需求的建筑業務,并管理空間租賃。

但最近,大型云計算、媒體和SaaS提供商在新建數據中心的比例方面更加占據主導地位。對于那些所有者/運營商而言,沒有標準的數據中心設計。每個數據中心都是不同的,當前環境下的主要挑戰就是跟上所有正在發生的變化。

猜你喜歡