首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數據|物聯網|量子|元宇宙|博客|特約記者
手機|互聯網|IT|5G|光通信|人工智能|云計算|芯片報告|智慧城市|移動互聯網|會展
首頁 >> 運營 >> 正文

中國移動首例液冷機房試點項目在中國移動長三角(蘇州)云計算中心上線運行

2024年3月25日 14:31  CCTIME飛象網  

數據中心是如今數字經濟發(fā)展的基礎,網絡數據量的爆發(fā)需要大量數據中心服務器提升算力,促進通信設備性能的不斷增長。然而,芯片功耗和熱流密度也在持續(xù)攀升,因此數據中心對制冷技術產生更高的需求,液冷技術也逐漸成為設計新趨勢。緊跟發(fā)展趨勢,蘇州移動積極探索液冷技術的創(chuàng)新應用,在中國移動長三角(蘇州)云計算中心上線運行中國移動首例液冷機房試點項目。

項目基于對冷板式液冷技術的研究,結合中國移動長三角(蘇州)云計算中心的建設和現有資源池業(yè)務部署的架構,提出數據中心冷板式液冷全解耦部署應用方案,達到有效降低數據中心PUE、顯著提升機柜功率和算力密度的效果。

全解耦業(yè)務部署方式。項目充分解耦液冷部件,制定嚴格的技術標準,實現了包括浪潮、烽火、中興在內的多家不同品牌液冷服務器的部署上線,業(yè)務部署架構與傳統(tǒng)風冷機房基本保持一致,形成了標準化、白盒化、高兼容、低成本的液冷部署方案,具備大規(guī)模推廣價值。

有效降低數據中心PUE。利用冷板式液冷技術將服務器主要發(fā)熱元件的熱量直接傳遞給循環(huán)管道中的冷卻液體,冷卻液體通過與冷卻水換熱實現排熱,減少了空氣和設備換熱的中間環(huán)節(jié),無需冷機等制冷部件就可實現,大幅度降低數據中心的能耗。

顯著提升機柜功率和算力密度;诶浒迨揭豪浼夹g,將單機柜功率從傳統(tǒng)的7KW提升到了15-20KW,IT設備功率密度顯著提升,滿足了后期CPU、GPU不斷迭代升級后的大功率服務器部署需求。液冷技術的高效制冷效果也可以有效提升資源池服務器的使用效率和穩(wěn)定性,同時使數據中心在單位空間布置更多的服務器,提高數據中心運算效率,兼具節(jié)能降噪的優(yōu)勢。

采用液冷技術后,中國移動長三角(蘇州)云計算中心機房散熱能耗降低50%-60%,數據中心PUE值降低至1.25以下。經測算,每年每模塊機房可節(jié)省電費約60萬元,節(jié)約空調電費50%以上。在滿足IT設備高性能計算的同時,實現了數據中心安全穩(wěn)定、低碳節(jié)能運行。

(蘇服)

編 輯:孫秀杰
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構成任何投資及應用建議。如網站內容涉及作品版權和其它問題,請在30日內與本網聯系,我們將在第一時間刪除內容。本站聯系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯系方式,進行的“內容核實”、“商務聯系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權。
相關新聞              
 
人物
陳忠岳:中國聯通正在開展6G技術指標制定等工作
精彩專題
CES 2024國際消費電子展
2023年信息通信產業(yè)盤點暨頒獎禮
飛象網2023年手機評選
第24屆中國國際光電博覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網 CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經營許可證080234號 京公網安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經書面許可,禁止轉載、摘編、復制、鏡像