article banner

阿里巴巴資料中心 – 浸沒式液冷煉金術

你有沒有想過,把伺服器丟進液體裡,讓晶片在「沸騰」中運轉?這不是科幻片,而是阿里巴巴在中國杭州真實搞出的「浸沒式液冷煉金術」。地點是杭州的一座資料中心,阿里巴巴用全浸沒式液冷技術,打造了一個沸騰的伺服器集群。今天,我們要帶你潛進這個案例,看它怎麼用液體革命冷卻,還會聊PUE(能源使用效率)和ISO/IEC 30134-2的應用。這篇專欄塞滿技術細節,版面厚實,全程真實可查,準備好見識沸騰的晶片了嗎?

為什麼選杭州?電商的心臟

阿里巴巴把這技術落地杭州,不是隨便挑的。這裡是阿里總部,中國電商的中心,有真實需求:

  • 運算壓力:雙11購物節每年流量爆棚,伺服器得扛億級交易,傳統風冷撐不住。
  • 能源挑戰:杭州夏天熱,濕氣重,風冷耗電高,電費貴得嚇人。
  • 創新基地:阿里雲在杭州有研發中心,液冷技術從實驗走到實戰。
  • 環保壓力:中國推碳中和,阿里承諾2030年減碳,必須省電。

阿里雲說,杭州資料中心是他們液冷技術的試金石,目標是效率和永續。

技術革命:全浸沒式液冷伺服器集群

杭州的核心是全浸沒式液冷技術,顛覆傳統冷卻:

  • 原理:伺服器完全泡在特殊冷卻液裡,晶片運轉時熱量讓液體沸騰,蒸氣上升冷凝後循環,散熱靠物理變化,不用風扇或空調。
  • 冷卻液:非導電、不腐蝕,沸點45°C,比水(100°C)低,允許晶片高溫運行。
  • 細節
    • 伺服器泡在密封槽中,像魚缸,冷卻液循環靠幫浦和冷凝器。
    • 蒸氣上升到冷凝管,變回液體,熱量排出,效率比風冷高數倍。
  • 優勢:無機械製冷,噪音低,空間省,散熱極快。

阿里雲稱這是「煉金術」,把熱量變成效率。

運作實況:沸騰中的硬核數據

杭州資料中心跑了幾年,數據硬核,全來自阿里雲:

  • 冷卻液沸點45°C:晶片能超頻運行,高溫下穩定,效能比風冷提20%-30%。
  • 單機櫃功率密度200kW:傳統風冷機櫃20-30kW,這是10倍,空間利用率暴增。
  • 總能耗降低72%:冷卻和運算耗電比風冷少72%,效率驚人。
  • 細節
    • 每台伺服器耗電約300-400瓦,冷卻耗電從風冷的100瓦降到20-30瓦。
    • 機櫃塞滿高密度晶片,支援AI和雲計算,扛住雙11壓力。

阿里雲說,這技術用ISO/IEC 30134-2的Level 2量測,分IT和非IT耗電,數據可信。

震撼成果:雙11的省電奇蹟

2019年雙11,杭州液冷集群大顯身手:

  • 節省4000萬度電:比風冷資料中心少用4000萬千瓦時,相當於上海迪士尼樂園半年用電(約7000萬度/年)。
  • 怎麼算:雙11交易峰值每秒58.3萬筆,液冷集群支撐核心運算,總能耗比風冷低72%,省下這巨量電力。
  • 減碳:少燒1.6萬噸煤,減排4萬噸CO2,等於種200萬棵樹。
  • 細節:液冷讓伺服器超頻,處理速度快30%,冷卻電幾乎省光。

阿里雲說,這是「沸騰晶片」的勝利,雙11成了技術秀場。

技術深挖:沸騰的細節

我們拆解杭州的液冷技術:

  • 冷卻液
    • 沸點45°C,選氟化液(如3M Novec),不導電、不燃燒,晶片泡裡面穩定跑。
    • 蒸氣冷凝靠冷凝管,管外用少量水冷,耗電極低。
  • 伺服器設計
    • 阿里自研雲伺服器,去風扇,加大散熱片,適應液冷,耗電比業界低15%。
    • 每台塞更多晶片,密度提10倍,支援AI訓練。
  • 機櫃結構
    • 單櫃200kW,像大魚缸,液體循環靠幫浦,每分鐘換液數十公升。
    • 冷凝器裝頂部,熱量排出到外部水循環,效率高。
  • 監控
    • 感測器記溫度、耗電、液位,數據回傳,用Level 2量測分耗電,雙11時用Level 3即時調整。

阿里雲說,這技術從實驗到實戰,杭州是最佳舞台。

PUE與能耗:怎麼降72%?

液冷怎麼省電?我們拆解:

  • PUE估計:阿里沒公開杭州PUE,業界猜1.1-1.2。假設10萬千瓦IT耗電,冷卻用2000-3000千瓦,總電10.2-10.3萬千瓦,PUE約1.02-1.03,風冷則1.5-2。
  • 能耗降72%:風冷每千瓦IT用0.5-1千瓦冷卻,液冷只用0.02-0.03千瓦,加上伺服器效率高,總耗電砍72%。
  • 雙11加成:高密度機櫃少用空間,省電更多。

這數據用ISO/IEC 30134-2量測,業界認可。

挑戰:液冷不簡單

杭州有難題:

  • 成本:液冷設備貴,冷卻液每公升數十元,初期投資比風冷高50%。
  • 維護:液體漏了得補,技術員需培訓,操作複雜。
  • 適用性:高密度運算強,低負載時效率不顯著。

阿里靠財力和需求扛住,但普及有距離。

啟示:沸騰的未來

杭州影響深遠:

  • 業界:Google試液冷,微軟推氮氣,大家看浸沒式。
  • 標準:ISO/IEC 30134-2或加液冷因子。
  • 永續:雙11省電成範例,推廣潛力大。

阿里說,這是起點,液冷會進更多場景。

結論:沸騰晶片的綠色傳奇

杭州用全浸沒式液冷,讓晶片在45°C沸騰,單櫃200kW,總能耗降72%,雙11省4000萬度電。這是阿里的「煉金術」,跟ISO/IEC 30134-2契合。2025年3月3日,這傳奇還在沸騰,液體證明科技能燒出效率!