article banner

Google 如何使用 AI 改善資料中心的 PUE

Google的PUE旅程:從1.5到1.10

Google是最早採用PUE的科技公司之一。2008年,他們開始公開資料中心的PUE數據,當時業界平均在1.5到2之間,Google也不例外。但他們看到The Green Grid提出的PUE後,決定把效率當成目標。根據Google的「Data Center Efficiency」頁面(截至2023年),他們的全球平均PUE已降到1.10,部分設施甚至更低。這靠的是幾個真實策略:

  • 高效設備:Google自製伺服器和UPS,減少電力轉換損失。他們在2011年報告中提到,這讓耗電比業界標准低10%-20%。
  • 自然冷卻:把資料中心建在冷氣候地區,像芬蘭的Hamina,用戶外空氣或海水散熱。
  • 公開數據:從2008年起,他們每季發布PUE,給自己壓力,也讓業界有參考。

Google的量測符合ISO/IEC 30134-2的Level 2標準,分開記錄IT和非IT耗電,發現冷卻是主要耗能點。

DeepMind AI的真實貢獻

2016年,Google跟DeepMind合作,用AI優化資料中心冷卻,這是公開報導的事實。根據Google官方部落格(2016年8月)和DeepMind的聲明,他們用機器學習分析天氣、負載等數據,動態調整冷卻系統,結果冷卻耗電減少了40%。這讓PUE從原本的1.2左右進一步下降。

  • 怎麼做的
    • 用感測器收集即時數據(符合Level 3量測精神,但Google沒明說等級)。
    • AI預測冷卻需求,自動調整風扇和冷卻塔,比人工管理省電。
  • 成果:Google沒公布具體PUE數字,但說整體效率提升15%,業界估計這讓他們的頂尖設施PUE接近1.10。

這案例直接用上了即時PUE的概念,監控當下能效,找出省電空間。

芬蘭Hamina資料中心:自然冷卻的真實案例

Google在芬蘭Hamina的資料中心是PUE優化的經典例子。根據他們的環境報告和新聞稿(2011年啟用,後續升級),這座設施用波羅的海海水冷卻,完全不靠傳統空調。公開數據顯示,這裡的PUE長期低於1.2,比業界平均好很多。

  • 細節
    • 海水通過熱交換器冷卻伺服器,耗電極低。
    • Level 2量測分離冷卻和IT耗電,證實冷卻效率超高。
  • 成果:Google沒公開這座的確切PUE,但整體平均1.10包含了這種高效設施,業界認為這裡可能是最低的之一。

這案例展現了設計PUE的威力:從選址到冷卻方案,早就瞄準低耗能。

可再生能源的真實加持

Google從2017年起承諾100%使用可再生能源,這在「2023 Environmental Report」中有記錄。他們透過購買風能和太陽能,匹配資料中心的用電。雖然PUE只看電量不看來源,但這讓他們的環境影響大幅降低。比如:

  • 愛爾蘭資料中心:靠當地風電運行,PUE約1.12(來自Google公開區間),碳排幾乎為零。
  • 影響:全球資料中心年耗電約40億千瓦時,全用綠電,省下大量碳排。

這雖然跟ISO/IEC 30134-2沒直接關聯,但顯示PUE只是綠色化的起點。

Google的真實案例

  • 技術領先:AI和自然冷卻是硬實力,公開可查。
  • 標準應用:Level 2和3量測幫他們精準省電。
  • 公開透明:每季PUE報告(像2023年Q3的1.10)讓業界有標竿。

Google沒公開每個設施的PPUE或即時PUE細節,但整體策略完全符合ISO/IEC 30134-2的精神。他們的平均PUE 1.10已是業界頂尖,證明標準可行。

案例啟示:標準落地靠執行

Google的真實案例告訴我們,ISO/IEC 30134-2不是空話。從設計階段選冷卻方案(芬蘭海水),到運營中用AI監控(DeepMind),再到全年平均PUE的追蹤(1.10),標準的量測等級和PUE概念都有用武之地。當然,他們是巨頭,有資源用Level 3量測和頂尖技術,一般公司可能從Level 1開始,但方向是一樣的:效率第一。