你的購物車目前是空的!

人工智慧(AI)應用的爆發,正以前所未有的速度重塑資料中心的設計邏輯。
從AI模型訓練到深度學習推論,高功耗的GPU伺服器取代傳統IT架構,成為企業爭奪算力資源的核心配置。
隨之而來的,是電力供應、熱密度與硬體佈局的全面重構壓力。
圖片來源:Bloomenergy
傳統 IT 伺服器機櫃的功耗多落在 5–10kW,足以應付資料儲存與一般應用。
然而,AI 型伺服器搭載多顆 GPU 後,單櫃功耗已輕易突破 30kW,甚至上看 100kW。
這代表一櫃設備的能耗,相當於過去六櫃的水準,對電力與散熱系統構成巨大壓力。
高密度功耗同時意味著高密度熱源。
30kW 的發熱量,相當於數十台家用冷氣同時開啟,卻集中在不到一坪的空間內。
若散熱設計不足,極易產生熱點,導致伺服器降頻甚至設備損壞。
這股現象並非個案,而是全球趨勢。
根據 Cushman & Wakefield 報告,2021 年平均每櫃功率密度為 5–30kW,預期到 2025 年將達 30–120kW,部分高階應用甚至突破百千瓦。
這顯示 AI 算力需求已遠超過傳統資料中心設計假設,新的基礎設施規範與散熱方案已迫在眉睫。
隨著 AI 伺服器功耗持續飆升,傳統風冷散熱技術已經逼近極限。
以 NVIDIA H100 GPU 為例,單卡 TDP 就高達 700W,若伺服器裝上多卡,單機耗電即可突破 10kW。
一個標準機櫃若配置 4 台此類伺服器,總功耗輕易超過 40kW,風冷系統難以有效帶走熱量。
即便風扇全速運轉,也容易形成熱點與降頻現象。
因此,越來越多資料中心已轉向 液冷技術,透過冷板、後門熱交換器或浸沒式液冷,顯著提升熱傳導效率。
液冷不僅是技術升級,更正在推動資料中心的角色轉變:從單純的「IT 配套設施」,走向真正的「AI 基礎建設平台」。
未來資料中心的設計標準,將不再只是伺服器數量,而是取決於三項核心指標:
AI 型伺服器早已不是「多塞幾張 GPU 卡」就能解決的問題。
從電力供應、散熱方式,到空間佈局與維運流程,每個環節都需要重新思考與投資。
這代表資料中心不只是硬體設施的堆疊,而是一套與 AI 應用深度綁定的基礎建設邏輯。
對我來說,這個轉變的關鍵在於:資料中心正逐漸成為「AI 工廠」,它的設計將決定一個國家或企業能否跟上算力競賽。
這也是為什麼我會持續關注電力、冷卻與運維的演進,因為它們牽動的不只是技術,而是未來的產業版圖。
如果您對 AI Data Center Impact 這個主題有興趣,歡迎持續關注這個部落格,我會陸續分享更多分析與心得。
➡️ 下一篇:深入探討資料中心三大設計挑戰:不只是多裝幾台 GPU 而已
以下為參考資料來源:
McKinsey & Company:https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand
RCR Wireless:https://www.rcrwireless.com/20250328/fundamentals/top-ai-datacenter-power
Cushman & Wakefield:https://www.cushmanwakefield.com/en/insights/global-data-center-market-comparison
Bloomenergy:https://www.bloomenergy.com/blog/ai-data-center/
發佈留言