資料中心三大設計挑戰:不只是多裝幾台 GPU 而已

資料中心設計挑戰|Data Center Challenges 全面解析

面對AI伺服器帶來的爆炸性成長,資料中心正面臨三大層面的關鍵挑戰:電力負載、冷卻系統,以及空間與維運設計。

這些問題不僅是硬體升級,更是要求業者重塑新的設計邏輯。

以下我們將逐一解析。


一、資料中心挑戰一:電力密度暴增,傳統供電設計無法支撐

AI伺服器集群對電力供應造成前所未有的壓力。傳統資料中心每機櫃的供電設計約落在 5–10kW,但AI伺服器常見每櫃功耗高達 20–30kW,甚至更多。

這不僅導致機櫃端配電單元(PDU)與配電盤容量不足,更牽動整體母線、變壓器與UPS(不斷電系統)全面升級。

原本使用單相電的系統,也不得不改用三相電以承載巨量電流。

此外,AI伺服器需要高等級的冗餘供電配置,通常為雙路供電(A路+B路),每一路都需具備承擔整櫃功耗的能力,這等於為每個高密度機櫃打造兩套小型供電系統,對基礎設施形成雙倍壓力。

在整體機房層級,大量AI機櫃的部署也導致總功耗大幅上升。

過去30MW已是大型機房規模,如今200MW等級的AI資料中心也日益普遍,許多區域電網根本無法直接供應這種等級的電力,導致選址須優先考慮是否臨近變電站或發電廠。


二、資料中心挑戰二:風冷已達極限,液冷成為新解方

Data Center Challenges

圖片來源:Japan Insights

冷卻能力是AI資料中心面臨的第二大挑戰。

業界普遍認為,單機櫃功耗達到30kW即為風冷散熱的極限。

超過此閾值,即使提高風速也難以有效排熱,容易產生局部熱點並導致硬體降頻。

目前常見的AI GPU,例如NVIDIA H100或B100,其單卡TDP就高達700–1000W。

若一櫃配置4台8卡伺服器,總功耗可能超過50–60kW,完全超出風冷所能承載的範圍。

液冷技術因而快速興起,成為資料中心的主流方案,主要分為三種型態:

  • 後門熱交換器(RDHX):將伺服器排風立即以水冷帶走,無須改裝伺服器,可支援40–60kW負載。
  • 直接晶片冷卻(Direct-to-Chip):在GPU/CPU上安裝冷板,冷卻液直接與熱源交換,可支援60–120kW負載。
  • 浸沒式液冷(Immersion Cooling):將伺服器整體浸泡在絕緣冷卻液中,單櫃可支援100–150kW以上,但需全面改裝,適用於高密度且新建設施。

這些技術共同目標是「就地解熱」,直接於熱源帶走熱量,提升冷卻效率並降低PUE(能源使用效率指標),同時延長硬體壽命與提升時脈穩定性。

然而,液冷也不是萬靈丹。

與風冷相比,液冷初期投資成本明顯更高,建置管線、配水系統與備援裝置所需支出可觀。

此外,液冷系統通常需要定期更換冷卻液體、清洗管線、汰換濾心與防止腐蝕,也為後期維運帶來額外成本與技術門檻。

因此,許多資料中心至今仍傾向延用風冷方案,尤其在尚未全力導入AI工作負載的環境中。


三、資料中心挑戰三:空間佈局與運維複雜度全面提升

高功率與液冷技術的導入,意味著資料中心的物理設計與維護模式都需要更新。

1. 空間設計需配合冷卻管線與重量配置

為部署液冷管線與冷卻分配單元(CDU),許多資料中心需重新評估其物理配置。

包括:通道寬度需容納冷卻液管道與維修空間,架高地板下是否能容納水管循環與監控設備,以及天花板結構是否能承受懸掛式配水系統。

同時,設備重量也成為關鍵限制因子。

某些液冷機櫃含冷卻液後總重量可達2公噸以上,遠超傳統抬高地板的承重極限,因此常需將高密度機櫃安裝於樓板基座(slab floor)上,避免地板變形或安全風險。

浸沒式液冷的物理特性也限制了其空間效率。

冷卻槽體積龐大、且不易堆疊,使得單位面積可安裝的伺服器數量下降,必須在機房初期規劃階段即納入考量,以避免未來擴充受阻。

2. 運維需跨領域整合與新技能訓練

若安裝液冷系統,需引入冷卻液循環、幫浦與熱交換器等模組,使日常維運更複雜。

因此技術人員需掌握以下能力:

  • 監控冷卻液溫度、流量與壓力
  • 處理漏液風險,安裝偵測與防護裝置
  • 正確更換水冷模組與濾心
  • 在不破壞設備下排液、補液與停機維修

此外,許多伺服器廠商對水冷改裝後的保固不予承認,企業需與原廠或第三方協商相容保固條件。


四、基礎設施準備好了嗎?

從電力到冷卻,再到空間與維運,AI伺服器帶來的三大挑戰正重塑資料中心的設計邏輯。

雖然液冷提供更高效能的解方,但其建置成本與後續維運負擔也讓許多資料中心仍猶豫不前。

企業在導入高密度伺服器前,必須評估整體成本結構與長期擴展性。

唯有全面理解並提早規劃,才能建立具備彈性與效率的AI基礎設施。

👉 下一篇:AI伺服器如何改變資料中心設計邏輯?

保持聯繫:聯絡資訊

以下為參考資料來源:

McKinsey & Company:https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand

RCR Wireless:https://www.rcrwireless.com/20250328/fundamentals/top-ai-datacenter-power

Vertiv:https://www.vertiv.com/en-asia/solutions/ai-hub/intelligent-high-density-power-distribution-unleashed-for-ai-hpc/

Cushman & Wakefield:https://www.cushmanwakefield.com/en/insights/global-data-center-market-comparison

西南證券研究所:https://www.fxbaogao.com/detail/4508054

Datacenter Dynamics:https://www.datacenterdynamics.com/en/opinions/liquid-cooling-in-your-white-space-addressing-the-concerns-for-increased-cooling-requirements/

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *