冰水主機系統佔大型建築空調能耗的 40–60%,是節能改善最大的槓桿點。傳統的運轉策略——固定的啟停順序、固定的溫度設定點——遠非最優解。當外氣條件、建築負載與電價隨時間波動時,最佳的運轉策略也應該隨之動態調整。本篇為系列第三篇,探討 AI 如何讓冰水站實現真正的即時最佳化。

AI × 冷凍空調 系列探討
  1. 數據基礎:從感測器到機器學習模型
  2. 故障偵測與預測性維護
  3. 冰水主機群最佳化:MPC 到深度強化學習(本篇)
  4. 未來願景:數位孿生、生成式 AI 與邊緣智慧

一、最佳化問題的定義

冰水主機群的運轉最佳化,在數學上可表述為一個帶約束的非線性最佳化問題。目標函數是最小化系統總能耗(或總運轉成本),決策變數包括:

  • 主機啟停組合:在給定時刻應啟動哪幾台冰水主機
  • 冰水出水溫度設定:降低出水溫度增加主機能耗但提升供冷能力
  • 冷卻水溫度設定:降低冷卻水溫可提升主機效率但增加冷卻塔能耗
  • 水泵與風車頻率:變頻運轉的最佳頻率隨負載而變

約束條件則包括空間溫濕度需求、設備運轉上下限、啟停次數限制、以及電力容量限制等。這個問題的挑戰在於:系統具有強烈的非線性、時變特性、各子系統之間的耦合效應,以及建築熱慣性帶來的時間延遲。

二、傳統最佳化方法回顧

Braun(1990)在 Purdue 大學的博士研究[1]奠定了冰水主機系統最佳化的理論基礎。他建立了冰水主機、冷卻塔、水泵的穩態模型,並證明在給定負載條件下,存在最佳的冷卻水溫度與水泵流量組合。這項工作啟發了後續大量的研究與商業產品。

傳統方法的主要局限包括:

  • 穩態假設:多數最佳化在穩態條件下求解,忽略了系統的動態響應與建築熱慣性
  • 模型不確定性:物理模型的參數(如冰水主機的性能曲線)需要定期校正,且難以準確反映設備劣化
  • 計算速度:傳統的非線性規劃需要反覆迭代,對即時控制的響應速度要求可能力有未逮

ASHRAE Guideline 36 的第 5.18 節[2]提供了冰水主機系統的高效能控制序列,包括基於負載的啟停邏輯與冷卻水溫度重設策略。這些規則式方法在實務上已能實現 10–20% 的節能效果,但與理論最優解之間仍有差距。

三、模型預測控制(MPC):前瞻性的最佳化

模型預測控制(Model Predictive Control, MPC)的核心思想是利用系統的預測模型,在滾動時間窗口內求解最佳控制序列。對冰水主機系統而言,MPC 可結合天氣預報、建築負載預測與電價資訊,提前規劃未來數小時的運轉策略。

MPC 的三個支柱

  • 預測模型:建築熱力學模型(簡化的 RC 電路模型或數據驅動的 ML 模型)預測未來負載變化
  • 目標函數:最小化預測時間窗口內的總能耗或總成本(可加入時間電價因素)
  • 滾動優化:每個控制步驟重新求解,利用最新的量測數據修正預測偏差

Henze 教授(University of Colorado Boulder)的團隊在 2004 年的研究中[3]展示了 MPC 在冰蓄冷系統中的應用,透過預測隔日的冷卻需求與電價結構,最佳化蓄冰與融冰的排程,實現顯著的電費節省。Drgona 等人(2020)的綜述論文[4]系統性地回顧了 MPC 在建築能源系統中的進展,指出數據驅動 MPC 正在克服傳統物理模型 MPC 的建模成本瓶頸。

MPC 的實務挑戰

儘管 MPC 在學術研究中展現了 15–30% 的節能潛力,其在實際工程中的部署仍面臨:預測模型的開發與維護成本、求解器的即時性能要求、與既有 BMS 的整合複雜度,以及工程團隊對「黑盒」控制器的信任度問題。

四、深度強化學習:從模擬到實戰

深度強化學習(Deep Reinforcement Learning, DRL)為空調最佳化帶來了一個全新的範式:不需要預先建立系統模型,AI 代理(Agent)透過與環境的反覆互動(試錯),自主學習最佳的控制策略。

常見的 DRL 演算法

  • DQN(Deep Q-Network):適用於離散動作空間(如主機啟停決策),Wei 等人(2017)最早將 DQN 應用於 HVAC 控制[5]
  • DDPG(Deep Deterministic Policy Gradient):適用於連續動作空間(如溫度設定值的連續調節)
  • SAC(Soft Actor-Critic):在連續控制任務中具有較好的穩定性與探索效率

CityLearn:標準化的訓練與評估環境

UT Austin 的 Nagy 教授團隊開發的 CityLearn 平台[6]為建築能源 DRL 研究提供了標準化的模擬環境。CityLearn 模擬了建築群的能耗動態,包括冷凍空調、蓄能與電網互動,讓研究者可以安全地訓練和比較不同 DRL 演算法的性能——而不需要在真實建築上進行可能造成不舒適或設備損壞的探索性控制。

DRL 的核心挑戰

將 DRL 從模擬環境部署到真實冰水主機系統,面臨「模擬到現實」(Sim-to-Real)的鴻溝:

  • 安全性保證:DRL 的探索行為可能產生不安全的控制動作(如讓空間溫度飆升或設備頻繁啟停)
  • 訓練數據需求:DRL 通常需要數百萬步的互動才能收斂,在真實系統上不切實際
  • 非穩定環境:建築物的使用模式與外氣條件不斷變化,DRL 代理需要持續適應

五、物理資訊機器學習:融合知識與數據

物理資訊機器學習(Physics-Informed Machine Learning, PIML)試圖在純數據驅動與純物理模型之間找到平衡點,將已知的物理定律(如能量守恆、熱力學第一/第二定律)作為約束條件嵌入 ML 模型中。

對冰水主機系統而言,PIML 的應用形式包括:在神經網路的損失函數中加入能量平衡約束、利用物理模型生成訓練數據增強(Physics-Guided Data Augmentation)、以及灰箱模型(Grey-Box Model)將物理方程式與 ML 模組組合。PIML 的優勢在於以較少的數據量達到良好的預測精度,且模型的輸出較不容易違反物理常識。

六、台灣冰水站實務考量

將 AI 最佳化技術應用於台灣的冰水主機站,需要考慮以下在地化因素:

  • 高溫高濕的運轉工況:台灣年均濕球溫度偏高,冷卻塔效率受限,冰水主機長時間在高冷凝溫度下運轉,最佳化空間與溫帶地區有所不同
  • 電價結構:台電的尖峰/半尖峰/離峰電價差異提供了負載移轉的經濟誘因,MPC 可據此最佳化蓄冰與卸載排程
  • 設備組合多樣性:台灣建築常見的冰水主機組合包含不同年份、不同廠牌、不同容量的機組,AI 模型需要處理異質設備群的協調優化
  • 空間溫濕度要求嚴格:台灣業主對室內溫度敏感,AI 控制器必須在節能與舒適度之間取得精確平衡,不能為了節能而犧牲使用者體驗

ASHRAE HVAC Applications Handbook 第 43 章[7]對建築運轉最佳化提供了全面的技術指引,強調最佳化策略必須與實際的建築運維流程無縫整合,才能實現持續性的節能效益。

結語

從 Braun 的穩態最佳化到 MPC 的前瞻式控制,再到 DRL 的自主學習——冰水主機群的 AI 最佳化正沿著一條清晰的技術路徑演進。但技術的進步不應讓工程師忘記最基本的原則:最佳化的前提是正確的數據(系列首篇)與健康的設備(系列第二篇)。在系列的最後一篇中,我們將展望 AI 空調的未來——數位孿生、生成式 AI 與邊緣智慧將如何進一步重塑空調工程師的角色。