AI 演算時代はデータセンターの冷却要件を根本的に再定義しました。従来のサーバーラックの電力密度は約 5~10 kW ですが、GPU 高密度演算ラックは 40~100 kW 以上に達し、従来の空冷システムの冷却能力をはるかに超えています。当事務所は ASHRAE TC 9.9 技術委員会の熱環境ガイドラインに基づき、AI 計算力センター向けの高性能冷却システムを設計します。
設計プロセス
- IT 負荷・冷却要件の分析——GPU サーバー仕様、ラック電力密度、機械室の総 IT 負荷および将来の拡張計画を確認し、総冷却要件を算出します。
- 冷却方式の評価・選定——ラック電力密度に基づき、空冷、列間冷却、リアドアヒートエクスチェンジャー(RDHx)、直接液冷(DLC)または浸漬式液冷などの方式の適用性を評価[1]。
- ホットアイル・コールドアイル封止設計——コールドアイル封止(Cold Aisle Containment)またはホットアイル封止(Hot Aisle Containment)方式を計画し、気流管理効率を向上[2]。
- 冷熱源システムの設計——チラー、冷却塔、フリークーリング(Free Cooling)システムを計画し、ASHRAE 90.4 に基づき PUE を最適化[3]。
- バックアップ・信頼性の計画——機械室等級(Tier I~IV)に応じて N+1 または 2N の冷却バックアップを計画し、冷却システムの無停止運転を確保します。
- 監視・管理システムの統合——環境監視システム(DCIM)を導入し、各ラックの吸気温度、排気温度、冷却水温度・流量などの重要パラメータをリアルタイムで監視します。
技術仕様・規格
- ASHRAE TC 9.9 熱環境ガイドライン——データセンター IT 機器の推奨吸気温度範囲(A1 クラス:18~27°C)および許容範囲(15~32°C)、ならびに湿度推奨範囲を定義[2]。
- ASHRAE Standard 90.4——データセンターのエネルギー効率規格。冷却システムの最低エネルギー効率要件を規定し、PUE(Power Usage Effectiveness)をコア指標として採用[3]。
- ASHRAE Liquid Cooling Guidelines——液冷システム設計ガイドライン。直接液冷(Direct Liquid Cooling)および浸漬式冷却(Immersion Cooling)の設計原則を網羅[1]。
コア設計上の考慮事項
空冷システムの限界と突破
従来の機械室精密空調と高架フロアからの下部送風方式は、ラック電力密度が 15~20 kW を超えると冷却のボトルネックに直面します。ホットアイル・コールドアイル封止により空冷システムの冷却能力を約 25~30 kW/ラックまで向上できます[2]。列間冷却(In-Row Cooling)は冷却設備をラック列の間に直接設置し、冷却経路を短縮することで、より高い電力密度に対応します。しかし、40 kW 以上の GPU ラックには液冷方式が必須の選択肢となります。
液冷技術の工学的実務
直接液冷(DLC)はコールドプレート(Cold Plate)を通じて CPU/GPU の廃熱を直接除去し、冷却効率は空冷をはるかに上回ります。冷却液は通常、脱イオン水または特殊冷却液を使用し、供給温度は 35~45°C に設定可能で、フリークーリングの採用に有利であり、冷熱源システムのエネルギー消費を削減します。浸漬式液冷はサーバー全体を非導電性冷却液に浸漬し、冷却効率は最も高いですが、機械室の設計と保守方式に根本的な変化をもたらします。
PUE 最適化戦略
ASHRAE 90.4 は PUE をデータセンターのエネルギー効率のコア指標としています[3]。PUE を低減するための主要戦略には、冷水供給温度の上昇によるフリークーリング時間の増加、インバーター駆動のポンプ・ファンの採用、冷却塔アプローチ温度の最適化、および AI アルゴリズムによる冷却システム運転パラメータの動的調整が含まれます。最新の高効率データセンターの PUE 目標は通常 1.2~1.3 以下に設定されます。
当事務所の強み
AI 計算力センターの空調設計は従来の機械室工事の全面的なアップグレードです。従来の空冷から液冷技術の導入まで、単一の機械室から大規模パークの総合冷熱源計画まで、あらゆる工程に深い工学的素養と新技術トレンドの把握が必要です。当チームは半世紀近い冷凍空調工事の経験と新世代冷却技術の継続的な研究を融合し、お客様に信頼性と先進性を兼ね備えた設計ソリューションを提供します。
冷却技術の比較
従来の空冷方式
従来の空冷システムは精密空調機(CRAC/CRAH)と高架フロアからの送風または天井からの送風方式を採用し、1ラックあたり消費電力 10kW 以下の従来型データセンターに適しています。空冷方式の利点はシステムが成熟していること、保守が容易なこと、IT 機器と完全に分離されていることです。しかし、AI 演算による 1ラックあたり 30kW さらには 100kW を超える消費電力の突破に伴い、純粋な空冷方式では冷却要件を満たすことが困難になっています——空気の比熱(1.005 kJ/kg·K)は水(4.186 kJ/kg·K)よりはるかに低く、同じ冷却量では極めて大きな風量が必要となり、騒音問題が深刻化するだけでなく、エネルギー効率も大幅に低下します。
直接液冷方式
直接液冷(Direct Liquid Cooling, DLC)技術は冷却液を GPU チップ表面のコールドプレート(Cold Plate)に直接導き、最高効率の冷却を実現します。現在主流の DLC 方式には、単相液冷(脱イオン水またはプロピレングリコール溶液を使用)と二相液冷(3M Novec シリーズなどの低沸点作動流体を使用)があります。単相液冷技術はすでに十分に成熟しており、NVIDIA の DGX シリーズサーバーはすべてコールドプレート液冷方式に対応し、1ラック 100kW 以上の冷却要件に対応可能です。当事務所は液冷方式の配管設計、冷却液分配ユニット(CDU)の選定およびシステム漏洩防止計画において包括的な工学能力を蓄積しています。
浸漬式液冷
浸漬式液冷(Immersion Cooling)はサーバー全体を非導電性冷却液に浸漬し、全面的な冷却を実現します。この方式はファン騒音を完全に排除し、PUE 値を大幅に低減でき(1.03~1.05 に達する可能性あり)、IT 機器のレイアウト柔軟性が最も高くなります。しかし、浸漬式液冷は現在、冷却液コストの高さ、設備保守の不便さ、および一部の IT 機器との互換性の問題に直面しています。当事務所はこの技術の発展を継続的にフォローし、お客様に先進的な技術アドバイスを提供します。
電力と冷却の協調計画
AI 計算力センターの電力システムと冷却システムは密接不可分です。IT 電力 1kW を消費するごとに、冷却システムは約 0.2~0.5kW の補助電力を必要とします(PUE 値に依存)。計画段階から電力容量、配電アーキテクチャ、UPS システムおよび冷却システムを一体的に検討し、いずれかがボトルネックとなることを回避する必要があります。当事務所は電力工事チームと緊密に連携し、総合電力計画からラックレベルの配電・冷却方式まで、一体化した工事設計サービスを提供します。