グーグルのニューラルネットワーク--機械学習でデータセンター効率を改善 - (page 2)

Nick Heath (TechRepublic) 翻訳校正: 川村インターナショナル

2014-06-05 07:30

 「冷気通路の温度の設定値を少し変更しただけで、冷却インフラストラクチャ(冷却装置、冷却塔、熱交換器、ポンプなど)の負荷が変化し、それによって機器の効率にも非線形の変化が生じる」

 「予測モデリングの標準的な手法を用いると、大きな誤差が生じることがよくある。こうした手法では複雑な相互依存性を正確に反映することができないからだ」

 「さらに、可能な機器の組み合わせとそれらの設定値が非常に多いため、どれくらいが最適な効率なのかを特定するのは難しい」

 Googleによると、ニューラルネットワークはシステム間の無数のやりとりを最初に定義しなくても、データ内のパターンやシステム間のやりとりを検索できるため、これらのデータセンターシステムの複雑な組み合わせから結果を予測できるモデルを生成するのに適しているという。

 こうしたモデルは、データセンターのPUEを正確に予測することができる。また、データセンターがモデルの予測から大幅に逸脱した場合に自動的に問題フラグを設定できるほか、省電力の機会も特定でき、データセンターの効率改善のために新しい構成をテストすることも可能だ。

 「この種のシミュレーションによって、施設の最適な構成を特定しつつ、施設への変更に起因する不確実さを軽減するために、データセンターを仮想化することが可能になる」

 Googleはこれらの予測モデルを使用することで、インフラストラクチャを微調整してPUEの改善を実現する方法を特定しようとしており、その実例を提示した。

 「例えば、Googleのデータセンターで行われたPUEと冷気通路の温度(CAT)の比較分析結果は、冷却塔の出口冷却水温度と冷却水注入ポンプの設定値を華氏3度上げると、理論上、PUEを0.005減らせることを示唆していた。シミュレーションで算出されたこのPUEの減少値はその後、実験的なテストの結果で証明された」

 Googleの報告によれば、この論文で詳しく説明されているニューラルネットワークは、同社の主要なデータセンターの1つにおいて、1カ月にわたって高い確度でPUEを予測し、テストデータセットで平均絶対誤差率わずか0.004、標準偏差0.005という数値を達成したという。

 この論文は次のように結論づけている。「Googleのデータセンターで実際にテストを行ったところ、機械学習は既存のセンサデータを使ってデータセンターの電力効率のモデルを作成する効果的な方法であり、大幅なコスト節減を実現できることが分かった」

 「モデルとなる用途には、新しい施設の構成の評価や、電力効率パフォーマンスの査定、最適化機会の特定を行うためのデータセンターシミュレーションなどがある」

画像提供:Google
画像提供:Google

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]