費用を億単位で削減--ソフトバンクが2つのデータセンターを仮想統合した意味 - (page 2)

日川佳三

2016-07-11 06:00

 こうした中で、「2カ所のデータセンターをつないでリソースを共有するというアイディアが出た」(浜田氏)。リソースを共有すれば、互いにリソースを調達し合える。これにより、「リソース枯渇までの時間を稼ぐことにした」(浜田氏)

 リソースを共有すればインターネット接続回線を1本化できる。さらに「片方のデータセンターにあるウェブアプリケーションサーバから、もう片方のデータセンターにあるストレージにアクセスするといった組み合わせもできる」

広域にまたがったL2ファブリックをTRILLで構築

 リソースを共有するための要素技術としてラック内のサーバやストレージを直接収容するToR(トップオブラック)用途のエッジスイッチに標準規格「TRILL(TRansparent Interconnection of Lots of Links)」に準拠したL2ファブリック技術を搭載した製品を採用した。

 最大の特徴は、複数のスイッチをつなぐだけで、全体で1つのフラットなL2ネットワークを形成できる。経路を冗長化したマルチパス構成時も、それぞれの経路をアクティブアクティブ構成ですべて生かして通信できる。帯域を無駄なく使える。

 2カ所のデータセンターを合計して、約200台を導入し、業務システムのサーバを収容した。データセンター間は2回線で接続した。こうして、2カ所のデータセンターをまたいだ単一のL2ネットワークを形成した。

 既存のネットワークを残したまま、L2ファブリックを別途新規に追加した形だ。個々の業務システムをリプレースするタイミングで、業務システムごとに順次、L2ファブリックへと移行している。サーバを収容するスイッチが足りない場合は、その都度スイッチを増設している。全体では約2000台のサーバがあり、このうち約1000台のサーバをL2ファブリックに移行済みだ。

箱から出してつなぐだけでスイッチを増設、「運用コストが大きく下がった」

 ソフトバンクで情報システム本部ネットワーク統括部ネットワーク部データセンターネットワーク課に所属する森川潤氏は、「L2ファブリック機能の良さを実感している」と導入の効果を評価している。

ソフトバンク システム基盤本部 ネットワーク統括部 ネットワーク部 データセンターネットワーク課 森川潤氏
ソフトバンク システム基盤本部 ネットワーク統括部 ネットワーク部 データセンターネットワーク課 森川潤氏

 まず、運用コストが下がったという。「スイッチを増やす際、箱から出して最低限の設定を施してつなぐだけで、自動的にL2ファブリックにつながる」(森川氏)。このように、増設時の手間が省ける点を高く評価している。L2ファブリック全体の設定も、簡単にファブリック全体をまとめて管理できる。

 以前は、「スイッチを1台増設するのに、1人日ほどのコストがかかっていた」(森川氏)。設定(コンフィグ)を投入し、環境につなぎ、開通試験を実施する、といった一連の手間が必要になっていた。L2ファブリックの導入によって、こうした作業が1時間から2時間ほどの手間で終わるようになった。

 ネットワーク設計もSTP(Spanning Tree Protocol)などの既存の仕組みと違ってループフリーなので楽だという。従来は経路を冗長化する際にアクティブな経路とバックアップ経路を用意していたが、L2ファブリックならすべての経路を同時にアクティブに利用できる。

 L2ファブリックの選定では、いくつかの競合技術と比較検討した。具体的には(1)L2ファブリックを実現する規格の1つであるTRILL、(2)SDN(Software-Defined Networking)規格の1つであるOpenFlow、(3)L3ネットワークを介してL2ネットワークを構築するトンネリングプロトコルの1つであるVXLAN――の3つを検討した。

 (2)のOpenFlowは、専用コントローラが必要になるなど投資額がかさむほか、設定が複雑になって扱いが難しいという難点があった。(3)のVXLANは、検討当時はまだ出始めの製品技術であり、技術的に洗練されていなかった。こうした背景から(1)の、技術的に成熟していて扱いが簡単なTRILLを選定した。

データセンター間の長距離通信の検証に苦労

 L2ファブリックの導入に当たって苦労したことはほとんどなかったが、「導入前の検証環境の調達に苦労した」(浜田氏)という。データセンター間をWAN(Wide Area Network)でつなぐ仕組みであったため、データセンター間の通信距離を再現した環境で性能を検証したかった。ここで、シミュレータではなく実環境で長距離を検証できる環境を用意するのが難しかった。

 結果としては、広帯域専用線を管理している技術部門が検証用に用意していた環境が空いていたので、これを借りて検証した。現実の回線を利用し、150キロメートルの距離を検証できる環境だった。

 検証の結果、レイテンシ(遅延時間)は2ミリ秒ほどで済んだ。距離に対して理論値プラスαに収まっており、非常に高速だった。実際に導入後の性能も高い。「データセンターをまたいだストレージアクセスなども実際に行っているが、性能面で問題は出ていない」(森川氏)

 なお、今回つないだデータセンター間の直線距離は約30キロメートルだが、広帯域専用線はリング状になっており、2系統の片方は約180キロメートル、もう片方は約70キロメートルほどの距離があった。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]