本特集「KVM徹底解説」は、今回が最終回となります。前回の「クラウドOSの特徴とKVM」では、クラウドコンピューティング環境におけるKVMの位置づけを紹介しましたが、最終回は本特集の主役であるKVMに話題を戻しましょう。
1. 利便性の高い仮想化技術も導入の留意点はある
企業のサーバ統合基盤やクラウドコンピューティングの基盤として普及しているKVMは、コンピュータリソースの有効活用や、急激に変化するトランザクション処理に対して、柔軟にコンピュータリソースを拡張、収縮することが可能な重要な基盤技術です。
上手に適用していくことで仮想化技術が持つ利点を享受できますが、導入および運用していく上で留意点があります。
これは仮想化技術全般にいえることですが、ハイパーバイザ上でゲストOSが稼働するというアーキテクチャに起因している部分です。物理環境では、OSは直接物理リソースにアクセスしますが、KVM環境においては、ゲストOSは物理リソースにアクセスしているようにみえて、実際はKVMを介して物理リソースにアクセスします(第2回「KVMの機能」を参照)。
このアーキテクチャによって多くのメリットを享受できる反面、性能や運用面でのデメリットもあります。性能面では、物理環境ではOSが直接物理リソースにアクセスするのに対して、ハイパーバイザ層で仮想から物理への変換オーバーヘッドが発生するので、物理環境と比較すると性能は劣化します。運用面では、サーバノードあたりに複数のゲストOSが稼働する環境のリソース管理を適正化することの難しさがデメリットといえるでしょう。
2. 課題への取り組み
オーバーヘッドによる性能劣化
KVMのアーキテクチャからハイパーバイザでのオーバーヘッドを回避することは困難です。しかし、仮想化環境上での負荷テストを実施し、その結果から性能要件に対して適正なサイジングをことにより、この課題を解決することは可能です。この課題は、KVMに限定したものではなく、仮想化技術全般に当てはまるものです。
リソース管理の課題
そもそも仮想化技術は、複数のゲストOSを1つのノードに統合することで、コンピュータリソースを有効に活用することが利点ですが、これは適正なチューニングが施されていることが前提となります。ここでいう“適正なチューニング”の実現は難易度が高いので、仮想化技術であるKVMの今後の課題とみることができます。この課題については、次章で更に詳細に解説をします。