80年前にシリコンバレーのガレージで誕生したHewlett Packard Enterprise(HPE)にとって、研究開発は重要な活動の1つだ。研究開発部門であるHewlett Packard Labs(HP Labs)ではさまざまな技術開発が進められているが、大きなフォーカスは数年前に打ち出したメモリー主導型アーキテクチャーの「The Machine」だ。
HPEのフェローでバイスプレジデント兼HP Labsデピュティディレクターを務めるAndrew Wheeler氏に現在の注力分野をはじめ、メモリー主導型や“クラウドレス”と呼ばれるコンピューティングについて話を聞いた。
HPEのフェローでバイスプレジデント兼HP Labsデピュティディレクターを務めるAndrew Wheeler氏
--HP Labsでは現在、どのような研究開発を進めているのか?
Wheeler氏:さまざまな研究が進んでいるが、ハイブリッドIT事業部と連携したものとして、メモリー主導型コンピューティングやセキュリティなどがある。メモリー主導型コンピューティングでは、インターコネクト(相互接続)やコンピューティングといった技術、一部のワークロードやファンクションを強化する方法などについて研究している。セキュリティでは、HPEのインフラやデバイスをどのようにして安全に保つかを考え、ハードウェアとソフトウェアの全体で検証を進めている。
ハイブリッドIT以外では、インテリジェントエッジも重要な分野だ。セルラー網とWi-Fi網とのシームレスな連携などが必要で、第5世代移動体通信システム(5G)の商用化も始まる。インドアロケーション技術を使えば、大規模な施設内で正確な位置情報を得ることも可能になる。工場にはさまざまな設備があり、そこから多種多様なデータが発生している。そのデータを安全に管理し、そこから必要な情報を得られるようにするためのソリューションも発表した。また、制御技術(OT)を構成する数千~数万単位のエッジデバイスを管理・活用するためのアプリケーションなども研究開発している。
--メモリー主導型コンピューティング「The Machine」の現状はどうなっているのか?
The Machineは、HPEが考える将来のコンピューティングに必要な理論や概念をテスト・検証するリサーチプログラムの名称となる。
背景にあるのは、(1)指数関数的なデータの増加、(2)データから即座に洞察を得る必要性、(3)ムーアの法則の限界――という3つの課題だ。これらの課題に対応するためには、全く新しいアーキテクチャーが必要になる。
The Machineでは、これまでさまざまな技術を開発してきた。その1つが、フォトニクスを用いたインターコネクト技術「Gen-Z」だ。これは伝送距離の制限を撤廃するもので、広帯域・低遅延・低消費電力を特徴とする。オープンなエコシステムを作り出すために、「Gen-Z Consortium」という業界団体が立ち上がった。オープン性があれば、さまざまなものを連携させられる。つまり、新たな技術が登場したときに、即座に対応できるわけだ。
The Machineのプロトタイプを披露したのは3年以上前になる。すぐに市場へ投入するものではないが、HPEが打ち立てた理論やアプローチを実証できた。2018年には「HPE Superdome Flex」を発表した。これはSGIのインメモリー技術を取り入れたもので、全てを備えているわけではないが、(The Machineを)初めて具体化したものと言える。
こうしたインフラをソフトウェアがどのように活用できるのかについても考えたい。HPEはメモリー主導型コンピューティングのサンドボックス(実験場)として、Superdome Flexをサービスとして利用できる環境を提供している。そこでメモリー主導型の新しいプログラミングモデルを試すことができる。
The Machineは単一のシステムとして具現化されるものではない。このプロジェクトの下で開発された最新技術や知的財産は他の製品に実装されていくことになる。
--Crayの買収はどのような役割を果たすのか?
Crayはハイパフォーマンスコンピューティング(HPC)技術を有しており、AIや機械学習で需要が高い分野となっている。HPC領域において、HPEは業界をリードし、Crayの取得によって強化されると考えている。SGI(2016年に買収)との組み合わせによって、必要な機能を全てそろえることができる。
Crayはソフトウェアに強く、ネットワーク技術などで知的財産を持っている。これらはHPEに新しい道筋をもたらしてくれる。われわれがThe Machineで開発しているインターコネクトやインメモリーなどの資産と連携できる。総じて、素晴らしいシナジー効果が出ると期待している。
最後に強調したいのが、テクノロジーやビジネスだけでなく、カルチャーにおける一致だ。これはSGIの買収時も重視したことで、買収を成功させるために重要な要素になる。
--HPEが打ち出す“クラウドレス(Cloudless)”とはどのようなものか?
クラウドレスは、サーバーを立てることなくサービスを動かす“サーバーレス”をさらに進化させたものと言える。
パブリッククラウドで動いているのか、オンプレミスで動いているのかを気にすることなく、オーケストレーションソフトやコントローラーが最もコスト効率の良い方法を決定する。コストではなく、セキュリティが優先基準になる場合もあるだろう。任意のクラウドでタスクに必要なサービスを動かす、これを簡単に実現する世界だ。
マルチクラウドを使いこなしてワークロードを運用・管理するよりも、さらに粒度が細かくなる。ファンクションレベルに細分化し、複数のクラウド環境で実行できる。機械学習が必要ならGPUインスタンスを、データベースが中心ならインメモリーインスタンスを利用するなど、クラウドサービスが有するそれぞれの特徴を生かすことができるだろう。
細分化されたサービスの使用に対価を払うコンサンプションモデルがそろって初めて実現する。
--クラウドレスを実現するためにどのような開発を進めているのか?
幾つかあるが、現時点でお話しできるのは“ゼロトラスト”を取り入れたセキュリティアーキテクチャーが必要ということだ。動かしている土台が何であれ信頼をしない。ファンクションがどのようなものであっても、正しいプロトコルやインターフェースが必要で、エンドツーエンドで信頼されたアプローチが必要だ。このようなゼロトラストの考え方が重要になる。
--2022年までに全てをAs a Serviceで提供すると約束している。これまで以上に土台の技術を意識しない方向に進む中で、研究開発の役割はどう変化するのか?
顧客もさまざまで、As a Serviceだけで良いと考えるところもあれば、要素技術を重視するところもある。オンプレミスモデルを重視する企業も残るだろう。
これまでのITは、インフラを構築し、それを消費するというモデルだった。だが、ある特定のタスクやジョブを完了するという考え方では、そのために必要なリソースを提供して顧客に満足してもらうことが重要になる。
研究開発から見ると、全く違うレベルの効率性やこれまでと異なるアプローチが可能になる。サーバーのソケット数やメモリーの搭載量といった制限がなくなり、ラックスケールやデータセンターレベルで全く異なる拡張性が得られるようになる。それによって全く新しいチャンスが開ける。とても新鮮なことだ。
(取材協力:日本ヒューレット・パッカード)