ポリモーフィックコンピューティングというHPの夢の実現にとって2つ目の障壁となるのは、ワークロードを処理するために結合が必要な構成部品を編成するソフトウェアの開発だ。Fink氏によるとHPはこの分野ですでに良好な成果を得ているという。「次世代管理ソフトウェアの「Insight Dynamics-VSE」によって、そのような機能の一部を提供できると考えている」(Fink氏)
IntelのBautista氏もソフトウェアが課題だと指摘する。「技術の進歩にソフトウェアは追いついていけるのだろうか」と同氏。
コンピューティングプロセスを逐次的な問題解決手法で構成するやり方に慣れている開発者は、今までのデータ処理システムを超並列アーキテクチャ上に再構築する方法を習得しようと努力している。超並列システムは高性能コンピューティング(HPC)の分野で独占的に利用されてきたが、高集積マルチコアシステムが登場してきたおかげで、急速に、より一般的なものになりつつある。
アーキテクチャの大きな変化が現実のものとなり、開発者が思考プロセスを適応させようとするにつれて、アプリケーションの設計手法が今後大きく変化することが見込まれる。
2008年はじめに上海で開催されたIntel Developers Forumでは、C++プログラムを「コードを1行も変更せずに」パラレルコンピュータに使用できるようにするCtと呼ぶプログラミングモデルを、Intelがアピールした。
データセンターの明日
それでは、次世代あるいは2世代後のサーバあるいはデータセンターは、どのような姿をしているのだろうか。
現在のネットワークエンジニアにとっては気が遠くなる話かもしれないが、データをそのままのスピードでルーティングするためにあらゆるタイプのオプティカルネットワークスイッチを活用して、プロセッサコアからリモートサイトにまで至るすべてがオプティカル設計となると考えられる。ハードディスクはまだ存在しているだろうが、高密度化が進み、メモリで構成されたストレージの脇役になっているだろう。そして業界は、設計と製造の継続的な革新によって、「ムーアの法則」が示す予測の先を進んでいるに違いない。
「メーカーは、私たちが日々取り組んでいる重要な要因を地道に掘り下げてくれる、目を見張るようなプロセス改革が継続的に進められている」
「メーカーは、高性能なプロセスを提供するだけではなく、重要な要因をより小さくしていきながら、プロセスの根幹のところで素晴らしい成果を上げているようだ」とBautista氏は述べた。