Dell Technologiesのグローバル年次イベント「Dell Technologies World 2025」(5月19~22日、米国ネバダ州ラスベガス)では、企業のAI活用が概念実証(PoC)から本格導入の段階に移行しつつあることが強調された。
20日の基調講演に登壇した代表取締役副会長 兼 共同最高執行責任者(Co-COO)のJeff Clarke氏は、「2024年、全世界ではAI関連事業に4000億ドル超が投資された。これはアポロ計画を上回る規模だが、まだ序章に過ぎない」と力説。「AIは企業の競争力を左右する基盤技術だ」と述べ、導入をためらうこと自体がリスクになると強調した。

Dell 代表取締役副会長 兼 Co-COOのJeff Clarke氏
「Dell AI Factory」が示す新たなインフラ像とは
デルは2024年、AI導入を包括的に支援するフレームワーク「Dell AI Factory」を発表した。これは、AIに最適化されたエッジデバイスから、サーバー、ストレージ、冷却システム、ネットワーク、セキュリティソリューション、マネージドサービスに至るまで、必要なコンポーネントを統合的に提供するものだ。今回のイベントでは、Dell AI Factoryを構成する製品群のアップデートとともに、AI活用を本格化するために求められるインフラの新たな設計思想が示された。それが「分離型アーキテクチャー(Disaggregated Infrastructure)」だ。

分離型アーキテクチャーの概念図(右)。既存の3層型とHCI型の「良いとこ取り」とDellは主張する(図版提供:デル・テクノロジーズ)
分離型アーキテクチャーとは、コンピュート、ストレージ、ネットワーク、冷却といったリソースを物理的・論理的に切り分け、各要素を独立して拡張・最適化できるように設計された構成を指す(関連記事)。
AIの導入と実装が進む中で、求められるインフラ構成も大きく変化している。従来主流だったハイパーコンバージドインフラストラクチャー(HCI)は、CPU、メモリー、ストレージなどを1つの筐体に統合し、構築と管理の容易さを武器に普及してきた。しかしこの一体型アーキテクチャーでは、AIワークロードの多様性や、リソース使用の偏りに対応できないというのがDellの主張だ。
実際、AIワークロードは用途によって最適な処理場所が異なる。例えば、推論処理では高速な応答が求められるため、エッジ側のPCやGPU搭載ワークステーションで実行する方が効果的である。一方、大規模なモデルのトレーニングや再学習などの高負荷処理は、データセンター内のGPUクラスターで集中的に行うことが望ましい。Dellはこうした処理特性に応じてリソースを最適に配置する、「配置の合理性」を重視しており、それを支えるインフラがDell AI Factoryというわけだ。
Clarke氏は「Dell AI Factoryは、柔軟かつ拡張性の高い分離型ストレージ構成を中核に据えている。AI活用では、ワークロードごとに求められるリソース構成が大きく異なる。今後求められるのは、そうした多様性に対応できるインフラだ」と強調した。

「Dell AI Factory」の構成要素。エッジデバイスから、サーバー、ストレージ、冷却システム、ネットワーク、セキュリティソリューション、マネージドサービスを包括的に提供する