オンプレミスが融合するこれからのハイブリッドプラットフォーム

生成AI活用の現在地と課題--なぜハイブリッド環境が必要か

吉田栄信 (Cloudera)

2025-07-01 07:00

 2025年、企業の生成AI利用は、これまでの熱狂的なブームから、より実用的な視点へと移行しつつあります。AIアシスタントや「Copilot」などのユーザーフレンドリーなツールの普及により、日々の意思決定におけるAI活用が一般化しています。しかし、生成AIの価値を最大限に引き出すには、「質の高いデータ」と「信頼できるプラットフォーム」の整備が不可欠です。

 LINEヤフー、ソフトバンク、日本総合研究所、日本取引所グループ(JPX)などの膨大なデータ保有企業を支えてきたClouderaの知見をもとに、生成AIの本格活用に欠かせない技術基盤、ハイブリッドプラットフォームについて解説します。

生成AIの過熱ブームから、勝者の生き残りへ

 企業に生成AIが試験導入され始めた2024年を経て、2025年は本格運用と利用拡大の様相を呈しています。今後は、生成AIを活用し成果を上げる企業と、そうでない企業との間で明確な差が生まれ、ビジネスの成果において二極化が一層顕著になると考えられています。こうした背景のもと、企業がAI活用で競争優位を築くためには、基盤となるプラットフォームの整備が欠かせません。

 McKinsey&Companyの調査によると、世界全体ですでに65%の企業が生成AIを定期的に活用しており、これによって人事部門では大幅なコスト削減、サプライチェーン管理では収益の増加が報告されています。特に金融業界は、生成AIの先進的な導入分野の1つとされており、不正検知の手法が従来のルールベースのシステムから、より高度なモデルベースのシステムへと移行するという大きな変化を目の当たりにしています。

 生成AIの価値は、超大規模な知識をもとにビジネスに有用な判断材料を自動的に引き出す点にあります。しかし、質の高いデータがなければ、AIモデルは適切に機能しません。翻って、大規模なデータベースを持たない企業が使えるのは、従来型の機械学習モデルなどに限られざるを得ません。つまり、信頼できる大規模データを活用し、実用的なインサイト(洞察)を引き出せる企業が、生成AI活用の勝者となるのです。

データの移動を可能にするハイブリッドプラットフォーム

 ハイブリッド環境では、クラウド、オンプレミス、エッジといった多様な場所にデータが分散しています。これらを統合し、安全性とガバナンスを確保しながら活用できる環境の整備は、企業にとって継続的な課題となっています。こうした状況の中、企業は、データが存在するあらゆる場所で生成AIモデルを活用できる能力を備えることで、データやワークロードをシームレスに移動させ、そこから価値ある洞察を導き出して、ビジネスニーズに柔軟に対応できるようになります。

 さらに、企業がオンプレミスやパブリッククラウド環境において、AIモデルやアプリケーションをプライベートに運用する動きを加速させている中で、オンプレミスとクラウドにまたがるデータソースを統合するハイブリッドデータ管理プラットフォームの重要性が高まっています。このようなプラットフォームは、柔軟なデータ活用を可能にし、多様なデータセットへの広範なアクセスを提供する一方で、AIモデルのエンドポイントや運用全体の管理、セキュリティ、ガバナンスを確保するためのカギとなります。

 特に日本市場では、クラウドへの全面的な移行だけでなく、過渡期にある企業環境を踏まえた上で、オンプレミスとクラウドを適材適所で使い分けることが、今後のIT戦略において重要となっています。

 今後、企業がハイブリッドプラットフォームを採用する際には、クラウドからオンプレミスへの回帰を含めた多様なシナリオに柔軟に対応できる力が求められます。AI時代においてハイブリッド戦略が重視される理由は、単にシステムの選択肢を広げるためではなく、柔軟性を確保しながら、同時にリスク管理を実現するためです。

 さらに言えば、大量のデータがAIモデルのサービスに投入される現在、セキュリティとガバナンスの重要性が一層高まることは避けられません。Deloitteの調査によると、企業における生成AIの導入を阻む最大の要因は、コンプライアンスリスクとガバナンスに対する懸念であると報告されています。こうした課題は、ハイブリッドプラットフォームにおいても同様に当てはまります。

パブリックLLMからプライベートLLMへの移行

 企業がAIを活用してデータから洞察を引き出していることは、すでに述べた通りです。AIモデルがコモディティー化する中で、顧客にとっての価値は、AIアプリケーションを迅速に構築できることによって生まれます。

 企業におけるAIイノベーションの重要性が高まる中、パブリックの大規模言語モデル(LLM)から、より正確なインサイトを提供できるエンタープライズグレードやプライベートLLMへの移行が進んでいます。McKinseyの調査によると、現在、独自のモデルを大幅にカスタマイズまたは開発している企業は47%にとどまっています。しかし、2025年には、企業ごとのニーズや業界特性に適応したAI駆動型チャットボット、バーチャルアシスタント、エージェント型アプリケーションの開発が加速すると予測されています。

 エンタープライズグレードのLLMを導入する企業が増えるにつれて、GPUによる高速処理の必要性が高まり、従来のCPUでは対応しきれない高度な処理への需要が増加しています。これは、セキュリティとプライバシーを強化した堅牢なデータガバナンスの必要性の高まりにもつながっています。

 企業は、汎用(はんよう)的なLLMを業界特化型や組織専用のデータリポジトリーへと進化させるために、検索拡張生成(RAG)技術やファインチューニングの活用を加速させるでしょう。これにより、フィールドサポート、人事、サプライチェーンなどの現場で活用できる、より正確で信頼性の高いAIソリューションが実現されると考えられます。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]