生成AI市場の急拡大を背景に、データプラットフォーム各社はAI機能の強化でサービスの差別化を図っている。プラットフォーム全体にAIを統合し、あらゆるデータを横断的、かつ業務の関連性を踏まえて活用できる「AIネイティブなプラットフォーム」の提供だ。
こうした中、Snowflakeはクラウドネイティブアーキテクチャーの特性を生かし、AIによる機能強化を矢継ぎ早に展開している。6月に米国サンフランシスコで開催した年次イベント「Snowflake Summit 2025」では、ビジネスユーザーがAIエージェントを構築したり自然言語でデータ分析したりできる新機能を複数発表した。

「Snowflake Summit 2025」はサンフランシスコのモスコーニセンターで、6月2日から4日間の日程で開催された。日本からはパートナーを含めて約300人が参加したとのことだ
「Easy・Connect・Trust」で実現するAI民主化戦略
6月3日の基調講演に登壇したSnowflake 共同創業者のBenoit Dageville氏は、今後AIは企業の競争力を左右する中核的要素になるとした上で、「AIは単なる技術トレンドではない。AIの活用は既存業務の効率化にとどまらず、新たなアプリケーションの創出をもたらし、働き方自体を変革する力を持つ」と強調した。

基調講演に登壇したSnowflake 共同創業者のBenoit Dageville氏
「AIファースト」を掲げるSnowflakeが目指すのは、全ての組織で、誰もが日常的にAIを活用できる環境の提供だ。その戦略の軸として掲げているのが、「Easy(容易さ)」「Connect(接続性)」「Trust(信頼性)」という3つのキーワードである。
「容易さ」とは、AIを含む全ての機能をフルマネージドで提供することを指す。開発や運用の複雑さを排除し、現場に即したスピード感で実装を支える。「接続性」は、部門間・組織間・クラウド間をまたぐデータ連携を可能にするアーキテクチャーの提供だ。Snowflakeは構造化・半構造化・非構造化データをクラウド上で統合的に管理できる点を強みとしており、こうした連携をスムーズに実現する。
「信頼性」では、Snowflakeプラットフォーム上で稼働する全てのAIやアプリケーションが、厳格なセキュリティとガバナンスのもとで制御されることを担保する。Dageville氏は、「AIはもはや一部の先進企業の専有物ではない。AIの民主化と実用化が、Snowflakeの差別化戦略の核心だ。かつてデータ分析を世界中の誰もが使えるものにしたように、今度はAIでも同じことを実現したい。われわれの統合アプローチで、企業はデータとビジネスのサイロ化を完全に排除し、全社レベルでデータとAIを活用できる」と語った。
専門知識不要の直感的分析「Snowflake Intelligence」
AIファーストを具現化した新機能として最も注目を集めたのが、「Snowflake Intelligence」である。これは自然言語での質問に基づき、システムがその意味を解釈してSQLクエリーを自動生成・実行し、結果をグラフや表で表示するインターフェースだ。Snowflakeで製品担当上級副社長を務めるChristian Kleinerman氏は、「従来は専門的な知識を要した高度な分析が、ビジネスユーザーでも直感的に行えるようになる」と説明する。

基調講演で新機能の詳細を訴求したSnowflake 製品担当上級副社長のChristian Kleinerman氏
Snowflake Intelligenceの基礎技術は、自然言語の指示を理解し、SQLクエリーやワークフローを自動生成・実行する「Cortexエージェント」だ。注目すべきは「Semantic View」の採用である。これはデータベースの物理的なテーブル・カラム構造に対してビジネス上の意味を直接定義する新しいオブジェクトで、技術的なデータ構造とビジネスユーザーの問いをつなぐ役割を担うKleinerman氏は「CortexエージェントとSemantic Viewにより、AIが文脈を理解した上で的確に分析・応答できる仕組みを実現している」と説明する。
セキュリティ面では、全てのアクセスに対して自動でガバナンスと権限管理が適用される設計となっており、ユーザーごとに許可されたデータのみが参照できる。さらに、クエリーが検証済みであることを示す緑色のバッジ表示で、データの信頼性も担保されているという。
なお、今後は画像などを含むマルチモーダルデータの分析にも対応予定で、「Slack」「SharePoint」「Google Drive」といった非構造化データソースとの統合も視野に入れているとのことだ。
あらゆるデータをプラットフォームに取り込む「Snowflake OpenFlow」
もう1つ、基調講演で注目を集めた機能が、データパイプライン構築を支援する新フレームワーク「Snowflake OpenFlow」である。これは、生成AIを活用するアプリケーションのデータ基盤整備を目的としたもので、「Apache NiFi」をベースに開発されている。Kleinerman氏は「30以上のターンキー型コネクターと200以上のプロセッサーを備えており、迅速かつ柔軟なパイプライン構築が可能だ」と語る。

Kleinerman氏は「Snowflake OpenFlowの目的は、全てのETLツールを置き換えることではなく、より簡単なデータ接続とパイプライン構築を実現することだ」と強調した
最大の特徴は、構造化・半構造化・非構造化データに対応していることと、バッチ処理とストリーミング処理の双方に対応していることだ。SharePointやSlack、Google Drive、「Box」「Workday」「Zendesk」といった主要なSaaSアプリケーションからリアルタイムでデータを取り込み、AI分析に活用できる。Kleinerman氏は、「AI活用で最も重要なのは、非構造化データに対する処理能力だ」とした上で、次のように強調する。
「PDFや画像、音声ファイルなどの非構造化データもAIが自動的に解析し、テーブル形式の構造化データとして取り込める。さらにOpenFlowはデプロイメントの柔軟性にも優れており、Snowflakeマネージド環境だけでなく、BYOC(Bring Your Own Cloud)モデルにも対応している。つまり、顧客のVPC(Virtual Private Cloud)内でも実行可能であり、厳格なセキュリティポリシーが求められる企業環境でも容易に導入できる」
ただし、OpenFlowは従来のETL(抽出、変換、ロード)ツールを完全に代替するものではないと、Kleinerman氏は説明する。
「例えば、『Fivetran』のような既存ツールは、接続性や運用の簡便さで高く評価されており、既存のユーザーは今後も活用し続けるだろう。OpenFlowは、特定のワークロードや要件で最適解となるオプションを提供する。用途に応じた柔軟なツール選定を可能にすることで、企業の多様なデータ活用ニーズに応える基盤を提供することがわれわれの役割だ」(Kleinerman氏)
そのほかにもAI活用を支える基盤として、リソースを自動最適化する「Adaptive Compute」や、従来の2.1倍の性能向上を実現した「Generation 2 Warehouses」が発表された。
Adaptive Computeは、ユーザーがポリシーと実行条件を定義するだけで、Snowflakeがクエリーの特性に応じて最適なコンピュートリソースを自動的に割り当てる仕組みだ。Snowflakeがクエリーの処理負荷と複雑性を自動解析し、最適にリソースを配分するintelligent routing機能で、運用負荷を大幅に軽減しつつ、コストとパフォーマンスの両面で最適化を実現する。
Generation 2 Warehousesは、クラウド環境に最適化されたインスタンスと独自の強化技術により、従来比で2.1倍の性能向上を実現している。特にデータの更新・取り込み処理で高い効果を発揮する。既存のウェアハウス設定のまま即時導入できるため、移行も容易だとのことだ。