AIの研究開発は古くから続けられてきていたが、現在はついに「AIの時代」と呼べるほどの隆盛となっている。
おおよそ2000年代から始まるとされる「第3次AIブーム」では機械学習(ML)や深層学習が実用的な成果を出し始め、さまざまな応用が模索されていた。さらに2023年末には「ChatGPT」の衝撃的デビューから一気に大規模言語モデル(LLM)をベースとした自然言語による対話型AIが大ブームとなった。現在はさらにAIエージェントの開発が活発化しており、単に対話型で回答を提示するだけではなく、実際の処理までも実行してしまうことが可能になりつつある。
米Akamai TechnologiesのExecutive Vice President and CTOを務めるRobert Blumofe氏
こうしたAIの急速な発展は、これまで人間が手作業で行っていたさまざまな業務処理の自動化につながるため、ありとあらゆる企業にインパクトを与えることになる。AI専門企業はもちろん、AIを中核的な事業領域としていたわけではない企業でもAIに対する取り組みが活発化しているが、まだAIに着手したばかりで方向性を模索している段階の企業も少なくないだろう。
Akamaiは、祖業であるコンテンツ配信ネットワーク(CDN)に加え、セキュリティ事業とクラウドコンピューティング事業を3本柱としてビジネスを展開している企業であり、AIについてもセキュリティ分野を中心に10年ほど前から積極的にビジネスで活用している。今回、米Akamai Technologiesのエグゼクティブバイスプレジデント 兼 最高技術責任者(CTO)を務めるRobert Blumofe(ロバート・ブルモフ)氏に、ユーザー企業がAIに取り組む際のポイントや同社におけるAIに関する取り組みについて聞く機会があったので、ご紹介したい。
AI活用の課題
Blumofe氏は現在のAIブームといえる状況に対して、「多くの人にとって好機であると同時にリスクでもあることを認識しておく必要がある」と前置きする。現在は「AIがいかにすごいか」「AIでどのようなことが実現可能か」に関して膨大な量の夢物語が語られている状況だが、同氏は「企業ユーザーにとっては、AIからどのように優位性を引き出せるかがポイントだが、こうした物語で語られる夢を実際の価値に変換するのはどうすればよいのかを考えてみると、実際は想像以上の困難を伴うことが多い」と指摘する。
同氏は、現在のAIブームがLLMだけにスポットライトを当てている状況であることを踏まえ、企業ユーザーがAIの価値を引き出すことが難しい理由の1つとして、AIの全体像を正しく理解できていない点を挙げた。「LLMは、AI技術全体の中では氷山の一角、海面上に出ている部分に過ぎない。水面下にはその何倍ものさまざまなAIモデルが存在しており、これらを解決したい課題に合わせて適切に選択して運用していくことで初めてAIから価値を引き出すことができる」と言う。
LLMは氷山の一角にすぎない
同氏は、LLMをあらゆる課題解決のために展開するアプローチを「水平指向」、課題解決のために適切なAI技術を選択して組み合わせるアプローチを「垂直指向」とした上で、AIから価値を引き出すためには垂直指向で取り組むことが有益だと語る。「水平指向の企業ではLLMをあたかもワンストップショッピング的な万能のソリューションだと考えてしまい、『ChatGPTさえあれば、あとは適切なプロンプトさえ作ればなんでもできる』と考えてしまう。一方、垂直指向で見てみるとLLMは有用な要素の1つではあるが唯一のソリューションではなく、ほかにも優れたソリューションがたくさんある」と言う。
垂直指向と水平指向の違い
このような、LLMブームに惑わされて方向性を誤ってしまうリスクに加えて、AIには「サイバー犯罪者によって悪用されるリスク」も存在する。同氏は「攻撃者はAIを有用なツール/武器として活用し始めており、フィッシングの高度化や巧妙なディープフェイク、マルウェアの自動作成など、さまざまな具体例が観測されている。最近では、AIエージェントを活用し、サイバーキルチェーンの自動化が試みられているとも言われる」と指摘。さらに別の観点として「LLMが企業にとっての巨大なアタックサーフェイス(攻撃対象領域)となる」リスクも挙げた。
企業内部の情報を学習させて運用されるLLMに外部の攻撃者がアクセスし、ガードレールなどの防御措置をかいくぐって社内の機密情報をソーシャルエンジニアリング的手法を使って抜き出したり、有害なコンテンツを出力させたりといった攻撃事例が既に報告されているという。こうした事例を踏まえてBlumofe氏はユーザー企業に対し、「垂直指向で取り組むこと」「AIモデルを保護するための十分な保護対策を講じること」を推奨した。
AkamaiのAI関連ソリューション
Akamaiでは、2014年頃から深層学習のセキュリティへの応用を開始したという。Blumofe氏は「深層学習は、人間には判別が難しいパターンの認識に優れる。良いものの中に紛れ込んだ悪いもの、問題ないものと悪意あるもの、ボットと人間、といった判別を的確に行うことができる」と説明し、LLM登場以前から同社にとってAIが有用なツールとして活用されてきていることを紹介した上で、今後も継続的にAIを活用した製品やサービスがリリースされていくと明かした。
4月末にリリースされた「Akamai Firewall for AI」は、LLMなどのAIモデルを外部からの攻撃から防御することを意図しており、ソーシャルエンジニアリング的手法でガードレイル回避を狙うような入力や、意図せず生成されてしまう有害なコンテンツやハルシネーションなどの出力を遮断することができるという。
AIの特性に特化したこうした防御は従来型のウェブアプリケーションファイアウォール(WAF)では実現できないもので、同氏は「AIアプリケーションをさまざまなタイプの攻撃から保護し、LLMなどのAIモデルに求められるセキュリティ機能を提供する」としている。また、4月上旬に発表された「Akamai Cloud Inference」は同社の大規模分散型コンピューティングプラットフォームでAI処理を実現するものだ。まずは同社のコアデータセンターにGPUなどが配備されていき、段階的に拡大していくという。
また、今後のリリース予定として同氏は「API LLM Discovery for API Security」と「AI-driven Attack Insights in Web Security Analytics」についても紹介を行った。API LLM Discovery for API Securityは、同社のAPIセキュリティソリューションの一環として追加される予定の機能で、IT部門などが把握していない「勝手に使われているAIアプリケーション」の発見を支援する機能だ。
AIアプリケーションの利用にはリスクも伴うため、セキュリティやガバナンスの観点からはあらかじめ認可されたAIアプリケーションだけが利用されることが望ましいが、現場では便利なツールとしてどんどん新しいツールを使い始めてしまう可能性があるため、このギャップを埋めるためにこうした機能が求められる。なお、AIアプリケーションであるか否かをどう見分けるのか、という点について同氏は、「完璧な判別は難しいが、ヒューリスティック(heuristic:発見的、経験則、試行錯誤)な手法を活用している。例えばLLMとの対話ではテキストベースのやりとりが発生するが、これは一般的なアプリケーションに対するAPI経由の通信とは全く異なるトラフィックパターンを示す」と語り、現状かなり良好な判別性能を達成できているとした。
AI-driven Attack Insights in Web Security Analyticsは、脅威分析をAIで支援するというもので、セキュリティ担当者の負担を軽減し、対応速度や判定精度を大幅に向上させることに寄与するものと期待される。
2023年末から続くLLMブームは今なお継続しているが、多くの企業ではまだ概念実証(PoC)段階から脱していない例も多い上、先行した企業では「期待ほどではなかった」という失望感も出てきているという声も聞かれるようになった。一時的な熱狂状況が一段落したところから本格的な実用化に向けた取り組みがスタートする、というのはさまざまな新技術の展開に関して見られることで、AI活用もこれから地に足の付いた形での展開が本格化していくものと見られる。水平指向ではなく垂直指向で、というBlumofe氏の提言はもちろん、同社が提供するさまざまなAI関連ソリューションもAI活用を目指す企業にとって有用な支援となるだろう。