“ブーム”に翻弄されずAIのパワーをビジネスに生かすための視点
2023年に“ブーム”といってよいほどに注目を集めた「生成AI」だが、宮原氏は「個人的には、現時点ではそれほど強い魅力を感じていない」とする。
「最新の技術トレンドとして調査はしているが、2023年の時点では、まだ“生成AIで遊んでいる”程度の人が多かった印象。2024年以降は“試してみた”の段階から“こうすると実用的に使える”という段階に変化していくことを期待しており、個人として本格的に取り組むのはそれからでいいかとも思っている」(宮原氏)
下山氏はより技術的な観点から、生成AIに関心を持つ企業は、現在のAIにおけるLLMで重要な手法となっている「トークナイゼーション」「プロンプティング」「パターン化」について、より関心を持つべきだと指摘した。LLMにおいては、データを「トークン」と呼ばれる単位に分解して取り扱う。「トークナイゼーション」は、情報を構成する膨大なデータのトークン化についての問題だ。
「LLMにおいて、最も大事なのがトークナイゼーション。あらゆる事象にまつわるデータを取り扱うための最小単位、つまり“素数”のような存在が“トークン”だ。このトークンをどうやってモデルの中から引き出すかの手法が“プロンプティング”になる。今、日本の企業は、データのトークン化は盛んに行っている一方で“プロンプティング”が足りていない。米国の研究所などはプロンプティングが非常にうまい。企業としてAIを本格的にビジネス活用したいのであれば、もう少しプロンプティング、トークナイゼーション、そしてパターン化について考えた方が良い」(下山氏)
こうした視点を持つことで、AIを活用する場合に、必ずしも高価なGPUリソースを潤沢に使用しなくても良いケースも見えてくると下山氏は指摘した。
IP DREAMでは現在、企業のコミュニケーション課題にフォーカスした通信システム、多言語対応リアルタイム翻訳システムなどをサービスとして展開している。同社では、こうしたプロダクトの提供基盤として、IDCフロンティアの「IDCFクラウド」を利用している。
「IDCFクラウドは、自分たちのサービスに最もふさわしいITインフラの使い方を実現する上で、一番分かりやすいパーテショニングの仕組みとプライシングを提供していた。また、他のクラウドサービスとの連携という点でも、マルチクラウドを前提としている点で使いやすさを感じている」(下山氏)
藤城氏は、マルチクラウド対応やクラウド環境におけるチューニングの柔軟性はIDCFクラウドの大きな特長であるとした。
「IDCFクラウドはデータセンタービジネスからスタートしているため、オンプレとのハイブリッド、あるいはマルチクラウド対応をはじめから意識しているという点が強みの一つ。自分たちで構成を作り込みながらデータセンターを使っていたようなユーザーが、同じ感覚でクラウドもチューニングやカスタマイズができる点を意識してサービスを作っている」(藤城氏)
ITインフラの要素技術は今後数年で大きく変化する
現在、AI活用を意識したITインフラの構築を検討している企業に対し、下山氏は「市場環境や技術進化のスピードが加速し続けていることを考慮すべき」だと指摘した。
下山氏は、NTTグループが提案し、現在実用化を目指している光技術「IOWN」の構想を例に挙げ、現在の技術では不可能だったり、非現実的であったりすることが、数年後に実現されている状況は「当たり前に起こる」とした。
「例えば“サーバーをクラウドにすべきか、オンプレミスにすべきか”という議論も、光チップが登場することで検討の土台が変化してしまう。だとしたら、今ある技術とこれからの技術が“混在”していくことを前提にITインフラを考えるべきではないだろうか」(下山氏)
そうした「混在」するインフラ環境をユーザーが「混乱」なく使いこなしていくにあたり、宮原氏は現在主流となっているクラウドサービスの多くが、ユーザーを過度に「利用者」として割り切っている点に危機感を感じているとした。
「多くのクラウドは、ユーザーによるITリソースの使い方をいくつかのシンプルなパターンに分け、それに合わせたサービスをメニュー化して提供している。メニュー化されたサービスを利用するだけで事足りるユーザーには便利かもしれないが、インフラエンジニアの視点で見ると、それでは少し物足りないとか、やりたいことができないといった不満も出てくる。そうした不満の積み重ねや、円安によるクラウドコストの高騰といった要因もあって“オンプレ回帰”といったテーマも市場をざわつかせている。個人的には、企業で実際に“オンプレ回帰”を求める傾向は強くなっているのだろうと見ている。それは、クラウドに作ったものをすべてオンプレに戻すわけではなく、今後、新しいことをやるときに“この部分はオンプレにしてクラウドにつなごう”といったハイブリッド化の動きであるとか、案件ごとに要件を考慮して“この部分はSaaSにしよう”“この部分はオンプレで作り込もうと”といった使い分けが進むのではないかと思っている。そうした形でさまざまな要素が“混在”するアーキテクチャがこれからの主流になっていくのではないか」(宮原氏)
宮原氏はその上で、ITインフラの低レイヤの技術を熟知し、実装できるエンジニアが減ってきていることは、日本のIT業界にとって「危機的状況」だとした。
AIは企業のコアコンピタンス-「やりたいこと」の明確化が重要に
短期間で市場や技術環境が変化していく現在において「AIのビジネス活用」を成功させるために不可欠な視点は何か。それは「自分たちはAIを使って何をしたいのか」「顧客にどのような価値を提供したいのか」を明確にするという、極めて基本的な姿勢だと下山氏、宮原氏は指摘する。
「企業が“AIを使いたい”と考える領域は、その会社にとって利益の源泉になっていることが多い。そのため、本当の意味で企業の利益に貢献するAIはパッケージでの水平展開ができないのではないか」(下山氏)
「AIに限らず、今後のITシステムは企業のコアコンピタンスに回帰すると思う。近年、DXと関連して“内製化”がひとつのトレンドになっているが、これは基本的に“自分たちに必要なものを自分たちで作る”という考え方。AIの領域においては“学習のためのデータを自分たちで集めて活用する”ということになるはず。つまり、自分たちでデータをモデリングしたり、蓄積したりしながら、それをどう活用するかを考え、MLを使って将来予測をしてみたり、DLでモデルづくりを試してみたりといったところまでやって初めて“AI活用”と言えるのだと思う。特に日本企業は事例が好きで、他社の動きを見てから自分たちがやるべきことを考えがちだが、今後、AIが企業のコアコンピタンスと密接に結びつくものになれば、そうした事例は見えにくくなる。だからこそ“自分たちでやるべきことを考えて実行する”という姿勢が不可欠だろう」(宮原氏)
しかし“IT人材の不足”が深刻化している今、そうした取り組みを自社だけで推進できる企業はほとんどないのが現実だ。そうした状況ではパートナーとの協力関係の構築、コラボレーションが状況打開のカギになる。
「AI活用だけでなく、ITインフラの構築運用の領域でも、求められるトレンドは次々と変化しており、技術要素も多様化している。そのすべてを自分たちだけでやるのは現実的に無理。しかし、パーツとなる要素技術やスキルを持っているパートナーと協力しながらベストな環境を作っていくことはできる。信頼できるパートナーと相談しながら、そうした環境を作っていくのが現時点での最適解ではないか」(宮原氏)
2023年は「生成AI」が大きく注目された年となった。2024年以降は過熱したブームも落ちつき、実践的なAI活用が次々と試みられるフェーズへ進んでいくだろう。それと並行して、ITインフラを構成する要素技術も進化を続ける。そうした状況下で企業が持つべきマインドは、AIを包含する「IT」を使って何をしたいのかを突き詰めて考えること。そして、トレンドを踏まえながら自社がやりたいことを実現するために最適な環境を選び取れるナレッジを身につけ、信頼できるパートナーとの協力体制を築いていくことではないだろうか。にわかに盛り上がった「AIブーム」は、企業のIT活用に不可欠な、本質的な事柄を改めて考え直す上で良い契機になったとも言えそうだ。