ソフトバンクがAI計算基盤でLLM開発を加速--先行投資で日本をリード

加納恵 (編集部)

2025-04-28 07:00

 生成AIは登場後、瞬く間に市民権を獲得した。現在ではOpen AIの「ChatGPT」をはじめ、Googleが開発した「Gemini」、Microsoftによる「Copilot」など、数多くの生成AIサービスがリリースされている。

 大きなムーブメントとなった生成AIだが、ソフトバンクでは、大規模言語モデル(LLM)の開発から、「Gen-AX」「TASUKI」といった法人向けサービス、また個人向け生成AIサービス「satto」の提供や「Perplexity」との提携まで、幅広く生成AIに取り組んでいる。中でも積極的に進めているのが、AIの基礎技術を開発するため、大量のデータを学習し、複雑な計算を担うAI計算基盤への取り組みだ。

 ソフトバンクでは、2023年9月に2000基超の「NVIDIA Ampere GPU」を用いた0.7エクサフロップス(1エクサフロップスは毎秒100京回の浮動小数点演算を実行できる性能)のAI計算基盤の稼働を開始。2024年10月には4000基超の「NVIDIA Hopper GPU」を整備し、計算処理能力を4.7エクサフロップスまで高めた。

ソフトバンク テクノロジーユニット統括 共通プラットフォーム開発本部本部長のAshiq Khan(アシック・カーン)氏
ソフトバンク テクノロジーユニット統括 共通プラットフォーム開発本部本部長のAshiq Khan(アシック・カーン)氏

 ソフトバンク 共通プラットフォーム開発本部本部長のAshiq Khan(アシック・カーン)氏は「ソフトバンクでは、AIを事業戦略の重要な柱として位置づけており、AI計算基盤の構築はかなりのスピード感をもって進めた。実際に構築にかかった期間は2~3カ月程度。現在は、子会社のSB Intuitionsの日本語LLM『Sarashina』の学習に活用しており、今後、国内の企業や研究機関にも提供していく」と話す。

 日本では類を見ない規模感で構築されたAI計算基盤を短期間で築けた理由をKhan氏は「今までデータセンターなどを構築してきた技術力があったからこそ。ネットワーク機器や高速ストレージの設計など、多岐に渡る技術的な管理とインテグレーションを自社の社員が担う内製化を進めている」と明かす。

 加えて、重要視しているのがパートナー企業との関係性だ。「NVIDIAはもちろん、サーバーベンダーやスイッチなど、データセンターを構築するには多くのステークホルダーが関わっている。1社1社との連携から生まれる構築プロセスを並列化することで構築する期間を短縮できる」と説く。大規模なハイパフォーマンスコンピューティング(HPC)基盤の構築に関する詳細な知識や数々の経験を獲得できたからこそ、そのような高度な並列化ができるという。

 ソフトバンクではAI計算基盤の構築に当たり、社内と社外のメンバーを集めたチームを立ち上げて取り組んでいる。「チームメンバーの数はそれほど多くなく、データセンター内の設備やラックプランニング、GPUサーバー、データセンター内外のネットワーク、HPCストレージの設計とインテグレーションは内製で行う。パートナーエコシステムが非常に多様なため、国際的で高度なプロジェクトマネジメントも必須」と話す。

 Khan氏の組織には、IT、テレコム、エンタープライズクラウドと全ての基盤設計に対応できるメンバーが在籍し、Khan氏自身は20年以上も基盤設計にかかわるエキスパート。「各基盤設計ができるメンバーとともに進めることで、お互いが補強し合える。今回のようにAI計算基盤という新たなチャレンジにも前向きに、ハードルを解決しながら取り組める」とチームのメンバーはバラエティーに富む。一組織に全ての基盤のノウハウを持っていたからこそ、全く新しい大規模AI計算基盤でも、この程度のスピードで作り上げられた。

高い計算能力へのニーズは必ず増える

 日本では最大規模となるAI計算基盤を構築した同社だが、それだけに構築時の課題は多かったとのこと。「規模が大きいため、機器の数がかなり多く、そのため配線もかなりの数に上ったが、ソフトバンクでは自社のデータセンターを構築したノウハウがあるので、解決策を見つけやすかった。数多くの基盤設計を担ってきたデータの蓄積や、国内外のパートナーとの関わり方などから、解決を導き出した」と過去の取り組みを随所に生かす。

AI計算基盤
AI計算基盤

 未開拓な部分のAI計算基盤の構築に取り組む意義をKhan氏は「LLMをはじめ、AIの開発には膨大な学習が必要になる。現在、世界ではAI計算基盤は主にLLMの学習目的で使われており、ソフトバンクは日本最大規模のLLM開発に取り組んでいる。いち早くAI計算基盤を導入することでスピーディーに開発を進められ、技術の自立性とビジネスでの独自性も増す。AI開発のこうした動きが、今後日本にも広がっていくことを期待している」と、AI開発におけるさらなる需要拡大を見据える。

 気になるのは、AI計算基盤の計算能力についてだ。生成AIはモデルサイズが大きくなればなるほど、高い計算能力が必要になる。計算能力が備わっていれば、AI開発を早く進められ、新しいサービス展開も次々に始められる。Khan氏は「(計算能力を高める)ニーズは確実にある」と、今後さらなる増強が期待されるという。

 同様に求められるのは電力量だ。「従来のデータセンターに比べ、AIデータセンターは多くの電力が必要になってくる。電力量が足りなくなる懸念に対しては、ソフトバンクでは、再生可能エネルギーや自然の由来のエネルギーも活用していく方針を打ち出している。日本のデータセンターは関東と関西に多く、二極集中型の構造。それでは電力会社にも負荷がかかる。次世代の社会インフラとなるデータセンターは全国に分散していくべき」と説く。

次世代社会インフラの構造
次世代社会インフラの構造

 ソフトバンクでは現在、「NVIDIA DGX B200」(B200)を活用してAI計算基盤を増強中。「NVIDIA DGX H100」(H100)などを活用して構築済みの現在のAI計算基盤は、2024年11月に発表したスーパーコンピューターの計算速度を競う世界ランキング「TOP500」で16位、日本国内では理化学研究所と富士通が手掛ける「富岳」に続き2位にランクインしている高性能な計算基盤になる。

 そのH100に対し、B200は、2.25倍以上の計算能力を持つ。このB200を活用して構築する計算基盤は、SB Intuitionsが目指す1兆パラメーターのLLMの開発に活用する計画だ。将来は、外部への提供も視野に入れる。

 カーン氏は「まだ前例の少ないAIデータセンターを積極的に展開しているのは、ソフトバンクが技術的にもビジネス的にも世界の最先端企業であり、その位置を維持していきたいから。他社に先駆けてAI計算基盤を導入したことにより、LLMの開発にいち早く取り組み、自分たちのビジネスも独自性を高められた。これが、率先してAI計算基盤に取り組んだ理由の一つ。今後も国内外の動きを常にキャッチアップしながら、最先端のAI計算基盤、データセンターの構築に取り組んでいきたい」とした。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]