AI モデルの大型化が進むなか、モデルのトレーニング、デプロイ、管理にかかる費用が膨れ上がっている。このコストが理由で、企業のなかには、 AI の取り組みを次のステップに進めることができないケースもでてきている。そこで必要となるのが、モデルのパフォーマンスを維持しながら優れた費用対効果を実現できる適切な AI インフラ ストラクチャだ。 AI インフラ ストラクチャは大きく 3 つの要素で構成される。また、カスタマー エクスペリエンスのパーソナライズ化、大規模言語モデル( LLM )に代表される知識の抽出や理解、自動化による運営の効率化といったトレンドにも対応する必要がある。
本資料では、 AI インフラ ストラクチャの重要性から、具体的な構成要素と構築方法、Google Cloud のソリューションと活用方法などを解説する。
ホワイトペーパー