Amazon Web Services(AWS)は米国時間12月1日、機械学習(ML)モデル訓練用の独自MLチップ「AWS Trainium」を発表した。最高経営責任者(CEO)Andy Jassy氏は、このチップによって「最もコスト効率の高い訓練がクラウド上で」可能になると述べた。
このカスタムMLプロセッサーは、同社のシリコン戦略を支える共通の計画に従ったものとなっているようだ。
同社の主な戦略を簡潔にまとめると以下のようになるだろう。
- IntelやAMDに加え、NVIDIAのプロセッサーを搭載したインスタンスを提供する。
- その一方で、同社の「AWS Nitro System」ハイパーバイザーを活用できる独自シリコンチップを開発し、コストをさらに引き下げる。
- 顧客が「AWS Graviton」プロセッサーや「AWS Inferentia」プロセッサーをベースにしたインスタンスをいったん採用すれば、他のカスタムチップでもより快適に感じるようになる。
- 今後、さらに多くのカスタムプロセッサーをロールアウトしていく。
詰まるところAWSは、モデルの訓練や、人工知能(AI)戦略の構築に着手したばかりの企業をターゲットにしている。
TrainiumはInferentiaと同様に、「AWS Neuron SDK」を使用する。Neuron SDKは「TensorFlow」「PyTorch」「MXNet」などのMLフレームワークと統合されており、開発者は最小限のコード変更でGPUベースのインスタンスからAWS Trainiumに容易に移行することができる。AWS Trainiumは、「EC2」インスタンス、「AWS Deep Learning AMI」のほか、「Amazon SageMaker」「Amazon ECS」「Amazon EKS」「AWS Batch」といったマネージドサービスなどから利用可能になる予定だ。
Trainiumは2021年に提供される予定となっている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。