AWS re:Invent

AWS、機械学習の推論を効率化する新サービス--「Elastic Inference」や「Inferentia」チップ

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部

2018-11-29 11:05

 「Amazon Elastic Inference」を利用すれば、ユーザーはGPUアクセラレーションをEC2インスタンスに追加して、推論を高速化し、コストを最大75%節約することができる。通常、推論中のGPUの平均使用率は10~30%であるとAmazon Web Services(AWS)の最高経営責任者(CEO)のAndy Jassy氏は述べた。

 クラウド上の機械学習を採用する企業が増える中、AWSは推論を改善する新しい機能とツールを発表した。Amazon Elastic Inferenceを発表し、「AWS Inferentia」と呼ばれる新しいプロセッサを披露した。

 Jassy氏はラスベガスで開催中の「re:Invent」カンファレンスで、「コストの大部分、おそらくその約90%は推論に関するものだ」と述べた。

 Amazon Elastic Inferenceを使用すると、あらゆるEC2インスタンスについて、そのインスタンスを作成しながら、エラスティックな推論を実行することができる。1TFLOPSで始めることも、最大32TFLOPSで実行することも可能だ。Elastic Inferenceは、そのインスタンスで主要なフレームワークの1つが実行されているときにそれを検知し、何がアクセラレーションのメリットを得られるかを判断することができる。

 Jassy氏は、「これまでよりもはるかに高いコスト効率で推論を実行できるという点で、これはかなり重要なゲームチェンジャーだ」と述べた。

 一方AWS Inferentiaは、AWSによってカスタム設計された高性能な機械学習の推論チップだ。Jassy氏によると、このチップは超高スループット、低遅延で、パフォーマンスが持続し、コスト効率も非常に優れているという。複数の主要なフレームワークをサポートし、EC2のインスタンスタイプに対応する。

AWS Inferentia

 基調講演では、「AWS SageMaker Ground Truth」も発表された。Jassy氏によると、これを利用すれば、人が膨大な時間を費やしてモデルを訓練しなくても、企業や組織は機械学習を実装できるようになるという。

 AWS SageMaker Ground Truthは極めて正確なトレーニングデータセットであり、データへのラベル付けのコストを70%削減できるとJassy氏は述べた。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]