編集部からのお知らせ
メタバース動向の記事まとめ
「半導体動向」記事まとめ
AWS re:Invent

AWS、「SageMaker」に複数のアップデート--機械学習デプロイを高速化

Stephanie Condon (ZDNet.com) 翻訳校正: 緒方亮 吉武稔夫 (ガリレオ)

2021-12-02 14:23

 Amazon Web Services(AWS)は米国時間12月1日、機械学習(ML)モデルの構築、訓練、デプロイを支援するサービス「Amazon SageMaker」について複数のアップデートを公開した。より安価で簡単な機械学習の利用を目指した機能が追加されている。

 「Amazon SageMaker Ground Truth Plus」は、データラベリングの訓練を受けた人員を利用できるサービスだ。これにより、質の高い訓練データを迅速に作成でき、Amazonによると、データセットの作成費用が最大40%削減できるという。このプロセスは通常、ラベリングアプリケーションの構築とラベリング要員の管理が必要とされる。

 「Amazon SageMaker Training Compiler」は、Pythonの訓練コードを自動でコンパイルして、ユーザーのモデルで使用するGPUカーネルを生成する。これにより、訓練コードに必要なメモリーと計算が減り、訓練をスピードアップできる。AWSは、訓練を最大50%高速化できるとしている。

 「Amazon SageMaker Inference Recommender」は、機械学習インスタンス全体について、負荷試験を自動化してモデルのパフォーマンスを最適化する。これにより、MLOpsエンジニアがMLインスタンスのタイプを選択し、パフォーマンスベンチマークと負荷試験のカスタムスクリプトを書く時間を節約できる。

 AWSはまた、「Amazon SageMaker Serverless Inference」のプレビュー版を公開した。推論のMLモデルをデプロイするのに基盤となるインフラのコンフィギュレーションや管理が必要ない、推論の新たなオプションだ。推論リクエストの量に基づき、コンピュート容量のプロビジョニング、スケーリング、切断を自動で行う。推論コードの実行時間とデータ処理量のみに基づいて料金が決まる。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]