NVIDIA、リアルタイムの対話型AI訓練で世界最速

Natalie Gagliordi (ZDNET.com) 翻訳校正: 編集部

2019-08-14 12:35

 NVIDIAは米国時間8月13日、自然言語理解に向けた同社の人工知能(AI)テクノロジーの進歩について発表するとともに、対話型AIの訓練で新たな世界記録を打ち立てたと述べた。NVIDIAは、同社のAIプラットフォームが最速の訓練記録を樹立するとともに、最速の推論と過去最大の訓練モデルを実現したと述べた。


 NVIDIAは同社のAIプラットフォームとGPUに決定的な最適化を施すことで、対話型AIサービスの卓越したプロバイダーになろうとしている。同社によると、対話型AIサービスはこれまで、大規模なAIモデルをリアルタイムで配備する際に発生するさまざまな能力上の問題により、限定的なものとなっていたという。

 NVIDIAの応用ディープラーニング(DL)研究のバイスプレジデントを務めるBryan Catanzaro氏は報道陣向けの発表の場で、対話型AIは極めて単純なトラクザクション型AIとは異なり、コンテキストやニュアンスを読み取って、すぐさま応答を返すと説明した。このため、対話型AIのモデル自体は、人間レベルの理解力を実現するうえではるかに大規模かつリアルタイムで動作する必要がある。

 NVIDIAは性能面でのブレークスルーについて、Googleによって生み出された言語モデル「BERT」(Bidirectional Encoder Representations from Transformers:Transformerによる双方向のエンコーダー表現)の訓練で世界記録を樹立したと述べた。NVIDIAは、ディープラーニングモデルを超高速で実行できる「NVIDIA DGX SuperPOD」を使用するとともに、大規模なモデルを取り扱うために単一GPUのメモリー内に収まるようニューラルネットワークを分割する「モデル並列性」という手法を活用することで、大規模なBERT-Largeモデルを53分で訓練したという。

 Catanzaro氏は、「この種のテクノロジーがなければ、大規模な言語モデル1つを訓練するのに何週間もかかるはずだ」と述べた。

 NVIDIAによると、BERTの推論は最速で2.2ミリ秒であり、訓練した最大のモデルのパラメーター数は83億だったという。


 同氏は、「大規模な言語モデルは自然言語のためのAIに大きな変革をもたらしている」とし、「大規模言語モデルは、格段に難しい言語問題の解決に向けた力となり、これによって本当の意味での対話型AIという目標に近づけるようになる」と述べた。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]