人工知能(AI)ベンチマークテスト「MLPerf」の最新ラウンドでは、NVIDIA、Dell、Qualcommなどの大手ITベンダーや多数のスタートアップが参加し、AIが質問に回答するための電力消費を抑えつつ、計算コストを削減するための新技術を披露した。

提供:NVIDIA
OpenAIの「ChatGPT」や「GPT-4」などに見られるように、AIモデルの大規模化が進んでおり、こうした技術進歩は、AIプログラムによる計算需要の増大に対抗するのに役立つかもしれない。
機械学習に関する業界ベンチマークテスト「MLPerf」の実施団体であるMLCommonsは米国時間4月5日、最新ラウンドのベンチマーク結果を発表した。今ラウンドのMLPerfにも、NVIDIA、Dell、Qualcomm、Supermicroなどの主要ベンダーがさまざまな構成のシステムによるベンチマーク結果を提出し、その性能を競った。
MLPerfにはいくつかの異なるタスクが設定されており、参加ベンダーはそれらのタスクで1秒間に回答できる質問の数や、回答までにかかる時間(遅延)、消費電力の少なさ(エネルギー効率)などを競う。
今回のテストには、Neural Magic、xFusion、cTuning、Nettrix、NEUCHIPS、Moffett、Kraiなどの魅力的なスタートアップも参加している。
「MLPerf Inference v3.0」と呼ばれる今回のテストでは、トレーニング済みのニューラルネットワークに新しいデータを与え、結論を出力するまでの処理をエミュレートする。
このベンチマークは、コンピューターがさまざまなタスクの回答をどのくらい速く出力できるかを測るものだ。例えば、タスクの中には、ImageNetのデータセットを使用してトレーニングされたニューラルネットワークモデルを使用して、犬や猫などの物体が写った写真にラベル付けを行うというものもある。
前回のラウンドである「MLPerf 2.1」の結果は、2022年9月に発表された。
MLCommonsはプレスリリースの中で、いくつかの参加ベンダーは、一部のベンチマークテストで60%以上の大幅な性能向上を達成したと述べている。