人工知能(AI)関連のリサーチを手がけるOpenAIによると、NVIDIAのGPUプログラミングは、同社独自のプログラミングツールである「CUDA」を用いたとしても難しいという。
カリフォルニア州サンフランシスコに拠点を置き、Microsoftやベンチャーキャピタル企業のKhosla Venturesの後押しを受けているAI分野の新興企業OpenAIは米国時間7月28日、そうした重荷を軽減するための新言語「Triton」のバージョン1.0を発表した。OpenAIは同社ブログでTritonについて詳細を説明するとともに、GitHubのソースコードページへのリンクを掲載している。
OpenAIによるとTritonは、AIの一分野である機械学習(ML)の中核をなすニューラルネットワーク(NN)の処理に必須となる行列乗算などのタスクにおいて、CUDAを用いたコーディング時とは比べものにならないほど容易な使い勝手をもたらすという。
OpenAIのサイエンティストであるPhilippe Tillet氏は米ZDNetに、「われわれの目標は、Tritonをディープラーニング(DL)分野におけるCUDAの代替言語に育て上げることだ」と語った。
Tillet氏によるとTritonは、「ML分野のリサーチャーやエンジニアで、ソフトウェアエンジニアリングの優れたスキルを有しているものの、GPUプログラミングになじみのない人たちに向けた言語」だという。
Tritonを生み出したOpenAIは、世界を席巻している自己回帰型自然言語モデル「Generative Pre-trained Transformer 3」(GPT-3)を開発した企業だという事実によって、AI分野におけるこの言語の優位性がさらに高まる可能性もある。
Tritonはオープンソースとして提供されるが、著作権および使用許諾に関するライセンス表示をソフトウェアのすべての複製、または実質的な複製に含めるという条件が課されている。
オリジナルのTritonが披露されたのは、Tillet氏が2019年に発表した論文においてだった。Tillet氏は当時、ハーバード大学の大学院生であり、この論文は同氏のアドバイザーであるH. T. Kung氏およびDavid Cox氏との共著だった。
Tilletが解決しようとした問題は、NVIDIAの「cuDNN」といった、ベンダー固有のAI向けライブラリーよりも高い表現力を有した、つまりNN分野で登場する広範な種類の行列演算を取り扱えるとともに、ポータビリティーを備えつつ、cuDNNに代表されるベンダーのライブラリーに匹敵する性能を有した言語を作り出すというものだった。