AIモデルベンダー大手のAnthropicのバイスプレジデントによると、大規模言語モデル(LLM)やその他の生成AIは「自己修正」の面で着実に向上しており、「エージェンティックAI」など、新しい種類の作業を実行できる可能性を開いているという。
「自己修正や自己推論が非常に上達している」と、OpenAIの「GPT」と競合するLLM「Claude」製品群を開発するAnthropicでAPIテクノロジー責任者を務めるMichael Gerstenhaber氏は述べた。
「2カ月ごとにLLMの機能を拡張した新モデルを発表している」と、米国時間11月20日にニューヨークで行われたBloomberg IntelligenceのAnurag Rana氏との対話でGerstenhaber氏は語った。「この業界で最も興味深いのは、モデルを改訂するたびに新しいユースケースが解き放たれることである」
最新のモデルは、コンピューター上で人間と同じようにタスクを実行する方法、例えばオンライン上でピザを注文する方法などのタスク計画を含む。
「中間ステップの計画は、昨日までは不可能だったが、今日可能になっていることの一種である」と、段階的なタスクの完了についてGerstenhaber氏は語った。
AIスタートアップのScale AIで主任技術者を務めるVijay Karunamurthy氏も参加したこの議論は、「Gen AI:生産性の約束は果たせるか?」というテーマのもとBloomberg Intelligenceが主催した1日がかりのカンファレンスの一部である。
Gerstenhaber氏の発言は、生成AIやその他AI全般が「壁にぶつかっている」というAI懐疑派の主張に真っ向から反するものである。「壁にぶつかっている」とは、新世代のモデルが生まれるたびに、その成果が徐々に小さくなっていることを意味する。
AI学者のGary Marcus氏は2022年、より多くのパラメーターでAIモデルを開発するだけでは、規模の拡大に見合うほどの改善は得られないと警告した。同氏はその警告を繰り返している。
Gerstenhaber氏によると、Anthropicは現在のAIベンチマークで測定できる範囲を押し広げているという。
「ある意味では先細りしているように見えるかもしれないが、それは当社が全く新しい機能を実現しているからであり、ベンチマークや古いタスクを実行する能力は飽和状態にある」とGerstenhaber氏は述べた。言い換えれば、現在の生成AIモデルに何ができるのかを計測することが難しくなっているのだ。
Gerstenhaber氏とScale AIのKarunamurthy氏は共に、生成AIの「スケーリング」、つまりAIモデルをより大きくすることが、こうした自己修正型ニューラルネットワークの進歩に役立っていると主張した。
「AIのスケーリングがますます進んでいることは間違いない」とGerstenhaber氏は述べた。「われわれが計画と推論で行き詰まっていると必ずしも考えていない理由の一つは、モデルがこれまで通過しようとしなかった多種多様な環境に適応できるよう、どのように計画と推論のタスクを構造化すべきなのかについて、今まさに学んでいる段階だからである」
「当社はまだ初期段階にある」とGerstenhaber氏は言った。「アプリケーションの開発者から、彼らが何をしようとしているのか、言語モデルは何を不得意とするのかを学んでおり、われわれはそれを言語モデルに統合できる」
Gerstenhaber氏によると、発見の一部はAnthropicにおける基礎研究のスピードと関係しているという。しかし、その一部は「業界が当社に求めることや、それに適応するわれわれの能力」を耳で聞いて学ぶことと関係している。「当社はリアルタイムに多くのことを学んでいる」
顧客は大きなAIモデルから始めて、目的に合わせてシンプルなモデルへと縮小させる傾向があると、Scale AIのKarunamurthy氏は言った。「AIがテストをうまくこなす知性を持っているか、アプリケーションのニーズを満たすのに十分な速度があるか、できるだけ安価かについて考えていることは明らかである」
Bloomberg Intelligenceのカンファレンスにおいて、BloombergのAnurag Rana氏(左)がAnthropicのMichael Gerstenhaber氏(中央)、Scale AIのVijay Karunamurthy氏と対話している。提供:Craig Warga氏
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。