マイクロソフト、視覚的なコンテンツも認識するマルチモーダルAI「Kosmos-1」を発表

Liam Tung (Special to ZDNET.com) 翻訳校正: 編集部

2023-03-03 10:18

 Microsoftは、同社がマルチモーダル大規模言語モデル(MLLM)と呼ぶ新たな人工知能(AI)モデル「Kosmos-1」を発表した。Kosmos-1は言葉によるプロンプトに答えるだけでなく、視覚的なキュー(きっかけ)にも対応できるようになっている。このため、画像に説明を付けたり、画像に関連した質問に回答するなどの、さまざまなタスクに利用できる。

画面を見ながら話し合う人物
提供:Morsa Images/Getty Images

 OpenAIの「ChatGPT」によって、GPTモデルなどの大規模言語モデル(LLM)というコンセプトとともに、テキストプロンプトや入力を出力へと変換する処理に関する可能性が一般に知られるようになった。

 MicrosoftのAI研究者らは「Language Is Not All You Need: Aligning Perception with Language Models」(必要なのは言葉だけではない:知覚と言語モデルの整合)という論文の中で、人々が対話能力に感銘を受ける一方、LLMは依然として画像や音声でのプロンプトといったマルチモーダルな入力に苦戦していると述べている。そして、ChatGPTのような能力を汎用人工知能(AGI)のレベルに引き上げるには、マルチモーダル知覚、すなわち現実世界における知識獲得と、「グラウンディング」(現実世界での意味とコンピューター内部のシンボルの関連付け)が必要だと示唆している。

 この論文には「より重要なのは、マルチモーダルな入力を実現することで、マルチモーダルな機械学習(ML)や、ドキュメントインテリジェンス、ロボティクスといった、より価値の高い領域へ言語モデルの応用範囲が大きく広がるという点だ」と記されている。

 Alphabet傘下のロボティクス企業であるEveryday Robotsと、Google ResearchのBrain Teamは2022年にLLMを用いて、人間が指示した物理的なタスクをロボットに実行させ、グラウンディングの役割を示して見せた。このアプローチには、現実世界において与えられたコンテキスト内で実行可能なタスクにおける言語モデルのグラウンディングが含まれていた。一方Microsoftも、同社の「Prometheus」というAIモデルでグラウンディングを使用し、OpenAIのGPTモデルと、「Bing」検索順位や検索結果に基づく現実世界のフィードバックを統合している。

 Microsoftによると、同社のKosmos-1は汎用モーダリティーの知覚や、指示の遂行(ゼロショット学習)、コンテキスト内での学習(Few-Shot《フューショット:少ないデータでの》学習)が可能だという。また論文には「目標は、知覚とLLMを整合させることで、モデルが見たり聞いたりできるようにすることだ」と記されている。

 プロンプトに対するKosmos-1の出力デモンストレーションには、にんまり笑った口の描かれた紙が猫の口元に差し出されている写真も使われていた。その際のプロンプトは「この写真が面白い理由を説明してください」であり、Kosmos-1の回答は「猫が、笑っているように見えるマスクをしている」というものだった。

Kosmos-1のプロンプトと回答
提供: Microsoft

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]