ヒューマノイドロボットの大半は、Teslaの「Optimus」がそうであるように、人による身体的作業や手作業を軽減することを主眼としている。しかし、AIロボティクスの新興企業Figureは、動くだけのロボットには飽き足らず、言語能力を組み込むことで、ヒューマノイドロボットを新たな次元に引き上げようとしている。そして素晴らしい成果をあげている。
提供:Figure
同社は米国時間3月13日、ヒューマノイドロボット「Figure 01」のデモをソーシャルメディア「X」に投稿した。その2分余りの動画では、同社のニューラルネットワークとOpenAIの視覚および言語インテリジェンスの組み合わせによって実現できることを披露している。
With OpenAI, Figure 01 can now have full conversations with people
— Figure (@Figure_robot) March 13, 2024
-OpenAI models provide high-level visual and language intelligence
-Figure neural networks deliver fast, low-level, dexterous robot actions
Everything in this video is a neural network: pic.twitter.com/OJzMjCv443
動画の冒頭では、人がFigure 01に何が見えるかを尋ねると、Figure 01が目の前のテーブルに載っているものを自然な口調で説明する様子を紹介している。これは高度な自然言語処理能力、言語能力、視覚能力を示すものだ。
さらに驚くべきは、何か食べるものが欲しいと頼むと、ロボットが目の前にあるものの中から、リンゴを手渡すことだ。これは状況を論理的に判断し、それを基に行動できる能力を浮き彫りにしている。
また、そのように行動した理由を尋ねると、Figure 01は他のタスクをしながら、「テーブルの上にあるもので、唯一食べられるのがリンゴだったから」と回答する。
Figureは2月下旬にOpenAIとの提携を発表した。OpenAIの研究を活用することで、ヒューマノイドロボットの言語処理と推論能力を高めたい考えだ。また協業により、ロボットの市場投入までの期間を短縮できること期待している。
もちろんこうしたデモは、いくらでも映像を編集できるが、Figureがその目標に向けて着実に進歩しているのは明らかだ。この動画がFigure 01の能力を正確に表しているのであれば、ロボティクス分野はまさにブレークスルーを迎えようとしている。身体的タスクをこなすだけでなく、論理的に話すことができるロボットが市販される日が、遠からず訪れるかもしれない。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。