生成人工知能(AI)ツールについては、人々が時間を節約して生産性を高めるのに役立つということで、大方の意見が一致している。だが、こうした技術はコードの実行やレポートの迅速な作成を容易にする一方で、大規模言語モデル(LLM)の構築や維持に関わるバックエンドの作業には、目に見える部分で節約できた労力以上の人手が必要かもしれない。その上、標準的な自動化で十分な場合、多くの業務はAIの能力を必ずしも必要としないかもしれない。
これは、先ごろ開催されたマサチューセッツ工科大学(MIT)のイベントで講演したペンシルベニア大学ウォートン・スクールの経営学教授Peter Cappelli氏の言葉だ。生成AIとLLMは、トータルで考えると、業務を軽減するよりも多くの仕事を人々にもたらすかもしれない。LLMの実装は複雑で、「生成AIにやらせることもできるが実際にはそこまでする必要のない作業が数多くあると分かっている」と同氏は述べている。
AI技術はゲームチェンジャーとしてもてはやされているが、Cappelli氏は「テクノロジー企業側が口にする予測は完全に間違っている場合が少なくない」と指摘し、「実際、仕事に関するテクノロジー企業の予測は、後から考えるとほとんどが間違っていた」と述べた。もう間もなく無人のトラックや乗用車が実用化されるという2018年の予測は、いまだに実現していない楽観的な見通しの一例だという。
イノベーションの技術的可能性は興味をかき立てるが、市場への投入は現場の実情によって遅れる傾向がある。生成AIの場合、LLMやアルゴリズムの構築および維持に必要なバックエンドの作業量が、労力の節約と生産性向上のメリットを上回る恐れがある。
Cappelli氏は生成AIとオペレーショナルAIについて、いずれも「新たな仕事を生み出す」と指摘しし、「人々は、データベースの管理や、資料の整理、相反するレポートや妥当性などの問題の解決に当たらなければならない。それによって、多くの新たな仕事が生まれ、誰かがそうした仕事をしなければならなくなる」と説明した。
一時期配備されていたオペレーショナルAIはまだ開発途中だ、とCappelli氏は言う。「数字を用いた機械学習はこれまで活用が著しく不十分だった。その一部はデータベース管理の問題だった。分析できるようにデータをまとめるだけで多くの労力が必要だ。データは組織ごとにサイロ化されていることが多く、まとめるのは政治的に難しく、技術的にも困難だ」
Cappelli氏は、生成AIと大規模言語モデルに向けた動きにおいて克服しなければならない問題をいくつか挙げている。
- 生成AI/LLMで問題/機会に取り組むのはやり過ぎの可能性。
- 機械的なオートメーションをAIに代えると費用がもっと高くつく。
- 生成AIの出力を検証するために人が必要。
- 生成AIにより情報過多に陥り、矛盾した情報が溢れることもある。
- 人々はまだ直感や個人的好みに基づいて判断を下すことを好む。
Cappelli氏によると、近い将来において最も役立つ生成AIの使い道は、意志決定プロセスを支援するためにデータストアを徹底的に調べて分析することだという。同氏は「われわれは今、これまで自分たちでは分析できなかったデータを浄化している」として、「AIは、われわれよりもずっと上手にデータを浄化してくれるだろう」と述べた。データベース管理と併せて、「誰かがガードレールとデータ汚染の問題について心配しなければならない」という。
提供:Andriy Onufriyenko/Getty Images
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。