AIが仕事と生産性に与える影響

AIへの過度な依存は禁物--求められる人間の視点と批判的思考

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 川村インターナショナル

2024-07-18 07:30

 大手コンサルティング企業Boston Consulting Groupが2023年のレポートで、同社のITコンサルタントの生産性がOpenAIの「GPT-4」ツールによって向上したと発表したところ、同社と他の業界大手は一部の批評家から強い反発を受けた。莫大な料金を支払ってコンサルティングサービスを利用し続けるよりも、自分で無料の「ChatGPT」を使用する方がいいという。

 批評家らの論拠はこうだ。高い料金をとるコンサルタントは結局のところChatGPTから回答やアドバイスを得るだけなのだから、第三者を介さずにChatGPTを直接利用すればいい。

 開発者やコンサルタント、ビジネスユーザーなど、AIを多用する人材を雇う人や、そのような職に就くことを検討している人にとって、貴重な教訓がある。この批判に込められたメッセージは、スキルが限られていようと不十分であろうと、今ではAIを使えば誰もが出世できるし、事情に精通しているように見せかけることができる、というものだ。これにより、競争環境が平等になった。必要とされているのは、AIが提供する情報や結果に視点と批判的思考を提供できる人材だ。

 高度な技能を持つ科学者、技術者、内容領域専門家でさえ、成果物の作成において自分の専門知識ではなくAIに頼りすぎるという罠に陥る可能性がある。

 「AIソリューションが人間の認知限界に不利に働き、理解に関する幻想を抱きやすくなって、世界について実際よりも多くのことを理解していると信じ込んでしまうおそれもある」。Natureに掲載されたこのトピックに関する研究論文にはこう書かれている。

 情報を批判的に精査する訓練を受けた科学者であっても、機械が生成した洞察の魅力に夢中になりつつある、とイェール大学の研究者であるLisa Messer氏とプリンストン大学の研究者のM. J. Crockett氏は警告する。

 「そのような幻想のせいで、科学の単一文化の形成を見抜く科学界の能力が不明瞭になり、ある種の方法、疑問、視点が代替的なアプローチを押さえつけて、科学の革新性が低下し、ミスが起きやすくなる」と両氏の研究論文に記されている。

 Messer氏とCrockett氏によると、AIの倫理、偏見、そして人間の仕事が奪われることへの懸念に加えて、専門知識の源としてAIに過度に依存することのリスクが、ようやく認識され始めたという。

 一般的なビジネス環境において、ユーザーがAIに過度に依存すると、生産性の低下や、誤ったものへの信頼といった結果を招く。たとえば、ユーザーが「AIの提案に合わせて行動を修正、変更、転換する可能性がある」とMicrosoftのSamir Passi氏とMihaela Vorvoreanu氏がこのトピックに関する研究の概要で指摘している。さらに、ユーザーは「AIのパフォーマンスを評価して、AIが自分の意思決定に与える影響を理解するのが難しくなる」だろう。

 これは、Esquire Bankの最高イノベーション責任者(CIO)であるKyall Mai氏の見解だ。Mai氏はAIを顧客エンゲージメントの重要なツールとみなす一方で、人間の経験や批判的思考に代わるものとしてAIを過度に使用しないよう警告する。法律事務所に専門的な融資を行うEsquire Bankは、ビジネスを理解し、AIがビジネスの発展のためにできることを分かっている人材を求めている。筆者は先頃、Salesforceがニューヨークで開催したカンファレンスでMai氏と顔を合わせて、AIに関する経験と見解について聞いた。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]