AIの未来における安全性と責任--「SXSW 2025」で示された3つの論点

Sabrina Ortiz (Special to ZDNET.com) 翻訳校正: 川村インターナショナル

2025-03-24 07:00

 世界を乗っ取ることができる人工知能(AI)テクノロジーはサイエンスフィクション(SF)小説や映画の中だけの話だが、既存のAIにも悪事を働く能力があり、ハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)の発生、人のデータを用いた訓練、他者の成果を使用した新しい出力の生成などが可能だ。このような欠点と、AIの急速な普及はどのような関係にあるのだろうか。

 「South by Southwest」(SXSW)ではこの疑問が大きく取り上げられ、AI関連の大半のセッションがAIの安全性というトピックに触れるか、深く掘り下げていた。IBMやMeta、Microsoft、Adobeといった企業のリーダーたちが、AIの未来についての洞察を共有した。リーダーたちの見解は、AIの未来は悲観的なことばかりではない、という点で一致している。

 「Adobe Fireflyエンタープライズ版」を立ち上げたHannah Elsakr氏は次のように述べた。「AIには、もっと優秀な広報担当者が必要だ。私たちはSFから学んだことしか知らない。AIが私たちの人生を乗っ取ると考えられているが、それはAIの目的ではない」

 どのパネルディスカッションでも、AIテクノロジー大手のリーダーたちが、AIの未来における安全性と責任の位置付けについて、3つの包括的なテーマを議論した。リーダーらの発言を聞けば、不安が少し和らぐかもしれない。

1. 用途が重要

 AIシステムに欠陥があることは否定できない。AIはハルシネーションを起こすことや、応答にバイアスが含まれていることがよくある。そのため、AIシステムを職場に導入すると、内部プロセスにエラーが生じて、従業員やクライアント、ビジネス目標に悪影響が及ぶのではないか、と多くの人が懸念している。

 この問題を軽減する上で重要なのは、AIに任せるタスクを慎重に検討することだ。例えば、Microsoftの「責任あるAI」部門で最高製品責任者(CPO)を務めるSarah Bird氏は、現在のAIの能力に適した用途を探している。

 「仕事に合ったツールを用意する必要があるため、必ずしも全ての用途にAIを使用する必要はない」とBird氏。「AIを絶対に使用すべきでないケースもある」

 問題が起きそうなAIの用途の例としては、人材採用での利用がある。AIには、特定の国籍、学歴、性別を優遇した出力を生成する固有のバイアスがあることが、多くの研究で明らかになっている。そのため、IBMはAIエージェントを用いた選別や選定のプロセスを止めて、候補者と職務のマッチングにエージェントを使用するようになった。

 IBM 最高人事責任者(CHRO)のNickle LaMoreaux氏は「AIとエージェントの用途が何であれ、それが自社とその文化に適しているかどうかを確認することの重要性は、いくら強調しても足りない」と語る。

 AIが多くのタスクを実行できるからといって、AIにさせる必要があるわけではない。AIの欠点と強みを理解することが、落とし穴を避けて、AIの導入から可能な限り最高の成果を引き出す上で重要になる。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]