生成系AIに潜む5つの重大なリスク--ハルシネーション、著作権問題など

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2023-04-27 11:43

 「ChatGPT」などの生成系AIは、AIとのやりとりや人々のAIに対する見方に革命的な変化をもたらした。これまでに比べて、文章作成やコーディング、職務経歴書の作成などが大幅に容易になり、短時間で終えられるようになった。しかし、多くのメリットが存在する一方で、相当に深刻なリスクも潜んでいる。

ロボットと向き合う人間
提供:Getty Images/imaginima

 AIに対する最大の懸念は信頼性とセキュリティだ。これらのことが原因で、ユーザーを保護するためにChatGPTを完全に禁止する国やAIに関するポリシーを再考する国も出てきている。

 GartnerのアナリストAvivah Litan氏によると、生成系AIに潜む最大のリスクのいくつかは信頼性とセキュリティに関連するものであり、ハルシネーション、ディープフェイク、データプライバシー、著作権の問題、サイバーセキュリティの問題が含まれるという。

1. ハルシネーション

 ハルシネーションとは、AIモデルが事実とは異なる不正確な回答を生成する問題を指す。AIモデルは、先進的なテクノロジーではあるが、人間ではなく、訓練とデータに基づいて回答を提供するため、このような問題が発生する。

 「訓練に使われるデータは、偏った回答や的外れな回答につながる可能性があるが、特に生成AI製品が信頼され、活用されるようになると、誤りを発見することは難しくなる」とLitan氏は言う。

2. ディープフェイク

 ディープフェイクとは、生成系AIを使用して、実在する人間の特徴を模倣した偽の動画や写真、音声を作成することだ。ソーシャルメディア上で数百万回再生され、話題となったDrakeとThe Weekndの「コラボ曲」がいい例だ。

 ハルシネーションと同様に、ディープフェイクは偽のコンテンツや誤った情報の拡散につながり、深刻な社会問題を引き起こす可能性がある。

3. データプライバシー

 生成系AIでは、大規模言語モデルの訓練のためにユーザーデータが保存されることがよくあるため、プライバシーも大きな懸念事項となっている。データプライバシーに対する懸念は、イタリアがChatGPTを禁止した最大の理由である。同国は懸念点としてデータ収集についてユーザーに適切な情報提供がなされていないこと、大規模なデータ収集を正当化する法的根拠がないこと、および年齢確認がされていないことを挙げている

 Litan氏は生成系AIに保存されたデータがユーザーの個人情報の漏えいにつながるだけでなく、セキュリティ侵害などによって「悪意を持つ者の手に渡る」リスクがあることも指摘している。

4. サイバーセキュリティ

 生成系AIモデルはコーディングなどの高度な能力を備えるが、悪用されて、サイバーセキュリティの懸念を引き起こす可能性もある。

 同氏は、「より高度なソーシャルエンジニアリングやフィッシング攻撃に加えて、攻撃者が悪意あるコード生成を簡単に行うために生成系AIを利用する可能性がある」と述べている。

5. 著作権の問題

 生成系AIモデルは、インターネット上にある大量のデータで訓練され、それらのデータを使用して回答を生成するため、著作権も大きな懸念事項だ。

 この訓練によって、原作者が明示的に共有していない作品をも使用して、生成系AIは新しいコンテンツを生み出せるようになる。また、生成AIモデルの訓練にに使用された作品は明示的に開示されないため、こうした著作権の問題を軽減することは困難だ。

 

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]