「ChatGPT」の使用に伴う6つのリスク、研究者らが指摘

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2023-05-18 11:00

 生成系AIのリスクに対する懸念が高まっている。OpenAIの最高経営責任者(CEO)であるSam Altman氏が米上院司法委員会の公聴会で証言し、さまざまなリスクとAIの未来に言及したほどだ。

ChatGPTの文字とOpen AIのロゴ
提供:NurPhoto/Contributor/Getty Images

 欧州の研究者らは5月13日に公開したレポートで、ChatGPTの使用に伴う6つのセキュリティリスクを提示した。

 それらのリスクについて、以下で簡単に説明する。

情報の収集

 悪意を持って行動する人がChatGPTから情報を収集し、後で悪用するおそれがある。ChatGPTは膨大な量のデータで訓練されているため、悪人の手に渡ってしまった場合に武器として使用されかねない情報を大量に保持している。

悪意あるテキストの生成

 ChatGPTで最も人気の高い機能の1つは、エッセイや電子メール、楽曲などの作成に使用できるテキスト生成機能だ。しかし、この文章作成機能は、有害なテキストの作成にも使用できる。

悪意あるコードの生成

 ChatGPTの驚異的な文章作成能力と同様、優れたコーディング能力も多くのユーザーにとって便利なツールとなっている。だが、チャットボットのコード生成機能も、他者に危害を与える目的で利用することが可能だ。ChatGPTを使えば、コードを迅速に生成できるため、コーディングの知識がそれほどない攻撃者でも、より迅速に攻撃を展開することが可能になる。

非倫理的なコンテンツの生成

 ChatGPTには、不快で非倫理的なコンテンツの拡散を防ぐためのガードレールが設けられている。しかし、十分な覚悟を持ったユーザーは、ChatGPTに有害で非倫理的なことを言わせる方法を見つけるだろう。

詐欺的なサービス

 ChatGPTは、新しいアプリケーションやサービス、ウェブサイトなどの作成に役立てることが可能だ。自分のビジネスの立ち上げや夢のアイデアの実現といった良い目的のために利用すれば、ChatGPTは非常に有益なツールになり得る。しかし、それは、詐欺的なアプリやサービスの作成がかつてないほど簡単になったことも意味する。

個人データの公開

 ChatGPTには、人々の個人情報やデータの共有を防ぐためのガードレールが設けられている。しかし、レポートによると、ChatGPTが電話番号や電子メール、そのほかの個人情報を誤って共有してしまうリスクが依然として懸念されているという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    警察把握分だけで年間4000件発生、IPA10大脅威の常連「標的型攻撃」を正しく知る用語集

  2. セキュリティ

    まずは“交渉術”を磨くこと!情報セキュリティ担当者の使命を果たすための必須事項とは

  3. セキュリティ

    「2024年版脅威ハンティングレポート」より—アジアでサイバー攻撃の標的になりやすい業界とは?

  4. セキュリティ

    生成AIを利用した標的型攻撃とはどのようなものなのか?実態を明らかにして効果的な対策を考える

  5. ビジネスアプリケーション

    Microsoft 365で全てを完結しない選択、サイボウズが提示するGaroonとの連携による効果

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]