多くの生成AI企業は、チャットボットの学習にユーザーデータを利用しており、その際に公開データだけでなく非公開データも参照している。一部のサービスは、ユーザーからデータを収集する際に侵襲性が低く、柔軟性に富んでいるが、そうでないサービスも存在する。データ削除サービスを展開するIncogniが発表した最新のレポートでは、AIが個人データとプライバシーをどの程度尊重しているかについて、その優劣が検証されている。
Incogniは、「Gen AI and LLM Data Privacy Ranking 2025」と題したレポートで、主要な生成AIサービス9社を対象に調査を実施し、データプライバシーの慣行を評価するために11の基準を適用した。これらの基準は、次のような問いに基づいている。
- モデルの学習にはどのようなデータが使用されているか
- ユーザーの会話がモデルの学習に利用される可能性があるか
- プロンプトがサービス提供者以外、またはその他の合理的な第三者と共有される可能性があるか
- ユーザーの個人情報が学習データセットから削除される可能性があるか
- プロンプトが学習に使用されるかどうかがどの程度明示されているか
- モデルの学習方法に関する情報がどの程度容易に入手可能であるか
- データ収集に関する明確なプライバシーポリシーが存在しているか
- プライバシーポリシーの可読性はどの程度であるか
- ユーザーデータの収集に使用されている情報源は何か
- データが第三者と共有されているかどうか
- AIアプリが収集しているデータの種類は何か
調査対象となったプロバイダーおよびAIには、Mistral AIの「Le Chat」、OpenAIの「ChatGPT」、xAIの「Grok」、Anthropicの「Claude」、Inflection AIの「Pi」、「DeepSeek」「Microsoft Copilot」「Google Gemini」「Meta AI」が含まれていた。各AIは、幾つかの質問に対しては高い評価を得たが、他の質問では評価が低かった。
一例として、Grokはプロンプトが学習に使用されることを明示している点で高い評価を得たが、プライバシーポリシーの可読性に関しては評価が低かった。別の例として、ChatGPTおよびGeminiのモバイルアプリにおけるデータ収集の評価は、iOS版とAndroid版で大きく異なっていた。
しかし、総合的に見て、Le Chatはもっともプライバシーに配慮したAIサービスとして最高評価を獲得した。透明性の項目では若干の減点があったものの、同分野においても良好な成績を収めている。さらに、同サービスによるデータ収集は限定的であり、他のAIに見られる特有のプライバシー問題に関しても高得点を記録している。
ChatGPTは第2位にランクインした。Incogniの研究者は、OpenAIのモデルがどのように学習されているか、またユーザーデータがサービスとどのように相互作用するかについて、幾つかの懸念を示している。ただし、ChatGPTはプライバシーポリシーを明確に提示しており、ユーザーが自身のデータの扱いを理解できるようになっている。また、データの利用を制限するための明確な手段も提供している。
Grokは第3位となり、ClaudeとPiがそれに続いた。各サービスは特定の分野において課題を抱えていたものの、総合的にはユーザーのプライバシーを尊重する姿勢が評価され、良好な成績を収めている。
Incogniはレポートで、「Mistral AIのLe Chatは、もっともプライバシー侵害の少ないプラットフォームであり、ChatGPTとGrokが僅差でこれに続いている」と述べた。「これらのプラットフォームは、データの使用方法および収集方法に関する透明性、ならびに個人データが基盤モデルの学習に使用されることをユーザーがオプトアウトする容易さにおいて、もっとも高い評価を得ている。特にChatGPTは、プロンプトがモデルの学習に使用されるかどうかに関する透明性がもっとも高く、明確なプライバシーポリシーを有していた」
ランキングの下位では、DeepSeekが第6位となり、CopilotとGeminiがそれに続いた。Meta AIは最下位となり、もっともプライバシーへの配慮が不足しているAIサービスと評価された。
Copilotは、モデルの学習に使用されるデータの種類や、ユーザーの会話が学習に利用される可能性など、AI固有の評価基準に基づくと、9つのサービスの中でもっとも低い評価となった。一方、Meta AIは、全体的なデータ収集および共有の慣行において、もっとも評価が低かった。
Incogniは、「大手テクノロジー企業が開発したプラットフォームは、プライバシーを大きく侵害する傾向があり、Meta AI(Meta)がもっとも評価が低く、Gemini(Google)とCopilot(Microsoft)がそれに続いている」と指摘した。また、「Gemini、DeepSeek、Pi AI、Meta AIは、ユーザーがプロンプトのモデル学習への利用をオプトアウトすることを許可していないようだ」としている。
Incogniの調査によれば、AI企業は、サービスプロバイダー、法執行機関、同一企業グループ内の関連企業、研究パートナー、提携先、さらには第三者を含む多様な関係者とデータを共有していることが明らかとなった。
Incogniはレポートで、「Microsoftのプライバシーポリシーは、ユーザーのプロンプトが『Microsoftのオンライン広告サービスを提供する第三者、またはMicrosoftの広告技術を利用する第三者』と共有される可能性があることを示唆している」と述べている。また、「DeepSeekとMetaのプライバシーポリシーは、プロンプトがそれぞれの企業グループ内の他企業と共有される可能性を示している。さらに、MetaとAnthropicのプライバシーポリシーは、プロンプトが研究協力者と共有されることを合理的に理解できる内容となっている」としている。
ChatGPT、Copilot、Mistral AI、Grokといった一部のサービスでは、プロンプトがモデルの学習に使用されるのを防ぐ手段が提供されている。一方で、Gemini、DeepSeek、Pi AI、Meta AIについては、それぞれのプライバシーポリシーやその他の情報源によれば、この種のデータ収集を停止する手段は提供されていないようである。この点に関して、Anthropicは、ユーザーのプロンプトをモデルの学習目的で収集することは一切ないと明言している。
透明性が高く、かつ読みやすいプライバシーポリシーは、どのようなデータが収集されているか、またユーザーがどのようにオプトアウトできるかを理解する上で非常に有用である。
Incogniは、「ユーザーがプライバシーに関する疑問に対する回答を検索できる、使いやすく簡潔に記述されたサポートセクションが存在し、それが常に最新の状態に保たれている場合、透明性と明確性が大幅に向上することが示されている」と述べる。また、「多くのプラットフォームは類似したデータ処理慣行を採用しているが、Microsoft、Meta、Googleのような企業は、全ての製品を対象とする単一のプライバシーポリシーを採用しており、その文書が長大であるにもかかわらず、ユーザーが自身の疑問に対する回答を容易に見つけられるとは限らないという課題を抱えている」としている。

提供:TU IS/Getty
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。