調査からひもとくDevSecOpsの現状と課題

第2回:検証してから信頼する--AIの責任ある導入 - (page 2)

小澤正治 (GitLab)

2024-05-02 07:25

 現在利用可能な一般的なAIツールを提供している企業の多くが、モデル学習データの出所について透明性を高くしていません。モデル、トレーニングデータ、ポリシーが不透明で、調査に対して閉鎖的であれば、組織が安全かつ責任を持ちAIモデルを使用することを脅かしてしまうかもしれません。

リスクの低いところから、小さく始める

 AIの効率性により安全性や戦略性の恩恵を受けるためには、まずはデータ漏えいやセキュリティ脆弱(ぜいじゃく)性を含め、組織で最もリスクが低いところを特定しましょう。そこからAI導入を始めるのです。そうすれば思わぬ落とし穴を避けることができます。社内でAIを導入するチームが動き出す前に、リスクの低い領域でベストプラクティスを構築しておけば、その後に安全にAIを拡張していけます。

 組織のリーダーは技術チーム、法務チーム、AIサービスプロバイダー間のコミュニケーションを促進させることから始めましょう。AI活用で関係者が共有する目標のベースラインを設定しておくと、どこに焦点を当て、どのようにリスクを最小化するかを判断するのに役立ちます。そこから、従業員の利用、データの浄化、製品内の情報開示、モデル機能など、AI導入のためのガードレールやポリシー設定に着手できます。また組織は、十分に検証した脆弱性の検出や修復にも積極的に取り組むべきでしょう。

適切なパートナーを見つける

 AIを安全に導入し、セキュリティとプライバシーのベストプラクティスを確実に構築できるようなパートナーを探しましょう。これにより、コンプライアンス基準の順守を犠牲にすることなく、また顧客や利害関係者との関係を危険にさらすことなく、AI導入の成功に寄与します。

 組織が抱えるAIとデータプライバシーに関する懸念は、一般的に次の3つのカテゴリーに分類することができます。

  • AI/機械学習モデルの学習にどのようなデータセットが使用されるか
  • 独自のデータがどのように使用されるのか
  • モデル出力を含む独自のデータが保持されるか

 パートナーやベンダーの透明性が高ければ高いほど、組織はビジネス関係を評価する際により多くの情報を得ることができます。

セキュリティポリシーと不測の事態への対応計画を先に策定しておく

 最後に、リーダーはAI利用におけるセキュリティポリシーと緊急時の対応計画の策定が必要です。AIモデルに送信するプロンプトやAIモデルから受信したアウトプットの保存を含め、AIサービスが組織や顧客のデータをどのように取り扱うかを検証しておきましょう。

 こうしたガードレールを整備しておかないと、将来のAI導入や活用に深刻な影響を与えかねません。AIは企業を変革する可能性を秘めているものの、リスクも伴います。技術者もビジネスリーダーもともに、それらのリスクを管理していく責任があります。

 現時点でのAI技術の採用方法は、今後AIが果たす役割に影響を与えます。AIを取り入れる優先分野を熟考して戦略的に特定していきましょう。そうすれば組織は脆弱性を生み出したり、コンプライアンス基準の遵守を危うくしたり、顧客、パートナー、投資家、その他の利害関係者との関係を危うくしたりすることなく、AIの恩恵を享受することができるのです。

小澤 正治(おざわ・しょうじ)
GitLab 日本カントリーマネージャー
優れた業績を生みだすセールスチームを構築し、顧客価値を高め市場拡大を実現させるなど、20年以上にわたってテクノロジー企業で経験や知識を生かす。GitLab入社以前は、グーグル、日本オラクル、セールスフォース・ジャパン、アドビなどのグローバルテクノロジー企業で、セールスのオペレーション業務に携わった。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]