IBM、AIシステムを保護するオープンソースライブラリ「Adversarial Robustness Toolbox」

Charlie Osborne (Special to ZDNET.com) 翻訳校正: 編集部 矢倉美登里 吉武稔夫 (ガリレオ)

2018-04-19 13:42

 IBMは米国時間4月17日、カリフォルニア州サンフランシスコで開催中のセキュリティカンファレンス「RSA Conference 2018」で、人工知能(AI)システムの保護に向けたセキュリティライブラリをオープンソースコミュニティーに公開したと発表した。

 公開された「Adversarial Robustness Toolbox」は、ディープニューラルネットワーク(DNN)を含むAIシステムに対する攻撃の被害者になり得るAIの開発者やユーザーをサポートするためのものだ。

 IBMによると、攻撃者はAIシステムに存在する弱点を、非常に些細な手段を用いて悪用できる可能性があるという。画像や動画、録音などのコンテンツに簡潔かつ小さな変更(検知できない場合もしばしばある)を加えることで、サイバー攻撃の対象となるAIやDNNの深い知識がなくても、AIシステムを混乱させる攻撃が可能になる。

 このような些細な変更は、ユーザーに深刻なセキュリティ問題をもたらすとともに、AIシステムそのもののパフォーマンスにも影響を与える可能性がある。

 たとえば、人工知能(AI)が交通システムの管理に利用されている場合、管理用AIをだませば、地図アプリケーション上で、あるいは、いずれ物理的にも、一時停止の道路標識が制限時速約110キロメートルの標識に変更される恐れがある。

 オープンソースコミュニティに提供されるAdversarial Robustness Toolboxは、現在と未来のAIソリューションへの脅威に関する情報のリポジトリとなり情報源となることを目指している。

 Adversarial Robustness Toolboxは、脅威に関するデータを記録するとともに、現実世界におけるAIに向けた実用的な防衛システムを開発、性能評価、導入について開発者を支援することで、いわゆる「敵対的AI」と戦うことを狙いとしている。

 Adversarial Robustness Toolboxには、この新しい分野におけるサイバーセキュリティソリューションの開発を開始するのに役立つライブラリやインターフェース、指標も含まれている。

 ツールキットをオープンソースコミュニティに公開したことが刺激となり、敵対的AIが真の脅威になる前にソリューションを開発する人がほかにも出てくるかもしれない。

 IBMは今週、セキュリティプラットフォーム「Resilient Incident Response Platform」にAIと機械学習(ML)を活用したオーケストレーション機能を追加すると発表した。また、「IBM X-Force Threat Management Services」システムについても発表した。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]