AIには倫理が必要となる。これは注目に値する提言だ。レポートには、学校や大学は、AIや機械学習、コンピュータ科学、データ科学のカリキュラムの一部として倫理、およびセキュリティやプライバシー、安全に関する倫理面での話題を取り込んでおくべきだと記されている。
AIにまつわるサイバーセキュリティの難問。政府は明らかに、AIがサイバーセキュリティの鍵となる技術であると考えている。AIによってさまざまなセキュリティタスクが自動化できるのだ。
現在のところ、セキュアなシステムの設計と運用には長い時間がかかるとともに、専門家による監督が必要となっている。こういった専門的作業を、部分的にせよ全体的にせよ自動化することで、より幅広い範囲でシステムやアプリケーションのセキュリティをはるかに低いコストで強化しつつ、サイバー攻撃に対処する際のアジリティを向上できるようになる可能性がある。AIの活用は、進化し続けるサイバー脅威を検出し、対処するために必要となる迅速なレスポンスを保っていくうえで役立つだろう。ますます複雑化するサイバー空間の現状に立ち向かい、攻撃を受けた際に人間の意思決定を効果的にサポートするうえで、AI、そして特に機械学習システムを利用できる機会が数多くあるはずだ。
しかしAIのセキュリティについてはどうだろうか?レポートには「AIシステム自体もサイバーセキュリティを備える必要がある。AIの力を借りるアプリケーションは、データと機能の完全性を保証するとともに、プライバシーと機密性を確保し、利用可能性を維持するために、サイバーセキュリティ関連の堅牢な統制機能を実装するべきだ」と記されている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。