AIが監視して学習できるのは、電子メールだけではない。公的な性格が強くなっている多くのソーシャルメディアのプロフィールや写真共有サイト、動画ストリーミング、あるいはオンラインショッピングのアカウントなども、すべて悪質な機械学習アルゴリズムの標的になり得る。また、調べられる情報の量が多いほど、AIが被害者の振る舞いや習慣について多くのことを学ぶことができ、情報を盗むためにそれを利用できる。アカウント自体を盗まれることも考えられる。
セキュリティ管理を専門とする企業Liberman Softwareの製品戦略担当バイスプレジデントを務めるJonathan Sander氏は、「AIがパスワードのリセットに使われる秘密の質問の答えを予想できるようになり、情報を盗まなくてもアカウントを自動的に乗っ取れるようになったところを想像してみてほしい」と述べている。「あるいは、被害者の子供を装って、Netflixのパスワードを忘れたから教えてほしいとメールを送ることさえできるかもしれない」(Sander氏)
人間の犯罪者と同じく、AIが標的について適切な情報を十分に持っていれば、最後には被害者をだまして何かをクリックさせたり、望む情報を送らせたりすることができる。AIを使って情報を調べられれば、より短期間に多くの人を標的にできる。
標的が増えれば被害者も増え、より多くの人や、それらの人々が所属する企業がデータ盗難のリスクに晒され、その結果、攻撃に利用できる情報がさらに流出してしまう。
フィッシングは単純であるにも関わらず効果的な攻撃だが、人工知能がマルウェアやランサムウェアとその防御手段の開発競争に利用されることも考えられる。例えば、AIで継続的にマルウェアのコードを変更し続け、検知を逃れたり、より効果的な攻撃の手段を与えたりすることもあり得るだろう。
実際、AIがすでに脆弱性を突くのに利用された事例もある。これは2016年8月にラスベガスで開催されたセキュリティカンファレンス「DEF CON」で行われた、米国防高等研究計画局(DARPA)が後援する、ハッキングと防御の技術を競う大会で登場したものだ。
DARPAのイベント「Cyber Grand Challenge」の目標は、敵からソフトウェアの脆弱性を悪用される前に、脆弱性の存在を検知し、評価し、修正する能力を持った高度な自律システムの開発を加速することだ。この決勝大会には7チームが参加し、ForAllSecureと呼ばれるチームが作成した「Mayhem」と名付けられたコンピュータシステムが優勝して、200万ドルの賞金を獲得した。