米イリノイ大学アーバナ・シャンペーン校の研究者らは、OpenAI の大規模言語モデル(LLM)である「GPT-4」を悪用することで、人間が介入することなくソフトウェアのセキュリティの脆弱(ぜいじゃく)性を攻撃し、悪用できるとの研究結果を2024年4月に公表した。
ここで指摘されているのが、「1日脆弱性」が狙われるリスクである。1日脆弱性とは、既に公開されているものの、まだ修正されていない脆弱性を指し、これが悪用される可能性があるという。実際に、米国立標準技術研究所(NIST)は、1日脆弱性の87%を悪用できたとしている。研究結果によると、GPT-4 には1 日限りの脆弱性を自律的に検出し、悪用する能力が備わってしまっているようだ。
生成AIがサイバー攻撃に加担する事例は、今後さらに増加すると考えられる。関連する記事を集めた。