AIによる音声合成を悪用した、なりすまし電話詐欺が横行

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2023-03-09 10:59

 自分の大切な人が窮地に陥っているという電話がかかってくることを想像してほしい。その瞬間、窮地から救えるのであれば、送金でも何でもすると本能的に思ってしまうだろう。

スマホを触るロボットの手
提供:Kilito Chan/Getty Images

 詐欺師たちは人間のこうした急所を熟知しており、最近では人工知能(AI)を使ってそこに付け込もうとしている。

 The Washington Postは最近の記事で、なりすまし電話詐欺の被害に遭った老夫婦として、Ruth CardさんとGreg Graceさんの事例を取り上げている。

 ある日、妻のRuthさん(73歳)のもとに孫息子だという人物から電話がかかってきて、刑務所に収監され、財布も携帯電話もなく、保釈のための現金が早急に必要だと告げられた。Ruthさんと夫のGregさん(75歳)は、孫の心配をする世の中の祖父母の多くがそうするように、お金を用意するため銀行へ急いだ。

 1つ目の銀行で引き出しの上限額を出金し、不足分を入手するために向かった2つ目の銀行で、支店長からこう言われた。過去に同じような事例の詐欺があったため、今回も詐欺ではないか。結局、被害にはつながらなかった。

 こういった詐欺は決して珍しいものではない。米連邦取引委員会(FTC)によると、米国で2022年に発生した詐欺犯罪で2番目に多かったのがなりすまし詐欺であり、3万6000人以上が友人や家族をかたる詐欺の被害に遭っている。これらの詐欺のうち5100件は電話を通じたものであり、被害総額は1100万ドル(約15億円)以上に及んでいるという。

 最近ではOpenAIの「ChatGPT」や「DALL・E」といった生成型のAIプログラムの人気が高まってきており、生成型AI(Generative AI)という言葉がバズワードになっている。こうしたプログラムは主に、ユーザーの生産性向上につながる高度な能力を備えているとされる。

 しかし、この種の有益な言語モデルを訓練するために用いられる技術は、有害なプログラムを訓練するためにも使用できる。その一例として、AIによる音声合成が挙げられる。

 AIによる音声合成プログラムは人間の音声を分析し、ピッチ(声の高さ)やアクセント/なまりといった、その人とまったく同じ声を合成するためのさまざまなパターンを導き出した上で、音声として再現するようになっている。こうしたツールの多くは数秒以内に処理を完了し、元の音声とほとんど区別がつかない音声を合成できる。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]