“自分の声”が悪用される? 「フェイクボイス」で振り込め詐欺 アメリカで年間15億円の被害 【#みんなのギモン】
イスラム組織「ハマス」が、イスラエルに襲撃した瞬間としてある映像をSNSに投稿しました。映像では多くのパラグライダーが空から降りてきていますが、実は「フェイク動画」です。ロイター通信によると、エジプト・カイロで撮影されたものだといいます。衝突が激しくなるにともなって、旧Twitterの「X」では「フェイク動画」が複数確認されているといいます。
人々をだますこうしたフェイク、実はどんどん巧妙になってきています。
13日のギモンは「自分の声が勝手に悪用され、犯罪に使われてしまうかも」という話です。今年4月、中国でこんな事件がありました。福建省でIT企業を経営する男性のもとに友人からビデオ電話がかかってきました。友人が言うには「入札に参加していて430万元(約8500万円)の保証金が必要なんだ。振り込んでくれないか」とのことでした。
男性は指定された口座にお金を振り込み、友人に「振り込んだよ」とメッセージを送りました。すると、友人の返信は「?」…なんのこと? そんなお願いしてないと。ビデオ通話の相手は、顔も声もAIが作り出したフェイクだったらしく、男性は完全にだまされたそうです。
「フェイク画像」が出回っているというのはよく聞きますが、「フェイクボイス」というのもあります。そこに注目してみました。
◇ニセの声 どう作る?
◇相次ぐ悪用 どう防ぐ?
実際に「news every.」の鈴江キャスターの声で「フェイクボイス」を作ってみました。AIで生成した「今夜も『news zero』をご覧いただきありがとうございました」という「フェイクボイス」を鈴江キャスター自身に聞いてもらうと、“若干違和感があるものの、しゃべり始めの部分などが似ていた”といいます。
今回、特別に協力していただいたのは、AI総合研究所の「NABLAS」です。普段は「フェイク動画」などを見つけて防ぐ取り組みを行っている企業ですが、どうやってフェイクが作られているのかお願いして見せてもらいました。
まずネットにアップされている「news every.」の動画から鈴江キャスターの声を見つけて、AIに学習させました。7秒ほどあれば十分だといいます。
次にAIにしゃべらせたい内容をパソコンのキーボードでシステムに打ち込むと、わずか10秒ほどで「今夜も『news zero』をご覧いただきありがとうございました。私の声をまねるなんてどういうことですか?」という「フェイクボイス」ができあがりました。
■「フェイクボイス」で本当にだませるのか? 日テレスタッフで実験
まず、取材した小野解説委員の声をネット上の動画からAIに学習させた上で、協力いただいたNABLASの滝創一朗さんが、小野解説委員の口調をまねてセリフを吹き込みます。
滝さんが小野解説委員に似た口調で「調査報道班の小野です。折り入って相談したいことがあるんですけど」というセリフを吹き込むと、即座に小野解説委員の声に変換されました。
そして、AIが生成した小野解説委員の「フェイクボイス」を使って、日本テレビのスタッフに電話をしてみました。相手が電話に出たら“ニセの声”の再生ボタンを押します。
結果は――
AI(小野解説委員のフェイクボイス)
「調査報道班の小野です」
電話に出たスタッフ
「お疲れさまです」
AI(小野解説委員のフェイクボイス)
「折り入って相談したいことがあるんですけど」
電話に出たスタッフ
「はい」
AI(小野解説委員のフェイクボイス)
「このあとそっちに行っていいですか」
電話に出たスタッフ
「はい大丈夫です! お待ちしています」
AI(小野解説委員のフェイクボイス)
「ではのちほど」
その後、電話に出たスタッフに“ニセの音声”だと種明かししました。
――実は生成AIってわかりました?
電話に出たスタッフ
「え? いまの小野さんの電話? わかりませんでした。普通に会話しましたけど、私」
――つくりものなんです
電話に出たスタッフ
「……うそでしょ」
電話に出たスタッフは小野解説委員と電話で話しているものだと見事にだまされていました。これがAIの怖さでもあります。
そこで次のポイントは「相次ぐ悪用 どう防ぐ?」です。
みなさんに気をつけていただきたいのは、YouTubeやTikTokなどにSNS上に自分や子どもの顔と声を投稿していると、それをもとに“ニセの声”を作られて悪用されかねません。
例えば振り込め詐欺。アメリカでは身内や知人にそっくりな声で電話かかってきて、だまされてお金取られる被害がすでに多発していて、ワシントン・ポストによれば、被害の総額が年間15億円になるといいます。
アメリカアリゾナ州では、母親が電話に出たら、15才の娘そっくりの声で「ママ」と泣き叫ぶ声が聞こえ、直後に男が身代金を要求することが起きました。実際には、娘は誘拐されていないことがわかって事なきを得ましたが、これもAIのニセ物の声と見られています。
トレンドマイクロ・広報担当の成田直翔さんは「サイバー犯罪者が『フェイク動画』を悪用したいというのは目に見えている」といいます。
実際に「フェイクボイス」の実験に協力してくれた「NABLAS」も、「この先1年ほどでも技術が進化すると、それがリスクにもなる」と話しています。
NABLAS 鈴木都生取締役
「進化するスピードが早まっているので、本当に1年~2年で自然に話せて、かつどういった環境でも簡単に使えるツール、そういったものが、実装されるのが予想される。人間の目や耳で見破ることがどんどん難しくなる」
鈴木さんは「フェイクを検出する技術もできてきているので、ぜひそういったものも活用してほしい」と話していました。
◇
私たち自身がだまされないためには、身近な人が「この言動ちょっとおかしいな」と思ったら、そこに気づいていくのが大事になります。誰もがターゲットになりえるこうした実態があることを知って、正しく恐れて身を守っていきましょう。
(2023年10月13日午後4時半ごろ放送 news every.「#みんなのギモン」より)
●あなたの身の回りの怒りやギモンをお寄せください。
お寄せいただいた情報をもとに日本テレビ報道局が調査・取材します。
#みんなのギモン