新型オレオレ詐欺
2023年05月10日 [色々なこと]
お疲れ様です。院長です。
5月10日の水曜日でございます。
気付けば、5月も1/3が過ぎ去りましたな。
もうすぐ梅雨ですなぁ。
これから徐々に気温と湿度が上昇していきます。
身体には負担ばかりですから、気をつけましょうね。
てことで、今日もネタにいきます。
気を付けるのは、身体だけではありません。
ついにAIを使った詐欺事件が起ったそうなんです。
米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件が起きました。
危うく騙されかけたその母親によれば、誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったんだとか…。
ですが実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったんです。
今、アメリカではこのような音声合成AIを利用した詐欺事件が日常的に起きているそうなんです。
そんな新手の詐欺から身を守るにはどうすればいいんでしょうか…。
アリゾナ州在住のジェニファー・デステファノさんは、普段なら見知らぬ番号は留守電で受けることにしていました。
ところが、その時は15歳の娘がスキーで留守にしていたので、もしや事故ではと心配になり、電話に出たそうなんです。
「電話に出ると、『ママ!』と泣きじゃくる娘の声が聞こえました」と、デステファノさんは事件のことを地元メディアに語っています。
困惑しながら「どうしたの?」とステファノさんが問いかけると、「ママ、どうしよう」と娘が泣きながら伝えてきました。
すると「頭を後ろに倒して、横になれ」という男の声が聞こえ、デステファノさんからさっと血の気が引きました。
電話の男はこう告げてきました。
「お前の娘は預かった。警察を呼んだら、娘を薬漬けにしてメキシコ送りにしてやるからな」
震え出したステファノさんの耳元には、受話器越しに「助けて、ママ」という娘の泣き叫ぶ声が聞こえてきます。
男は、娘を返して欲しければ100万ドル(約1億3000万円)払えと身代金を要求。
そんな大金とても払えないとデステファノさんが伝えると、5万ドル(670万円)に額を引き下げてきたとか…。
幸いにも、このときデステファノさんはもう1人の娘の付き添いでダンススタジオにいました。
周囲にはママ友がいて、1人は警察に、1人はデステファノさんの夫に連絡してくれたそうです。
で、男の電話から4分後、娘の無事が確認されました。
娘の安否を確認したデステファノさんは電話を切り、この身代金要求は詐欺であることがわかったと…。
デステファノさんは、電話から聞こえてきたその声は紛れもなく娘のものだったと語っています。
AIの技術革新により本人の声のサンプルがあれば、本人そっくりのクローン音声を合成することが簡単にできるようなんです。
アリゾナ州立大学のAIの専門家スバラオ・カンバンパティ教授は、「耳はもう信用できません」と音声合成AIの急速な進歩について説明しています。
同教授によると、以前ならAIで声をコピーするには、本人の声のサンプルが大量に必要だったんですが、今ではたった3秒の声があれば十分なのだそうです。
「その3秒間で、あなたの声そっくりの合成音声を作れます」とカンバンパティ教授。
それはイントネーションや感情までもコピーされているそうなんです。
そうした技術が、ますます簡単に利用できるようになりつつあるわけです。
もちろん、道具は使い方次第なので、有益な使い方もあるんですがね。
その一方で、今回のように犯罪に悪用される危険性があるわけです。
にしても3秒の音声で作れるとなったら、なかなか防ぐのにも苦労しますよねぇ…。
どんな道具もそうですが、便利なものには必ず落とし穴があるんですよね。
これからはオレオレ詐欺もかなり手が込んでくるでしょうね。
もうこれは、家族間で合言葉でも作っておく必要がありますな。
まずはこういう事が起こりるって事を、みんなが知る必要がありますね。
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨院
5月10日の水曜日でございます。
気付けば、5月も1/3が過ぎ去りましたな。
もうすぐ梅雨ですなぁ。
これから徐々に気温と湿度が上昇していきます。
身体には負担ばかりですから、気をつけましょうね。
てことで、今日もネタにいきます。
気を付けるのは、身体だけではありません。
ついにAIを使った詐欺事件が起ったそうなんです。
米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件が起きました。
危うく騙されかけたその母親によれば、誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったんだとか…。
ですが実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったんです。
今、アメリカではこのような音声合成AIを利用した詐欺事件が日常的に起きているそうなんです。
そんな新手の詐欺から身を守るにはどうすればいいんでしょうか…。
アリゾナ州在住のジェニファー・デステファノさんは、普段なら見知らぬ番号は留守電で受けることにしていました。
ところが、その時は15歳の娘がスキーで留守にしていたので、もしや事故ではと心配になり、電話に出たそうなんです。
「電話に出ると、『ママ!』と泣きじゃくる娘の声が聞こえました」と、デステファノさんは事件のことを地元メディアに語っています。
困惑しながら「どうしたの?」とステファノさんが問いかけると、「ママ、どうしよう」と娘が泣きながら伝えてきました。
すると「頭を後ろに倒して、横になれ」という男の声が聞こえ、デステファノさんからさっと血の気が引きました。
電話の男はこう告げてきました。
「お前の娘は預かった。警察を呼んだら、娘を薬漬けにしてメキシコ送りにしてやるからな」
震え出したステファノさんの耳元には、受話器越しに「助けて、ママ」という娘の泣き叫ぶ声が聞こえてきます。
男は、娘を返して欲しければ100万ドル(約1億3000万円)払えと身代金を要求。
そんな大金とても払えないとデステファノさんが伝えると、5万ドル(670万円)に額を引き下げてきたとか…。
幸いにも、このときデステファノさんはもう1人の娘の付き添いでダンススタジオにいました。
周囲にはママ友がいて、1人は警察に、1人はデステファノさんの夫に連絡してくれたそうです。
で、男の電話から4分後、娘の無事が確認されました。
娘の安否を確認したデステファノさんは電話を切り、この身代金要求は詐欺であることがわかったと…。
デステファノさんは、電話から聞こえてきたその声は紛れもなく娘のものだったと語っています。
AIの技術革新により本人の声のサンプルがあれば、本人そっくりのクローン音声を合成することが簡単にできるようなんです。
アリゾナ州立大学のAIの専門家スバラオ・カンバンパティ教授は、「耳はもう信用できません」と音声合成AIの急速な進歩について説明しています。
同教授によると、以前ならAIで声をコピーするには、本人の声のサンプルが大量に必要だったんですが、今ではたった3秒の声があれば十分なのだそうです。
「その3秒間で、あなたの声そっくりの合成音声を作れます」とカンバンパティ教授。
それはイントネーションや感情までもコピーされているそうなんです。
そうした技術が、ますます簡単に利用できるようになりつつあるわけです。
もちろん、道具は使い方次第なので、有益な使い方もあるんですがね。
その一方で、今回のように犯罪に悪用される危険性があるわけです。
にしても3秒の音声で作れるとなったら、なかなか防ぐのにも苦労しますよねぇ…。
どんな道具もそうですが、便利なものには必ず落とし穴があるんですよね。
これからはオレオレ詐欺もかなり手が込んでくるでしょうね。
もうこれは、家族間で合言葉でも作っておく必要がありますな。
まずはこういう事が起こりるって事を、みんなが知る必要がありますね。
ではまた〜。
京都 中京区 円町 弘泉堂鍼灸接骨院