当前位置:静雅生活网 > 数码百科 >

丧心病狂!这些人利用 AI 声音冒充亲人诈骗 1100 万美元

导读:【CNMO 新闻】电信诈骗的套路大家都很熟悉,一般来说,我们可以轻易地分辨出对方是什么来头。不过,正所谓 " 道高一尺魔高一丈 ",有些诈骗分子已经开始利用 AI 技术进行

  【CNMO 新闻】电信诈骗的套路大家都很熟悉,一般来说,我们可以轻易地分辨出对方是什么来头。不过,正所谓 " 道高一尺魔高一丈 ",有些诈骗分子已经开始利用 AI 技术进行犯罪。据外媒报道,目前,AI 语音生成软件可以让骗子模仿亲人的声音,诈骗者利用 AI 声音冒充亲人窃取了大量钱财,光是在 2022 年,这些假冒行为导致人们在 2022 年被骗走 1100 万美元,而且老年人占目标人群的大多数。

丧心病狂!这些人利用 AI 声音冒充亲人诈骗 1100 万美元

  电信诈骗

  近段时间以来,人工智能一直是科技圈的中心话题,因为微软在其产品中注入 ChatGPT,而谷歌则通过推出自己的人工智能产品来跟上潮流。虽然人工智能有潜力做一些让人令人印象深刻的事情,比如根据一行文本生成图像,但这项几乎不受监管的技术的更多缺点也开始浮现出来。最新的例子是,人工智能语音发生器被用来骗取人们的钱财。

丧心病狂!这些人利用 AI 声音冒充亲人诈骗 1100 万美元

  人工智能

  人工智能语音生成软件一直受到业界关注,最开始,这种软件需要几句话才能令人信服地再现扬声器的声音和语气。现在,该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。

  根据外媒公布的报告,数以千计的受害者声称他们被冒充亲人的顶替者所欺骗。这类冒名顶替诈骗已成为美国第二大热门的欺诈类型,2022 年提交的案件超过 36000 起。FTC 官员进一步表示,在这 36000 起案件中,超过 5000 名受害者通过电话被骗走钱财,损失总额达 1100 万美元。

  和其他地方一样,这些诈骗者主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。

版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/80150.html,如需转载,请注明出处!

联系我们

在线咨询:点击这里给我发消息

微信号:weixin888

工作日:9:30-18:30,节假日休息