您现在的位置是:新闻
骗子利用AI伪装声音冒充亲人诈骗
2023-04-02 16:39新闻
简介人工智能语音的技术一直受到诸多关注,如今这项技术已经发展的非常高端,通过几秒钟的对话就可以精准地模仿其他人的声音,据外媒报道,美国和加拿大很多地区都有骗子使用AI合成语音进行诈骗,不少老年人都上当受骗,骗子利用AI伪装成老人亲属的声音进行诈骗,...
人工智能语音的技术一直受到诸多关注,如今这项技术已经发展的非常高端,通过几秒钟的对话就可以精准地模仿其他人的声音,据外媒报道,美国和加拿大很多地区都有骗子使用AI合成语音进行诈骗,不少老年人都上当受骗,骗子利用AI伪装成老人亲属的声音进行诈骗,手段相当恶劣。在加拿大有受害者表示,犯罪分子讲话的声音和自己儿子的声音一模一样,目前已经发生了不少类似案件,涉案金额已经达到了百万加元。
最近这段时间类似的诈骗案数量已经呈现上升的趋势,电信诈骗在美国原本就是最常见的诈骗形式,在2022年电信诈骗的涉案金额就已经达到了26亿美元,其中有不少案件都是借助了AI的技术,通过模仿伪装别人的声音来冒充亲人实行诈骗,这种诈骗案件经常发生在老年人身上,老年人的防诈骗意识本身就比较弱,再加上原本他们就属于脆弱的群体,所以也成为金融诈骗的第一对象。
通过AI技术合成的语音越来越逼真,对话时的效果也越来越好,就如同和真人进行对话一样,但这种新技术很快就被犯罪分子利用,简直防不胜防。目前这种新型的诈骗方式正在盛行中,也提醒所有人在涉及钱款时一定要提高警惕,不能因为电话里的只言片语就轻易相信一定要确认对方的身份,一旦被骗也要保留证据并且即刻报警。尤其是家里有老人,年轻人一定要给父母科普这方面的知识,避免他们上当受骗。
声音原本就是人们用来表达和交流的重要方式,即便相隔很远也可以通过电话或者语音的方式进行沟通,而诈骗分子就是利用声音这点进行坑蒙拐骗,随着技术的进步很多犯罪分子通过人工智能来合成或者是克隆声音,其声音的相似度几乎能以假乱真,这也让很多老年人上当受骗,目前在国外已经发生很多类似的案件,不得不说AI技术还需要更严谨的法规进行约束。
Tags:骗子利用AI,装声音冒充亲人诈骗
下一篇:林场主跪地求水事件的最新进展