随着科技的飞速发展,电信诈骗伪装手段越来越高级,花样手段层出不穷,上当受骗者越来越多。
【资料图】
与以往的诈骗套路不同,根据各地公安机关发布的预警提示,这次,诈骗分子利用了AI换脸新技术,诈骗成功率接近100%,请大家提高警惕,有所防范。下面我们具体了解一下诈骗“新骗局”。
AI换脸就是通过人工智能技术,自动提取人脸特征,将别人的脸换成自己的脸。
AI换脸脸部表情自然逼真,只需要一张照片,从而就可以生成自己想要得到的人物。
我们的年龄、性别、性格、情绪等因素都会反应在面部,而系统通过生成模型和判别模型,便可以在人脸上生成各种表情,实现无缝衔接。相比ps,AI换脸具有更强的“以假乱真”效果。
人工智能为我们提供了很大的便利,微信、支付宝刷脸支付全新升级,谈到技术革新,自然而然也会引发人们对于科技滥用的担忧,在换脸的背后,以假乱真,恶意诈骗等信息层出不穷。
技术本身没有好坏,关键在于如何使用,坚决杜绝使用技术恶意造谣、诈骗。
AI换脸技术的爆火带来了大型灾难现场,不少人纷纷中伤,AI换脸不仅包括AI换脸本身还包括声音合成。
1.某福利院的老爷爷事件
犯罪分子通过骚扰电话录音等非法手段来提取声音,进行后期的声音剪辑合成,用伪造的声音实施诈骗。
往往这类上当受骗人群多为中老年人群。老年群体年龄大了,分辨真假的能力下降,防范意识减弱,很容易在犯罪分子的三言两语下迷失自己造成财产上的损失。
例如:某福利院的老爷爷在接到冒充是自己儿子的一个陌生电话后,对方来意明确,直截了当的表明没有钱花,需要老爷子补济,故作可怜老爷子同情心,花言巧语一番过后,消除了老人家的顾虑,由于诈骗人员的口音十分逼真,老人家信以为真。
挂断电话之后,随即转款20万元,第二天真正的儿子来探望时候,恍然大悟才发现被诈骗,立即报警,最终20万元成功索要回来。
2.某大学的小李事件
这类上当人群开始警惕性很高,但最终经过AI换脸的高科技应用也无疑是跌跤。
例如:某大学的小李微信突然收到好友的紧急借钱消息,需要2000元来还贷,小李一时间立即拨通语音通话过去,询问事情的经过。
诈骗分子早有防范,骗子在盗取微信号后,通过提取语音文件或安装插件,实现语音转发,让小李误以为是自己在与好友进行对话。
犯罪分子一旦察觉到当事人还在模棱两可的边缘犹豫不决的时候,为达到更加逼真的效果,主动拨打视频通话过去,让对方确认自己身份。
小李顺理成真的相信诈骗人员,转账过去之后,此“好友”消失的无影无踪,后来小李才知道自己上当受骗了,及时报警后,才知道对方在利用AI换脸等一种新型高科技手段进行诈骗。
如果防范意识足够强,在遇到街里邻友借钱情况下,都会先主动打电话确认一下,有些还会直接拨通视频来看是不是本人,这样一来,诈骗分子很容易被击退。
1.利端
很多影视剧也都使用AI人像技术,用于特效处理,减少了后期制作成本。
还可以应用于数字娱乐领域,将用户的面部特征转移到虚拟卡通动画人物上,实现个性化的虚拟形象。以及应用于教学,实现互动性强的虚拟教学效果。
2.弊端
容易造成个人隐私数据被泄露,给用户个人隐私带来了潜在威胁。通过违法手段还很可能被利用于实施电信网络诈骗。
国家应加强技术防御能力,加强图像反欺骗等技术,保护用户隐私和安全,完善法规体系并制定相关法律法规。
政府落实好各种保护措施,和有关机构加强监管,打击黑客攻击和恶意行为。
个人保护好自己的隐私和安全,加强个人信息的保密,提高自己的安全意识和法律意识。使用反诈骗APP,预防新型诈骗的发生。
新型诈骗手段一定要引起所有人的重视,提高警惕,加强自身的防骗意识,识破不法分子的伎俩,增强法律意识,懂得关键时刻拿起法律武器来维护自身权益。
同时,也希望相关部门能加强监管和打击力度,共同维护社会的和谐稳定。
今日话题:新骗局来了,诈骗成功率接近100%,请大家重视起来,转告身边人。对此,大家有怎么样的想法和观点?欢迎评论区留言!!!我们下期见~~
标签:
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。