【AI复制人诈骗新套路】
张先生遭遇的“AI复制人”诈骗并非个案。骗子通过盗取社交账号上的照片、视频和语音,用AI技术合成出足以乱真的虚拟形象。这种诈骗手法能精准模仿受害者的亲友,包括面部表情、语气甚至习惯性动作,再结合伪造的转账截图等“辅助证据”,让受害人放松警惕。
【430万是如何被骗走的】
诈骗过程中,骗子首先用AI生成的实时视频与张先生通话,画面中的“发小”神态自然。紧接着,对方发来一张PS过的转账凭证,以“急需资金周转”为由要求帮忙垫付。由于信任关系加上视觉确认,张先生短时间内转账430万元,直到真发小来电才识破骗局。
【AI诈骗技术门槛降低】
1. 素材获取简单:仅需目标人物3-5分钟的公开视频,就能通过开源工具克隆声音和面部特征。
2. 合成服务泛滥:黑产市场明码标价,200元可定制语音包,千元内实现实时换脸视频通话。
3. 话术升级:骗子会结合社工库信息,在对话中提及受害者真实经历,例如准确说出共同好友名字或过往交易记录。
【从明星仿冒到普通人陷阱】
明星声音盗用:有骗子利用全红婵等名人采访音频,在直播中推销假冒商品,粉丝下单后才发现是AI合成。
商务诈骗新招:江苏某企业财务人员曾接到“客户”视频电话,对方能详细复述合同条款,骗走50万元定金。
【四招防范AI诈骗】
1. 多重验证身份:涉及转账时,务必通过原有存续联系方式(如常用电话)二次确认。
2. 保护数字足迹:关闭社交账号的公开权限,避免生活视频、原声语音外泄。
3. 警惕异常请求:凡是要求“紧急转账”“屏幕共享”的,立即中止操作。
4. 关注反诈宣传:公安部已上线AI诈骗识别教程,可通过国家反诈中心APP学习最新案例。
【技术是把双刃剑】
虽然AI能提升视频特效、智能客服等领域的效率,但被滥用时危害极大。目前已有科技公司研发“声纹水印”技术,未来或可通过区块链存证辨别AI合成内容。普通用户更需牢记:眼见未必为实,涉及资金往来必须线下核验。

工作时间:8:00-18:00
电子邮件
扫码二维码
获取最新动态
