估计大家最近都听说了这个事儿:某位演员以“试戏”为名被骗到东南亚的电诈团伙,最终被解救回国。不禁感叹诈骗手段层出不穷,稍不留意就可能掉入精心布置的陷阱。
作为一个 AI 应用领域的平台,忽然觉得有必要总结一下典型的 AI诈骗套路,给自己、也给大家提个醒。
欢迎转发,让更多人都能了解 AI骗术、提高警惕。🚨
套路一:AI 换脸视频诈骗
诈骗分子通过各种渠道收集某人的信息,如姓名、电话、社交账号、照片、视频,然后再利用 AI 换脸技术,创建一个长得像这个人的 AI 数字人。
这种手段往往利用高层、老板形象向员工施压,让对方放松警惕,并催促受害人尽快转账等等。
📘 实际案例
2023年初,跨国工程公司 Arup 香港分公司的一位员工收到了一封看似来自公司总部高管的会议邀请邮件。尽管起初他有所怀疑,但点击邮件中的链接进入会议后,看到包括公司 CFO 在内的多位高管都在线,并且都在讨论一场秘密收购的事宜,他便放松了警惕。会议结束后,他按照“领导”的指示,将 2 亿港元分 15 次转入了 5 个指定账户。直到五天后与总部沟通时,他才意识到自己被骗了。
原来,诈骗分子通过 Deepfake 技术,利用公司高管的音视频信息制作了“虚拟人”,并预录了这场虚假的高层会议,让员工在不知不觉中落入了圈套。这起事件被认为是史上涉案金额巨大的 AI 诈骗案之一。
套路二:AI 合成语音诈骗
诈骗分子通过骚扰电话录音等方式获取目标人物的声音素材。然后利用 AI 语音合成技术,模仿目标人物的声音,通过电话与目标人物的熟人沟通,以各种紧急或诱人的理由骗取信任和钱财。
随着现在音色克隆逼真度越来越高,假冒音色很难辨认。对于“只闻其声不见其人”的远程转账要求,建议统统拒绝。🙅
📘 实际案例
2019 年,全球首例 AI 诈骗案发生在英国:一名诈骗者利用先进的 AI 语音模仿软件,假扮公司高层,成功骗取一家英国能源公司总经理的 22 万欧元。
近期在国内,某公司法人在使用微信与好友视频聊天的短短 10 分钟内,被骗取了高达 430 万元。
套路三:AI 生成虚假新闻
诈骗分子利用 AI 生成技术,根据特定的关键词或主题生成虚假的新闻内容。这些内容在语言表达、逻辑结构等方面与真实的新闻非常相似,具有很强的迷惑性。
然后,再通过发布虚假的财经新闻、产品评测等信息,诱导人们进行投资或购买劣质产品。
📘 实际案例
今年1月,南京孙某、苏州李某等人,为达到博取关注和提高楼盘销量等目的,编造传播“义务教育改革缩短学制”“高中纳入义务教育,南京在玄武区进行试点”等谣言信息,造成不良社会影响,扰乱公共秩序。目前,孙某、李某等7人已被警方依法分别予以行政处罚。
🤝 防范建议
获取新闻时,尽量选择官方媒体或权威机构发布的渠道。对于一些让人震惊的秘闻、小道消息,要保持冷静,不要无脑传播跟风。
套路四:AI 水军诈骗
诈骗分子利用 AI 技术生成大量虚假账号,控制这些账号在电商平台、社交媒体上的活动。然后通过 AI 写作功能,生成大量的虚假评论和好评,误导消费者,让他们误以为某个产品或服务非常受欢迎。
🤝 防范建议
在购买商品时,除了查看评论的数量和好评率,还要仔细阅读评论的内容,尤其是那些带有具体使用体验和细节描述的评论。
对于那些短时间内评论数量激增、好评率异常高的商品,要保持警惕,可能存在虚假评论的风险。
套路五:AI 情感诈骗
利用 AI 换脸技术和自然语言处理技术,伪装电视剧中的明星人物,并通过社交软件与受害者 1v1 聊天。
在取得受害者的信任后,以情感为诱饵,编造各种理由向受害者“卖惨”,索要钱财。
🤝 防范建议
在与所谓的“明星”或“熟人”交流时,要保持理智。“明星”都很忙,不大可能跑过来跟一个陌生人说话,更不要轻易转账或提供个人信息。
通过明星的官方渠道核实身份,比如通过官方工作室、明星的其他官方账号等。
套路六:AI 理财诈骗
诈骗分子利用 AI 技术对大量用户数据进行分析,精准识别出潜在的诈骗目标,如经常关注理财投资的人群。
然后,根据目标人群的特点和需求,生成定制化的诈骗脚本,通过电话、短信等方式向他们发送虚假的投资信息。
套路七:AI 钓鱼诈骗
利用 AI 技术黑进某人的电子邮件与其他文件,然后模仿这个人的写作风格,向他的社交好友发送真假难分的钓鱼信件。
邮件中通常会包含恶意链接或附件,诱导受害者点击或下载,一旦用户点击,其个人信息就会被窃取。
看完这些案例,你有没有发现一个规律: AI 诈骗不止是在利用技术,更是在利用人的心理漏洞。
因此,也有人把 AI 诈骗比作一场「军备竞赛」:
诈骗分子在利用更先进的 AI 技术来突破人们的心理防线、制造混乱,而普通人需要团结起来,通过加固规则和「常识」来抵御人性的弱点。