网络犯罪的新面貌:深度造假重新定义了网络犯罪
2025-05-17 10:39

网络犯罪的新面貌:深度造假重新定义了网络犯罪

  

  由于人工智能(AI)和深度造假技术的发展,“不要相信你在网上看到的一切”这句话从未像现在这样有意义。

  今年早些时候,香港的一名职员被骗转移了2亿港元(1.15亿令吉)的公司资金。她以为自己是在和公司的管理层开电话会议,但电话里的人实际上是骗子利用公开视频制作的深度伪造作品。他们欺骗她向多个银行账户付款。

  马来西亚也未能幸免。上周四,广受欢迎的内容创作者凯鲁·阿明·卡马鲁扎曼(更广为人知的名字是凯鲁·阿明)警告粉丝,一个模仿他的声音和长相的人工智能深度假视频欺骗人们购买炒锅,谎称这是为仓库维修提供资金。

  作为回应,通信部长法赫米·法齐尔敦促平台贴上“人工智能生成内容”的标签,以防止此类事件的发生。

  今年7月,美国证券交易委员会(Securities Commission)警告公众,警惕社交媒体上深度造假的公众人物虚假支持的投资骗局。

  其中一起事件涉及羽毛球传奇人物拿督李宗伟,骗子利用他的肖像制作视频,宣传一项欺诈性的金融计划。

  同月,法赫米敦促公众警惕类似的骗局,此前有报道称,歌手、词曲作者、女演员和女商人拿督斯里西蒂·努哈利扎(Datuk Seri Siti Nurhaliza)在WhatsApp直播电话中被冒充。

  由于这项技术带来了巨大的风险,理解“深度伪造”意味着什么很重要。

  把话放进他们嘴里

  马来西亚软件开发公司兼IT服务提供商Agmo Group的创始人兼首席执行官陈爱强(Tan Aik Keong)表示,深度造假是“一种合成媒体,通过对人的长相进行数字处理,创造出逼真但虚假的图像或视频”。

  Tan highlights that video deepfakes often struggle with matching facial movements and lighting, advising the public to watch for these signs in o<em></em>nline video calls. — Agmo Group

  “使用先进的人工智能和机器学习技术,”他说,“深度造假可以令人信服地用别人的脸和声音代替视频中的人,甚至可以从头开始生成完全虚构的媒体。”

  简而言之,人工智能模仿一个人的外表和/或声音,为各种各样的(通常是邪恶的)目的创造一个虚拟的“袜子木偶”。

  这包括诈骗、政治错误信息和未经同意的深度虚假色情内容,所有这些都是谷歌和meta等科技公司正在积极打击的。

  身份验证提供商Sumsub的业务发展副总裁Penny Chai强调,深度造假“以前所未有的规模为身份盗窃、诈骗和错误信息活动铺平了道路”。

  Chai认为,该技术对网络安全和个人隐私都是一个重大威胁,他指出,Sumsub的一项研究发现,马来西亚在2022年至2023年间的深度假冒事件增加了1000%。

  “我们最近的年度《2023年身份欺诈报告》显示,从2022年到2023年,亚太地区的深度造假案件显著增加,平均为1530%。

  “马来西亚人有充分的理由担心网络犯罪分子越来越多地使用它。深度造假能够如此令人信服地模仿一个人的长相,这增加了人身和经济损失的风险。

  “这种对数字内容信任的侵蚀令人担忧,因为网络犯罪分子可以利用这项技术进行身份盗窃、金融欺诈,甚至欺骗家庭成员。

  她说:“网络犯罪分子可以利用深度造假进行企业间谍活动和欺诈,假扮高管操纵员工转移资金或泄露敏感信息。”

  Chay says that fraudsters can now use deepfake technology with just a computer and Internet access, as tools are readily available online. — Sumsub

  骗子通过电子邮件冒充合法的商业实体或员工来欺骗和操纵收件人,这被称为商业电子邮件攻击(BEC)。

  柴说,当与深度伪造技术相结合时,这种攻击媒介变得更有说服力和危险,深度伪造技术可以创造真实但虚假的音频、视频或图像。

  Tan补充说,社交媒体平台正在经历深度虚假内容传播的激增。

  他说:“马来西亚在实时检测和警报系统方面存在重大差距,尽管有1998年《通信和多媒体法》等现有立法,但马来西亚缺乏全面的欺诈预防机制。”

  冒名顶替者入侵

  对于网络安全公司Palo Alto Networks的高级系统工程师专家大卫?拉朱(David Rajoo)来说,深度伪造的真正危险在于它们的可定制性和令人信服的性质。他说,通过利用过去数据泄露泄露的信息,网络犯罪分子能够创建高度可信的计划。

  “在过去,这些信息可能被用于相对简单的骗局,比如网络钓鱼邮件或陌生人的电话。

  “然而,随着深度造假技术的出现,威胁级别急剧升级。想象一下,你收到一段视频信息,似乎是来自一个值得信赖的朋友、家人或知名人士,敦促你采取一些行动。

  他说:“这些攻击的个性化特征使得它们特别危险,因为受害者更有可能相信并根据令人信服的深度伪造中呈现的信息采取行动。”

  David进一步预测,随着深度造假技术的进步和越来越有说服力,情况只会恶化,因为很难区分真假内容。

  According to David, malicious actors with a higher level of technical expertise in deepfake videos are offering their services for sale. — Palo Alto Networks

  “我们看到日常用户将人工智能融入他们的日常生活,犯罪分子也不例外。随着深度造假技术的进步,我们可以预期情况会变得更糟。

  深度造假的质量将会提高,这将使个人和自动化系统越来越难以区分真假内容。

  他说:“这可能导致错误信息和虚假信息运动激增,对社会稳定、政治进程和个人声誉产生重大影响。”

  更令人担忧的是,柴指出,制作深度造假的工具越来越容易获得,这使得制作可信的虚假内容比以往任何时候都更容易。

  “欺诈者不需要复杂的设置和拥有高端设备的好莱坞工作室。今天,任何拥有电脑和互联网接入的人都可以涉足这些技术,并在应用程序商店中找到现成的工具。

  “这种可访问性带有明显的阴暗面。许多使用人工智能工具的欺诈者不仅仅是随机的个人在碰运气;他们是有组织团体的一部分,拥有大规模欺骗的资源和意图,”她说。

  根据David的说法,具有更高技术水平的恶意行为者不仅采用更复杂的技术,而且还提供服务以供出售。

  Tan says virtual cameras, a technology popularised by live streaming software, can allow scammers to seamlessly integrate pre-recorded or AI-generated video feeds into live video calls, such as Google Meets and Microsoft Teams. — dpa

  另一方面,Tan说,在目前的状态下,这项技术已经足够强大,可以在视频通话中实时取代人脸和声音。

  他表示,由直播软件普及的虚拟摄像机技术可以让骗子将预先录制的或人工智能生成的视频馈送无缝地集成到实时视频通话中,比如Google Meets和Microsoft Teams。

  他说,通过选择虚拟摄像头作为来源,骗子可以连接到深度伪造的人工智能馈送,而不是真正的摄像头。

  他说:“这使得骗子可以高精度地模仿他人,模仿面部表情、嘴唇动作,甚至是声音调制。”

  揭露威胁

  不像传统的图像处理工具,如Photoshop,需要一定水平的技能和时间来创建令人信服的假图像,大卫说人工智能深度伪造技术可以快速生成逼真的视频和图像,以最小的努力。

  他说:“这种快速的生产能力使网络犯罪分子能够向他们的目标提供大量深度虚假内容,从而增加了诈骗成功的可能性。”他补充说,对于那些不属于高价值的目标,网络犯罪分子通常会采取数量重于质量的策略。

  Deepfake scams are on the rise, with criminals increasingly using AI to create highly realistic fake content. — Image by flatart on Freepik

  然而,这并不意味着人们完全受网络犯罪分子利用深度伪造技术的摆布。

  仍然有一些迹象可以用来识别合成成分。彭博社(Bloomberg)最近的一篇报道以一起法拉利(Ferrari)骗局为例,显示了保持警惕和核实身份的重要性。

  法拉利的一名高管收到了自称是首席执行官贝内代托·维尼亚的人发来的短信。不久之后,这位高管接到了一个骗子的电话,骗子用深度假技术模仿维尼亚的意大利南部口音。

  当这位高管注意到细微的声音不一致时,他开始怀疑起来,并询问了这位CEO最近推荐的一本书的书名。骗子很快挂断了电话。

  谭教授强调,视频深度造假往往难以匹配面部动作和光线,他建议公众在在线视频通话中注意这些迹象。

  “注意脸部和身体、头发或脖子之间的模糊、分辨率差异或颜色不匹配。这些问题的出现是因为深度造假经常覆盖数字建模的人脸,这可能导致明显的差异。

  他说:“此外,要密切注意嘴唇的运动和面部表情,尤其是在头部转动或物体从脸部经过时,因为在这些情况下,深度造假可能难以准确追踪。”

  另一个致命的漏洞是音频不匹配,即语音克隆可能无法与视频同步。

  David同样建议对不自然的眼睛和头部运动保持警惕,缺少眨眼,情绪和面部表情与当前环境不匹配,视频质量差,以及在视频通话中无法根据要求执行特定动作。

  他还表示,公众应该将核实可疑视频或图像的来源作为一种惯例。

  “在相信或分享任何有问题的媒体之前,建议与可靠的来源交叉核对,比如新闻文章、官方声明或事实核查网站。

  “值得注意的是,随着技术的进步,这些迹象可能会变得不那么明显。因此,始终通过多种渠道核实重要信息是值得的。”

  ×

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 火互百读

相关推荐