每日热点:10分钟骗走430万,如何堤防诈骗新技术?
首席商业评论| 2023-05-26 12:12:13

01


(资料图)

AI骗子,防不胜防

AI进化的速度有多快,骗术也跟着变得更狠。

福州一位科技公司的老板,某天突然接到了个好友的微信视频,说是自己的朋友在外地竞标,需要 430 万的保证金,想走他的公司账户过个账。老郭在确认视频通话里的人和声音都是他朋友之后,就同意了。

随后,对方就给老郭发了一张银行卡转账成功的截图,说是钱已经转到老郭的户头上了,由于老郭之前已经确认了朋友的身份,在没确认钱到帐与否的情况下,直接就把 430 万转到了好友给的银行卡上。

结果,这是一场骗局,还是AI操控的。虽然接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移。

还有利用AI进行声音合成实施的诈骗。骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

已经有人因为AI声音被骗了。曾有某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金,因为老板的口音十分逼真,财务也信了,在1小时内转款完成,转完才发现被骗。

AI 换脸早已不是什么新鲜事,很多短视频鬼畜博主都精通这种操作,但拟声技术相对复杂一些,毕竟犯罪分子需要获取你的声音,然后通过软件将声音变成他们想要的内容。

实际上,如今的骗子想要获取声音也并不难,最普遍的方法就是骚扰电话,只要你接电话后并说了几句话,那么犯罪分子就会对你的声音进行录制,并提取你声音的信息。

有业内人士表示,犯罪分子通过这一套流程进行诈骗的成功率基本是 100%,尤其是面向那些并不懂AI、防范意识可能薄弱的老年群体,AI诈骗更容易发生。

类似的声音骗局,国外也早有发生。

一个国外的诈骗公司,使用 AI 模拟了“卷福”的音频,打电话给一家新西班牙的小电影公司,称想要和对方合作,并要求对方先打款 20 万英镑才能见面,结果在电影公司付完钱之后,他们才发现这次事件,完完全全就是一场AI骗局。

对于AI骗局,有律师表示,使用人工智能技术手段模仿真人面容、声音,冒充亲友、熟人、领导等,很容易达到以假乱真的程度,具有极强的迷惑性。与其他类型电信诈骗相比,AI诈骗迷惑性更强,针对性更强,辨识更困难。

如今,耳听,眼见都不一定为实,各种骗局真是让人防不胜防。

02

AI有多强大?让孙燕姿本人都害怕

最近,关于AI还发生了一个热点:孙燕姿本人亲自回应AI孙燕姿。

对于热门歌手AI,孙燕姿自己都承认,“讽刺的是,人类再怎么快也无法超越它。”

她在回应小作文里写道,“人类无法超越AI技术已指日可待,凡事皆有可能,凡事皆无所谓。”就算暂时能够辨认出AI歌手和真人歌手的区别,很快这条护城河也将不复存在。这种被虚拟淹没真实的感受,如今已经在全世界蔓延。

AI不光是唱歌可以完全贴近真人,连直播带货的活都可以接。

最近有人在直播间里发现,正在卖货的竟是当红女星。然而再定睛一看,这些明星居然是使用了AI实时换脸技术的普通主播。

AI实时换脸,正在直播间悄然出现,杨幂、迪丽热巴、angelababy等当红女星,成为了AI换脸的热门。虽然目前还没有曝出被骗新闻,但由于明星脸的带货主播往往拥有更好的引流效果,消费者或明星粉丝很可能会冲着明星效应进行消费而被坑骗。

而这种技术门槛也并不高。有媒体报道,AI实时换脸全套模型购买价仅需3.5万元。

买不起全套模型,还有“AI换脸特效插件”供买家选择,售价数百元,只对电脑配置有一定要求,购买后使用者只需更换素材照片,软件就能自己运行完成“换脸”。这款软件不仅能对图片进行换脸,也能在视频上进行换脸。

AI换脸的风靡,还带来了“AI脱衣”的新问题。早在今年3月,一则“女子地铁照被AI一键脱衣传播”的新闻冲上了热搜,一名女性搭乘地铁时的一张照片被人用AI软件“一键脱衣”,遭到恶意传播,罪犯还广泛散布不实信息对该女子进行污蔑。

更可怕的是,AI深度伪造(DeepFake)内容,可以利用互联网平台在全球范围内病毒式传播。比如AI现在居然还能通过发布假新闻,让股市抖三抖。

几天前,多个经过验证的推特账户,齐刷刷分享了一张声称在五角大楼附近发生爆炸的假照片,顿时引起轰动,并导致股市短暂下跌。

这张照片虽然具有AI生成的所有特征,但是因为被许多经过验证并打上了蓝色勾的推特账户分享,不少人还是信以为真,谣言一传十十传百,甚至有人声称这张照片与彭博新闻有关。

连印度一家电视台都信了,共和国电视台(Republic TV)报道称五角大楼发生了爆炸,并在节目中播放了这张假图片,后来,当发现美国当地官员证实没有发生此类事件后,共和国电视台快速撤回了这则报道,这一番操作下来也是相当尴尬。

03

AI骗局,并非没有破绽

随着AI技术的不断发展,被AI骗的人越来越多。根据杀毒软件 McAfee 公布的最新报告,基于人工智能的语音诈骗越发猖獗,在接到 AI 诈骗电话的群体中,有 77% 的人会上当受骗。

今年3月,一份名为《暂停大型人工智能研究》的公开信在未来生命研究所官网上发布,包括特斯拉CEO埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)等人在内的千名科学家、企业高管签字呼吁暂缓GPT-4以上版本的研发,他们矛头所指都是强大AI技术可能的负面用途。

不过AI诈骗虽然逼真,但它并不是没有破绽,比如AI换脸技术会导致脸部变形,一些主播低下头头顶会发黑,AI的声音,也很难表达真实的主观情绪。

正如不少网友所说,AI孙燕姿“根本不是孙燕姿的唱法。”“AI孙燕姿能模仿她的音色,但模仿不到她的感情;AI孙燕姿能模仿她的声音,但模仿不了她的现场。”

与此同时,国内与AI换脸、换声相关的法律法规也在不断完善。

在过去,“AI换脸”被大量使用到影视剧二度创作、趣味恶搞视频、表情包制作当中,其中隐藏的法律风险和侵权纠纷,如今都在得到重视,不少擦边行为已经得到了及时的惩治。

比如近期,据企查查官网信息显示,上海鱼腥草信息科技有限公司就因旗下一款换脸手机APP遭多位网红博主起诉,很快在监管部门约谈后,这款App下架,因为换脸侵犯了公民的肖像权。

去年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。显然,随着制度设计更精准,相关立法更健全,AI肆意换脸的空间将越来越小。

就在4月11日,国家互联网信息办公室又迅速起草了《生成式人工智能服务管理办法(征求意见稿)》,涉及的生成式人工智能包括基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,可以说,对当下的AI伪造都进行了更为全面的约束。

AI究竟是天使还是魔鬼,全在于使用者的一念之差,但唯一可以确定的是,潘多拉魔盒,已经打开。

参考资料:

《AI诈骗正在全面爆发》,红星新闻;

《“AI换脸”诈骗防不胜防?要用“法”打败“魔法”!》,京报网;

《警惕四大AI新骗术,有人10分钟被骗430万》,智东西

原文标题 : 10分钟骗走430万,如何堤防诈骗新技术?

财经
5G