“我们身边的数据安全风险”
我们是数据的创造者,或许也是数据陷阱的受害者。泄漏的风险无处不在。为了避免垃圾短信和骚扰电话,防止落入骗局,保护财产信誉,关注身边的小数据,保护数据安全,势在必行。
随着AI技术的快速发展,许多人尝试使用相关工具来帮助处理工作和生活中的许多问题。然而,新技术也被一些犯罪分子所利用。网络安全公司McAfee今年4月在7个国家进行的调查显示,
10%的成年受访者经历过AI语音诈骗,另有15%的人表示他们知道其他人经历过类似的骗局。
杜南大数据研究院注意到,利用人工智能技术进行语音诈骗的案例并不是最近才有的。早在2021年,。。。。部网络安全局就公布了类似案例。而且随着AI技术的应用门槛不断降低,
最近国内一些互联网平台也发布了基于明星语音素材的AI音。。。
调查显示,10%的受访者
我遇到过AI语音诈骗
在最新技术的加持下,AI合成语音越来越逼真,对话效果越来越好。然而,新技术也被一些犯罪分子所利用。
今年4月,迈克菲在美国、英国、法国、德国、澳大利亚、印度和日本七个国家的7054名成年受访者中进行了一项调查。结果显示,10%的成年受访者经历过AI语音诈骗,另有15%的人表示他们知道其他人经历过类似的骗局。
迈克菲调查结果显示,10%的成年受访者经历过AI语音诈骗。(根据迈克菲调查报告)
调查结果显示,犯罪分子主要利用AI语音合成技术给受害者留下虚假语音邮件,或者冒充受害者朋友打电话给受害者,以车祸、抢劫等为借口诱骗受害者转账。在受害者中,77%的人说他们在诈骗中损失了钱。
其中三分之一的人表示损失超过1000美元,7%的人表示损失5000-15000美元。
McAfee首席技术官SteveGrobman表示:人工智能带来了不可思议的机会,但任何技术都可能被恶意利用。这就是我们今天所看到的。获取和使用AI工具变得越来越容易。
这也使得网络罪犯能够以更困难的方式进行诈骗。
杜南大数据研究院监测发现,人工智能语音诈骗呈上升趋势。据央视财经等多家外媒报道,美国和加拿大近期发生多起利用AI合成语音进行电信诈骗的案件,其中不乏老年人受骗。加拿大警方表示,
近日,加拿大各地发生多起类似案件,涉案金额高达数百万加元。有受害者表示,犯罪分子使用的声音和她儿子的声音一模一样。
今年3月,美国美国联邦贸易(.....涉及敏感内容网站自动屏蔽.....)会(FTC)针对AI语音诈骗问题发出警告,提醒公众在接电话时注意判断对方是真人还是AI语音,并建议通过主动回拨来验证来电的真实性。
美国联邦贸易(.....涉及敏感内容网站自动屏蔽.....)会发布了针对ai语音欺诈的警告。
AI“老板”和“朋友”的口音很鲜明。
国内也有相关案例。
南都大数据研究院留意到,利用AI技术进行语音诈骗的案例并非近期新发。早在2019年, 《华尔街日报》 就曾报道,有诈骗分子利用AI模仿了英国某能源公司的母公司CEO声音,
成功让该能源公司高管相信自己正在与母公司的老板通电话,并诱骗其通过匈牙利供应商向诈骗分子转账22万欧元。被骗高管表示,在整个通话过程中,老板的德国口音非常逼真,使其对声音的真实性没有任何怀疑,
直到被要求再次转账时才发觉了。。异常。在立案调查后,警方发现资金被转到匈牙利供应商的银行账户,随后又转往墨西哥和其他地方,但嫌疑人的具体身份无法确定。
在国内,也有媒体曾于2019年报道不法分子利用AI技术制作真人语音,然后通过社交平台冒充受害者好友骗取钱财。据新华社报道,2019年9月,市民陈老师收到朋友的一条微信语音,提出借款5000元。
因为收到“货真价实”的语音,陈老师并未怀疑,马上通过微信向其转账。“好友”见状又问陈老师可否再转9000元。陈老师才警觉起来,通过电话联系该名好友,发现自己上当受骗。经警方初步了解,
诈骗分子通过获取陈老师好友微信账号、密码及语音等信息,博取陈老师信任后,以“朋友”微信及语音对其进行诱骗。
2021年初,。。部网安局曾发文提醒公众,注意防范合成声音和AI换脸等人工智能新型诈骗手段。据。。部网安局公布案例,2020年12月,国内某公司财务小王接到领导电话,要求立刻给供应商转款2万元,
并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内完成转款,后发现被骗。
提供3秒音频
即可克隆特定人物声音
有业内人士指出,其实AI语音合成技术应用已久,例如地图导航的明星语音包便利用了类似技术。但以往制作这类语音包时,通常要求说话者在安静环境下念出一定量的录制文本,例如一篇5-10分钟的文章,
供AI获取足够多的发音特征,再进行合成;如果遇到说话者没读过的生僻字,AI就可能出现发音失真等问题。不过随着技术不断发展,如今AI已可对发音进行一定的推理模仿,即使是说话者从未读过的字眼,
也能模仿出相似音色,因此对语音素材要求不断下降。越来越低的技术应用门槛确实给不法分子提供了可乘之机。
McAfee调查报告也指出,其安全研究人员在互联网上发现了十几种AI语音合成工具。研究人员使用其中一种工具进行测试,发现只要提供3-4秒的录音,这个免费AI工具就能创造出一个约有85%相似的克隆人声。
虽然风险显而易见,但AI语音合成技术的发展仍在不断提速。今年1月,微软团队发布一个AI语音合成模型VALL-E。据介绍,该模型只需要说话者读出3秒指定内容的音频作为训练素材,
即可精确地模拟说话者的声音。从已公开的合成语音效果来看,VALL-E不仅能还原说话者的音色,还能模仿说话者的愤怒、困倦、愉悦等多种情绪,甚至连说话者的环境背景音也能准确还原。
微软也意识到该模型可能助长恶作剧和欺骗的可能性。在相关论文中,微软表示“由于VALL-E可以合成符合说话人身份的语音,因此滥用模型可能会带来潜在风险,例如欺骗语音识别或冒充特定说话人。
为了降低此类风险,可以构建一个检测模型来区分音频剪辑是否由VALL-E合成。在进一步开发模型时,我们还将把微软人工智能原则付诸实践。”
微软团队发布名为“VALL-E”的AI语音合成模型。
国内互联网平台
已出现人声克隆音。。
南都大数据研究院监测发现,随着AI技术应用门槛不断下降,近期国内部分互联网平台也有网民发布基于明星语音素材训练而成、几可乱真的AI音。。。
已故艺人、当红歌手、游戏角色……不少知名人物的人声克隆作品已在互联网上公开。
在哔哩哔哩等互联网平台上,南都研究员发现不少网民已利用Sovits4.0、DiffSinger等开源AI项目制作以人声克隆为主题的音。。。这些音。。主要通过提取一个特定真人的声音作为训练数据,
让AI模型习得其声线,实现歌曲翻唱等目标。从平台搜索结果可以看到,相关音。。涵盖已故艺人、当红歌手、游戏角色等多领域的人物声音。部分网民也在相关音。。的评论区表达对这类AI技术的担忧。
有网民担忧AI技术可能被用于突破声纹识别、电话诈骗等场景。
防范建议:
控制社交媒体可见范围
与亲密联系人约定“关键词”
面对利用AI人工智能等新型手段的诈骗,。。部网安局2021年初曾提出三点防范建议:
多重验证,确认身份。在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。
保护信息,避免诱惑。加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防。做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
McAfee也在其调查报告中针对AI语音诈骗提供了一些防范建议。
在防范被提取声音数据方面,McAfee建议网民在社交媒体分享内容时,考虑通过隐私设置将可见范围限制在朋友和家人身上:社交媒体内容的可见范围越广泛,信息泄露的风险就越大。
在防范AI语音诈骗方面,McAfee建议公众与家庭成员等亲密联系人约定一个“关键词”:一旦出现不同寻常的求助信息,可以用关键词来确认对方是真人还是AI语音。此外,公众对任何来电都应该保持理性,
可通过询问具体信息、回拨号码等方式确认来电者身份,切忌因一时激动而盲目采取行动。
出品:南都大数据研究院数据安全治理与发展研究课题组
采写:南都研究员李伟锋
标题:小心诈骗!3秒音频就能装成你的声音,平台已现人声克隆视频
链接:https://www.52hkw.com/news/rj/62684.html
版权:文章转载自网络,如有侵权,请联系删除!