中国邮箱网讯 5月11日消息,黑客将人类听不到的声音频率嵌入到歌曲中,能对周围搭载语音助手的设备进行广泛攻击。
在一些影视节目中,黑客攻击目标电脑的方式可谓是千奇百怪,甚至是通过“声音”。之前我们觉得这种方式有些天方夜谭,但现在事实告诉我们,随着 Siri 等语音助手的成熟,通过声音攻击你的设备将变得易如反掌!
今天纽约时报发文称,美国和中国的研究人员一直在进行一项测试,通过一些人耳听不到的声音(高频或低频)来触发 Siri 这样的智能语音助手,然后在它们的帮助下完成用户压根没有下达过的命令,比如说访问网站、下载文件、拨打电话等。
先来看看加州大学伯克利分校和乔治敦大学的研究成果,他们成功地将一串人耳听不到声音嵌入到了音乐或通话录音中,当这份录音在亚马逊 Echo 或苹果 iPhone 旁边播放的时候,用户可能只听到了歌声或说话的声音,但 Siri 和 Alexa 语音助手却已经将一份商品加到了购物车中。当然,经过测试,从网上银行取钱等操作也同样能够完成。
那么这究竟会导致什么呢?试想一下,如果嵌入了恶意声音的一首歌在商城等公共场所播放了,就意味着商城中所有顾客都将不知不觉地被攻击。考虑到日常生活中充斥的声音实在是太多了,这种攻击将会变得无孔不入,十分可怕。
完成这项研发的博士生 Carlini 表示,自己还能够让这种攻击方式变得更加隐蔽,虽然现在没有证据表明这项技术已经在实验室以外的地方投入使用,但不法分子迟早会盯上的,甚至或许已经有黑客在做相同的研究了。
其实去年普林斯顿大学和浙江大学就进行了类似的联合测试,表示 Siri 等语音助手能够通过人类听不到的声音频率被激活,这项技术被命名为“ DolphinAttack ”。不过当时研究人员表示 DolphinAttack 只在有限的范围内生效,这意味着使用时必须靠近设备。
而根据伊利诺伊州立大学香槟分校的一项研究,这个范围其实是能够扩大的,最远能够长达25英尺(7.62米)。并且他们还有信心能攻破市场上的所有相关语音助手产品,但这并不存在任何恶意,只是想提醒这些公司注意一下这一情况,看看是不是能够将其修复。
不过 MacRumors 表示,苹果在这方面其实“防着一手”,当我们试图完成一些敏感操作,比如通过 HomeKit 让 Siri 打开智能门锁的时候,就需要在 iPhone 或 iPad 上输入密码。
文章来源:威风网