“防不胜防”的智能助理:Alexa 秒变诈骗工具

阅读数:2363 2019 年 2 月 18 日 17:35

“防不胜防”的智能助理:Alexa秒变诈骗工具

语音助理技术自推出以来,给不少用户带来了便利,但安全专家却表示:它也带来了一些独特的侵入性风险。

据外媒报道,自今年年初开始,多名 Nest 安全摄像机用户报告了一些棘手的情况,他们的智能助理 Alexa 被黑客入侵,并接收了来自黑客的语音命令,虚假宣布有导弹攻击发生;不仅如此,还有用户表示,黑客将他们的家用恒温器开到 90 度,并大声辱骂他们。种种令人震惊的事件表明:智能语音助理的安全性仍然有待提升。

本文作者 Rafael Lourenco 是零售防欺诈公司 ClearSale 的执行副总裁 ,他将从专业角度分析这类入侵产生的原理,以及用户和科技公司可以采用的应对措施。

Nest 的所有者谷歌最近将谷歌助理(Google Assistant)支持集成到 Nest 控制中心中,该公司将这些攻击归咎于用户密码薄弱和缺乏双重认证。但是,即使是拥有强大安全保障的语音助理,也可能容易受到更隐秘形式的黑客攻击。过去几年,美国、中国和德国大学的研究人员成功地利用隐藏的音频文件,让 Siri 和 Alexa 等人工智能语音助手听从他们的命令。

这些发现突显出,黑客和欺诈者有可能劫持独立的语音助手设备以及手机上的语音命令应用程序,以打开网站、购物软件,甚至关闭住宅警报系统和开门。下面是这类攻击的工作原理以及可能产生的后果的概述。

原理解析:语音智能 AI 如何被入侵?

这个安全问题的核心是,语音助手的神经网络比人类的“听觉”要好得多。例如,人们无法识别餐厅背景噪音中的每一个声音,但人工智能系统可以。人工智能语音识别工具还可以处理人们听不到的音频,许多扬声器和智能手机麦克风会接收到这些频率。

这些事实为黑客入侵提供了至少两种向语音助手发出“静默”命令的选择。

第一种方法是在白噪音中隐藏恶意命令,就像 2016 年美国伯克利大学 (Berkeley) 和乔治敦大学 (Georgetown) 的学生所做的测试那样。据《纽约时报》报道,入侵者通过在线视频和扬声器播放隐藏的语音指令,让语音控制设备打开网站并切换到飞行模式。

这种攻击的另一个例子来自德国波鸿鲁尔大学的研究人员。今年 9 月,该校的一份研究报告表示:在相同频率的更大声音背景下的编码命令入侵取得了成功。在他们的简短演示视频中,人耳和广受欢迎的语音识别工具包 Kaldi 都能听到一个女人在阅读商业新闻。然而,嵌入在背景数据中的命令只有 Kaldi 能识别:“关闭安全摄像头,打开前门。”

专家表示,理论上,这种方法可以大规模使用,通过应用程序或广播,窃取个人数据或进行欺诈性购买。对于零售商来说,这类购买可能很难进行筛选,因为它们来自一个受信任的设备,并可以使用有效的支付信息。

另一种方法是,通过在人类听觉范围以外的频率上发出指令,从而达到入侵的效果,浙江大学的研究人员称之为:海豚攻击(DolphinAttack)。这种类型的攻击依赖于超声波传输,这意味着攻击者必须靠近目标设备才能使其工作。但是浙大的研究人员已经使用这种技术让锁定的 iPhone 根据听不清的指令打电话。他们说海豚攻击还可以让声控设备拍照、发短信和访问网站。这可能导致手机下载恶意软件、个人数据被盗、欺诈性购买,甚至敲诈勒索。

科技公司如何防范?

亚马逊、谷歌和苹果一直致力于语音助手的改进,尽管它们通常不会深入研究技术细节。浙江大学的研究人员发表的一篇论文建议:对设备麦克风进行重新设计,以限制人们听不到的超声波范围内的输入,或者通过识别和取消携带超声波的特定信号来屏蔽听不清的命令。作者还建议利用机器学习的力量来识别最可能在听不清命令攻击中使用的频率,并学习听不清命令和听不清命令之间的区别。

除了这些短期的补救措施,科学家和立法者还需要解决语音识别技术的安全性和有效性面临的长期挑战。在美国,目前还没有针对语音数据和隐私权的全国性立法或监管框架。加州是第一个通过法律限制销售和数据挖掘消费者语音数据的州,但它只适用于通过智能电视收集的语音数据。

随着物联网时代语音识别用例的增多,以及该领域玩家数量的增加,语音数据泄露的风险也将随之增加。这也就增加了利用消费者语音数据录音进行欺诈的可能性。与克隆信用卡或使用硅胶复制他人指纹相比,共享音频文件要容易得多,也快得多,这意味着语音数据对有组织的犯罪分子来说可能很有价值。防止欺诈的专业人员需要建立和维护干净的、双向的消费者语音数据数据库,以确保公司能够识别合法的客户联系方式。商家在筛选订单时,可能需要分析之前欺诈事件的链接。

如何保护你的声控设备

目前,语音指令劫持的危险似乎大多是理论上的、孤立的,但最近的种种案例向我们表明,欺诈者能够迅速适应新技术。明智的做法是遵循安全措施,既能保护你的设备免受语音黑客攻击,又能以其他方式保护你的数据。比如:

  • 为你的物联网设备(智能音箱等)使用强而独特的密码;
  • 当你不使用手机时,不要将手机解锁;
  • PIN-protect 可以保护你的语音助手完成涉及家庭安全、个人数据、财务或健康记录的任务,或者干脆不把这些信息与你的语音命令设备连接起来。

对听不清的语音命令及其带来的风险的研究还相对较新,安全和科技行业已经看到:每一次新的进步都会给坏人带来新的机会。随着越来越多的研究人员发现语音识别人工智能的弱点,语音识别行业有机会提高其产品的安全性。与此同时,我们每个人都有责任保护我们的设备,并识别与 Alexa、Siri、Cortana 和其他语音助手共享的信息类型。

拓展阅读

最安全智能音箱 Echo 被腾讯攻破,秒变监听器

亚马逊 Alexa 被曝偷听用户对话并随机分享,你的智能音箱真的安全吗?

原文链接:

https://venturebeat.com/2019/02/17/could-hackers-trick-voice-assistants-into-committing-fraud-researchers-say-yes/

评论

发布