以视频分析为主要载体的人工智能算法在泛安防场景中是怎样落地的?>> 了解详情
写点什么

“防不胜防”的智能助理:Alexa 秒变诈骗工具

  • 2019 年 2 月 18 日
  • 本文字数:2255 字

    阅读完需:约 7 分钟

“防不胜防”的智能助理:Alexa秒变诈骗工具

语音助理技术自推出以来,给不少用户带来了便利,但安全专家却表示:它也带来了一些独特的侵入性风险。


据外媒报道,自今年年初开始,多名 Nest 安全摄像机用户报告了一些棘手的情况,他们的智能助理 Alexa 被黑客入侵,并接收了来自黑客的语音命令,虚假宣布有导弹攻击发生;不仅如此,还有用户表示,黑客将他们的家用恒温器开到 90 度,并大声辱骂他们。种种令人震惊的事件表明:智能语音助理的安全性仍然有待提升。


本文作者 Rafael Lourenco 是零售防欺诈公司 ClearSale 的执行副总裁 ,他将从专业角度分析这类入侵产生的原理,以及用户和科技公司可以采用的应对措施。


Nest 的所有者谷歌最近将谷歌助理(Google Assistant)支持集成到 Nest 控制中心中,该公司将这些攻击归咎于用户密码薄弱和缺乏双重认证。但是,即使是拥有强大安全保障的语音助理,也可能容易受到更隐秘形式的黑客攻击。过去几年,美国、中国和德国大学的研究人员成功地利用隐藏的音频文件,让 Siri 和 Alexa 等人工智能语音助手听从他们的命令。


这些发现突显出,黑客和欺诈者有可能劫持独立的语音助手设备以及手机上的语音命令应用程序,以打开网站、购物软件,甚至关闭住宅警报系统和开门。下面是这类攻击的工作原理以及可能产生的后果的概述。


原理解析:语音智能 AI 如何被入侵?

这个安全问题的核心是,语音助手的神经网络比人类的“听觉”要好得多。例如,人们无法识别餐厅背景噪音中的每一个声音,但人工智能系统可以。人工智能语音识别工具还可以处理人们听不到的音频,许多扬声器和智能手机麦克风会接收到这些频率。


这些事实为黑客入侵提供了至少两种向语音助手发出“静默”命令的选择。


第一种方法是在白噪音中隐藏恶意命令,就像 2016 年美国伯克利大学(Berkeley)和乔治敦大学(Georgetown)的学生所做的测试那样。据《纽约时报》报道,入侵者通过在线视频和扬声器播放隐藏的语音指令,让语音控制设备打开网站并切换到飞行模式。


这种攻击的另一个例子来自德国波鸿鲁尔大学的研究人员。今年 9 月,该校的一份研究报告表示:在相同频率的更大声音背景下的编码命令入侵取得了成功。在他们的简短演示视频中,人耳和广受欢迎的语音识别工具包 Kaldi 都能听到一个女人在阅读商业新闻。然而,嵌入在背景数据中的命令只有 Kaldi 能识别:“关闭安全摄像头,打开前门。”


专家表示,理论上,这种方法可以大规模使用,通过应用程序或广播,窃取个人数据或进行欺诈性购买。对于零售商来说,这类购买可能很难进行筛选,因为它们来自一个受信任的设备,并可以使用有效的支付信息。


另一种方法是,通过在人类听觉范围以外的频率上发出指令,从而达到入侵的效果,浙江大学的研究人员称之为:海豚攻击(DolphinAttack)。这种类型的攻击依赖于超声波传输,这意味着攻击者必须靠近目标设备才能使其工作。但是浙大的研究人员已经使用这种技术让锁定的 iPhone 根据听不清的指令打电话。他们说海豚攻击还可以让声控设备拍照、发短信和访问网站。这可能导致手机下载恶意软件、个人数据被盗、欺诈性购买,甚至敲诈勒索。


科技公司如何防范?

亚马逊、谷歌和苹果一直致力于语音助手的改进,尽管它们通常不会深入研究技术细节。浙江大学的研究人员发表的一篇论文建议:对设备麦克风进行重新设计,以限制人们听不到的超声波范围内的输入,或者通过识别和取消携带超声波的特定信号来屏蔽听不清的命令。作者还建议利用机器学习的力量来识别最可能在听不清命令攻击中使用的频率,并学习听不清命令和听不清命令之间的区别。


除了这些短期的补救措施,科学家和立法者还需要解决语音识别技术的安全性和有效性面临的长期挑战。在美国,目前还没有针对语音数据和隐私权的全国性立法或监管框架。加州是第一个通过法律限制销售和数据挖掘消费者语音数据的州,但它只适用于通过智能电视收集的语音数据。


随着物联网时代语音识别用例的增多,以及该领域玩家数量的增加,语音数据泄露的风险也将随之增加。这也就增加了利用消费者语音数据录音进行欺诈的可能性。与克隆信用卡或使用硅胶复制他人指纹相比,共享音频文件要容易得多,也快得多,这意味着语音数据对有组织的犯罪分子来说可能很有价值。防止欺诈的专业人员需要建立和维护干净的、双向的消费者语音数据数据库,以确保公司能够识别合法的客户联系方式。商家在筛选订单时,可能需要分析之前欺诈事件的链接。


如何保护你的声控设备

目前,语音指令劫持的危险似乎大多是理论上的、孤立的,但最近的种种案例向我们表明,欺诈者能够迅速适应新技术。明智的做法是遵循安全措施,既能保护你的设备免受语音黑客攻击,又能以其他方式保护你的数据。比如:


  • 为你的物联网设备(智能音箱等)使用强而独特的密码;

  • 当你不使用手机时,不要将手机解锁;

  • PIN-protect 可以保护你的语音助手完成涉及家庭安全、个人数据、财务或健康记录的任务,或者干脆不把这些信息与你的语音命令设备连接起来。


对听不清的语音命令及其带来的风险的研究还相对较新,安全和科技行业已经看到:每一次新的进步都会给坏人带来新的机会。随着越来越多的研究人员发现语音识别人工智能的弱点,语音识别行业有机会提高其产品的安全性。与此同时,我们每个人都有责任保护我们的设备,并识别与 Alexa、Siri、Cortana 和其他语音助手共享的信息类型。


拓展阅读

最安全智能音箱Echo被腾讯攻破,秒变监听器


亚马逊Alexa被曝偷听用户对话并随机分享,你的智能音箱真的安全吗?


原文链接:


https://venturebeat.com/2019/02/17/could-hackers-trick-voice-assistants-into-committing-fraud-researchers-say-yes/


2019 年 2 月 18 日 17:352551
用户头像
陈思 InfoQ编辑

发布了 576 篇内容, 共 215.8 次阅读, 收获喜欢 1220 次。

关注

评论

发布
暂无评论
发现更多内容

Soul 源码阅读 05|Http 长轮询同步数据分析

哼干嘛

架构师训练营知识点思维导图

晴空万里

架构师训练营第2期

开发质量提升系列:用户体验

罗小龙

最佳实践 方法论 28天写作

机器学习应用设计阶段的 10 个陷阱和 11 个最佳实践

浪潮云

机器学习

Vue3 中 v-if 和 v-show 指令实现的原理 | 源码解读

五柳

源码分析 前端 Vue3

你会读书吗?

xcbeyond

读书感悟 读书方式 28天写作

GNUCash 5: 报表

lidaobing

GNUCash 28天写作

工程师思维是什么?能吃吗?

Justin

工程师思维 架构设计 28天写作

音视频行业不可或缺的功能-云端录制

anyRTC开发者

音视频 WebRTC 在线教育 直播 RTC

HTML5中的拖放功能

魔王哪吒

html html5 程序员 面试 前端

AI、IoT、区块链、自主系统、下一代计算五大技术引领未来供应链发展

京东科技开发者

区块链 AI IoT 供应链

淘宝网前期技术架构演进分析

andy

个人隐私之老话重谈

张老蔫

28天写作

智慧平安小区APP,社区管理一体化平台

135深圳3055源中瑞8032

Volcano 监控设计解读,一看就懂

华为云开发者社区

Kubernetes 云原生 监控 Volcano 计算

机器学习·笔记之:Cost Function - Intuition I

Nydia

面对key数量多和区间查询低效问题:Hash索引趴窝,LSM树申请出场

华为云开发者社区

数据库 数据 存储 Hash索引 LSM树

区块链落地商品溯源-区块链商品溯源方案

135深圳3055源中瑞8032

我们都很忙

Ian哥

28天写作

技术根儿扎得深,不怕“首都”狂风吹!

Arvin

操作系统

代码 or 指令,浅析ARM架构下的函数的调用过程

华为云开发者社区

函数 任务栈 arm架构

区块链作用之数字货币的影响

v16629866266

公司开始为远程办公做准备了

IT蜗壳-Tango

七日更

前端模拟假数据(json-server光速入门篇)

学习委员

json 前端 Node 28天写作 json-server

记录关于写作的两个小想法

JiangX

28天写作

年底跳槽之 如何找工作方向?

一笑

职业规划 28天写作

漫谈HTTP协议

架构精进之路

HTTP 七日更 28天写作

如何养成一个好习惯

熊斌

读书笔记 28天写作

美国大选期间美股迎来大涨,舆情到底有何魔力?

星环科技

人工智能 人工智能大数据

浪漫主义的消亡

石君

28天写作

区块链电子票据应用,区块链数字票据平台

135深圳3055源中瑞8032

“防不胜防”的智能助理:Alexa秒变诈骗工具-InfoQ