虽然亚马逊的“唤醒词”功能可以改善隐私,但它提出了自己的挑战,例如Alexa录制私人谈话并未经同意将其发送出去。
通过本迪克森
Amazon Echo设备最近记录了用户的私人谈话,并在未经他们知情和同意的情况下将其发送给他们的一个联系人。这(再次)引起了对智能扬声器安全性和隐私性的担忧。然而,后来变得明显,Alexa的奇怪行为并不是一个险恶的间谍情节的一部分 - 相反,它是由于智能扬声器的工作方式导致的一系列相关故障引起的。
根据亚马逊提供的一个帐户:“由于背景对话中的一个词听起来像’Alexa’,Echo醒了。然后,随后的对话被听作是“发送消息”请求。在这一点上,Alexa大声说’给谁?’ 此时,后台会话被解释为客户联系人列表中的名称。然后Alexa大声问道,’[联系人姓名],对吗?Alexa然后将背景对话解释为“正确”。尽管这一系列事件不太可能,我们正在评估使这种情况更不可能的选择。“
该场景是一个边缘案例,很少发生的事件。但它也是人工智能技术极限的一项有趣研究,它为Echo和其他所谓的“智能”设备提供动力。

太多的云依赖

为了理解语音命令,Echo和Google Home等智能扬声器依赖于深度学习算法,这需要大量的计算能力。由于他们没有在本地执行任务的计算资源,他们必须将数据发送到制造商的云服务器,其中AI算法将语音数据转换为文本并处理命令。
智能扬声器无法将他们听到的所有内容发送到他们的云服务器,因为这需要制造商在他们的服务器上存储过多的数据 - 其中大多数都是无用的。意外地记录和存储在用户家中发生的私人谈话也会带来隐私挑战,并可能使制造商陷入困境,尤其是新的数据隐私法规严格限制了科技公司存储和使用数据的方式。
这就是为什么智能扬声器被设计为在用户发出诸如“Alexa”或“Hey Google”之类的唤醒词之后触发的原因。只有在听到唤醒词后,他们才开始将麦克风的音频输入发送到云进行分析和处理。
虽然这项功能可以改善隐私,但它最近也出现了挑战,正如最近的Alexa事件所强调的那样。
Conversocial首席执行官Joshua March说:“如果[唤醒]这个词 - 或听起来非常类似的话 - 在谈话中途发出,Alexa就不会有任何先前的背景。” “在这一点上,对于任何与你设置的技能相关的命令(如他们的消息应用程序),它都会非常难听。在大多数情况下,通过限制Alexa注意的环境(因为它不记录或听你的任何正常谈话)来大大增强隐私,尽管在这种情况下这种情况适得其反。“
边缘计算的进步可能有助于缓解这个问题。随着人工智能和深度学习进入越来越多的设备和应用程序,一些硬件制造商已经创建了专门用于执行AI任务的处理器,而不必过多依赖云资源。Edge AI处理器可以帮助Echo等设备更好地理解和处理对话,而不会通过将所有数据发送到云来侵犯用户的隐私。

语境和意图

除了收到不同的和零散的音频片段,亚马逊的AI还在努力理解人类对话的细微差别。
“尽管过去几年在深度学习方面取得了巨大进步,使软件能够比以往更好地理解语音和图像,但仍有很多限制,”March说。“虽然语音助理可以识别您所说的单词,但他们并不一定能够真正理解其背后的含义或意图。世界是一个复杂的地方,但今天任何一个人工智能系统都只能处理非常具体,狭窄的用例。“
例如,我们人类有很多方法可以确定一个句子是针对我们的,例如语调,还是跟随视觉提示 - 比如说话者正在看的方向。
相反,Alexa假定它是任何包含“A”字的句子的接收者。这就是用户经常意外触发它的原因。

0_6qM4_cxLwEpZattA.jpg
部分问题在于我们夸大了当前AI应用程序的功能,经常使它们与人类思维相提并论,并且过于信任它们。这就是为什么当他们失败时我们会感到惊讶。
“这里的部分问题是”人工智能“这个术语如此积极地推向市场,以至于消费者对这个术语与他们的关系产生了不必要的信任,”神经科学家,Starmind的创始人帕斯卡尔考夫曼说。“这个故事说明Alexa有很多能力,对于如何以及何时适当应用它们的理解相对有限。”
当深度学习算法面临偏离数据和他们训练的场景的设置时,它们很容易失败。“人类人工智能的一个明确特征是自给自足的能力和对内容的真正理解,”考夫曼说。“这是真正认为AI’聪明’的关键部分,对其发展至关重要。创造自我意识的数字助理,让他们充分了解人性,将标志着他们从有趣的新奇转变为真正有用的工具。“
但是,创建人类级AI(也称为一般AI)说起来容易做起来难。几十年来,我们一直认为它即将到来,只是因为技术的进步表明人类的思想是多么复杂而变得沮丧。许多专家认为追逐一般人工智能是徒劳的
同时,狭窄的AI(作为当前的人工智能技术被描述)仍然提供了许多机会并且可以被修复以避免重复错误。需要明确的是,深度学习和机器学习仍处于初期阶段,像亚马逊这样的公司不断更新其AI算法,以便在每次发生时解决边缘情况。

我们需要做什么

“这是一个年轻的新兴领域。自然语言理解尤其处于起步阶段,因此我们可以在这里做很多事情,“Atomic X首席技术官Eric Moller说。
Moller认为可以调整语音分析AI算法以更好地理解语调和变形。“在更广泛的句子中使用’Alexa’这个词听起来与调用或命令不同。Alexa不应该醒来,因为你顺便说出了这个名字,“莫勒说。通过足够的训练,AI应该能够区分哪些特定音调指向智能扬声器。
科技公司也可以训练他们的AI,以便能够区分何时接收背景噪音而不是直接说话。“背景喋喋不休具有独特的听觉’特征’,人类非常善于接受并有选择地调整。我们没有理由不能训练AI模型来做同样的事情,“莫勒说。
作为预防措施,AI助理应评估他们所做出的决策的影响,并在他们想要做一些可能敏感的事情的情况下参与人为决策。制造商应在其技术中加入更多保护措施,以防止在未经用户明确和明确同意的情况下发送敏感信息。
Tonkean首席执行官Sagi Eliyahi表示:“虽然亚马逊确实报告说Alexa试图确认其解释的行动,但有些行动需要更加谨慎地管理并保持更高标准的用户意图确认。” “人类有相同的语音识别问题,偶尔会听到请求。然而,与Alexa不同,人类更可能完全确认他们理解不明确的请求,更重要的是,衡量请求与过去请求相比的可能性。“

同时…

虽然科技公司微调他们的AI应用程序以减少错误,但用户必须做出最终决定他们希望暴露于他们的AI驱动设备可能产生的潜在错误的程度。
“这些故事与人们愿意分享的数据量与新的人工智能技术的承诺相冲突,”数据科学专家道格罗斯和几本关于人工智能和软件的书的作者说。“你可能会因为速度缓慢而取笑Siri。但她获得更多智慧的最佳方式是入侵我们的私人谈话。因此,未来十年左右的一个关键问题是,我们将允许这些AI代理人查看我们的行为有多少?“
Starmind的神经科学家Kaufmann说:“哪个家庭会把人类助理放在起居室里让那个人一直听到任何形式的谈话?” “在隐私,保密或可靠性方面,我们至少应该对所谓的’AI’设备(如果不是更高的话)应用相同的标准,我们也适用于人类智能生物。”
阅读更多:“ 需要搁置的三大技术创意(现在)