2013年,当爱德华·斯诺登向全世界揭露美国国家安全局(NSA)的间谍计划后,在香港会见律师寻求法律建议时,他要求在场的所有人把手机放进冰箱。
这是一个奇怪的要求,但想法是冰箱厚实的绝缘金属外壳(而不是内部的温度)会起到屏蔽作用。冰箱就像一个法拉第笼,可以防止窃听。
当大型科技公司、广告商甚至你的老板似乎都在监视你时,把手机放进冰箱可能看起来很有吸引力。但这仅仅是多疑,还是我们的手机真的在监视我们?一份新研究正在探究保护我们隐私的方法。
限制应用访问权限
纽约州罗切斯特理工学院的网络安全专家乔纳森·韦斯曼(Jonathan Weissman)表示,我们的手机并没有监视我们,但我们的应用程序可能会。一个能够访问手机麦克风的应用肯定能听到你在说什么。韦斯曼建议要警惕你授予应用程序的访问权限,例如摄像头、联系人列表和照片。
韦斯曼说:“问问自己,‘天气应用为什么需要访问我的麦克风?’在绝大多数情况下,要求访问其不需要或不应拥有的内容的应用程序都是恶意的。”
当然,像Alexa和Google Assistant这样的设备需要能够听到我们说话,否则它们怎么知道何时设置闹钟或订披萨?韦斯曼说,这些设备确实在监听,但它们不会记录或共享任何信息,直到我们用唤醒词激活它们。
他说:“很多人认为这些设备正在收集对话,但事实并非如此。录音只有在发出触发词后才开始。”他还指出,至少对于Alexa来说,你可以将你说的话以文本形式发送到云端,这样就不会录制你的声音。
利用人工智能对抗自身
仍然有些多疑?这是可以理解的。大型科技公司在处理我们信息的方式上并没有赢得我们的信任。此外,人们可以入侵设备。但是机器学习——帮助应用程序理解你的技术——可能会让这些应用程序难以理解你在说什么。
机器学习这项新技术会在你说话时产生背景噪音。但这不仅仅是任何背景噪音。它是专门设计来迷惑正在监听你的(AI)人工智能的。它会找到你语音中的模式,然后稍微改变你的话语,以一种人类仍然能理解,但AI却会感到困惑的方式。
然而,如果这项技术在你说完之后才能修改你的话,那就太晚了。哥伦比亚大学的研究人员提出了一项新技术来解决这个问题。该程序使用一种类似于训练大型语言模型的方法,预测你即将要说的话,然后将其扭曲。
在一项测试该技术的研究中,该技术伪装了大约80%的语音内容。对该研究的首席研究员Mia Chiquier来说,这比听起来要好得多。AI扭曲的词语更有可能是包含信息最多的词语。这意味着窃听程序可能会捕捉到很多像“所以”、“有”、“你”这样的词,但却完全忽略了重要的词语——例如,那些解释你是如何得知NSA的。
Chiquier和她的团队并没有制作一个能够实现这一功能的应用程序。他们只是证明了这是可以做到的。但如果有人决定将一个使用这项技术的应用程序推向市场,他们很可能不会在寻找客户方面遇到困难。我们中很少有人会泄露政府机密,但我们大多数人都希望拥有一些隐私。















