科技巨头收集(并买卖)大量关于其客户的数据,而我们几乎所有人都成了它们的目标,这早已不是什么秘密。我们对大量个人数据掌握在私营公司手中感到担忧是理所当然的。但我们可能花在思考它们究竟会如何利用这些数据上的时间就少了——包括利用人工智能(AI)来操纵人类的决策。
一个黑箱
人类善于操纵彼此;事实上,我们可能已经进行“策略性欺骗”数千年了。但借助人工智能——能够自主学习的软件系统——人类可能比以往任何时候都更容易受到这种胁迫。
当以正确的方式部署时,人工智能可以让你购买某物、分享某个帖子、投票给某个候选人,或者做任何数量的事情。最近,澳大利亚联邦科学与工业研究组织(CSIRO)的研究人员进行了一系列实验,探讨了人工智能如何影响人类决策。结果表明,人工智能可以发现并利用人类决策中的弱点来引导人们做出某些决定。CSIRO 的机器学习专家、该研究的首席研究员 Amir Dezfouli 在一份新闻稿中说:“这项研究的意义可能相当惊人。”
就像一个好的销售人员(或有魅力的骗子)可能会让你做一些你本来不会做的事情一样,这些算法也能让你点击、购买或分享;这不仅是因为它们对你非常了解,还因为它们知道哪些技巧最有可能让你做出一个决定而不是另一个决定。
而可怕的是,我们并不完全理解人工智能是如何做到的。多伦多大学研究人机交互的 Shane Saunderson 表示:“棘手的部分在于,人工智能在某种程度上仍然像一个黑箱。”“它不是一个明确的机器,说二加二等于四。它是一台你给它看大量数据,它从中分析出模式、分类或洞见的机器。而我们并不总是确切地知道它是如何做到的。”例如,人工智能通过收集和分析海量数据,很快就发现社交媒体在利用负面情绪时更具吸引力,并且人们对负面内容的反应和参与度更高。近年来,这产生了巨大的无法预见的后果。
Saunderson 说:“这绝对是令人担忧的事情。”
Saunderson 将此描述为“平庸之恶”的经典例子。“并没有一个邪恶的行动者真正试图做坏事,”他说。“Facebook 的没有人站出来说‘是的,我们想在缅甸制造一场种族灭绝’,或者‘我们想大规模地影响选举’。这从未是某人的意图。”当然,意图是卖给你东西——或者,就 Facebook 而言,是让你留在网站上,以便购买广告空间的那些公司能够卖给你东西。但其后果可能远远超出商业范畴。
无论好坏
Dezfouli 指出,这些技术是用于好是坏,取决于我们以多负责任的态度去设计和部署它们。为了确保良好的结果,CSIRO 和澳大利亚政府为政府和行业制定了人工智能道德框架。这些(自愿性的)原则包含了你可能期望的大部分内容,例如“人工智能系统应尊重并维护隐私权和数据保护”。另一项原则说,透明度和负责任的披露至关重要,这样人们才能理解何时自己的选择受到了引导,并了解何时人工智能系统正在与他们互动。
Saunderson 认为,最后一点至关重要,他认为使人工智能合乎道德归结为透明度。他说,当你与机器人或人工智能互动时,至少你应该知道以下问题的答案:
1)谁拥有它,或者背后的利益相关者是谁?
2)它的目标是什么?例如,它是在试图卖给你东西,还是说服你应该服药?
3)它正在使用哪些策略来实现这些目标?
4)它拥有哪些可用数据?
可悲的是,对我们大多数人来说,许多这些问题的答案仍然是一个黑箱。















