广告

人工智能专家回应埃隆·马斯克的严峻警告:美国各州州长应如何应对

埃隆·马斯克对人工智能作为人类生存威胁表示担忧,并敦促其进行积极监管。

Google NewsGoogle News Preferred Source

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

(图片来源:OnInnovation) 如果你还没听说,埃隆·马斯克对机器感到担忧。尽管这似乎对于一位多家科技公司的掌门人来说有些唐吉诃德式的立场,但他对技术前沿的近距离接触似乎让他对人工智能感到不安。他曾多次表达过对人工智能失控的恐惧,将其比作“召唤恶魔”。马斯克在本周末的美国州长协会会议上再次重申了他的立场,告知各州领导人,人工智能对人类构成了生存威胁。在讨论自动驾驶汽车和太空探索的过程中,马斯克呼吁加强对人工智能研究和应用的政府监管,并表示:

广告

“在人们看到机器人走在街上杀人之前,他们不知道如何反应,因为这看起来太飘渺了。人工智能是一个罕见的情况,我认为我们需要积极主动地进行监管,而不是被动应对。因为我认为,等到我们对人工智能进行被动监管时,就太晚了,”据《麻省理工科技评论》报道

发出这样的担忧并非杞人忧天,因为人工智能有一天可能会发展到能够自我改进的程度,从而引发一个超越人类能力的进步反馈循环。我们何时能达到那个点,无人能猜,而且目前我们离那一步还很远,就像今天看到的安保机器人盲目地走进喷泉的视频清楚表明的那样。尽管计算机可能正在刷新电子游戏记录精通扑克,但它们无法接近通用人工智能——那种能够让我们完成各种任务的广泛推理能力。这就是为什么在单一任务上表现出色的人工智能,比如下棋,在被要求描述一张椅子这样的简单任务时会表现得一塌糊涂。为了让人们对马斯克的言论有更深入的了解,《Discover》采访了正在从事这位科技巨头所警告的那种人工智能研究的计算机科学家和未来学家。

奥伦·埃齐奥尼

华盛顿大学计算机科学教授,艾伦人工智能研究所首席执行官

埃隆·马斯克痴迷于人工智能对人类的生存威胁,这分散了人们对人工智能对就业和武器系统影响的真正担忧。公众需要的是关于人工智能实际后果(包括正面和负面)的准确信息。我们必须区分科学和科幻。在虚构作品中,人工智能经常被描绘成“坏人”,密谋统治世界,但实际上人工智能是一种工具,一种技术,它有潜力通过改善交通、医疗等方面来挽救许多生命。我们不需要设立新的监管机构,而是需要更好地教育和告知人们人工智能的功能和局限性。我们需要研究如何构建“人工智能守护者”——即监控和分析其他人工智能系统的人工智能系统,以帮助确保它们遵守我们的法律和价值观。世界需要人工智能的益处,人工智能也需要监管,就像太平洋需要全球变暖一样。

托比·沃尔什

新南威尔士大学(悉尼)人工智能教授,《It's Alive!: 》作者

人工智能:从逻辑钢琴到杀人机器人"

埃隆·马斯克的言论有些危言耸听。我最近调查了 300 位顶尖人工智能研究人员,

他们中的大多数认为,要达到与人类智能相当的机器,还需要至少 50 年。所以这不是一个需要立即关注的问题。

而且,我并不太担心当达到超智能时会发生什么,因为有一个健康的研究界正在努力确保这些机器不会对人类构成生存威胁。我预计届时他们将准确地制定出所需的保障措施。

但埃隆有一点是对的:我们确实需要政府现在就开始监管人工智能。然而,我们需要开始监管的是我们现在所拥有的人工智能。那些有偏见的算法。竞相开发“杀人机器人”,将愚蠢的人工智能赋予做出生死抉择的能力。那些让科技公司掌握我们所有个人和医疗数据,从而威胁到我们隐私的风险。以及互联网正在造成的政治辩论的扭曲。

科技公司意识到自己有问题,并且已经做出了一些努力,试图通过开始自我监管来避免政府监管。但有一个严重的问题需要思考,那就是它们是否能够自行处理此事。我们正在目睹大型科技巨头之间的人工智能竞赛,它们在这个“赢者通吃”的竞赛中投入了数十亿美元。许多其他行业都曾看到政府介入以阻止垄断企业的不当行为。我最近在一个演讲中说过,但在此我将再次重复:如果像谷歌和Facebook这样的巨头在二十年后没有被拆分,我将对我们的社会未来感到极度担忧。

李飞飞

斯坦福人工智能实验室主任

机器没有独立的价值观;机器的价值观是人类的价值观。如果人类真正担心某项技术(无论是人工智能、能源还是其他技术)的未来影响,那就让我们让各行各业、各种声音都能在开发和应用这项技术中发挥作用。每一位技术专家都有责任为社会的美好发展创造良性技术,无论是在斯坦福、谷歌还是特斯拉。作为一名人工智能教育者和技术专家,我最希望看到在人工智能的开发以及人工智能的声音和观点的传播方面,有更多的包容性和多样性。

广告

拉贾·查提拉

IEEE 全球人工智能伦理倡议主席

人工智能已经无处不在。其应用的影响力可与互联网相媲美,甚至对其起到强化作用。人工智能正在被嵌入我们现在和未来正在构建的几乎所有算法和系统中。现在有一个重要的机会来优先考虑人工智能的伦理和负责任的设计。然而,这更多地与人工智能和社会的更大即时风险相关,即优先考虑指数级经济增长,同时忽视环境和社会问题。

就马斯克关于超级人工智能的生存威胁警告是否值得立即关注而言,我们实际上正面临大规模的负面和意外后果的风险,因为我们将指数级增长和股东价值置于社会繁荣指标之上,作为衡量这些令人惊叹技术的成功标准。

广告

为解决这些问题,每个创造人工智能的利益相关者都必须在其工作中解决透明度、问责制和可追溯性问题。他们必须确保用户数据的安全和可信访问与交换,正如欧盟《通用数据保护条例》(GDPR) 所鼓励的那样。并且他们必须优先考虑以人权为中心福祉的指标,例如联合国可持续发展目标,将其作为可证实的能够提高人类繁荣的预定全球成功指标。

IEEE 全球人工智能伦理倡议制定了《伦理对齐设计:优先考虑人工智能和自主系统人类福祉的愿景》,旨在切实帮助任何创造这些技术的利益相关者积极应对马斯克担忧所带来的普遍伦理问题。该倡议由 250 多名全球人工智能和伦理专家组成,他们也是目前正在进行的IEEE P7000 标准——系统设计中伦理问题处理模型流程系列的基础,该系列旨在通过全球共识建设过程来解决这些问题。

我对人工智能最大的担忧是,在开发和推广这项技术时,没有优先考虑伦理和负责任的设计,或者在如此迫切需要关注环境和社会可持续性以避免我们已经造成(且无需人工智能帮助)的生存风险时,急于提高经济增长。人类不必害怕人工智能,只要我们现在就采取行动,优先考虑其伦理和负责任的设计。

马丁·福特

作者,《机器人崛起:技术与失业未来的威胁》

埃隆·马斯克关于人工智能将对人类构成生存威胁的担忧是合理的,不应被忽视——但这些担忧涉及几乎肯定发生在遥远未来的发展,可能至少需要 30 到 50 年,甚至更长。

广告

呼吁立即监管或限制人工智能发展是错误的,原因有很多,其中最重要的一点是,美国目前正与其他国家,特别是中国,进行积极竞争。我们不能在这个关键的竞赛中落后。

此外,对真正高级人工智能“接管”的担忧,会分散我们对专业人工智能进步所带来的更紧迫问题的注意力。这包括数百万个工作岗位消失可能带来的大规模经济和社会动荡,以及对隐私的潜在威胁,人工智能在网络犯罪和网络战中的应用,以及真正自主的军事和安全机器人出现。这些近期发展中的任何一个,都不依赖于马斯克所担心的先进超智能的发展。它们仅仅是对现有技术的简单推断。我们目前的重点应该是解决这些不那么具推测性的风险,这些风险极有可能在未来二十年内产生巨大影响。

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章