随着人工智能(AI)领域从模糊的希望发展到引人注目的现实,如 ChatGPT 等技术所示,警报也日益清晰。人工智能的“教父”Geoffrey Hinton 离开了谷歌,更清晰地谈论该技术带来的威胁,该技术可能有一天会变得比其创造者更聪明。他坚决反对允许军队使用人工智能,并担心人工智能超智能有一天可能会操纵人类。
我们如何说服我们的机器即使在我们不看管它们时也能表现出道德行为?Eve Poole 即将出版的一本书《机器人灵魂:人性编程》(*Robot Souls: Programming in Humanity*)认为,我们必须让它们更像我们,这意味着要赋予它们同情心和怜悯心,即使这意味着降低它们的效率。这不会是一个简单的程序更新,而且就像人类一样,同情心和关怀将仍然是针对个体的,是一种人为的主观性。
阅读更多: 人工智能能读懂你的心思吗?
如何应对人工智能
与 Hinton 一样,Poole 主张立即禁止自主武器,并规定任何机器智能都不得被允许夺取人类生命。她还提议,人工智能应该获得重新定义的法律人格,使其适应技术发展。在这一过程中,我们应该将那些我们以前拒绝赋予机器的部分给予人工智能,即情感、“垃圾代码”、自由意志和目标感。
她在一份新闻稿中说:“正是这种‘垃圾’构成了人性的核心。”“我们的垃圾代码包括人类的情感、我们犯错的倾向、我们讲故事的倾向、我们不可思议的第六感、我们应对不确定性的能力、我们对自己自由意志的坚定信念,以及我们在周围世界中看到意义的能力。”
Poole 补充说,“在所有这些飘忽不定、异想天开的特性背后,存在着一个协调一致的努力,以确保我们的物种安全。”
被淘汰的内容
当科学家开发人工智能时,他们认为我们自身的主观和最人性化的部分是多余的,但 Poole 说,如果我们希望机器做得对,它们也需要这些。
“人们认为,具有情感和直觉等特征、会犯错并寻求意义和目的的机器人,其效率不会那么高。”Poole 说。“但实际上正是这种‘垃圾’代码使我们成为人类,并促进了使人类得以生存和繁荣的相互利他主义。”
阅读更多: 最容易受到 ChatGPT 影响的工作














