近年来,人工智能机器已成为科技领域的重要组成部分。它们目前正在彻底改变法律、医疗保健、教育和许多商业模式。
斯坦福大学西里谷中心的研究员 Rishi Bommasani、Percy Liang 及同事表示,事实上,人工智能已经达到了一个转折点。“随着在海量数据上训练且可适应广泛下游任务的模型兴起,人工智能正在经历范式转变,”他们说。“我们将这些模型称为基础模型。”
基础模型具有巨大潜力,但也代表着重大风险。“尽管基础模型即将广泛部署,但由于其涌现特性,我们目前对其工作原理、何时会失败以及它们究竟能做什么仍不甚了解,”Bommasani 及其同事说。
因此,这个团队着手探索基于通用类人工智能模型的基础模型的性质,它们的应用领域以及这一过程带来的风险。他们的结论引人深思。
涌现行为
这些模型的一个问题是,它们的行为是涌现而非设计的。因此,并不总是能知道这些系统会做什么。“[涌现]既是科学界兴奋的源泉,也带来了对意外后果的担忧,”研究人员说。
另一个问题是,这些模型现在是许多其他模型的基础。这意味着它们可以应用于广泛的场景,但也意味着任何问题都是根深蒂固的——它们会被所有后续模型继承。
初创公司和大型企业的营利性环境不一定是探索潜在问题最佳场所。“商业激励可能导致公司忽视社会外部性,例如技术对劳动的取代、民主所需的信息生态系统的健康、计算资源的环境成本,以及将技术出售给非民主政权以牟取暴利,”Bommasani 及其同事说。
在开发新产品时,争先恐后的冲动往往会压倒一切其他考虑,并导致难以辩解的行为。该团队以 Clearview AI 公司为例,该公司利用互联网照片开发面部识别软件,其做法在法律上存在疑问。这未经照片所有者或图片托管公司的同意。然后,Clearview 将该软件出售给警方等组织。
隐蔽的后果
基础模型广泛使用的后果可能更加隐蔽。“作为一种新生技术,负责任地开发和部署基础模型的规范尚未确立,”研究人员说。
所有这些都需要改变,而且要迅速。Bommasani 及其同事表示,学术界已做好充分准备来应对这一挑战,因为它汇集了来自广泛学科的学者,这些学科不受利润驱动。“因此,我们认为学术界在开发基础模型方面发挥着至关重要的作用,以促进其社会效益并减轻其社会危害,”该团队表示。“大学和学院还可以通过审计现有基础模型并发布其发现、设立伦理审查委员会以及开发自己的基础模型来为规范的建立做出贡献。”
这将是一项重要的工作。确保人工智能的公平公正使用必须成为现代民主国家的优先事项,尤其因为人工智能有可能威胁全球相当大一部分人口的生计。没有人确切知道哪些工作可以免受自动化决策不可避免的进展的影响,但很少有工作可能保持不变。
显然,营利性公司无法承担起在心中牢记社会最佳利益来应对未来的任务。来自学术界和其他非营利组织的团体更有能力提供领导。它们是否会这样做尚不清楚,但 Bommasani 及其同事的贡献是一个开始。
参考:关于基础模型的机遇与风险:arxiv.org/abs/2108.07258














