杨立昆(Yann LeCun)在《AI: Grappling with a New Kind of Intelligence》上的精彩发言:
这里有一个关键问题。
毫无疑问,未来或许在几十年后,我们将拥有智能与人类媲美的人工智能(AI)系统。这些系统不仅在特定领域专业化,而且在人类擅长的所有领域都可能比人类更聪明。 你可能会担心,这样的系统会不会掌控世界。其实,智能与控制欲之间并无必然联系。以人类为例,虽然有些人有控制欲,但并非所有人都是如此,而且通常不是最聪明的人才有控制欲。国际政治舞台上的种种事件每天都在证明这一点。这背后可能有进化上的原因:不够聪明的人需要依赖他人,因此会试图影响他人;而聪明的人可以独立生存。
再来看第二个观点,我们其实已经习惯了与比自己聪明的人合作。就我个人经验,我曾领导一个研究实验室,而我只雇佣比我聪明的人。与比你更聪明的人共事其实是一种美妙的经历。想象一下未来10到20年,我们会有人工智能助手在日常生活中协助我们,他们可能比我们更聪明。但他们的存在是为了让我们变得更聪明,我们指导它们,它们服务于我们。智能本身并不意味着渴望控制。
这种控制欲其实源于我们作为社会性物种的本性。作为社会性物种,我们需要影响他人,这就产生了控制和服从的概念。我们像黑猩猩、狒狒、狼等其他社会性动物一样,有着等级制的社会组织。这是进化赋予我们的特征。而像猩猩这样的非社会性物种,即便智力接近人类,也没有控制他人的渴望。所以,智能与控制欲是两码事。我们完全可以设计一个极为智能但不具备控制欲的系统。
关于这些系统的设计,它们会非常聪明,也就是说,你给它们一个目标,它们可以帮你实现这个目标。但设定目标的是我们,人类。这些系统会制定子目标,但如何实现这一技术问题还未解决,这仍然是我们对未来的设想。
再想象一下,如果未来我们与数字世界和信息世界的所有互动都通过人工智能代理来完成,这些代理将成为所有人类知识的宝库,类似于一个能进行对话和推理的“超级维基百科”。这将成为一个像现在的互联网一样的公共平台,它必须是开放的,不能是专有的,因为掌握在少数公司手中的超级智能AI将是非常危险的。想象一下,如果少数几家公司控制着这些超级智能AI,他们可以左右每个人的观点、文化等等。或许美国政府会接受这种情况,但全世界的其他政府绝不会同意。他们不会希望自己的文化被美国文化所主导。因此,他们将不得不开发自己的大语言模型(LLM)。
唯一的解决方案是基于开源的基础架构。这就是 Meta 开源 La Maute 2的原因之一,因为它是基础设施的一部分。此前,Meta 还发布了用于构建人工智能系统的软件系统 PyTorch,而 ChatGPT 就是基于 PyTorch 构建的。因此,这些系统必须是开源的,并且它们的训练方式也必须是众包的,以确保它们成为所有人类知识的仓库。这意味着所有人都必须对其做出贡献,而不仅仅是贡献给 openAI、Meta 或其他公司的专有系统。无论这听起来有多危险,这是未来的必然走向。