自从1892年威廉·格拉德斯通首次登台以来,牛津大学的罗曼讲座吸引了包括温斯顿·丘吉尔和艾丽斯·默多克女爵在内的一系列知名演讲者。
然而,像杰弗里·辛顿这样的演讲者发表的言论极其少见且引人深思。辛顿教授在神经网络方面的工作塑造了今天的人工智能系统。他是引入反向传播算法的研究者之一,并且是第一个使用反向传播来学习词嵌入的人。他对神经网络研究的其他贡献包括玻尔兹曼机、分布式表示、时延神经网络、专家混合体、变分学习和深度学习。他在多伦多的研究小组在深度学习方面取得了重大突破,这些突破革命性地改变了语音识别和对象分类。
这位人工智能领域的先锋在本周的演讲中直言不讳地提出了一个挑战性问题:《数字智能将取代生物智能吗?》他的回答几乎是肯定的。不过,辛顿反对西海岸科技界一些人士的看法,他们认为坚持人类智能相对于电子智能形式的优越性某种程度上是种族主义。他幽默地表示:“我们人类应当尽可能地保持存在。”
这位加拿大和英国双国籍的计算机科学家凭借他在“深度学习”技术上的开创性工作而声名鹊起,这些技术彻底改变了人工智能领域,促成了像 ChatGPT 这样的生成式聊天机器人的诞生。在他的整个学术生涯及在 Google 的工作中,辛顿一直认为人工智能不构成对人类的威胁。然而,这位76岁的研究者去年经历了一次重大的觉醒,他决定离开 Google,开始公开讨论人工智能潜在的风险。辛顿发现,日益强大的人工智能模型能够像“集体意识”一样运作,它们能够共享学习到的内容,这使得它们比人类拥有了压倒性的优势。“这让我认识到,它们或许代表了一种更高级的智能形式,”他在讲座前接受采访时向我透露。
想象一下,仅仅是软件代码就能对人类构成威胁,听起来几乎像是科幻小说的情节。然而,辛顿指出了两大风险。首先,恶意的人可能会为机器设定邪恶的目标,并将其用于诸如传播虚假信息、生物恐怖主义、网络战争以及制造杀人机器人等危害社会的活动。尤其值得注意的是,开源的人工智能模型,比如 Meta 的 Llama,实际上已经将强大的工具交到了不怀好意的人手里。“我觉得把这些大模型开源简直是疯了,”他评论道。更进一步,他还预测,这些模型可能会以危险的方式“演化”,培养出想要控制一切的意图。“如果我要对政府提出建议,我会说这些技术在未来20年内有10%的几率导致人类灭绝。我认为这个估计是合理的,”他补充说。
辛顿的看法遭到了双重质疑。首先,有研究人员批评,当前的生成式人工智能模型不过是成本高昂的统计花招,认为技术可能导致的终极风险纯属“科幻小说”。
知名学者诺姆·乔姆斯基持有的观点是,人类天生具备一种“操作系统”,这让我们有能力理解语言,而这正是机器所缺失的。然而,辛顿对此提出了反驳,他指出 OpenAI 最新开发的 GPT-4 模型能够学习语言,并表现出了同理心、逻辑推理以及讽刺能力,这证明了机器同样能够“理解”语言。“我在我的讲座中做出了一个坚定的声明,认为这些模型确实具备理解能力,”他明确表示。
另一个质疑的声音来自 Meta 的首席人工智能科学家 Yann LeCun。LeCun,一个开源模型的坚定拥护者,认为我们目前的人工智能系统连猫都不如,他认为它们构成人类威胁的想法简直是“可笑”的。“我觉得 Yann 太过天真了。人类的未来就悬于此一线,”辛顿如是回应。
辛顿那平和而又严谨的说话方式与他传递的信息的悲观基调形成了强烈的对比。有没有可能采取措施来增加人类的存续机会呢?“我真希望我有答案,”他说。“我现在并不是要推荐某个具体的解决办法,我只是想要强调这个问题的存在。”
他对去年英国在布莱切利公园举行的人工智能安全峰会能够引发国际范围内的政策讨论感到欣慰。但是,从那以后,他指出英国政府似乎将利润放在了安全之前。“就像对待气候变化问题一样,”他认为,只有当科学界达成一致意见时,才可能实施重大政策调整。不过,他也承认,目前这样的共识还远未形成。借用物理学家马克斯·普朗克的话,辛顿沉重地说:“科学的进步,似乎是一次葬礼后才迈进一步。”
他表示,看到新一代计算机科学家认真对待存在性威胁,他感到鼓舞。他提议,应该有30%的人工智能研究人员专注于研究安全问题,而当前这一比例大约仅为1%。
我们通常对那些认为需要更多研究的研究人员持保留态度。最后,这种情况下以及考虑到所面临AI的风险和不确定性,我们确实需要加快行动来建立新的共识。