OpenAI 预测超智能
人工智能开发者OpenAI计划投入更多资源,并成立新的研究团队,旨在确保人工智能对人类的安全性,并最终实现通过人工智能监督人工智能的目标。
OpenAI联合创始人伊利亚·苏茨凯弗和AI对齐负责人简·莱克在公司的官方博客中表示:“超级智能的巨大能力可能导致人类失去力量甚至灭绝。目前,我们还没有解决方案来操纵或控制一个可能的超智能人工智能,并防止其变成无赖。”
这篇博文预测,在未来十年内,会出现比人类更智能的超智能人工智能系统。人类需要更强大的技术来控制超智能人工智能,因此需要在“AI对齐研究”方面取得突破,确保人工智能对人类持续有益。AI对齐即人工智能控制中的主要问题,要求人工智能的目标、价值观和意图与人类保持一致。
作者指出,OpenAI将在未来四年内,将算力的20%专门用于解决这个问题。此外,该公司还将组建新的“超对齐”团队来推动相关工作。
该团队的目标是开发出由人工智能驱动的对齐研究员,其智能达到“人类水平”,随后通过强大的计算能力来推动其发展。OpenAI表示,这将涉及使用人工反馈来训练人工智能系统,通过训练系统来协助进行人工评估,并最终训练系统进行实际的对齐研究。
然而,人工智能安全倡导者康纳·莱希表示,OpenAI的计划存在根本性缺陷,因为最初的人类水平人工智能可能会失控并造成严重破坏,这将迫使研究者去解决人工智能安全问题。他在一次采访中表示:“在构建人类水平的智能之前,必须先解决对齐问题,否则默认情况下你无法控制它。我个人认为这不是一个特别好的、安全的计划。”
人工智能的潜在危险一直是人工智能研究者和公众最关心的问题。今年4月,一群人工智能行业领袖和专家联名呼吁暂停6个月开发比OpenAI的GPT-4更强大的系统,原因是担心社会潜在风险。根据益普索今年5月的调查,超过三分之二的美国人担心人工智能可能带来负面影响,61%的人认为人工智能可能威胁人类文明。