吕归亚:OpenAI“宫斗”凸显技术发展岔路口

近日,国际著名人工智能头部企业OpenAI的人事变动引爆了舆论。当地时间11月17日,OpenAI发表声明,宣布公司首席执行官山姆·奥特曼将离开公司。随后事件不断“反转”,很多人都被背后的“宫斗”所吸引。然而跳出这件事情本身,OpenAI作为行业领头羊,其内部矛盾的爆发可能更预示着人工智能的发展及商业化来到了岔路口。

很多人认为这个岔路口在OpenAI的体现是公司的首席科学家伊利亚·萨斯克维尔和山姆·奥特曼各自追求不同的AI发展方向。伊利亚·萨斯克维尔代表着谨慎,着眼于人工智能的安全性及其对人类社会的影响,他的主张隐藏着对人工智能发展的三个深层问题的思考:人工智能超过人类智能,即奇点,其过程是渐变还是突变,应该怎么控制;奇点来临,也就是实现AGI,是由技术社区判断,还是由社会判断;一旦人工智能超过人类智能,人类是否有控制手段。

如何控制AI的开发过程?人工智能学界早已签署了“阿西洛马人工智能原则”,该原则指出:高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。图灵奖得主杰弗里·辛顿在今年从谷歌辞职后就警告生成式人工智能系统的商业应用会构成多重威胁。而伊利亚·萨斯克维尔作为辛顿的学生,可能认为大模型系统超越人类智能是一个“突变”而不是“渐变”的过程。最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。在利用生成式人工智能的竞赛中,奥特曼冲在前面可能会带来严重的不可控风险。

AGI到底何时会到来? OpenAI公司此前发布了AGI路线图,并分享了其对AGI发展的短期和长期愿景。OpenAI核心技术层可能是已经看到了AGI出现的曙光,而在董事会层面的判断出现了重大分歧。根据OpenAI的组织架构,董事会的6名成员将决定该公司何时实现“AGI”。 OpenAI甚至专门为AGI下了定义,即“在最具经济价值的工作中胜过人类的高度自主系统”。在互联网全球治理的初期,处于主导地位的行为体是和OpenAI类似的技术社群而非市场或国家,相对而言较开放自由。然而随着商业价值的不断升高,大型商业公司逐渐被高额利润吸引入局,将技术社群排挤出管理地位,使得互联网的治理体系日益复杂混乱。然而,本次事件出乎意料的是,技术社区内部也有分歧,由此可见治理工作的艰难。

人工智能一旦超越人类智能怎么办? OpenAI内部之前由伊利亚·萨斯克维尔等领导着一个小组,专门研究“超级对齐”问题。“超级对齐”旨在构建一个能够与人类水平相媲美的自动对齐研究器,目标是尽可能地将与对齐相关的工作交由自动系统完成。通过可扩展监督手段,即在确保模型能力超过人类水平后,仍旧能够与人类期望保持一致、持续进行改进和学习。但是这个项目成本高昂,要花费公司20%的算力。

然而,在“超级对齐”项目还未展现初步成果的当下,各类基于人工智能及大模型开发的应用已经初具雏形,这便是山姆·奥特曼所代表的岔路的另一方向,即人工智能的商业化发展。

目前已经有所规划的是以下两个具体模式:AI Agent与垂类应用。

AI Agent就是让AI在思考及行动这两大方面尽可能模仿人类。在生成式AI浪潮中,大家都见识到了大语言模型(LLMs)强大及通用的底层能力,基于其构建的AI Agent应运而生。而这类AI Agent不仅能用自然语言交流,还表现出了模拟人类大脑自然思维过程的巨大潜力。

而在OpenAI成功以后,垂类应用也会获得很大成功。这些垂类项目立足于某一个行业,通过对通用模型的微调,将大模型的应用落地,能够更好地取得商业上的成功。这一切都和OpenAI的商业化进程有关,也和奥特曼关联密切。

然而这一切可能与OpenAI所追求的“安全”相悖,大量应用开发者的涌入在加速发展的同时势必会增加人工智能发展的不确定性,使其更难实现安全可控。人工智能未来是在商业化的大潮中突飞猛进,还是在确保安全可控的前提下徐徐图之,大家对这个问题的思索可能是这次OpenAI“宫斗”广受关注的重要原因之一。(作者是奇安信集团职员)

热门相关:重生复仇:腹黑千金不好惹   觅仙道   觅仙道   青莲剑说   全天下都知道太子爱她