虽然OpenAI这场持续了五天的闹剧最终以山姆·阿尔特曼(Sam Altman)重返公司收尾,但阿尔特曼上周五为何会突然被董事会解雇对外界仍然是个未解之谜。
据路透社和The Information等媒体报道,阿尔特曼被突然解雇,或许跟他在旧金山APEC峰会的一场演讲有关。阿尔特曼当时在演讲中提到了OpenAI在人工智能领域的又一重大进展。据悉,这一进展可能是OpenAI内部称之为“Q*(发音为Q-Star)”模型的项目,这或是该公司在通用人工智能(下称AGI)领域的突破,已经具备解决某些数学问题的推理能力。目前,类似GPT-4的生成式人工智能产品都尚不具备推理能力。
这一技术突破曝光后,包括内部员工和外部研究人员在内的人士均对其安全性感到担忧。就连马斯克都在X(原推特)上称,“非常令人担忧!”
强大算力支撑下“Q*”可解决某些数学问题
阿尔特曼在美东时间11月16日旧金山举行的APEC峰会上开玩笑称,他相信重大的进展就在眼前,“在OpenAI的历史上,已经有四次(重大进展)了,当我们把无知的面纱解开,把探索的前沿向前推进时,能够做到这一点是我一生的职业荣誉。”
然而,讲话后的第二天,阿尔特曼就突然被OpenAI董事会解雇。
路透社援引的知情人士透露称,OpenAI首席技术官米拉·穆拉蒂(Mira Murati)本周三向员工透露,关于“Q*”模型取得人工智能技术突破的信,是导致OpenAI前董事会解雇奥特曼的原因。
此前,OpenAI的几位研究人员向董事会发送了一封信,警告称他们发现了一种能够威胁到人类的强大人工智能,即“Q*”。研究人员还提到了一个“人工智能科学家”团队工作,且多个消息来源证实了该团队的存在。其中一名知情人士表示,该团队由早期的“代码世代(Code Gen)”和“数学世代(Math Gen)”团队合并而成,正在探索如何优化现有的人工智能模型,以提高它们的推理能力,并最终执行科学工作。
知情人士称,OpenAI的一些内部员工认为,“Q*”模型可能是公司在所谓的AGI领域的一个突破。OpenAI将AGI描述为“在最具经济价值的工作中超越人类的高度自治系统”。
该匿名人士称,在拥有大量算力资源的情况下,新的“Q*”模型能够解决某些数学问题。虽然目前“Q*”的数学能力只有小学生的水平的,但通过这些测试让研究人员对“Q*”未来的成功非常乐观。
路透社报道截图
路透社报道中称,人工智能研究人员都认为数学是生成式人工智能发展的前沿。目前,生成式人工智能通过统计预测下一个单词,能够在写作和语言翻译方面表现出强大的能力。然而,对数学这种有且只有一个正确答案的问题而言,人工智能若能正确回答,便意味着其拥有了更强的推理能力,类似于人类的能力。
例如,业内人士认为,一旦人工智能有了数学推理能力,便可以应用于新颖的科学研究当中。此外,与普通的人工智能只能解决有限数量运算的计算器不同,AGI可以概括知识,并不断学习和理解。
可以说,OpenAI在AGI领域的最新进展与阿尔特曼密不可分。在阿尔特曼的努力下,OpenAI已经将ChatGPT发展成为史上增长最快的应用之一,并从微软获得了超过100亿美元的投资和算力资源,以使ChatGPT接近AGI的高度。
“Q*”模型引发广泛担忧
据The Information,“Q*”模型背后的技术突破是由OpenAI首席科学家苏斯克维尔(Ilya Sutskever)牵头实施的,而“Q*”模型是OpenAI顶级研究人员雅各布·帕乔基(Jakub Pachocki)和西多尔(Szymon Sidor)在苏斯克维尔的技术成果上创立。
在过去的几个月里,OpenAI的高级研究人员还利用这一创新模型构建了可以解决基本数学问题的系统。
最近几周,该模型的演示在OpenAI内部开始流传。部分员工对此表示担忧,他们担心在商业化这种先进的人工智能模型的过程中,OpenAI没有适当的保护措施。其实,不光是OpenAI员工,这一模型的发展速度让一些关注人工智能安全的外部研究人员也感到震惊和担忧。
路透社援引的消息人士称,在给OpenAI董事会的信中,研究人员也指出了人工智能的潜在危险,但没有说明具体安全的问题。长期以来,计算机科学家一直在讨论高度智能机器带来的危险,例如它们是否会认为毁灭人类符合其利益。
在路透社的上述报道发布后,马斯克本人转发了该篇文章,并称“非常令人担忧!”
图片来源:X平台
The Information报道称,“Q*”模型取得突破后的几个月里,苏斯克维尔本人似乎对这项技术也持保留态度。今年7月,苏斯克维尔还组建了一个团队,致力于限制来自比人类聪明得多的人工智能系统的威胁。该团队在其网页上表示,“虽然超级智能现在看起来还很遥远,但我们相信它可能会在十年内到来。”
The Information援引知情人士称,苏斯克维尔的这项突破帮助OpenAI克服了在获取足够高质量数据来训练新模型方面的限制,这是开发下一代(生成式人工智能)模型的主要障碍。这项研究涉及使用计算机生成的数据,而非现实世界的数据。
其实,多年来,苏斯克维尔一直在研究如何让GPT-4这样的语言模型解决涉及推理的任务,比如数学或科学问题。2021年,他还启动了一个名为GPT-Zero的项目,向DeepMind的AlphaZero程序致敬,该程序可以下国际象棋和围棋等推理任务。GPT-Zero团队当时的假设认为,只要给予语言模型更多的时间和计算能力来生成问题的答案,就可能会让它们在学术上取得新的突破。
报道称,苏斯克维尔自身取得的突破以及他对人工智能安全的担忧或许能解释为何他参与了解雇阿尔特曼的行动。
值得注意的是,在阿尔特曼被解雇后,帕乔基和西多尔也提出了辞职,是第一批辞职的OpenAI资深员工。而在阿尔特曼复职后,二人也一同重返OpenAI。
每日经济新闻