在人工智能领域引起广泛关注的OpenAI前联合创始人兼首席科学家Ilya Sutskever近日宣布了创业新动向,他正式创办了名为“安全超级智能”(Safe Superintelligence,简称SSI)的新公司。这家新兴企业的核心目标是研发一种“纯粹的”安全超级智能,旨在推进人工智能技术的安全、可靠和可持续发展。
Sutskever在官方声明中表示,SSI将专注于单一业务,即开发安全的超级智能,这是一种超越人类认知能力的机器智能。公司计划通过一个小型破解团队来实现这一目标,寻求在AI安全领域取得“革命性”的突破。SSI自称是“世界上第一个”直击SSI的实验室,这标志着人工智能安全领域的一个重要里程碑。
SSI的创始团队包括Ilya Sutskever、OpenAI前员工Daniel Levy以及AI投资人和企业家Daniel Gross。其中,Daniel Gross拥有丰富的AI领域投资经验,持有GitHub、Instacart等公司以及Perplexity.ai、Character.ai等AI公司的股份。他们的加入为SSI带来了丰富的资源和深厚的行业背景。
Ilya Sutskever是世界顶级的AI研究人员之一,对OpenAI在生成式AI领域的领先地位做出了巨大贡献。然而,他在OpenAI的内部纷争中扮演了关键角色,去年11月曾推动罢免首席执行官Sam Altman,但随后又将他请回。今年5月15日,Sutskever宣布离开工作了10年的OpenAI,但他对OpenAI的未来发展仍持乐观态度,并相信该公司将在Sam Altman等人的领导下打造出既安全又有益的AGI通用人工智能。
SSI的成立标志着人工智能安全领域的一个新起点。随着人工智能技术的不断发展和应用,如何确保AI系统的安全性和可靠性成为了亟待解决的问题。SSI将致力于开发安全的超级智能,为人工智能技术的可持续发展做出贡献。
业内专家对SSI的成立表示了关注和期待。他们认为,SSI的专注于单一业务模式和强大的创始团队将为公司在AI安全领域取得突破提供有力保障。同时,SSI的成立也将进一步推动人工智能技术的创新和发展,为人类社会带来更多福祉。