5月15日-17日,OpenAI 超对齐团队核心成员如多米诺骨牌般接连离职,包括 OpenAI 联合创始人、首席科学家伊利亚·苏茨克维尔( llya Sutskever ),以及该团队的负责人简·雷克( Jan Leike )在内的核心人员,Leike 在离职时批评 OpenAI 过于追求产品的外在光鲜而忽视了安全,并指出超级对齐团队在计算资源上捉襟见肘,完成关键研究变得愈发困难。OpenAI 也被外界称已经弃 AI 安全于不顾。
但就在刚刚,OpenAI 在官网上更新其安全团队的最新进展。
▲ OpenAI 官宣成立新安全委员会截图 原文链接点这里
消息一:新的安全委员会成立了
5月29日消息, Open AI 于当地时间5月28日在官网宣布,Open AI 董事会宣布成立安全与保障委员会,该委员会由董事长 Bret Taylor 和其他董事会成员 Adam D’Angelo 、 Nicole Seligman及 CEO Sam Altman 领导。此外,OpenAI 还将聘请并咨询其他安全、安保和技术专家,包括前网络安全官员 Rob Joyce 和 John Carlin,以支持这项工作。
OpenAI 表示,委员会将负责向董事会提出关于 OpenAI 项目和运营的关键安全与安全决策的建议,并计划在 90 天内完成初步建议。
这一举措可能是为了弥补之前安全团队离职的空缺,悬崖勒马。但 OpenAI 依旧选择由公司内部成员,包括 CEO Sam Altaman,而不是外部观察员来成立这个专门的安全委员会,你怎么看?
消息二:下一代前沿模型要来了
其实安全委员会并非 OpenAI 要说明的重点,重中之重,也就是成立安全委员会是因为 OpenAI 最近开始训练其下一代前沿模型,“预计这些系统将使我们在通往人工通用智能(AGI)的道路上迈向新的能力水平”。有媒体猜测,这个模型可能是 GPT-5 ,预计将刷新大型语言模型的性能标准。
▲Sam Altaman 推特发布内容
继 GPT-4o 模型发布后,OpenAI 继续推进技术进步,尽管 CEO Sam Altaman 曾辟谣称新模型不是 GPT-5 ,但毋庸置疑的是,新模型会在准确性、多模态性和自主行动能力方面取得显著进展,支持丰富的多模态输入输出,包括视频处理,以及通过人工通用智能技术真正理解用户需求、高效完成用户指令。
评论前必须登录!
立即登录 注册