OpenAI 的前首席科学家,在离职一个月后创办了一家名为 Safe Superintelligence Inc. (简称 SSI ) 的 AI 科技公司。Sutskever 曾长期担任 OpenAI 的首席科学家,他与前 Y Combinator 合伙人丹尼尔·格罗斯 (Daniel Gross) 和前 OpenAI 工程师丹尼尔·利维 (Daniel Levy) 共同创立了 SSI。
Sutskever 离开 OpenAI 的理由是与管理层因为人工智能安全问题产生了重大分歧,进而在 5 月份离开了 OpenAI。在 2023 年 Sutskever 与 Leike 共同预测,人工智能 (AI) 最终将超越人类,而人工智能 (AI) 对于人类而言未必是友善的,可能会做出伤害人类的事情,因此需要研究控制和限制它的方法。
从 Sutskever 新成立的这家公司的名字就可以看出,它将倡导可以控制和加以限制的 人工智能 (AI) 发展方向。
其目前的初衷是如此,但真正发展下去具体会走向何方,还需要长期的观察。因为 OpenAI 成立之初的使命是开放且不盈利,而现在它真朝着封闭和盈利方向在前进。
-=||=-收藏赞 (1)
评论前必须登录!
立即登录 注册