据 Fortune 报道,AI 公司 Anthropic 近日因配置错误意外泄露了一款尚未发布的超级 AI 模型信息。这款代号为”Capybara”(水豚)的新模型将以”Claude Mythos”之名问世,它将成为 Anthropic 产品线中位于 Opus 之上的全新第四级产品。
泄露的内部文档显示,Mythos 在多个关键领域的表现都大幅超越了目前最强的 Claude Opus 4.6。特别是在软件编程、学术推理和网络安全等测试中,该模型展现出了惊人的能力提升。Anthropic 发言人已向媒体确认了该模型的存在,称其代表着一次”阶梯式跨越”。
强大能力引发安全担忧
值得关注的是,Mythos 在网络安全领域展现出的能力令人既惊叹又担忧。根据泄露的文档,Anthropic 用”远超任何其他 AI 模型”来形容其在该领域的表现,同时警告这可能预示着一波 AI 驱动的网络攻击浪潮即将来临,且攻击速度可能会远超防守方的应对能力。
正是考虑到这些潜在风险,Anthropic 采取了一种非常谨慎的发布策略。公司计划首先向网络安全防御机构开放早期访问权限,确保防守方能够提前做好准备,而不是直接向公众开放使用。此外,由于模型的运行成本极其高昂,在效率得到显著优化之前,Anthropic 也不会考虑广泛发布。
这次信息泄露本身也引发了广泛关注。Anthropic 表示,泄露是由于”外部 CMS 工具的人为配置错误”导致的,与 Claude 或其 AI 编码工具无关。有趣的是,在同批泄露的文档中,还包含了一场计划在英国乡村某座 18 世纪庄园酒店举办的闭门 CEO 峰会细节,这显然是 Anthropic 为开拓大型企业客户市场而策划的高端商务活动。
从目前的情况来看,Mythos 的出现可能会在 AI 行业掀起新一轮军备竞赛。它不仅展示了 AI 技术突飞猛进的发展速度,也凸显出在追求技术进步的同时,如何确保 AI 安全已成为行业面临的重大挑战。Anthropic 的谨慎态度或许值得业界借鉴,在追求突破的同时,也要充分考虑可能带来的风险和影响。

TopsTip






