维基百科近期发布了新的内容政策指南,明确禁止使用 AI 生成或改写百科条目。不过政策也保留了两个例外情况:编辑校对和翻译辅助。值得注意的是,官方承认仅凭文风无法准确识别 AI 生成的内容。
为什么维基百科要禁止 AI 生成内容?
新政策指出,使用大语言模型(LLM)生成内容违反了维基百科的多项核心政策。虽然政策文件并未具体列举这些规定,但通过分析不难发现,主要涉及三个方面:内容可验证性、禁止原创研究,以及中立观点原则。
在可验证性方面,维基百科要求所有可能受到质疑的内容都必须引用可靠的已发表来源,且其他编辑可以查证这些来源的可靠性。然而,AI 语言模型生成的内容往往缺乏明确的引用,而且容易产生”幻觉”,编造不存在的事实。
维基百科的内容政策核心是什么?
维基百科明确规定:”本站不发布原创观点:所有内容必须来自可靠的已发表来源。条目不得包含任何对已发表材料的新分析或综合,也不能推进资料来源未明确支持的观点。”
AI 语言模型的工作原理恰恰是基于已发表资料进行综合和分析。更重要的是,在中立性方面,AI 可能会过分强调主流观点,而忽视少数群体的声音。这一点在 SEO 领域特别明显 —— 当我们向 AI 询问 SEO 相关问题时,它往往会输出主流观点,而这些观点未必是最准确的。
如何识别 AI 生成内容?
对于如何识别 AI 生成的内容,维基百科的新指南建议从两个角度入手:一是检查内容是否符合核心内容政策,二是审查可疑编辑者近期的编辑历史。不过,目前还没有更具体的识别标准。

TopsTip