维基百科近期发布了新的内容指南,明确禁止使用人工智能(AI)生成或改写文章。不过该指南也设置了两个例外情况:编辑和翻译工作中可以适当使用 AI 辅助。值得注意的是,指南承认仅凭文章风格很难识别 AI 生成的内容。
为什么维基百科要禁止 AI 生成内容?
根据维基百科的解释,使用大语言模型(LLM)生成内容违反了其多项核心内容政策。虽然指南中没有具体列举这些政策,但通过分析不难发现,主要涉及以下几个方面:
首先是”可验证性”原则。维基百科要求,所有可能受到质疑的内容必须来源于可靠的已发表资料,且其他编辑可以查证这些来源的可靠性。而 AI 生成的内容往往不会明确引用来源,更严重的是可能会产生”幻觉”,编造出并不存在的事实。
其次是”禁止原创研究”原则。维基百科明确规定:”我们不发表原创观点,所有内容都必须可以追溯到可靠的已发表资料。文章不得包含任何对已发表材料的新分析或综合,也不能推进资料本身未明确提出的观点。”
AI 生成内容的局限性
AI 模型在生成内容时存在明显的局限性。它们会基于已发表的资料进行综合,但这种综合可能会过分强调主流观点,而忽视少数派的声音。这一点在 SEO 领域特别明显 —— 当我们向 AI 询问 SEO 相关问题时,往往得到的是主流观点,而不一定是最准确的答案。
如何识别 AI 生成内容?
对于如何识别 AI 生成的内容,维基百科的新指南提供了两个建议:一是检查内容是否符合核心内容政策,二是审查可疑编辑者最近的编辑历史。不过,指南也承认这种识别工作具有一定的挑战性。

TopsTip