在你的市场中询问ChatGPT或Claude推荐产品。如果你的品牌没有被提到,那就说明你面临一个仅靠关键词优化无法解决的问题。
营销人员常忽视的研究
大多数SEO专业人士在遇到这种情况时,首先想到的是内容:更多的页面、更多的关键词、更好的页面信号。然而,你的品牌在AI推荐中缺席的原因可能与页面或关键词无关,而是与一种被称为关系知识的概念有关。这一概念源于2019年一项大多数营销人员未曾听说过的研究。
2019年9月,Facebook AI Research和伦敦大学学院的Fabio Petroni及其同事在自然语言处理的顶级会议EMNLP上发表了题为“Language Models as Knowledge Bases?”的论文。他们的研究问题简单明了:像BERT这样的预训练语言模型是否会在其权重中存储事实性知识?
什么是“关系知识”
为了测试这一点,他们构建了一个名为LAMA(语言模型分析)的探测器。他们从Wikidata、ConceptNet和SQuAD中提取了数千个已知事实,并将每个事实转换为填空题。然后,他们让BERT预测缺失的词。
BERT在没有任何微调的情况下,能够以与专门构建的知识库相当的水平回忆事实性知识。这一发现促使研究界开始认真对待语言模型作为知识存储的想法,而不仅仅是模式匹配引擎。
1对1关系:一个主体,一个客体
Petroni测试了他和其他人称之为关系知识的概念:以主体、关系和客体三元组表达的事实。例如:(但丁,[出生于],佛罗伦萨)。
对于品牌可见性(和AIO)来说,Petroni的团队发现模型回忆一个事实的能力在很大程度上取决于关系结构的类型。他们识别出了三种类型,并且它们之间的准确性差异很大。
N对1关系:多个主体,一个客体
这些是不含糊的事实。“日本的首都是___。”答案只有一个:东京。每次模型在训练数据中遇到日本和首都时,相同的客体都会出现。BERT在这种情况下的正确率为74.5%,对于一个从未明确训练过回答事实性问题的模型来说,这已经很高了。
在N对1关系中,许多不同的主体共享同一个客体。“毛里求斯的官方语言是___。”答案是英语,但英语也是其他几十个国家的答案。模型多次见过这种模式(国家→官方语言→英语),所以它对答案的形式很熟悉。但有时它会默认为最常见的客体,而不是特定主体的正确答案。准确率下降到约34%。
什么对品牌在AI搜索中的意义
了解AI如何处理关系知识,对于品牌在AI推荐中的可见性至关重要。确保你的品牌在AI训练的数据中与相关主题和概念有紧密的关联,可以提高被推荐的几率。
在AI搜索中,与其简单地增加内容,不如关注如何在相关主题上建立强大的存在感。品牌需要确保在AI模型训练的数据中,与你的品牌相关的所有重要关系都能清晰地建立。

TopsTip