Google更新robots.txt文档及深层链接规则,欧盟介入影响SEO**

**

欢迎来到本周的SEO脉搏:我们将探讨Google在深层链接、robots.txt解析及搜索代理功能上的变化,以及欧盟对AI聊天机器人的数据共享规则的影响。



Google发布“阅读更多”深层链接优化建议

Google更新了其片段文档,新增了关于搜索结果中“阅读更多”深层链接的部分。文档中列出了三条最佳实践,提升这些链接出现的可能性。

关键要点包括:内容必须在页面加载时立即对用户可见,隐藏在可展开部分或标签界面后的内容会降低链接出现的概率。各部分应使用H2或H3标题。片段文本需与页面上显示的内容匹配,滚动或交互后加载的内容可能进一步减少出现可能性。

这些建议是Google首次针对该功能发布的具体指导。使用可展开的FAQ部分、标签产品详情区域或滚动触发内容的网站,其片段中的深层链接可能比那些在页面加载时就渲染相同内容的网站更少。

Slobodan Manić,No Hacks的创始人,在LinkedIn上指出:“文档围绕一种片段行为(搜索结果中的阅读更多深层链接)进行框架设计,但Google选择的语言更像是一种通用偏好。‘对用户立即可见的内容’是结构性指令,而不是特定的阅读更多提示。”

Google可能扩展robots.txt不支持规则列表

Google可能会根据通过HTTP Archive收集的实际数据分析,增加其robots.txt文档中的规则。Gary Illyes和Martin Splitt在最新的Search Off the Record播客中描述了该项目。

关键点:Google团队分析了HTTP Archive索引的数百万个URL中最常见的不支持规则。Illyes表示,团队计划记录除user-agent、allow、disallow和sitemap之外最常用的10到15个不支持规则。他还提到解析器可能会扩展其接受的disallow拼写错误,但未承诺时间或具体拼写错误。

如果Google记录更多不支持的指令,使用自定义或第三方规则的网站将更清楚地知道Google忽略哪些内容。维护robots.txt文件的任何人都应该审查超出user-agent、allow、disallow和sitemap的指令,确保它们对Google有效。HTTP Archive的数据在BigQuery上公开可查询,因此任何想要检查的人都可以使用Google使用的相同数据分布。

-=||=-收藏赞 (0)
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《Google更新robots.txt文档及深层链接规则,欧盟介入影响SEO**》
文章链接:https://topstip.com/google-updates-robots-txt-and-deep-link-rules-seo/
转载说明:请注明来自“TopsTip”并加入转载内容页的超链接。
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。