Page 1 of 1

5. 让我们修复损坏的链接

Posted: Tue Dec 24, 2024 5:14 am
by arafathossain
我们的目标是建立一个易于浏览的树,这也使我们能够轻松了解页面的优先级和重要性。

我们避免不必要的嵌套,我们不隐藏叶页面,但我们为所有页面提供正确的可见性。
我们避免孤立页面,我们的目标是建立一个良好的内部链接网络,允许每个页面有多个传入的内部链接。
我们不要过多增加页面的深度,让我们限制自己通过“著名的 3 次点击”来到达内容。

网站的桅杆
3.优化robots.txt
我们设置规则来节省抓取预算,避免让他 墨西哥 whatsapp 号码数据 们在无用的页面(重复、无用的参数页面、CMS 创建的页面等)上浪费时间。
为了优化 robots.txt,我们使用头部,没有自动的,但我们根据对树的深入分析来规定规则。


4.内部链接
我们确保我们的内容中始终存在更多信息、网站其他页面、图像、资源,最重要的是我们的目标页面的内部链接。
我们创建一个链接“网络”,可以真正为该特定链接页面带来价值。我也不会在这里推荐任何自动的东西。


404 错误不会像他们常说的那样产生惩罚,但实际上它们浪费了Crawl Budget。如果我们执行大规模 URL 更新,更改路径本身,我们不仅需要设置各种301 重定向,还需要更新源代码中的链接。在状态代码 200 中得到答案总是更好。通过使用 或任何其他模拟爬虫进行检查,我们可以检查所有 4xx 状态代码并更正它们!