服务热线
1888888888
作者:文煞发布时间:2023-06-02分类:站长笔记浏览:689
可能很多站长在使用https时,会发现百度站长平台无法正确检测到他们网站的robots.txt文件。但是,这个问题的解决方法众多。从去年悦悦在百度站长论坛发表的方法至今,仍然十分有效。
那么,对于一些小白,也许他们并不了解什么是robots。简单地说,robots是一种搜索引擎通用协议,可告诉爬虫哪些内容可以被抓取,哪些内容不可以。如果你没有设置robots.txt,搜索引擎可能会收录你的后台,甚至你的网站内容。根据百度建议,将robots.txt文件放在网站根目录即可。可以使用免费的工具生成它,即可轻松设置。
可以使用站长网的robots.txt生成工具:
但是,如果你使用https,百度站长平台检测robots.txt的功能可能会出错。那么,如何解决呢?首先打开百度站长平台ziyuan.baidu.com/https/index,登录自己的统计网站,找到检测抓取robots.txt的选项。如果没有错误,你将不会收到任何提示。另外,百度统计还是一款非常实用的统计工具,不仅可以实时统计百度的搜索收录,即使百度站长不稳定,百度统计依然能够保持稳定的运行。
https认证
HTTPS认证通过以后,百度蜘蛛就只会收录https协议头的网址。如果你还有其他问题或不懂的地方,可以联系悦悦,他将会为你详细解释如何正确设置。
分享:
支付宝
微信