搜索引擎是通过链接而不断的抓取和发现各个互联网上的网站,而robots.txt文件就是各大搜索引擎遵循的Robots 协议,搜索引擎在访问抓取一个网站的时候会优先获取该网站的 robots.txt 文件,获得网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取的规则。
理论上说如果网站上没有禁止搜索引擎收录的内容,也就是说整个网站的所有目录或者链接都是允许所有搜索引擎任意抓取,则可以不用设置 robots.txt 文件,或设置为空。
从 SEO 的角度,robots.txt 文件是一定要设置的,子凡觉得一定要说明的就是,网站一定不要省略网站根目录的 robots.txt,即使允许所有搜索引擎任意抓取,那么也应该设置 robots.txt 内容为空,或者使用以下 robot 协议,否则搜索引擎在抓取 robots.txt 文件的时候将会出现 404,也就是文件不存在,是不利于搜索引擎的。
1 2 | User-agent: * Allow: * |
robots.txt 相关文章推荐:
- robots.txt 文件使用的格式及注意
- 巧用 robots 文件避免搜索引擎蜘蛛黑洞
- 网站 SEO 诊断之 robots.txt 文件配置误区及详细写法
- 为 WordPress 设置最佳的 Robots.txt 规则
除非注明,否则均为泪雪博客原创文章,转载请以链接形式标明本文地址
发表评论