「SEO」Robots.txt文件进阶使用方法!
本文章由SEO优化指导用户上传提供
关于Robots.txt在网站SEO优化中所发挥的作用和重要性,我们不再一一阐述了,SEO今天主要来和大家聊一聊它的高级用法,也可以叫做进阶使用方法吧。
「SEO」Robots.txt文件进阶使用方法
robots.txt文件高级应用robots.txt使用要点总结
在介绍进阶使用方法之前,我们先来回顾一下robots.txt的使用要点:
1)文件名必须为小写。不能是RoBotS.TXT。
2)每个域名(不管是不是子域名)都只能有一个robots.txt文件,放置于网站根目录。yourname.com的robots.txt对abc.yourname.com没有约束。
3)每种协议都可以有一个robots.txt。如和https://yourname.com可以分别有一个robots.txt。
4)每个端口可以有一个robots.txt。如和:8080可以分别有一个robots.txt。
5)user-agent的名称以及user-agent,allow,disallow,crawl-delay,sitemap这些指示符的大小写不敏感。
6)robots.txt所包含的URL为大小写敏感。分清大小写才能有效排除索引。
7)allow和disallow的URL必须是不包括协议、域名、端口的路径。disallow: 就错了。改为disallow: /abc.htm
8)sitemap必须包括从http或https开始的完整的URL。
9)robots.txt不是死链提交工具,想要删除死链索引还是应该登陆各搜索引擎站长平台提交。
10)robots.txt只做减法,有没有这个文件的区别即是去不去做这个排除。删除robots.txt意味着完全开放爬虫漫游。
11)robots.txt只防君子不防小人。历史上发生过多次违反robots.txt的事件。网站要把机密信息放到登陆后。
12)要想严格不让搜索引擎索引还是推荐用noindex标签。但是百度并不支持。
13)crawl-delay并不被谷歌和百度支持,Yandex和Bing则支持。Yandex还支持host指示符来表示偏好的域名。
14)符号#用于注释。后面的内容会被忽略。
robots.txt指令中看不见的通配符*
这里要说的是通配符*。它代表任意长度的任意字符。请注意每一行allow,disallow之后都有一个看不见的*。
也就是说如果你写了disallow: /seo/,那么下面的内容就会影响到所有以/seo/开头的URL,比如:
但是也有例外的情况,那就是allow和disallow之后没有任何赋值的情况。比如下面这种写法:
User-agent: * Disallow: /cyberworld/map/ # This is an infinite virtual URL space
# Cybermapper 可以访问任意页面
User-agent: cybermapper Disallow:合并多个User-Agent
如果你有多个讨厌的机器人在抓取你的网页消耗你的资源,那你可能会通过disallow屏蔽他们(当然要他们是君子的前提下)。你可以通过user-agent一次性把他们屏蔽。
User-agent: bad-bot-a User-agent: bad-bot-b Disallow: /
这种写法在当你有多个user-agent,每个虽然都比较复杂但是都一样的情况下显得很有用。
User-agent: bad-bot-a User-agent: bad-bot-b Disallow: /XXX
这样你就可以让robots.txt变得简洁。
为不同的搜索引擎订制不同的Sitemap
如果我们想让某些搜索引擎只访问特定的sitemap,这种情况下该如何处理呢?除了在站长平台提交网站地图,我们还可以在robots.txt内实现。别忘了sitemap文件也是一个资源,我们一样可以用disallow去屏蔽掉。假定我们给百度的网站地图是sitemap-bd.xml文件,其他搜索引擎的地图文件是sitemap.xml,我们可以通过下面的方式来实现:
User-agent: * Disallow: /sitemap-bd.xml User-agent: baiduspider Disallow: /sitemap.xml Sitemap: Sitemap:
这样一来站点就有专门针对百度可见的地图文件了,而其他搜索引擎抓取的是另外一个网站地图文件。
Sitemap太大了该怎么办?
我们知道,一般来说搜索引擎对站点地图的大小和所包含的URL的数量都有所限制。比如百度对单个sitemap文件的限制是五万条URL和10MB的文件大小。在这种情况下,你可以在robots.txt中给出多个sitemap文件的URL。除了这种分拆方式,你还可以使用sitemap索引文件,比如下面这个例子。
「SEO」Robots.txt文件进阶使用方法
多个站点地图制作索引压缩例子
其他主流的搜索引擎也认这个索引格式。
那么问题来了,即便是这样,文件多且大,传输会变得非常没有效率。为了解决这个问题我们可以对站点地图进行GZIP压缩。像7-zip这样的压缩工具都可以对文件压缩。需要注意的是在压缩前你的单个站点地图文件仍然必须小于10MB并且包含URL数量小于五万条。
除非注明,否则均为SEO优化顾问服务_零基础SEO优化指导全网营销【顺的推SEO】真实故事改编,转载必须以链接形式标明本文链接。