最新下载
热门教程
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
Robots.txt指南
时间:2008-01-11 编辑:简简单单 来源:一聚教程网
Robots.txt文件的格式:
Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:
1) 一个User-Agent(用户代理)字符串行;
2) 若干Disallow字符串行。
记录格式为:
下面我们分别对这两个域做进一步说明。
User-agent(用户代理):
User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot
一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的限制。当然了,如果要指定所有的robot,只需用一个通配符“*“就搞定了,即:User-agent: *
Disallow(拒绝访问声明):
在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目录。例如“Disallow: email.htm“对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而“Disallow: /cgi-bin/“则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如上例中“Disallow: /cgi-bin/“声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而“Disallow:/bob“则拒绝搜索引擎对/bob.html和/bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空,则说明该网站的所有部分都向搜索引擎开放。
空格 & 注释
在robots.txt文件中,凡以“#“开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题:
1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理解“Disallow: bob #comment“这样一条指令。有的Spiders就会误解为Disallow的是“bob#comment“。最好的办法是使注解自成一行。
-
上一个: 让成百上千次重复的网页修改动作一次完成
-
下一个: 写给新人 Google的排名知识
相关文章
- SEO标题优化新步法 06-06
- seo优化主要包括哪几个方面 05-25
- 搜索营销中如何正确选取关键词 05-17
- 百度账号实名制对SEO有没有影响 05-17
- 淘宝客玩法和手段有哪些 05-17
- 最新百度SEO排名技术解密 05-17