如何写robots.txt 文件?

王朝other·作者佚名  2006-11-24
宽屏版  字体: |||超大  

robots.txt文件是放在网站的根目录下,作用是告诉搜索引擎网站的哪些文件,哪些目录可以被索引,哪些不要索引。因此,这个文件是相当的重要,正确书写好robots.txt文件,可以保证你的网页被搜索引擎正确地索引、收录。

书写robots.txt文件时,要使用纯文本的编辑器,使文件是纯文本的格式。robots.txt文件的结构还是比较简单的。它是由一行一行的纪录组成,每行由两个部份组成:

<Field> : <value>

<Field> 有两种,一个是User-agent,一个是Disallow

User-agent代表搜索引擎的名字,比如:

User-agent:googlebot

User-agent:Baiduspider

也可以用通配符*来代表任何的搜索引擎,即User-agent:*

Disallow代表要限制的文件或目录,比如:

Disallow:error.html

Disallow:/cgi-bin/

Disallow支持通配符,Disallow:/eagle 代表/eagle.html或/eagle/index.html都将被屏蔽。

一些例子如下:

允许所有的搜索引擎索引所有的文件

User-agent: *

Disallow:

不允许任何的搜索引擎索引任何文件

User-agent: *

Disallow: /

允许任何的搜索引擎,但禁止索引/cgi-bin/和/images/目录

User-agent: *

Disallow: /cgi-bin/

Disallow: /images/

禁止Google索引所有的文件

User-agent: googlebot

Disallow: /

可以直接察看网站的robots.txt文件,看看别人是如何写的。

百度的robots.txt

User-agent: Baiduspider

Disallow: /baidu

User-agent: *

Disallow: /shifen/dqzd.html

Google的robots.txt可就长的多了。

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
© 2005- 王朝网络 版权所有