robots.txt文件用法举例

2013-06-01 09:06:04 作者:eagle 来源:PHP114 浏览次数:0 网友评论 0

搜索引擎使用spider程序自动访问互联网上的网页并获取信息,spider在访问网站时,检查该网站的根域下是否有robots.txt纯文本文件,用于指定spider在您网站上的抓取范围。robots.txt用法举例如下...
robots.txt文件用法举例 

例1. 禁止所有搜索引擎访问网站的任何部分 
下载该robots.txt文件

User-agent: * 
Disallow: /

例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")

User-agent: *
Disallow: 
或者
User-agent: *
Allow: /

例3. 仅禁止Baiduspider访问您的网站

User-agent: Baiduspider
Disallow: /

例4. 仅允许Baiduspider访问您的网站

User-agent: Baiduspider
Disallow: 
User-agent: *
Disallow: /

例5. 禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例6. 允许访问特定目录中的部分url

User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例7. 使用"*"限制访问url
 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

User-agent: *
Disallow: /cgi-bin/*.htm

例8. 使用"$"限制访问url
 仅允许访问以".htm"为后缀的URL。

User-agent: *
Allow: .htm$
Disallow: /

例9. 禁止访问网站中所有的动态页面

User-agent: *
Disallow: /*?*

例10. 禁止Baiduspider抓取网站上所有图片
 仅允许抓取网页,禁止抓取任何图片。

User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$

例11. 仅允许Baiduspider抓取网页和.gif格式图片
 允许抓取网页和gif格式图片,不允许抓取其他格式图片

User-agent: Baiduspider
Allow: .gif$
Disallow: .jpg$
Disallow: .jpeg$ 
Disallow: .png$
Disallow: .bmp$

例12. 仅禁止Baiduspider抓取.jpg格式图片

User-agent: Baiduspider
Disallow: .jpg$
              
责任编辑:eagle



关键词:robots搜索引擎

最新图片文章

最新文章