首页 > 其他 > 详细

robots.txt

时间:2017-02-24 10:48:07      阅读:207      评论:0      收藏:0      [点我收藏+]

什么是robots文件
      robots是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

禁止所有搜索引擎访问网站的任何部分(测试时使用)

User-agent: *

Disallow: /

 

允许所有的robot访问(上线后使用)

User-agent: *

Allow: /

 

禁止sprider访问特定目录(上线后使用)

User-agent: *

Disallow: /admin/

 

User-agent: *
Allow: /

Disallow: /admin/

Sitemap: http://www.creadeal.com/sitemap.xml

Sitemap: http://www.creadeal.com/sitemap.txt

 

robots.txt

原文:http://www.cnblogs.com/hunchun/p/6437427.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!