有道关于robots.txt的解释

保定网络公司:保定网络公司 来源:http://litizi.cn 人气: keywords:
网站建设 网站制作 网站优化 网站推广

简介:怎么写robots.txt文件?robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。在文件的第一行写:User-Agent:YodaoBot这就告诉了爬虫下面的描述是针对名叫YodaoBot的爬虫。您还可以写:User-Agent:*这就意味着向所

怎么写robots.txt文件?
robots.txt是个很简单的文本文件,您只要标明“谁不能访问哪些链接”即可。
在文件的第一行写:
User-Agent: YodaoBot
这就告诉了爬虫下面的描述是针对名叫YodaoBot的爬虫。您还可以写:
User-Agent: *
这就意味着向所有的爬虫开放。需要注意的是一个robots.txt文件里只能有一个"User-Agent: *"。

接下来是不希望被访问的链接前缀。例如:
Disallow: /private
这就告诉爬虫不要抓取以"/private"开头的所有链接。包括/private.html,/private/some.html,/private/some/haha.html。如果您写成:
Disallow: /
则表明整个站点都不希望被访问。您也可以分多行来指定不希望被抓取的链接前缀,例如:
Disallow: /tmp
Disallow: /disallow
那么所有以"/tmp"和"/disallow"开头的链接都不会被访问了。

最后形成的robots.txt文件如下:
User-Agent: YodaoBot
Disallow: /tmp
Disallow: /private

请注意,如果您的robots.txt文件里有中文等非英语字符,请确定该文件是由UTF-8编码编写。


保定网络公司、清苑县网络公司、清苑县网站建设、高阳县网络公司、容城县网络公司、博野网络公司、白沟网站优化、白沟网络公司、唐县网络公司、蠡县网站建设、曲阳网站制作、易县网站制作、徐水网站推广、满城县网站制作、易县网络公司、保定高碑店网站设计、涞水网络公司、涞源县网站优化、雄县网站优化、涿州市网络公司、保定高碑店网站制作、安国市网站营销、安新网站设计、阜平网络公司、定州网络公司、顺平网站建设、望都县网站制作、定兴县网站推广、保定网站托管
专业从事保定网站建设/域名注册/虚拟主机/企业邮局/网站推广优化/维护一站式服务【0312-5975933】让你花少钱做好网站.客户满意度100%


上一篇:博客式建站过程漫谈
下一篇:推荐几本搜索引擎优化(SEO)入门书籍
保定网站建设