您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息

robot.txt_html/css_WEB-ITnose

2024/4/17 5:05:19发布9次查看
在国内,网站管理者似乎对robots.txt并没有引起多大重视,可是一些功能离开它又不能是,因此今天石家庄seo想通过这篇文章来简单谈一下robots.txt的写作。?的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,
robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.shijiazhuangseo.com.cn/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# robots.txt file from http://www.shijiazhuangseo.com.cn
# all robots will spider the domain
user-agent: *
disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.shijiazhuangseo.com..cn站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;user-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;disallow:后面为不允许访问的文件目录。
下面,我将列举一些robots.txt的具体用法:
允许所有的robot访问
user-agent: *
disallow:
或者也可以建一个空文件 /robots.txt file
禁止所有搜索引擎访问网站的任何部分
user-agent: *
disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
user-agent: *
disallow: /01/
disallow: /02/
disallow: /03/
禁止某个搜索引擎的访问(下例中的badbot)
user-agent: badbot
disallow: /
只允许某个搜索引擎的访问(下例中的crawler)
user-agent: crawler
disallow:
user-agent: *
disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
robots meta标签则主要是针对一个个具体的页面。和其他的meta标签(如使用的语言、页面的描述、关键词等)一样,robots meta标签也是放在页面的<head></head>中,专门用来告诉搜索引擎robots如何抓取该页的内容。
robots meta标签的写法:
robots meta标签中没有大小写之分,name=”robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”baiduspider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
index 指令告诉搜索机器人抓取该页面;
follow 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
robots meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index,nofollow。
这样,一共有四种组合:
<meta name=robots content=index,follow>
<meta name=robots content=noindex,follow>
<meta name=robots content=index,nofollow>
<meta name=robots content=noindex,nofollow>
其中
<meta name=robots content=index,follow>可以写成<meta name=robots content=all>;
<meta name=robots content=noindex,nofollow>可以写成<meta name=robots content=none>
目 前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于robots meta标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎google就完全支持,而且google还增加了一个指令“archive”,可以 限制google是否保留网页快照。例如:
<meta name=googlebot content=index,follow,noarchive>
表示抓取该站点中页面并沿着页面中链接抓取,但是不在goolge上保留该页面的网页快照。
以上就是石家庄seo对robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.shijiazhuangseo.com.cn/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# robots.txt file from http://www.shijiazhuangseo.com.cn# all robots will spider the domain
user-agent: *
disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.shijiazhuangseo.com.cn站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;user-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;disallow:后面为不允许访问的文件目录。
下面,我将列举一些robots.txt的具体用法:
允许所有的robot访问
user-agent: *
disallow:
或者也可以建一个空文件 /robots.txt file
禁止所有搜索引擎访问网站的任何部分
user-agent: *
disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
user-agent: *
disallow: /01/
disallow: /02/
disallow: /03/
禁止某个搜索引擎的访问(下例中的badbot)
user-agent: badbot
disallow: /
只允许某个搜索引擎的访问(下例中的crawler)
user-agent: crawler
disallow:
user-agent: *
disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
robots meta标签则主要是针对一个个具体的页面。和其他的meta标签(如使用的语言、页面的描述、关键词等)一样,robots meta标签也是放在页面的<head></head>中,专门用来告诉搜索引擎robots如何抓取该页的内容。
robots meta标签的写法:
robots meta标签中没有大小写之分,name=”robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”baiduspider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
index 指令告诉搜索机器人抓取该页面;
follow 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
robots meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index,nofollow。
这样,一共有四种组合:
<meta name=robots content=index,follow>
<meta name=robots content=noindex,follow>
<meta name=robots content=index,nofollow>
<meta name=robots content=noindex,nofollow>
其中
<meta name=robots content=index,follow>可以写成<meta name=robots content=all>;
<meta name=robots content=noindex,nofollow>可以写成<meta name=robots content=none>
目 前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于robots meta标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎google就完全支持,而且google还增加了一个指令“archive”,可以 限制google是否保留网页快照。例如:
<meta name=googlebot content=index,follow,noarchive>
表示抓取该站点中页面并沿着页面中链接抓取,但是不在goolge上保留该页面的网页快照。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录