欢迎光临 - 我的站长站,本站所有资源仅供学习与参考,禁止用于商业用途或从事违法行为!

网站优化

网站SEO优化Robots写法

网站优化 我的站长站 2017-06-05 共424人阅读

Robots协议是我们的网站与各搜索引擎的一个协议,如果你还不知道robots协议的重要性,那么本片文章你必须认真学习了,因为robots协议对一个网站来说十分重要。那么接下来大家一起来学习什么是robots.txt。

网站<a href=https://www.wdzzz.com/tags/SEO/ target=_blank class=infotextkey>SEO</a>优化Robots写法

一、什么是robots.txt文件

1、它是我们的网站与各搜索引擎的一个协议,只是一个协议,搜索引擎不一定会遵守。

2、搜索引擎蜘蛛访问我们的网站时,第一个查看的文件就是我们网站根目录下的一个命名为robots.txt的文件。

3、robots协议不是今天写了,搜索引擎今天就会遵守,以百度为例其生效时间,需要两个月后才会遵守这个协议;

二、robots.txt文件编写规则

1、User-agent: 定义搜索引擎类型,常见的各搜索引擎的名字分别是:Baiduspider(百度蜘蛛)、Googlebot(谷歌蜘蛛)、360Spider(360蜘蛛)、Sosospider(SOSO蜘蛛)、Youdaobot(有道蜘蛛)等。小付SEO博客robots.txt文件第一行写的是User-agent: *,其中“*”是通配符,代表小付的SEO博客,允许所以的搜索引擎抓取。如果写成User-agent: Baiduspider,表示只有百度蜘蛛可以抓取我的网站内容。

2、Disallow:告诉蜘蛛不要抓取某些文件或目录,以小付博客的robots.txt文件为例:

Disallow: /wp-admin/,表示所有 URL路径里完全含有/wp-admin/这段字符的路径,搜索引擎蜘蛛都不能抓取;比如:http://www.ncsseo.com/wp-admin/post-new.php,这个链接搜索引擎蜘蛛是不能抓取的;

3、Allow:告诉搜索引擎蜘蛛哪些文件是可以抓取的。由于不指定就是允许抓取的,Allow:单独写没有意义,Allow是需要和Disallow配合使用,可以告诉搜索引擎蜘蛛某个目录下大部分不允许抓取,只允许抓取一部分。例如:下面的代码将使蜘蛛不抓取/ab/目录下其他目录和文件,但是允许抓取其中/cd/目录下的内容:

User-agent: *

Disallow: /ab/

Allow: /ab/cd/

还需要说明的是,注意撰写的先后顺序,必须是这样。 4、其他符合含义说明: 1)”*”通配符:告诉蜘蛛匹配任意一段字符,例如:下面一段代码将禁止蜘蛛抓取所有htm文件:

User-agent: *

Disallow: /*.htm

2)”$”通配符:匹配URL结尾的字符。例如:下面的代码将允许蜘蛛抓取以.htm为后缀的URL:

User-agent: *

Allow: .htm$

下面的代码将禁止百度抓取所有.jpg文件:

User-agent: Baiduspider

Disallow: .jpg$

三、robots.txt的作用

1、告诉某搜索引擎 抓取或者不抓取我们网站的某些内容;

2、告诉搜索引擎我们网站优化的完善程度 ;

3、告诉搜索引擎应该通过哪个文件来索引我们的网站(逻辑路径)

四、常见的哪些情况下是不需要蜘蛛抓取

1、网站的账户密码、模板、网站的主程序、小图标;

2、一个页面有很多路径,只允许搜索页抓取其中的1条,其他的不允许(统一路径);

3、屏蔽tag中文路径,例如wordpress做了伪静态,就要屏蔽动态(tags.php?/%E%R)

4、标签链接、搜索页、js文件;

五、robots.txt文件编写的注意事项

1、注意符号细节的使用:/、:、大小写、空格等。比如:下面的例子表示所有搜索引擎不能抓取该网站;

User-agent: *

Disallow: /

2、一般robots.txt文件编写并提交后,需要几天到两个月以内才会生效;

3、不要随意屏蔽整站,会导致搜索引擎蜘蛛很久都不会来抓取你的网站;

4、所有的语句必须每个一行;不能这样写:

User-agent: *

Disallow: /wp-admin/ /wp-content/ /wp-includes/

正确写法参考小付的robots.txt文件;

5、我们可以把网站地图URL放在robots.txt文件里,因为该文件是蜘蛛第一个抓取的文件,这样更 加方便蜘蛛快速抓取;以小付博客为例,讲一下URL写入该文件,如上图所示;

相关推荐
  • Robots
  • 谷歌SEO
  • robots.txt怎么设置不暴露敏感文件路径

    robots是网站跟爬虫间的协议文件,robots.txt可以用来告诉对应的爬虫被允许的权限,是搜索引擎中访问网站的时候第一个要查看的文件。robots.txt文件也可以用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取...

    经验分享 1132 5年前
  • 帝国CMS-robots.txt文件使用教程

    在说帝国CMS-robots.txt文件使用前先给大家解释下robots.tx是干什么的。 robots协议(也称为爬虫协议、爬虫规则、机器人协议等)也就

    帝国cms教程 669 10年前
  • 网站SEO优化Robots写法

    robots协议是我们的网站与各搜索引擎的一个协议,如果你还不知道robots协议的重要性,那么本片文章你必须认真学习了,因为robots协议对一个网站来说十分重要。那么接下来大家一起来学习什么是robots.txt。一、什么是robots.txt文件1、它是我们的网站与各...

    网站优化 424 6年前
  • robots.txt文件详细教程

    robots文件是网站和各大搜索引擎建立良好沟通的桥梁,也是网站从搜索引擎获得流量的开端第一步,因为robots的设置不当,很有可能会失去很大一部分的流量。对于SEO优化的从业者或者是爱好者,必须要知道其中的原理和设置方法,对于网站管理员及相关的开发技术...

    网站优化 267 4年前
  • robots只能放在根目录吗?

    robots只能放在根目录吗?可以明确地告诉robots文件只能放在网站根目录,关于这一点也是很好理解的,前文提过robots文件就是针对搜索引擎蜘蛛的一种协议(有些蜘蛛不一定会遵守),搜索引擎蜘蛛进入网站都是先从网站根目录,所以robots协议也只有在根目录的时候才...

    网站优化 127 3年前
  • 谷歌SEO排名实战视频教程从入门到高阶[夸克网盘]
    谷歌SEO排名实战视频教程从入门到高阶[夸克网盘]

    视频教程介绍谷歌SEO视频教程网上很难找的,因为很多人都不在乎谷歌搜索引擎,其实谷歌SEO做得好,一样流量很多,也很赚钱。这套谷歌SEO排名实战视频教程,从入门到高阶全套打包,讲得非常详细。首先,了解SEO...

    视频教程 7 2个月前
  • 谷歌SEO实战:1周新网站DA和PA提升到10

    最近做了一个B2B网站,之前一直在做网站的基本建设。从2月1号开始做网站的SEO,差不多一周时间网站的DA 和 PA 增加到 10(MOZ: DA11,PA10)。下面外链收录情况和近7天AHREFS 排名情况,我是怎么做到的,请诸君听我慢慢道来。(注:MOZ 和AHREFS外链有差距很正常)一.让...

    网站优化 252 4年前
  • 网站SEO优化Robots写法

    robots协议是我们的网站与各搜索引擎的一个协议,如果你还不知道robots协议的重要性,那么本片文章你必须认真学习了,因为robots协议对一个网站来说十分重要。那么接下来大家一起来学习什么是robots.txt。一、什么是robots.txt文件1、它是我们的网站与各...

    网站优化 424 6年前
  • 谷歌搜索引擎优化经验分享

    根据我的站长站多个网站来看,国内的谷歌流量还是非常高的。谷歌相比百度,对网站的收录和关键字排名都非常友好,只要你认真做,网站很容易有排名,不管新站老站,备没备案,通通都可以轻松收录。所以,强烈推荐大家,不要只盯着百度了,做不起来的网站或海外市场的网站...

    网站优化 34 10个月前
  • 谷歌搜索引擎不在收录仅有PC端网站
    谷歌搜索引擎不在收录仅有PC端网站

    谷歌搜索最近在国外的站长大会发布新规,新规要求:从“2021年3月份之后,所有网站如果只有PC端,网站所有页面将全部不被谷歌搜索收录,网站所有页面和内容必须支持适配移动端,包括文字、数据、图片、视频...

    网站优化 133 3年前