首页SEO优化技术

robots.txt协议文件的更详细编写

原创2021-05-13 02:27:52 28

很多建站系统,建站后都有网站的根目录,默认带有robots.txt协议文件。在如今竞争日益激烈的网站优化中,原本没有优化因素设置的robots.txt文件也得到最大程度的利用,其编写也是为了应对突发事件而掌握的。1:robots . txt[...]

很多建站系统,建站后都有网站的根目录,默认带有robots.txt协议文件。在如今竞争日益激烈的网站优化中,原本没有优化因素设置的robots.txt文件也得到最大程度的利用,其编写也是为了应对突发事件而掌握的。

I:robots . txt协议文件有什么用?

当搜索引擎访问一个网站时,它访问的第一个文件是robots.txt。她告诉搜索引擎蜘蛛哪些网页可以爬行,哪些网页禁止爬行。表面上看,这个功能作用有限。从搜索引擎优化的角度来看,屏蔽页面可以实现集中权重的功能,这也是优化者最看重的地方。

以一个seo站点为例,它的robots.txt文件如图:

robots.txt协议文件展示

二:在网站上设置robots.txt的几个理由。

1.设置访问权限以保护网站安全。

2.禁止搜索引擎抓取无效页面,将权重集中在主页面。

【/s2/】三:如何用标准写法写协议?

有几个概念需要掌握。

用户代理就是定义哪个搜索引擎,比如用户代理:百度蜘蛛,定义百度蜘蛛。

不允许意味着禁止访问。

允许表示运行访问。

通过以上三个命令,可以结合多种编写方法,允许哪个搜索引擎访问,禁止哪个页面访问。

IV:robots . txt文件在哪里?

这个文件需要放在网站的根目录下,字母大小有限。文件名必须是小写字母。所有命令的第一个字母应该大写,其余的应该小写。而且命令后面应该有英文字符空。

V:什么时候需要使用这个协议?[/s2/]

1.无用页面,很多网站都有联系我们,用户协议等页面,相比搜索引擎优化作用不大。此时,有必要使用“不允许”命令来禁止搜索引擎对这些页面进行爬网。

2.动态页面,企业型网站屏蔽动态页面,有利于网站安全。而且多个网站访问同一个页面,会导致权重分散。因此,一般来说,动态页面被屏蔽,静态或伪静态页面被保留。

3.网站背景页,网站背景页也可以归为无用页,禁止无伤大雅的囊括一切利益。

来源:robots.txt协议

标签:
随机站点
随机快审展示 刷新 快审榜
加入快审,优先展示

加入VIP