用robots文件做好seo优化-三盈网络,深圳网站建设公司 
圈子资讯|咨询电话:183-2065-5007
用robots文件做好seo优化
时间:2015-08-13 00-00-00

robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进入,就可以看到你网站robots文件是否编写正确了。

百度robots文件使用说明

1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。

2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。

3、Robots工具暂不支持https站点。

4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。

利用robots文件做seo优化,让蜘蛛更好的抓取网站。

上图disallow语句有问题,原因是把英文的冒号写成了中文的冒号。

当然直接输入网站根目录加上robtots.txt文件也可以。

 User-agent:* 是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置

Disallow:/category/*/page/ 分类目录下面翻页后的链接,比如,进入校赚网分类目录 "推广运营经验"目录后,在翻页一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

Disallow:/?s=*Disallow:/*/?s=*搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。

Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/ 这三个目录是系统目录,一般都是屏蔽蜘蛛抓取

Disallow:/*/trackback trackback的链接

Disallow:/feed Disallow:/*/feed Disallow:/comments/feed订阅链接

Disallow:/?p=* 文章短链接,会自动301跳转到长连接

利用robots文件做seo优化,让蜘蛛更好的抓取网站

Disallow:/*/comment-page-* 和Disallow:/*?replytocom*  来自于评论链接,很容易造成重复收录。

在robots.txt文件的最后还可以制定sitemap文件Sitemap:http://***.com/sitemap.txt

sitemap地址指令,主流是txt和xml格式。

在这里分享一段xt格式的simemap文件。将上述代码保存到txt文件,上传到根目录,并且在robots.txt文件中指定即可。

User-agent: *

Disallow:/wp-admin/

Disallow: /*/comment-page-*

Disallow: /*?replytocom*

Disallow: /wp-content/

Disallow: /wp-includes/

Disallow: /category/*/page/

Disallow: /*/trackback

Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

Disallow: /?s=*

Disallow: /*/?s=*

Disallow: /attachment/

Disallow: /tag/*/page/

Sitemap: http://www.stcash.com/sitemap.xml


联系我们contact us
  • 18320655007
  • 13924654107(朱经理)
  • 13927414511
  • 460584196@qq.com
  • 深圳市宝安区西乡街道前进二路93号彩虹城4楼B95
  • 信宜市实验学校旁三盈网络
三盈网络科技有限公司 © 版权所有 粤ICP备2023040535号
主营业务:全网营销网站,外贸网站,抖音推广,爱采购,网页设计,全网营销方案