设为首页|加入收藏 SEO原则你还记得吗:
付出不一定有回报,不付出,一定没有回报(胜利往往在坚持下,置之死地而后生后才会获取)
返回首页>>当前位置:主页 > SEO技术 >

robots.txt怎么写好_robots.txt有什么用

来源:www.xiaokaiseo.cn | 作者:小楷SEO | 点击:

robots.txt文件位置

robots文件往往放置于根目录下

robots.txt文件格式
robots

Disallow:该项的值用于描述不希望被访问的一组URL

Allow:该项的值用于描述希望被访问的一组URL

User-agent:该项的值用于描述搜索引擎robot的名字

 

例如:

User-Agent:YisouSpider // 配置YisouSpider

Disallow: / // 不允许YisouSpider抓取网站任何内容

User-Agent:* // 配置所有搜索引擎

Allow: / // 允许抓取网站任何内容

更多

Disallow: /abc //禁止抓取含abc目录及子目录的所有页面

注意:有些地方注释为“禁止抓取abc目录及子目录中的内容”百度官方有举例,”Disallow:/help”禁止robot访问/help.html、/helpabc.html、/help/index.html

 

Disallow: /abc/ //禁止抓取含abc目录的所有页面

百度官方有举例,”Disallow:/help/”则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。

robots.txt通配符的使用

“*” 匹配0或多个任意字符

“$” 匹配行结束符。

举例:

Disallow: /*?* //禁止抓取网站中所有的动态页面

Disallow: /*.htm$ // 禁止抓取所有以.htm为后缀的URL页面 /abc.htm/index 不匹配

区别于Disallow: /*.htm // /abc.htm/index 也匹配

更多robots.txt,可以参照百度站长站长平台关于robots.txt

网站哪些内容不建议被抓取

对于这个思想这个小白也懂的不多,一般取决于内容是否利于SEO的原则。例如,我博客的搜索结果页,没做好优化的tags页都禁止抓取了。而对于企业站来说,如果不打算可以优化公司名称的关键词,关于、联系、虑禁止企业新闻等一些内容都可以考

还有一点值得注意的事,有很多站长反馈说百度不遵循robots.txt协议,抓取不该抓取的内容。思享也感觉不是很靠谱,所以也可以考虑在一些页面设置meta name=”robots“

您可能对以下内容感兴趣