robosts文件有什么用处?怎么写?
一、robosts的重要性,可以屏蔽什么?
1、保护网站隐私,防止信息泄露。
2、站内那些页面需要参与排名,站内在优化的角度说,合理抓取资源。屏蔽内容,不想被抓取的隐私内容、后台、数据库文件、模板、插件文件···或者做了伪静态就屏蔽动态路径。
3、屏蔽垃圾页面和重复页面(动态和静态,多路径的同一页面)中文链接 屏蔽死链接。
二、robosts怎么写?
做优化必须要写robosts,搜索引擎和网站的一个协议
①写robosts:新建一个文本robosts.txt文件 蜘蛛的名(baiduspider)
②User-agent 用户代理,定义搜索引擎类型,该只用于描述搜索引擎robot的名字。
③Disallow :不希望被访问的一组URL,定义禁止抓取收录地址
④Allow:希望被访问的一组URL
⑤*它可以代替字母,后面加* 就是这个文件拒绝
⑥$结束符
⑦屏蔽网站怎么写 开头都是大写,英文的冒号 英文的空格
⑧/是根目录的意思
写robots的有生效周期和失效期的
当根目录 到 栏目中其中一个文件路径举例:wwwroot/SEOme/inges/jixiang.js
1、不想让蜘蛛抓取一个栏目(seome)如图:
2.不想让蜘蛛抓取jixiang.js如图
3、不允许抓取imges这个文件的内容,但是允许抓取jixiang.js
4、怎么屏蔽文件的所有动态文件。
看我们网站内容动态地址是这样http://www.jiixangseo.com/?cat=1
http://www.jiixangseo.com/goods.php?id=284
屏蔽所有的js 和css
Disallow: /*.css$
Disallow: /*jpg.$
然后上传到根目录里面。Robots不要随便修改,生效时间会很不确定。 短则7天长则几个月
打开百度站长平台
wwwroot/seome/inges/jixiang.js
Disallow:/inges/ 这个 之后的文件都不允许
Disallow: /inges 这个/inges 开始的都不允许