互联网思维倡导者
改变烟台SEO优化,网站运营,网络营销现状

让robots成为你网站的守护神

VIP29羽扇纶巾
一、Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots.txt是一个协议,而不是一个命令。但是,Robots协议是网站出于安全和隐私考虑,防止搜索引擎抓取敏感信息而设置的。如果搜索引擎都不遵守这个协议,那么互联网将受到不可估量的灾难,所谓无规矩不成方圆。二、在搜索引擎都遵守游戏规则的前提下,robots协议将为我们的网站保驾护航。下面了解robots协议文件的写法。1、Robots有三个命令,两个通配符。三个命令分别为User-agent、Disallow、Allow。两个通配符分别为*、$。2、下面分别阐释:(1)、User-agent,直接翻译成中文就是用户代理,在这里的作用是指定搜索引擎的种类。例如:User-agent: * 这里的指定所有的搜索引擎种类。(2)、Disallow,不允许,在这里的作用就是指定搜索引擎不允许访问的文件、目录或路径。例如:Disallow: /admin/ 这里定义是禁止爬取admin目录下面的目录(3)、Allow,允许,在这里的作用就是告知搜索引擎可以访问的文件、目录或路径。例如:Allow: /admin/ 这里定义是允许爬寻admin目录下面的目录(4)、*,通配符,代替代替一个或多个字符。例如:Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址。(5)、$,通配符,定义文件的后缀。例如:Disallow: /admin/.jpg$ 禁止抓取admin目录下面的所有的.jpg格式的图片。通过这三个指令和两个通配符的组合,可以写出任何规定的协议。3、举例说明:以深圳宝安SEO博客站守护神, 网站

赞(0) 打赏
未经允许不得转载:泥鳅SEO(张弘宇)博客,烟台SEO,互联网思维学习倡导者 » 让robots成为你网站的守护神
分享到: 更多 (0)

评论 1

评论前必须登录!

 

五网合一企业网站建设

联系我们在线客服

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏