互联网思维倡导者
改变烟台SEO优化,网站运营,网络营销现状

论述robots协议

以网站
robots协议指spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。
robots.txt文件应该放置在网站根目录下。
首先会检查该网站中是否存在如下图
参数描述:
User-agent:定义所有搜索引擎的抓取,如
User-agent:*
Disallow: (是定义不允许被抓取的路径.及文件.如果是路径就这样写)
Disallow: /admin/ (不允许被抓取的路径admin)
Disallow: /admin (不允许被抓取的文件以/admin开头的文件)
allow: (是定义允许被抓取的路径.可以不用写,因为默认就是给允许抓取的)
注这些参数:后必须有空格

赞(0) 打赏
未经允许不得转载:泥鳅SEO(张弘宇)博客,烟台SEO,互联网思维学习倡导者 » 论述robots协议
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

 

五网合一企业网站建设

联系我们在线客服

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏