潍坊网站建设
  • 17616719555
潍坊SEO设置robots.txt协议文件写法
作者:潍坊网站建设公司/ 发表日期:2020-03-31 23:09:34/ 文章来源:花翎科技 /作者来源:花翎科技/ 浏览次数:
  许多车站建筑系统在网站建成后,都有网站的根目录,默认情况下有robots.txt协议文件。在当今日益激烈的网站优化竞争中,robots.txt文件在创建之初没有优化因素,但也得到最大程度的利用,掌握了它们的写作方法,为紧急情况做好了准备。
  第一:robots.txt协议文件有什么用?
  当搜索引擎访问一个网站时,它访问的第一个文件是机器人。她告诉搜索引擎蜘蛛哪些网页可以爬行,哪些网页禁止爬行。从表面上看,这种功能效果有限。从搜索引擎优化的角度来看,屏蔽页面可以达到集中权重的效果,这也是优化人员最重要的地方。
  以一个搜索引擎优化网站为例,它的robots.txt文件如图显示:
  第二:在网站上设置robots.txt的几个原因。
  1:设置访问权限权限以保护网站安全。
  2.搜索引擎禁止抓取无效页面,并把注意力集中在主页上。
  第三:如何用标准格式写协议?
  有几个概念需要掌握。
  用户代理意味着定义哪个搜索引擎,例如用户代理:baiduspider,定义百度蜘蛛。
  禁止意味着禁止访问。
  允许意味着运行访问。
  通过以上三个命令,可以组合多种书写方法来允许哪个搜索引擎访问或禁止哪个页面。
  robots.txt文件在哪?
  这个文件必须放在网站的根目录下,并且有一个字母大小的限制。文件名必须是小写的。所有命令的第一个字母应该是大写的,其余的应该是小写的。命令后面必须有一个英文字符空格。
  第五:什么时候需要使用协议?
  1.无用的页面,许多网站有联系我们的页面,用户协议等。这些页面对搜索引擎优化的影响很小。此时,有必要使用不允许命令来禁止搜索引擎捕获这些页面。
  2.动态页面,企业型网站屏蔽动态页面,有利于网站安全。此外,多个网站访问同一个页面,这将导致分散的权重。因此,一般来说,动态页面被屏蔽,静态或伪静态页面被保留。
  3.网站后台和网站后台的页面也可以归类为无用页面。禁止包含所有没有任何伤害的利益。

本本由金石花翎发布,文章地址:http://www.weifangjianzhan.com/wzyh/406.html

【金石花翎】网站制作、网站设计、网站优化、服务器空间、网站托管、APP、小程序、微信公众号
如有意向---联系我们
热门栏目
热门资讯
热门标签

备案号:鲁ICP备19018354号 

公司地址:山东省潍坊市鸢飞路539号4层 咨询QQ:403541865 手机:17616719555 电话:17616719555