时间:2021-04-16
正确使用Robots.txt的一些好处和方法,从一下5点讲解Robots.txt的一些好处和方法,希望对大家能有所帮助:
一、利用Robots.txt节省服务器带宽
一般来说站长很少去做这样一个设置,然而当服务器访问量大内容过于多的话就有必要做一个设置来节省服务器的带宽,如屏蔽:image这样的文件夹,对于搜索引擎索引来说没有什么实际性的意义还浪费了大量的带宽。如果对于一个图片网站来说,消耗更是惊人的,所以利用Robots.txt可以充分解决这一点。
二、保护网站安全目录
一般来说在设置Robots.txt时都要把管理目录以及数据库、备份目录设置进去,进制蜘蛛的爬行,否则容易造成数据的泄露影响网站的安全。当然还有一些管理员不希望蜘蛛索引的其他目录,同样可以将其进行设置,这样来说搜索引擎就可以严格的遵守这个规则来进行索引。
三、禁止搜索引擎索引页面
一个网站总有一些不希望公众看到的页面,这个时候我们可以用Robots.txt来进行设置,避免蜘蛛对其索引,如前段日子笔者网速比较慢结果更新了一篇文章,导致连续重复发布了3次,结果全部被搜索引擎索引,怎么办呢?重复的内容必然对网站优化是不好的,这时候便可以通过设置Robots.txt来将多余的页面屏蔽掉。
四、Robots.txt链接网站地图
由于蜘蛛访问网站首先查看的便是Robots.txt这个文件,那么我们可以将网站地图设置进去,更有利于蜘蛛索引最新的信息,而少走许多冤枉路。如显示专业网站建设公司引航科技的地图页:http://www.****.net.cn/ sitemap.xml这样加到Robots.txt中更是有利于搜索引擎的索引。也不用每天麻烦的到搜索引擎提交地图文件,不是很简便吗?
五、写法及注意事项
对于Robots.txt写法一定要规范,写法上疏忽不注意的人并不在少数。首先来说:User-agent:*是必须要写的,*表示针对所有搜索引擎。Disallow:(文件目录)不包括括号,表示禁止搜索引擎索引的意思,一下举个例子具体说明:
示例1:
User-agent:*
Disallow:/
表示禁止任何搜索引擎索引访问,
示例2:
User-agent:*
Disallow:/seebk
表示禁止搜索引擎索引访问seebk目录
示例3:
User-agent:baiduspider
User-agent:*
Disallow:/
表示只允许百度蜘蛛堆砌索引访问:百度:baiduspider,谷歌:googlebot,搜搜:sosospider,alexa:ia_archiver,雅虎:Yahoo Slurp
示例4:
User-agent:*
Disallow:.jpg$
防止盗链jpg图片,如果你的带宽足够的话可以不设置。
后语:优化Robots.txt扬己之长避己之短,做好Robots.txt更易网站顺畅优化发展。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
网站一旦上线后,搜素引擎蜘蛛第一个爬取网站文件的就是robots.txt文件,所谓的robots.txt就是搜索引擎协议文件,因此要检查分析协议文件是否书写正确
爬虫协议Robots.txt是在网站上找到的第一个文件搜索蜘蛛。它告诉搜索引擎可以抓取哪些页面以及哪些页面无法抓取。网站设置robots.txt的好处:禁止搜索
本文实例讲述了帝国CMS中robots.txt文件用法。分享给大家供大家参考。具体分析如下:在说帝国CMS中robots.txt文件使用前先给大家解释下robo
  如何检测判断网站不被收录的原因。一、检查robots.txt文件    检查robots.txt
Robots.txt文件必须放在网站的根目录。放在子目录的Robots.txt文件搜索引擎不能爬取到,所以不会起任何作用。比如:http:///robots.t