网站优化中robots文件一定要放在根目录吗?

发布时间:2021-06-19 11:57:10 作者:厚德网络 来源:本站 浏览量:(12) 点赞:(38) 收藏:(38)
摘要:菏泽厚德网络专业网站建设,网站设计,网站制作,网页设计,小程序,app开发公司,专注于菏泽企业互联网品牌营销策划,已为上千家服务,专业团队,值得信赖!

    近段时间分享网站优化相关的教程越来越少了,主要还是忙其他项目,导致每天没有过多的时间。今天抽时间给大家聊聊网站优化中关于robots文件的一些常见的疑问。

一、什么是robots,robots有什么用?

在讲解robots之前先给大家介绍一下什么是robots。借用百度百科的解释robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。

用一句话来解释:robots就是蜘蛛与网站的一种协议。

至于robots有什么用,相信认真看上文的小伙伴还是有一定的收获。冬镜认为合理的robots还是有以下几方面的好处:

1、可以避免蜘蛛爬取收录我们不想展现给别人看的页面。例如网站后台地址,个人隐私日志等。

2、可以减轻服务器压力。我们通过robots协议可以让蜘蛛只抓取一部分页面,避免蜘蛛胡乱抓取一些没用的页面,占用服务器资源。

3、正确的robots协议会提升整站质量,促使快速收录排名,从而提高网站权重。

二、robots协议格式应该怎么写?

先给大家看一个最简单的robots文件的写法:

User-agent: *

Disallow: /inc/

Allow: /uqseo

Sitemap: 域名/sitemapxq7jely9mgz.xml

上文中User-agent代表的是搜索引擎蜘蛛的名字,一般常用的是*,代表通配,换句话说就是该协议对所有搜索引擎蜘蛛都有用;Disallow指不允许访问的对象,比如某一个css、js、图片、视频、文件夹等,Disallow: /inc/代表的就是不允许搜索引擎蜘蛛爬行抓取inc文件夹下的所有文件;Allow指允许搜索引擎蜘蛛访问的路径,Allow: /uqseo代表的是带有uqseo的文件或文件夹 ;Sitemap指本站的地图,一般为.xml或.txt格式的地址,值得注意的是这里一定要写绝对地址。

小提示:每个属性的冒号是用英文冒号,冒号后面一定要空一格。

三、robots只能放在根目录吗?

冬镜可以明确地告诉robots文件只能放在网站根目录,关于这一点也是很好理解的,前文提过robots文件就是针对搜索引擎蜘蛛的一种协议(有些蜘蛛不一定会遵守),搜索引擎蜘蛛进入网站都是先从网站根目录,所以robots协议也只有在根目录的时候才有效,而且需要注意的是robots文件的命名必须是robots.txt,只能用小写字母。

四、robots协议的高级玩法

此玩法需要php+伪静态或者php+路由来实现。前面讲到robots里面除了禁止和运行之外,还有一个十分重要的就是sitemap地图,有时候我们网站的sitemap地图很多时,如果全部写到robots里面就会显得十分臃肿,此时我们采用php控制输出就能实现每次访问robots显示不同的地址,具体的就不为大家过多的演示了。

厚德网络微信

扫一扫,加微信



感兴趣吗?

欢迎联系我们,我们愿意为您解答任何有关网站疑难问题!

您身边的【网站建设专家】

搜索千万次不如咨询1次

主营项目:网站建设,营销型网站,手机网站,响应式网站,SEO优化,小程序开发

立即咨询 155-6200-1135