找回密码
 免费注册

[运维] robots.txt文件的Disallow和Allow行的区别

[复制链接]
admin 发表于 2021-11-8 18:35:47 | 显示全部楼层 |阅读模式
robots .txt文件Disallow和Allow设置顺序的不同会产生不一样的效果。

拿个robots .txt语法的例子 :

(1)搜索引擎可以访问/www/seo的文件夹或者URL
User-agent: *
Allow : /www/seo
Disallow : /www/

(2)顺序改变后
User-agent: *
Disallow : /www/
Allow : /www/seo
这样遵守robots规则的搜索引擎就访问不到/www/seo这个路径了。

robots .txt几个语法 命令 解释 :

1> User-agent: *【定义搜索引擎。一般情况下,网站里面都是:User-agent: *,这里*的意思是所有,表示定义所有的搜索引擎。比如,我想定义百度,那么就是User-agent: Baiduspider;定义google,User-agent: Googlebot】

2> Disallow 【禁止爬取】

3> Allow 【允许】

4> $ 结束符【Disallow: .aspx$ 这句话就是屏蔽所有的以.aspx结尾的文件,不管它前面是什么样子】

5> * 【0或多个任意字符。Disallow: *?* 这个是屏蔽所有带“?”的文件,可以这样屏蔽所有的动态路径】

总结来说就是robots.txt 这个文件里语法的顺序是从上到下匹配 ,先允许后禁止。另外注意:User-agent,Allow,Disallow的“:”后面有一个字符的空格。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 免费注册

本版积分规则

QQ|Archiver|手机版|小黑屋|信息共享网

GMT+8, 2024-5-16 11:02 , Processed in 0.077324 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表