这就是我 | | 博客个人信息 | 博客文章下载中...... | 站点日历 | 博客文章下载中...... | 最新日志 | 博客文章下载中...... | 最新回复 | | 最新留言 | 博客文章下载中...... | 日志搜索 | 博客文章下载中...... | 友情链接 | 博客文章下载中...... | 其他信息 | | | | | | | | |
·人们常犯的robots.txt编写错误 -|唐 野 发表于 2007-3-19 23:49:41 |
常见robots.txt错误
l 颠倒了顺序: 错误写成 User-agent: * Disallow: GoogleBot
正确的应该是: User-agent: GoogleBot Disallow: *
l 把多个禁止命令放在一行中: 例如,错误地写成 Disallow: /css/ /cgi-bin/ /images/
正确的应该是 Disallow: /css/ Disallow: /cgi-bin/ Disallow: /images/
l 行前有大量空格 例如写成 Disallow: /cgi-bin/ 尽管在标准没有谈到这个,但是这种方式很容易出问题。
l 404重定向到另外一个页面: 当Robot访问很多没有设置robots.txt文件的站点时,会被自动404重定向到另外一个Html页面。这时Robot常常会以处理robots.txt文件的方式处理这个Html页面文件。虽然一般这样没有什么问题,但是最好能放一个空白的robots.txt文件在站点根目录下。
l 采用大写。例如 USER-AGENT: EXCITE DISALLOW: 虽然标准是没有大小写的,但是目录和文件名应该小写: user-agent:GoogleBot disallow:
l 语法中只有Disallow,没有Allow! 错误的写法是: User-agent: Baiduspider Disallow: /john/ allow: /jane/
l 忘记了斜杠/ 错误的写做: User-agent: Baiduspider Disallow: css
正确的应该是 User-agent: Baiduspider Disallow: /css/ |
[阅读全文 | 回复(0) | 编辑] |
|
发表评论:
| | | | | |