Robots.txt是搜索引擎在访问网站时需要查看的首要文件。这个文件用来告诉蜘蛛程序哪些文件可以在服务器上被访问,哪些不能。
当一个搜索蜘蛛访问一个网站时,它首先会检查该网站的根目录下是否存在robots.txt。如果存在,搜索机器人会按照该文件中的内容来确定其访问范围;如果不存在,所有的搜索蜘蛛将能够访问网站上所有未被口令保护的页面。
Robots.txt必须被放置在一个网站的根目录下,并且文件名必须全部小写。
Robots.txt的使用误区
误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要添加robots.txt文件了。实际上,如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面,但在服务器日志中,每当用户试图访问某个不存在的URL时,都会记录404错误(无法找到文件)。同样的,每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也会在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt文件。
误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。但是,即使蜘蛛收录了网站中的程序脚本、样式表等文件,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。具体哪些文件需要排除,在robots.txt的使用技巧一文中有详细介绍。
误区三:
搜索蜘蛛抓取网页太浪费服务器资源,所以在robots.txt文件中设置所有的搜索蜘蛛都不能抓取全部的网页。然而,如果这样的话,会导致整个网站不能被搜索引擎收录。
Robots.txt的使用技巧
在网站的根目录下添加一个robots.txt文件可以避免服务器记录不必要的404错误。每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以应该在网站中添加一个robots.txt文件。
网站管理员必须使蜘蛛程序远离某些服务器上的目录-——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。
下面是VeryCMS里的robots.txt文件示例:
User-agent: * Disallow: /admin/ 后台管理文件
Disallow: /require/ 程序文件
Disallow: /attachment/ 附件
Disallow: /images/ 图片
Disallow: /data/ 数据库文件
Disallow: /template/ 模板文件
Disallow: /css/ 样式表文件
Disallow: /lang/ 编码文件
Disallow: /script/ 脚本文件
如果你的网站是动态网页,并且你为这些动态网页创建了静态副本以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件中设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为含重复内容。目前支持这一做法的搜索引擎公司有Google, Yahoo, Ask和 MSN。中文搜索引擎公司目前还没有加入这个圈子。通过在Robots.txt文件中添加这样的链接,站长不用到每个搜索引擎的站长工具或者相似的站长部分去提交自己的sitemap文件,搜索引擎的蜘蛛自己就会抓取Robots.txt文件,读取其中的sitemap路径并接着抓取其中相连的网页。
合理使用Robots.txt还能够避免访问时出错。比如,你可以设置阻止搜索者直接进入购物车页面因为购物车没有必要被收录所以可以在Robots.txt里阻止搜。
防爆伺服电机行业振合机电网站首页设计效果图