[摘录自 Search Engine Watch 报导] 去年11月,搜寻引擎的老大们 Yahoo、MSN、Google 宣布他们将联手推出共同的 sitemap 协定。昨天更在纽约的搜寻引擎战略大会中宣布 Ask.com 加入了这个协定。除此之外,更联合宣布了 sitemap 联盟 将支援 Sitemap 自动搜寻的功能。过去网站的行销人员都要将这些 sitemap 个别提交给各搜寻引擎,现在只要在 Robot.txt 这个档案加入一段简单的语法就可以通知所有的搜寻引擎 sitemap 的 xml 档案放置在甚么地方。语法范例:Sitemap:
http://w....你的网址.com/sitemap.xml 负责搜寻的机械人在进入网站的时候会首先阅读 robot.txt 这个档案,再根据这档案提供的位置收录 sitemap 的档案。
Sitemap 可以说更进一步加强 Robot.txt 的功能。Robot.txt 是一个纯文字档案,过去 Robot.txt 是负责告诉搜寻引擎不要收录哪些页面,而 Sitemap 则是个利用 XML 语言编写的档案,负责告诉搜寻引擎可以收录哪些页面,而且更可以告诉搜寻引擎更多关于每一页的特性。这个新的协定将 Robot.txt 跟 Sitemap 两者更紧密的联合起来,协助搜寻引擎收录网站的页面。
对搜寻引擎而言,对比起从首页进入寻找,Sitemap 可以让搜寻引擎更有效简易的纪录、更新、收录网站的页面。虽然如此,没有一个搜寻引擎准备放弃从首页进行搜寻纪录网页的行为,Sitemap 的角色可以辅助让搜寻更有效率。
除 MSN 外,其他搜寻引擎已经开始运用这协定,MSN 则预计本年内开始使用。网站管理者仍然可以透过旧有的推荐模式,主动在各搜寻引擎上提供搜寻引擎 sitemap 的位置。
这个想法是雅虎的工程师提出的,目的是让本来既有的 sitemap 协定更有效运用。雅虎将这个想法与其他搜寻引擎讨论,并且获得支持。Sitemap 协定的详细资料以及技术规格 (中文):http://www.sitemaps.org/zh_TW/index.html
范例如下:
#
# robots.txt for http://bbs.d....com
#
User-agent: *
Sitemap: http://bbs.djorz.com/...emap.php