[摘錄自 Search Engine Watch 報導] 去年11月,搜尋引擎的老大們 Yahoo、MSN、Google 宣布他們將聯手推出共同的 sitemap 協定。昨天更在紐約的搜尋引擎戰略大會中宣布 Ask.com 加入了這個協定。除此之外,更聯合宣布了 sitemap 聯盟 將支援 Sitemap 自動搜尋的功能。過去網站的行銷人員都要將這些 sitemap 個別提交給各搜尋引擎,現在只要在 Robot.txt 這個檔案加入一段簡單的語法就可以通知所有的搜尋引擎 sitemap 的 xml 檔案放置在甚麼地方。語法範例:Sitemap:
http://w....你的網址.com/sitemap.xml 負責搜尋的機械人在進入網站的時候會首先閱讀 robot.txt 這個檔案,再根據這檔案提供的位置收錄 sitemap 的檔案。
Sitemap 可以說更進一步加強 Robot.txt 的功能。Robot.txt 是一個純文字檔案,過去 Robot.txt 是負責告訴搜尋引擎不要收錄哪些頁面,而 Sitemap 則是個利用 XML 語言編寫的檔案,負責告訴搜尋引擎可以收錄哪些頁面,而且更可以告訴搜尋引擎更多關於每一頁的特性。這個新的協定將 Robot.txt 跟 Sitemap 兩者更緊密的聯合起來,協助搜尋引擎收錄網站的頁面。
對搜尋引擎而言,對比起從首頁進入尋找,Sitemap 可以讓搜尋引擎更有效簡易的紀錄、更新、收錄網站的頁面。雖然如此,沒有一個搜尋引擎準備放棄從首頁進行搜尋紀錄網頁的行為,Sitemap 的角色可以輔助讓搜尋更有效率。
除 MSN 外,其他搜尋引擎已經開始運用這協定,MSN 則預計本年內開始使用。網站管理者仍然可以透過舊有的推薦模式,主動在各搜尋引擎上提供搜尋引擎 sitemap 的位置。
這個想法是雅虎的工程師提出的,目的是讓本來既有的 sitemap 協定更有效運用。雅虎將這個想法與其他搜尋引擎討論,並且獲得支持。Sitemap 協定的詳細資料以及技術規格 (中文):http://www.sitemaps.org/zh_TW/index.html
範例如下:
#
# robots.txt for http://bbs.d....com
#
User-agent: *
Sitemap: http://bbs.djorz.com/...emap.php