mboh

Sitemaps

Protokol sitemaps memungkinkan webmaster untuk memberitahu mesin pencari tentang URL pada website untuk di crawl. Sitemap adalah file XML yang berisi daftar url dari sebuah situs. Ini memungkinkan webmaster untuk menambahkan informasi pada setiap URL: kapan terakhir di update, seberapa sering diubah dan seberapa penting hubungannya dengan URL yang lain dalam situs. Ini membuat mesin pencari lebih cerdas untuk me crawl situs. Sitemaps adalah protokol URL inklusi dan komplemen robots.txt, sebuah protokol URL ekslusi.

Manfaat khusus sitemaps adalah pada situs web dimana:

  • pada beberapa bagian situs web tidak tersedia dalam tatap muka browsable, atau
  • yang banyak menggunakan Ajax, Silverlight atau Flash yang tidak diproses oleh mesin pencari

Sitemaps tidak menggantikan mekanisme berbasis crawl yang telah ada yang digunakan mesin pencari untuk menemukan URL.

Menggunakan protokol ini tidak menjamin halaman web akan terindex dalam mesin pencari atau mempengaruhi ranking pada hasil pencarian.

Sejarah
Google pertama kali memperkenalkan Sitemaps 0.84 pada Juni 2005.
Google, MSN dan Yahoo mengumumkan bergabung untuk mendukung protokol sitemaps pada November 2006. Versi skema berubah ke Sitemap 0.90.

April 2007, Ask.com dan IBM ikut mendukung sitemaps. Google, Yahoo mengumumkan auto-discovery untuk sitamaps melalui robots.txt.
Mei 2007, negara bagian Arizona, California, Utah dan Virginia mengumumkan menggunakan sitemaps dalam situs web mereka.

Protokol sitemaps idenya[cite key="1"] berdasarkan “Crawler-friendly Web Servers”. [cite key="2"]

Batasan Sitemap
File sitemap mempunyai batasan 50.000 URL dan 10 megabyte per sitemap. Sitemap bisa dikecilkan dengan gzip, mengurangi konsumsi bandwidth.
Banyak file sitemap juga didukung, dengan sebuah index sitemap sebagai entry point. File index sitemap tidak boleh berisi lebih sari 50.000 sitemap dan tidak lebih besar dari 10 megabyte dan bisa dikecilkan.

Referensi

  • ^ M.L. Nelson, J.A. Smith, del Campo, H. Van de Sompel, X. Liu (2006). “Efficient, Automated Web Resource Harvesting”. WIDM’06.
  • ^ O. Brandman, J. Cho, Hector Garcia-Molina, and Narayanan Shivakumar (2000). “Crawler-friendly web servers”. Proceedings of ACM SIGMETRICS Performance Evaluation Review, Volume 28, Issue 2. doi:10.1145/362883.362894.

Tinggalkan Balasan

Alamat surel Anda tidak akan dipublikasikan.

Anda dapat memakai tag dan atribut HTML ini: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>