Con la idea de «ayudar» a los webmasters y así estandarizar la visión que tiene Google sobre Internet, introdujeron los Sitemaps, que es un protocolo basado en XML para describir el mapa de todas las páginas de una web. Estos sitemaps tienen la finalidad de ayudar al googlebot a rastrear una web para mejorar así la indexación de sus páginas.
A fines del 2006 se decidió estandarizar el protocolo de sitemaps y también fue adoptado por otros buscadores como por ejemplo los de Yahoo y Microsoft.
Pero la efectividad del uso de los sitemaps sigue siendo un tema de gran discusión en los foros sobre SEO y webmasters. Es muy difícil comprobar si realmente ayudan a mejorar la indexación.
Posiblemente en webs que no tienen una buena estructura de enlaces internos, el uso de sitemaps, puede ayudar a los bots a llegar a las páginas que no pueden ser alcanzadas fácilmente mediante un rastreo directo.
Pero para las webs que tienen una buena estructura de enlaces internos y donde todas las páginas pueden ser alcanzadas mediante unos cuantos clicks (máximo 3 a 4 clicks), el uso de sitemaps no ayuda de sobremanera para mejorar su indexación.
En una discusión de Google Groups, John Mu – un Googgler – explica cómo Google usa los sitemaps y qué parámetros exactamente se deberían usar.
Al final, John hace el siguiente resumen:
– Yes, please send us Sitemap files, preferably sitemap.org XML files!
– Work on good URLs & use them to double-check your site’s navigation
– Optional: Date or change frequency? depends on how you work.
– Also optional: Priority
En mi opinión el uso de sitemaps nunca puede dañar. Si alguna página no es muy visible para los bot mediante el rastreo normal, entonces listada en sitemaps, solo puede mejorar la posibilidad de su indexación.
Visto en Search Engine Roundtable