Archivo de la categoría: Buscadores

Google continua mejorando su liderzgo en el mercado de los buscadores

Nielsen Netratings ha presentado los resultados de Abril de sus estadísticas sobre la participación de mercado de los mayores buscadores en los Estados Unidos (ver documento en pdf).

El siguiente gráfico lo dice todo:

Resultados de Nielsen Netratings para abril de 2007

Google nuevamente ha logrado un crecimiento anual del 42.1% en el volumen de las búsquedas en los Estados Unidos, mientras que Yahoo! consiguió un incremento del 28.1% y Live Search de Microsoft solamente aumento en 7.4%.

Mientras que el mercado de las busquedas se ha repartido entre Google (55.2%), Yahoo! (21.9%) y Microsoft (9.0%).

Velocidad de indexación de Google aumenta considerablemente

Este tema ya se estuvo comentando en los últimos días en diversos foros.

Como ya es bien conocido webs muy populares o webs de noticias eran escaneadas varias veces al día y sus páginas aprecian rápidamente en el índice del buscador de Google.

Esta práctica parece que se esta extendiendo a todo tipo de webs. Las páginas son escaneadas y unas horas después ya aparecen posicionadas en el índice.

No sé si esta primera posición será la final, pues deben faltar muchos factores que tienen que ser calculados mediante algoritmos complejos y que necesitan mucho tiempo.

Como ejemplos de esta indexación ultra rápida puedo mencionar dos notas que he escrito en mi blog hace menos de 24 horas:

1. La nota Deutsche Bahn inaugura servicio de compra de pasajes por móviles ya esa indexada y aparece en la primera posición para la búsqueda deutsche bahn moviles. La primera posición se debe posiblemente a que esta búsqueda solamente contiene unos 26.600 resultados.

2. La nota Generador de temas de WordPress también ha sido indexada en menos de 24 horas y se encuentra para la búsqueda generador de temas wordpress en la posición 6 de 122.000 resultados. Posiblemente esta posición caerá en los próximos días ya que tal vez otros blogs más pesados también tomen esta nota y se posicionen mejor.

De todas maneras, es una muy buena noticia para todos los webmasters que estaban desesperados en ver sus páginas indexadas de inmediato en el buscador. Aún no sé cuales son los criterios que debe cumplir una web para que sus páginas sean indexadas rápidamente, pero creo que vale la pena investigarlo.

Como borrar páginas del indicie de Google

Esta es una de las preguntas que siempre se hacen los webmasters cuando encuentran que Google ha indexado páginas equivocadas, páginas con URLs duplicadas, o páginas antiguas.

Hasta ahora Google tenia para estas situaciones una consola la URL Console que permitía borrar páginas del índice. Esta herramienta era muy peligrosa, ya que si se cometía algún error, se corria el riesgo de que toda la web sea borrada del indice por lo menos por 180 dias.

Ahora, Google acaba de presenta una herramienta mucho más sofisticada en Google Webmaster Central (opción Diagnostic -> URL Removals).

Esta nueva herramienta permite borrar:

  • Páginas individuales
  • Todas las páginas bajo un directorio
  • Todo el sitio web
  • Páginas en el cache

Adicionalmente, esta herramienta muestra el estado de los requerimientos de borrado, así como también todas las páginas que fueron borradas exitosamente del índice.

Para que una página o sección pueda ser borrada del indicie del buscador, se debe asegurar que la página en cuestión devuelva un HTTP status code 404 o 410 o que la página este bloqueada para los robots en el archivo robots.txt, o que la página contentenga el meta-tag noindex.

Esta herramienta de Google es sin duda, un gran avance para poder controlar que contenidos debe aparecer en el índice el buscador.

Más informaciones en el blog de Google Webmaster Central.

Ya no se pueden ver los backlinks en Microsoft Live Search

La función link: en Windows Live Search ya no muestra los enlaces entrantes o backilnks de una web.

Según Microsoft, no se se trata de un problema sino más bien que esta función simplemente ha sido deshabilitada. Se informa que el uso de esta función esta función por diferentes herramientas SEO estaba generando mucha carga en los servidores de la empresa y que para los usuarios normales esta función no es importante.

Ahora, muchas herramientas que estaban usando esta información van ha tener que buscar otra alternativa.

La función linkfromdomain: que muestra todos los enlaces salientes de una web todavía esta funcionando.

Actualización de las URLs canónicas

Desde hace varios días circulan en diferentes foros informes de webmasters sobre la caída de webs en el índice del buscador de Google.

Por ejemplo, en xeoweb, este hilo se ha ocupado con este tema. Después de analizar la web en cuestión, encontré que la misma podía ser accesada por www.mi-dominio.com así como también por mi-dominio.com. También otros foreros indicaron que tenían el mismo problema.

Y justamente hoy día, Matt Cutts, empleado de Google, informa que se ha realizado una actualización de las URLs canónicas. Matt indica que Google tiene que escoger una de las URLs para posicionar una web y también explica los casos de URLs canónicas que se pueden tener.

Problema
El problema de las URLs canónicas ya lo he explicado en detalle en este artículo.

Solución
En principio existen dos soluciones para este problema:

1. Definición del dominio principal
Hace ya varios meses la herramienta para webmasters de Google (Google Webmaster Tools) tiene una opción para definir el dominio principal de una web (Menu Diagnostic -> Preferred domain).

Vanessa Fox ha explicado en un post en ingles, como definir el dominio principal en esta herramienta.

Aunque está es una posibilidad para resolver el problema de las URLs canónicas, no es la mejor, ya que solo es válida para el buscador de Google. Los bots de los otros buscador tendrían el mismo problema en identificar el dominio principal.

2. Redireccionamiento de dominios
Mediante esta solución todos los bost así como los visitantes serán redireccionados al dominio principal.

El requerimiento para esta solución es tener un servidor web con la función rewrite_mode habilitada.

En el archivo .htaccess colocado en la raíz del dominio se debe colocar el siguiente código:

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.mi-dominio\.com$
RewriteRule ^(.*)$ http://www. mi-dominio.com/$1 [L,R=301]

Luego de colocar este código se debe comprobar si el redireccionamiento funciona correctamente. Para esto, solo se debe acceder a mi-dominio.com y en la dirección del navegador deberá aparecer www.mi-dominio.com. Otra posibilidad es analizar las cabeceras del protocolo HTTP.

Controla el anchor text de tus backlinks

Hoy día muchos blogs están comentando la noticia que fue publicada en el blog oficial de Google Webmaster Central sobre el anchor text de los backlinks.

Ahora la herramienta de Google para webmasters, Google Webmaster Tools muestra las 100 frases más frecuentes que usan otras webs para enlazar una web. Anteriormente solo se mostraban keywords.

Esta información puede ser muy interesante para los webmasters que desean controlar el trabajo realizado en la creación una red de enlaces entrantes con palabras claves deseadas; ya que aquí se puede analizar lo que Google realmente sabe sobre una web y que datos usa en sus algortimos para valorar una web para posicionarla en el índice del buscador.

Las frases de los backlinks de una web se las puede revisar en el menu Statisics -> Page Analysis. En el caso de mi blog, la siguiente imagen muestra las frases mas importantes de los enlaces que apuntan a este blog


Frases en los enlaces que apuntan a mi blog
Se debe mencionar que esta herramienta normaliza las frases quitando por ejemplo las comas, caracteres especiales y las mayusculas que se podrian encontrar en el anchor text de los enlaces que apuntan a la web

Sobre los meta tags para los robots

Como es bien conocido, los robots de los diferentes motores de búsqueda, permiten el uso de meta tags para ayudar a los webmasters a controlar la indexación de las webs.

La sintaxis y el uso de estos meta tags es unívoca, pero lo que siempre ha causado confusión es la forma en que son interpretados por los diferentes motores de búsqueda y si es que realmente funcionan efectivamente.

Ayer, Vanessa Fox ha escrito un artículo en el blog de Google Webmaster Central explicando como se deben usar los meta tags para que los robots de Google los pueden interpretar correctamente.

Según este artículo, esta es la lista de meta tags que son reconocidos e intepretados por Google:

  • NOINDEX evita que la página sea indexada
  • NOFOLLOW Evita que el Googlebot siga los enlaces de una página, o mejor dicho los valore para la propagación del PageRank. Aquí se debe mencionar la diferencia del atributo NOFOLLOW en los enlaces que evita seguir los enlaces de una página en forma individual.
  • NOARCHIVE Evita que Google genere, mejor dicho muestre la página de cache en los resultados de búsqueda.
  • NOSNIPPET Evita que en los resultados de la busqueda se muestre una pequeña descripción de la página, que también se la conoce como snippet.
  • NOODP Evita que Google use la descripción de la página en ODP (Open Directory Project) como descripción o snippet en los resultados de búsqueda.
  • NONE es equivalente a «NOINDEX, NOFOLLOW».

Los meta tags deben tener la siguiente sintaxis:

donde VALOR es una de las palabras clave anteriormente mencionadas.

Actualización

Aqui una lista de articulos relacionados con el Googlebot

Todo sobre el Googlebot
Como usar el archivo robots.txt
Testear URL´s bloqueadas

Finalmente Google muestra los backlinks correctamente

Ayer, la noticia más importante fue la presentación de la función de los links en Google Webmaster Tools (pestaña links).

El blog oficial de Google Webmaster Central da más detalles sobre como usar esa nueva herramienta para los webmasters.

En principio existen 2 funciones:

External Links
Esta función muestra una lista de páginas de una web y las páginas externas, es decir de otras webs que las enlazan.

Internal Links
Esta función muestra una lista de páginas de una web y las páginas internas que las enlazan.

En el blog de Google se menciona que estos datos no muestran el 100% de todos los enlaces, pero de todas maneras es mucho más fiable que la función link: del buscador. Cada registo tiene una fecha de descubrimiento o actualización, lo que permite conocer cuando Google ha encontrado a cada uno de los enlaces.

Ambas funciones permiten descargar todos los datos en el formato csv.

Es muy interesante analizar todos estos datos, ya que por ejemplo he encontrado enlaces que apuntan a mis webs que no conocía. También es muy interesante analizar qué páginas internas reciben mas enlaces, etc.

Con seguridad, esta nueva herramienta de Google va ha ayudar a los webmasters a demostrar y/o revocar muchas de las teorías que que habían construido alrededor de los backlinks. Por el momento, estos datos deben ser analizados cuidadosamente para poder sacar conclusiones.

Actualización
Cuando estaba escribiendo esta nota, ya tenia algunos problemas al ingresar a las páginas de esta herramienta. Ahora veo que la pestaña link ha desaparecido. Posiblemente el ataque de los webmasters ha hecho colapsar los servidores de Google, como ya ocurrió por ejemplo luego del lanzamiento de Google Analytics.

Otro de los motivos para la desaparición repentina es un bug que permitia ver los enlaces de cualquier web, cambiando solamente en la URL la página propia con una página de la competencia.

Actualización
Una interesante discusión sobre el tema en el blog de Matt Cutts.

pidiendo por ejemplo mostrar marcados los enlaces con con el atributo nofollow. Según Matt no todos los enlaces que se muestran con esta nueva herramienta tiene ‘peso’, es decir que no cuentan para la valoración de la popularidad de una página web.