Archivo de la categoría: Buscadores

La búsqueda de Microsoft ya redirecciona a Live Search

Como ya lo había mencionado ayer Microsoft Live ya esta Online. Ahora, la búsqueda estandard de Microsoft search.msm.com redireccona con un 302 (Move temporarily) a Live Search, como se muestra en la siguiente cabecera de respuesta al HTTP-Request GET http://search.msn.com/ HTTP/1.1

HTTP/1.x 302 Moved Temporarily
Content-Length: 0
Location: http://www.live.com/?searchonly=true
X-Powered-By: ASP.NET
P3P: CP="NON UNI COM NAV STA LOC CURa DEVa PSAa PSDa OUR IND", policyref="http://privacy.msn.com/w3c/p3p.xml"
X-TraceID: b2d2b0f6062b4811875cdd57c5ef717f
Expires: Thu, 14 Sep 2006 13:17:41 GMT
Cache-Control: max-age=0, no-cache, no-store
Pragma: no-cache
Date: Thu, 14 Sep 2006 13:17:41 GMT
Proxy-Connection: keep-alive

Esta redirección con un 302 ya ha ocasionado una serie de discusiones en los diferentes foros.

Via Search Engine Roundtable

Búsqueda de recetas de cocina en Google

El buscador de Google en alemán ofrece un servicio muy interesante que he tratado de buscarlo en la versión en ingles y español pero no la he encontrado. Se trata de un buscador de recetas de cocina como se puede apreciar en las siguientes imágenes.


Recetas de cocina en Google


Recetas de cocina en Google

También cabe mencionar de que de los resultados que se muestran son de Google Base. No sé si se trata de un experimento o es parte integral del buscador en alemán. Habra que esperar un tiempo par ver si este tipo de búsquedas también funcionan en otros idiomas.

Via Suchmaschinen News

Sobre la fecha en el cache de Google

Hace unos días en una entrevista de Matt Cutts por Vanessa Fox en WebmasterRadio.fm, Matt explicaba por qué en muchos casos la fecha del cache del buscador es antigua. Según él, cuando googlebot visita la página y el servidor web le devuelve un mensaje indicando que la página no ha sido modificada desde la ultima visita, entonces la fecha en el cache no era actualizada. De esta manera parecía que el googlebot no había pasado por la página.

En los próximos días, los ingenieros de Google van a resolver este problema y el cache mostrará la fecha de la ultima visita del googlebot, independientemente si es que la página no hubiese cambiado.

Esta explicación ahora también se la puede leer en el blog de Google Webmaster Central.

Actualización
Matt ha presentando un video en el cuál trata de explicar como funciona el googlebot.

Después de 11 meses Google pierde terreno en el mercado de los buscadores

Según el último informe de comScore Networks, Google ha bajado su penetración en el mercado de los buscadores después de 11 meses de crecimiento consecutivo en los Estados Unidos. El mes de Junio tenia 44,7% mientras que en Julio bajo a 43,7% de todas las búsquedas en los Estados Unidos.

Mientras tanto Yahoo! aumento de 28,5% a 28,8% y MSN Search, que esta en tercer lugar, se mantuvo con 12.8%.

En lo que se refiere a las variaciones anuales, Google aumento en un 7,2%, mientras que Yahoo! perdió 1,7% y MSN Search perdió 2,7%

Los resultados generales se los puede observar en la siguiente tabla:

Share of Online Searches by Engine
July 2006 vs. July 2005
Total U.S. Home, Work and University Internet Users
Source: comScore qSearch

Jul-05

Jun-06

Jul-06

PtChg vs. Yr Ago

Total Internet Population

100%

100%

100%

N/A

Google Sites

36.5

44.7

43.7

7.2

Yahoo! Sites

30.5

28.5

28.8

-1.7

MSN-Microsoft Sites

15.5

12.8

12.8

-2.7

Time Warner Network

9.9

5.6

5.9

-4.0

Ask Network

6.1

5.1

5.4

-0.7

Via heise online

Actualización
Intersante artículo sobre el tema en Search Engine Watch

Enlace al directorio de Google desaparece de la página principal

El conocido directorio de Google, que forma parte del Open Directory Proyect (ODP) a desaparecido de la página inicial del buscador en diferentes idiomas como ser google.com, google.de, google.es, etc.

Esto muestra que el interés de este directorio y por consiguiente del proyecto ODP ha caído mucho en el último tiempo.

Seguramente Google tampoco ya tomará la descripción de los registros de ODP para crear el snippet para la descripción de los sitios en el buscador. En los últimos meses Google ha creado un meta-tag para que los webmasters puedan elegir cual será el texto que tome el buscador: La descripción del registro en el directorio o directamente de la página misma.

La historia de los buscadores

OjoBuscador ha presentado un artículo interesante sobre la historia de los buscadores desde 1993 hasta 2006.

En forma resumida y sin entrar mucho en los detalles teóricos sobre los motores de búsqueda, el OjoBuscador describe en forma cronológica cada uno de los buscadores que han aparecido en este lapso de tiempo.

A continuación la tabla de buscadores según OjoBuscador:

1993 Wandex, Aliweb, robots.txt
1994 EInet Galaxy, JumpStation, Yahoo! (directorio), WebCrawler, WWWWorm, InfoSeek, Lycos,RBSE
1995 MetaCrawler, Excite, LookSmart, Altavista
1996 Hotbot / Inktomi, Ask Jeeves, Backrub / Google
1997 Norther Light
1998 MSN Search, ODP / DMOZ
1999 AllTheWeb, Baidu
2000 Teoma
2004 Yahoo! (buscador), Nutch, Clusty, MSN Search (buscador)
2005 Windows Live


Lamentablemente este informe esta incompleto, ya que faltan muchos otros proyectos como por ejemplo Quaero, Noxtrum, etc.

Cabe mencionar que Wikipedia, también tiene un buen resumen sobre las historia de los buscadores.

Google Webmaster Central

Hace unos días hablaba de que Google esta tratando de retro-alimentarse u obtener feedback de los webmasters para mejorar los algoritmos de su buscador en esta nota.

Hoy día, el weblog de Search Engine Watch informa que Google ha creado una página central, Google Webmaster Central que direcciona a algunas herramientas como Google Sitemap y a diferentes foros de discusiones y blogs para webmasters.


Google Webmaster Central

Paralelamente, se ha modificado el nombre de Google Sitemaps a Google Webmaster Tools como lo menciona Vanessa Fox en este weblog.

También se ha creado un nuevo weblog para webmasters.

Aunque todavía no se ve nada novedoso, creo que es un buen paso para ayudar a los webmasters a mejorar sus proyectos y lograr que se puedan posicionar mejor en el buscador. Así también Google podrá con este feedback mejorar sus algoritmos y servicios.

Sobre las ultimas actualizaciones de Google

En los últimos días Matt Cutts ha estado presentando varias sesiones de videos, en las cuales responde a las preguntas que los webmasters han escrito en su weblog.

La sesión 8 me parece una de las más interesantes, pues Matt explica algunos conceptos que se usan en relación a las actualizaciones del buscador, y especialmente a las actualizaciones del 27.06. y 27.07.

Aquí una transcripción semántica de las mas importantes partes de este video:

Actualizacion del indice (index update)
En el año 2003 este tipo de actualizaciones era comun y se realizaba mensualmente. Se podían modificaban los algoritmos, los datos, en realidad todo podía cambiar. Era una tarea bastante compleja.

Ahora que Google puede refrescar el índice en forma diaria, es un proceso de flujo continuo. Lo que la mayoría de los usuarios puede apreciar son las actualizaciones de los algoritmos.

Ya no se observan muchas actualizaciones del índice, debido a que se cambio el ciclo mensual de actualizaciones al refrescado (refresh) diario. La única situación en que se pueden observar actualizaciones del índice es cuando existen algunas incompatibilidades entre el índice antiguo y el nuevo. Entonces es necesario recalcular el índice completamente.

Actualización de algoritmos (algortihm update)
En principio sucede cuando se cambian los algoritmos, por ejemplo cuando se cambian los pesos para el PageRank. Estas actualizaciones pueden suceder con bastante frecuencia y son llamados asincronicos, ya que se aplican después de que son evaluados positivamente y mejoran la calidad del índice.

Estas actualizaciones ocurren semanalmente o mensualmente. Y justamente los cambios que los usuarios han percibido en 27.06 y 27.07 fueron actualizaciones de algoritmos que ya estan funcionado hace mas de año y medio. (Aquí Matt da algunos consejos a los webmasters que han sido afectados por estas actualizaciones indicando que revisen sus páginas muy bien y que busquen si han sido sobre optimizadas, y si la página tiene buen contenido, Google la colocará nuevamente en su posición correcta)

Refescado de datos (data refresh)
Es la parte más pequeña de los cambios que se realizan, y son los cambios de datos sobre los cuales los algoritmos trabajan.

El refrescado de datos sucede continuamente, por ejemplo el PageRank se calcula continuamente y es usado por los algoritmos.

Matt presenta una metáfora con un carro: una actualización de índice significaría cambiar partes grandes y principales del carro. Una actualización de los algoritmos sería como cambiar solo algunas partes del carro. Mientras el refrescado de datos significaría el cambio de gasolina en el carro, es decir lo que usa el carro para funcionar.

Me parece que estas son las primeras informaciones casi oficiales de Google que obtenemos sobre el funcionamiento de la nueva infraestructura BigDaddy y explica muy bien el porqué los webmasters estaban tan desconcertados con los resultados del buscador:

  • El antiguamente conocido Google Dance es simplemente la actualización completa del índice que ya no se observa más.
  • Las bajadas y subidas continuas de posición en el Ranking de las páginas se deben al refrescado de los datos que ocurre continuamente. Aquí también se debe mencionar que el PageRank, que es calculado continuamente, tiene su influencia inmediata en el Ranking y la barrita verde de la Toolbar de Google solo muestra un valor obsoleto.
  • Finalmente, los cambios del Rnaking que pueden ser percibidos por muchos webmasters se deben a las actualizaciones o introducción de algoritmos (que talvez en este caso también se los pueda llamar filtros) que pretenden mejorar la calidad del índice.

El foro de webmasters que tiene más influencia en Google

La reto-alimentación es muy importante en el software. Con todos los reportes o feedback de los usuarios sobre un programa o un paquete de software, los desarrolladores del mismo pueden encontrar y solucionar errores, así como también mejorar la funcionalidad, usabilidad, y por ende la calidad del producto.

Esto se ha podido apreciar en los últimos años con Microsoft: La mayoría de sus productos pasan por una serie de versiones beta que son entregados al publico en general o a usuarios escogidos. Después de recoger las opiniones de estos usuarios, se procede a lanzar la siguiente versión beta y así sucesivamente, hasta que finalmente se libera la versión final del producto.

Por ejemplo, el nuevo sistema operativo de MS, Microsoft Vista, esta pasando este ciclo de control publico y su introducción al mercado ya ha sido pospuesta varias veces por no haber pasado satisfactoriamente estos controles.

Ahora bien, algo similar sucede con los motores de búsqueda, que en realidad también son componentes de software. Los ingenieros que se dedican a crear, modificar y mejorar los algoritmos de los buscadores no pueden prever todos los posibles casos que se presentan cuando estos algoritmos o filtros se aplican a todo tipo de páginas web. El universo de prueba que ellos pueden abarcar es muy pequeño.

Por este motivo, es muy importante obtener la mayor cantidad de reportes o feedback de los webmasters para poder comprobar la efectividad de los cambios realizados, así como para poder encontrar posibles errores.

Google también ha reconocido la necesidad del feedback y esta tratando de mejorar su comunicación con los webmasters.

Uno de los canales mas importantes que Google ha estado usando para comunicarse ha sido mediante Matt Cutts, el jefe del equipo anti-SPAM de Google, que publica regularmente en su weblog, algunas informaciones sobre los cambios en el buscador y responde a las preguntas de los webmasters.

Justamente esta semana Matt ha comenzado ha presentar una serie de videos que contestan muchas de las preguntas básicas que tienen los webmasters. La lista de los sesiones es la siguiente:

Sesiones 1, 2, 3
Sesiones 4, 5, 6
Sesiones 7,8
Sesion 9

Pero también Google esta tratando de contestar las inquietudes de los webmasters en los foros, y justamente han escogido Webmaster World, que como se sabe es leído con mucho interes por los ingenieros de Google y donde también algunos de ellos también participan. Entre ellos están Adam Lasnik, Matt Cutts, GoogleGuy (que se cree que es Matt) y justamente hoy dia Vanessa Fox del equipo de Google Sitemaps ha comenzado a dar su opinión en este hilo.

En muchas oportunidades las sugerencias de los foreros en Webmasterworld han sido aplicadas en los resultados del buscador de Google y seguramente ahora que varios empleados de Google están en el WMW oficialmente, la influencia de este foro aumentará aun más.

Por este motivo, se puede decir que WMW junto al blog de Matt son actualmente las mejores fuentes de información sobre el motor de búsqueda.

Que esta sucediendo con el buscador de Google?

Como ya es bien conocido, el trabajo de optimización de páginas web en buscadores (SEO) no puede ser considerado como una ciencia. Es más bien, una tarea empírica que esta guiada por los resultados que se observan en el índice o ranking del buscador al colocar datos (una página web) en una caja negra (el algoritmo del buscador). Esta situación se puede apreciar más claramente en el siguiente diagrama:


Proceso de optimizacion

Proceso de optimización de páginas web

En el transcurso de los años los SEOs han aprendido – observando los resultados del índice y realizando diferentes experimentos – en forma general el funcionamiento de los algoritmos de los buscadores.

Usando estas observaciones, los SEOs han creado unas serie de reglas para poder manipular la posición de una página web en el índice de los buscadores. Estas reglas se pueden por lo general dividir en 2 clases:

Optimización On Page
Comprenden todas las reglas de optimización que se pueden realizar directamente en la página misma. Todas estas reglas pueden ser realizadas por el webmaster. Entre estas se cuentan por ejemplo:

  • definición de la URL de la página
  • definición del título de la página web
  • definición de los diferentes meta tags como ser keywords y description
  • definición del contenido usando las palabras claves en forma adecuada en todo el texto para aumentar su densidad en el contenido, así como también usando los tags de HTML (h1, h2, b, etc.) para mostrar la relevancia de las palabras claves
  • estructuración de los enlaces internos para insinuar la importancia de la página en toda la web
  • Y otras reglas de menor importancia

Optimización Off Page
Comprenden todas las reglas que se usan para optimizar una página pero que se encuentran fuera de la web y que en realidad no están bajo control del webmaster. Y justamente por esto, por ejemplo Google le da más importancia. Entre estas reglas se tienen:

  • El numero de enlaces que apuntan a la página, y que es un factor para el calculo del PageRank de Google que definía en el algoritmo original la popularidad de una página
  • Enlaces de páginas con autoridad y de temas relacionados a la página
  • El porcentaje de visitas recurrentes que es una métrica de la calidad del contenido
  • Y otras reglas con menor relevancia

Solamente, siguiendo estas reglas – mas o menos al pie de la letra – era posible con relativa facilidad manipular los resultados del ranking de los buscadores y alcanzar las primeras posiciones.

Justamente en los últimos días Matt Cutts, un empleado de Google que hace de comunicador inoficial entre Google y los webmasters, ha presentado una serie de videos en los que responde a muchas de estas preguntas básicas:

Sesiones 1, 2, 3
Sesiones 4, 5, 6

El uso de estas reglas también fue aprovechado por black hat SEOs para posicionar sitios con contenidos basura, SPAM que comenzó a mediados de los años 90. Por este motivo, Google comenzó a modificar sus algoritmos para limpiar su índice de basura.

Se fueron adicionando una serie de nuevos filtros, como por ejemplo la edad de los dominios. Los dominios nuevos, que podrían haber sido creados por spamers, son inicialmente penalizados en el ranking y no pueden alcanzar las primeras posiciones para las diferentes palabras claves.

La cúspide de estos cambios en los algoritmos de Google se alcanzo con la implementación de una nueva infraestructura (no se sabe a ciencia cierta sí este termino se refiere a nuevo hardware, base de datos, o simplemente a los algoritmos) que se la llamo Bigdaddy y que comenzó a propagarse en Enero 2006 y concluyo a fines de Marzo 2006.

Después de la finalización de Bigddady, el mundo SEO ya no es el mismo: A pesar de que las reglas mencionadas anteriormente aun tienen parcialmente vigencia, ya no es posible posicionar una página tan fácilmente.

Mas aun, actualmente tampoco es posible obtener información confiable sobre las razones de las bajadas y subidas de las páginas en el ranking de estos días.

Solamente se ha podido percibir que el 27.06.06 y el 27.07.06 actualizaciones del índice han afectado a muchos sitios. Estos días estuve revisando diversos foros en diferentes idiomas, y solo se puede leer que muchas páginas han caído considerablemente en el ranking, pero nadie puede dar una explicación plausible del porqué.

Parece que los filtros que se han usado en estas actualizaciones, o como muchos las denominan index refresh, afectan a sitios completos y no a páginas aisladas. Parecería ser que los sitios con contenidos antiguos y estáticos son los afectados, mientras que sitios que actualizan sus contenidos regularmente se han mantenido en sus posiciones.

La única alternativa que por ahora queda es la diversificación del portafolio de proyectos para que se puedan de alguna manera equilibrar tanto las caídas como las subidas en las posiciones.

Si es que alguien tiene alguna sugerencia o teoría sustentable, todos los comentarios son bienvenidos.