Archivo de la categoría: Posicionamiento

Principios del posicionamiento en buscadores

Significa el cambio del referrer el comienzo de resultados en Ajax en el buscador de Google?

Ayer comentaba una entrada en el blog oficial de Google Analytics que parecería ser irrelevante mencionando que el HTTP referrer del buscador de Google será cambiado.

Pero esta nota podría ser el comienzo de una nueva era en el buscador de Google. Si! así es! Existen especulaciones que este cambio se debe a que Google modificará la estructura de las páginas del buscador que todavía están en HTML puro y pasará a usar Ajax.

Es decir que la página de los resultados se mantiene en el navegador y solamente los nuevos resultados son cargados mediante el uso de JavaScript y XML (Ajax). Así los resultados serían más rápidos en algunos milisegundos y también ayudaría a mejorar la carga de los servidores de Google.

A comienzos de año muchos usuarios descubrieron que Google estaba haciendo experimentos con resultados en Ajax, y en respuesta a esto Matt Cutts describe en este vídeo las ventajas que podría un buscador en Ajax

Más discusiones al respecto en CNET y en Google Search System.

Algunos mitos de los SEOS

En Search Engine Roundtable SER han publicado hoy día los resultados de 2 interesantes encuestas:

1. Existe un PageRank artificial?
Hace unos días atrás, hubo una discusión en Webmasterworld si era posible obtener un PageRank en Google sin tener enlaces entrantes. En esa discusión se presento un caso en el que una web subió a PR 5 sin tener enlaces relevantes que puedan explicar este valor.

En la discusión se dice

My assumption is that this unusual PR boost is one of the ways that Google helps «mom and pop» sites compete – something that Matt Cutts made a side comment about on his blog a few years ago. He never said WHAT Google does specifically, only that they do a few things.

Es decir que Google ayudaría a webs de «aficionados» que son interesantes y tienen bastante tráfico con un PageRank artificial, pero no tienen muchos enlaces entrantes que sean relevantes.

En la encuesta que realizo SER, 54% de los SEOs opinan que Google da artificialmente PageRank y el 44% piensa que no

PageRank artificial de Google

Fuente: SER

2. Existen penalizaciones de palabras claves especificas en Google?
La discusión se centra en que si Google puede penalizar una web solamente por una frase de palabras mientras que para otras esta web se puede posicionar muy bien en el índice del buscador.

La encuesta se centro en que si este filtro de Google es manual, algorítmico o que no existe una penalización a palabras claves especificas.

53% de los SEOs respondió que este filtro es algorítmico, 25% piensa que es manual y 22% piensa que no existe este filtro

Flitro de penalización de Google

Fuente: SER

En resumen, estos resultados son bastante interesantes ya que al no haber confirmación directa de Google sobre estos postulados, los SEOs con sus experiencias y/o experimentos pueden más o menos confirmarlos o refutarlos: La mayoría piensa que Google dá PageRank artificiales y que el filtro de penalización para palabras claves especificas si existe y es realizado algoritmicamente.

Google Yahoo y Microsoft crean un atributo para evitar el contenido duplicado

Cómo ya lo habían hecho hace algunos años atrás con el atributo nofollow , ahora Google, Yahoo y Microsoft se han unido nuevamente para definir un nuevo atributo: canonical.

Mediante este nuevo atributo, ahora es posible indicar a los rastreadores de los 3 buscadores cuál es la página web que tiene el contenido principal y que debe ser priorizado para el posicionamiento en el índice de los buscadores.

El problema del contenido duplicado ha sido muy discutido y Google siempre ha mencionado que no había penalizaciones por este motivo, pero siempre le ha sido difícil encontrar la «página original» para colocarla en la posición correcta en el índice. Mientras que las copias siempre han sido relegadas en los resultados.

Para indicar a los rastreadores de que se trata de la página con el contenido original, solamente se debe colocar el siguiente código en HTML en la cabecera (en <header>)

<link rel=»canonical» href=”http://www.mi-dominio.com/pagina-original.html” />

Como era de suponer, este atributo solamente se puede usar en el propio dominio y no para ajenos. Es decir que solamente es válido para evitar el contenido duplicado en el propio sitio o dominio, lo que generalmente ocurre por ejemplo en webs con productos o tiendas online que ofrecen diferentes variedades del mismo producto.

Más informaciones sobre el atributo cannonical

Blog de Google

Blog de Yahoo Search

Blog de Live Search

Microsoft también tiene su guía SEO

En un hilo de Xeoweb leo que Microsoft también tiene una guía de posicionamiento en buscadores, y en español. Hace unos días atrás Google presento una guía básica de posicionamiento, que fue muy comentada y criticada en la blogsefera.

De todas maneras, es muy interesante poder leer en detalle desde otra perspectiva – la de Microsoft –  de cómo posicionar una página web en un buscador, especialmente en Live Search. Pues el «evangelio de posicionamiento» de Google ya  se convertido en la biblia de muchos SEOs y webmasters.

Quiere Google realmente ayudar a los SEOs?

Cómo ya lo mencionaba ayer, Google está tratando de mejorar sus ingresos por publicidad a toda costa para no quedar atrapado en la crisis financiera mundial.

Eso también significa indexar más sitios en su buscador y generar más páginas vistas de los resultados así como también de las páginas de sus soportes para que los anuncios de AdSense puedan generar ingresos a pesar de la baja del numero de anunciantes.

En el marco de esta estrategia, Google está tratando de «ayudar a los webmasters» para que sus sitios sean indexados fácilmente. Para esto está mejorando y dinamizando cada vez más su herramienta Webmaster Tools, y también sus blogs en todos los idiomas y por todos los medios. Por ejemplo, hace unos días se publicaron una serie de vídeos en castellano (para España), y una versión latinoamericana, que todavía no llego a entender a qué país o países está dirigida sobre cómo evitar la indexación de ciertas páginas.

Esta desesperación de «alinear a todos los webmasters» ha llegado a tal extremo que ahora Google ha presentado una Google´s SEO Starter Guide, es decir una guía SEO para principiantes.

Se trata de un documento en formato PDF (descargar aquí) inicialmente en ingles, que seguramente en los próximos días también será publicado en diferentes idiomas. En realidad se trata de una guia de indexación, es decir como lograr que Google pueda indexar las páginas de un sitio correctamente y que su rastreador pueda encontrar la información relevante para el snipet de los resultados.

Es una guía que puede ser muy útil a los webmasters que recién se han dado cuenta de que la correcta estructuración de una página es muy importante para que pueda ser indexada en Google.

Pero sobre los verdaderos trucos del SEO, es decir de cómo posicionar una página en el top 10 de los resultados, no se encuentra ni la sombra. Pero claro, eso sería contraproducente para Google: Si todos conocieran estos trucos, ya no necesitarían AdWords 😉

Una vez más sobre el contenido duplicado

El contenido duplicado es un de los temas candentes y más discutidos entre los SEOs y webmasters. Sobre todo por la cantidad de teorias que circulan y el efecto que pueden tener en el posicionamiento de una página en el buscador de Google.

Ahora en el blog para webmasters de Google en español se ha presentado un interesante artículo sobre la desmistificación de la penalización por contenido duplicado.

Recomiendo a todos la lectura de este artículo que aclará qué es el contenido duplicado y sus posibles efectos en un sitio.

Resumiendo, se puede mencionar

Tener contenido duplicado puede afectar a tu sitio de muchas formas pero, a menos que se haya duplicado contenido deliberadamente, es poco probable que el sitio reciba una penalización.

El susto de Halloween o un error de Google?

Hace algunos días comtaba sobre los grandes cambios que se observaron en el índice de Google y que concidieron justamente con la fiesta de Halloween.

Justo al día siguiente parecía que todo volvía a la normalidad. Los diferentes data centers mostraban nuevamente los resultados antiguos y las páginas que habían caído abismalmente estaban nuevamente en sus posiciones acostumbradas.

Inicialmente nadie sabía lo que había acontecido hasta que, como siempre, Matt Cutts dio la cara por Google en unos comentarios en WebmasterWorld

I think this was a short-term issue and things should be back to normal pretty soon (if not already).

y explicando lo que había sucedido

I don’t consider those rankings indicative of anything coming in the future. Some data went into the index without all of our quality signals incorporated, and it should be mostly back to normal and continuing to get back to normal over the course of the day.

Es decir, se trato de un grave error de los ingenieros de Google que generaron un índice sin colocar algunos de los filtros de calidad.

Esto significa que las páginas que aparecían en las primeras posiciones están penalizadas por Google debido a que no tienen contenido de calidad, o mejor dicho contienen SPAM o usan alguna técnica de posicionamiento no permitida por Google.

Por suerte, todo termino solamente con el susto de cientos de SEOs y webmasters, lo que nuevamente demuestra que todos son completamente dependientes de los resultados del buscador para generar tráfico hacia sus webs.

Pero volviendo al tema del índice, parece qué si se está realizando una gran actualización – la que se acostumbra a realizar a fin de año – ya que los diferentes data centers tienen todavía contenidos diferentes.

Posiblemente vamos a tener que esperar algunos días hasta que todos los DCs convergan. Pero los cambios no serán tan radicales como los del susto de Halloween.

Juega Google al Halloween con los SEOs y webmasters?

Desde hoy día muchos SEOs y webmasters están totalmente aterrorizados con los cambios en el índice de Google. Muchos portales y páginas populares han desaparecido de las primeras posiciones para diferentes palabras claves.

Lo extraño es que no solamente una u otra página ha cambiado de posición, sino más bien el top 10 ha sido completamente modificado.

Actualmente se están llevando grandes discusiones en los foros, por ejemplo en Xeoweb, Webmasterwold , o Abakus-Forum (en alemán) sobre esta actualización de Google y algunos ya la han denominado Actualización Navidad.

Cabe recordar que Google generalmente cada año, al finalizar este, ha realizado grandes actualizaciones. Posiblemente se trata de uno de esos cambios, y seguramente – según ellos – están tratando de mejorar los resultados del buscador de cara a las fiestas de fin de año.

Pero todavía la situación está muy inestable para decir que este será el índice final, ya que los diferentes data centers muestran resultados muy diferentes para palabras claves específicas, como se puede observar en la siguiente imagen

La primera columna muestra los diferentes DCs, la segunda el numero de resultados para la búsqueda que también varía mucho, y la tercera columna la posición.

Cómo se puede observar, actualmente hay por lo menos 4 clases o tipos de estado en los diferentes DCs.

Por eso, tendremos que esperar todavía algún tiempo hasta que todo vaya convergiendo a un estado final.

Cae otro mito sobre la barra de herramientas de Google

Desde que Google publicó su barra de herramientas Google Toolbar, que entre otras funciones muestra la barrita verde o PageRank de una página web, se han creado una serie de mitos sobe su efecto en el poscionamiento de una página web.

Uno de estos mitos dice que si se visita una página web nueva, no descubierta por Google, con un navegador que tiene instalada la barra de herramientas, el rastreador de Google visita esta página y la indexa en el buscador.

Ahora, Matt Cutts, nuevamente y después de que lo hizo en el 2006, menciona en un post qué esto no es cierto. y hace una alusión a una nota en Information Week.

Y justamente este es uno de los grandes riesgos que corre el oficio del SEO. Muchos de los llamados nuevos expertos re-inventan historias y mitos antiguos que ya fueron refutados y tratan de hacerse populares con este tipo de hallazgos.

Este es uno de los motivos por los cuales, el SEO nunca se va lograr posicionar como una actividad que pueda ser seria por los posibles clientes.