Archivo de la categoría: Posicionamiento

Principios del posicionamiento en buscadores

Actualización de la herramienta del Google Ranking

Hace ya algún tiempo he escrito un artículo sobre la estabilidad del Google Ranking en los diferentes data centers (DCs).

En base a los resultados de este artículo he creado una herramienta que calcula la estabilidad de una página web para una frase dada en diferentes DCs. Adicionalmente, también he creado otra herramienta que muestra el Google Ranking en diferentes data centers.

Debido a una discusión y algunas sugerencias de los foreros de xeoweb he realizado algunas mejoras a esta herramienta:

  • El numero de los data centers analizados ha sido elevado a 40
  • Ahora la herramienta muestra hasta las primeras 400 posiciones

La siguiente imagen muestra un ejemplo de los resultados en varios data centers:

Los nuevos resultados de la herramienta del Google Ranking

Espero que les sea de utilidad, y si es que tienen sugerencias cosntructivas, las pueden dejar aquí.

Keyword Discovery – otra herramienta para generar palabras clave

Hace unos días presente Wordtraker – Keywords como un remplazo a la herramienta de Yahoo! (antes Overture) que dejo de funcionar hace unos días y nuevamente esta operativa.

La desventaja de las herramientas anteriormente mencionadas es que se basan en un solo motor de búsqueda en ingles, mientras Keyword Discovery se basa, según lo informan, en mas de 180 motores de búsqueda a nivel mundial.

Pero lamentablemente, tampoco genera resultados fiables para búsquedas en Español. Como ejemplo he tomado la palabra vuelos. Los resultados con Keyword Discovery se pueden observar en la siguiente imagen:

Keyword Discovery

Mientras que Free Keyword Tracker muestra para la misma búsqueda los siguientes resultados:

Free Keyword Tracker

Ahora bien, si comparamos las palabras claves vuelos, vuelos baratos, y ofertas vuelos en Google Trends obtenemos el siguiente gráfico:

Vuelos en Google Trends

Esto nos muestra claramente que los resultados de Keyword Discovery, por lo menos en español, no son fiables, a pesar de que mencionan que usan mas de 180 motores de búsqueda para recolectar sus datos y eso durante todo un año.

Lamentablemente hasta ahora no se cuenta con una herramienta fiable para analizar y sugerir palabras claves en español…

Wordtracker lanza una herramienta gratuita para sugerir palabras clave

Wordtracker Keywords
Una de las tareas fundamentales que tienen los SEOs que desean posicionar una web en un sector especifico es el estudio de cuales son las palabras claves y las respectivas combinaciones que son más buscadas en los diferentes motores de búsqueda.

Una posibilidad es usar la herramienta de Google AdWords Keyword-Tools, que muestra resultados en forma cuantitativa. Otra forma de análisis es la realización de campañas de prueba con AdSense. Aquí si se puede obtener el volumen exacto de las búsquedas para las palabras claves que se deseen.

También Overture, un servicio similar a AdSense y que fue comprado por Yahoo! ofrecía un servicio similar, pero desde algún tiempo ya no funciona más. Search Engine Land informa que Yahoo! estaría trabajando en una nueva herramienta para sugerir palabras claves.

Ahora también Wordracker ha presentado una herramienta similar a la de Overture, Wordtracker Keywords y genera en la versión gratuita hasta 100 combinaciones de palabras claves mostrando el volumen de sus búsquedas en forma mensual.

Lamentablemente esta herramienta esta pensada mas para el mercado de búsquedas en ingles, ya que el volumen de las palabras en español es muy bajo y no pueden ser usadas como base para un análisis serio.

Ahora puedes mostrar los enlaces entrantes a tu web con Yahoo!

Hoy día Yahoo! ha anunciado la posibilidad de mostrar el numero de enlaces entrantes a tu dominio o a una página web especifica, usando un pequeño código en JavaScript. El resultado, para mi blog es el siguiente:

Formato pequeño

Formato grande

Además de ser una buena publicidad para Yahoo, no creo que tenga mucho valor informativo para los visitantes normales de una web. Tal vez solo para los webmasters y SEOs que analizan webs y buscan intercambiar enlaces.

Mas informaciones en el Site Explorer de Yahoo!


Actualización
Pablo Reyes me ha hecho notar lo siguiente: Debido a que WordPress no permite colocar directamente el código de Yahoo, lo he colocado en un iframe, y al hacer clic en las imágenes se abre la página de Yahoo, pero en el marco pequeño. La página que se debe abrir es la siguiente y muestra todos los enlaces hacia mi blog.

Cuales son los precios que se pagan por enlaces?

Esta pregunta se ha vuelto muy común entre los webmasters que desean posicionar sus webs.

Una de las formas para mejorar la posición de una página en los buscadores es la compra de enlaces de calidad y con un buen PageRank.

En el ultimo año, la compra y venta de enlaces se ha popularizado ya que es la forma más sencilla de conseguir enlaces. Como es conocido, el intercambio de enlaces es una tarea que toma mucho tiempo, y generalmente páginas con un buen PageRank y popularidad no intercambian enlaces con ‘cualquiera’.

Existen muchas webs en ingles que es ocupan con la compra-venta de enlaces, y también ya están apareciendo algunos proyectos en español como por ejemplo ComprarEnlaces o eTexto que se dedican exclusivamente a este tema.

Lamentablemente, a la hora de comprar enlaces uno no sabe a ciencia cierta cuando debe pagar. Search Lab, un proyecto en alemán, ha creado un índice de precios para enlaces, que es publicado mensualmente. Por ejemplo, los precios de enlaces para el mes de Diciembre 2006 se muestran en la siguiente imagen:

Indice de precios de enlaces

Por ejemplo un enlace desde una página con PR5 costaba en Diciembre 17,82€, con PR6 36,12 € y con PR8 193,50 €

Aunque estos precios se basan en el mercado alemán, creo que son una buena base para poder orientarse cuando se quiere comprar o también vender enlaces.

Entrevista con Vanessa Fox de Google

Durante la conferencia SES Chicago 2006, Rand Fishkin, CEO de SEOmoz, ha realizado una entrevista en vídeo con Vanessa Fox de Google Webmaster Central.

Vanessa Fox

El contenido de la entrevista se lo puede resumir en los siguientes puntos:

Contenidos duplicados
Vanessa ha explicado como funciona el filtro de contenidos duplicados. Según ella, si existen contenidos similares en la misma página no hay penalidad, sino solo se trata de un filtro. En vez de colocar en el índice de Google varias URLs de la misma web con contenidos similares solo se indexa una de esas páginas. La mejor forma de evitar este filtro es controlar la web si tiene contenidos similares y si es necesario colocarlos solamente en una página que tendrá más relevancia en el índice.

Sitemaps
Vanessa ha explicado que los diferentes formatos que soporta Sitemaps, como XML, texto plano, OAI-PMH, y otros nos indiferentes para su procesamiento. El webmaster debería elegir el formato que mas le convenga y que sea más facil de generar para él.

También ha mencionado que Sitemaps no tiene ningún impacto en el Ranking, y solo sirve para agilizar y mejorar el rastreado de una web.

Sitemaps ayuda a Google a tener una mejor visión de una web, y es mejor que estar rastreando los enlaces de la misma página por página.

El PageRank
El PageRank que se muestra en esta herramienta es más actualizada que la que se puede ver en barrita verde de Google Toolbars. Esto se debe a que estos datos se actualizan más a menudo que la barrita verde, y por que solo la puede ver el webmaster de la página.

Links
Aquí, Vanessa da los consejos estándares de buscar enlaces de páginas interesantes y que puedan generar trafico.

Google esta planificando visualizar todos enlaces entrantes (backlinks) a una web, ya que estos datos solo pueden ser vistos por el webmaster, mientras que la función link: del buscador es publica.

Pubcon 2006 en Vegas – Sesión de análisis de páginas web

La semana pasada se realizo la conferencia Pubcon 2006 Vegas. La recapitulación de la conferencia esta aquí.

Una de las sesiones más interesantes es la que se ocupa de analizar algunos proyectos de páginas web que son propuestas por los participantes. Entre los panelistas estuvieron Greg Boser (WebGuerrilla), Tim Mayer (Yahoo!), Danny Sullivan, Todd Friesen y Matt Cutts (Google).

Matt ha resumido en su blog esta sesión y como siempre, es interesante leer sus notas con atención, pues muchas veces entre líneas se puede obtener informaciones sobre procesos internos de los algoritmos del buscador de Google.

Aquí algunos ejemplos:

The wrong thing to do is to try to add a few extra sentences or to scramble a few words or bullet points trying to avoid duplicate content detection. If I can spot duplicate content in a minute with a search, Google has time to do more in-depth duplicate detection in its index.

En este caso se estaba analizando una página que vende regalos promocionales. Matt encontró con sus herramientas mas de 20 webs del mismo propietario, muchas de las cuales tenían contenido duplicado.

Esto demuestra una vez más que Google esta tomando muy en serio el asunto del contenido duplicado y que rápidamente puede identificar si el propietario de una web tiene otros sitios con contenidos similares.

Otro punto que también se debe mencionar es que posiblemente Google corre periódicamente procesos bien complejos para encontrar contenidos duplicados.

for the real estate licensing site is that in less that a minute, I was able to find 50+ other domains that this person had–everything from learning Spanish to military training. So I got to say “Let us be frank, you and I: how many sites do you have?”

En este caso se trababa de una página de un quiropráctico que inicialmente se veía bien. Luego Matt encontró que tenia más de 50 dominios con un sinnúmero de temas.

Esto demuestra que Google analiza todos los dominios registrados a una persona o empresa y si los temas de las webs son completamente diferentes, podría ser un indicio de spamming?

When I saw that in the backlinks, I tried to communicate that 1) it was immediately obvious to me, and therefore our algorithms can do a pretty good job of spotting excessive reciprocal links, and 2) in the instances that I looked at, the reciprocal links weren’t doing any good.

Una vez mas, queda demostrado de que Google puede analizar los enlaces recíprocos y que su excesivo uso puede ser dañino.

The peripheral site had urls that were like /i-Linksys-WRT54G-Wireless-G-54Mbps-Broadband-Router-4-Port -10100Mbps-Switch-54Mbps-80211G-Access-Point-519, which looks kinda cruddy. Instead of using the first 14-15 words of the description, the panel recommended truncating the keywords in the url to ~4-5 words.

Este es un tema que ya se discutió en un hilo de hoboseo y corrobora que URLs con muchas keywords separadas por ‘-‘ pueden perjudicar el posicionamiento de la página. Una URL con 4 – 5 keywords parece que todavía es aceptable.

and when I checked the whois on them, they all had “whois privacy protection service” on them. That’s relatively unusual. Having lots of sites isn’t automatically bad, and having PPC sites isn’t automatically bad, and having whois privacy turned on isn’t automatically bad, but once you get several of these factors all together, you’re often talking about a very different type of webmaster than the fellow who just has a single site or so.

Esto puede ser una señal que confirmaría que los algortimos de Google usan la información de WHOIS para valorar las páginas web.

Como se puede apreciar, siempre los comentarios de Matt confirman o revocan muchos de los mitos que circulan en el mundo SEO.

Páginas web para humanos o motores de búsqueda?

Vanessa Fox de Google, ha escrito un artículo en el blog oficial de Google Webmaster Central con algunas normas para que los webmastes armen sus webs primeramente dirigidas a sus visitantes pero también pensando en lo que los crawlers de los buscadores esperan encontrar en una página web para poder posicionarla en los buscadores correctamente.

Aunque el artículo no tiene muchos argumentos nuevos, se puede resumir de que entre las cosas más importantes para crear una página web que pueda ser indexada con facilidad se tienen:

  • Crear páginas con buenos títulos.
  • Usar mucho texto y evitar solo flash o solo imágenes.
  • Crear contenido de calidad para los visitantes.
  • Asegurarse de que la página web siempre sea accesible.

Novedades sobre el PageRank de Google

Después de que Matt Cutts de Google publico en su blog una entrada indicando que se se estaba realizando la actualización del PageRank, le llovieron una gran cantidad de preguntas sobre el tema.

Ahora las ha contestado en una nueva nota Mas Infos sobre el PageRank. A pesar de que son novedades que ya se conocían hace bastante tiempo, es muy bueno que sean ‘oficializadas’ de una vez por todas.

Entre los puntos más importantes se puede destacar:

El valor del PageRank se lo debería considerar como un numero float. El PageRank interno tiene más grados de resolución que de 0-10 como se muestra en la barra de herramientas.

Si a uno no le importa el PageRank y la página esta bien posesionada, entonces no hay por que preocuparse.

La mayoría de los data centers ya tiene la nueva infraestructura para las funciones info:, related:, link: y PageRank. Pero no seria sorprendente de que los otros DCs necesiten 1 a 2 meses para cambiar a esta nueva estructura.

Uno no se debería preocupar por la fecha del PageRank. En algún momento tomamos los PRs internos y los exportamos al PR visible de la barra de herramientas de Google. En vez de preocuparse por la fecha del PR y de los backlinks, es mejor analizar los logs del servidor y las palabras claves, para crear nuevo contenido pensando en mantener la atractividad de la web.

El PageRank se calcula continuamente. Existen maquinas en Google que toman datos y alimentan al algoritmo del PR. De esta manera en un momento dado, una URL siempre tiene un PR actualizado. De tiempo en tiempo este valor es exportado a lo que vemos en la barra de herramientas.

La exportación del PageRank no es ningun evento importante en Google, y ni siquiera sabia que se realiza cada 3-4 meses.

En el momento que se puede observar el PageRank en la barra de herramientas, estos valores ya han sido incorporados en los resultados del índice. Por ese motivo no se observan cambios en el Ranking al aparecer este nuevo PR.

Finalmente, en un comentario Matt dice:

Oy, enough PageRank questions! 🙂 My advice is not to obsess about PageRank too much; it is one of more than 100 different factors in how we score documents.