Esta semana está llena de confusión entre los SEOs y webmasters: Desde hace unos días atrás se han visto muchos cambios en el índice de los resultados del buscador de Google, pero no se conoce con exactitud el origen de estos cambios.
Hace un mas o menos mes atrás se anunciaba que Google estaba preparando una actualización que tenia como objeto la sobre-optimización (ver Cómo prepararse para la próxima penalización de Google por sobre-optimización), también se hablaba de una nueva actualización de Panda, y finalmente en un post en blog oficial de Webmasters de Google se habla de una actualización que pretende mejorar los resultados del buscador evitando el web spam (ver Un paso más en el reconocimiento de sitios de gran calidad). En este post en español se pueden ver muchos comentarios de usuarios que no están nada contentos con esta nueva actualización.
Entre las técnicas que se quieren combatir con esta actualización se tienen:
– Uso excesivo de palabras clave
– Redes de enlace
– Enlaces salientes que no tienen relación con el contenido
Según Google, la presente actualización afectará al 3% de las búsquedas (Panda afectó al 12% de las búsquedas) en ingles, al 3.1% a idiomas como alemán o chino, y en idiomas en que existe más spam, cómo por ejemplo polaco, los cambios afectarán a un 5% de las búsquedas.
En lo que se refiere al español, parece también han sido afectados muchos sitios, cómo se desprende de los comentarios de este post de vivir en la red.
Pero bueno, esto no es todo: Google también ha realizado una actualización de Panda para los sitios web en ingles (Panda Update 3.5 Is Live: Winners & Losers) lo cuál ayer a causado gran confusión. La actualización de Panda se ha publicado más o menos el 19 de Abril.
Seguramente esta actualización de Panda también se va a propagar a los sitios web en español en las próximas semanas, por lo que ahora los SEOs y webmasters tienen que estar muy atentos a lo que ocurra en los resultados del buscador.
Actualización
La actualización contra el web spam acaba de recibir un nombre oficial penguin update.
En los últimos meses Google está realizando una serie de nuevos cambios en sus algoritmos que están causando revuelo entre los SEOs y webmasters. Por ejemplo, hace algunos días se realizó una actualización que penaliza a los sitios que tienen backlinks dudosos: ya sea links pagos o de redes de sitios de spam.
Google se ha tomado la libertad de enviar emails a los websmasters de los sitios afectados y que están inscritos en Webmaster Tools (WMT).
Justamente hoy día en Search Engine Watch se habla sobre este tema en Negative SEO: Looking for Answers from Google y se menciona que ahora sí es posible afectar a un sitio de la competencia usando SEO negativo, es decir colocando una serie de enlaces malos apuntado al sitio que se desea dañar.
Pero bueno, esta no es la única actualización que esta poniendo en apuros a los SEOs. En el mes de Marzo, en un evento SEO, Matt Cutts informo que Google estaría trabajando en una actualización para penalizar sitios que han sido sobre-optimizados. Este nuevo cambio todavía no se ha activado en los resultados del buscador, pero ya todos están asustados por los efectos que va a causar.
Rand Fishkin ha presentado en su conocido Whiteboard Friday 6 importantes puntos que deben considerarse para evitar una posible penalización por sobre-optimización SEO. Les recomiendo ver este vídeo con mucha atención y preparase para el nuevo ataque de Google.
Para todos los webmasters y SEOs, el rostro de Matt Cutts es super conocido y con seguridad a muchos les ha causado muchas pesadillas.
Hoy día, y por primera vez GWT (Google Webmaster Tools) ha presentado un vídeo muy refrescante con una nueva cara, Tiffany Oberoy. Y los comentarios en el canal de Youtube de GWT son muy alentadores.
Actualmente todos hablan sobre la última actualización del buscador de Google – Panda – qué por ahora solo afecta al índice de webs en idioma ingles. Pero muy pocos son los que realmente han entendido la idea que está detrás de este nuevo cambio en el algoritmo de Google.
Según Danny Sullivan, Panda se trata de un nuevo factor de Ranking más de que un cambio en el algoritmo. Y aunque algunos de sus comentadores le han insinuado que cualquier cambio en los factores o señales del ranking, lleva consigo un cambio en el algoritmo, Danny tiene razón: La actualización Panda se trata de la introducción de una nueva señal o factor en el algoritmo del buscador de Google. En este caso se trata de una señal bastante compleja que usa algoritmos de aprendizaje automático (machine learning algorithms) usando diferentes clasificadores.
Por la complejidad del calculo de estas señales (se usan muestras con ejemplos de webs que son presentadas a grupos de usuarios en forma de encuestas, para luego ser generalizadas al universo de páginas web que Google ha rastreado) estos cálculos no se pueden realizar en tiempo real, y los cambios en el índice se realizan en periodos de 15 a 30 días, exactamente cómo antes ocurría con el indice completo, el famoso Google Dance.
Por ahora Panda todavía no ha afectado sitios webs que no sea en ingles, pero se espera que ha medida de que estas nuevas señales sean afinadas para el ingles, se propagarán también a otros idiomas.
Según Rand, con este nuevo factor en los algoritmos de Google, las practicas en el posicionamiento han cambiado totalmente. Además de considerar la optimización «on page», el buen contenido, la creación de enlaces de calidad, ahora también será muy importante considerar: La usabilidad de las páginas web, el contenido único y de valor para los usuarios, así como también varias métricas de uso. Entre estas métricas se puede mencionar el tiempo de permanencia en el sitio web, el porcentaje de rebote, el CTR desde los buscadores, la diversidad del origen del tráfico al sitio web, etc.
En resumen, puedo decir que la explicación de Rand sobre Google Panda es la mejor que he encontrado hasta ahora.
En lo que se refiere a Panda internacional, todavía no se puede decir mucho, aunque yo creo que no va a ser tan radical como ha sucedido con las webs en ingles. Además, cuando este nuevo factor del ranking se propague a otros idiomas ya estará mejor probado que al inicio.
Hoy día Google a presentado durante el evento Google Inside Search 2011, varias funciones para sus diferentes productos centrados en las búsquedas.
En resumen se puede decir que han sido 4 mejoras o nuevas funciones para sus buscadores:
Voice Search para el desktop
Se trata de una función similar a la que ya se tiene en los móviles con Android. Ahora en la caja de búsqueda a la derecha aparecerá un icono mediante el cual se puede arrancar las búsquedas mediante voz
Búsquedas por imágenes
También usando una tecnología ya existente para móviles, Google Goggles, ahora se pretende adicionar está función al buscador estándar de imágenes en el desktop.
los usuarios verán también una pequeña cámara para usar con la nueva funcionalidad de búsqueda por imagen. Si se hace clic sobre este cámara, uno puede subir cualquier foto o una URL con imagen de la web y solicitarle a Google que descifre de qué se trata. Se puede hacer la prueba con viejas fotos de vacaciones para tratar de identificar los lugares. Esta funcionalidad de buscar con imágenes está siendo desplegada ahora a nivel global, en 40 idiomas. También estamos lanzando extensiones de Chrome y de Firefox que permiten buscar cualquier imagen simplemente haciendo clic con el botón derecho.
Mejoras en Google Instant – Instant Pages
A la funcionalidad de Google Instant, que ahora ya está disponible para toda América Latina, y usando las tecnologías de prefech de algunos browsers como Chrome beta, o mediante plugins, Google prentende acelerar la presentación de los resultados, haciendo predicciones de lo que el usuario esta tecleando en la caja de búsqueda. Por ejemplo, si teclea «orqu» ya le ira mostrando los resultados para «orquideas» adelantandose así a lo que el usuario pretende buscar.
Mejoras en el buscador para móviles
Se trata especialmente de la introducción de iconos en la página principal del buscador para encontrar categorías populares en las búsquedas locales, como se puede observar en la siguiente imagen
A pesar de que no son anuncios que vayan a revolucionar el mundo de los buscadores, se nota de que Google está tratando de mantener el interés de sus usuarios en su motor de búsqueda y así de esta manera tratar de por lo menos mantener la ventaja que aún tiene frente a sus competidores.
A mi juicio, la función de búsquedas por imágenes es la mejor función de todas las que se han presentado hoy. También habrá que observar si las búsquedas por voz son prácticas y se hacen populares en una computadora de mesa o notebook.
Este es un tema que siempre está latente entre los SEOs: Hasta donde se puede llegar a optimizar un sitio web sin que sea penalizado por Google.
Si solo se utilizan las técnicas recomendadas por Google en su guía para Webmasters, entonces no hay temor de que el sitio sea penalizado. Pero muchas veces esto no es suficiente para alcanzar buenas posiciones en el índice, sobre todo cuando se trata de keywords muy competitivas.
Es por eso que muchos SEO usan técnicas obscuras, las del llamado black hat SEO, para posicionarse rápidamente. Muchas de estas técnicas son fácilmente descubiertas por Google en forma algorítmica, mientras que otras tienen que ser descubiertas por denuncias de otros usuarios, como en estos días ha sido el caso de JCPenny. Luego de que Google descubre algún tipo de irregularidad, procede a penalizar al sitio web.
En el siguiente vídeo de Google Webmaster Tools se explica exactamente cuales son los tipos de penalidades que Google a definido, y de cómo procede para levantar las mismas:
Según Matt, existen 2 tipos de penalizaciones: Aquellas que son realizadas automáticamente (algortimicamente) y las manuales. Las automáticas son por ejemplo cuando el rastreador encuentra SPAM, key stuffing, cloacking, redirección mediante JavaScript, etc.
En este caso, la penalización puede ser revertida si se cambia la página web quitando lo que lo ha motivado. Cuando el rastreador visita nuevamente la página (OJO: por causa de una penalización la frecuencia de rastreo puede bajar considerablemente) y no encuentra la causa de la misma, entonces la página comienza nuevamente a subir a su posición original.
Si la web ha sido penalizada manualmente, por ejemplo por usar texto oculto, u otras cosas más maliciosas, generalmente se coloca un timeout de expiración. Por ejemplo en el caso de texto oculto, la penalización podría ser por unos 30 días. En otros casos puede ser mucho mayor.
Si se envía una petición de reconsideración, generalmente solo se controlan las penalizaciones manuales y en caso de que se hayan realizado las correcciones y la web ya no viole las reglas de Google, la web es liberada inmediatamente.
Me parece que esta es la primera vez que se explica en forma clara, cómo Google maneja internamente las penalizaciones…
Con las mejoras en la usabilidad de las páginas web que se han introducido en los últimos años, ya se he hecho común en mostrar a los visitantes solo una parte del texto que contiene una página web.
Para mantener simplicidad y un layout claro de la página, se muestra por ejemplo inicialmente solo un extracto de un artículo o comentario y se coloca debajo del mismo un botón con el texto «Leer más…» Al hacer clic en este botón, se despliega el texto completo.
Otro ejemplo que se usa bastante es el de los textos desplegables como se muestra en la siguiente imagen
En todos estos casos se trata de usar contenidos ocultos que solo se muestran al usuario al ser requeridos. Pero cuidado: En realidad todo el texto se encuentra en el archivo HTML que es rastreado por los bots de los motores de búsqueda. Los algoritmos de los buscadores no saben cuales son los textos que finalmente aparecen en el navegador y son visualizados por los visitantes.
Por este motivo, esta es una técnica que bordea los limites de lo permitido por los buscadores, ya que para evitar el SPAM y el keyword stuffing Google no permite usar texto oculto y esto puede ser penalizado.
En el siguiente vídeo de Google Wemaster Central, finalmente se ha aclarado un poco este tema
En resumen se puede mencionar que Google no penaliza este tipo de técnicas si los botones o enlaces que contienen estos textos ocultos no son invisibles o muy pequeños para no ser vistos por el visitante.
También el tamaño de estos textos es muy importante: Si estos textos desplegables son muy largos, pueden ser considerados SPAM y corren el riesgo de ser penalizados.
Así pues, Google ya tolera oficialmente estos textos desplegables pero siempre se los debe usar con mucha prudencia…
Esta semana Google ha anunciado el lanzamiento de una serie de nuevos productos y/o importantes actualizaciones a los que ya existen.
Y aquí la lista de la bolsa navideña de Google
Android 2.3 Gingerbread
Se trata de la actualización del sistema operativo de Google para móviles y smartphones. En realidad no hay muchas novedades: Mejoras en el rendimiento general, algunos cambios en el layout, como por ejemplo la barra de estado ahora es negra para ahorrar energía. La posibilidad de hacer llamadas telefónicas por VoIP o SIP. El software estandard ahora soporta varias cámaras, por ejemplo las cámaras frontales para vídeo conferencias.
Aquí algunos enlaces de interés sobre Android 2.3 Gingerbread:
En los próximos días esta nueva versión de Google Maps 5.0 para móviles con Android estará disponible para su descarga en el Market. La principal característica es que es las gráficas no son imágenes gráficas que se van descargando a medida que se navega en el mapa, sino que todo es gráfico vectorial, lo que es muy ventajoso cuando se tiene un ancho de banda bajo o costos elevados de Internet en redes móviles. La desventaja es que el procesador del móvil debe tener un buen rendimiento. Ahora Google Maps puede funcionar también offline.
Juntamente con la presentación de Android 2.3, Google ha presentado al sucesor del Nexus One. Esta vez se llama Nexus S porque ha sido manufacturado por Samsung. Este nuevo móvil con Android 2.3 es la nueva plataforma oficial para el desarrollo de aplicaciones.
A parte de que el Nexus S cuenta adicionalmente con una cámara frontal, un dispositivo para NFC (near flied comunication), y algunos otros sensores, parece más un dowgrade del Nexus One.
La carcasa es de plástico lo que le da un aspecto barato, no tiene slot de expansión para una memoria SD y su batería permite solo hasta 6 horas para hablar (Nexus One 10 horas).
Por este motivo, parece que muchos están esperando la actualización automática del Nexus One a la versión 2.3 en vez de pensar en comprarse el Nexus S de Samsung.
Esta semana también se ha presentado un prototipo de una tablet PC de Motorola con la versión 3.0 de Android, Honeycomb.
Esta versión permite usar aplicaciones Android en pantallas grandes y tiene una mejor usabilidad que en los móviles. Una de las características más importantes es que los programadores solo tendrán que desarrollar solamente una aplicación que correrá tanto en las pantallas móviles así como también en las tablets (algo similar a lo que soporta el iPad). En la versión móvil las ventanas de la aplicación se sobreponen, mientras que en las tablets aparecen al lado de la anterior (multi windowing). Esta funcionalidad se puede apreciar en el siguiente vídeo
Y bueno, para aquel que todo esto no es suficiente, Google presentó esta semana también su sistema operativo
Google Chrome – Web Store – Chrome Netbook
Con una presentación especial a la prensa, en San Fransisco, Google mostró su «sistema operativo» (yo no le daría esa denominación) Chrome OS, en base a su navegador Chrome.
Se trata de un sistema operativo para netbooks que solamente tiene como interfaz el conocido browser Chrome. Desde ahí se pueden realizar solo algunas operaciones típicas de un sistema operativo como conectarse a una red inalambrica o a una red móvil. Pero parece que eso es todo, por ejemplo no se puede navegar por los archivos del disco duro, ver las características del hardware y de todos los dispositivos conectados, etc.
Adicionalmente también se ha presentado el el Chrome Web Store y un Chrome Notebook de Motorola que servirá como plataforma oficial para los desarrolladores.
Todavía no hay nada concreto sobre cuando se lanzarán los primeros netobooks con Chrome OS, pero parece que recíen será a mediados del próximo año.
En resumen, a primera vista todas estas presentaciones de productos y programas parecen muy interesantes y prometedoras, pero luego se nota que casi todo todavía está en un estado de desarrollo y todavía queda un largo camino por recorrer hasta que esto llegue a las manos de los usuarios comunes.
Parecería que Google se encuentra bajo presión y solo está tratando de mostrar todo lo que se ha propuesto realizar, para así no dar ventaja alguna a sus competidores.
Todos conocemos muchos de los productos de Google como Maps, Gmail, Picassa, Reader, Chrome, etc. Pero en realidad existen muchos más productos que salen cada día de los laboratorios de Google. Posiblemente ni ellos mismos tienen una panorama general de todos sus productos. Por ese motivo ahora se les ha dado por crear una página que presenta a cada uno de sus productos, así como nuevas funcionalidades y actualizaciones. Después de una visita rápida veo que todavía debe ser mejorada ya que actualmente muestra artículos de funcionalidades de varios productos, pero no presenta información resumida y clara de cada producto.
Creo que ya era hora, no? Se llama Google New y aquí un vídeo de presentación sobre esta página
Sin duda la gran ventaja tecnológica que actualmente tiene Google sobre sus competidores ha ayudado de gran manera a llegar al nuevo interfaz del buscador: Google Instant.
Ya en el 2005 Yahoo tenia un proyecto similar, el de mostrar resultados a medida que el usuario iba tecleando su consulta. Debido a diversos motivos, pero también por la falta de una infraestructura tecnológica adecuada para poder soportar esa inmensa cantidad de peticiones a sus servidores, este servicio nunca fue puesto online.
Hace unos días atrás, Eisar Lipkovitz, el director de ingeniería de Google ha explicado en este artículo Google caffeine explained alguno de los principios de la nueva infraestructura del buscador: Caffeine, pero también ha mencionado que en la conferencia OSDI 10 en el mes de Octubre se presentará un paper com más detalles sobre el sistema.
Según Lipkovitz, Caffeine ha hecho posible, ademas de usar nuevas tecnologías en caching, el lograr procesar la inmensa cantidad de peticiones que generan los navegadores a medida que los usuarios teclean su consultas.
According to Eisar Lipkovitz, a senior director of engineering at Google, Caffeine moves Google’s back-end indexing system away from MapReduce and onto BigTable, the company’s distributed database platform.
As Google’s Matt Cutts told us last year, the new search infrastructure also uses an overhaul of the company’s GFS distributed file system. This has been referred to as Google File System 2 or GFS2, but inside Google, Lipkovitz says, it’s known as Colossus.
Resumiendo esta entrevista, la idea principal es que anteriormente el indice del buscador estaba basado en MapReduce y la creación del indice era un proceso batch (procesamiento por lotes). MapReduce recibía la información de los rastreadores, y la dividía en grupos como por ejemplo links, metadatos, etc. De esta manera se podía determinar el PageRank y la relación de un sitio web con todos los otros.
El problema de MapReduce es que esta basado en procesamientos secuenciales de muchos pasos, es decir que no se puede comenzar un proceso hasta que el anterior no haya concluido. Y si se comete un error, se debe comenzar todo nuevamente.
Anteriormente, el indice de Google estaba divido en diferentes capas, y algunas capas se actualizaban más rápidamente que otras. La capa principal se no se podía actualizar en menos de 15 días. Para refrescar el antiguo indice era necesario primero rastrear toda la web lo que significaba un retraso significante para generar un nuevo índice, el que luego era propagado a todos los data centers.
Ahora con Google File System 2 ( GFS2, una plataforma distribuida para almacenar datos en base a BigTable) que en Google internamente lo llaman «El Coloso» todo ha cambiado: Todo es incremental. Apenas una nueva página ha sido rastreada, esta puede ser indexada inmediatamente y aparecer en segundos en los resultados del buscador.
Con Caffeine, Google analiza pequeñas porciones de la web y actualiza el índice del buscador continuamente y en forma global. Y justamente esta es la base de los «resultados en tiempo real».
Según Ben Gomes el jefe ingeniero detrás de Instant, Caffeine no fue creada pensando en Instant, pero ha ayudado mucho a realizar el servicio del streaming de búsqueda.