La semana pasada se realizo la conferencia Pubcon 2006 Vegas. La recapitulación de la conferencia esta aquí.
Una de las sesiones más interesantes es la que se ocupa de analizar algunos proyectos de páginas web que son propuestas por los participantes. Entre los panelistas estuvieron Greg Boser (WebGuerrilla), Tim Mayer (Yahoo!), Danny Sullivan, Todd Friesen y Matt Cutts (Google).
Matt ha resumido en su blog esta sesión y como siempre, es interesante leer sus notas con atención, pues muchas veces entre líneas se puede obtener informaciones sobre procesos internos de los algoritmos del buscador de Google.
Aquí algunos ejemplos:
The wrong thing to do is to try to add a few extra sentences or to scramble a few words or bullet points trying to avoid duplicate content detection. If I can spot duplicate content in a minute with a search, Google has time to do more in-depth duplicate detection in its index.
En este caso se estaba analizando una página que vende regalos promocionales. Matt encontró con sus herramientas mas de 20 webs del mismo propietario, muchas de las cuales tenían contenido duplicado.
Esto demuestra una vez más que Google esta tomando muy en serio el asunto del contenido duplicado y que rápidamente puede identificar si el propietario de una web tiene otros sitios con contenidos similares.
Otro punto que también se debe mencionar es que posiblemente Google corre periódicamente procesos bien complejos para encontrar contenidos duplicados.
for the real estate licensing site is that in less that a minute, I was able to find 50+ other domains that this person had–everything from learning Spanish to military training. So I got to say “Let us be frank, you and I: how many sites do you have?”
En este caso se trababa de una página de un quiropráctico que inicialmente se veía bien. Luego Matt encontró que tenia más de 50 dominios con un sinnúmero de temas.
Esto demuestra que Google analiza todos los dominios registrados a una persona o empresa y si los temas de las webs son completamente diferentes, podría ser un indicio de spamming?
When I saw that in the backlinks, I tried to communicate that 1) it was immediately obvious to me, and therefore our algorithms can do a pretty good job of spotting excessive reciprocal links, and 2) in the instances that I looked at, the reciprocal links weren’t doing any good.
Una vez mas, queda demostrado de que Google puede analizar los enlaces recíprocos y que su excesivo uso puede ser dañino.
The peripheral site had urls that were like /i-Linksys-WRT54G-Wireless-G-54Mbps-Broadband-Router-4-Port -10100Mbps-Switch-54Mbps-80211G-Access-Point-519, which looks kinda cruddy. Instead of using the first 14-15 words of the description, the panel recommended truncating the keywords in the url to ~4-5 words.
Este es un tema que ya se discutió en un hilo de hoboseo y corrobora que URLs con muchas keywords separadas por ‘-‘ pueden perjudicar el posicionamiento de la página. Una URL con 4 – 5 keywords parece que todavía es aceptable.
and when I checked the whois on them, they all had “whois privacy protection service” on them. That’s relatively unusual. Having lots of sites isn’t automatically bad, and having PPC sites isn’t automatically bad, and having whois privacy turned on isn’t automatically bad, but once you get several of these factors all together, you’re often talking about a very different type of webmaster than the fellow who just has a single site or so.
Esto puede ser una señal que confirmaría que los algortimos de Google usan la información de WHOIS para valorar las páginas web.
Como se puede apreciar, siempre los comentarios de Matt confirman o revocan muchos de los mitos que circulan en el mundo SEO.
Google+
En el caso de los blogs me pregunto si google estará penalizando la reciprocidad. Digo, por la misma lógica «conversacional» parece natural que haya una cantidad importante de referencias recíprocas, sobre todo en blogs chicos.