Archivo de la categoría: Buscadores

12 maneras de mantener oculto el contenido de tu web para los buscadores

Rand de SEOmoz ha publicado un interesante artículo, listando 12 formas de ocultar contenidos a los bots de los buscadores.

las posibles razones para evitar que los motores de búsqueda indexen el cotenido de una página web son:

– Privacidad
– Evitar contenido duplicado
– Canibalización de palabras claves
– Evitar indexación de páginas con muy poco contenido
– Evitar elevado consumo de ancho de banda

Existen muchos «métodos legales» para evitar que los bots de los motores de búsqueda, entre los cuales se pueden mencionar:

– Robots.txt
– Metatag robots
– Iframes bloqueando esa página con robots.txt
– Texto en imagenes
– Java Applets
– Uso de formularios
– Páginas protegidas con contraseñas
– Bloquar o cloacking mediante user-agent
– Bloquear o cloacking mediante rangos de direcciónes de IP
– Usar el nofollow tag (aunque no es realmente efectivo)
– Borrar la URL desde a consola de Google Webmaster
– Codificar el contenido para evitar que sea encontrado por palabras claves

SEO vs. SEO 2.0

Con el auge de las redes sociales, que en los medios de comunicación se lo conoce como web 2.0, y con los cambios que Google ha ido introducido en sus algoritmos en este año para valorar páginas webs, ahora ya no se puede hablar solamente de SEO (Search Engine Optimization) en el sentido clásico. Es decir, concentrarse en palabras claves, metatags, conseguir una gran cantidad de enlaces entrantes, etc.

Justamente SEO 2.0 ha publicado una lista muy interesante donde compara 15 diferencias del SEO y SEO 2.0.

Debido a que la lista contiene interesantes comparaciones entre la forma clásica de hacer SEO y la que es necesaria en las redes sociales, me he dado el trabajo de traducirla:

SEO

SEO 2.0

Generación de enlaces entrantes de forma manual, usando intercambios, catálogos, pagando por enlaces

Generación de enlaces entrantes mediante acciones como blogging, escribiendo contenidos únicos, generando link-baiting, socializando.

Optimización on-page para bots de los buscadores, por ejemplo repitiendo títulos, palabras claves, etc.

Optimización on-page para los usuarios, por ejemplo colocando títulos provocativos.

Competición: Tu compites con otros para aparecer en el top 10 de los resultados de Google para palabras claves especificas.

Cooperación: Tu cooperas con otros bloggers votando por ellos en redes sociales, blogs, etc., esperando que ellos también te enlacen.

Trueque: Si tú me das un enlace y yo te doy otro.

Dar: Yo te enlazo independientemente de que tu también me des un enlace, pero en la mayoría de los casos tu también me enlazarás.

Ocultamiento: No estamos haciendo SEO, no podemos mostrar nuestra lista de clientes.

Abierto: Bienvenidos los clientes nuevos, estamos orgullos de trabajar con ellos.

Palabras claves

Etiquetas

Optimización para enlaces

Optimización para tráfico

Clicks, impresiones, visitas

Conversiones, retorno de la inversión, marca

DMOZ

del.icio.us

Principales fuentes de tráfico: Google, Yahoo, MSN.

Principales fuentes de tráfico: StumpleUpon, redes sociales de noticias, blogs.

Comunicación en una sola dirección

Dialogo, conversación

De arriba hacia abajo

De abajo hacia arriba

Antidemocrático, quien paga más está en la parte superior.

Democrático, quien responde a la demanda popular está en la parte superior.

50% automatizado

10% automatizado

Tecnocrático

Emocional

Me parece que esta lista muestra a cabalidad cuales son las diferencias entre el posicionamiento clásico y el de la web 2.0. Pero esto NO significa, como se ha estado comentado últimamente en muchos foros y blogs que la profesión del SEO ha muerto. Por el contrario, ahora se han abierto muchas más posibilidades y perspectivas para el posicionamiento de proyectos webs: Los clásicos, que todavía seguirán existiendo por bastante tiempo y los de la web 2.0.

Eso sí, si es que un SEO no evoluciona y se mantiene actualizado, a la larga ya no tendrá donde aplicar sus conocimientos…

Matt Cutts comenta los beneficios de blogs y WordPress

como ya lo había mencionado anteriormente, la semana pasada se realizo en La Vegas la conferencia PubCon 2007, organizada por WebmasterWorld con lo que se cierra el calendario de eventos internacionales SEO en lo que va de este año.

Uno de los personajes más populares de este evento, fue sin duda Matt Cutts, jefe del equipo anti-span de Google. Él participo en varios paneles y también fue entrevistado muchas veces.

Aquí 2 intervenciones de Matt en las cuales enfatiza los beneficios de blogs y en especial de la última versión Worpress 2.3 en el posicionamiento de proyectos web.

– En este artículo se menciona una intervención de Matt en la que indica 3 pasos para obtener un buen sitio y generar tráfico. Él dice que además de realizar un marketing inteligente, se debe crear un blog ya que es la manera más sencilla de generar enlaces entrantes, permite interactuar con la gente, y que uno se puede defender en el blog si es necesario.

-En esta entrevista en vídeo, Matt menciona entre otras cosas, los beneficios de WordPress, especialmente la última versión 2.3 que ayuda mucho a posicionar los blogs en los buscadores como Google.

Google manejará los subdominios como las carpetas

Esta puede ser una noticia muy importante para todos los que usan subdominios para posicionar diferentes proyectos.

Hasta ahora, Google trataba los subdominios de forma totalmente independiente al dominio principal, así como también a los subdominios entre si. Es decir, cada uno de los subdominios, así como también el dominio principal se podían posicionar en los resultados del buscador independientemente.

De esta manera, en una página de resultados era posible por ejemplo ver muchos resultados de la forma:

– subdominio1.mi-dominio.com
– subdominio2.mi-dominio.com
– subdominio3.mi-dominio.com
– subdominio4.mi-dominio.com

– subdominioN.mi-dominio.com

Y justamente eso fue aprovechado por muchos spamers o también como lo hicieron muchos sitios de avisos clasificados creando subdominios madrid.mi-piso.com, barcelona.mi-piso.com, cordoba.mi-piso.com, etc. para aparecer en todas las posiciones de las páginas de resultados Google.

Ahora, en Search Engine Roundtable, se menciona lo siguiente:

News flash from Las Vegas PubCon. Matt Cutts informed us that Google will very soon begin treating subdomains and subdirectories the same in this fashion: there will be only 2 total urls from a domain in any set of search results, so no more getting 3, 4 or however many spots via subdomains. We didn’t get any more information than just that basic heads-up.

Próximamente Google comenzará a tratar los subdominios como las carpetas: Solamente se mostrarán hasta 2 URLs del mismo dominio en una página de resultados….

Pero también se menciona que habrán excepciones como por ejemplo con los dominios blogspot.com, o wordpress.com, etc.

Vía Search Round Table , también se lo comenta en un hilo de Webmasterworld.

Actualización
Matt hace algunas aclaraciones en su blog acerca de este tema.

Actualización 1 (12.12.2007)

Ahora también Vanessa Fox ha estrito un arículo muy interesante sobre las consequencias de de estos cambios.

Panel de discusión sobre la compra y venta de enlaces

En estos días se esta realizando en La Vegas la PubCon 2007, conferencia organizada por WebmasterWorld.

En uno de los muchos paneles, se ha realizado un panel de discusión muy interesante sobre la compra de enlaces, un tema muy discutido en estos días luego de que Google penalizará a sitios que venden enlaces, rebajándoles su PageRank.

En este panel han participado

Rand Fishkin, CEO, SEOMoz
Jim Boykin, CEO, Webuildpages
John Lessnau, Founder, LinkAdage
Aaron Wall, Author, SEO Book

y la transcripción del panel y la discusión la puedes leer aquí. Es una lectura obligada para los que han comprado o están pensando comprar o vender enlaces para mejorar su posición en los buscadores.

Actualización
Hace algunos días este tema también fue comentado en el blog de Webmaster Central y en el blog de Matt Cutts.

Actualización 1

Y aquí otra interesante charla de Brett Tabke de WebmasterWorld con Matt Cutts.

Yahoo y Ask también publican listas de las búsquedas más populares

Hace poco mencionaba que Google ha presentado las palabras más buscadas en en 2007. Ahora también es el turno de Yahoo y Ask!

La lista que ha presentado Yahoo vía TechCrunch es la siguiente:

1. Britney Spears
2. WWE
3. Paris Hilton
4. Naruto
5. Beyonce
6. Lindsay Lohan
7. Rune Scape
8. Fantasy Football
9. Fergie
10. Jessica Alba

Y la lista de Ask es:

1. MySpace
2. Dictionary
3. Google
4. Themes
5. Area Codes
6. Cars
7. Weather
8. Games
9. Song Lyrics
10. Movies

La verdad sobre los metatags que usa el buscador de Google

El tema meta tags (ver definción de metatag en Wikipedia) entre los webmasters y SEOs es muy controvertido. Muchos todavía piensan que no ayudan para nada en el posicionamiento de Google.

Esa afirmación tenía validez hace algunos años, pero lo cierto es que Google se ayuda con los metatags para describir mejor los extractos, los llamados snippets, en los resultados del buscador desde hace más de 2 años. Hae algunos meses, Google confirmó este secreto a voces.

Hoy día el blog de Google Webmaster Central, ha publicado un artículo sobre los metatags y las búsquedas.

Este artículo describe los metatags que son importantes para Google y que ayudan al buscador a mejorar la indexación de las páginas. La lista de metatags es la siguiente:

description

Como ya lo había mencionado anteriormente, este metatag ayuda a crear el extracto (snippet) de la página en los resultados del buscador. Según el artículo, este metatag es opcional y no ayuda a mejorar la posición de la página en el ranking, pero descripción en los resultados puede ayudar a aumentar la calidad y cantidad de los visitantes desde los resultados orgánicos del buscador.

title
Título de la página
Aunque en realidad title no es un metatag, la descripción de este constructo de HTML aparece como título de la página en los resultados. El uso de buenos títulos para la página pueden mejorar la posición de la misma en el ranking (más sobre este tema).

metatags de control


Estos metatags instruyen a los crawlers de los buscadores en general como escaner la página. El metatag con googlebot es especifico para Google. Los posibles parámetros de este metatag son los siguientes:

noindex: Evita la indexación de la página

nofollow: Evita que el bot siga los enlaces de esta página, y que les herede PageRank. También se lo conoce como el condóm del PageRank.

noodp: Evita que el texto de ODP (Open Directory Proyect, conocido tambien como dmoz) se use en el extracto o snippet de la página que aparece en los resultados.

noarchive: Evita que se grabe y se muestre el cache de la página.

unavailable_after[fecha]: Borra esta página de los resultados de búsqueda después de fecha indicada.

metatag de traducción

Muchas veces, cuando un usuario hace una búsqueda, aparecen resultados en idiomas que no son del usuario, por ese motivo en los resultados aparece ‘Traducir esta página’. Con este metatag, se puede evitar que aparezca esta opción.

metatag de verificación para Webmaster Tools

Este metatag sirve para autentificar al dueño de la página para que así pueda usar las funciones de Google Webmaster Tools en esta web.

Las búsquedas en Google con más crecimiento del 2007

Según TechCrunch (ver nota), Marissa Mayer de Google ha anunciado las palabras buscadas en Google que han tenido más crecimiento en el año 2007.

La lista es la siguiente:

1. iphone
2. webkinz
3. tmz
4. transformers
5. youtube
6. club penguin
7. myspace
8. heroes
9. facebook
10. anna nicole smith

La lista del Zeigeist de Google 2006 fue la siguiente:

1. bebo
2. myspace
3. world cup
4. metacafe
5. radioblog
6. wikipedia
7. video
8. rebelde
9. mininova
10. wiki

La anatomía de los resultados del buscador de Google

Matt explicando la anatomia de los resulttados del buscador de Google
No cabe duda de que Matt Cutts es muy didáctico en el momento de explicar como funciona el buscador de Google. Y justamente eso han aprovechado los miembros del equipo de Google Webmaster Central y mencionan que han realizado varios vídeos cortos con Matt dando algunos consejos a los webmasters de como mejorar sus webs en relación al posicionamiento en el buscador de Google.

En el primer vídeo de esta serie, Matt explica la anatomía de los resultados del buscador de Google.De forma sencilla, Matt explica todas las componentes que se observan en un los resultados del buscador que muestran a una página: El título, la descripción, la información complementaria, el cache, páginas similares, los sitelinks, etc.

Con estas explicaciones, creo que muchos mitos como el de que Google no usa los metatags, o de que los sitelinks son anuncios pagados o generados a manualmente quedan completamente refutados.

Nota
En el vídeo se menciona la página Google Experimental donde Google muestra algunos experimentos interesantes en torno al buscador, como por ejemplo las sugestiones…