Todas las entradas de: Max Glaser

Las generaciones de mis móviles

Durante los años de mi vida digital, he tenido toda una serie de móviles o celulares. Por suerte conservo todavía muchos de ellos, y hoy día con la llegada mi nuevo Nexus One, he aprovechado de hacer una foto de familia de todos los celulares que todavía conservo

Las generaciones de mis móviles

– Nokia 3110 (fabricado desde el 1997)

– Nokia 3390 (fabricado desde el 2001)

– Nokia 3120 (fabricado 2004)

– Nokia N95 8GB (fabricado desde el 2007)

– Google Nexus One (fabricado desde el 2010)

Y los móviles que he perdido son

Mis móviles perdidos

– Nokia 5110 (fabricado desde 1998)

– Nokia 8290  (fabricado desde el 2000)

– Nokia N70 (fabricado desde el 2005)

Cómo se puede observar siempre he sido fiel a Nokia… Bueno, hasta la llegada del Nexus One, y esto se debe sobre todo a que Nokia no ha logrado crear un smartphone con prestaciones similares al iPhone.

El Nexus One y en especial su sistema operativo Android , es  un móvil que he comprado sobre todo para experimentar el posicionamiento de páginas en servicios móviles, estudiar nuevas formas de publicidad en los móviles, y para la realización de aplicaciones móviles con servicios de geolocalización.

Sobre el rastreo de páginas con AJAX

En los últimos años la usabildad de las páginas web ha mejorado considerablemente y esto se debe especialmente al uso de JavaScript y también Ajax.

En el caso de Ajax, se trata de actualizar partes de una página web sin tener que refrescarla totalmente. Esto se realiza mediante peticiones internas del navegador al servidor web mediante la conocida función XMLHttpRequest (ver la historia de la API XTMLHTTP).

Cuando el rastreador de un buscador abre una página, solamente puede encontrar el contenido original de la primera petición al servido web, pero no puede ver el contenido que el usuario logra observar mediante las subsiguientes peticiones al servidor (ver cómo ve Googlebot páginas web con Ajax y JavaScript).

Por eso, inicialmente Google veía páginas que usaban estas técnicas como cloacking ya que el usuario podía ver información totalmente diferente a la que podía rastrear el googlebot.

Pero ahora, con el aumento del numero de páginas con está tecnología la situación ha cambiado: Google está tratando de poder leer la información que se obtiene mediante las peticiones al servidor web usando XMLHttpRequest y ha hecho una propuesta a los webmasters para que coloquen en este tipo de URLs la marca #! y no # ya que  # sirve en HTML para definir anclas en una misma página web.

En un interesante articulo, Vanessa Fox, explica la propuesta de Google para rastrear Ajax y menciona que Google posiblemente ya esta usando esta técnica para rastrear páginas con Ajax.

Pero Vanessa también menciona de que Google todavía no tiene la figura bien definida, por lo que por el momento no aconseja cambiar las páginas y usar este tipo de URLs.

Ahora Google Reader permite monitorear cualquier página web

Cómo es conocido el RSS (Really Simple Syndication) es el método usado para sindicar nuevos contenidos generados en un sitio web.

Los subscriptores se inscriben mediante los agregadores y estos revisan en forma periodica si existen cambios en el archivo RSS del sitio web y descargan o nuestran en el agregador este nuevo contenido.

El RSS es muy usado en los blogs y permite leer sus contenidos sin tener que visitarlos. Google Reader es uno de los agregadores de feeds más usados, y ahora informan que pueden seguir los cambios de cualquier página web. (ver nota en el blog oficial de Google Reader).

Para realizar la suscripción de una nueva página solamente se debe colocar la URL de la página y en el campo «Adicionar Suscripción» y así Google Reader monitorea cualquier cambio en la página.

Mediante esta nueva  funcionalidad de Google Reader, se puede por ejemplo monitorear cambios en las condiciones de servicio de una web, cambios de precios de productos, etc.

Cabe mencionar que no todas las páginas pueden ser monitoreadas. Por ahora Google Reader puede monitorear páginas en HTML y en ingles. Tampoco puede monitorear contenido que este en iframes o páginas que requieren un registro previo para ser visualizadas.

Si un webmaster desea que su página no sea monitoreda por Google Reader debe colocar en el código de la página

< meta name=»googlebot» content=»noarchive» >

para que la misma no sea gabada en el cache de Google, o restringir el acceso al Googlebot usando el archivo Robots.txt

Open Site Explorer – Una interesante Herramienta para analizar enlaces entrantes y su popularidad

Open Site Explorer

Sin duda alguna, uno de los factores más importantes del posicionamiento de páginas web en el buscador de Google son los enlaces entrantes, es decir todos los links que apuntan a una página web y demuestran a los algoritmos de los buscadores de que la mencionada página es popular, confiable y de interés para sus visitantes.

También el algoritmo original del PageRank se basa en el numero de enlaces que apuntan hacia un página. Hoy en día este algoritmo se ha desarrollado mucho, y no solo la cantidad de los enlaces, sino también la calidad y la popularidad de las páginas que enlazan es muy importante para valorar el PageRank.

Por este motivo es muy importante analizar y monitorear los enlaces entrantes de una web cuando se trabaja en su posicionamiento en los buscadores.

Ya es conocido de que Google, con su función link: solo muestra algunos enlaces y no toda la verdad. En Google Webmaster Tools también existe una lista de los enlaces que apunta a un web, pero lamentablemente no muestran mucha más información. Si se desea analizar estos datos, es necesario descargarlos procesarlos con  herramientas adicionales.

Por eso, una de las únicas fuentes más o menos fiables que se tienen en la red para monitorear y analizar los enlaces entrantes o backlinks es el Site Explore de Yahoo, pero su futuro ahora también es incierto ya que posiblemente Yahoo adoptara la terminología del buscador Bing de Microsoft.

Justamente aprovechando este panorama, SEOmoz acaba de lanzar una herramienta muy interesante, el Open Site Explorer .

Open Site Explorer

Además de mostrar el número de enlaces entrantes, Open Site Explorer también presenta otras métricas interesantes como la autoridad de la página, la autoridad del dominio, el numero de enlaces desde dominios únicos.

Adicionalmente muestra los dominios que enlazan, la distribución del anchor text y un resumen de las métricas de la página y del dominio, como se muestra en las siguientes imágenes

Open Site Explorer

open-site-explorer-04

En la versión como visitante se pueden realizar hasta 3 reportes diarios. En la versión gratuita, previo registro, pueden obtener un numero de reportes ilimitados pero solamente con 1000 enlaces por reporte. En la versión paga, se pueden obtener reportes hasa 10.000 enlaces.

Realmente se trata de una herramienta muy interesante y que puede ser de mucha utilidad para webmasters y SEOs.

Google no solo es primero en los buscadores sino también en los anuncios por click (CPC)

SEL presento un reporte de Efficient Frontier sobre el mercado del CPC (cost per click), es decir sobre los pagados anuncios por clics y muestra interesantes resultados sobre el mercado SEM en los Estados Unidos, que se pueden resumir en estos diagramas

Mercado SEM en USA - 2009

Mercado SEM en USA - 2009

Cómo se puede observar en el primer diagrama, el 74,4% de los anuncios pagos por click se realizan desde la red de Google, es decir AdSense. También se puede observar un crecimiento de Bing y un pequeño descenso en la red de Yahoo.

En lo que se refiere a los anunciantes (segundo diagrama), también Google es primero: Por cada dolar que pagan los anunciantes para mostrar sus anuncios en las diferentes  redes, 74.5 centavos de dolares pagan a Google, 20 centavos a Yahoo y solo 5.1 a Bing.

Lo que también se puede observar es que en ultimo trimestre 2009, Google perdió 1 punto en relación al Q4 2008.

Otro interesante resultado se puede observar en el siguiente diagrama

Mercado SEM en USA - 2009

El precio de los anuncios en todos los servicios se ha reducido en el transcurso del año anterior, pero Google fue el que más redujo sus precios, en el último trimestre de 2009, publicar anuncios en Google costaba 25% menos que en el Q4 2008.

Y finalmente, el siguiente diagrama muestra el ROI de los anuncios de cada uno de los servicios

Mercado SEM en USA - 2009

El ROI (return of inversion) de los anuncios en Google también es el mejor y aumentó considerablemente hasta llegar a un 147% en el Q4 2009.

En resumen, se puede mencionar que Google es la mejor la red de anuncios pagos por clic, tanto para los anunciantes como a los afiliados o soportes  y la tendencia es que Google continuará dominando el mercado SEM en los Estados Unidos por varios años más.

Marketing en la Era de Google

Marketing en la Era de Google

Marketing en la Era de Google es el libro que Vanessa Fox estará en el mercado a partir de Mayo del 2010 (Libro en Amazon.com).

Como muchos saben, Vanessa Fox se hizo conocida en Google, y fue la persona que estaba a cargo de Google Webmaster Central, la plataforma que trata de ayudar a los webmasters a posicionar mejor sus webs en el conocido buscador. Ahora trabaja en forma independiente como por ejemplo en ninebyblue.com y también escribe columnas en diferentes blogs como por ejemplo Search Engine Land.

Y aquí la descripción del libro

Search has changed everything. Search has become woven into our everyday lives, and permeates offline as well as online activities.

Every business should have a search strategy. How a business appears online can impact consumer influence as much as if not more than offline advertising like TV commercials. A business’s search strategy can have a dramatic impact on how consumers interact with that business.

But even more importantly, search engine activity provides amazingly useful data about customer behavior, needs, and motivations. Accessing search data is like conducting focus groups with millions of people for free. Search isn’t just for marketers and techies. It can provide valuable insight on business strategy and product strategy.

Companies of all sizes – from startups to global enterprise level corporations, and even businesses without web sites – can benefit from understanding how consumers are searching for them and talking about them online, both as a powerful acquisition channel and a vast repository of market research.

In this non-technical book forexecutives, business owners, marketers, and product managers, search engine strategy guru Vanessa Fox-who created Google’s portal for site owners, Googgle Webmaster Central -explains what every marketer or business owner needs to understand about how search rankings work, how to use search to better understand your customers and attract new ones, how to develop a comprehensive search strategy for your business, and how to build execution of this strategy into the businesses processes. This isn’t another book about paid search for advertisers. This book focuses on organic listings – the unpaid results that receive 86% of searcher clicks.

Written by search engine guru Vanessa Fox, formerly Google’s search engine strategy spokesperson and creator of Google Webmaster Central
Explains from a businessperson’s perspective how to develop a successful search engine strategy
Shows how to use the easily accessible data from search engines to increase qualified traffic, better understand customers, and strengthen customer relationships
Reveals how smaller companies can leverage search engine marketing to achieve parity with larger brands
With this book in hand, every businessperson will have the knowledge and the tools to maximize the potential of search engine marketing to build a brand, draw new prospects, and generate sales.

Y aquí también una de las últimas entrevistas con Vanessa Fox.

Sobre cómo Google valora los enlaces de de Twitter y Facebook

Nuevamente Matt Cutts ha grabado una serie de vídeos – su nuevo corte de cabello demuestra que son nuevos – en los que responde a preguntas que se envian a Google Webmasters por email.

Esta vez responde a la pregunta de cómo Google valora los enlaces desde Twitter y Facebook.

En resumen, Matt menciona que estos enlaces son tratados como los de las webs normales, pero también menciona de que para Google es difícil valorar enlaces de perfiles privados de Facebook, ya que no lo puede ver y tampoco les puede asignar PageRank.

En lo que se refiere a los enlaces de Twitter menciona que estos contienen el atributo nofollow, y según él esto está muy bien para evitar SPAM, por lo cual estos enlaces tampoco no pueden aumentar la popularidad o PageRank de una página.

Sobre cómo Google calcula la relevancia de los tweets

El mes pasado Google anunciaba que en el marco de sus mejoras para llegar a ser el buscador en tiempo real, había incorporado en los resultados del buscador varios servicios como por ejemplo  Facebook, Twitter y FeedFriend.

Pero como ya es conocido, no toda la información que se publica en estos servicios sociales es realmente relevante, de interés para los usuarios y confiable.

Así pues, nuevamente nos encontramos con un viejo conocido problema 🙂 En el buscador clásico, Google lo soluciona usando el PageRank y los famosos 200 parámetros del algoritmo de Google.

Pero cómo hacerlo con la información de servicios sociales que no tienen enlaces directos y no se comportan como páginas web?

En una reciente entrevista Amit Singhal, un googler, nos da algunas luces de cómo Google calcula la relevancia de los tweets.

The key is to identify “reputed followers,” says Amit Singhal, a Google Fellow, who led development of real-time search. […] “You earn reputation, and then you give reputation. If lots of people follow you, and then you follow someone–then even though this [new person] does not have lots of followers”.

En otras palabras: La clave es identificar followers con buena reputación. Se puede heredar reputación, pero también se la puede dar. Si una persona tiene muchos seguidores, y esta a su vez sigue a algunas otras personas, entonces estas personas seguidas heredan una buena reputación.

Entonces, los tweets de una persona con «buena reputación» se poscionan mejor. En resumen, se trata de algo similar al PageRank clásico que se basa en el numero de enlaces.

Amit también menciona:

Google also developed new ways to choose which (if any) tweets to surface for common terms like “Obama”–and to avoid spam or low-quality tweets–all within seconds.

Google ha desarrollado formas para posicionar tweets con terminos comunes y populares como Obama, pero evitar el spam de tweets con baja calidad, y esto en segundos.

Bueno, esto es lo más importante que se puede obtener de la mencionada entrevista y aunque no es mucha información, nos da algunas pautas para lograr que los que publicamos tweets puedan aparecer en las primeras posiciones de los resultados del nuevo buscador en tiempo real de Google.

Todavía no quedo muy convencido, si un trabajo de posicionamiento para tweets pueda generar un incremento del tráfico en una web en forma continua. Lo veo más como un efecto meneame.

RCA Airnergy – El cargador que recolecta energía del aire

Cirnergy

La semana pasada se realizo en La Vegas el CES 2010 (Consumer Electronic Show) donde se presentaron las novedades de la industria electrónica de consumo, como por ejemplo televisores en 3D, un sin numero de Netobooks y también tablets, así como el Google Phone o Nexus One con Android.

Pero el gadget que más me ha llamado la atención es Airnergy, un cargador que obtiene la energía de las redes WiFi (ya sean abiertas o codificadas) y la almacena en una bacteria interna. El dispositivo tiene un cable USB que proporciona los 5 Volts para cargar por ejemplo un celular u otro equipo que sea recargable por un cable USB.

Por ejemplo, un BlackBerry se puede recargar de 30 al 100% en unos 90 minutos.

Una solución muy interesante que se puede usar para tener siempre el celular cargado cuando se está de viaje, o paseando en una ciudad con muchos puntos de accesso Wifi.

Pero también para cargarlo en casa, ya que solamente se lo deja en la mesa y se recarga usando el WiFi propio. Se menciona que el precio será de unos 40 dolares.

Y aquí el vídeo de la CES 2010 de ohgizmo