Todas las entradas de: Max Glaser

Ya están los resultados de Google Caffeine en los data centers?

Poco antes de las fiestas de fin de Año, Matt Cutts había prometido no dar un susto a los webmasters, y les prometió que los resultados de la nueva infraestructura, Google Cafferine, recién serían propagados a los diferentes data centers repartidos por todo el mundo a principio del 2010.

Ahora, en muchos foros ya se está discutiendo acaloradamente este tema, cómo lo menciona Search Engine Roundtable (Google Caffeine Results Now Going Live?).

Y como ya es costumbre en estos casos, también ya se discuten y se mencionan algunos data centers que ya podrían tener la nueva infraestructura Caffeine. La lista de los candidatos es la siguiente:

209.85.225.103
74.125.95.132
66.102.7.18
64.233.163.19
74.125.19.106
66.102.7.104

Varios SEOs indican haber comprobado de que estos DCs ya estan cargados con Caffeine, pero todavía no hay nada oficial. Así pues, tendremos que esperar un poco hasta que alguien de Google se pronuncie claramente sobre este tema.

Lo que también cabe mencionar es que en proyectos bien posicionados el tráfico desde Google se ha incrementado considerablemente, mientras que en proyectos poco populares, las visitas han decaído. Y justamente esa era una de las metas de esta nueva actualización / infraestructura: Mejorar o acelerar la indexación de webs populares y mostrar resultados más relevantes.

Será esta una señal de que Google Caffeine poco a poco ya se está extendiendo por todo el mundo?

Actualización
Bueno Barry de SER dice:

Update: A Google spokesperson told me, «we have nothing to announce today regarding Caffeine.» Basically, it is not live yet and when it does go live, they will let us know.

Son estos los famosos 200 parámetros del algoritmo de Google?

Ya es celebre el numero 200 en lo que se refiere a los diferentes factores que Google evalúa en una página web para posicionarla en su índice.

Siempre los ingenieros de Google mencionan que existen muchos factores – más de 200 – para valorar una página web, y así de esta manera tratan de desvalorizar temas especificos que siempre son discutidos por los SEOs, cómo por ejemplo la importancia del PageRank, o el nombre del dominio.

Ahora en Search Engine Journal se han dado el trabajo de catalogar los 200 parámetros del algoritmo de Google.

Bueno, solamente han encontrado 130, y aquí les presento la lista:

Domain: 13 factors
Domain age.
Length of domain registration.
Domain registration information hidden/anonymous.
Site top level domain (geographical focus, e.g. com versus co.uk).
Site top level domain (e.g. .com versus .info).
Sub domain or root domain?
Domain past records (how often it changed IP).
Domain past owners (how often the owner was changed)
Keywords in the domain.
Domain IP.
Domain IP neighbors.
Domain external mentions (non-linked)
Geo-targeting settings in Google Webmaster Tools

Server-side: 2 factors
Server geographical location.
Server reliability / uptime

Architecture: 8 factors

URL structure.
HTML structure.
Semantic structure.
Use of external CSS / JS files.
Website structure accessibility (use of inaccessible navigation, JavaScript, etc).
Use of canonical URLs.
“Correct” HTML code (?).
Cookies usage.

Content: 14 factors
Content language
Content uniqueness.
Amount of content (text versus HTML).
Unlinked content density (links versus text).
Pure text content ratio (without links, images, code, etc)
Content topicality / timeliness (for seasonal searches for example).
Semantic information (phrase-based indexing and co-occurring phrase indicators)
Content flag for general category (transactional, informational, navigational)
Content / market niche
Flagged keywords usage (gambling, dating vocabulary)
Text in images (?)
Malicious content (possibly added by hackers).
Rampant mis-spelling of words, bad grammar, and 10,000 word screeds without punctuation.
Use of absolutely unique /new phrases.

Internal Cross Linking: 5 factors
Number of internal links to page.
Number of internal links to page with identical / targeted anchor text.
Number of internal links to page from content (instead of navigation bar, breadcrumbs, etc).
Number of links using “nofollow” attribute. (?)
Internal link density.

Website factors: 7 factors
Website Robots.txt file content
Overall site update frequency.
Overall site size (number of pages).
Age of the site since it was first discovered by Google
XML Sitemap.
On-page trust flags (Contact info ( for local search even more important), Privacy policy, TOS, and similar).
Website type (e.g. blog instead of informational sites in top 10)

Page-specific factors: 9 factors
Page meta Robots tags.
Page age.
Page freshness (Frequency of edits and
% of page effected (changed) by page edits).
Content duplication with other pages of the site (internal duplicate content).
Page content reading level. (?)
Page load time (many factors in here).
Page type (About-us page versus main content page).
Page internal popularity (how many internal links it has).
Page external popularity (how many external links it has relevant to other pages of this site).

Keywords usage and keyword prominence: 13 factors
Keywords in the title of a page.
Keywords in the beginning of page title.
Keywords in Alt tags.
Keywords in anchor text of internal links (internal anchor text).
Keywords in anchor text of outbound links (?).
Keywords in bold and italic text (?).
Keywords in the beginning of the body text.
Keywords in body text.
Keyword synonyms relating to theme of page/site.
Keywords in filenames.
Keywords in URL.
No “Randomness on purpose” (placing “keyword” in the domain, “keyword” in the filename, “keyword” starting the first word of the title, “keyword” in the first word of the first line of the description and keyword tag…)
The use (abuse) of keywords utilized in HTML comment tags

Outbound links: 8 factors
Number of outbound links (per domain).
Number of outbound links (per page).
Quality of pages the site links in.
Links to bad neighborhoods.
Relevancy of outbound links.
Links to 404 and other error pages.
Links to SEO agencies from clients site.
Hot-linked images.

Backlink profile: 21 factors
Relevancy of sites linking in.
Relevancy of pages linking in.
Quality of sites linking in.
Quality of web page linking in.
Backlinks within network of sites.
Co-citations (which sites have similar backlink sources).
Link profile diversity:
Anchor text diversity.
Different IP addresses of linking sites,
Geographical diversity,
Different TLDs,
Topical diversity,
Different types of linking sites (logs, directories, etc).
Diversity of link placements
Authority Link (CNN, BBC, etc) Per Inbound Link
Backlinks from bad neighborhoods (absence / presence of backlinks from flagged sites)
Reciprocal links ratio (relevant to the overall backlink profile).
Social media links ratio (links from social media sites versus overall backlink profile).
Backlinks trends and patterns (like sudden spikes or drops of backlink number)
Citations in Wikipedia and Dmoz.
Backlink profile historical records (ever caught for link buying/selling, etc).
Backlinks from social bookmarking sites.

Each Separate Backlink: 6 factors
Authority of TLD (.com versus .gov)
Authority of a domain linking in
Authority of a page linking in
Location of a link (footer, navigation, body text)
Anchor text of a link (and Alt tag of images linking)
Title attribute of a link (?)

Visitor Profile and Behavior: 6 factors
Number of visits.
Visitors’ demographics.
Bounce rate.
Visitors’ browsing habits (which other sites they tend to visit)
Visiting trends and patterns (like sudden spiked in incoming traffic)
How often the listing is clicked within the SERPs (relevant to other listings)

Penalties, Filters and Manipulation: 12 factors
Keyword over usage / Keyword stuffing.
Link buying flag
Link selling flag.
Spamming records (comment, forums, other link spam).
Cloaking.
Hidden Text.
Duplicate Content (external duplication)
History of past penalties for this domain
History of past penalties for this owner
History of past penalties for other properties of this owner (?)
Past hackers’ attacks records
301 flags: double re-directs/re-direct loops, or re-directs ending in 404 error

More Factors (6):
Domain registration with Google Webmaster Tools.
Domain presence in Google News.
Domain presence in Google Blog Search.
Use of the domain in Google AdWords.
Use of the domain in Google Analytics.
Business name / brand name external mentions.

Como se puede observar se trata de una lista bien exhaustiva y muy interesante que todo SEO tiene que conocer, pero también muchos de estos factores parecen ser un poco exagerados, por lo que no creo que todos estos parámetros sean realmente usados por el algoritmo de Google.

Pero por otra parte también esta lista demuestra que la aseveración de los ingenieros de Google sobre los más de 200 parámetros podría ser bastante exagerada.

Tal vez algún día podamos conocer la lista oficial de todos los factores que usa Google para analizar una página web…

El Google Phone Nexus One ya es realidad

Google NexusOne

En estos momentos se está llevando a cabo la conferencia de presentación del primer móvil de Google, el Nexus One. La página oficial www.google.com/phone también ya ha sido activada y ya se pueden realizar los pedidos para la versión que está liberada y sin servicio por 529.00 USD mediante Google Checkout.

Lamentablemente parece que por ahora la compra del Google Next One se puede realizar solamente en algunos países… Los mercados iniciales son Estados Unidos, el Reino Unidos, Singapur y Hong Kong.

Las especificaciones oficiales del Google Nexus One son:

Size and weight
Height 119mm
Width 59.8mm
Depth 11.5mm
Weight 130 grams w/battery
100g w/o battery

Display
3.7-inch (diagonal) widescreen WVGA AMOLED touchscreen
800 x 480 pixels
100,000:1 typical contrast ratio
1ms typical response rate

Camera & Flash
5 megapixels
Autofocus from 6cm to infinity
2X digital zoom
LED flash
User can include location of photos from phone’s AGPS receiver
Video captured at 720×480 pixels at 20 frames per second or higher, depending on lighting conditions

Cellular & Wireless
UMTS Band 1/4/8 (2100/AWS/900)
HSDPA 7.2Mbps
HSUPA 2Mbps
GSM/EDGE (850, 900, 1800, 1900 MHz)
Wi-Fi (802.11b/g/n)
Bluetooth 2.1 + EDR
A2DP stereo Bluetooth

Power and battery
Removable 1400 mAH battery
Charges at 480mA from USB, at 980mA from supplied charger

Talk time
Up to 10 hours on 2G
Up to 7 hours on 3G

Standby time
Up to 290 hours on 2G Up to 250 hours on 3G

Internet use
Up to 5 hours on 3G
Up to 6.5 hours on Wi-Fi

Video playback Up to 7 hours
Audio playback Up to 20 hours

Processor
Qualcomm QSD 8250 1 GHz

Operating system
Android Mobile Technology Platform 2.1 (Eclair)

Capacity
512MB Flash
512MB RAM
4GB Micro SD Card (Expandable to 32 GB)

Location
Assisted global positioning system (AGPS) receiver
Cell tower and Wi-Fi positioning
Digital compass
Accelerometer

Google Nexus One

Buttons, connectors and controls

Front / Top
[1] Power
[2] 3.5mm stereo headphone jack
[3] Charging and notification indicator
[4] Illuminated capacitive soft keys:
Back, Home, Menu, and Search
[5] Tri-color clickable trackball

Back / Bottom
[6] Camera
[7] Camera flash
[8] Speaker
[9] Dock pin connectors
[10] Micro USB port
[11] Microphone
Left side
[12] Volume Control

Additional features
Haptic feedback
Teflon™ coated back
Second microphone for active noise cancellation
SIM card slot
Micro SD slot
Proximity sensor
Light sensor

Feliz Año Nuevo 2010

Feliz Año Nuevo 2010

A todos los lectores del Blog les deseo un Feliz Año Nuevo 2010 y mucho éxito  con todos sus proyectos y planes tanto personales como profesionales.

El Año 2010 nos a a traerá muchísimas novedades y también trabajo en lo que se refiere al posicionamiento en los buscadores.

La actualización del PageRank de Google el 31 de Diciembre es una muestra de que los ingenieros de Google ya están muy impacientes por colocar en linea sus nuevos algoritmos e infraestructura Google Caffeine en el indicie, lo que va a traer grandes cambios en lo que se refiere las técnicas de posicionamiento que ahora se deberán usar. Todo esto va a significar para los SEOs grandes cambios, y ahora si vamos a ver quienes son SEOs de verdad que se pueden adaptar y aprender rápidamente a posicionar sus webs. Todos los consejos estandars que se leen en los foros y en los cientos de blogs que se creen expertos en SEO, solo quedarán para la historia…

Ahora, adicionalmente a la calidad del contenido, se deberá aprender a manejar la velocidad de indexación del buscador, mejorar el rendimiento del servidor para bajar los tiempos de carga de las páginas, optimizar los scripts, dejar de usar sistemas de gestión de contenidos (CMSs) estandarizados pero que son muy pesados y contienen mucho código y volver a las soluciones propietarias. Esto, debido a que Google está considerando colocar la velocidad de descarga de un página web como parámetro de calidad, como ya lo hace con el Quality Score de AdWords.

Adicionalmente, se tendrán que combinar las técnicas de posicionamiento con SMO (social media optimization) para generar el tráfico necesario en una web.

Por todo esto, el Año 2010 promete ser un año interesantisimo en lo que se refiere a SEO, Internet, móviles, Netbooks y gadgets en general.

La última actualización del PageRank en este año

Parece que los ingenieros de Google no quisieron terminar el año sin hacer noticia con el PageRank y han corrido el proceso de actualizar el PageRank visible que se muestra en la barrita verde de la barra de herramientas de Google el 30-31 de Diciembre de 2009.

La última actualización del PageRank se realizó a fines de Octubre, es decir hace 2 meses lo que significa una ruptura de la regla de la actualización trimestral, y posiblemente se deba a que los ingenieros de Google habían prometido esperar que pasaran las fiesta de fin de año para comenzar a implantar su nueva estructura: Google Caffeine.

Pero bueno, de vuelta a la actualización del PageRank: Parece que no hay grandes cambios. Paginas con bastante popularidad no han cambiado de valor, paginas débiles han perdido 1 punto, pero los proyectos nuevos tampoco han recibido PageRank como ocurría anteriormente.

Creo que se trata solamente de cerrar el año con broche de oro y prepararse para el nuevo con muchas novedades.

Herramienta para analizar el long tail de las búsquedas en Google

Long Tail Keword Tool
Hace ya algún tiempo atrás Google decidió incorporar en las cajas de búsqueda tanto en la página principal como en la de los resultados sugestiones (Google suggest) que ayudan a los usuarios que están tecleando una búsqueda ver lo que otros usuarios también han buscado.

De esta manera, el usuario puede por ejemplo mejorar la ortografía de sus búsquedas así como también ir directamente hacia lo que quiere ver.

Google Suggest ya se esparcido por todos los data centers y en casi todos los idiomas de modo que ya se puede observar que el comportamiento de los usuarios de Google está cambiando.

Ahora ya no solo es importante aparecer en las primeras posiciones del índice para búsquedas competitivas, sino también es necesario aparecer en los resultados de Google Suggest para palabras claves especificas.

Por eso es muy importante analizar todas las combinaciones que puede mostrar Google suggest para una búsqueda y así también posicionarse bien para el long tail.

En el contexto de este análisis, acabo de encontrar una herramienta interesante: Long Tail Keyword-Tool que justamente permite analizar las diferentes combinaciones que aparecen en Google Suggest para una búsqueda determinada.

La siguiente imagen muestra los resultados para la búsqueda games online a 3 niveles de Google Suggest

long-tail-keword-tool-results

Cómo se puede observar la herramienta muestra las combinaciones de las frases más buscadas por los usuarios con relación a games online.

De esta manera se puede analizar hasta una profundidad de 10 a 12 niveles las combinaciones de palabras que son más buscadas. Así pues, con la ayuda de esta herramienta se pude posicionar una página con bastante facilidad para el long tail que genera Google Suggest.

Long Tail Keyword-Tool permite descargar los resultados en un archivo en formato CSV, pero actualmente solamente soporta ingles y alemán.

Según Oracle, MySQL se mantendrá como Open Source

Cómo ya es conocido, Oracle piensa comprar SUN, quién a su vez es dueña de MySQL, la base de datos que se usa en un sinfín de aplicaciones web, como por ejemplo WordPress.

Por este motivo mucha gente y también el creador de MySQL  Michael Monty ha expresado el temor de que Oracle convierta a MySQL en un modelo pago para así posicionar mejor su propia base de datos. Monty ha iniciado una campaña para salvar a MySQL

Pero hoy díá Oracle ha anunciado una promesa a todos los clientes, desarrolladores y usuarios de MySQL que mantendrá la popular base de datos como Open Source y que también actualizará el software así como también la documentación.

A pesar de este anuncio, muchos todavía están escépticos de que Oracle mantenga a MysSQL como Open Source ya que MySQL es la competencia del producto más importante de Oracle y se piensa que lo hará morir poco a poco. Por eso, quieren que MySQL se separe de la empresa y se cree una organización independiente.

Bueno, por ahora parece que el futuro cercano de MySQL  todavía está asegurado, pero nadie se aventura a decir de lo que será en unos 5 años.

Finalmente ya están disponibles las extensiones en Google Chrome

Google Chrome Extensions

Uno de los factores que han popularizado a Firefox han sido los plug-ins o extensiones que permiten aumentar la funcionalidad del browser o navegador increíblemente. Para Firefox existen miles de interesantes aplicaciones como por ejemplo los correctores de ortografía, funciones para averiguar el IP del servidor, herramientas completas para diseñadores, webmasters y también SEOs.

El navegador de Google Chrome es muy liviano y rápido, pero su gran desventaja a sido la falta de estas extensiones: Pero ahora eso ya se acabo.

Hoy día, Google ha abierto a los usuarios la posibilidad de instalar extensiones en la versión beta del navegador: Google Chrome Extensions

Entre las extensiones más populares se tienen

Google Chrome Extensions más populares

Y entre las extensiones destacadas aparecen

Google Chrome Extensions destacadas

En realidad es un buen comienzo para mejorar la popularidad de Chrome, pero esperemos que estas nuevas funcionalidades no le hagan perder la velocidad.

He revisado rápidamente las extensiones y no he encontrado ninguna herramienta para SEOS o diseñadores gráficos. Tampoco no encuentro nada que nos pueda mostrar el PageRank de una página web… Una pena!

Se trata realmente de un buscador en tiempo real?

Sin duda en el último tiempo Google ha mejorado considerablemente la actualidad de los resultados de su buscador. Especialmente el contenido de blogs y noticias es indexado rápidamente y aparece inicialmente siempre en las primeras posiciones.

Pero ayer, Google ha anunciado con mucha publicidad su nuevo buscador en tiempo real. De qué se trata? Google ha integrado en los resultados del buscador, por ahora en ingles y en el primer trimestre del 2010 en otros idiomas, una nueva función: Cuando se hace una búsqueda actual,  aparece al inicio una sección en Ajax que se actualiza   constantemente mostrando los últimos resultados que contienen las palabras de la búsqueda en diversos servicios como ser Twitter, FeedFriend, páginas publicas de Facebook, blogs, periódicos y otros.

Aquí un ejemplo para la búsqueda real time search que desde ayer se ha puesto de moda y se la puede considerar como una «búsqueda actual»:

Google Real Time Search

Cómo se puede observar, se trata de una funcionalidad bastante familiar del buscador de Twitter search.twitter.com que ha sido ampliada a otros servicios sociales.

Pero cuál es el valor adicional para los usuarios normales que buscan algún tipo de servicio, productos, información sobre lugares y todo esa infinidad de información que es perdurable? Pues el valor que le birnda este nuevo servicio de Google es CERO!

Solamente en casos de actualidad informativa de acontecimientos mundiales cómo catástrofes, acontecimientos políticos,  novedades del mundo del entretenimiento, etc. esta nueva función puede ser de utilidad.

Pero bueno, si alguien esta interesado en conocer novedades actuales, se va directamente a Twitter o Facebook.

Me parece que Google con esta nueva función está tratando de dar lucha a Bing, Twitter, Facebook & Co.  para quitarles un poco de tráfico y en realidad solo se trata de una acción totalmente de marketing y no de una gran movida tecnológica que mejore de verdad la calidad de los resultados del buscador.

Solamente el futuro nos mostrará si esta nueva función de Google será aceptada por los usuarios o si ellos preferirán ir directamente a las fuentes de esta nueva información en tiempo real.

Ya se prueba la nueva intefaz de Google

Ayer se anunciaba que Google está mostrando a algunos usuarios  (unos 2% del total) una posible nueva interfaz que se la ha denominado Jazz UI y qué de ser aprobada, podría entrar en producción a inicios del próximo año (ver nota en SEO Round Table o en Search Engine Land por Danny Sullivan).

Pues bien, parece que hoy estoy de suerte y justamente hace unos minutos atrás he pillado un data center que muestra justamente esta nueva interfaz. He tratado de identificar el IP directo del mencionado DC, pero al realizar el requerimiento HTTP solo con el IP siempre aparece la interfaz antigua. He logrado reproducir la nueva interfaz usando solamente www.google.com.

Adicionalmente, me ha funcionado únicamente con  Firefox. Chrome o IE8 muestran la interfaz antigua.

Pero bueno, ahora aquí algunas pantallas de la nueva interfaz de Google y a las que tal vez nos tengamos que ir acostumbrando…

google-interface-01

google-interface-02

google-interface-03a

google-interface-04

google-interface-07

google-interface-08