Hoy día el blog de Google Webmaster Central ha publicado una nota en la que menciona que además de escanear páginas web con JavaScript y Flash, ahora y después de varios meses de realizar experimentos el google bot ya puede escanear páginas web que están detrás de formularios.
El articulo menciona que sí encuentran en una página el código < form > en HTML, realizan algunos experimentos automáticos llenando los valores y opciones del formulario para ver qué página devuelve.
Si esta página válida, de interés publico y es indexable, entonces la colocan en el índice del buscador. Solamente algunas webs importantes están recibiendo este tratamiento.
Solo indexan páginas permitidas, es decir que no están en robots.txt o no contienen el metatag noindex o nofollow. Adicionalmente, solamente indexan paginas que contienen el HTTP request GET en el formulario y que no piden datos personales de los usuarios.
Con este experimento, se esta tratando de llegar a esa web invisible que está oculta a los motores de búsqueda.
Creo que se trata de un experimento interesante y muestra que los ingenieros de Google tienen mucho tiempo para dedicarse a temas poco relevantes. No creo que indexando páginas detrás de formularios, los internautas obtendrán mejores resultados en los buscadores.
Google+
Max, no concuerdo con tu opinión de que es poco relevante. Hay cientos de sites de multinacionales que tienen como única forma de navegar a los sites de los países un combo box que hasta ahora google no podía seguir.
Andres:
Tal vez tienes razón. Yo solamente estaba pensando en formularios por ejemplo para pedir newsletters, o alguna información sobre servicios o algún otro producto.
Pero es cierto que muchas webs usan formularios para seleccionar categorías u otras secciones de la web y también para la navegación en sí. En estos casos se usa el constructo formulario equivocadamente, pero bueno que se puede hacer.