sábado, 24 de enero de 2009

Mejorar indexacion: objetivo cumplido

Hace 3 meses que me fui con mi "Marketing Online a otra parte" y empiezo a ver los resultados de la ilusión y el esfuerzo que he puesto durante este tiempo en mi nuevo trabajo.

Quería empezar la casa por los cimientos y uno de los primeros objetivos que me propuse fue mejorar la indexación. Creo que esta gráfica de fe de la mejora conseguida.

mejora indexación
Gráfica con las páginas indexadas por Google


Como se puede apreciar los resultados tardaron unas semanas en notarse para estabilizarse posteriormente en un nivel muy superior al inicial (más del doble de páginas indexadas).

Lo he conseguido teniendo siempre presente esta máxima:

"a los bots no les gusta que les hagan perder el tiempo"


Dicho de otro modo, hay que optimizar el tiempo que los bots pasan en nuestro site. Si los bots pasan el tiempo accediendo páginas que no se han modificado, que no se encuentran o que están duplicadas, es natural que nos dediquen menos tiempo cada vez y vayan a buscar sitios en los que emplear su tiempo más eficientemente. Si además consultan páginas que no tienen poco interés para nosotros, estamos perdiendo una gran oportunidad.

Qué pasos seguí para "merecer" más atención de los bots?

Análisis previo

  • Estudiar la estructura del site

  • Estudiar con detenimiento la estructura y jerarquía del sitio Web, clasificando páginas en función de la importancia y actualización de su información, identificando y eliminando páginas repetidas o redundantes, etc.

    Todas las páginas de nuestro site son importantes, pero es muy útil establecer una jerarquía si queremos tener más posibilidades de que las más importantes estén más actualizadas en el índice.

  • Configuración y monitorización de googlebot

  • Google Webmasters console ofrece distintos parámetros de configuración (localización preferente, velocidad de rastreo, etc) y de monitorización (básicamente errores de rastreo) con los que hay que estar familiarizado.


Acciones

  • Asegurar la calidad del sitio

  • Reducir todo lo posible el número de enlaces rotos y mejorar todo lo posible el tiempo de respuesta de nuestras páginas (reducir número o calidad de imágenes, considerar hosting alternativo, etc.)

  • Reducir el número de páginas a indexar

  • Depurar el robots.txt para que no haya más de lo que deba haber (eliminar páginas redundantes, formularios, etc)

  • Crear un sitemap "ajustado"

  • El sitemap debe reflejar lo más fielmente posible la naturaleza de nuestra información (changefreq y priority apropiados). He visto muchos sitemaps que intentan captar la atención de los bots fijando un "priority=1" para todas las páginas o un "changefreq=always" lo que resulta en la pérdida de beneficios de tener un sitemap. El bot no puede priorizar unas páginas frente a otras ni prever qué páginas son más susceptibles de haberse modificado.


En definitiva todo se limita a aplicar el sentido común, ser meticuloso y no dejarse llevar por la codicia.

Otras entradas relacionadas:

jueves, 8 de enero de 2009

Pocos días para el Search Congress 2009 BCN.

Se acerca el Search Congress Barcelona 2009, sin duda el primer evento SEO, SEM, SMO, etc del año.

Tengo mucha ilusión en este evento que creo va a contar las cosas desde puntos de vista nuevos a otros congresos como el OME, por las diferencias en ponentes y organización.

Si estás pensando reservar tu entrada, puedes usar "seopositivo" como código promocional para conseguir un descuento de 20€. Otro pequeño aliciente para asistir al congeso.

search-congress-2009-BCN