TIC's en la Web

Google ajusta su algoritmo de búsqueda para mejorar la calidad.

Google anuncia cambios en su algoritmo de indexación de sitios y su análisis para la posterior colocación en la lista de resultados ordenada por “importancia” de los mismos en su emblemático buscador. Cada vez que Matt Cutts, responsable principal de las actualización del motor de búsqueda más importante de Internet hace estos anuncios, los responsables SEO de las empresas líderes que operan en la red se preocupan.

Si bien los objetivos de Google son dignos de compartir, ya que apuntan a la valorización de contenidos de calidad y auténticos, muchas veces ha sucedido, con pruebas concretas de esto, que las modificaciones del algoritmo no se funden íntimamente con la filosofía que mueve su modificación y se ven perjudicadas páginas que enriquecen la red de Internet por su aporte didáctico e informativo de alto nivel profesional.

El ingeniero de Google, Matt Cutts, sintetiza el motivo de este ajuste en la idea de penalizar algunas páginas web, llamadas en la jerga ” webspam “, que contienen escasa calidad y que logran colocarse con artilugios no muy éticos en las primeras posiciones de su página de resultados. Supuestamente, Google a detectado un aumento de estos casos y además para poder aplicar la profilaxis necesaria ha podido conocer los mecanismos que utilizan para este fin y que hoy el algoritmo de Google no permite filtrar.

El propio Matt Cutts, consciente del “nerviosismo” que estos anuncios provocan en los profesionales SEO, ha declarado públicamente que no se espera, al menos en la primera etapa de implementación, un impacto muy grande en la actual situación, y se arriesga a estimar que el cambio podría rondar un 2% de cambios en la actual grilla de resultados. Pero, nadie que ha trabajado duro y honestamente, quiere estar en ese 2% por error, y espera ansiosamente el resultado de esta modificación porque está en juego la supervivencia de su empresa en caso de desaparecer de los primeros lugares de la lista de resultados.

Entre las bases filosóficas que guiarán el ajuste del algoritmos se encuentra un un nuevo clasificador con el que optimizar la detección de sitios que hayan sido hackeados, la incorporación de una nueva herramienta con la finalidad de detectar y penalizar sitios que copien contenido de otros, y una serie dee medidas con las que se pueda detectar y denuncia cualquier web que no cumplan las guías de calidad de Google, especialmente las llamadas Content Farms (Granjas de Contenido) utilizadas para generar un alto contenido de artículos de dudosa calidad.


imagen: telendro

Exit mobile version