Historia del algoritmo de Google y actualizaciones

¿Cómo funciona el algoritmo de Google?

El algoritmo es la herramienta que utiliza Google para puntuar una web y seleccionar que posicionamiento en las SERPS va a tener una web en concreto ante una intención concreta de búsqueda.

A través de robots de rastreo que obtiene información sobre la web, el algoritmo analiza esos inputs y aplica inteligencia artificial para conocer la información e importancia de la web.

Este proceso ha sufrido muchos cambios desde sus comienzos vamos a analizarlos poco a poco.

contenidos

Historia de las actualizaciones

Comienzo del algoritmo de Google

Google Toolbar Diciembre de 2000

Todo comenzó con la barra de búsqueda para internet explorer y se añadieron herramientas de clasificación de las páginas que se van a mostrar en esa barra de búsqueda. Nacimiento del PageRank, ranking que puntuaba a las páginas dependiendo de cuantos enlaces entrantes externos tuvieran.

Actualización Florida 2003

Fue la primera gran actualización del algoritmo. Principalmente  analizaba la calidad de los enlaces que tenían las páginas web en busca de Spam. Hay que tener en cuenta que, para Google, era (y es) un signo de relevancia que una web recibiera muchos enlaces. El problema surgía cuando muchas webs vacías, sin relevancias, enlazaban a una misma web. La actualización Florida sirvió, precisamente, para penalizar a estas últimas.

Actualización Allegra 2005

Actualización del algoritmo que tuvo una gran repercusión en los resultados de búsqueda. Su finalidad era eliminar páginas de Spam, continuando el trabajo realizado en la actualización Florida, y penalizar  las webs con contenidos duplicados. Grandes webs se vieron afectadas y penalizadas por esta actualización. Benefició a webs pequeñas que vieron como mejoraron posiciones en las SERPS.
gestion de contenido

Actualizaciones cada vez más potentes

 

Actualización Panda año 2011 hasta 2014

 

La finalidad de estas actualizaciones era medir la calidad de las páginas web. Con ello webs vacías ¿y que no generaban valor añadiendo? descendieron posiciones en las SERPS. También se penalizó a webs con contenido muy similar dentro de la misma web y webs que tenían páginas para la misma palabra clave y sinónimos, comúnmente llamado canibalización. En Mayo del año 2014, hubo una actualización de Panda de 4.0 y también Payday loan update que lucha contra del Spam. La versión Panda 4.0 mejoraba el análisis de la calidad del contenido y los resultados de búsqueda.

En septiembre de ese mismo año también surgió la actualización de Panda 4.1. Su finalidad era continuar con el trabajo realizado en las anteriores versiones. Pequeñas y medianas webs si se beneficiaron mucho de esta actualización.

 

Google Coffiene Año 2010

 

Sistema de indexación de contenidos enfocado a proporcionar a los usuarios poblaciones actualizadas. Intentar indexar de forma más continua. Anteriormente se actualizaba cada 2 semanas por lo que el contenido al usuario final no era lo más novedoso.

 

Actualización Pingüino Año 2012 hasta 2016

 

Una de las actualizaciones que más cambió el algoritmo. Uno de los principales problemas que Google ha intentado arreglar, ha sido y es el posicionamiento anti-natural de algunas páginas web. Profesionales que conseguían descifrar qué tenía en cuenta Google y utilizarlo de una forma desproporcionada para colocarlas en primeras posiciones.

En esta actualización Google penalizó en gran medida muchas de estas técnicas. Puso su foco en:

 

Compra de Backlinks:

La compra de enlaces va en contra de las directrices de Webmasters de Google. Se penalizó a las plataformas que vendían Links y a los compradores. Hoy en día se pueden comprar enlaces sin ser detectados y penalizados por Google, que está intentando poner fin a esta práctica.

 

Sobre-Optimización y Canibalización:

La repetición excesiva de las palabras claves con el fin de que Google posicionara mejor la web también se convirtió en motivo de penalización ya que no generaba contenido de calidad para el usuario.  Otra práctica habitual hasta ese momento era crear varias páginas de la web enfocadas hacia la misma palabra clave para poder aparecer de forma repetida en la SERP de una búsqueda. Esta práctica también fue motivo de sanción por parte de Google.

 

Algoritmo Colibrí 2013

Nuevo algoritmo que introdujo una mejora del análisis de la semántica en las búsquedas de los usuarios. Las respuestas eran más naturales a la intención de búsqueda del usuario.

 

Actualización Paloma 2014

Nuevo algoritmo que afectaba al posicionamiento web de las páginas http, por lo que se vieron obligadas a cambiar a https.

Este algoritmo además implantó un gran cambio en las páginas web de negocios locales cercanos al usuario. Mejoraron su posicionamiento frente a webs de grandes empresas.

RankBrain, introducción de la inteligencia artificial.

El mayor cambio del motor de búsqueda que Google ha hecho hasta la fecha. Google empezó a utilizar Inteligencia Artificial en sus algoritmos. Aunque el anuncio oficial fue el 15 de octubre de 2015, la realidad es que Google ya trabajaba en ello desde el 2012. En 2014 adquirió varias sart-ups expecializadas en el campo de la IA.

RankBrain ayuda al algoritmo colibrí a entender las diferentes combinaciones de palabras utilizadas por los usuarios. Básicamente aprende a interpretar las intenciones de búsqueda de los usuarios que escriben frases largas. Todo ello ayuda al algoritmo de Google a entender la semántica, encontrarle significa y sentido a lo que escriben los usuarios.

Actualizaciones para móviles y Google Maps

Algoritmo Mobilegeddon 2015

Supuso un gran cambio para los resultados de búsquedas desde dispositivos móviles. Ante el creciente uso de móviles, Google decidió posicionar páginas web con un diseño responsive (adaptado a formatos móviles) por encima de páginas que no lo fueran, cuando la búsqueda se realizaba desde un dispositivo móvil. Esto afecta de forma individualizada, es decir, si una página en concreto está optimizada para dispositivos móviles tendrá un buen posicionamiento, pero no el resto de la web.

Actualización Zarigüeya 2016

Actualización que se enfocó al SEO local. Este algoritmo tuvo dos finalidades. Primero, arreglar un problema que había con negocios que se encontraban en los límites, o fuera de ellos, de la ciudad desde donde se realizaba la búsqueda. Cuando un usuario buscaba un producto en una ciudad concreta, el resultado eran tiendas que estaban en el centro de la ciudad, aunque hubiera una tienda a 100 metros del usuario en el extrarradio. El segundo cambio fue eliminar resultados sobre el mapa de Google maps de 7 pasaron a 3.
[simple-author-box]
estrategia de contenidos marketing digital