Historia del algoritmo de Google y actualizaciones
-
1º ¿Cómo funciona el algoritmo de Google?
-
2º ¿Qué actualizaciones ha tenido?
¿Cómo funciona el algoritmo de Google?
El algoritmo es la herramienta que utiliza Google para puntuar una web y seleccionar que posicionamiento en las SERPS va a tener una web en concreto ante una intención concreta de búsqueda.
A través de robots de rastreo que obtiene información sobre la web, el algoritmo analiza esos inputs y aplica inteligencia artificial para conocer la información e importancia de la web.
Este proceso ha sufrido muchos cambios desde sus comienzos vamos a analizarlos poco a poco.
Historia de las actualizaciones
Comienzo del algoritmo de Google
Google Toolbar Diciembre de 2000
Todo comenzó con la barra de búsqueda para internet explorer y se añadieron herramientas de clasificación de las páginas que se van a mostrar en esa barra de búsqueda. Nacimiento del PageRank, ranking que puntuaba a las páginas dependiendo de cuantos enlaces entrantes externos tuvieran.Actualización Florida 2003
Fue la primera gran actualización del algoritmo. Principalmente analizaba la calidad de los enlaces que tenían las páginas web en busca de Spam. Hay que tener en cuenta que, para Google, era (y es) un signo de relevancia que una web recibiera muchos enlaces. El problema surgía cuando muchas webs vacías, sin relevancias, enlazaban a una misma web. La actualización Florida sirvió, precisamente, para penalizar a estas últimas.Actualización Allegra 2005
Actualización del algoritmo que tuvo una gran repercusión en los resultados de búsqueda. Su finalidad era eliminar páginas de Spam, continuando el trabajo realizado en la actualización Florida, y penalizar las webs con contenidos duplicados. Grandes webs se vieron afectadas y penalizadas por esta actualización. Benefició a webs pequeñas que vieron como mejoraron posiciones en las SERPS.Actualizaciones cada vez más potentes
Actualización Panda año 2011 hasta 2014
La finalidad de estas actualizaciones era medir la calidad de las páginas web. Con ello webs vacías ¿y que no generaban valor añadiendo? descendieron posiciones en las SERPS. También se penalizó a webs con contenido muy similar dentro de la misma web y webs que tenían páginas para la misma palabra clave y sinónimos, comúnmente llamado canibalización. En Mayo del año 2014, hubo una actualización de Panda de 4.0 y también Payday loan update que lucha contra del Spam. La versión Panda 4.0 mejoraba el análisis de la calidad del contenido y los resultados de búsqueda.
En septiembre de ese mismo año también surgió la actualización de Panda 4.1. Su finalidad era continuar con el trabajo realizado en las anteriores versiones. Pequeñas y medianas webs si se beneficiaron mucho de esta actualización.
Google Coffiene Año 2010
Sistema de indexación de contenidos enfocado a proporcionar a los usuarios poblaciones actualizadas. Intentar indexar de forma más continua. Anteriormente se actualizaba cada 2 semanas por lo que el contenido al usuario final no era lo más novedoso.
Actualización Pingüino Año 2012 hasta 2016
Una de las actualizaciones que más cambió el algoritmo. Uno de los principales problemas que Google ha intentado arreglar, ha sido y es el posicionamiento anti-natural de algunas páginas web. Profesionales que conseguían descifrar qué tenía en cuenta Google y utilizarlo de una forma desproporcionada para colocarlas en primeras posiciones.
En esta actualización Google penalizó en gran medida muchas de estas técnicas. Puso su foco en:
Compra de Backlinks:
La compra de enlaces va en contra de las directrices de Webmasters de Google. Se penalizó a las plataformas que vendían Links y a los compradores. Hoy en día se pueden comprar enlaces sin ser detectados y penalizados por Google, que está intentando poner fin a esta práctica.
Sobre-Optimización y Canibalización:
La repetición excesiva de las palabras claves con el fin de que Google posicionara mejor la web también se convirtió en motivo de penalización ya que no generaba contenido de calidad para el usuario. Otra práctica habitual hasta ese momento era crear varias páginas de la web enfocadas hacia la misma palabra clave para poder aparecer de forma repetida en la SERP de una búsqueda. Esta práctica también fue motivo de sanción por parte de Google.
Algoritmo Colibrí 2013
Nuevo algoritmo que introdujo una mejora del análisis de la semántica en las búsquedas de los usuarios. Las respuestas eran más naturales a la intención de búsqueda del usuario.
Actualización Paloma 2014
Nuevo algoritmo que afectaba al posicionamiento web de las páginas http, por lo que se vieron obligadas a cambiar a https.
Este algoritmo además implantó un gran cambio en las páginas web de negocios locales cercanos al usuario. Mejoraron su posicionamiento frente a webs de grandes empresas.
RankBrain, introducción de la inteligencia artificial.
El mayor cambio del motor de búsqueda que Google ha hecho hasta la fecha. Google empezó a utilizar Inteligencia Artificial en sus algoritmos. Aunque el anuncio oficial fue el 15 de octubre de 2015, la realidad es que Google ya trabajaba en ello desde el 2012. En 2014 adquirió varias sart-ups expecializadas en el campo de la IA.
RankBrain ayuda al algoritmo colibrí a entender las diferentes combinaciones de palabras utilizadas por los usuarios. Básicamente aprende a interpretar las intenciones de búsqueda de los usuarios que escriben frases largas. Todo ello ayuda al algoritmo de Google a entender la semántica, encontrarle significa y sentido a lo que escriben los usuarios.