Índice
Algoritmos de Google
Al ser Google el buscador más usado, ha basado su estrategia de mostrar los resultados más relevantes para los usuarios de su plataforma y lo que realiza es asignar un ranking (Page Rank) a las páginas en función del aporte de valor que estas tienen hacia estos.
¿Qué son los algoritmos de Google?
Debido a lo anterior, a lo largo del tiempo Google ha implementado una serie de operaciones con cálculos complejos para determinar aquellos sitios que aparecerán en las SERP´s (Search Engine Results Pages), a estas operaciones se les llama algoritmos, estos ayudan a determinar la relevancia de un sitio, además, buscan evitar el Black Hat SEO, a continuación, te damos una breve reseña de los que se han implementado a partir de 1999.
1999 – Page Rank
Desarrollado por Larry Page uno de los fundadores de Google, de ahí el nombre de este algoritmo, en la búsqueda de hacer una web al alcance de todos, es decir más democrática, pensó la manera de asignar una valoración a las páginas para que las que tuvieran contenido mas relevante aparecieran en los primeros lugares de las SERP’s , en principio tomo como valoraciones los enlaces desde y hacia las páginas, es decir enlaces entrantes y salientes, adicional veía la valoración de las páginas de donde provenían los enlaces y si los contenidos de estos tenían sentido, aquellas páginas sin enlaces se verían afectadas negativamente.
Este algoritmo ha sufrido varios cambios en el tiempo, con el fin de atacar el spam o las malas practicas con la finalidad de proporcionar los mejores resultados para los usuarios.
2011 – Google Panda
Da énfasis a la intención de búsqueda de los usuarios, tratando de mostrar las páginas más relevantes de acuerdo con la búsqueda realizada, penaliza el contenido de poco valor (thin content), contenido duplicado y que aporte poco valor.
2012 – Google Venice
Enfocado a dar resultados de búsqueda de manera local, dependiendo de la ubicación geográfica del usuario, automáticamente le proporciona aquellos resultados más relevantes sobre su intención de búsqueda que se encuentren más cercanos a su localidad.
2012 – Google Penguin
Algoritmo enfocado a combatir los enlaces o backlinks de mala calidad, que no corresponden con la temática de los sitios que los usan, premia a los enlaces conseguidos de manera natural y castiga aquellos basados en granjas de backlinks que eran muy usados.
2013 – Google Hummingbird
Se basa en buscar la naturalidad de las búsquedas y de los contenidos para mejorar la respuesta a la intención de búsqueda de los usuarios.
2014 – Google Pigeon
Trata de depurar las búsquedas locales, concede más importancia a los contenidos y a los enlaces entrantes locales por encima de los globales, considerando siempre la intención de búsqueda de los usuarios.
2014 – Google HTTPS
En si no tiene un nombre en específico como los anteriores, sin embargo, a partir de su lanzamiento empezó a penalizar a los sitios que no usaban el protocolo de seguridad https.
2014 – Google Pirate 2.0
Anteriormente ya se había lanzado Pirate 1.0 donde restringía la indexación de sitios que permitían la descarga ilegal de música, películas, software, libros, juegos, etc y premiaba aquellos cuyas descargas eran legales. Esta versión bloquea la publicidad en Google Ads de este tipo de sitios.
2015 – Google Mobilegeddon
Cuando se lanzó la mayor parte de los sitios web estaban diseñados para desktops, con el creciente uso de dispositivos móviles con acceso a internet, se empezó a fomentar el uso de sitios responsivos y a indexar rápidamente a aquellos que cumplían la norma y a penalizar a aquellos que no.
2015 – Google RankBrain
Google inicia el uso de la Inteligencia Artificial usando la manera de búsqueda de los usuarios e ir aprendiendo de las modificaciones que estos hacen al realizar sus búsquedas, ya sea que al modificar sus palabras clave por no encontrar lo que buscaban agreguen, quiten o modifiquen su intención de búsqueda, Google almacena esos datos para refinar los resultados que proporciona.
2016 – Google Possum
Esta es una actualización a Google Venice, donde se enfoca al SEO local, anteriormente Google usaba la dirección IP para ubicar los negocios locales, ahora usa la ubicación geográfica y muestra no sólo los negocios locales sino de localidades o municipios que pueden estar más cerca.
2016 – Google Mobile First Index
Este se enfoca no sólo a que el sitio sea responsivo sino a la mejor experiencia del usuario (UX) para los dispositivos móviles, cuestiones como el tipo y tamaño de letra, imágenes que no se enciman, botones adecuados para pulsarlos con los dedos, por lo que indexará mejor a aquellos sitios que cumplan con una buena presentación móvil.
2017- Google Owl
Este algoritmo pretende promocionar el contenido de autoridad y calidad y degradar el de baja calidad. Se trata de evitar las sugerencias de búsquedas con cosas inventadas, que sean mitos, que hablen de conspiraciones, temas de odio, contenidos explícitos u ofensivos, ya que este tipo de contenido representa un problema en la calidad de las búsquedas que Google ofrece.
2017 – Google Fred
Google Fred es un algoritmo diseñado principalmente para evitar tácticas Blackhat SEO que están conectadas a una monetización demasiado agresiva e intrusiva.
Este algoritmo busca específicamente sitios web que generalmente ofrecen muy pocos beneficios para el usuario, que contienen anuncios excesivos y backlinks de poca calidad.
Los sitios web dedicados a ventas que tienen poco propósito, que están más dedicados a generar ingresos en lugar de proporcionar información útil parecen ser los más castigados por Fred.
2018 -Google YMYL
El acrónimo YMYL significa “Your money or your life”, y se refiere a todos aquellos sitios con páginas que hablan de dietas, enfermedades, finanzas, salud, etcétera… que no estuvieran respaldadas por profesionales y que influyen en el dinero y la salud del usuario.
2019- Google Neural Matching
Aunque el usuario no ponga las palabras exactas en su búsqueda Google sabra ofrecer resultados locales, aunque el usuario no indique nombres de negocios o descripciones en su búsqueda.
2020 – Core Updates
Oct – Google actualizó sus directrices para evaluadores de calidad de búsqueda, y en estas pautas bajo la sección titulada “Clasificación de resultados de diccionarios y enciclopedias para diferentes consultas”, descartó aquellos resultados que no cumplían con la intención del usuario en todos los casos, y solo aplicaban bajo un contexto específico.
2021 – Core Updates
Abril
Product reviews update centrada en potenciar las reseñas de calidad. Recompensa aquellas reseñas online sobre productos o servicios que se hayan hecho con un profundo análisis e investigación inicial, proporcionándoles las mejores posiciones en los resultados de búsqueda.
Junio
Google Core Update, esta actualización modifica los algoritmos de búsqueda y da un mejor posicionamiento a los sitios web que ofrecen una mejor experiencia de usuario
Junio/Julio
Incluye una actualización dedicada a luchar contra el spam web y otra mucho más relevante para el sector eCommerce como la Page Experience Update, que se puso en marcha el 15 de junio y espera concluir en el mes de agosto. Con esta actualización, los Core Web Vitals se tomarán en cuenta junto con el resto de los elementos en la clasificación de búsqueda, lo que los convertirá en parte esencial de toda estrategia SEO
Agosto
Google Page Experience pretende mejorar la experiencia del usuario en la web y se basa en los Core Web Vitals
- LCD o Largest Contentful Paint: se trata de la velocidad de carga de los elementos de un sitio web. Responde a la pregunta: ¿Qué tan rápido se carga la página?
- FID o First Input Delay: mide la interactividad y la respuesta, cuantifica la experiencia del usuario cuando interactúa por primera vez con una página. Responde a la pregunta: ¿Qué tan fácil es interactuar con la página?
- CLS o Cumulative Layout Shift: “movimiento inesperado de contenido” en español. Es una métrica centrada en el usuario que mide la estabilidad visual, y que ayuda a cuantificar la frecuencia con la que los usuarios experimentan cambios de diseño inesperados. Responde a la pregunta: ¿Qué tan estable el contenido que veo?
¿Cómo puedo aprovechar los algoritmos para hacer SEO?
Primero debemos de entender los pasos o fases que siguen los algoritmos:
Rastreo.
Esto se realiza mediante lo que se conoce como spiders, arañas o robots, que son pequeños programas que se ejecutan en automático y acceden a los sitios web los barren para recopilar información para los motores de búsqueda.
Indexación.
Con la información recopilada en el punto anterior entran en funcionamiento los algoritmos para analizar todos los elementos de los sitios web y encontrar aquellos que tienen mayor relevancia para las búsquedas realizadas por los usuarios, les asigna una calificación y va almacenando los resultados en su famoso índice.
Resultados.
Cuando un usuario realiza determinada búsqueda Google toma su índice y trata de darle los resultados que sean de mayor calidad para los datos proporcionados, tomando en cuenta diversos factores como son entre otros, el idioma, la ubicación, el tipo de dispositivo donde se mostraran los resultados y las consultas relacionadas realizadas por el mismo usuario.
Una vez entendidos los conceptos anteriores vamos a ver como aprovechar los algoritmos de Google para el SEO.
SEO Técnico.
Dentro del Rastreo aplicaremos lo que se conoce como SEO Técnico, que considera todos los aspectos de la manufactura de un sitio web y tiene que ver mucho con los Core Web Vitals, la estructura del sitio, el uso correcto de los encabezados, los enlaces internos, diseño responsivo (adaptable a diferentes dispositivos), así como diversos aspectos que harán que el sitio sea indexado de manera correcta.
SEO On Page.
Este ayuda a los motores de búsqueda a conectar las búsquedas realizadas por los diferentes usuarios mediante las keywords con la relevancia del contenido, con el objetivo de lograr un mayor posicionamiento , entre los puntos a considerar están: el uso de url´s canónicas, existencia de sitemaps.xml y robots.txt, redirecciones, existencia de página 404, uso de protocolo de seguridad https, uso eficiente de la memoria cache, que se cuente con el favicon, uso de url´s amigables, alta en Google Analytics, Google Search Console y Google Tag Manager, entre otros más.
SEO Off Page.
También tendremos que poner atención en lo que se conoce como SEO Off Page, este punto nos va a ayudar a determinar la autoridad de nuestro sitio web, que es un punto que toma mucho en cuenta Google al mostrar los resultados en las SERP´s.
Dentro de los puntos a considerar en este apartado esta la construcción de backlinks de importancia con sitios que tengan que ver con el nuestro, hay que tomar en cuenta que estos son como recomendaciones que otros hacen de nosotros, aquí interviene la parte de Relaciones Públicas para lograr dichos enlaces.
Un punto relevante es el Marketing de Contenidos, es decir la información de valor que le proporcionamos a los usuarios de la web, donde interviene el SEO Semántico, en este punto debemos estar pendientes a las modificaciones de algoritmos existentes o a la aparición de nuevos.
Considerando que existen más de 500 actualizaciones al año en los algoritmos de Google, debemos siempre estar en constante aprendizaje y al pendiente de lo que vaya surgiendo y documentarnos en las probables afectaciones a nuestros sitios tanto en la indexación como en el posicionamiento.
En base a la funcionalidad de los algoritmos existentes o de los nuevos, debemos realizar los cambios o adecuaciones pertinentes en nuestros contenidos o funcionalidad de los sitios, para propiciar su correcta indexación y alta calificación, evitando perder las posiciones ganadas.
Respecto a los Contenidos, debemos hacer un análisis profundo de las necesidades o dolores que nuestro producto o servicio cubre, ya que en base a esto será como los usuarios nos busquen.
Si el contenido que publicamos realmente aporta valor al mercado que nos dirigimos, será fácilmente compartido mediante enlaces en otras páginas o redes sociales, con lo anterior se buscará una construcción del conocimiento de Marca, para que Google nos otorgue credibilidad y autoridad a lo que publicamos.
Una parte complementaria del SEO Off Page es el manejo de la Redes Sociales, el SEO Local, Notas de Prensa, Marketing de Influencers, Foros, Eventos, Podcast, Videos en Youtube y otros más que ayuden a la difusión de la marca y los contenidos.
Conclusiones
Con la incorporación de la inteligencia artificial y la aparición constante de nuevos algoritmos o modificaciones a los ya existentes, tenemos que vigilar el impacto que estos tendrán ya que pueden alterar por completo los resultados de los sitios web y páginas que hemos creado,
Es por eso que debemos estar en constante investigación y aprendizaje de los algoritmos de Google y su impacto que puedan tener en nuestros sitios, hay que considerar que siempre existirá una amenaza de un cambio repentino en el algoritmo, el cual nos puede lanzar de una posición estable a una completamente diferente, por lo que, es muy aconsejable revisar constantemente los sitios que tengamos a cargo para que estos no caigan en desventaja al haber perdido una cantidad importante del tráfico ganado o incluso correr el riego de ser eliminado del motor de búsqueda.
Siempre hay que estar monitoreando el comportamiento de nuestros sitios web mediante Google Analytics, Google Search Console o algún otro programa que tengamos para estos efectos, como SemRush, Ahref, SE Ranking, Metricool, entre otros y en caso de desviaciones hacer los ajustes necesarios para mantener nuestra posición.
En Mark3teros te ayudamos a posicionar tu sitio web y te asesoramos en el contenido de valor que puedes integrar en él, para darle mayor visibilidad a tu marca, producto o servicio. Ponte en Contacto!!!
Consultor en Marketing Digital, Analítica de Datos, SEO, SEM, Posicionamiento Web, Diseño de Páginas Web y Tiendas Online
Emprendedor, socio fundador de emprendimientos como BI-PPR (Pabis Retail), Matrix CPM Solutions sede México, PCTarget y Mark3teros.