El pasado, Presente y Futuro del PageRank de Google
El algoritmo de PageRank (o PR para abreviar) es un sistema para clasificar páginas web desarrollado por Larry Page y Sergey Brin en la Universidad de Stanford a finales de los 90.
Han pasado muchos años desde entonces y, por supuesto, los algoritmos de clasificación de Google se han vuelto mucho más complicados. ¿Siguen basados en PageRank? ¿Cómo influye exactamente el PageRank en el ranking y para qué deberían prepararse los SEO en el futuro? Ahora vamos a encontrar y resumir todos los hechos y misterios alrededor de PageRank para aclarar la imagen. Bueno, tanto como podamos.
El pasado de PageRank
Como se mencionó anteriormente, en su proyecto de investigación universitaria, Brin y Page intentaron inventar un sistema para estimar la autoridad de las páginas web. Decidieron construir ese sistema en enlaces, que servían como votos de confianza dados a una página. De acuerdo con la lógica de ese mecanismo, cuantos más recursos externos se vinculen a una página, más información valiosa tendrá para los usuarios. Y PageRank (una puntuación de 0 a 10 calculada en base a la cantidad y calidad de los enlaces entrantes) mostró la autoridad relativa de una página en Internet.
Fórmula original del PageRank
Echemos un vistazo a cómo funciona el PageRank. Cada enlace de una página (A) a otra (B) emite un llamado voto, cuyo peso depende del peso colectivo de todas las páginas que enlazan a la página A. Y no podemos saber su peso hasta que lo calculemos, así que el proceso va en ciclos.
La fórmula matemática del PageRank original es la siguiente:
Donde A, B, C y D son algunas páginas, L es el número de enlaces que salen de cada una de ellas, y N es el número total de páginas de la colección (es decir, en Internet).
En cuanto a d, d es el llamado factor de amortiguación. Teniendo en cuenta que el PageRank se calcula simulando el comportamiento de un usuario que llega aleatoriamente a una página y hace clic en enlaces, aplicamos este factor d de amortiguación como la probabilidad de que el usuario se aburra y abandone una página.
Como puede ver en la fórmula, si no hay páginas que apunten a la página, su PR no será cero, sino
, ya que existe la probabilidad de que el usuario pueda llegar a esta página no desde otras páginas, sino, por ejemplo, desde marcadores.
Vulnerabilidad de manipulación de PageRank y la guerra de Google contra el spam de enlaces
Al principio, la puntuación de PageRank era visible públicamente en la barra de herramientas de Google, y cada página tenía su puntuación de 0 a 10, muy probablemente en una escala logarítmica.
Los algoritmos de posicionamiento de Google de esos tiempos eran muy simples: las altas relaciones públicas y la densidad de palabras clave eran las únicas dos cosas que una página necesitaba para posicionarse en un lugar alto en una SERP. Como resultado, las páginas web estaban llenas de palabras clave, y los propietarios de sitios web comenzaron a manipular el PageRank aumentando artificialmente los backlinks de spam. Eso fue fácil de hacer: las granjas de enlaces y las ventas de enlaces estaban ahí para dar a los propietarios de sitios web una «mano amiga».»
Google decidió luchar contra el spam de enlaces. En 2003, Google penalizó el sitio web de la empresa de redes publicitarias SearchKing por manipulaciones de enlaces. La búsqueda demandó a Google, pero Google ganó. Fue una forma en que Google trató de restringir a todos las manipulaciones de enlaces, sin embargo, no llevó a nada. Las granjas Link simplemente pasaron a la clandestinidad, y su cantidad se multiplicó enormemente.
Además, los comentarios spam en los blogs también se multiplicaron. Los bots atacaron los comentarios de cualquier blog de WordPress, por ejemplo, y dejaron un enorme número de comentarios de» haga clic aquí para comprar píldoras mágicas». Para evitar el spam y la manipulación de relaciones públicas en los comentarios, Google introdujo la etiqueta nofollow en 2005. Y una vez más, lo que Google quería que se convirtiera en un paso exitoso en la guerra de manipulación de enlaces se implementó de una manera retorcida. La gente comenzó a usar etiquetas nofollow para canalizar artificialmente el PageRank a las páginas que necesitaban. Esta táctica se conoció como escultura de PageRank.
Para evitar el esculpido de relaciones públicas, Google cambió la forma en que fluye el PageRank. Anteriormente, si una página tenía enlaces nofollow y dofollow, todo el volumen de relaciones públicas de la página se pasaba a otras páginas vinculadas con los enlaces dofollow. En 2009, Google comenzó a dividir las relaciones públicas de una página por igual entre todos los enlaces que tenía la página, pero solo pasó aquellos compartidos que se dieron a los enlaces dofollow.
Hecho con la escultura de PageRank, Google no detuvo la guerra de spam de enlaces y, en consecuencia, comenzó a quitar la puntuación de PageRank de los ojos del público. En primer lugar, Google lanzó el nuevo navegador Chrome sin la barra de herramientas de Google, donde se mostró la puntuación de relaciones públicas. Luego dejaron de reportar la puntuación de relaciones públicas en la Consola de búsqueda de Google. Luego, el navegador Firefox dejó de admitir la barra de herramientas de Google. En 2013, PageRank se actualizó para Internet Explorer por última vez, y en 2016 Google cerró oficialmente la barra de herramientas para el público.
Una forma más de combatir los esquemas de enlaces de Google fue Penguin update, que clasificaba sitios web con perfiles de backlinks sospechosos. Lanzado en 2012, Penguin no se convirtió en parte del algoritmo en tiempo real de Google, sino que era más bien un «filtro» actualizado y reaplicado a los resultados de búsqueda de vez en cuando. Si un sitio web era penalizado por Penguin, los SEO tenían que revisar cuidadosamente sus perfiles de enlaces y eliminar enlaces tóxicos, o agregarlos a una lista de desautorización (una característica introducida en esos días para decirle a Google qué enlaces entrantes ignorar al calcular el PageRank). Después de auditar los perfiles de enlace de esa manera, los SEOs tuvieron que esperar medio año más o menos hasta que el algoritmo Penguin recalculara los datos.
En 2016, Google convirtió a Penguin en parte de su algoritmo de clasificación principal. Desde entonces, ha estado trabajando en tiempo real, lidiando algorítmicamente con el spam con mucho más éxito.
Al mismo tiempo, Google trabajó para facilitar la calidad en lugar de la cantidad de enlaces, clavándolo en sus directrices de calidad contra los esquemas de enlaces.
El presente de PageRank
Bueno, hemos terminado con el pasado de PageRank. ¿Qué está pasando ahora?
En 2019, un ex empleado de Google dijo que el algoritmo de PageRank original no había estado en uso desde 2006 y fue reemplazado por otro algoritmo que consume menos recursos a medida que Internet creció. Lo que bien podría ser cierto, ya que en 2006 Google presentó la nueva Producción de un ranking para páginas que utilizan distancias en una patente de gráfico de enlaces web.
¿Se aplica el algoritmo PageRank hoy en día?
Sí, lo es. No es el mismo PageRank que a principios de la década de 2000, pero Google sigue confiando en la autoridad de enlaces en gran medida. Por ejemplo, un ex empleado de Google, Andrey Lipattsev, mencionó esto en 2016. En un hangout de Google Q&A, un usuario le preguntó cuáles eran las principales señales de clasificación que usaba Google. La respuesta de Andrey fue bastante sencilla.
Puedo decirte lo que son. Es contenido y enlaces que apuntan a su sitio.
Andrey Lipattsev
En 2020, John Mueller confirmó que, una vez más:
Sí, hacemos uso de PageRank internamente, entre muchas, muchas otras señales. No es exactamente lo mismo que el papel original, hay muchas peculiaridades (por ejemplo, enlaces desautorizados, enlaces ignorados, etc.).), y, de nuevo, usamos muchas otras señales que pueden ser mucho más fuertes.
John Mueller
Como puedes ver, PageRank sigue vivo y es utilizado activamente por Google al clasificar páginas en la web.
Lo interesante es que los empleados de Google siguen recordándonos que hay muchas, muchas, MUCHAS otras señales de clasificación. Pero vemos esto con un grano de sal. Teniendo en cuenta el esfuerzo que Google dedicó a combatir el spam de enlaces, podría ser de interés de Google desviar la atención de los SEO de los factores vulnerables a la manipulación (como lo son los backlinks) y dirigir esta atención hacia algo inocente y agradable. Pero como los SEO son buenos leyendo entre líneas, siguen considerando el PageRank como una señal de clasificación fuerte y hacen crecer los backlinks de todas las maneras que pueden. Todavía usan PBN, practican un poco de construcción de enlaces por niveles de sombrero gris, compran enlaces, etc., tal como era hace mucho tiempo. A medida que el PageRank viva, el spam de enlaces también vivirá. No recomendamos nada de eso, pero eso es lo que es la realidad del SEO, y tenemos que entenderlo.
Aleatorio Surfer vs Razonable Surfista modelos de PageRank
Bueno, tienes la idea de que el PageRank no es el PageRank que era hace 20 años.
Una de las modernizaciones clave de las relaciones públicas fue pasar del modelo de Surfista Aleatorio mencionado anteriormente al modelo de Surfista Razonable en 2012. Surfer razonable asume que los usuarios no se comportan caóticamente en una página, y hacen clic solo en los enlaces que les interesan en este momento. Por ejemplo, al leer un artículo de blog, es más probable que hagas clic en un enlace en el contenido del artículo en lugar de en un enlace de Términos de uso en el pie de página.
Además, un Surfista razonable puede utilizar una gran variedad de otros factores al evaluar el atractivo de un enlace. Todos estos factores fueron cuidadosamente revisados por Bill Slawski en su artículo, pero me gustaría centrarme en los dos factores, que los SEO discuten más a menudo. Estos son la posición del enlace y el tráfico de la página. ¿Qué podemos decir sobre estos factores?
Correlación entre la posición del enlace y la autoridad del enlace
Un enlace puede estar ubicado en cualquier parte de la página, en su contenido, menú de navegación, biografía del autor, pie de página y, en realidad, cualquier elemento estructural que contenga la página. Y diferentes ubicaciones de enlaces afectan el valor del enlace. John Mueller lo confirmó, diciendo que los enlaces colocados dentro del contenido principal pesan más que todos los demás:
Esta es el área de la página donde tienes tu contenido principal, el contenido del que trata esta página, no el menú, la barra lateral, el pie de página, el encabezado Then Entonces eso es algo que tenemos en cuenta e intentamos usar esos enlaces.
John Mueller
Por lo tanto, se dice que los enlaces de pie de página y los enlaces de navegación pasan menos peso. Y este hecho de vez en cuando es confirmado no solo por los portavoces de Google, sino por casos de la vida real.
En un caso reciente presentado por Martin Hayman en BrightonSEO, Martin agregó el enlace que ya tenía en su menú de navegación al contenido principal de las páginas. Como resultado, esas páginas de categorías y las páginas a las que enlazaron experimentaron un aumento de tráfico del 25%.
Este experimento demuestra que los enlaces de contenido pasan más peso que cualquier otro.
En cuanto a los enlaces en la biografía del autor, los SEO asumen que los enlaces biológicos pesan algo, pero son menos valiosos que, por ejemplo, los enlaces de contenido. Aunque no tenemos muchas pruebas aquí, sino de lo que dijo Matt Cutts cuando Google estaba luchando activamente contra el exceso de guest blogging por backlinks.
Correlación entre tráfico, comportamiento del usuario y autoridad de enlace
John Mueller aclaró la forma en que Google trata el tráfico y el comportamiento del usuario en términos de pasar link juice en uno de los hangouts centrales de Search Console. Un usuario preguntó a Mueller si Google tiene en cuenta la probabilidad de clics y el número de clics en enlaces al evaluar la calidad de un enlace. Los puntos clave de Müller respuesta fueron:
-
Google no considera enlace clics y haga clic probabilidad de que al evaluar la calidad del enlace.
-
Google entiende que a menudo se agregan enlaces al contenido como referencias, y no se espera que los usuarios hagan clic en cada enlace que encuentren.
Aún así, como siempre, los SEO dudan si vale la pena creer ciegamente todo lo que dice Google, y siguen experimentando. Por lo tanto, los chicos de Ahrefs llevaron a cabo un estudio para verificar si la posición de una página en una SERP está conectada con el número de backlinks que tiene de páginas de alto tráfico. El estudio reveló que apenas hay correlación. Además, algunas de las páginas mejor clasificadas resultaron no tener backlinks de páginas ricas en tráfico en absoluto.
Este estudio nos apunta en una dirección similar a las palabras de John Mueller : no tienes que crear backlinks que generen tráfico a tu página para obtener posiciones altas en una SERP. Por otro lado, el tráfico adicional nunca ha hecho daño a ningún sitio web. El único mensaje aquí es que los backlinks ricos en tráfico no parecen influir en los rankings de Google.
Etiquetas Nofollow, patrocinadas y UGC
Como recordarás, Google introdujo la etiqueta nofollow en 2005 como una forma de combatir el spam de enlaces. ¿Ha cambiado algo hoy? En realidad, sí.
En primer lugar, Google ha introducido recientemente dos tipos más del atributo nofollow. Antes de eso, Google sugirió marcar todos los backlinks que no quieres participar en el cálculo del PageRank como nofollow, ya sean comentarios de blog o anuncios pagados. Hoy en día, Google recomienda usar rel = «patrocinado»para enlaces de pago y afiliados y rel=» ugc » para contenido generado por el usuario.
Es interesante que estas nuevas etiquetas no sean obligatorias (al menos no todavía), y Google señala que no tiene que cambiar manualmente todo el rel=»nofollow» a rel=»patrocinado» y rel=»ugc». Estos dos nuevos atributos ahora funcionan de la misma manera que una etiqueta nofollow ordinaria.
En segundo lugar, Google now dice que las etiquetas nofollow, así como las nuevas, patrocinadas y ugc, se tratan como sugerencias, en lugar de como una directiva al indexar páginas.
Enlaces salientes y su influencia en las clasificaciones
Además de los enlaces entrantes, también hay enlaces salientes, es decir, enlaces que apuntan a otras páginas de la suya.
Muchos SEO creen que los enlaces salientes pueden impactar en los rankings, sin embargo, esta suposición ha sido tratada como un mito de SEO. Pero hay un estudio interesante para echar un vistazo a este respecto.
Reboot Online llevó a cabo un experimento en 2015 y lo volvió a ejecutar en 2020. Querían averiguar si la presencia de enlaces salientes a páginas de alta autoridad influía en la posición de la página en una SERP. Crearon 10 sitios web con artículos de 300 palabras, todos optimizados para una palabra clave inexistente: Phylandocic. 5 sitios web quedaron sin enlaces salientes, y 5 sitios web contenían enlaces salientes a recursos de alta autoridad. Como resultado, aquellos sitios web con enlaces salientes autorizados comenzaron a clasificarse en la posición más alta, y aquellos que no tenían enlaces en absoluto tomaron las posiciones más bajas.
Por un lado, los resultados de esta investigación pueden decirnos que los enlaces salientes influyen en las posiciones de las páginas. Por otro lado, el término de búsqueda en la investigación es completamente nuevo, y el contenido de los sitios web está temático en torno a la medicina y las drogas. Por lo tanto, hay altas posibilidades de que la consulta se clasificara como YMYL. Y Google ha declarado muchas veces la importancia de E-A-T para los sitios web de YMYL. Por lo tanto, los outlinks bien podrían haber sido tratados como una señal E-A-T, demostrando que las páginas tienen contenido preciso de hecho.
En cuanto a las consultas ordinarias (no YMYL), John Mueller ha dicho muchas veces que no tienes que tener miedo de enlazar a fuentes externas desde tu contenido, ya que los enlaces salientes son buenos para tus usuarios.
Además, los enlaces salientes también pueden ser beneficiosos para el SEO, ya que Google AI puede tenerlos en cuenta al filtrar la web del spam. Porque las páginas spam tienden a tener pocos enlaces salientes, si es que hay alguno. O enlazan a las páginas bajo el mismo dominio (si alguna vez piensan en SEO) o solo contienen enlaces de pago. Por lo tanto, si enlazas a algunos recursos creíbles, muestras a Google que tu página no es spam.
Hubo una vez una opinión de que Google podría darte una penalización manual por tener demasiados enlaces salientes, pero John Mueller dijo que esto solo es posible cuando los enlaces salientes son obviamente parte de algún esquema de intercambio de enlaces, además de que el sitio web es en general de mala calidad. Lo que Google significa bajo obvio es en realidad un misterio, así que ten en cuenta el sentido común, el contenido de alta calidad y el SEO básico.
Batalla de Google contra el spam de enlaces
Mientras exista PageRank, los SEO buscarán nuevas formas de manipularlo.
En 2012, era más probable que Google lanzara acciones manuales para la manipulación de enlaces y el spam. Pero ahora, con sus algoritmos antispam bien entrenados, Google es capaz de ignorar ciertos enlaces de spam al calcular el PageRank en lugar de reducir el rango de todo el sitio web en general. Como dijo John Mueller,
Los enlaces aleatorios recopilados a lo largo de los años no son necesariamente dañinos, también los hemos visto durante mucho tiempo, y podemos ignorar todas esas extrañas piezas de graffiti web de hace mucho tiempo.
John Mueller
Esto también es cierto con el SEO negativo cuando tu perfil de backlinks se ve comprometido por tus competidores:
En general, las tomamos automáticamente en cuenta e intentamos ignore ignorarlas automáticamente cuando las vemos suceder. En su mayor parte, sospecho que funciona bastante bien. Veo muy pocas personas con problemas reales en torno a eso. Así que creo que en su mayoría está funcionando bien. Con respecto a desautorizar estos enlaces, sospecho que si solo son enlaces de spam normales que están apareciendo para su sitio web, entonces no me preocuparía demasiado por ellos. Probablemente nos dimos cuenta de eso por nuestra cuenta.
John Mueller
Sin embargo, no significa que no tengas nada de qué preocuparte. Si los backlinks de tu sitio web son ignorados demasiado y con demasiada frecuencia, todavía tienes una alta probabilidad de obtener una acción manual. Como dice Marie Haynes en su consejo sobre la gestión de enlaces en 2021:
Las acciones manuales están reservadas para casos en los que un sitio decente tiene enlaces antinaturales que apuntan a él en una escala tan grande que los algoritmos de Google no se sienten cómodos ignorándolos.
Marie Haynes
Para tratar de averiguar qué enlaces están desencadenando el problema, puedes usar un comprobador de backlinks como SEO SpyGlass. En la herramienta, ve a la sección Perfil de Backlinks > Riesgo de penalización. Presta atención a los backlinks de alto y medio riesgo.
Para investigar más a fondo por qué se informa de que este o aquel enlace es perjudicial, haga clic en el signo yo en la columna de Riesgo de penalización. Aquí usted verá por qué la herramienta considera el enlace mal y tome su decisión sobre si le niegan un enlace o no.
Si decides desautorizar un enlace de un grupo de enlaces, haz clic con el botón derecho en ellos y elige la opción Desautorizar enlace(s) :
Una vez que haya formado una lista de enlaces para excluir, puede exportar el archivo de desautorización de SEO SpyGlass y enviarlo a Google a través de GSC.
Enlaces internos
Hablando de PageRank, no podemos dejar de mencionar los enlaces internos. El PageRank entrante es algo que no podemos controlar, pero podemos controlar totalmente la forma en que las relaciones públicas se distribuyen en las páginas de nuestro sitio web.
Google también ha declarado la importancia de los enlaces internos muchas veces. John Mueller subrayó esto una vez más en uno de los últimos hangouts centrales de la Consola de búsqueda. Un usuario preguntó cómo hacer que algunas páginas web fueran más poderosas. Y John Mueller dijo lo siguiente:
…Puedes ayudar con los enlaces internos. Por lo tanto, dentro de su sitio web, puede resaltar las páginas que desea resaltar más y asegurarse de que estén realmente bien vinculadas internamente. Y tal vez las páginas que no encuentras tan importantes, asegúrate de que estén un poco menos enlazadas internamente.
John Mueller
la vinculación Interna significa mucho. Le ayuda a compartir el PageRank entrante entre diferentes páginas de su sitio web, fortaleciendo así sus páginas de bajo rendimiento y haciendo que su sitio web sea más fuerte en general.
En cuanto a los enfoques para la vinculación interna, los SEO tienen muchas teorías diferentes. Un enfoque popular está relacionado con la profundidad de clics en el sitio web. Esta idea dice que todas las páginas de tu sitio web deben estar a una distancia máxima de 3 clics de la página de inicio. Aunque Google también ha subrayado la importancia de una estructura de sitios web poco profunda muchas veces, en realidad esto parece inalcanzable para todos los sitios web más grandes que pequeños.
Un enfoque más se basa en el concepto de enlace interno centralizado y descentralizado. Como lo describe Kevin Indig:
Los sitios centralizados tienen un único flujo de usuario y embudo que apunta a una página clave. Los sitios con enlaces internos descentralizados tienen múltiples puntos de contacto de conversión o diferentes formatos para registrarse.
Kevin Indig
En el caso de los enlaces internos centralizados, tenemos un pequeño grupo de páginas de conversión o una página, que queremos que sean poderosas. Si aplicamos enlaces internos descentralizados, queremos que todas las páginas del sitio web sean igualmente poderosas y tengan el mismo PageRank para que todas se clasifiquen para sus consultas.
Qué opción es mejor? Todo depende de las peculiaridades de tu sitio web y nicho de negocio, y de las palabras clave que vas a segmentar. Por ejemplo, el enlace interno centralizado se adapta mejor a las palabras clave con volúmenes de búsqueda altos y medios, ya que da como resultado un conjunto estrecho de páginas súper poderosas.
Las palabras clave de cola larga con bajo volumen de búsqueda, por el contrario, son mejores para el enlace interno descentralizado, ya que se extiende por igual entre numerosas páginas web.
Un aspecto más del enlace interno exitoso es el equilibrio de enlaces entrantes y salientes en la página. En este sentido, muchos SEO usan CheiRank (CR), que en realidad es un PageRank inverso. Pero mientras PageRank es el poder recibido, CheiRank es el poder de enlace regalado. Una vez que calcules PR y CR para tus páginas, puedes ver qué páginas tienen anomalías de enlace, es decir, los casos en que una página recibe una gran cantidad de PageRank pero pasa un poco más lejos, y viceversa.
Un experimento interesante aquí es el aplanamiento de anomalías de enlace de Kevin Indig. Simplemente asegurarse de que el PageRank entrante y saliente esté equilibrado en cada página del sitio web trajo resultados muy impresionantes. La flecha roja indica el momento en que se arreglaron las anomalías:
Las anomalías de enlaces no son lo único que puede dañar el flujo de PageRank. Asegúrate de no quedarte atascado con ningún problema técnico, que podría destruir tus relaciones públicas ganadas con tanto esfuerzo:
-
Páginas huérfanas. Las páginas huérfanas no están vinculadas a ninguna otra página de su sitio web, por lo que simplemente permanecen inactivas y no reciben ningún jugo de enlace. Google no puede verlos y no sabe que realmente existen.
-
Redireccionar cadenas. Aunque Google dice que los redireccionamientos ahora superan el 100% de las relaciones públicas, se recomienda evitar cadenas de redireccionamiento largas. Primero, se comen tu presupuesto de rastreo de todos modos. Segundo, sabemos que no podemos creer ciegamente todo lo que dice Google.
-
Enlaces en JavaScript imperceptible. Como Google no puede leerlos, no pasarán el PageRank.
-
404 enlaces. los enlaces 404 no llevan a ninguna parte, por lo que el PageRank tampoco va a ninguna parte.
-
Enlaces a páginas sin importancia. Por supuesto, no puede dejar ninguna de sus páginas sin enlaces, pero las páginas no se crean igual. Si alguna página es menos importante, no es racional poner demasiado esfuerzo en optimizar el perfil de enlaces de esa página.
-
Páginas demasiado lejanas. Si una página se encuentra demasiado profunda en su sitio web, es probable que reciba poco o nada de relaciones públicas. Como Google puede no ser capaz de encontrarlo e indexarlo.
Para asegurarse de que su sitio web esté libre de estos peligros de PageRank, puede auditarlo con WebSite Auditor. Esta herramienta tiene un conjunto completo de módulos dentro de la sección de Auditoría de la Estructura del sitio >, que le permiten verificar la optimización general de su sitio web y, por supuesto, encontrar y solucionar todos los problemas relacionados con los enlaces, como redirecciones largas:
y enlaces rotos:
Para verificar si su sitio web tiene páginas huérfanas o páginas demasiado distantes, cambie a la visualización Estructura del sitio > :
El futuro de PageRank
Este año PageRank ha cumplido 23 años. Y supongo que es más antiguo que algunos de nuestros lectores de hoy:) Pero, ¿qué viene para PageRank en el futuro? ¿Va a desaparecer por completo algún día?
Motores de búsqueda sin backlinks
Cuando intento pensar en un motor de búsqueda popular que no use backlinks en su algoritmo, la única idea que se me ocurre es el experimento de Yandex en 2014. El motor de búsqueda anunció que eliminar los backlinks de su algoritmo podría finalmente detener a los spammers de las manipulaciones y ayudar a dirigir sus esfuerzos a la creación de sitios web de calidad.
Podría haber sido un esfuerzo genuino para avanzar hacia factores de clasificación alternativos, o simplemente un intento de persuadir a las masas para que eliminaran el spam de enlaces. Pero en cualquier caso, en solo un año desde el anuncio, Yandex confirmó que los factores de backlinks estaban de vuelta en su sistema.
Pero, ¿por qué los backlinks son tan indispensables para los motores de búsqueda?
Si bien tiene innumerables puntos de datos para reorganizar los resultados de búsqueda después de comenzar a mostrarlos (como el comportamiento del usuario y los ajustes BERT), los backlinks siguen siendo uno de los criterios de autoridad más confiables necesarios para formar la SERP inicial. Su único competidor aquí es, probablemente, entidades.
Como dice Bill Slawski cuando se le pregunta sobre el futuro de PageRank:
Google está explorando el aprendizaje automático, la extracción de datos y la comprensión de pares de valores clave para las entidades empresariales, lo que significa un movimiento hacia la búsqueda semántica y un mejor uso de los datos estructurados y la calidad de los datos.
Bill Slawski, SEO by the Sea
Aún así, Google es bastante diferente de descartar algo en lo que han invertido decenas de años de desarrollo.
Google es muy bueno en el análisis de enlaces, que ahora es una tecnología web muy madura. Debido a eso, es muy posible que el PageRank continúe usándose para clasificar las SERPs orgánicas.
Bill Slawski, SEO by the Sea
Noticias y otros resultados sensibles al tiempo
Otra tendencia que señaló Bill Slawski fue noticias y otros tipos de resultados de búsqueda de corta duración:
Google nos ha dicho que ha dependido menos del PageRank para páginas donde la puntualidad es más importante, como los resultados en tiempo real (como los de Twitter), o de los resultados de noticias, donde la puntualidad es muy importante.
Bill Slawski, SEO by the Sea
De hecho, una noticia vive en los resultados de búsqueda demasiado poco para acumular suficientes backlinks. Por lo tanto, Google ha estado y podría seguir trabajando para sustituir los backlinks con otros factores de clasificación cuando se trata de noticias.
Sin embargo, por ahora, los rankings de noticias están muy determinados por la autoridad de nicho del editor, y todavía leemos la autoridad como backlinks:
«Las señales de autoridad ayudan a priorizar la información de alta calidad de las fuentes más confiables disponibles. Para ello, nuestros sistemas están diseñados para identificar señales que pueden ayudar a determinar qué páginas demuestran experiencia, autoridad y fiabilidad en un tema determinado, en función de los comentarios de los evaluadores de búsqueda. Esas señales pueden incluir si otras personas valoran la fuente para consultas similares o si otros sitios web destacados en el asunto enlazan a la historia.»
Nuevos atributos rel=»patrocinado» y rel=»UGC»
Por último, pero no menos importante, me sorprendió bastante el esfuerzo que Google hizo para poder identificar backlinks patrocinados y generados por usuarios y distinguirlos de otros enlaces nofollowed.
Si todos esos backlinks deben ignorarse, ¿por qué preocuparse de distinguir uno de otro? Especialmente con John Muller sugiriendo que más adelante, Google podría tratar esos tipos de enlaces de manera diferente.
Mi conjetura más salvaje aquí fue que tal vez Google está validando si la publicidad y los enlaces generados por el usuario podrían convertirse en una señal de clasificación positiva.
Después de todo, la publicidad en plataformas populares requiere presupuestos enormes, y los presupuestos enormes son un atributo de una marca grande y popular.
El contenido generado por el usuario, cuando se considera fuera del paradigma de spam de comentarios, se trata de clientes reales que dan su respaldo en la vida real.
Sin embargo, los expertos a los que contacté no creían que fuera posible:
Dudo que Google considere los enlaces patrocinados como una señal positiva.
Barry Schwartz, Mesa Redonda de Motores de Búsqueda
La idea aquí, al parecer, es que al distinguir diferentes tipos de enlaces, Google intentaría averiguar cuáles de los enlaces nofollow se deben seguir para fines de creación de entidades:
Google no tiene ningún problema con el contenido generado por el usuario o el contenido patrocinado en un sitio web, sin embargo, ambos se han utilizado históricamente como métodos de manipulación del pagerank. Como tal, se anima a los webmasters a colocar un atributo nofollow en estos enlaces (entre otras razones para usar nofollow).Sin embargo, los enlaces nofollowed todavía pueden ser útiles para Google para cosas (como el reconocimiento de entidades, por ejemplo), por lo que han señalado anteriormente que pueden tratar esto como una sugerencia, y no una directiva como un robot.la regla de no permitir txt estaría en su propio sitio.La declaración de John Mueller fue: «Podría imaginar en nuestros sistemas que podríamos aprender con el tiempo a tratarlos de manera ligeramente diferente.»Esto podría referirse a los casos en los que Google trata un nofollow como una sugerencia. Hipotéticamente, es posible que los sistemas de Google puedan aprender qué enlaces nofollow a seguir en función de los conocimientos recopilados a partir de los tipos de enlaces marcados como ugc y patrocinados. De nuevo, esto no debería tener un gran impacto en el ranking de un sitio, pero teóricamente podría tener un impacto en el sitio que está enlazado también.
Callum Scott, Marie Haynes Consulting