Dezembro 17, 2021

o passado, presente e futuro do Google PageRank

algoritmo PageRank (ou PR para abreviar) é um sistema de classificação de páginas da Web Desenvolvido por Larry Page e Sergey Brin na Universidade de Stanford no final dos anos 90. PageRank foi na verdade a Página base e Brin criou o motor de busca do Google em.

muitos anos se passaram desde então e, é claro, os algoritmos de classificação do Google se tornaram muito mais complicados. Eles ainda são baseados no PageRank? Como exatamente o PageRank influencia o ranking e para que os SEOs devem se preparar no futuro? Agora vamos encontrar e resumir todos os fatos e mistérios ao redor do PageRank para deixar a imagem clara. Bem, tanto quanto pudermos.

o passado do PageRank

como mencionado acima, em seu projeto de pesquisa universitária, Brin e Page tentaram inventar um sistema para estimar a autoridade das páginas da web. Eles decidiram construir esse sistema em links, que serviram como votos de confiança dados a uma página. De acordo com a lógica desse mecanismo, quanto mais recursos externos vinculam a uma página, mais informações valiosas ela tem para os usuários. E o PageRank (uma pontuação de 0 a 10 calculada com base na quantidade e qualidade dos links recebidos) mostrou Autoridade relativa de uma página na Internet.

fórmula original do PageRank

vamos dar uma olhada em como o PageRank funciona. Cada link de uma página (a) para outra (B) lança um chamado voto, cujo peso depende do peso coletivo de todas as páginas que têm links para a Página A. E não podemos saber o peso deles até calculá-lo, então o processo vai em ciclos.

A fórmula matemática do original do PageRank é a seguinte:

a fórmula matemática do original PageRank

Onde A, B, C, e D são algumas páginas, L é o número de links de sair de cada um deles, e N é o número total de páginas na coleção (por exemplo, na Internet).

quanto a d, d é o chamado fator de amortecimento. Considerando que o PageRank é calculado simulando o comportamento de um usuário que chega aleatoriamente a uma página e clica em links, aplicamos esse fator D de amortecimento como a probabilidade de o usuário ficar entediado e sair de uma página.

Como você pode ver a partir da fórmula, se não há páginas que apontam para a página, o seu PR não será zero, mas

o PageRank de uma página se não há links apontam para ele

Como há uma probabilidade de que o usuário pode acessar essa página e não a partir de algumas outras páginas, mas, digamos, a partir de indicadores.

vulnerabilidade de manipulação do PageRank e a guerra do Google contra spam de links

no início, a pontuação do PageRank era visível publicamente na barra de ferramentas do Google e cada página tinha sua pontuação de 0 a 10, provavelmente em uma escala logarítmica.

Barra De Ferramentas Do Google

Barra De Ferramentas Do Google. Fonte: https://www.seroundtable.com/google-toolbar-pagerank-fix-13721.html

os algoritmos de classificação do Google naquela época eram realmente simples-alta densidade de PR e palavras-chave eram as únicas duas coisas que uma página precisava para ter uma classificação alta em um SERP. Como resultado, as páginas da web foram recheadas de palavras-chave e os proprietários de sites começaram a manipular o PageRank cultivando artificialmente backlinks com spam. Isso foi fácil de fazer-link farms e link selling estavam lá para dar aos proprietários do site uma ” mão amiga.”

o Google decidiu combater o Spam do link de volta. Em 2003, o Google penalizou o site da empresa de rede de anúncios SearchKing por manipulações de links. SearchKing processou o Google, mas o Google ganhou. Foi uma maneira que o Google tentou restringir Todos das manipulações de links, no entanto, não levou a nada. Link farms acabou de ir para o subsolo, e sua quantidade se multiplicou muito.

além disso, comentários spam em blogs multiplicado, também. Bots atacaram os comentários de qualquer blog WordPress, digamos, e deixaram um número enorme de comentários “click-here-to-buy-magic-pills”. Para evitar spam e manipulação de Relações Públicas nos comentários, o Google introduziu a tag nofollow em 2005. E mais uma vez, o que o Google pretendia se tornar um passo bem-sucedido na guerra de manipulação de links foi implementado de maneira distorcida. As pessoas começaram a usar tags nofollow para canalizar artificialmente o PageRank para as páginas de que precisavam. Essa tática ficou conhecida como escultura PageRank.

para evitar a escultura de Relações Públicas, o Google mudou a forma como o PageRank flui. Anteriormente, se uma página tivesse links nofollow e dofollow, todo o volume de Relações Públicas da página era passado para outras páginas vinculadas aos links dofollow. Em 2009, o Google começou a dividir o PR de uma página igualmente entre todos os links que a página tinha, mas passando apenas os compartilhamentos que foram dados aos links dofollow.

fluxo do PageRank antes e depois de 2009

fluxo do PageRank antes e depois 2009

feito com a escultura do PageRank, o Google não parou a guerra de spam do link e começou a tirar a pontuação do PageRank dos olhos do público. Primeiro, o Google lançou o novo navegador Chrome sem a barra de ferramentas do Google, onde a pontuação PR foi mostrada. Em seguida, eles deixaram de relatar a pontuação de RP no Google Search Console. Em seguida, o navegador Firefox parou de suportar a barra de ferramentas do Google. Em 2013, o PageRank foi atualizado para o Internet Explorer pela última vez e, em 2016, o Google fechou oficialmente a barra de ferramentas para o público.

vida do pagerank público

mais uma maneira que o Google usou para combater esquemas de links foi o Penguin update, que classificou sites com perfis de backlink duvidosos. Lançado em 2012, o Penguin não se tornou parte do algoritmo em tempo real do Google, mas sim um “filtro” atualizado e reaplicado aos resultados da pesquisa de vez em quando. Se um site foi penalizado pela Penguin, os SEOs tiveram que revisar cuidadosamente seus perfis de link e remover links tóxicos, ou adicioná-los a uma lista de rejeição (um recurso introduzido naqueles dias para dizer ao Google quais links de entrada ignorar ao calcular o PageRank). Depois de auditar os perfis dos links dessa forma, os SEOs tiveram que esperar mais ou menos meio ano até que o algoritmo Penguin recalculasse os dados.

em 2016, o Google fez do Penguin uma parte de seu algoritmo de classificação principal. Desde então, tem trabalhado em tempo real, lidando algoritmicamente com spam com muito mais sucesso.Ao mesmo tempo, o Google trabalhou para facilitar a qualidade em vez da quantidade de links, reduzindo-a em suas diretrizes de qualidade em relação aos esquemas de links.

o Presente Do PageRank

bem, terminamos com o passado do PageRank. O que se passa agora?Em 2019, um ex-funcionário do Google disse que o algoritmo PageRank original não estava em uso desde 2006 e foi substituído por outro algoritmo menos intensivo em recursos à medida que a Internet crescia. O que pode muito bem ser verdade, como em 2006 o Google entrou com o novo produzindo um ranking para páginas usando distâncias em uma patente de gráfico de Link da web.

o algoritmo PageRank é aplicado hoje?

Sim, é. Não é o mesmo PageRank que era no início dos anos 2000, mas o Google continua confiando fortemente na autoridade do link. Por exemplo, um ex-funcionário do Google Andrey Lipattsev mencionou isso em 2016. Em um hangout do Google Q&, um usuário perguntou a ele Quais eram os principais sinais de classificação que o Google usava. A resposta de Andrey foi bastante direta.

posso dizer – te o que são. É conteúdo e links apontando para o seu site.

Andrey Lipattsev

Em 2020, John Mueller, confirmou que mais uma vez:

Sim, fazemos uso PageRank internamente, entre muitos, muitos outros sinais. Não é exatamente o mesmo que o artigo original, há muitas peculiaridades (por exemplo, links rejeitados, links ignorados, etc.), e, novamente, usamos muitos outros sinais que podem ser muito mais fortes.

John Mueller

como você pode ver, o PageRank ainda está vivo e usado ativamente pelo Google ao classificar páginas na web.

o que é interessante é que os funcionários do Google continuam nos lembrando que existem muitos, muitos, muitos outros sinais de classificação. Mas olhamos para isso com um grão de sal. Considerando quanto esforço o Google dedicou ao combate ao spam de links, pode ser do interesse do Google desviar a atenção dos SEOs dos fatores vulneráveis à manipulação (como os backlinks) e direcionar essa atenção para algo inocente e agradável. Mas como os SEOs são bons em ler nas entrelinhas, eles continuam considerando o PageRank um forte sinal de classificação e crescem backlinks de todas as maneiras que podem. Eles ainda usam PBNs, praticam algum link building em camadas de chapéu cinza, compram links e assim por diante, assim como era há muito tempo. Como PageRank vive, link spam vai viver, também. Não recomendamos nada disso, mas é isso que a realidade de SEO é, e temos que entender isso.

surfista Aleatório vs. modelos de surfistas razoáveis do PageRank

bem, você teve a ideia de que o PageRank agora não é o PageRank que era há 20 anos.

uma das principais modernizações do PR foi passar do modelo de surfista Aleatório mencionado acima para o modelo de surfista razoável em 2012. O surfista razoável assume que os usuários não se comportam caoticamente em uma página e clicam apenas nos links nos quais estão interessados no momento. Digamos, lendo um artigo de blog, é mais provável que você clique em um link no conteúdo do artigo do que em um link de termos de uso no rodapé.Além disso, surfista razoável pode potencialmente usar uma grande variedade de outros fatores ao avaliar a atratividade de um link. Todos esses fatores foram cuidadosamente revisados por Bill Slawski em seu artigo, mas eu gostaria de me concentrar nos dois fatores, que os SEOs discutem com mais frequência. Estes são a posição do link e o tráfego da página. O que podemos dizer sobre esses fatores?

correlação entre a posição do link e a autoridade do link

um link pode estar localizado em qualquer lugar da página — em seu conteúdo, menu de navegação, biografia do autor, rodapé e, na verdade, qualquer elemento estrutural que a página contenha. E diferentes locais de link afetam o valor do link. John Mueller, confirmou que, dizendo que os links colocados dentro do conteúdo principal pesar mais do que todos os outros,:

Esta é a área da página, onde você tem o seu conteúdo principal, o conteúdo desta página é, na verdade, sobre, não o menu, a barra lateral, rodapé, cabeçalho… Então isso é algo que nós levamos em conta e nós tentamos usar os links.

John Mueller

assim, links de rodapé e links de navegação são ditos para passar menos peso. E esse fato de vez em quando é confirmado não apenas pelos porta-vozes do Google, mas por Casos da vida real.

em um caso recente apresentado por Martin Hayman na BrightonSEO, Martin adicionou o link que já tinha em seu menu de navegação ao conteúdo principal das páginas. Como resultado, essas páginas de categoria e as páginas às quais eles vincularam experimentaram um aumento de tráfego de 25%.

os resultados da adição de links para o conteúdo principal

fonte: https://www.slideshare.net/MartinHayman/how-to-kick-ass-at-internal-linking?next_slideshow=1

este experimento prova que os links de conteúdo passam mais peso do que quaisquer outros.

quanto aos links na biografia do autor, os SEOs assumem que os links de bio pesam algo, mas são menos valiosos do que, digamos, links de conteúdo. Embora não tenhamos muitas provas aqui, mas pelo que Matt Cutts disse quando o Google estava lutando ativamente contra o excesso de guest blogging por backlinks.

correlação entre tráfego, comportamento do Usuário e autoridade de link

John Mueller esclareceu a maneira como o Google trata o tráfego e o comportamento do usuário em termos de passar o link juice em um dos hangouts centrais do Search Console. Um usuário perguntou a Mueller se o Google considera a probabilidade de clique e o número de cliques no link ao avaliar a qualidade de um link. As principais conclusões da resposta de Mueller foram:

  • o Google não considera cliques em links e probabilidade de cliques ao avaliar a qualidade do link.

  • o Google entende que os links são frequentemente adicionados ao conteúdo, como referências, e não se espera que os usuários cliquem em todos os links que encontrarem.

ainda assim, como sempre, os SEOs duvidam se vale a pena acreditar cegamente em tudo o que o Google diz e continuar experimentando. Então, caras da Ahrefs realizaram um estudo para verificar se a posição de uma página em um SERP está conectada ao número de backlinks que possui de páginas de alto tráfego. O estudo revelou que quase não há correlação. Além disso, algumas páginas mais bem classificadas acabaram não tendo backlinks de páginas ricas em tráfego.

este estudo nos aponta em uma direção semelhante às palavras de John Mueller – você não precisa criar backlinks geradores de tráfego em sua página para obter posições altas em um SERP. Por outro lado, o tráfego extra nunca prejudicou nenhum site. A única mensagem aqui é que os backlinks ricos em tráfego não parecem influenciar os rankings do Google.

tags nofollow, patrocinadas e UGC

como você se lembra, o Google introduziu a tag nofollow em 2005 como uma maneira de combater o spam de links. Alguma coisa mudou hoje? Na verdade, sim.

primeiro, o Google introduziu recentemente mais dois tipos do atributo nofollow. Antes disso, o Google sugeriu marcar todos os backlinks que você não deseja participar do cálculo do PageRank como nofollow, sejam os comentários do blog ou anúncios pagos. Hoje, o Google recomenda o uso de rel = “patrocinado” para links pagos e afiliados e rel=”ugc” para conteúdo gerado pelo Usuário.

o tipo de tags nofollow

É interessante que essas novas marcas não são obrigatórias (pelo menos não ainda), e o Google aponta que você não tem que alterar manualmente todos os rel=”nofollow” para rel=”patrocinados” e rel=”ugc”. Esses dois novos atributos agora funcionam da mesma maneira que uma tag nofollow comum.

em segundo lugar, o Google agora diz que as tags nofollow, bem como as novas, patrocinadas e ugc, são tratadas como dicas, em vez de uma diretiva ao indexar páginas.

links de saída e sua influência nos rankings

além dos links de entrada, também existem links de saída, ou seja, links que apontam para outras páginas suas.

muitos SEOs acreditam que os links de saída podem impactar os rankings, mas essa suposição foi tratada como um mito de SEO. Mas há um estudo interessante para dar uma olhada a esse respeito.

Reboot online realizou um experimento em 2015 e o executou novamente em 2020. Eles queriam descobrir se a presença de links de saída para páginas de alta autoridade influenciou a posição da página em um SERP. Eles criaram 10 sites com artigos de 300 palavras, todos otimizados para uma palavra – chave inexistente-Phylandocic. 5 sites foram deixados sem links de saída, e 5 sites continham links de saída para recursos de alta autoridade. Como resultado, esses sites com links de saída autorizados começaram a classificar o mais alto, e aqueles que não tinham links assumiram as posições mais baixas.

os resultados do reboot on-line experimento

Fonte: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

por um lado, os resultados desta pesquisa podem nos dizer que links de saída têm influência páginas posições. Por outro lado, o termo de pesquisa na pesquisa é novo e o conteúdo dos sites tem como tema medicina e drogas. Portanto, há grandes chances de que a consulta tenha sido classificada como YMYL. E o Google afirmou muitas vezes a importância do E-A-T para sites YMYL. Assim, os outlinks podem ter sido tratados como um sinal E-a-T, provando que as páginas têm conteúdo factualmente preciso.

quanto às consultas comuns (não YMYL), John Mueller disse muitas vezes que você não precisa ter medo de se conectar a fontes externas de seu conteúdo, pois os links de saída são bons para seus usuários. Além disso, os links de saída também podem ser benéficos para SEO, pois podem ser levados em consideração pelo Google AI ao filtrar a web de spam. Porque as páginas com spam tendem a ter poucos links de saída, se houver. Eles têm links para as páginas sob o mesmo domínio (se pensarem em SEO) ou contêm links pagos apenas. Então, se você vincular a alguns recursos confiáveis, você meio que mostra ao Google que sua página não é spam.

era uma vez um parecer de que o Google poderia dar-lhe um manual de pena para ter muitos links de saída, mas John Mueller disse que isso só é possível quando as ligações de saída são, obviamente, uma parte de algum esquema de troca de links, mais o site é em geral de má qualidade. O que o Google significa sob óbvio é realmente um mistério, então tenha em mente o bom senso, conteúdo de alta qualidade e SEO básico.

batalha do Google contra spam de links

enquanto o PageRank existir, os SEOs procurarão novas maneiras de manipulá-lo.

em 2012, o Google tinha maior probabilidade de lançar ações manuais para manipulação de links e spam. Mas agora, com seus algoritmos anti-spam bem treinados, o Google é capaz de simplesmente ignorar certos links de spam ao calcular o PageRank em vez de diminuir a classificação de todo o site em geral. Como disse John Mueller,

links aleatórios coletados ao longo dos anos não são necessariamente prejudiciais, também os vimos há muito tempo e podemos ignorar todas essas estranhas peças de graffiti da web de há muito tempo.

John Mueller

Isso também é verdadeiro sobre SEO negativo quando o seu perfil backlink é comprometida por seus concorrentes:

Em geral, fazemos automaticamente em conta e a gente tenta… ignorá-los automaticamente, ao vê-los acontecendo. Na maior parte, eu suspeito que isso funciona muito bem. Vejo muito poucas pessoas com problemas reais em torno disso. Então eu acho que isso está funcionando muito bem. No que diz respeito a negar esses links, eu suspeito que se estes são apenas links de spam normais que estão apenas aparecendo para o seu site, então eu não me preocuparia muito com eles. Provavelmente descobrimos isso por conta própria.

John Mueller

no entanto, isso não significa que você não tem nada com que se preocupar. Se os backlinks do seu site forem ignorados demais e com muita frequência, você ainda terá uma grande chance de obter uma ação manual. Como Marie Haynes diz em seu conselho sobre gerenciamento de links em 2021:

as ações manuais são reservadas para casos em que um site decente tem links não naturais apontando para ele em uma escala tão grande que os algoritmos do Google não se sentem confortáveis em ignorá-los.

Marie Haynes

para tentar descobrir quais links estão desencadeando o problema, você pode usar um verificador de backlink como SEO SpyGlass. Na ferramenta, vá para a seção Perfil de Backlink > risco de penalidade. Preste atenção aos backlinks de alto e médio risco.

seção de risco de penalidade de perfil de Backlink do seo spyglass

para investigar melhor por que este ou aquele link é relatado como prejudicial, clique no I assinar na coluna risco de penalidade. Aqui você verá por que a ferramenta considerou o link ruim e decidirá se você rejeitaria um link ou não.

riscos de penalidade detectados com seo spyglass

se você decidir recusar um link de um grupo de links, clique com o botão direito do mouse e escolha a opção negar backlink (s):

repudiar a função de SEO spyglass

depois de formar uma lista de links para excluir, você pode exportar o arquivo repudiar do SEO SpyGlass e enviá-lo ao Google via GSC.

vinculação interna

falando sobre o PageRank, não podemos deixar de mencionar a vinculação interna. O PageRank de entrada é uma espécie de coisa que não podemos controlar, mas podemos controlar totalmente a forma como o PR é espalhado pelas Páginas do nosso site.

o Google também afirmou a importância da vinculação interna muitas vezes. John Mueller sublinhou isso mais uma vez em um dos mais recentes hangouts centrais do Search Console. Um usuário perguntou como tornar algumas páginas da web mais poderosas. E John Mueller disse o seguinte:

…Você pode ajudar com links internos. Portanto, dentro do seu site, você pode realmente destacar as páginas que deseja destacar mais e garantir que elas estejam realmente bem vinculadas internamente. E talvez as páginas que você não achar tão importante, certifique-se de que eles estão um pouco menos ligados internamente.

John Mueller

a vinculação interna significa muito. Ele ajuda você a compartilhar o PageRank de entrada entre diferentes páginas em seu site, fortalecendo assim suas páginas de baixo desempenho e tornando seu site mais forte em geral.

quanto às abordagens de vinculação interna, os SEOs têm muitas teorias diferentes. Uma abordagem popular está relacionada à profundidade do clique do site. Essa ideia diz que todas as páginas do seu site devem estar a uma distância máxima de 3 cliques da página inicial. Embora o Google tenha sublinhado a importância da estrutura superficial do site muitas vezes, também, na realidade, isso parece inacessível para todos os sites maiores que pequenos.

mais uma abordagem é baseada no conceito de vinculação interna centralizada e descentralizada. Como Kevin Indig descreve:

sites centralizados têm um único fluxo de usuário e funil que aponta para uma página-Chave. Sites com links internos descentralizados têm vários pontos de contato de conversão ou formatos diferentes para se inscrever.

Kevin Indig

no caso de vinculação interna centralizada, temos um pequeno grupo de páginas de conversão ou uma página, que queremos ser poderosas. Se aplicarmos links internos descentralizados, queremos que todas as páginas do site sejam igualmente poderosas e tenham PageRank igual para fazer todas elas se classificarem para suas consultas.

qual opção é melhor? Tudo depende do seu site e das peculiaridades do nicho de negócios e das palavras-chave que você vai segmentar. Por exemplo, a vinculação interna centralizada se adapta melhor a palavras-chave com volumes de pesquisa altos e médios, pois resulta em um conjunto restrito de páginas Superpoderosas.

 use palavras-chave de volume de pesquisa alto e médio para fortalecer um conjunto restrito de páginas

palavras-chave de cauda longa com baixo volume de pesquisa, pelo contrário, são melhores para links internos descentralizados, pois se espalha PR igualmente entre várias páginas de sites.

use palavras-chave de baixo volume de pesquisa para fortalecer muitas páginas

mais um aspecto da vinculação interna bem-sucedida é o saldo de links de entrada e saída na página. A este respeito, muitos SEOs usam CheiRank( CR), que na verdade é um PageRank inverso. Mas enquanto PageRank é o poder recebido, CheiRank é o poder link dado. Depois de calcular PR e CR para suas páginas, você pode ver quais páginas têm anomalias de link, ou seja, os casos em que uma página recebe muito PageRank, mas passa um pouco mais e vice-versa.

um experimento interessante aqui é o achatamento de anomalias de ligação de Kevin Indig. Simplesmente garantir que o PageRank de entrada e saída seja equilibrado em todas as páginas do site trouxe resultados muito impressionantes. A seta vermelha aqui aponta para o momento em que as anomalias foram corrigidas:

os resultados do achatamento de anomalias de link

anomalias de Link não são a única coisa que pode prejudicar o fluxo do PageRank. Certifique-se de não ficar preso a nenhum problema técnico, o que poderia destruir seu PR suado:

  • páginas órfãs. As páginas órfãs não estão vinculadas a nenhuma outra página em seu site, portanto, elas ficam ociosas e não recebem nenhum link juice. O Google não pode vê – los e não sabe que eles realmente existem.

  • redirecionar cadeias. Embora o Google diga que os redirecionamentos agora passam 100% do PR, ainda é recomendável evitar longas cadeias de redirecionamento. Primeiro, eles comem seu orçamento de rastreamento de qualquer maneira. Em segundo lugar, sabemos que não podemos acreditar cegamente em tudo o que o Google diz.

  • Links em Javascript não utilizável. Como o Google não pode lê-los, eles não passarão pelo PageRank.

  • 404 links. 404 links levam a lugar nenhum, então o PageRank também não vai a lugar nenhum.

  • Links para páginas sem importância. Claro, Você não pode deixar nenhuma de suas páginas sem links, mas as páginas não são criadas iguais. Se alguma página for menos importante, não é racional colocar muito esforço para otimizar o perfil do link dessa página.

  • páginas muito distantes. Se uma página estiver localizada muito profundamente em seu site, é provável que receba pouco PR ou nenhum PR. Como o Google pode não conseguir encontrá-lo e indexá-lo.

para garantir que seu site esteja livre desses perigos do PageRank, você pode auditá-lo com o Website Auditor. Esta ferramenta possui um conjunto abrangente de módulos dentro da Estrutura do Site > Site da seção de Auditoria, que permite a você verificar o total otimização do seu site, e, claro, encontrar e corrigir todos os link-problemas relacionados, tais como tempo de redirecionamentos:

redirecionar erros no site auditor

e links quebrados:

links quebrados no site auditor

Para verificar o seu site para órfãos páginas ou as páginas que estão muito distantes, mudar a Estrutura do Site > Visualização:

a estrutura do site em site auditor

O futuro da PageRank

Este ano o PageRank transformou-23. E eu acho que é mais antigo do que alguns de nossos leitores hoje:) mas o que está por vir para o PageRank no futuro? Vai desaparecer um dia?

mecanismos de pesquisa sem backlinks

ao tentar pensar em um mecanismo de pesquisa popular que não usa backlinks em seu algoritmo, a única ideia que posso criar é o experimento Yandex em 2014. O mecanismo de pesquisa anunciou que abandonar backlinks de seu algoritmo pode finalmente impedir que spammers de manipulações e ajudar a direcionar seus esforços para a criação de sites de qualidade.

pode ter sido um esforço genuíno para avançar em direção a fatores de classificação alternativos, ou apenas uma tentativa de persuadir as massas a abandonar o spam de links. Mas, em qualquer caso, em apenas um ano a partir do anúncio, os fatores de backlink confirmados pela Yandex estavam de volta ao seu sistema.

mas por que os backlinks são tão indispensáveis para os mecanismos de pesquisa?

embora tenha inúmeros outros pontos de dados para reorganizar os resultados da pesquisa depois de começar a mostrá-los (como comportamento do Usuário e ajustes BERT), os backlinks continuam sendo um dos critérios de autoridade mais confiáveis necessários para formar o SERP inicial. Seu único concorrente aqui é, provavelmente, entidades.

como Bill Slawski coloca quando perguntado sobre o futuro do PageRank:

o Google está explorando o aprendizado de máquina e a extração de fatos e entendendo os principais pares de valores para entidades comerciais, o que significa um movimento em direção à Pesquisa Semântica e um melhor uso de dados estruturados e qualidade de dados.

Bill Slawski, SEO By the Sea

ainda assim, o Google é muito diferente de descartar algo em que investiu dezenas de anos de desenvolvimento.

o Google é muito bom em análise de links, que agora é uma tecnologia da web muito madura. Por causa disso, é bem possível que o PageRank continue a ser usado para classificar SERPs orgânicos.

projeto de lei Slawski, SEO by the Sea

Notícias e outras sensíveis ao tempo, resultados

Outra tendência Bill Slawski apontado foi a notícia e o outro de curta duração, tipos de resultados da pesquisa:

o Google disse que contava menos no PageRank de páginas onde o tempo é mais importante, como resultados em tempo real (como o Twitter), ou a partir de resultados de notícias, onde a pontualidade é muito importante.

Bill Slawski, SEO By the Sea

de fato, uma notícia vive nos resultados da pesquisa muito pouco para acumular backlinks suficientes. Portanto, o Google tem sido e pode continuar trabalhando para substituir backlinks por outros fatores de classificação ao lidar com notícias.

no Entanto, por agora, notícias rankings são altamente determinada pela editora nicho authoritativeness, e ainda, ler authoritativeness como backlinks:

“Authoritativeness sinais de ajudar a priorizar as informações de alta qualidade a partir de fontes mais confiáveis disponíveis. Para fazer isso, nossos sistemas são projetados para identificar sinais que podem ajudar a determinar quais páginas demonstram experiência, autoritatividade e confiabilidade em um determinado tópico, com base no feedback dos Avaliadores de pesquisa. Esses sinais podem incluir se outras pessoas valorizam a fonte para consultas semelhantes ou se outros sites proeminentes no link do assunto para a história.”

New rel=” sponsored”and rel =” UGC ” attributes

por último, mas não menos importante, fiquei bastante surpreso com o esforço feito pelo Google para identificar backlinks patrocinados e gerados pelo Usuário e distingui-los de outros links nofollowed.

se todos esses backlinks devem ser ignorados, por que se preocupar em dizer um do outro? Especialmente com John Muller sugerindo que, mais tarde, o Google pode tentar tratar esses tipos de links de maneira diferente.

meu palpite mais selvagem aqui foi que talvez o Google esteja validando se a publicidade e os links gerados pelo usuário podem se tornar um sinal de classificação positivo.Afinal, a publicidade em plataformas populares requer orçamentos enormes, e orçamentos enormes são um atributo de uma marca grande e popular.

o Conteúdo Gerado pelo usuário, quando considerado fora do paradigma de spam de comentários, é sobre clientes reais dando seus endossos na vida real.

no entanto, os especialistas que entrei em contato não acreditavam que fosse possível:

duvido que o Google considere os links patrocinados como um sinal positivo.

Barry Schwartz, Search Engine Roundtable

A ideia, aqui, ao que parece, é que, ao distinguir diferentes tipos de links que o Google iria tentar descobrir qual dos nofollow links são para ser seguidos para a entidade-fins de construção:

o Google não tem qualquer problema com o conteúdo gerado pelo usuário ou conteúdo de links patrocinados em um site, no entanto, ambos têm sido historicamente utilizados como métodos de manipulação de pagerank. Como tal, os webmasters são encorajados a colocar um atributo nofollow nesses links (entre outras razões para usar nofollow).No entanto, links nofollowed ainda podem ser úteis para o Google para coisas (como reconhecimento de entidade, por exemplo), então eles notaram anteriormente que podem tratar isso como uma sugestão Mais, e não como uma diretiva como um robô.a regra txt disallow estaria em seu próprio site.A declaração de John Mueller foi ” eu poderia imaginar em nossos sistemas que poderíamos aprender ao longo do tempo para tratá-los um pouco diferente.”Isso pode estar se referindo aos casos em que o Google trata um nofollow como uma sugestão. Hipoteticamente, é possível que os sistemas do Google possam aprender quais links nofollowed seguir com base em insights coletados a partir dos tipos de link marcados como ugc e patrocinados. Novamente, isso não deve ter muito impacto nos rankings de um site – mas teoricamente poderia ter um impacto no site que está sendo vinculado também.

Callum Scott, Marie Haynes Consulting

para você

Deixe uma resposta

O seu endereço de email não será publicado.