Dezember 17, 2021

Die Vergangenheit, Gegenwart und Zukunft von Google PageRank

Der PageRank-Algorithmus (oder kurz PR) ist ein System zum Ranking von Webseiten, das Ende der 90er Jahre von Larry Page und Sergey Brin an der Stanford University entwickelt wurde. PageRank war eigentlich die Basis-Seite und Brin schuf die Google-Suchmaschine.

Seitdem sind viele Jahre vergangen, und natürlich sind die Ranking-Algorithmen von Google viel komplizierter geworden. Basieren sie immer noch auf PageRank? Wie genau beeinflusst PageRank das Ranking und worauf sollten sich SEOs in Zukunft einstellen? Jetzt werden wir alle Fakten und Geheimnisse rund um PageRank finden und zusammenfassen, um das Bild klar zu machen. Nun, so viel wir können.

Die Vergangenheit des PageRank

Wie oben erwähnt, haben Brin und Page in ihrem universitären Forschungsprojekt versucht, ein System zur Schätzung der Autorität von Webseiten zu erfinden. Sie beschlossen, dieses System auf Links aufzubauen, die als Vertrauensvoten für eine Seite dienten. Je mehr externe Ressourcen auf eine Seite verlinken, desto wertvoller sind die Informationen für die Benutzer. Und PageRank (eine Punktzahl von 0 bis 10 berechnet basierend auf Quantität und Qualität der eingehenden Links) zeigte relative Autorität einer Seite im Internet.

Ursprüngliche PageRank-Formel

Schauen wir uns an, wie PageRank funktioniert. Jeder Link von einer Seite (A) zu einer anderen (B) gibt eine sogenannte Stimme ab, deren Gewicht vom kollektiven Gewicht aller Seiten abhängt, die auf Seite A verlinken. Und wir können ihr Gewicht erst kennen, wenn wir es berechnen, also läuft der Prozess in Zyklen ab.

Die mathematische Formel des ursprünglichen PageRank lautet wie folgt:

 mathematische Formel des ursprünglichen PageRank

Wobei A, B, C und D einige Seiten sind, L die Anzahl der Links ist, die von jedem von ihnen ausgehen, und N die Gesamtzahl der Seiten in der Sammlung ist (d. H. Im Internet).

Für d ist d der sogenannte Dämpfungsfaktor. Wenn man bedenkt, dass der PageRank berechnet wird, indem das Verhalten eines Benutzers simuliert wird, der zufällig auf eine Seite gelangt und auf Links klickt, wenden wir diesen Faktor d als Wahrscheinlichkeit an, dass sich der Benutzer langweilt und eine Seite verlässt.

Wie Sie der Formel entnehmen können, ist die PR nicht Null, wenn keine Seiten auf die Seite verweisen, sondern

PageRank einer Seite, wenn keine Links darauf verweisen

Da die Wahrscheinlichkeit besteht, dass der Benutzer nicht von anderen Seiten, sondern beispielsweise von Lesezeichen auf diese Seite gelangt.

PageRank Manipulation vulnerability and Google’s war against link spam

Zunächst war der PageRank-Score in der Google Toolbar öffentlich sichtbar, und jede Seite hatte ihre Punktzahl von 0 bis 10, höchstwahrscheinlich auf einer logarithmischen Skala.

Google-Symbolleiste

Google-Symbolleiste. Quelle: https://www.seroundtable.com/google-toolbar-pagerank-fix-13721.html

Die damaligen Ranking-Algorithmen von Google waren wirklich einfach – hohe PR und Keyword-Dichte waren die einzigen beiden Dinge, die eine Seite brauchte, um in einem SERP einen hohen Rang einzunehmen. Infolgedessen wurden Webseiten mit Schlüsselwörtern gefüllt, und Websitebesitzer begannen, den PageRank zu manipulieren, indem sie künstlich Spam-Backlinks bauten. Das war einfach zu tun — Link-Farmen und Link-Verkauf waren da, um Website-Besitzern eine „helfende Hand“ zu geben.“

Google hat beschlossen, Link-Spam zu bekämpfen. Im Jahr 2003 bestrafte Google die Website des Werbenetzwerkunternehmens SearchKing für Linkmanipulationen. SearchKing verklagte Google, aber Google gewann. Es war eine Art und Weise, wie Google versuchte, alle von Linkmanipulationen abzuhalten, aber es führte zu nichts. Link-Farmen gingen einfach in den Untergrund und ihre Menge vervielfachte sich stark.

Außerdem haben sich auch Spam-Kommentare in Blogs vervielfacht. Bots griffen die Kommentare eines beliebigen WordPress-Blogs an und hinterließen eine enorme Anzahl von „Click-here-to-buy-magic-Pills“ -Kommentaren. Um Spam und PR-Manipulationen in Kommentaren zu verhindern, führte Google 2005 das Nofollow-Tag ein. Und wieder einmal wurde das, was Google als erfolgreicher Schritt im Linkmanipulationskrieg bedeutete, auf verdrehte Weise implementiert. Die Leute fingen an, Nofollow-Tags zu verwenden, um den PageRank künstlich auf die benötigten Seiten zu lenken. Diese Taktik wurde als PageRank Sculpting bekannt.

Um PR-Sculpting zu verhindern, hat Google die Art und Weise geändert, wie PageRank fließt. Wenn eine Seite zuvor sowohl Nofollow- als auch Dofollow-Links hatte, wurde das gesamte PR-Volumen der Seite an andere Seiten übergeben, auf die mit den Dofollow-Links verlinkt wurde. Im Jahr 2009 begann Google, die PR einer Seite gleichmäßig auf alle Links der Seite aufzuteilen, aber nur die Freigaben zu übergeben, die den Dofollow-Links gegeben wurden.

PageRank-Fluss vor und nach 2009

PageRank-Fluss vor und nach 2009

Fertig mit PageRank Sculpting, Google hat den Link-Spam-Krieg nicht gestoppt und damit begonnen, den PageRank-Score aus den Augen der Öffentlichkeit zu nehmen. Zunächst startete Google den neuen Chrome-Browser ohne Google Toolbar, in dem der PR-Score angezeigt wurde. Dann hörten sie auf, den PR-Score in der Google Search Console zu melden. Der Firefox-Browser unterstützt die Google Toolbar nicht mehr. Im Jahr 2013 wurde PageRank für Internet Explorer zum letzten Mal aktualisiert, und im Jahr 2016 hat Google die Symbolleiste offiziell für die Öffentlichkeit geschlossen.

Lebensdauer des öffentlichen Pagerank

Eine weitere Möglichkeit, wie Google Link-Schemata bekämpfte, war Penguin Update, das Websites mit fischigen Backlink-Profilen herabstufte. Penguin wurde 2012 eingeführt und wurde nicht Teil des Echtzeitalgorithmus von Google, sondern ein „Filter“, der von Zeit zu Zeit aktualisiert und erneut auf die Suchergebnisse angewendet wurde. Wenn eine Website von Penguin bestraft wurde, mussten SEOs ihre Linkprofile sorgfältig überprüfen und giftige Links entfernen oder sie zu einer Disavow-Liste hinzufügen (eine Funktion, die damals eingeführt wurde, um Google mitzuteilen, welche eingehenden Links bei der Berechnung des PageRank ignoriert werden sollten). Nachdem Linkprofile auf diese Weise überprüft wurden, mussten SEOs etwa ein halbes Jahr warten, bis der Penguin-Algorithmus die Daten neu berechnet.

Im Jahr 2016 hat Google Penguin zu einem Teil seines Kern-Ranking-Algorithmus gemacht. Seitdem arbeitet es in Echtzeit und geht algorithmisch viel erfolgreicher mit Spam um.

Gleichzeitig arbeitete Google daran, die Qualität und nicht die Quantität von Links zu verbessern, indem es dies in seinen Qualitätsrichtlinien gegen Link-Schemata festhielt.

Die Gegenwart des PageRank

Nun, wir sind mit der Vergangenheit des PageRank fertig. Was passiert jetzt?

Im Jahr 2019 sagte ein ehemaliger Google-Mitarbeiter, der ursprüngliche PageRank-Algorithmus sei seit 2006 nicht mehr verwendet worden und wurde durch einen anderen, weniger ressourcenintensiven Algorithmus ersetzt, als das Internet größer wurde. Was durchaus zutreffen könnte, da Google 2006 die neue Technologie zur Erstellung eines Rankings für Seiten mit Entfernungen in einem Web-Link-Diagramm zum Patent angemeldet hat.

Wird der PageRank-Algorithmus heute angewendet?

Ja, das ist es. Es ist nicht der gleiche PageRank wie in den frühen 2000er Jahren, aber Google verlässt sich weiterhin stark auf die Linkautorität. Zum Beispiel erwähnte ein ehemaliger Google-Mitarbeiter Andrey Lipattsev dies im Jahr 2016. In einem Google Q&A Hangout fragte ihn ein Nutzer, was die wichtigsten Ranking-Signale seien, die Google verwende. Andreys Antwort war ziemlich einfach.

Ich kann Ihnen sagen, was sie sind. Es sind Inhalte und Links, die auf Ihre Website verweisen.

Andrej Lipatzew

Im Jahr 2020 bestätigte John Mueller dies erneut:

Ja, wir verwenden PageRank intern, unter vielen, vielen anderen Signalen. Es ist nicht ganz dasselbe wie das Originalpapier, es gibt viele Macken (z. B. verleugnete Links, ignorierte Links usw.), und wieder verwenden wir viele andere Signale, die viel stärker sein können.

John Müller

Wie Sie sehen, ist PageRank noch am Leben und wird von Google aktiv beim Ranking von Seiten im Web verwendet.

Interessant ist, dass Google-Mitarbeiter uns immer wieder daran erinnern, dass es viele, viele, VIELE andere Ranking-Signale gibt. Aber wir betrachten dies mit einem Körnchen Salz. Wenn man bedenkt, wie viel Aufwand Google in die Bekämpfung von Link-Spam gesteckt hat, könnte es für Google von Interesse sein, die Aufmerksamkeit der SEOs von den manipulationsanfälligen Faktoren (wie Backlinks) abzulenken und diese Aufmerksamkeit auf etwas Unschuldiges und Nettes zu lenken. Aber da SEOs gut zwischen den Zeilen lesen können, halten sie PageRank für ein starkes Ranking-Signal und bauen Backlinks auf jede erdenkliche Weise aus. Sie verwenden immer noch PBNs, üben einige Grey-Hat Tiered Link Building, kaufen Links und so weiter, so wie es vor langer Zeit war. Wenn PageRank lebt, wird auch Link-Spam leben. Wir empfehlen nichts davon, aber das ist die SEO-Realität, und das müssen wir verstehen.

Zufällige Surfer vs. Vernünftige Surfer Modelle von PageRank

Nun, Sie haben die Idee, dass PageRank jetzt nicht der PageRank ist, der es vor 20 Jahren war.

Eine der wichtigsten Modernisierungen von PR war der Übergang vom oben kurz erwähnten Random Surfer-Modell zum Reasonable Surfer-Modell im Jahr 2012. Vernünftiger Surfer geht davon aus, dass sich Benutzer auf einer Seite nicht chaotisch verhalten und nur auf die Links klicken, an denen sie gerade interessiert sind. Wenn Sie beispielsweise einen Blogartikel lesen, klicken Sie eher auf einen Link im Inhalt des Artikels als auf einen Link zu den Nutzungsbedingungen in der Fußzeile.

Darüber hinaus kann ein Surfer möglicherweise eine Vielzahl anderer Faktoren verwenden, um die Attraktivität eines Links zu bewerten. All diese Faktoren wurden von Bill Slawski in seinem Artikel sorgfältig geprüft, aber ich möchte mich auf die beiden Faktoren konzentrieren, die SEOs häufiger diskutieren. Dies sind Linkposition und Seitenverkehr. Was können wir über diese Faktoren sagen?

Korrelation zwischen Linkposition und Linkautorität

Ein Link kann sich überall auf der Seite befinden — im Inhalt, im Navigationsmenü, in der Biografie des Autors, in der Fußzeile und tatsächlich in jedem Strukturelement, das die Seite enthält. Und verschiedene Linkpositionen beeinflussen den Linkwert. John Mueller bestätigte dies und sagte, dass Links, die im Hauptinhalt platziert sind, mehr wiegen als alle anderen:

Dies ist der Bereich der Seite, in dem Sie Ihren Hauptinhalt haben, den Inhalt, um den es auf dieser Seite tatsächlich geht, nicht das Menü, die Seitenleiste, die Fußzeile, die Kopfzeile … Dann berücksichtigen wir dies und versuchen, diese Links zu verwenden.

John Müller

Fußzeilen- und Navigationslinks sollen also weniger Gewicht haben. Und diese Tatsache wird von Zeit zu Zeit nicht nur von Google-Sprechern, sondern auch von realen Fällen bestätigt.

In einem kürzlich von Martin Hayman bei BrightonSEO vorgestellten Fall fügte Martin den Link, den er bereits in seinem Navigationsmenü hatte, zum Hauptinhalt der Seiten hinzu. Infolgedessen verzeichneten diese Kategorieseiten und die Seiten, mit denen sie verlinkt waren, einen Traffic-Anstieg von 25%.

die Ergebnisse des Hinzufügens von Links zum Hauptinhalt

Quelle: https://www.slideshare.net/MartinHayman/how-to-kick-ass-at-internal-linking?next_slideshow=1

Dieses Experiment beweist, dass Content-Links mehr Gewicht haben als alle anderen.

Bei den Links in der Biografie des Autors gehen SEOs davon aus, dass Bio-Links etwas wiegen, aber weniger wertvoll sind als beispielsweise Inhaltslinks. Obwohl wir hier nicht viel Beweise haben, aber für das, was Matt Cutts sagte, als Google aktiv gegen übermäßiges Gastblogging für Backlinks kämpfte.

Korrelation zwischen Traffic, Nutzerverhalten und Linkautorität

John Mueller klärte die Art und Weise, wie Google Traffic und Nutzerverhalten in Bezug auf die Weitergabe von Linksaft in einem der zentralen Hangouts der Search Console behandelt. Ein Nutzer fragte Müller, ob Google bei der Bewertung der Qualität eines Links die Klickwahrscheinlichkeit und die Anzahl der Linkklicks berücksichtigt. Die wichtigsten Erkenntnisse aus Müllers Antwort waren:

  • Google berücksichtigt bei der Bewertung der Qualität des Links nicht Linkklicks und Klickwahrscheinlichkeit.

  • Google weiß, dass Links häufig zu Inhalten wie Referenzen hinzugefügt werden und von Nutzern nicht erwartet wird, dass sie auf jeden Link klicken, auf den sie stoßen.

Dennoch bezweifeln SEOs wie immer, ob es sich lohnt, blind alles zu glauben, was Google sagt, und experimentieren weiter. Also haben Leute von Ahrefs eine Studie durchgeführt, um zu überprüfen, ob die Position einer Seite auf einem SERP mit der Anzahl der Backlinks von Seiten mit hohem Datenverkehr zusammenhängt. Die Studie ergab, dass es kaum Korrelationen gibt. Darüber hinaus stellte sich heraus, dass einige der bestplatzierten Seiten überhaupt keine Backlinks von verkehrsreichen Seiten hatten.

Diese Studie weist uns in eine ähnliche Richtung wie John Muellers Worte – Sie müssen keine Traffic-generierenden Backlinks zu Ihrer Seite erstellen, um hohe Positionen in einem SERP zu erreichen. Auf der anderen Seite hat zusätzlicher Traffic noch nie einer Website geschadet. Die einzige Nachricht hier ist, dass Traffic-reiche Backlinks das Google-Ranking nicht zu beeinflussen scheinen.

Nofollow-, Sponsored- und UGC-Tags

Wie Sie sich erinnern, hat Google das Nofollow-Tag 2005 eingeführt, um Link-Spam zu bekämpfen. Hat sich heute etwas geändert? Eigentlich ja.

Erstens hat Google kürzlich zwei weitere Arten des Nofollow-Attributs eingeführt. Zuvor schlug Google vor, alle Backlinks, die Sie nicht an der PageRank-Berechnung teilnehmen möchten, als Nofollow zu markieren, seien es Blog-Kommentare oder bezahlte Anzeigen. Heute empfiehlt Google die Verwendung von rel =“sponsored“ für bezahlte und Affiliate-Links und rel = „ugc“ für nutzergenerierte Inhalte.

die Arten von Nofollow-Tags

Es ist interessant, dass diese neuen Tags nicht obligatorisch sind (zumindest noch nicht), und Google weist darauf hin, dass Sie nicht alle manuell ändern müssen rel=“nofollow“ zu rel=“sponsored“ und rel=“ugc“. Diese beiden neuen Attribute funktionieren jetzt genauso wie ein gewöhnliches Nofollow-Tag.

Zweitens sagt Google jetzt, dass die Nofollow-Tags sowie die neuen, Sponsored und ugc, beim Indizieren von Seiten eher als Hinweise als als Direktive behandelt werden.

Ausgehende Links und deren Einfluss auf Rankings

Neben eingehenden Links gibt es auch ausgehende Links, also Links, die auf andere Seiten von Ihnen verweisen.

Viele SEOs glauben, dass ausgehende Links Rankings beeinflussen können, aber diese Annahme wurde als SEO-Mythos behandelt. Aber es gibt eine interessante Studie, die man sich in dieser Hinsicht ansehen sollte.

Reboot Online führte 2015 ein Experiment durch und führte es 2020 erneut durch. Sie wollten herausfinden, ob das Vorhandensein ausgehender Links zu Seiten mit hoher Autorität die Position der Seite in einem SERP beeinflusst. Sie erstellten 10 Websites mit 300-Wort-Artikeln, die alle für ein nicht vorhandenes Keyword optimiert waren – Phylandocic. 5-Websites enthielten überhaupt keine ausgehenden Links, und 5-Websites enthielten ausgehende Links zu Ressourcen mit hoher Autorität. Infolgedessen rangierten die Websites mit maßgeblichen ausgehenden Links am höchsten, und diejenigen, die überhaupt keine Links hatten, belegten die niedrigsten Positionen.

die Ergebnisse des Online-Experiments

Quelle: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

Einerseits können uns die Ergebnisse dieser Forschung sagen, dass ausgehende Links die Positionen der Seiten beeinflussen. Auf der anderen Seite ist der Suchbegriff in der Forschung brandneu und der Inhalt der Websites dreht sich um Medizin und Drogen. Es besteht also eine hohe Wahrscheinlichkeit, dass die Abfrage als YMYL klassifiziert wurde. Und Google hat oft die Bedeutung von E-A-T für YMYL-Websites angegeben. Die Outlinks könnten also als E-A-T-Signal behandelt worden sein, was beweist, dass die Seiten sachlich korrekte Inhalte haben.

In Bezug auf normale Abfragen (nicht YMYL) hat John Mueller oft gesagt, dass Sie keine Angst haben müssen, von Ihrem Inhalt aus auf externe Quellen zu verlinken, da ausgehende Links gut für Ihre Benutzer sind.

Außerdem können ausgehende Links auch für SEO von Vorteil sein, da sie von Google AI beim Filtern des Webs nach Spam berücksichtigt werden können. Weil Spam-Seiten in der Regel nur wenige ausgehende Links haben, wenn überhaupt. Sie verlinken entweder auf die Seiten unter derselben Domain (wenn sie jemals über SEO nachdenken) oder enthalten nur bezahlte Links. Wenn Sie also auf glaubwürdige Ressourcen verlinken, zeigen Sie Google, dass Ihre Seite kein Spam ist.

Es gab einmal eine Meinung, dass Google Ihnen eine manuelle Strafe für zu viele ausgehende Links geben könnte, aber John Mueller sagte, dass dies nur möglich ist, wenn die ausgehenden Links offensichtlich Teil eines Linktauschschemas sind und die Website im Allgemeinen von schlechter Qualität ist. Was Google unter offensichtlich versteht, ist eigentlich ein Rätsel, also denken Sie an gesunden Menschenverstand, hochwertige Inhalte und grundlegende SEO.

Google-Kampf gegen Link-Spam

Solange der PageRank existiert, werden SEOs nach neuen Wegen suchen, ihn zu manipulieren.

Im Jahr 2012 gab Google eher manuelle Aktionen für Linkmanipulation und Spam frei. Aber jetzt, mit seinen gut ausgebildeten Anti-Spam-Algorithmen, Google ist in der Lage, bestimmte Spam-Links bei der Berechnung des PageRanks einfach zu ignorieren, anstatt die gesamte Website im Allgemeinen herunterzustufen. Wie John Mueller sagte,

Zufällige Links, die im Laufe der Jahre gesammelt wurden, sind nicht unbedingt schädlich, wir haben sie auch schon lange gesehen und können all diese seltsamen Web-Graffiti von vor langer Zeit ignorieren.

John Müller

Dies gilt auch für negative SEO, wenn Ihr Backlink-Profil von Ihren Mitbewerbern kompromittiert wird:

Im Allgemeinen berücksichtigen wir diese automatisch und versuchen, sie automatisch zu ignorieren, wenn wir sie sehen. Zum größten Teil vermute ich, dass das ziemlich gut funktioniert. Ich sehe sehr wenige Leute mit tatsächlichen Problemen. Ich denke, das funktioniert meistens gut. In Bezug auf die Ablehnung dieser Links vermute ich, dass dies nur normale Spam-Links sind, die gerade für Ihre Website auftauchen, dann würde ich mir nicht zu viele Sorgen um sie machen. Wahrscheinlich haben wir das selbst herausgefunden.

John Müller

Dies bedeutet jedoch nicht, dass Sie sich keine Sorgen machen müssen. Wenn die Backlinks Ihrer Website zu oft und zu oft ignoriert werden, haben Sie immer noch eine hohe Chance, eine manuelle Aktion zu erhalten. Wie Marie Haynes in ihrem Rat zum Link-Management im Jahr 2021 sagt:

Manuelle Aktionen sind Fällen vorbehalten, in denen auf einer ansonsten anständigen Website unnatürliche Links in einem so großen Maßstab darauf verweisen, dass die Algorithmen von Google sie nicht ignorieren können.4178 2641 9430

Um herauszufinden, welche Links das Problem auslösen, können Sie einen Backlink-Checker wie SEO SpyGlass verwenden. Gehen Sie im Tool zum Abschnitt Backlink Profile > Penalty Risk. Achten Sie auf Backlinks mit hohem und mittlerem Risiko.

Backlink Profile Penalty Risk section von seo spyglass

Um weiter zu untersuchen, warum dieser oder jener Link als schädlich gemeldet wird, klicken Sie auf das i-Zeichen in der Spalte Penalty Risk. Hier sehen Sie, warum das Tool den Link als schlecht angesehen hat, und entscheiden, ob Sie einen Link ablehnen oder nicht.

erkannte Strafrisiken mit seo spyglass

Wenn Sie einen Link einer Gruppe von Links ablehnen möchten, klicken Sie mit der rechten Maustaste darauf und wählen Sie Disavow backlink(s) Option:

Disavow-Funktion von seo Spyglass

Sobald Sie eine Liste der auszuschließenden Links erstellt haben, können Sie die Disavow-Datei aus SEO SpyGlass exportieren und über GSC an Google senden.

Interne Verlinkung

Wenn wir über PageRank sprechen, können wir nur die interne Verlinkung erwähnen. Der eingehende PageRank ist eine Sache, die wir nicht kontrollieren können, aber wir können die Art und Weise, wie PR über die Seiten unserer Website verteilt wird, vollständig kontrollieren.

Google hat die Bedeutung der internen Verlinkung auch viele Male erklärt. John Mueller unterstrich dies noch einmal in einem der neuesten Search Console Central Hangouts. Ein Benutzer fragte, wie man einige Webseiten leistungsfähiger machen könne. Und John Mueller sagte folgendes:

…Sie können bei der internen Verknüpfung helfen. So können Sie innerhalb Ihrer Website wirklich die Seiten hervorheben, die Sie mehr hervorgehoben haben möchten, und sicherstellen, dass sie intern wirklich gut verlinkt sind. Und vielleicht sind die Seiten, die Sie nicht so wichtig finden, stellen Sie sicher, dass sie intern etwas weniger verlinkt sind.

John Müller

Interne Verlinkung bedeutet viel. Es hilft Ihnen, den eingehenden PageRank zwischen verschiedenen Seiten Ihrer Website zu teilen, wodurch Ihre leistungsschwachen Seiten gestärkt und Ihre Website insgesamt gestärkt werden.

Was die Ansätze zur internen Verknüpfung betrifft, haben SEOs viele verschiedene Theorien. Ein beliebter Ansatz bezieht sich auf die Klicktiefe der Website. Diese Idee besagt, dass alle Seiten auf Ihrer Website maximal 3 Klicks von der Homepage entfernt sein müssen. Obwohl Google die Bedeutung einer flachen Website-Struktur auch oft unterstrichen hat, scheint dies in Wirklichkeit für alle größeren als kleinen Websites nicht erreichbar zu sein.

Ein weiterer Ansatz basiert auf dem Konzept der zentralen und dezentralen internen Verknüpfung. Wie Kevin Indig es beschreibt:

Zentralisierte Websites haben einen einzigen Benutzerfluss und einen Trichter, der auf eine Schlüsselseite verweist. Websites mit dezentraler interner Verknüpfung haben mehrere Konvertierungs-Touchpoints oder verschiedene Formate für die Anmeldung.4178 2641 9430

Im Falle einer zentralisierten internen Verlinkung haben wir eine kleine Gruppe von Conversion-Seiten oder eine Seite, die wir mächtig machen wollen. Wenn wir eine dezentrale interne Verlinkung anwenden, möchten wir, dass alle Webseiten gleich leistungsfähig sind und den gleichen PageRank haben, damit alle für Ihre Anfragen rangieren.

Welche Option ist besser? Es hängt alles von Ihrer Website und den Besonderheiten Ihrer Geschäftsnische sowie von den Keywords ab, auf die Sie abzielen. Zum Beispiel eignet sich eine zentralisierte interne Verlinkung besser für Keywords mit hohem und mittlerem Suchvolumen, da sie zu einer engen Anzahl superstarker Seiten führt.

Verwenden Sie Keywords mit hohem und mittlerem Suchvolumen, um einen engen Satz von Seiten zu stärken

Long-Tail-Keywords mit geringem Suchvolumen eignen sich dagegen besser für die dezentrale interne Verlinkung, da sie die PR gleichmäßig auf zahlreiche Webseiten verteilen.

Verwenden Sie Keywords mit geringem Suchvolumen, um viele Seiten zu stärken

Ein weiterer Aspekt einer erfolgreichen internen Verlinkung ist das Gleichgewicht zwischen eingehenden und ausgehenden Links auf der Seite. In dieser Hinsicht verwenden viele SEOs den CheiRank (CR), der eigentlich ein inverser PageRank ist. Aber während PageRank die empfangene Leistung ist, ist CheiRank die verschenkte Link-Leistung. Sobald Sie PR und CR für Ihre Seiten berechnet haben, können Sie sehen, welche Seiten Linkanomalien aufweisen, d. H. Die Fälle, in denen eine Seite viel PageRank erhält, aber ein wenig weitergeht und umgekehrt.

Ein interessantes Experiment ist Kevin Indigs flattening of link anomalies. Einfach sicherstellen, dass der eingehende und ausgehende PageRank auf jeder Seite der Website ausgeglichen ist, brachte sehr beeindruckende Ergebnisse. Der rote Pfeil hier zeigt auf den Zeitpunkt, zu dem die Anomalien behoben wurden:

 die Ergebnisse der Abflachung von Link-Anomalien

Link-Anomalien sind nicht das einzige, was den PageRank-Fluss beeinträchtigen kann. Stellen Sie sicher, dass Sie nicht bei technischen Problemen stecken bleiben, die Ihre hart verdiente PR zerstören könnten:

  • Verwaiste Seiten. Verwaiste Seiten sind mit keiner anderen Seite auf Ihrer Website verlinkt, daher sitzen sie nur untätig und erhalten keinen Linksaft. Google kann sie nicht sehen und weiß nicht, dass sie tatsächlich existieren.

  • Ketten umleiten. Obwohl Google sagt, dass Weiterleitungen jetzt 100% der PR bestehen, wird dennoch empfohlen, lange Weiterleitungsketten zu vermeiden. Erstens fressen sie sowieso Ihr Crawl-Budget auf. Zweitens wissen wir, dass wir nicht blind alles glauben können, was Google sagt.

  • Links in nicht analysierbarem JavaScript. Da Google sie nicht lesen kann, geben sie den PageRank nicht weiter.

  • 404 links. 404 Links führen nirgendwo hin, also geht PageRank auch nirgendwo hin.

  • Links zu unwichtigen Seiten. Natürlich können Sie keine Ihrer Seiten ohne Links verlassen, aber Seiten werden nicht gleich erstellt. Wenn eine Seite weniger wichtig ist, ist es nicht rational, zu viel Aufwand in die Optimierung des Linkprofils dieser Seite zu investieren.

  • Zu weit entfernte Seiten. Wenn sich eine Seite zu tief auf Ihrer Website befindet, wird sie wahrscheinlich wenig oder gar keine PR erhalten. Da Google es möglicherweise nicht schafft, es zu finden und zu indizieren.

Um sicherzustellen, dass Ihre Website frei von diesen PageRank-Gefahren ist, können Sie sie mit WebSite Auditor überprüfen. Dieses Tool verfügt über einen umfassenden Satz von Modulen im Abschnitt Site Structure > Site Audit, mit denen Sie die Gesamtoptimierung Ihrer Website überprüfen und natürlich alle linkbezogenen Probleme wie lange Weiterleitungen finden und beheben können:

 umleitungsfehler auf Website Auditor

und defekte Links:

broken links on website auditor

Um Ihre Website auf verwaiste oder zu weit entfernte Seiten zu überprüfen, wechseln Sie zu Site Structure > Visualisierung:

 site-Struktur auf Website Auditor

Die Zukunft des PageRank

In diesem Jahr ist PageRank 23 geworden. Und ich denke, es ist älter als einige unserer Leser heute 🙂 Aber was kommt für PageRank in der Zukunft? Wird es eines Tages ganz verschwinden?

Suchmaschinen ohne Backlinks

Wenn ich an eine beliebte Suchmaschine denke, die keine Backlinks in ihrem Algorithmus verwendet, ist die einzige Idee, die ich mir vorstellen kann, das Yandex-Experiment im Jahr 2014. Die Suchmaschine kündigte an, dass das Löschen von Backlinks aus ihrem Algorithmus die Link-Spammer endgültig von Manipulationen abhalten und ihre Bemühungen auf die Erstellung hochwertiger Websites lenken könnte.

Es könnte eine echte Anstrengung gewesen sein, sich alternativen Ranking-Faktoren zuzuwenden, oder nur ein Versuch, die Massen davon zu überzeugen, Link-Spam fallen zu lassen. In nur einem Jahr nach der Ankündigung bestätigte Yandex jedoch, dass die Backlink-Faktoren wieder in ihrem System vorhanden waren.

Aber warum sind Backlinks für Suchmaschinen so unverzichtbar?

Während unzählige andere Datenpunkte vorhanden sind, um Suchergebnisse nach dem Anzeigen neu anzuordnen (wie Benutzerverhalten und BERT-Anpassungen), bleiben Backlinks eines der zuverlässigsten Autoritätskriterien, die zur Bildung der anfänglichen SERP erforderlich sind. Ihr einziger Konkurrent hier sind wahrscheinlich Entitäten.

Wie Bill Slawski es ausdrückt, wenn er nach der Zukunft von PageRank gefragt wird:

Google erforscht maschinelles Lernen und Faktenextraktion und das Verständnis von Schlüsselwertpaaren für Geschäftseinheiten, was eine Bewegung in Richtung semantischer Suche und eine bessere Nutzung strukturierter Daten und Datenqualität bedeutet.

Bill Slawski, SEO am Meer

Dennoch ist Google ziemlich bereit, etwas zu verwerfen, in das sie zehn Jahre Entwicklung investiert haben.

Google ist sehr gut in der Linkanalyse, die mittlerweile eine sehr ausgereifte Webtechnologie ist. Aus diesem Grund ist es durchaus möglich, dass PageRank weiterhin zum Ranking organischer SERPs verwendet wird.

Bill Slawski, SEO am Meer

Nachrichten und andere zeitkritische Ergebnisse

Ein weiterer Trend, auf den Bill Slawski hinwies, waren Nachrichten und andere kurzlebige Arten von Suchergebnissen:

Google hat uns mitgeteilt, dass es sich weniger auf PageRank für Seiten verlassen hat, auf denen Aktualität wichtiger ist, z. B. Echtzeit-Ergebnisse (wie von Twitter) oder Nachrichtenergebnisse, auf denen Aktualität sehr wichtig ist.

Bill Slawski, SEO am Meer

In der Tat lebt eine Nachricht in den Suchergebnissen viel zu wenig, um genügend Backlinks zu sammeln. Google hat also daran gearbeitet, Backlinks durch andere Ranking-Faktoren zu ersetzen, wenn es um Nachrichten geht.

Derzeit werden Nachrichtenrankings jedoch in hohem Maße von der Nischenautoritativität des Herausgebers bestimmt, und wir lesen Autoritativität immer noch als Backlinks:

“ Autoritätssignale helfen dabei, qualitativ hochwertige Informationen aus den zuverlässigsten verfügbaren Quellen zu priorisieren. Zu diesem Zweck sind unsere Systeme so konzipiert, dass sie Signale identifizieren, anhand derer anhand des Feedbacks von Suchbewertern festgestellt werden kann, welche Seiten Fachwissen, Autorität und Vertrauenswürdigkeit zu einem bestimmten Thema aufweisen. Zu diesen Signalen kann gehören, ob andere Personen die Quelle für ähnliche Abfragen schätzen oder ob andere prominente Websites zu diesem Thema auf die Geschichte verlinken.“

Neue Attribute rel =“sponsored“ und rel =“UGC“

Zu guter Letzt war ich ziemlich überrascht von den Bemühungen von Google, gesponserte und benutzergenerierte Backlinks identifizieren und von anderen Nofollow-Links unterscheiden zu können.

Wenn all diese Backlinks ignoriert werden sollen, warum sollten Sie dann voneinander unterscheiden? Vor allem mit John Muller darauf hindeutet, dass später, Google könnte versuchen, diese Art von Links anders zu behandeln.

Meine kühnste Vermutung hier war, dass Google vielleicht überprüft, ob Werbung und nutzergenerierte Links zu einem positiven Ranking-Signal werden könnten.

Schließlich erfordert Werbung auf beliebten Plattformen riesige Budgets, und riesige Budgets sind ein Attribut einer großen und beliebten Marke.

Nutzergenerierte Inhalte, wenn sie außerhalb des Kommentar-Spam-Paradigmas betrachtet werden, beziehen sich auf echte Kunden, die ihre realen Vermerke abgeben.

Die Experten, an die ich mich wandte, glaubten jedoch nicht, dass dies möglich war:

Ich bezweifle, dass Google jemals gesponserte Links als positives Signal betrachten würde.

Barry Schwartz, Runder Tisch der Suchmaschinen

Die Idee hier scheint zu sein, dass Google durch die Unterscheidung verschiedener Arten von Links versuchen würde, herauszufinden, welchen der Nofollow-Links für Zwecke der Entitätsbildung gefolgt werden soll:

Google hat kein Problem mit nutzergenerierten Inhalten oder gesponserten Inhalten auf einer Website, Beide wurden jedoch in der Vergangenheit als Methoden zur Manipulation des Pagerank verwendet. Daher wird Webmastern empfohlen, ein Nofollow-Attribut auf diesen Links zu platzieren (unter anderem aus Gründen der Verwendung von nofollow).Nofollowed Links können für Google jedoch immer noch hilfreich sein (z. B. bei der Erkennung von Entitäten), daher haben sie zuvor festgestellt, dass sie dies eher als Vorschlag und nicht als Richtlinie wie ein Roboter behandeln.txt disallow Regel wäre auf Ihrer eigenen Website.John Muellers Aussage lautete: „Ich könnte mir in unseren Systemen vorstellen, dass wir im Laufe der Zeit lernen könnten, sie etwas anders zu behandeln.“ Dies könnte sich auf die Fälle beziehen, in denen Google ein Nofollow als Vorschlag behandelt. Hypothetisch ist es möglich, dass die Systeme von Google anhand von Erkenntnissen aus den als ugc und gesponsert gekennzeichneten Linktypen erfahren, welchen Nofollow-Links sie folgen sollen. Auch dies sollte keine großen Auswirkungen auf das Ranking einer Website haben – theoretisch könnte es sich jedoch auch auf die verlinkte Website auswirken.

Callum Scott, Marie Haynes Beratung

Zu dir

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.