Backlinks, PageRank, Trust, Authority, LSI – nebulöse Ranking-Faktoren

Backlinks, PageRank, Trust, Authority, LSI – nebulöse Ranking-Faktoren

Ranking Faktoren für die google Suche
Ranking Faktoren für die google Suche

Für jeden, der sich mit Suchmaschinenoptimierung beschäftigt, stellen sich immer wieder die gleichen Fragen: „Welche Kriterien bewirken ein gutes Ranking?“ – „Welche Faktoren spielen für das Ranking eine Rolle?“ – „Wie bringe ich meine Website auf Top-Positionen?

Es gibt zahlreiche Artikel im Web, die genau diese Fragen behandeln. Für mich am Wichtigsten war die wunderbare und statistisch belegte Untersuchung von Sistrix („Ranking Faktoren„). Auch diese Zusammenstellung bei wiep.net listet viele wichtige Faktoren auf (engl.). Daneben existieren einige andere sehr gute Artikel, die versuchen, jeweils einen der Punkte in den Fokus zu rücken. Z.B. hier zum pageRank, hier zum Trust.

Warum bemühe ich also nun erneut einen Blogartikel, wenn es doch so gute und profunde Informationen zu geben scheint? Das hat drei Gründe:

  • Zum einen bin ich davon überzeugt, dass google den Berechnungs-Algorithmus, in den all die genannten Faktoren mit einfließen, laufend modifiziert und weiterentwickelt. Von Zeit zu Zeit ist ein kritisches Hinterfragen von bekanntem Wissen notwendig.
  • Zum zweiten gibt es einige Faktoren, die meines Erachtens nicht ausreichend besprochen sind. Zahlreiche Theorien geistern durch die SEO-Blogs und Foren, aber nichts genaues weiß man nicht. „Wie schnell sollte man Backlinks aufbauen?“ – „Wie wichtig ist der pageRank?“ – „Welchen Einfluss hat der google-Trust auf das Ranking?“ – „Wann und wie wird eine Site zur Authority-Site ?“ …  Mit genau diesen Fragen möchte ich mich beschäftigen.
  • Und zum dritten scheint mir unabdingbar, dass google die Konzepte des „semantic Web“ in die Suche integriert. Ich denke sogar bin mir sicher, dass die Suche längst auf semantischen Strategienen basiert. Aber was steckt wirklich dahinter? Inwiefern ist ein semantischer Kontext wichtig für das Ranking?

Der geneigte Leser wird zurecht vermuten, dass ich nicht über ein Backend verfüge, das meine Thesen verifizieren könnte. Es handelt sich also um Vermutungen und Thesen, die sich aus Beobachtungen erschließen, aber keinesfalls gesichert sind. Mein Backend ist quasi der gesunde Menschenverstand. — break —

Backlinks

Backlinks - Verlinkung von Websites
Backlinks – Verlinkung von Websites

Es ist unfassbar, welche Fragen und Antworten man zum Thema Backlinks lesen kann. Viele gehen scheinbar immer noch davon aus, dass die schiere Masse an Backlinks irgendwelche Vorteile bringen könnte. Meine Beobachtung ist, dass Backlinks zunächst einmal nur wichtig sind, damit die Seite gefunden wird. Natürlich konnte man früher mal annehmen, dass viele Backlinks eine hohe Relevanz bedeuten. Aber diese Zeiten sind nach meiner Überzeugung längst passé. Google hat erkannt, dass die Backlink-Anzahl viel zu leicht zu manipulieren ist. Die ganzen Diskussionen über eine Nutzung von „Russenlinks“, „Webkataloge“ und „nofollow“ sind aus meiner Sicht verpulverte heiße Luftverschwendung. Um viel viel reicher wäre das Web, wenn all diese Energie in die Verbesserung von Projekt-Inhalten geflossen wäre.

Hinsichtlich des Link-Textes ist klar, dass die Nennung des keywords oder des Seitentitels Vorteile bringt. Nach meinen Beobachtungen muss man hier zwischen internen und externe Links unterscheiden: bei internen Links ist es sehr wichtig, dass man konsequent und einheitlich den (ggf. verkürzten) Seitentitel benutzt. Wenn das nicht so ist, macht es den Eindruck, als wüsste man selber nicht, worum es auf der Seite geht. Anders ist es bei externen Backlinks: Völlig unlogisch, das jeder, der den Artikel verlinkt, das immer unter dem gleichen Gesichtspunkt macht. Eine Seite ist doch dann besonders wichtig, wenn sie von verschiedenen Seiten mit jeweils eigenen Schwerpunkt anzulinken lohnt. Denn eine gute Seite hat mehr als ein keyword. Mehr dazu weiter unten beim Thema „Semantik“.

Meine Beobachtungen hinsichtlich der Website-Verlinkung:

  • In der Startphase eine Projektes macht es Sinn, die Website über ca. 20 Backlinks im Internet zu verankern. Die Links sollten so gesetzt sein, dass sie zugleich vom googlebot und interessierten Surfern gefunden werden.
  • Backlinks müssen „natürlich“ wachsen. Sinnvoll ist daher, sich nach der Startphase nicht mehr um Verlinkung zu kümmern. Ich bin davon überzeugt, dass google das „Linkwachstum“ verfolgt.
  • Es macht nur einen minimalen Unterschied, ob man von einer Site 2000 oder nur einen Backlink erhält. Google interpretiert footer- oder Blogroll-Links genau so wie einen einfachen Link von einer Seite.
  • Der Inhalt der verlinkenden Seite hat einen großen Einfluss auf den Link. Ein Link aus einem Webkatalog bringt praktisch nichts, weil google natürlich bemerkt, dass es um nichts anderes als den Link geht.
  • Die keywords der Links sollten inhaltlich motiviert, aber keineswegs immer gleich sein. Die Verschiedenheit der keyword-Kombinationen ist ein Qualitätskriterium.
  • Die Anzahl der Backlinks ist über Monate und Jahre gesehen aber natürlich schon ein wichtiger Faktor. Wenn man bezüglich der Verlinkung aktiv manipulieren will, ist eine sehr langfristige Strategie erforderlich.

Viel wichtiger als die Anzahl der Backlinks ist die Qualität des Links. Je wichtiger die verlinkende Seite in Bezug auf die im Link genannte keyword-Kombination ist, umso mehr Power hat der Link (linkjuice). Überspitzt bedeutet das, dass ein Link aus einem Webkatalog also im Gurnde genommen nur nützt, wenn man einen anderen Webkatalog dort anmeldet.

Der google pageRank

Google PageRank
Google PageRank

Jedes google pageRank-Update führt zu Riesen-Aufregung. Warum? Ich vermute, das liegt daran, dass google den pageRank das einzige „Bewertungssystem“ für Websites offen gelegt hat. Leider haben die meisten noch gar nicht mitbekommen, dass das System seit Jahren veraltet ist. Der pageRank dient google in der Anfangszeit dazu, das Ranking der Ergebnisseiten zu erstellen. Das Prinzip ist, dass die Anzahl der Backlinks gewertet wird. Je mehr eingehende Links eine Seite hat, um so wichtiger ist sie. Aber das ist lange, lange her. Der pageRank hat sich aber nicht weiterentwickelt. Und weil die schiere Anzahl so leicht zu manipulieren ist, hat google den pageRank einfach immer weniger innerhalb des „übergeordneten Bewertungsalgorithmus“ gewichtet. Heute ist der pageRank nach meiner Beobachtung praktisch unerheblich. Stattdessen gibt es zwei andere Bewertungssysteme, die einen wesentlich größeren Einfluss haben: Trust und Authority.

Der google Trust-Rank

Trust heißt Vertrauen. Welchen Sites bzw Domains kann man zutrauen, tatsächlich eine gute (also inhaltlich-relevante) Seite bereitzustellen? Google wird laufend durch findige Websmaster und SEOs ausgetrickst. Zumindest sieht das aus googles Perspektive so aus. Daher hat man einen Trust-Rank eingeführt. Ich vermute, dass es im Grunde drei Stufen gibt: die breite Masse, über die man keine Aussagen machen kann. Dann die Seiten, denen google vertraut. Und eben die, denen google misstraut. Der Trust wird immer auf eine ganze Site angewendet. Er wird auch von der gesamten Site erworben. Und ggf. verliert auch die gesamte Site das Vertrauen. In vielen Foren wir düber die sog. „Sandbox“ debattiert. Das ist eine Art „Abwertung der Site für bestimmte Suchbegriffe“. Die bildliche Vorstellung hat die Assoziation eines „Buddelkastens“ motiviert. Google ist in diesem Bild ein Oberlehrer mit erhobenem Zeigefinger, der die bösen Webmaster-Jungens in die Sandkiste zurückschickt, damit sie durch schlechtes Gewissen geläutert werden.  Ich kann dazu nicht viel sagen, weil ich so etwas noch nie erlebt habe. Aber nach meiner Überzeugung ist die Sandbox nichts anderes als der Verlust des google-Trusts.Wie kann es zu einem Verlust von Trust kommen? Ich greife hier auf gesammelten Vermutungen aus Foren und Blogs zurück:

  • Zu schneller Linkaufbau
  • Zu schnell wachsende Seitenanzahl
  • Zu viele sprachfremde Links
Google Trust
Google Trust

Demgegenüber steht ein positiver Trust-Rank. Eine Seite, der google vertraut, hat wesentlich höhere Chancen, auf den vorderen Plätzen der SERPs gelistet zu werden. Welche Faktoren spielen für den google-Trust eine Rolle? Das ist sehr spekulativ, nach meiner Vermutung unter anderem folgende:

  • Eintrag in google-Maps
  • Eintrag in Branchenbücher
  • Sauberes Impressum
  • Domain-Alter
  • Kontinuierliches und angemessenes Wachstum der Seitenzahl
  • Vielschichtige Vernetzung

Kann man erkennen, ob eine Seite einen google-Trust hat? Ich weiß es nicht. Die Vermutung liegt nahe, dass eine Seite, die Sitelinks erhält, als vertrauenswürdig eingestuft wurde. Es ist auch wahrscheinlich, dass eine Trust-Site automatisch einen page-Rank erhält. Vielleicht ist der bekannte PageRank 3 Bonus, den viele neue Seiten erhalten, ein Hinweis darauf. demnach würden alle neuen Seiten einen Trust bekommen, den sie dann innerhalb einer gewissen Frist bestätigen müssen. Falls das nicht gelingt, verlieren sie den Trust-Status wieder und werden auf neutral gesetzt. Meine These also: Eine Trust-Seite hat immer mind. einen pageRank von 3.

Der google Authority-Rank

Während beim Trust die Frage nach der Vertrauenswürdigkeit der Site und des Sitebetreibers im Vordergund steht, zielt der Authority-Rank auf die inhaltliche Relevanz der Gesamtsite. Welches Thema steht im Vordergrund? Wie stark ist der Grad der „Spezialisierung“? Wie umfangreich ist das Material? Es läuft auf folgende Kernfrage hinaus: Wie gewichtig ist der Content einer Site?

Es geht also nicht um die Gewichtung einer einzelnen Seite, sondern der gesamten Site. Ich vermute, dass Prinzip ist vergleichbar mit der Gewichtung einer einzelnen Seite. Mal ganz einfach formuliert: Google nimmt alle Seiten einer Domain, fügt sie zu einem riesigen Dokument zusammen und erstellt daraus eine Analyse. Wie ist die keyword-Dichte aller Seitentitel, aller Überschriften, aller Texte etc. Google berechnet also die Site-umfassenden Keywords. Vermutlich wird auch noch die Verzeichnistiefe einbezogen. Je höher eine Seite angesiedelt ist, um so mehr Gewicht hat sie innerhalb der Authority-Berechnung. Als Ergebnis erhält google eine Übersicht, welche Hauptkeys auf der Seite behandelt werden. Und für eben diese Keys bekommt die Site eine Authority. Diese key-Authority wird dann mit anderen Site verglichen. Wenn auf Site A der Hauptkey „Hutschachtel“ 20 x im Titel auftaucht, und auf Site B nur 10 x, dann hat die erstgenannte einen höheren Authority-Rank für diesen Begriff. Angenommen, Site C hat sogar 30 x den Begriff in den Titeln, aber der Begriff „Hutschachtel“ liegt im Overall-Site-Ranking nur auf Platz 10 (weil 9 andere keys noch häufiger benutzt werden), dann wäre Site C im Authority-Ranking noch hinter Site B angesiedelt.

Google Authority
Google Authority

Jede Site besitzt demnach für bestimmte Begriffe einen Authority-Status. Die ermittelten Hauptkeys werden dann ins Verhältnis zu den Hauptkeys der Einzelseiten gesetzt. Je mehr sie korrelieren, um so größer die Relevanz der Einzelseite in den SERPs.

Kann sein, dass das schon jemand kompliziert findet. Aber so richtig verworren wird es jetzt erst…

Keyword Semantik – nahestehende Begriffe

Latent semantic indexing - LSI
Latent semantic indexing – LSI

Vor einiger Zeit habe ich mal versucht, meine Künstler-Homepage auf „Moderne Malerei“ zu optimieren. Nach einigen Wochen des testens habe ich herausgefunden: In den SERPs sind die Seiten klar in Vorteil, die auf „Moderne abstrakte Malerei“ optimieren. Der Begriff „abstrakt“ wird der Kombination „moderne Malerei“ automatisch zugeordnet. Wenn ich den Begriff auf meiner Seite mit optimiere (im Titel, Überschrift und Text), lande ca. auf Platz 5. Da ich allerdings nur sehr wenige abstrakte Bilder gemalt habe, hab ich es wieder erausgenommen, so dass ich nun so auf Platz 12 rumdümpel. Entscheidend ist hier jedoch die Beobachtung, dass ein anderer begriff die SERPs stark beeinflußt.

Die Grundidee des „Semantic Webs“ ist das Erkennen einer Bedeutung durch automatisierte Strukturen. Alle, die jetzt meckern, können doch bitte gleich hier bei Wikipedia weiterlesen. Denn hier soll es gar nicht um das Semantic Web gehen, sondern um das Latent Semantic Indexing (siehe Wikipedia), das google in seine Suche einfließen lässt. Vermutlich hat google mittlerweile ein recht zuverlässiges LSI entwickelt, durch das semantisch nahe-stehende Begriffe in die Berechnung der Suchergebnisse mit einfließen. Wie funktioniert das (im Prinzip): Vermutlich setzt man dort zunächst mal auf Taxonomien. Dabei werden Begriffe hierarchichisch klassifiziert. Also ganz simpel: Kunst – Malerei – Kunstgeschichte – Renaissance – Italien – Florenz – Leonardo da Vinci – Mona Lisa. In der Kategorie Florenz tummelt sich zum Beispiel auch Paolo Uccello. Wenn man nach „Italien Renaissance Florenz Malerei“ sucht, dann hat die Seite, die beide Künstler benennt, einen klaren Vorteil gegenüber der Seite, die nur Leonardo nennt.

Die pure Katalogisierung würde aber bei weitem nicht ausreichen. Es spielen sicherlich auch Synonyme aus Lexika eine Rolle. Und ich vermute, dass google auch gezielt die eigenen Ergebnisse nutzt, um die „nahe-stehenden Begriffe“ weiterzuentwickeln. Dabei werden z.B. für jeden Suchbegriff die ersten zehn Plätze analysiert. So ähnlich wie oben beschrieben wird alles in einen Datei gepackt und dann ausgewertet. Am häufigsten sollte natürlich das Keyword selber auftauchen. Aber die in dieser Analyse gefundenen Begriffe 2 bis 10 stehen mit hoher Wahrscheinlichkeit in einem engen semantischen Verhältnis zu diesem Key.

Das Prinzip ist also, dass „nahe-stehende Begriffe“ das keyword aufwerten. In vielen Keyword-Check Tools ist das bereits als „Latent Semantische Analyse“ mit einbezogen, z.B. Semager. Allerdings wird man dort kaum die Strukturen bei google nachbilden können. Die dort vorgeschlagene „Latent semantische Optimierung“ geht zwar tendenziell in die richtige Richtung. Aber noch sicherer ist immer eine echte Keyword-Analyse in den SERPs und der gesunde Menschenverstand. Bei Linkventor ist schön beschrieben, wie man die nahe-stehenden Keywords mit Hilfe der Tilde ermitteln kann.

So – wenn diese Seite einmal in der google-Suche weit vorne zu finden ist, dann sicherlich nur unter der key-Kombi „ich vermute“ ;-) Natürlich sind das alles nur Thesen. Aber ich bin mir sicher, dass google viel weiter ist als all die Fragen zu Backlink-Kataloge, pageRank und Co. es vermuten lassen. Der Beitrag ist mal wieder etwas länger geworden. Und das obwohl ich mindestens noch mal soviel schon wieder gestrichen habe. Ich werde also mit diesem Post eine kleine Serie starten, in der ich mich mit jedem der genannten „nebulösen Ranking-Faktoren“ einzeln beschäftigen werde.

Google Ranking Faktoren
Google Ranking Faktoren

Weiterführende Artikel

Das Prinzip der Vererbung – Google TrustRank versus PageRank

15 Gedanken zu „Backlinks, PageRank, Trust, Authority, LSI – nebulöse Ranking-Faktoren

  1. Hallo Martin,

    Also, meiner Meinung nach Authority und Trust, zwei wichtige Faktoren um einen starke Pagerank zu erreichen und so besseres Ranking.

  2. Einige Ansätze sind gut… einige teile ich nicht ganz..aber jeder hat da seine eigene Erfahrungen….

    „Eine Trust-Seite hat immer mind. einen pageRank von 3.“

    Das glaube ich nun nicht… nicht wenn Du in selben Umfeld Seiten mit einem höheren PR hast… ich glaube es ist ein höherer PR…Aber die „PR-Geilheit “ ist bei mir vorbei ;-)

    Wie gesagt…nutz die Arbeit um die Seiten mit guten Inhalt zu füllen und dann noch relevante Links dann habt Ihr schon ein gutes Stück geschafft ;-)

  3. Das ist ein sehr interessanter Artikel, aber der PageRank erscheint mir doch wichtiger als du das beschreibst. Letztendlich ist ein PageRank laut deiner eigenen Aussage auch ein Indikator für Trust/Authority. Ich sehe den PR als eine Art komplette Zusammenfassung aller Ranking-Kategorien, also auch Trust/Authority. Mag aber auch falsch sein :)

  4. Hi Martin,

    ich finde es ein wenig schade, dass Du am Anfang interessante Fragen aufgeworfen haben, die dich auch motivierten diesen Artikel zu schreiben, jedoch in Deinem Artikel recht oberflächlich bleibst.
    Beispiel: Deine Frage war: “Wann und wie wird eine Site zur ‘Authority-Site’?”

    Im Absatz zu diesem Thema beschreibst Du eine Theorie wie Google dies ermitteln könnte – beantwortest aber die Frage nicht was nun gemacht werden sollte um dies zu erreichen?
    So könnte Deine Antwort vielleicht sein:
    Erstellt viele Dokumente zum wichtigsten Thema und achtet darauf das Thema im Titel zu besitzen.
    Oder: Clustert die Inhalte thematisch so, dass interne Hubs gebildet werden.

    Auch würde eine Untersuchung des bisherigen „Authority“ Gedanken (Authority durch Links von Authoritys)im Abgleich zu Deiner Theorie sicher interessant sein.
    Vielleicht kann ich Dich ja hiermit dazu motivieren zu den einzelnen Themen eine Vertiefung zu schreiben…???!!!!!!

  5. @Peter: Kann schon sein, dass eine Trust-Seite einen höheren PR haben muss. Ich habe nur überlegt, ob es einen Zusammenhang mit dem merkwürdigen PR3 Bonus gibt, den vielen Seiten gibt. Ist aber pure Spekulation.

    @Interactiv, Scanner: den PageRank als Zusammenfassung aller Ranking-Faktoren zu sehen, halte ich für falsch. Zumindest basiert das ursprüngliche Konzept ausschließlich auf der Verlinkung und Vererbung. Und ich sehe nicht, dass google das geändert hätte.

    @SeoNotes: Du sagst etwas sehr Wahres – was ich auch bedaure: Ich bin einfach erst seit kurzer Zeit am Bloggen. Und ich verzettel mich einfach noch. Daher habe ich viele gestrichen und verkürzt. Trotzdem ist der Artikel noch zu lang. Wie am Ende angekündigt, sehe ich diesen Artikel auch als Auftakt zu einer kleinen Serie, in der ich mich mit jedem Faktor separat auseinandersetzen möchte.
    Dank an Euch.

  6. Schöne Erklärungsansätze bei LSI. Korrektur in Sachen Sitelinks: die haben mit Ranking und Sandbox wenig zu tun. Ich habe Websites mit hübschen Sitelinks gesehen, die im Kinderparadies buddelten. Auch die Theorie der Webkataloge stimmt so nicht ganz. Google empfiehlt sie sogar („wenn es thematisch passt“)- gerade bei jungen oder sehr vertikalen Projekten eine gute Sache… Zurück zur LSI: das steckt kaum Zauber drin – wer die Sprachvielfalt ausnutzt, schafft Qualitätsinhalte. Und die werden, gepaart mit einer guten Verlinkung, auch belohnt.

  7. hallo,

    ich habe Webseiten mit einem PR8 gesehen, die einen wie die Pagerankanbieter verlinken und nur nach wenigen Tagen ist der PR8 auf PR0 gesunken wobei keine PR-Update stattfand (???)

    Auch wurde ich von eine PR5 Seite verlinkt und habe dort nur eine sehr schwache Backlinkqualität, weil von der PR5 Seite 700 Links ausgehen!!! D.h. ich habe von anderen Schwachen Seiten mit PR1 bis PR3 eine wesentlich bessere Pagerankvererbung!!!

    Aber diese Themen werden wohl auch in Zukunft nicht ausgehen

  8. Meiner Meinung nach wird LSO derzeit noch überbewertet. Dass es ein Trend ist, steht außer Frage, allerdings bringt es nichts, jetzt gleich in Panik zu verfallen, da auch Google offensichtlich mehr auf die Keyworddichte achtet, als auf LSO. Einen kleinen Test, der mich zu dieser Überzeugung bringt, findet man hier: Test Latent Semantische Optimierung.

  9. @Robert: Hab es jetzt nur überflogen. Ich werde mir aber noch mal richtig Zeit dafür nehemn, sieht sehr spannend aus. Danke.

  10. Sehr guter Artikel, in SEO Fachbüchern finde ich selten so viel wichtige Informationen, die einen weiterbringen. In den meisten SEO-Büchern wird oft nur um den heißen Brei geredet und man kommt nicht zur Sache.

  11. Sehr schöner Artikel! Da werde ich mich jetzt mal auf die Suche nach der Fortsetzung machen :)

  12. Ebenfalls danke für die Informationen. Ich bin mal gespannt, ob BING/Yahoo irgendwann eine Position erreichen die uns zwingt darüber zu diskutieren, wie man für die Google Konkurrenz in dieser Tiefe ebenfalls optimieren kann/muss..

  13. In erster Linie ein gelungener Artikel.Ich denke diese Art von Themen werden uns noch eine „sehr“ lange Zeit begleiten. In vielen Sachen haben die Leute verschiedene Ansichten. Daher lese ich sie gerne und überzeuge mich gerne auch selber.

    In Sachen Webkataloge denke ich ,daß du nicht ganz richtig liegst. Insofern es Themenrelevante Themen gibt mit schönen Beschreibungen, denke ich sind sie schon wichtig, vorallem für Beginner in Sachen Homepage.

  14. @Lexus: Danke. Der Artikel ist schon recht alt, ich musste ihn selber noch mal lesen ;-). In Bezug auf die Webkataloge hat sich aber nicht viel geändert – höchstens zu ihren Ungunsten. Ich persönlcih glaube nicht, dass die noch irgendwas bringen. Das Konzept ist aus dem letzten Jahrtausend und hat sich überholt. Sorry, meine Meinung. Viel Erfolg mit Deinem Katalog.

Kommentare sind geschlossen.

Kommentare sind geschlossen.