Die Beziehung zwischen den Ranking-Faktoren

Die Beziehung zwischen den Ranking-Faktoren

Google Rankingfaktoren
Google Rankingfaktoren

Rankingfaktoren sind hipp! Gerade hat Seomoz dazu aufgerufen, die 200 führenden SEO-Experten weltweit zu nominieren, mit deren Hilfe die ultimative „Alle Rankingfaktoren 2011-Liste“ erstellt werden soll. Der Seonaut bricht mit der Tradition und wirft völlig neuartige, butterweiche Kriterien ist Rennen ;-). Und auch Seodeluxe hat eine Blogserie gestartet, in denen er alle Ranking-Kriterien abarbeiten will. So schön die Rankingfaktoren auch sein mögen, aber ich glaube, man vergisst etwas ganz entscheidendes: die Beziehung der Faktoren untereinander.

Top 25 Rankingfaktoren
Top 25 Rankingfaktoren

Man wird die Liste in diesem Jahr vermutlich auf über 300 Faktoren ausdehnen. Jedes noch so kleine Social-Media-Signal wird schon irgendwie in das Ranking einfließen. Ich glaube allerdings, dass der allergrößte Teil dieser Signal nur im Promille-Bereich Auswirkungen haben. Die altbekannten Top-Ranking-Faktoren wie Seitentitel, Domaintrust und Qualität der eingehenden Links werden durch die gewaltige Anzahl neuer Signale kaum grundsätzlich in Frage gestellt werden.

Beziehungskisten…

Worüber ich bislang allerdings nur recht selten gelesen habe, ist die Beziehung der Faktoren untereinander. Ein paar Ideen dazu:

Abhängigkeit von Faktoren untereinander. Beispiel: Google liebt Links – zu wenig sind schlecht, aber zu viele auch. Die optimale Anzahl hängt offenbar von der Content-Menge ab. These: eine Vielzahl von Faktoren steht in einer Beziehung zueinander. Motto: Wenn diese …, dann jenes …

Verstärken sich bestimmte Faktoren gegenseitig? Beispiel: ein keyword im Title wird um so wichtiger, je häufiger das key  im Anchortext eingehender Links vorkommt. Motto: Je häufiger dieses …, desto wichtiger jenes …

Schwächen sich bestimmte Faktoren gegenseitig ab? Beispiel: Wenn eine Seite 1000 Retweets bekommt, und 1000 faceBook likes, werden die dann komplett addiert? Oder ist der Effekt dann so wie 1001 Retweets oder 1001 Likes? Motto: Je häufiger dieses …, desto unwichtiger jenes …

Schließen bestimmte Faktoren andere aus? Beispiel: eine Seite hat zwar eine Reihe eingehender Spam-Links, aber das ändert nichts am guten Ranking. Offenbar werden die Spam-Links aufgrund anderer Faktoren nicht gewertet. Motto: Wenn dieses, dann jenes nicht …

Im Nebel herumstochern...
Im Nebel herumstochern...

Schließlich möchte ich auf dieser Grundlage mal ein paar prinzipielle Faktoren in Frage stellen. Wie ist das mit „Trust“ oder „Authority“? Meine These ist, dass diese gar keine eigentlichen Rankingfaktoren sind, sondern „Zwischenergebnisse“ der Berechnung. Also: aus der Teilmenge von, sagen wir mal, 50 Signalen errechnet sich der „Trust“ einer Seite. Aus den Trust-Signalen aller Seiten errechnet sich dann der Trust-Wert der gesamten Domain. Die Frage ist dann: fließen die 50 Signale in die Ranking-Berechnung dieser Seite für ein bestimmtes keyword mit ein? Oder ist es nur einmal der Trust-Wert der gesamten Domain?

Kurzum, drei Thesen zu den Rankingfaktoren

  • Die „Hauptranking“-Faktoren sind nach wie vor nur sehr wenige, egal wie viele hunderte von potentiellen Signalen noch ins Rennen gebracht werden.
  • Ein großer Teil der Signale fließt nicht in die Ranking-Berechnung einzelner Seiten, sondern in die Berechnung von übergeordneten Ranking-Faktoren wie Trust oder Authority.
  • Entscheidend für den Google-Algorithmus ist nicht die Anzahl der Faktoren und Signale, sondern die Beziehung, in der sie zueinander stehen.

Der Kern des Google-Algo ist nicht eine Art Liste von Faktoren, die addiert oder multipliziert werden. Der allergrößte Teil des Google -Algorithmus besteht in der Definition von Beziehungen.

Was meint ihr?

17 Gedanken zu „Die Beziehung zwischen den Ranking-Faktoren

  1. Ich denke, es ist einfach effektiv nicht zielführend, wenn man sich mit einer Liste von 200, 300 sog. Rankingfaktoren zermürbt. Die grundsätzlichen Haupt-Ranking-Elemente einer Website sind weiterhin nur bei einem Bruchteil aller Websites „implementiert“ (Seitentitel als Beispiel), und deshalb werden diese auch in 2011 kaum ersetzbar sein.

  2. Ich denke auch, dass der Algo nicht nur stupide ne Liste an Faktoren und Signalen abarbeiten. Das würde auch überhaupt nicht im ganzen System funktionieren. Und bestimmte Faktoren in Gruppen zusammenzufassen, die Zwischenwerte bilden ist allein aufgrund von der Effektivität wohl schon von Nöten.

    Wirklich durchschaubar würde der Rankingalgo wahrscheinlich nicht einmal, wenn die einzelnen Faktoren offen liegen würden. Da es wohl wirklich eher drauf ankommt, wie die Faktoren zueinander stehen und kombiniert werden. Das wiederum im Kontext zu anderen Signalen (wie du das mit Spam Links schon beschrieben hast).

  3. Ich gehe ebenfalls davon aus, dass der Google-Algorithmus sich aus graduellen Beziehungen der einzelnen Signale untereinander zusammensetzt. Da aber bekanntlich einige Signale einen höheren Stellenwert einnehmen als andere, sind alle Tests, die es einem ermöglichen, genau dieses hierarchische Beziehungsgeflecht der einzelnen Signale sukzessive zu erschließen (Ausschlussverfahren, Split A/B, multivariat) am aufschlussreichsten.

    Das Ergebnis einer solchen Untersuchung stellt dann eine priorisierte, in ihrer Wichtigkeit abgestufte Zusammenstellung der relevanten Ranking-Signale dar, was einer methodischen Herangehensweise bei der Suchmaschinenoptimierung prima in die Hände spielt…

    … wobei es nicht leicht ist, ein Testszenario mit 1000 „likes“ oder „retweets“ auf die Beine zu stellen – das geht dann wohl am ehesten über „SEO-Crowdsourcing“ ;-)

  4. Ich würde sagen, daß Google bestimmte Faktoren mit einem Rauschen überlagert, um so keine eindeutig deterministische Analyse der Signale zu ermöglichen.

    Sicher sind einige Rankingfaktoren auch jahreszeit-, tageszeit oder wetterabhängig. So ranken z.B. Abendseiten bei gutem Wetter im Sommer besser als Vormittagsseiten bei Schnee im November. :-)

  5. 3 Anmerkungen:
    1) Die möglichen Learnings bzgl. der Relevanz bzw. Hierarchie und Interaktion der einzelnen Rankingsignale sind bei im Durchschnitt einer Algo-Änderung pro Tag (und x Verticals) sowieseo schnell Schnee von gestern und kommen ggf. auch alle auf unterschiedlichen Domains mit unterschiedlichen „Vorgeschichten“ und unterschiedlichem Konkurrenzumfeld zum Einsatz: Die Übertragbarkeit von Learnings (by Testing oder wie auch immer) ist in diesem Bereich schon ad hoc eingeschränkt.
    2) Wie Markus oben schon sagt: Noch viel häufiger als an up-to-date Know-How hakt’s mit der Umsetzung der altbekannnten und dauerhaft gültigen SEO-Basics.
    3) Selbst wenn das Know-how vorhanden und auch der Wille zur Umsetzung da ist: Für viele stellt sich trotzdem immer wieder die Frage mit Blick auf offpage: „Woher Links nehmen, wenn nicht stehlen“, und wenn es nur an der Zeit mangelt, regelmäßig neue Contents zu publizieren. Von daher halte ich den Praxisnutzen von „Rankingfaktor Rankings“ auch eher für eingeschränkt.

  6. Ich halte deine Einschätzung für größtenteils nicht ganz richtig, bzw. ist der Blick nicht der eines KI-Spezialisten.

    1) Es stimmt, dass es nur ein paar relevante Rankingfaktoren gibt. Der Einfluss der Rankingfaktoren ist exponential verteilt http://de.wikipedia.org/wiki/Exponentialverteilung: fünf/sechs sehr relevante und andere, die einen de facto nicht messbaren Einfluss haben. Beispielsweise kann ein guter Backlink wahrscheinlich das Ranking weit mehr verbessern als die 200 geringsten Ranking-Faktoren, auch wenn sie alle bestmöglich sind.
    2) @Schnurpsel Google hat so viele verschiedene Rankingfaktoren, so viele Daten, sodass ein deterministisches Berechnen von Außen ohnehin nicht möglich ist, da man dafür die exakt gleichen Daten wie google bräuchte. Deshalb muss google auch kein geschäftsschädigendes Rauschen hinzufügen.
    3) Die Beziehung der Faktoren macht nur dort Sinn, wo sie eine Beziehung haben. Das heißt, du hast recht, dass nicht 200 Spamlinks per se eine Seite abschmieren lassen, sondern 200 spam-links ohne gute links. Facebook wird nicht aus den serps geschmissen, weil jemand mal eben 200 spam-links setzt. links werden in ihrer Gesamtheit betrachtet, das verstehen viele z.B. im Abakus-Forum nicht. Hier werden einzelfaktoren(die einzelnen Links) kombiniert betrachtet. Du hast aber unrecht, wo es um Faktoren geht, die nichts miteinander zu tun haben. Hier sind es eben Faktoren, also Werte, die zu einem Gesamtscore multipliziert werden. Z.B. würde ich davon ausgehen, dass der Seitentitel und Vorkommen im Text getrennt voneinander einfließen. Keyword ein Mal im Text sorgt für eine Erhöhung des Keyword-Scores um den Faktor 1,37 und Keyword im Seitentitel sorgt für eine Erhöhung um 3,67. Zusammen also um 5,0279. Es erschließt sich mir nicht, warum das Zusammen jetzt einen anderen Faktor ergeben soll.
    Also eigentlich ist es simple Wahrscheinlichkeitstheorie: Faktoren, die unabhängig von einander sind können einfach multipliziert werden, abhängige nicht.

  7. Ich lese nun schon seit Jahren in der SEO-Szene mit. Da erfährt man von vielen, vielen möglichen Ranking-Faktoren bis hin zu ausgefeiltesten Theorien auf seitenlangen Manuskripten. Allein die Beweisbarkeit fehlt meist. Auch die hier angesprochenen Beziehungen zwischen den Faktoren haben ihren Ursprung in logischem Denken, nicht in reproduzierbaren Tests der Suchergebnisse. Sie können damit sowohl falsch als auch richtig sein.

    Bis zu einer gewissen Tiefe wird man aus der Beobachtung von Suchergebnissen Aussagen zu den Ranking-Faktoren machen können. Bei Links, menschenlesbaren URLs, Title Tags, Duplicate Content etc. ist klar, dass das Top-Faktoren sind. Bei den von anderen Kommentatoren angesprochenen Faktoren mit kleinem Einfluss wird das schon schwierig, jeder gewichtigere Faktor kann die Beobachtung verzerren.

    Ich bin der Meinung, dass man vom Google-Algorithmus überhaupt maximal ein Modell erstellen kann, das die meisten Phänomene relativ sicher abbildet. Ein Re-Engineering mit am Ende zu 100% stimmenden Aussagen auch zu den kleinsten Faktoren ist kaum möglich.

  8. Man sollte sich weiterhin auf die Top Optimierungsmöglichkeiten konzentireren, also title etc. Alles andere sind dann Dinge, mit denen man sich beschäftigen kann, wenn die Seite bereits in den Top 3 rankt, sozusagen das Feintuning zum absichern um noch das letzte Qäuntchen Googlemunition zu verstreuen.

  9. Der Artikel ist ein guter Denkanstoß. Grundsätzlich würde ich aber sagen, dass es, wie oben schon genannt, mehrere Hauptfaktoren gibt, und entsprechend kleinere, die dann das Ranking entsprechend nachhaltig stärken können.

    Der wohl wichtigste Punkt ist immer die Onpage Optimierung. Denn aus Sicht des Suchenden heraus ist das der Faktor, der dafür sorgt, dass überhaupt gelesen wird.
    Und einer der maßgeblichsten Faktoren, der Onpage Optimierung, nach Title, Überschriften etc. ist die Interne Verlinkung.

    Ich staune jedes mal wieder darüber, obwohl es zu den Grundlagen gehört, wie groß die Wirkung ist.

  10. Ich denke auch, dass das Ranking selbst auch von einigen wenigen Faktoren abhängt. Alle anderen Faktoren dienen in Kombination der Manifestierung bzw. Festigung der Platzierung. Sorgen also für ein langfristiges gutes Ranking und hilft sich gegen die Seiten des Wettbewerbs durchzusetzen. Deswegen sind die Nebenkriterien und deren Kombonation es umso wichtiger um sich in den umkämpften Top Positionen zu etablieren.

  11. Es ist als Einsteiger wirklich spannend eure Diskussionen mitzulesen muss ich sagen. Aber letztlich landet ihr immer wieder an den Punkt, an dem die Fakten fehlen.

    Aber Spekulationen sind ja auch nicht verkehrt. Es ändert sich ja ständig maßgebliches bei Google, dass es schwierig macht eine „einfache“ Basis zum optimieren zu finden.

    Ich bin einfach mal gespannt wie es weiter geht und habe nun die Möglichkeit mein Wissen auf verschiedenen Seiten zu testen. Irgendwann kann ich dann auch meine utopischen bis realistischen Ideen und Ahnungen aus meinen Beobachtungen abstrahieren, hoffe ich. :D

  12. Es entspricht genau meinen Beobachtungen aus der Praxis, dass die Faktoren nicht einfach addiert werden, sondern dass der Zusammenhang wichtig ist. Es gibt Seiten mit sehr schlechter Linkstruktur (oder nur sehr wenig Links), die trotzdem vor Seiten mit einer guten Linkstruktur ranken. Ich denke es liegt meistens an den Inhalten der Seiten, eine Seite ohne interessante Inhalte wird es auch mit guter Keyworddichte, korrekten Metatags und guter Verlinkung schwer haben im Ranking ganz nach vorne zu kommen, weil Inhalte, zumindest nach meiner Beobachtung eine Art KO-Kriterium darstellen und die einzelnen Rankingfaktoren eben nicht addiert oder multipliziert, sondern nach einem unbekannten Algorithmus bewertet werden.

  13. Die Bildunterschrift „Im Nebel herumstochern“ kommt mir bekannt vor. So geht es zumindest mir oft mit Google. Ich vermute, es sind nur wenige Faktoren, die den größten Teil des Rankings beeinflussen. Die anderen Faktoren sind vielleicht ganz nützlich um herauszufinden, wer mit den sog. SEO Maßnahmen etwas übertreibt.

  14. Jetzt sollen es schon 300 Faktoren sein! Ich denke, dass die hellen Köpfe bei Google sich herrlich über die SEO-Szene und deren Gerüchteküche, Andeutungen etc. amüsieren.

Kommentare sind geschlossen.

Kommentare sind geschlossen.