Google Rankingfaktoren: Was könnte und was macht Google?

Google Rankingfaktoren: Was könnte und was macht Google?

Google Rankingfaktoren (Panda 4 Theorie)
Google Rankingfaktoren (Panda 4 Theorie)

Gretus hat bei Seo-United einen sehr interessanter Artikel gepostet: „Ist WDF*IDF am Ende Quatsch?“ OK, der Titel ist etwas provokant, aber was dahinter steckt, scheint mir sehr bedenkenswert: welche Rankingfaktoren nutzt Google wirklich? Es gibt eine Diskrepanz zwischen dem, was Google alles nutzen könnte – und dem, was Google wirklich nutzt. Ich möchte den Gedanken von Gretus noch etwas weiter spinnen, auch deshalb, um sich bewußt zu machen, dass man nicht nur an das hier und jetzt denken sollte.

Google Rankingfaktoren
Google Rankingfaktoren

Nehmen wir zum Beispiel die Diskussion um den Einfluss von Social-Media. Natürlich könnte Google – theoretisch – all diese Signale (facebook-Likes und -Shares, Retweets, Google+) für das Ranking nutzen. Nur: wie aufwändig wäre es, das in Echtzeit zu tun? Und wie unsicher wäre es, Ergebnisse von Twitter und facebook zu scrapen – so ganz ohne vertragliche Grundlage?

Oder der Punkt WDF*IDF, den Gretus anspricht. So schön die Formel an sich auch ist: aber in der Berechnung ist sie doch extrem aufwändig.

Auch Signale wie „semantische Textanalyse“ oder „offline-Branding“ sind in der Theorie sehr spannend – aber kann man das praktisch überhaupt umsetzen?

Genauso die Frage, inwiefern Google einzelne „Money-Keywords“ eingrenzt bzw. gesondert behandelt. Theoretisch ist das denkbar, aber praktisch? Wie viele Keyword-Gruppen will Google denn unterscheiden? Wer ordnet das – in all den verschiedenen Sprachen? Was ist mit den Grauzonen / Rand-Begriffen?

Ebenso der Abgleich der Links mit einer Disavow-Liste. Das wird vermutlich nur zu dem Zeitpunkt geschehen, wenn die Liste aktualisiert wird.

Was kann Google wirklich?
Was kann Google wirklich?

All das – und vermutlich noch viel mehr – kann Google unmöglich bei jedem einzelnen Aufruf für alle potentiellen Seiten jedes mal neu berechnen. Gretus spricht als Begründung von Umweltbewusstsein bei Google. Ich würde es viel schlichter ausdrücken: ein hoher Energieverbrauch ist vor allem zu kostspielig und würde den Gewinn erheblich drücken. Vielleicht ist es technisch auch gar nicht möglich, all das in Millisekunden zu berechnen.

Echtzeit-Berechnung der Rankings?

Wann werden die Rankings eigentlich berechnet? In dem Moment, in dem ein User einen Suchbegriff eintippt? Oder liegen sie als Listen bereits irgendwo rum? Da immer noch ein Großteil der Longtail-Suchanfragen unique sind, die so noch nie vorher gestellt wurden, muss es eine Echtzeit-Rankingberechnung sein. Nur: kann Google überhaupt alle potentellen Signale in Echtzeit auswerten? Ich glaube kaum. Ich vermute zum Beispiel, dass der Trust, also die Signale, die die Vertrauenswürdigkeit einer Website / Domain ausdrücken, nur in bestimmten Abständen google-intern aktualisiert werden. Das gilt wohl auch für weitere Signale wie die Autorität einer Gesamt-Domain. Diese „Meta-Signale“ fließt dann als gesetzter Wert in die Echtzeit-Berechnung ein, ohne dass er jedes mal neu berechnet wird. Vermutlich sind es dutzende, wenn nicht hinderte von „Mini-Signalen“, die solche Meta-Signale“ bestimmen.

Wie frisch sind die Rankingsignale?
Wie frisch sind die Rankingsignale?

Wie oft werden „Meta-Signale“ aktualisiert? Nach meiner Einschätzung spielt der pageRank hier eine Rolle, ähnlich wie beim Crawling-Budget: je höher der PageRank, um so häufiger werden die „turnus-mäßigen“ Meta-Signale aktualisiert. Beispiel: bei Spiegel.de wird der Trust täglich aktualisiert, bei einem Blog wie diesem nur einmal pro Woche, bei einer kleinen, neuen Website nur alle 2-3 Wochen (Werte aus der Luft gegriffen). Soll heißen: der Google-Algo operiert mit vielen Faktoren, die nur ab und zu (und nicht in Echtzeit) aktualisiert werden.

Solche Signale, die ev. nur im Wochen- oder Monatsturnus aktualisiert werden, dürfen aber nicht zu großes Gewicht haben, weil sie sonst laufend das gesamte Ranking durcheinander würfeln könnten. Außerdem darf die Aktualisierung nicht zeitgleich geschehen, weil es sonst wieder regelmäßig „Google-Updates“ gäbe. Vielmehr wird jede Domain individuell zu verschiedenen Zeitpunkten aktualisiert.

Drei Arten von Rankingfaktoren

Was heißt das nun? Ich vermute, es gibt drei Arten von Ranking-Faktoren:

  1. Signale, die kurzfristig und aktuell in die Rankingberechnung einfließen können. Dazu zähle ich vieles, was mit Links zu tun hat: z.B. Keyword-Dichte, PageRank, Ankertext Google+ (Likes), Klickrate, Rücksprungrate.
  2. Signale, die nur in bestimmten Abständen aktualisiert werden: z.B. Trustrank, Autorität des Google+ Autoren-Profils, Link-Semantik (Keyword-Relevanz der verlinkenden Seiten).
  3. Signale, die Google theoretisch auswerten könnte, weil sie die erforderlichen Daten gesammelt haben. Aber die konkrete Auswertung wäre juristisch oder vom Aufwand her zum jetzigen Zeitpunkt (!) noch zu uneffektiv.

Wie eingangs gesagt, vermute ich, dass vieles, was zum Thema semantische Auswertung eines Textes, auch hinsichtlich der WDF*IDF Analyse gehört, in die dritte Gruppe fällt.

Panda 4 Theorie

Panda 4 Update
Panda 4 Update

Vor diesem Hintergrund sehe ich auch das aktuelle Panda-4-Update: Google hat eine Reihe von „potentiellen Faktoren“ aus der dritten Gruppe in die zweite geschoben. So denke ich zum Beispiel, das nun auch Signale von Google Adsense mit einbezogen werden. Eventuell auch die Google+ Profil-Autorität, oder solche User-Signale, die Google aus der Verbreitung von Google-Chrome gewinnt. Kurz: Seit Panda 4 sind viele Signale, die das konkrete User-Verhalten auf einer Website wiederspiegeln, nun tatsächlich zu Ranking-Faktoren geworden.

Was folgt daraus?

Für Seo bedeutet das, dass man sehr genau unterscheiden sollte zwischen folgenden Dingen:

  • Auswertung des Ist-Zustandes
  • Maßnahmen für den kurzfristigen Erfolg
  • Maßnahmen für den langfristigen Erfolg

Vor allem der dritte Punkt ist wichtig. Denn: Google hat schon oft bewiesen, dass man auch die unmöglich scheinenden Dinge versucht – und fast immer eine Lösung findet. Und mittel- bis langfristig sinken die Kosten für Speicher- und Rechenleistung stetig. Was heute noch zu teuer ist, kann morgen schon Realität werden. Wer also heute versucht, den optimalen Content für seine Zielgruppe zu erstellen, und damit keinen kurzfristigen Erfolg hat, sollte nicht den Mut verlieren.

Nicht vergessen: das Gesagte ist alles Theorie und letztlich nicht bewiesen (beweisbar). Ich freue mich daher über Kritik, Anregungen oder anderslautende Thesen :-)

Google Rankingfaktoren (Panda 4 Theorie)
Google Rankingfaktoren (Panda 4 Theorie)

Weiterlesen?

22 Gedanken zu „Google Rankingfaktoren: Was könnte und was macht Google?

  1. Ein sehr interessanter Artikel, vielen Dank. Ich denke auch, dass Tust und/oder Autorität einer Domain eine sehr wichtige Rolle spielen. Anders lassen sich gewisse Effekte kaum erklären. Im Prinzip kann Google diese Werte täglich ohne großen Aufwand aktualisieren. Einen Teil der Daten in Form von Views, Clicks und den daraus resultierenden CTR-Raten sieht man ja mit täglichen Updates in den GWT. Die Daten liegen für alle Domains vor.

    1. Die Google Webmastertools sind ein gutes Stichwort, danke. Stimmt: alles, was Google da bereit stellt, wird offensichtlich täglich Google-intern überwacht. Nur: für das, was Google zur Beurteilung von Content-Qualität hinzuziehen könnte, gibt es nur relativ wenige Signale. Neben den „Content-Keywords“ ev. noch die „Ladezeit“, die Klicks bzw CTR beziehen sich ja „nur“ auf die Google-Suche.

  2. Woher kommt die Vermutung, dass Adsense-Signale einfließen?

    Die Verlockung ist natürlich riesig, Seiten mit Adsense sind für Google wertvoller als andere. Aber ob man diese Grenze überschreitet?

    1. Ich habe festgestellt, dass bei meinen Seiten, die nach dem Panda-4 Update deutlich besser ranken, fast überall die Adsense-Banner im Footer mehr abwerfen als die im Header – oder zumindest relativ gut laufen. Das wäre für mich – logisch gedacht -, ein Signal, dass viele User den Artikel bis zum Ende lesen – was für guten Content spricht.
      Ist aber natürlich bloß eine Vermutung.

  3. Hi Martin,

    danke für die Erwähnung, hätte man glatt ja mal auch unseren Brand bzw. meinen Namen verlinken können! Du als Experte im Bereich der Bildersuche müsstest am ehesten eigentlich noch erklären können, wie die Algorithmen bei Google genau funktionieren. Ich persönlich habe das Gefühl, dass Google seit geraumer Zeit nicht mehr so einen starken Fokus darauf hat, stets die besten Ergebnisse zu liefern, sondern die Suche an sich bzw. die Top 10 (inkl. Ads) zu einer Art `Sucherlebnis´ zu machen, im Zuge dessen ‚Genusses‘ das gewünschte Ergebnis beinahe fast automatisch generiert wird.

    Es scheint fast so, als würde Google das allgemein Beste für eine bestimmte Suchanfrage in Frage kommende Ergebnis bereits wissen, dieses als Endziel einer neuen Suche danach zunächst einmal voraussetzen und den gerade danach Suchenden irgendwie dorthin zu leiten versuchen. Man `backt´ User ab, wo sie sich gerade bestmöglich vom Wissensstand her befinden, klingt hart ist aber womöglich so…

    Grüße

    Gretus

    1. Name ist verlinkt :-)
      Ja, dieser Anspruch von Google ist erschreckend. Wobei das mit den „individualisierten Ergebnissen“ ja wieder zurückgedreht wurde – zumindest wenn man es nicht aktiviert.

  4. Dein Gedanke ist durchaus nachvollziehbar, dass nicht alles in Echtzeit berechnet wird, weil das zuviele Resourcen verbrauchen würde. Auch dürften alle darüber übereinstimmen, dass der Trust wichtiger wird, ob sich das nun im Google+ Profil oder PageRank ausdrückt. Ich kann mir aber beim besten Willen nicht vorstellen, dass die Frage ob Adsense eingebaut worden ist oder nicht ein Rankingfaktor ist, geschweige denn, welcher Adsense Banner an welcher Stelle steht und wie oft er angeklickt wird.

    1. warum? Sind doch letztlich verlässliche Werte. Ich sage ja nicht, dass Seiten mit Adsense besser ranken. Aber wenn Google feststellt, dass ein Banner im Footer häufig geklickt wird, dann deutet das doch darauf hin, dass die Besucher bis zum Ende scrollen. Aber: natürlich kann man zurecht fragen, ob diese „Footer-Position“ nicht auch manipuliert werden könnte (so dass der Banner in Wirklichkeit doch oben zu sehen ist).

      1. > Aber wenn Google feststellt, dass ein Banner im Footer häufig geklickt wird, > dann deutet das doch darauf hin, dass die Besucher bis zum Ende scrollen.

        Diensen Ansatz finde ich sehr interessant. Wie genau findet Google denn heraus, ob eine Seite den Usern gefällt oder nicht? Vielleicht über solche Techniken.
        Heisst, was unterscheidet den Content auf einer Seite, die in adsense(unten!) gut performed mit den anderen.

        Hätte ich glatt Lust aus zu werten und ein paar Tests zu machen um heraus zu finden, ob das einen nach vorne bringt

  5. Einige gute Überlegungen. Ich habe auch oft das Gefühl, dass es doch eine ziemlich grosse Schere zwischen den Dingen, die Google gerne können würde und Dingen die Google kann gibt. Sicherlich spielt die Entwicklung Google in die Karten und dadurch sind immer mehr Faktoren in Echtzeit abzufragen. Hanns Einwurf mit den WMT finde ich auch sehr gut und nachvollziehbar.

  6. Ja leider läßt sich Google wie immer nicht in die Karten schauen. Die GWT Daten finde ich auch ganz interessant und man kann gut sehen, wie Google deine Seite im Groben einschätzt. Was tatsächlich Auswirkung auf das Ranking hat weiß man ja leider nicht. Ich finde auch die Anzeige deines eigentlichen Rankings (Keywords) ein wenig merkwürdig. Stimmt nie.. vielleicht sind die Daten auch zeitversetzt.. oder jemand hier kann mich aufklären ;o)

    1. naja, die GWT sind auf jeden Fall drei Tage alt – und immer nur drei Monate zurückliegend. Das macht es auch schwierig, sie für langfristige Analysen zu nutzen.

  7. Sehr starker Beitrag – vielen Dank! Zum Thema Trust (und PageRank): Wenn man sich die Auswirkungen von Panda 4.0 im Gesundheitsbereich anschaut, dann ist es schon verwunderlich, dass gerade dieser Trust scheinbar an Bedeutung verloren hat. Warum sonst sollten Portale wie gesundheit.de, medizinfo oder lifeline derart massiv steigen? Vor allem gesundheit.de sieht so aus, als hätten sie sich sklavisch an den Grundsätzen der SEO-Lehrücher aus dem Jahre vor 2010 gehalten (auffallend die strikte Verwendung der Keywords in den h2-Tags – ist natürlich richtig, aber die Grenzen zum Keyword-Stuffing sind schon fließend). Darüber hinaus gibt es keine Medienintegration, die Aufmacher-Bilder haben nur eine Größe von 200px × 133px, kein Alt-Tag, kein individueller Bild-Dateiname (usw. usw.) ABER: Die Texte sind lang.
    Aber zurück zum Thema Trust: Auch hier ist der PageRank zwar OK, aber die Brandsearches sind bei Onmeda, Netdoktor oder der Apotheken Umschau um einiges höher (und der PR z.T. auch). Mir geht es jetzt aber auch nicht um gesundheit.de, ich meine aber an diesem Beispiel zu erkennen, dass der Trust deutlich an Bedeutung verloren hat, und eher klassische Aspekte NOCH stärker (wieder) in den Fokus rücken (Seitenstruktur/ Verzeichnistiefe/ Interne Verlinkung, Textlänge und „Keywordstuffing). Zum Thema Textlänge scheint es Google inzwischen auch eher zu honorieren, wenn der Content auf einer Seite liegt und nicht auf mehreren (rel=next, rel=prev scheint inzwischen weniger zu interessieren). Das scheint ja auch bei lichtmikroskop.net der Fall :-)

  8. Hi Martin,
    schönen Dank für die spannende Einschätzung. Vielleicht deuten die Google-Suchvorschläge in diese Richtung: Nimmt man einen der Vorschläge beim Eintippen in den Suchschlitz, gibt’s die kostengünstigen vorgefertigten Suchlisten, bei unbekannten Suchanfragen wird neu berechnet – auch nur ne Idee.

    P. S.: Oben schreibst Du „sematische“, Du meinst sicher „Samentische“ :-)

  9. Ich arbeite hauptsächlich im SEM-Bereich und (selbst) da ist es so, dass Google (inzwischen) den Longtail praktisch links liegen lässt. Aus Kapazitätsgründen. Das sieht in der Praxis so aus, dass man hunderte Longtail-Keys einbucht und bei 80% davon den Hinweis „geringes Suchvolumen“ erhält. Mit der Folge, dass Anzeigen nur zu weniger speziellen Keywords geschaltet werden.

    Auch der Keyword-Planer zeigt (im Gegensatz zum früheren Keyword-Tool) Daten nur noch zu Keywords mit einem SV>10 an.

    Wenn Google also nicht mal in der Lage bzw. Willens ist, bei der Cash-Cow die Algorithmen auf Longtail-Ebene einzusetzen, dann darf man mit hoher Wahrscheinlichkeit davon ausgehen, dass das bei der Suche ebenso ist.

    In der Praxis ist es wahrscheinlich so, dass Google die Anzahl der Parameter, die in das Ranking einfließen, dynamisch an das Suchvolumen anpasst. Häufig gesuchte Keywords werden mit aufwändigeren Algorithmen und häufiger ausgesteuert, der komplette Longtail wird vermutlich nur mit einem vergleichsweise rudimentären Algorithmus bedient.

    1. sehr interessante These, danke dafür. Ja, möglicherweise nutzt Google für Longtails einen anderen (einfacheren) Algo. Muss ich mal drüber nachdenken :-)

  10. Google ist in der tat recht einfach gestrickt…. Nimm mal irgend ein Keyword, kopiere zum Keyword die komplette erste Seite von Google und stell dies online ;)

    Ich habs mit Blogger getestet und hab nur noch gestaunt.

  11. Hallo Martin.
    ich habe mal gelesen, dass ein hoher Prozentsatz der täglichen Eingaben bei Google noch nicht in der Form gesucht wurden. Um dagegen vorzugehen versucht Google vor allem im Long Tail solche Kombinationen selbst zu erstellen um die Datenbank automatisch zu erweitern.

    Ich schätze Suchanfragen von Usern die noch nicht eingeben wurden und nicht im Fundus von Google sind, sind extrem selten durch dieses Prinzip. Damit kann auch auf einen vereinfachten Algorithmus wie von Dir angesprochen verzichtet werden.

Kommentare sind geschlossen.

Kommentare sind geschlossen.