Der Rankingfaktor „Frequency“ – oft unterschätzt

Der Rankingfaktor „Frequency“ – oft unterschätzt

Rankingfaktor Frequency
Rankingfaktor Frequency

Artikel über Rankingfaktoren werden immer seltener. Das mag daran liegen, dass viele dieser Faktoren, die Google zum Errechnen des Rankings in den Suchergebnissen benutzt,  inzwischen bekannt und als Thema ausgereizt sind. Es spielt sicherlich auch eine Rolle, dass sie  immer komplexer miteinander verzahnt sind, so dass Ursache und Wirkung kaum noch eindeutig zuzuordnen sind. Ein Faktor ist aber nach meiner Einschätzung noch nicht ausreichend gewürdigt worden: die „Frequency“. Gemeint ist damit die Frequenz, mit der neue Inhalte auf einer Website hinzugefügt werden.

Ein paar Gedanken zum Google-Algorithmus

Google Rankingfaktoren
Google Rankingfaktoren

Ob Google nun 200 oder 1000 Rankingfaktoren hat, ist eigentlich uninteressant. Wichtig ist, dass Google mit jedem Faktor eine „Stellschraube“ hat: die Wichtigkeit des Faktors kann zu- oder abnehmen. In meiner „Theorie“, wie die Google Suche funktioniert, sind die von Google oft kommunizierten „Algorithmus-Änderungen“ letztlich nur minimale Anpassungen dieser Stellschrauben. Da sinkt im Laufe der Zeit der Faktor „Wichtigkeit von Backlinks“ langsam (sehr langsam) ab, und im Gegenzug werden onpage-Faktoren wichtiger. Oder der Einfluss des Google+ Autorenprofils steigt etwas an, und gleichzeitig nimmt die Bedeutung der Domain-Authority ab. Es sind eher 200 kleine Waagen, die alle miteinander verbunden sind – und Google verteilt laufend kleinste Gewichte, mal hier und mal da – und alles verändert sich …

Rankingfaktor „Frequency“

Doch nun zum oben erwähnten Rankingfaktor Frequency. Schon seit einigen Monaten zeigt sich, dass Seiten, die unverändert liegen bleiben, langsam abrutschen. Ein ehemals erfolgreicher und angesehener Blog, der seinerzeit gute Rankings hatte, fällt nach einigen Monaten der Untätigkeit ins Bodenlose. Die Artikel, die einst Top-Positionen inne hatten, sind natürlich nicht schlechter geworden. Und die Seiten, die dann nach vorne drängen, sind häufig kaum besser.

Der Grund ist der Frequency-Faktor. Eine Seite, die keine neuen Unterseiten nachschiebt, verliert ein wichtiges positives Signal. Es ist also für ein dauerhaft gutes Ranking unbedingt erforderlich, dass man neue Seiten aufbaut. Interessanterweise ist die Keyword-Relevanz der neuen Seiten nach meinen Beobachtungen weitgehend unerheblich. Wenn eine Domain also mit „Äpfeln“ rankt, kann sie auch neue Artikel zum Thema Birnen aufbauen – entscheidend ist, dass regelmäßig etwas Neues hinzukommt. (Man sollte aber natürlich – aus anderen Gründen – überwiegend nur neue Seiten aufbauen, die inhaltlich weitgehend miteinander verbunden sind).

Google Freshness - oder auch nicht
Google Freshness – oder auch nicht

Damit es keine Verwechslung gibt: ich meine nicht „Freshness“. Denn bei der Google Freshness steht im Vordergrund, tatsächlich aktuelle Artikel zu einem Thema zu finden und im Ranking vorne zu zeigen. Aufgrund des Freshness-Faktors kann man gg. bei einem einzelnen Keyword vorne mitmischen, wenn man denn zu einem aktuellen Ereignis einen guten Artikel hat, der alle relevanten Freshness-Signal aussendet. Nein, mit Frequency meine ich einen Faktor, der sich quasi auf die gesamte Domain und auf alle Rankings auswirkt.

Wie regelmäßig ist regelmäßig?

Stellt sich natürlich die Frage: welche Frequenz ist denn die Beste? Muss es jeden Tag ein neuer Artikel sein? Oder einer pro Woche? Nach meiner Einschätzung hängt das von den Wettbewerbern ab. Es gibt Keywords, bei denen Domains auf den ersten Plätzen sind, an denen sich kaum etwas ändert. Da reicht es dann, alle 2 – 3 Wochen einen neue Seite aufzubauen. Bei anderen Keywords braucht es mindestens einen Artikel pro Tag, um gute Platzierungen halten zu können.

Aufbauen, ausruhen, abkassieren – war gestern

Flugzeugträger online - Nischenprojekte
Flugzeugträger online – Nischenprojekte

Ich halte die schleichend zunehmende Wichtigkeit des Faktors Frequency für sehr beachtenswert. Bis vor einiger Zeit galt: man baut ein neues Projekt auf, optimiert es auf die vorderen Plätze in der Googlesuche – und lässt es dann einfach laufen. Das funktioniert nicht mehr bzw. immer weniger. Im Sichtbarkeitsverlauf ist das die typische langsame Abwärtskurve. Es ist also keine Strafe, sondern ein zunehmend schwächer werdendes Signal. Man verliert nicht in kurzer Zeit viele Plätze, sondern sehr schleichend und langsam Platz für Platz. Auf die Dauer ist der Verlust aber genauso groß wie bei einer Penalty.

Fazit: noch mehr Arbeit

Im Grunde ist es folgerichtig, was Google da macht. Vertrauen muss man sich erarbeiten – und zwar nicht innerhalb weniger Wochen – sondern dauerhaft und immer wieder. Guter Content – von dem immer alle reden – reicht nicht. Zusätzlich ein paar qualitativ hochwertigste Links drauf, reicht auch noch nicht. Oder doch: es reicht vielleicht für ein paar Wochen – aber wer nicht weiter aktiv an der Seite arbeitet, büßt nach und nach Plätze ein. Die berühmten „Nischenseiten-Projekte“ werden es in Zukunft immer schwerer haben – und den großen Brands, Portalen und Newsseiten wird der Frequency-Bonus immer mehr zugute kommen.

Wie seht ihr das?

  • Andreas Graap hat übrigens gerade einen tollen Artikel geschrieben: der „30 Tage Plan“ für mehr Traffic. Sehr lesenswert mit vielen guten Tipps – aber eines fehlt da, denke ich: nach 30 Tagen geht die Arbeit erst so richtig los :-)
  • Auch Hanns Kronenberg hat gerade einen spannenden Artikel veröffentlicht, in dem es um „Website-weite“ Faktoren geht. Lesen!
Rankingfaktor Frequency
Rankingfaktor Frequency

Weiterlesen

35 Gedanken zu „Der Rankingfaktor „Frequency“ – oft unterschätzt

  1. Hallo Martin,

    guter Artikel, ich beobachte die gleiche Entwicklung wie du. Google will ständig neues Futter und gleicht sich damit imho einfach nur der menschlichen Empfindung an. Wenn zum Beispiel monatelang keine neue Ausgabe meiner Lieblingszeitschrift erscheint, dann wende ich mich höchstwahrscheinlich anderen Publikationen zu. Dieses ganz natürlich Verhalten will Google mit dem Filter wohl nachbilden.

    Gruß
    Björn

    1. Diese Logik ist aber nur auf Themen anzuwenden, für die du dich immer wieder interessierst, wäre also ein relevanter Faktor für individualisierte Suchergebnisse.
      Ein Großteil der Suchen findet aber (für den einzelnen User) zum ersten Mal statt. Daher sind regelmäßige Publikationen im ersten Schritt für diesen User weniger interessant. Zumindest bei informationsgetriebenen Suchanfragen.
      Ich sehe das eher wie in Martins Fazit als eine Art „indirekter“ Brand-Faktor und – zumindest solange Google Inhalte nicht wirklich auf ihre Richtigkeit überprüfen kann – also Schutz davor, inzwischen veraltete Informationen zu listen.

  2. Aber daran sieht man, wie menschlich Google den Inhalt sieht. Genauso geht es dem Interessenten doch auf. Gibt mir eine Webseite kein neuen Informationen oder nur sehr unregelmäßig, dann werde ich doch nicht wiederkommen auf die Seite. Das lässt sich auf jede Lebensform übertragen. Egal ob im TV oder im Supermarkt … wenn, das was wir gerne Konsumieren, nicht regelmäßig passiert, sind wir doch weg.

    Oder sehe ich es Falsch?

    1. naja, andererseits gibt es auch „zeitlos“ gute Inhalte. Die werden in den letzten Monaten eher nach unten durchgereicht, und andere, in meinen Augen eher weniger gute Kopien, drängen nach vorne.

  3. Hallo Martin,

    Guter Artikel und gutes neues Thema, das so noch nicht aufgegriffen wurde. Was ist aber mit Seiten, die sehr guten Inhalt bieten, der einfach nicht erneuert werden muss, also nicht alt wird? Oder anders gefragt, welche Möglichkeit besteht für Google aus stehenden, sich nicht veränderten Seiten Signale zu ziehen?

    Viele Grüße

    Elke Greim

    P.S. Ja, zwei gute deutsche Artikel seit gestern, deiner und der von Andreas Graap. Ach so ja und Sistrix heute, das war auch gut : )

    1. Das scheint mir genau das Problem zu sein: alte Seite, die immer noch gut sind, rutschen nach unten. Onpage-Faktoren gibt es natürlich zuhauf, gerade im Zusammenhang mit WDF*IDF-Thema sind die Onpage-Faktoren von vielen sehr genau untersucht worden.

  4. Hm. Neben Google als Gamemaker fehlt da noch eine wichtige Komponenten: „Alle anderen“. ;-)

    Selbst wenn Google nichts, gar nichts an den Methoden zur Ranking-Berechnung ändern würde, ist ein Artikel immer nur so gut, wie es vom Kollektiv zugelassen wird, die ebenfalls darauf optimieren. Die Welt um uns herum ruht nicht, daher muss auch jeder Online-Inhalt kontinuierlich beweisen, dass er wettbewerbsfähig ist.

    Deshalb stelle ich z.B. ab und zu gerne die Frage, ob ein Unternehmen über die Ressourcen verfügt, 500.000 Online-Inhalte kontinuierlich im Wettbewerb zu halten, wenn sie schon für sich in Anspruch nehmen möchten, dafür auch gut gefunden zu werden.

    1. Du meinst letztlich die User-Signale wie Verweildauer oder Absprungrate, richtig? Die will ich überhaupt nicht in Frage stellen – sicherlich haben die auch einen großen Einfluss.
      Weitergedacht bedeutet das, dass Seiten, die länger im Ranking vorne standen, automatisch absacken, wenn die potentielle Zielgruppe sie bereits kennt und deshalb nicht mehr anklickt. Auch eine gute Überlegung :-)
      Um beim Bild zu bleiben: nehmen wir doch erst mal – nur zur besseren Anschaulichkeit – 50 statt 500.000 Seiten. Wenn ich Dich richtig verstehe, meinst Du, dass man alle 50 Seiten permanent auf dem Laufenden halten sollte, um sie vorne zu halten, oder?
      Ich würde denken, dass man mit neuen Seiten, die man nachschiebt, die 50 auf ihren guten Positionen halten kann, und zusätzlich noch die Chance hat, weitere Seiten zu neuen Keywords vorne zu platzieren.

      1. Äh, nein. Ich meinte „alle anderen“, die auch gerne auf Platz 1 stehen möchten.

        SEO ist kein „Kampf gegen Google“. SEO ist die Positionierung im Kollektiv.
        Wenn sich andere verbessern während Du Dich nicht veränderst, wirst Du neu positioniert.

        Wir haben das 2009 mal im Kredit-Bereich spaßeshalber durchexerziert: Wenn Du verdammt viele, intensive Online-Inhalte in den Index haust, die den Term „Kredit“ semantisch schlichtweg anders verorten, wirbelt es in den Top 10 ordentlich was zusammen.

        Das „Blördsch“-Experiment beim letzten SEO-Contest hat gezeigt, dass diese kleine natürliche Fehlfunktion nicht wirklich ausgemerzt ist.

        In erster Linie sind „alle anderen“ für Dein Ranking bestimmend. Google stellt „nur“ die Plattform und die Regeln bereit.

  5. Hallo,
    schöner Artikel. Das ist auch, was ich zunehmend beobachte. Grunsätzlich ist diese Vorgehensweise von Google sicher nachzuvollziehen und passt sicher für viele Webseiten (Blogs, Newsseiten, usw.) Wie sieht es aber bei Onlineshops aus? Es besteht oft nicht die Möglichkeit in regelmäßigen Abständen neue Inhalte hinzuzufügen – oft geht das nur, wenn man ein neues Produkt aufnimmt. Was also am besten machen?

  6. Google will empathisch wirken. Kommt nichts „neues“, so ist der Sichtbarkeitsverlust eine Konsequenz wie in der realen Welt. Aber ich würde nicht pauschal sagen, dass „Frequency“ dabei der einzige Faktor ist. Es gibt Nischenseiten, die eben nicht sofort ins Nirvana fallen, wenn sie nicht aktualisiert werden. Viel mehr kann ich mir vorstellen, dass Google dabei das Userverhalten (z.B. Analytics-Daten oder Eingabe des Brands/URL in die Suchmaske) auswertet und auf einen Abfall in diesem Verhalten auch reagiert.

  7. Schöner Artikel Martin, allerdings sehe ich das nicht als pauschal gültig, da ich denke das Google durchaus zwischen Suchanfragen bzw. Themen, die zeitlos sind und Themen die eine zeitlichen Faktor beinhalten unterscheidet. Also den Faktor auch unterschiedlich gewichtet.

  8. Hallo,

    ich finde diese Überlegungen sehr interessant, da sie mir auch schon seit geraumer Zeit durch den Kopf gehen. Es stellt sich für mich die Frage, ist das eine generelle Regel die Google jetzt einführt (oder eingeführt hat) oder ist das abhängig von der Nische bzw. von der Konkurrenz. Vielleicht spielt ja auch die Technik eine Rolle?

    Ich habe ein Blog, was sich, als ich regelmäßig Artikel veröffentlichte, langsam aber kontinuierlich nach oben entwickelte. Aus beruflichen und privaten Gründen hatte ich nicht mehr genügend Zeit mich um das Blog zu kümmern. Es erschienen und erscheinen hin und wieder mal Artikel, aber ziemlich selten. Ich verlor etwa 80 % meines Traffics und das Blog sank stark in den Rankings.

    Außerdem besitze ich eine kleine Nischenseite, die nur aus 5 einfachen HTML-Seiten besteht. Diese Seite steht mit zwei Keywörtern seit 1,5 bis 2 Jahren kontinuierlich auf Platz 1 bei Google. Ich habe seit dieser Zeit nicht an der Seite gearbeitet. Zugegeben, es handelt sich um eine kleine Nische und die Konkurrenz ist (noch) nicht so groß.

    Jetzt stellt sich natürlich die Frage, ob die unterschiedliche Reaktion von Google mit der Software zusammenhängt? WordPress als Blogsystem oder die Nischenseite mit einfachem HTML ohne Firlefanze oder aber es hat damit zu tun, dass es eine kleine Nische mit wenig Konkurrenz ist. Grübel:-)

    Schöne Grüße
    Volker

  9. Ich denke ein wichtiger Faktor ist auch einfach das Thema und die Aufmachung der Seite.
    Google wird sicherlich in der Lage sein zu erkennen, ob es sich bei dem gewählten Thema und der Technik dahinter um ein Projekt handelt, dass wie eine Nachrichtenseite allein aus Prinzip permanent geupdatet werden muss oder nicht.

    Wenn man dagegen eine statische kleine Seite ins Rennen schickt, wird Google erkennen, dass es sich hierbei um keinen Blog handelt (der ja eigentlich voraussetzt, dass man regelmäßig schreibt) und die Seite dementsprechend einordnen.

    Wenn dann auch noch das Thema mit aktuellen Geschehnissen eng verknüpft ist und die Seite so gut wie gar nicht aktualisiert wird, wird es zu Verlusten in den Rankings kommen.

  10. Solche Beobachtungen könnten ganz verschiedene Ursachen haben. Wenn man sich die Rankings Deiner Website einmal als Fahrradreifen vorstellt, dann entweicht ganz langsam immer etwas Luft. Das kann daran liegen, dass Wettbewerber im Laufe der Zeit für das eine oder andere Keyword besser optimieren bzw. bessere Inhalte veröffentlichen, oder Google fesstellt, dass die Nutzersignale (temporär) für ein Ranking nicht besonders gut sind und es Dir wegnimmt. Ohne neue Artikel kann man diese verlorenen Rankings nicht mit neuen Rankings ausgleichen und hat irgendwann einen „Ranking-Platten“. Daher regelmäßig Luft nachpunpen.

    Eine andere Erklärung wäre der Faktor Traffic. Neue Artikel bringen zusätzliche Besucher, alleine weil auch die Stammleser mal wieder einen Grund haben vorbeizuschauen und in den sozialen Medien mal wieder darüber geredet wird. Ohne neue Artikel sinkt hingegen der Traffic. Falls Traffic ein Rankingfaktor ist, verliert man dann Positionen, bekommt noch weniger Traffic usw.

    Nur um mal ein paar Ideen für Ursachen in den Raum zu werfen …

  11. Deinem Fazit muss ich widersprechen: Gerade in diesem Rankingfaktor „Frequency“ sehe ich eine Chance für Nischenseiten. Seit gut einem Jahr betreibe ich eine Affiliate Seite und veröffentliche dort pro Monat maximal eine Hand voll Artikel. Zwar gibt es auch keine allzu starke Konkurrenz, doch Links werden auch nur spärlich aufgebaut und bisher haben sich Rankings und Traffic sehr gut entwickeln.

  12. Hallo Martin,

    dass Signale meiner Meinung nach altern bzw. schwächer werden, habe ich mal in diesem Beitrag beschrieben:http://www.trustagents.de/blog/linkwachstum-und-linkalter-als-rankingfaktoren

    was du mit „Freshness“ beschreibst ist m.M.n. nicht nur auf „neue Inhalte“ beschränkt. Freshness sind für mich alle aktuellen Signale, die auf bestehende Inhalte oder neue Veröffentlichungen eingehen und damit Suchmaschinen eine aktuelle Relevanz hinweisen.

  13. Jap, sehe och teilweise auch so. Hatte letztes Jahr auch bei einem bestimmten keyword sehr gut funktioniert und dan auf einmal nicht mehr. Aber kann natürlich auch alles an anderen Faktoren liegen.

  14. Ich sehe die Sache etwas weniger differenziert als du. Freshness wirkt sich nachdem nicht nur auf die 1 url aus sondern bringt wenn man konsequent „Nachfuettert“ der ganzen Domain ausgezeichnete Rankings – auch bei urls die seit 2-3 Jahren nicht mehr geaendert wurden.

    Uebrigens auch bei anderen Sprachen – englisch wird konsequent veroeffentlicht – schwedisch seit Jahren nicht mehr bearbeitet weil es den Mitarbeiter nicht mehr gibt. Trotzdem liegt die Domain unter google.se bei allen wichtigen Suchbegriffen auf Rang 1-5.

  15. Dieser Artikel entspricht nicht den google richtlinien ;-) die Aktualität spielt sicherlich eine (ge)wichtige Rolle im Ranking. Ok im Blog kann oder auf der Firmenwebsite kann ich mir das ganz gut vorstellen mit der Frequency, aber löst du das Problem im Onlineshop, reicht es da wenn neue Artikel angelegt werden.?

  16. Der Frequency Faktor ist glaub mittlerweile der wichtigste Faktor überhaupt und das ist auch gut so. Die ganze Keyword Optimierung sollte man ganz aus dem Ranking raus nehmen, weil damit zu viel Schundluder getrieben wird. Google sollte noch mehr wert auf den tatsächlichen Inhalt einer Webseite legen und Keyword Spam in Artikel abstrafen.

  17. Google ist sowieso eine Sache für sich, was gestern richtig war, ist plötzlich am anderen Tag nicht mehr gültig. Dies macht es schwierig, konstant auf guter Position zu sein. Aber jeden Tag muss man sein Bestes geben :)

  18. Hi,

    sehr guter Artikel, nur wie soll dies bei SEO-Seiten wie meine umgesetzt werden, oder gar bei einer statischen Produktseite? – Nicht an jede Art von Webseite lässt sich ein Blog-/ News-Bereich hängen…

    Ich freue mich auf deine Antwort :)

    VG
    Yannic

  19. „SEO ist kein “Kampf gegen Google”. SEO ist die Positionierung im Kollektiv.
    Wenn sich andere verbessern während Du Dich nicht veränderst, wirst Du neu positioniert.“

    So sieht es aus. Ich habe viele Onepager an denen ich seit Jahren nichts gemacht habe und die seit Jahren auf Platz 1 stehen.

  20. Wirklich guter Artkel. Ich sehe das genau so das die „alten“ Techniken noch immer funktionen, auch wenn nur beschrenkt. Aber mich würde wirklich interessieren ob Google die Aktivitäten auf Google+ wirklich so gut bewertet? Wenn Sie das machen dann finde ich das nicht ganz ok, denn dann verwendet Google seine Marktanteile um User für ihre Social Platform zu bekommen. Ich frage deswegen weil ich von Google+ garnicht als Portal halte…

    Gruß

    Joshi

  21. Ich habe da dennoch Bedenken was den Inhalt des Contents betrifft. Aktueller Content ist schnell produziert, aber ob der letztendlich Mehrwert hat oder hochwertig ist, steht auf einem anderen Papier. Wenn ich jetzt der Frequenzy wegen als Blogbetreiber gezwungen werde regelmäßig Content zu erstellen, dürfte der dann aber hin und wieder an Qualität missen lassen, schließlich hat man ja auch nebenbei ein aktives Berufsleben. Die Folge: das Netz wird mit noch mehr unnützen Inhalt zugemüllt. Hmm …

  22. Die Frage zu Freshness, die ich mir stelle ist, müssen dazu neue „ganze“ Seiten aufgebaut werden oder reicht es, wenn bestehende Seiten mit der Zeit immer mehr Content bekommen wie z.B. FAQ-Seiten oder Ratgeber Seiten auf denen immer mehr Fragen geklärt werden.

Kommentare sind geschlossen.

Kommentare sind geschlossen.