Überlegungen zum letzten Google „Core“ Update (Hummingbird-Update)

Überlegungen zum letzten Google „Core“ Update (Hummingbird-Update)

Google Update
Google Update

In den letzten Wochen wurden von vielen Webmastern Bewegungen in den Google-Suchergebnissen beobachtet, die über das Maß der normalen Schwankungen hinausgingen. Da Google hierzu nichts weiter kommuniziert, ist das Rätselraten groß. Was sind die Ursachen der Veränderungen? Klar will man das wissen, insbesondere, wenn die eigene Website abgerutscht ist. Im Folgenden ein paar Beobachtungen und Überlegungen von mir dazu.

Google-Phantom
Google-Phantom

Nach meiner Überzeugung handelt es sich beim „Core-Update“ um das, was bereits vor Jahren mit dem sog. Phantom-Update eingeleitet wurde. Ich weiß, dass John Müller das abgestritten hat – ich glaube ihm diesmal aber nicht :-) (Ohne dass ich damit sagen möchte, dass er wissentlich die Unwahrheit sagt, siehe dazu weiter unten).

Was hat es mit diesen ominösen Core- bzw. Phantom-Updates nun auf sich? In meinem „Google-Modell“ geht es dabei um erster Linie um User-Intention. Google analysiert demnach nicht nur seiten-spezifische Metriken wie Inhalt, Links, User-Verhalten etc (sog. Rankingfaktoren).

Die User-Intention

Phantom-Update Analyse
Phantom-Update Analyse

Neu hinzugekommen ist nun die Frage, welche (Such-) Intention wohl hinter einem Suchbegriff steht. Da Google (noch) nicht individualisierte Ergebnisse ausliefert, sondern nach wie vor weitgehend einheitliche Ergebnisse, geht es bei der User-Intention also nicht um echte Einzel-Interessen. Stattdessen nutzt Google seine ungeheure Datenfülle, um aus der Masse statistische Ableitungen berechnen zu können. Wie viele Menschen bevorzugen bei einem Begriff eher News, oder einen Shop, oder einen (Affiliate-) Ratgeber, oder Bilder, oder was auch immer. Welche Art von Seite und Inhalt wollen die User haben? Google kann anhand des Such- und Klickverhaltens Aussagen über die User-Intention ableiten.

Diese übergeordnete Analyse der User-Intention ist etwas prinzipiell anderes als der bisher bekannte Google-Algorithmus, der eben auf Rankingfaktoren basiert, die von Website-Signalen abgeleitet werden können. Weil die Website (Angebot) und die Suchanfrage (Nachfrage) zwei völlig verschiedene Dinge sind, muss Google sie nach und nach zusammenbringen. Bislang hat Google sich fast ausschließlich auf die Analyse des Angebots konzentriert – eben alles, was eine Website an Signalen bietet. Nun arbeitet man verstärkt den anderen Bereich auf: was will der User überhaupt? Hier das Schaubild, dass ich vor ca. einem Jahr dazu erstellt habe:

Google-Rank-Brain - Worum es im Kern geht ...
Google-Rank-Brain – Worum es im Kern geht … (gaaanz grob vereinfacht)

Wie das Zusammenführen der beiden Bereich genau abläuft, ist mir noch unklar (bzw. noch eine weiße Fläche in meinem „Google-Modell“). Entscheidend scheint mir aber zu sein, dass diese Integration (noch) nicht fließend passiert, sondern in Form von Updates. Es scheint mir jedoch klar, dass es letztlich über den sog. Hummingbird führt. Insofern würde ich dieses – wie auch alle anderen Core-Updates, als Hummingbird-Updates bezeichnen.

Was sagt Google?

Die Art, wie Google Gott spielt, ändert sich ...
Die Art, wie Google Gott spielt, ändert sich …

Dass Google diese Art von Updates nicht kommuniziert, scheint mir nur folgerichtig. Denn was sollte man dazu auch sagen? „Aufgrund neuer Nutzer-Analysen haben wir festgestellt, das der Shop jetzt vor der Ratgeberseite stehen soll.“ Das würde vermutlich am ehesten die Datenschützer auf den Plan rufen … Nein, Google kommuniziert (via John, Gary etc.) nur über Dinge, die man als Webmaster auch beeinflussen kann (Content, Snippets, Backlink-Abbau, etc.), aber nicht über „übergeordnete Dinge“, auf die ein einzelner Webmaster eh keinen Einfluss hat. Insofern ist es falsch, zu sagen, Google würde große Updates nicht mehr mitteilen. Das machen sie schon, aber eben nur die, die auch Webmaster-relevant sind, z.B. das lang erwartete Pengiun-Update (bei dem es um die Frage der Backlinks bzw. unnatürlichen Linkaufbau geht.

Core-Updates sind übergeordnet

Nach meiner Überzeugung war das vorletzte große „Core-Update“ für zahlreiche Verschiebungen bei produktnahen Keywords verantwortlich. Seinerzeit wurden Ratgeberseiten nach hinten geschoben, weil die ersten Positionen mit Shops belegt werden sollten (völlig unabhängig von den Rankingsignalen). Um nicht versehentlich fragwürdige oder Fake-Shops nach vorne springen zu lassen, hat Google das damals mit einem Brand-Update kombiniert, so dass auch andere große Marken und Portale zu den Gewinnern gehörten (außer reine Ratgeber).

Wikipedia kopfueber (Reverse-Absturz)
Wikipedia kopfueber (Reverse-Absturz)

Bei den Veränderungen der letzten Wochen handelt es sich aus meiner Sicht um eine gegenläufige Bewegung. Viele größere Seiten haben verloren (außer Wikipedia). Stattdessen haben eine Reihe von kleineren Websites zugelegt. Allerdings sind die Veränderungen keinesfalls dramatisch. Es sind eher kleine Verschiebungen um einzelne Positionen – die sich natürlich in den Sichtbarkeits-Indices deutlich auswirken können, ohne dass es dafür relevante Traffic-Verschiebungen gibt. Außerdem scheint es keinen festen Termin gegeben zu haben, zumindest beobachte ich in den letzten Wochen in verschiedenen Bereichen Veränderungen, die sich kurze Zeit später aber wieder weitgehend normalisieren. Es ist eher wie das Stottern eines Motors …

Was kann man tun?

Hmmm ...
Hmmm …

Was kann oder sollte man nun tun, wenn die eigene Seite in der Sichtbarkeit abgestürzt ist? Ich würde sagen: nichts! Natürlich sollte man weiter darüber nachdenken, was die User wirklich wollen. Ist die eigene Zielgruppe eigentlich in der Mehrheit, bezogen auf das Keyword? Es ist kein Update, das etwas über die Qualität einer Seite aussagt. Geändert hat sich die Perspektive, aus der heraus die Qualität beurteilt wird.

Selbst wenn man Positionen verloren hat, heißt das nicht, weil man irgendetwas falsch gemacht hätte. Man kann, bezogen auf die eigene Zielgruppe, die perfekte Seite haben. Aber Google hat errechnet, dass die eigene Zielgruppe eben nicht die mehrheitliche Meinung (bezogen auf das Keyword) vertritt.

Neu bei Google: Qualität ist eine Frage der Perspektive!
Neu bei Google: Qualität ist eine Frage der Perspektive!

Man bedient die User-Intention – die Google aus dem Verhalten von Millionen oder Milliarden von Klicks herausgefiltert hat – nicht 100%ig. Aber deswegen sollte man nicht aus einer Ratgeberseite einen Shop machen oder ein Newsportal oder alles auf einmal. Es gibt eben Keywords, bei denen man ev. in der Vergangenheit gute Rankings hatte, weil man onpage sehr vieles richtig gemacht hat (und Google damit eben Seo-technisch „bespielen“ konnte) – aber die User wollen eben bevorzugt doch etwas anderes.

Das Core-Update führt einmal mehr vor Augen, dass Seo eben nicht mehr die bekannte Disziplin aus „Onpage“ und „Offpage“ ist, sondern immer mehr mit Zielgruppen und User-Intention zu tun hat. Anders gesagt: Zielgruppen differenzieren sich – und Google definiert, wie eine Zielgruppe tickt.

Das schreiben andere

  • Marco Janck
  • Sistrix
  • Seo-Portal
  • … (bitte nennt mal in den Kommentaren, wer noch etwas dazu geschrieben hat – vielleicht habe ich es verpasst :-)
Google Update (Core, Hummingbird, ?)
Google Update (Core, Hummingbird, ?)

 

20 Gedanken zu „Überlegungen zum letzten Google „Core“ Update (Hummingbird-Update)

  1. Meinst du nicht, mit den oben aufgeführten Argumenten die Möglichkeiten Googles um ein Vielfaches zu überschätzen? :-)

    1. Ich befürchte, nicht. Ich bin der Überzeugung, dass man aus dem jahrenlangen und massenhaften Auswerten von Usersignalen unglaublich viel herauslesen kann (wobei der Einzelne vollkommen nebensächlich ist). Aber: das geht eben noch nicht realtime, daher werden diese Erkenntnisse noch in Form von Updates hinzugefügt.

      Man kann dieses Wissen natürlich noch sehr viel umfangreicher nutzen, was dann um so bedenklicher wäre. Daher vermute ich auch, dass Google sich selber einen Maulkorb hinsichtlich dieser Fragen verpasst hat.

  2. Hallo Martin,

    eine echt gute Zusammenfassung. Hast du den an deinen Ratgeberseiten diese Schwankungen feststellen können? Wenn ja – in welcher Dimension?

    1. Die sehtestbilder.de Seite hat ordentlich hinzugewonnen, was aber an dem Artikel über die optische Täuschung mit Kreisen bzw. Quadraten lag. Der hatte einfach viele links erzeugt.

      Ansonsten etwas diffuses Bild. Teilweise gewonnen, teilweise verloren (aber die Schwankungen waren auch bei mir größer als üblich). Inzwischen hat es sich weitgehend stbilisiert, insgesamt auf dem Niveau von vor ein paar Wochen.

  3. Danke für den Bericht!
    „Geändert hat sich die Perspektive, aus der heraus die Qualität beurteilt wird.“ finde ich eine sehr gute Zusammenfassung. Google versucht nun mal die Suchergebnisse so gut wie möglich auf unser menschliches verhalten anzupassen und dementsprechend die bestmöglichen Suchergebnisse zu liefern.
    Ich denke man kommt irgendwann an einen Punkt, wo weiteres „Optimieren“ eben diesen Qualitätsanspruch senken würde. Ich bin sehr gespannt, was Google sich noch so einfallen lässt, damit wir als Nutzer genau das finden, wonach wir suchen.

  4. Hallo Martin,

    das mag alles grundsätzlich richtig sein.

    Allerdings sehe ich – bezogen auf das Anfang September durchgeführte Update – zumindest einige andere Faktoren, die ich mir auch noch nicht recht erklären kann, z.B.:

    – Doppelrankings – für ein sehr starkes Versicherungskeyword ist z.B. seit dem Update Platz 1 und 2 durch die Startseite + eine Unterseite besetzt – das ist mir zwar in der Vergangenheit auch schon das eine oder andere mal aufgefallen, jedoch ist das meist nur wenige Tage (vermutlich zu Testzwecken, welche Seite passt besser) und auch nicht unbedingt auf Platz 1 + 2

    – url-Faktor –> viele englischsprachigen Kommentare hatten kurz nach dem Update massive Sprünge für EMDs gemeldet – ich kann zumindest bei einem starken Keyword einen (fast) Exakt-Matcher verzeichnen, der aus meiner Sicht eine nicht besonders gute Seite hat und dennoch für dieses eine Keyword (plus ein paar Variationen) in den Top-10 rankt, obwohl er vorher wirklich deutlich weiter hinten war – andere „ähnliche“ Keywords im selben Themenbereich besetzt er allerdings überhaupt nicht – google scheint die URL wohl wieder deutlich stärker zu gewichten (könnte man zumindest daraus schließen).

    Bei mir persönlich gab es bei zwei Projekten eher stärkere Verluste, bei einem Projekt ganz ordentliche Gewinne. Alles dieselbe „Kategorie“ an Seiten – nach deiner Theorie hätten sich alle in die eine oder andere Richtung entwickeln müssen (für ähnlich gelagerte Suchanfragen, d.h. mit ähnlicher User-Intention).

  5. Hallo Martin,

    ich vertrete geanu die gleiche Meinung. Google wird eben viel schlauer. Nicht umsonst versuchen sie uns die Keywords immer mehr vorzuenthalten. Sie werden schlicht und ergreifend immer unwichtiger werden. Der User-Intend ist das neue Keyword.

    Viele Grüße aus Dresden

    Sammy

  6. Da gehe ich nit Martin :-). Ich hätte einen Blog Beitrag verfasst und über das Update geschrieben dass man es nicht erklären kann da es nicht immer nur um Content oder Links geht. Du hast es nun aber doch sehr gut beschrieben ;-).

    Und auch dass man nach einem Absturz nicht gleich wieder alles auf seiner Seite abändern sollte… Weil man einfach nicht immer etwas machen kann, so wie Du es halt perfekt beschrieben hast.

  7. Guten Tag,

    respekt, da wurden sich richtig Gedanken gemacht und die Thematik sehr schön in der Zukunft betachtet. Bin wirklich sehr gespannt wie sich das noch entwicklt.

    [Edit *kopfschüttel* sorry, URL entfernt]

  8. Spannend wäre es herauszufinden mit wievielen unterschiedlichen user-Intentionsmodellen/cluster google arbeitet
    10?100?1000?

    Und die andere frage die sich stellt in wie weit die seo-tools uns die „richtige“ Platzierung überhaupt anzeigen können und wir eigentlich eher Tools brauchen die den trafik analysieren und ggü. anderen seiten vergleichbar machen um die eigene Positionierung und deren Veränderung „richtig“ ein zu sortieren.

    seo wird nicht langweilig :)

  9. Für mich ist es ganz klar das die Relevanz von denen die Links kommen immer mehr eine Rolle spielt! Das soll heissen das ein e-commerce shop der Staubsauger verkauft einen viel besseren Link juice von der domain zB. haushaltsgeräe. com bekommt als von irgendeiner seite mit keiner relevanz zu diesem thema.
    Google kann lesen und versteht was domains bedeuten und was der titel und der content beinhalten.
    das google ein update zu diesem hin machen wird war eher klar.

  10. Hi Martin.
    Danke fuer den ausfuerlichen Bericht.
    Googles Rank Brain wird immer schlauer, ja. Dadurch wird es fuer uns als SEOs auch immer schwerer zu ranken. Viele meiner Seiten sind gedroppt nach dem update aber ich habe sie innerhalb von tagen wieder zurueck nach oben bekommen – wie? ich habe themen relevante Links auf die Seiten geschickt die Teile von dem Keyword das ich ranken will, beinhalten.
    Grosse Google updates sind beaengstigend ja, aber wenn man sich schnell darauf einstellt kann man sogar noch besser als davor aussteigen!
    LG und danke fuer den Bericht.

  11. Toller Artikel! Es ist ziemlich spannend, wie Google sich weiter entwickelt. Im Endeffekt möchte Google dem Suchenden immer das bestmögliche Ergebnis anzeigen.

  12. Ich denke, Keywords oder zumindest Teile davon werden bei der SEO immer relevant bleiben. Wie bitte soll den sonst ein User, der über ein bestimmtes Keyword eine Suchanfrage startet, die besten Ergebnisse ganz oben im Ranking angezeigt bekommen?

Kommentare sind geschlossen.

Kommentare sind geschlossen.