Absturz? Mögliche-Ursachen-Checkliste (statt Pinguin-Panda Fehldiagnose)

Absturz? Mögliche-Ursachen-Checkliste (statt Pinguin-Panda Fehldiagnose)

Seo Checklist: Absturz-Ursachen
Seo Checklist: Absturz-Ursachen

Wenn heute eine Website abstürzt – ob nun bei der Sichtbarkeit, einzelnen Haupt-Rankings, den Adsense-Einnahmen, oder wobei auch immer, dann wird die Ursache oft reflexartig bei den beiden großen Google-Updates Pinguin und Panda gesucht. Dabei wird sogar nicht selten ein eher langsames, aber permanentes Abrutschen auch als „Absturz“ interpretiert. Das kann aber durchaus ganz andere Gründe haben. Das Fatale ist: wenn man die Ursache nicht korrekt analysiert, kann man mit falschen Maßnahmen die Sache verschlimmern und erst einen wirklichen Absturz provozieren. Dabei wäre es bei korrekter Fehleranalyse möglicherweise viel einfacher zu beheben gewesen. Manchmal sind es nur Flüchtigkeitsfehler. Ich habe daher mal eine Checkliste zusammengetragen, die bei der Analyse helfen kann, bevor man mit Pinguin / Panda Gegenmaßnahmen beginnt.

War es wirklich ein Panda?
War es wirklich ein Panda?

Sehr oft sind onpage-Veränderungen die Ursache für Verschlechterungen im Ranking. Wer mit übergeordneten Templates arbeitet (und das machen heutzutage ja fast alle), läuft Gefahr, dass eine kleine Änderung globale Auswirkungen hat. Onpage-Seo sollte zwar „optimieren“ und das Ranking verbessern. Aber nicht jede Änderung führt zwangsläufig zu einer Verbesserung. Wer von einem Absturz betroffen ist, sollte zunächst einmal die folgenden Punkte bedenken oder prüfen:

  • Ist der Analytics-Code wirklich auf allen Seiten korrekt implementiert? Hat man Änderungen an dem entsprechenden Template vorgenommen? Zum Testen bietet es sich an, in Analytics den Zeitraum vor dem Einbruch zu wählen und sich die Top-Contentseiten anzusehen. Welche Seiten haben nach dem Absacken der Kurve Besucher verloren. Aufschreiben und bei diesen Seiten den Quellcode prüfen.
  • Einbruch der Adsense-Einnahmen -> Ist Adsense wirklich auf den Seiten eingebunden? Oder ist der Code vielleicht versehentlich rausgeflogen?
  • PageSpeed -> gab es möglicherweise Serverprobleme, die den pageSpeed erheblich verlangsamt haben? Das kann man Zum Beispiel in den Google Webmastertools  unter „Status -> Crawling-Statistiken“ prüfen.
  • Überhaupt: Webmastertools. Wann immer sich etwas an den Seiten ändert: der erste Blick sollte in die Google Webmastertools gehen. Gibt es dort vielleicht eine Nachricht. Im schlimmsten Fall sogar eine Malware, die von Google identifiziert wurde?
  • Crawling Fehler -> auch hier bieten die Google-Webmastertools einen guten Überblick! Hat man vielleicht durch irgendeine Maßnahme einen massenhaft reproduzierten Fehler in die URL-Struktur gebaut?
  • Freshness -> Von wann stammen die letzten Inhalte? Rutscht die Seite vielleicht einfach aufgrund fehlender Aktualität nach unten?
  • Änderungen an der Navigationsstruktur -> Gab es solche Änderungen an der Navigation? Nach meiner Beobachtung reagiert Google da sehr sensibel. Das hat dann nichts mit Panda oder Pinguin zu tun, sondern ist einfach ein temporäres Absacken, dass sich nach einigen Wochen wieder einpegelt (Reminder für mich: da müsste man mal etwas zu schreiben)
  • Änderungen an der Title-Struktur – hat man möglicherweise den Seitentitel verändert? Brandname vor oder hinter dem Content-Title? Hinzugefügt oder herausgenommen? Jede globale Änderung an der Title-Struktur hat nach meiner Erfahrung erhebliche Folgen auf die Sichtbarkeit. Dabei muss ein kurzfristiges Absacken nicht unbedingt heißen, dass die Maßnahme schlecht war. Die Veränderung kann zu einer temorären Verschlechterung führen, bevor sich die Verbesserung dann tatsächlich nach ein paar Wochen in den Rankings zeigt. Wenn man zu früh das Ruder herumreißt, kommt man nicht voran. Aber klar: das ist ein riskantes Spiel – vielleicht verbessert es sich doch nicht.
  • Änderungen am Content. Dieser Punkt scheint mir in vielen Fällen eine Ursache für ein Absacken zu sein. Denn wenn es zu größeren Veränderungen kommt, berechnet Google eine Seite offenbar neu. Dadurch kann sich zum Beispiel der Einfluss von Ankertexten externe Links verschieben – wenn die Seite durch den geänderten Content einen anderen „Autoritätsbonus“ erhalten hat. Mir ist es schon oft passiert, das eine vermeintliche Content-Verbesserung an einer etablierten Seite zu einer Verschlechterung der Keyword-Dichte und damit zu einer Autoritätsverwässerung geführt hat. Die Seite ist dann nach unten gerutscht, weil sie aus Google-Sicht an Relevanz verloren hat – selbst wenn der Text nun besser und plausibler war.
  • Neben der Onpage-Ursachen gibt es natürlich auch Offpage-Faktoren, die man bedenken sollte. So kann ein Absacken durch das Wegbrechen von einem oder mehreren starken Links verursacht sein. Das merkt man oft erst ein paar Tage (oder sogar Wochen) später (wenn man nicht alle starken Linsk irgendwo aufgelistet hat, die man kurzfristig manuell prüfen kann).
  • Local-Update? Sind die Haupt-Traffic-Bringer Keywords vielleicht seit dem Local-Update von lokalen Ergebnissen nach hinten gedrängt worden? Am besten mal bei Google prüfen, wo man selber liegt, wenn man neben „Deutschland“ noch einige große Städte als Lokalisierung eingibt.
  • Wurde an der robots.txt etwas geändert? Sind möglicherweise versehentlich Verzeichnisse für den Crawler unerreichbar? (Danke für den wertvollen Hinweis an Jan)

Was fällt Euch noch ein? Worauf sollte man achten, bevor man anfängt, wilde Pinguin und Panda-Gegenmaßnahmen einzuleiten?

Noch eine Empfehlung: Changes-Logbuch

Pinguin Waschmaschine
Pinguin Waschmaschine

Oft werden Onpage-Veränderungen erst nach ein paar Tagen in den Rankings sichtbar. Wer regelmäßig an seiner Site herumschraubt, verliert dabei leicht den Überblick, welche Änderung wann vorgenommen wurden. Und wenn man dann sogar noch mehrere Projekte gleichzeitig bearbeite, dann wird es oft nicht mehr nachvollziehbar. Empfehlung: führt ein Changes-Logbuch, in dem ihr dokumentiert, an welchem Tag ihr auf welcher Site onpage Veränderungen vorgenommen habt. Das kostet zwar etwas Zeit, aber es erleichtert die spätere Analyse erheblich.

Mit den neuen Onpage-Tools wird das Thema Onpage-Seo zwar wieder – zurecht – aufgewertet, aber ein Tool alleine reicht nicht. Zwar wird man damit zurecht auf Unstimmigkeiten und Probleme hingewiesen, die man überhaupt nicht auf dem Schirm hatte. Aber man muss schon genau nachdenken, was die richtige Maßnahme ist, damit die Veränderungen am Ende auch wirklich zu einer Optimierung führt und man die Sichtbarkeit und Konversion verbessern kann.

Ich freue mich über Feedback und Ergänzungen.

Weitere Seo-Checklisten

Seo-Checklist: Absturz Ursache
Seo-Checklist: Absturz Ursache

Weiterlesen?

26 Gedanken zu „Absturz? Mögliche-Ursachen-Checkliste (statt Pinguin-Panda Fehldiagnose)

  1. Changes-Logbuch ist geil, vergess ich auch immer wieder. Gleich mal als Tipp an onpage.org und Sistrix Optimizer geben :)

  2. Nicht vergessen, wenn man an der Navigation was ändert, ändern sich i. d. R. auch die URLs. Dann gilt es natürlich diese anzupassen und 301 Weiterleitungen einzurichten. Damit alles wieder schön ordentlich ist ;)

    1. Stimmt, wenn sich an der URL etwas ändert, dann ist das natürlich ein dicker Hinweis. aber solche Änderungen vergisst man in der Regel nicht, weil sie ja nur sehr selten vorkommen (sollten).

  3. Netter Artikel Martin! Vielleicht wären hier noch die externen Verweise relevant bzw. die Verteilung der Besucherquellen.

    Wenn ich 50% des Traffics über Links auf anderen Seiten generiere und die plötzlich wegfallen (weil diese z.B. Rankings verloren haben), sieht das auf den ersten Blick auch bei mir übel aus, obwohl meine Rankings stabil sind.

    1. Ja, guter Hinweis. Bei einem Traffic-Einbruch kann das leicht passieren. Das lässt sich ganz gute mit Analytics herausfinden.

  4. Was ggf. auch erwähnt werden könnte, sind Saisonale Veränderungen. Beispielsweise ist es logisch, dass Lampen im Sommer nicht so gut laufen wie im Winter oder das es für bestimmte Bereiche einfach Hochzeiten gibt.

    1. Danke für den guten Hinweis. Aber ich denke, wer in einem saisonalen Business unterwegs ist, sollte diese Veränderungen schon im Business-Modell drin haben. Saisonale Schwankungen als Absturz zu interpretieren, den man möglicherweise auch noch zu bekämpfen versucht, wäre natürlich fahrlässig.

      1. Du glaubst nicht, was einem so in der Web-Welt, gerade bzgl. Saisonalen Veränderungen und Trends, begegnet ;)

  5. Gute Zusammenstellung Martin!

    Was mir noch einfällt sind gavierende Änderungen an der Seite. Bestes Beispiel dafür ist ein Relaunch. Da geht es trotz guter Vorbereitung so gut wie immer erst einmal für ein paar Tage bergab. Kommt aber, wenn alles gut ist dann wieder.

    Mein Erklärungsverwusch dafür ist, dass Google die Änderungen erst einmal testet und auf Userreaktionen achtet. Es könnte ja z.B. auch ein Domainverkauf sein, was nicht die selbe Userakzeptanz mit sich bringt.

    Hurra
    Jan

    1. Danke, Jan, für die Ergänzung. Klar, nach einem Relaunch werden die Karten neu gemischt. Aber hier geht es ja in erster Linie um mögliche Ursachen, die man nicht auf dem Schirm hat. Wer einen Relaunch macht, der weiß, was die Ursache für einen Traffic-Einbruch wegen Ranking-Verlust ist.

      1. Sollte man zumindest denken und hoffen – leider schon viel zu oft anders erlebt ;)

        Als 2. Ergänzung: hat der Admin an der Robots.txt geschraubt?

        Als 3. Ergänzung: Housekeeping, saubere Seite. ein Beispiel – ein Kunde hat mal ungenutzte Tags aufgeräumt (und damit deren Seiten gelöscht ohne sie umzuleiten) und damit wahnsinnig viele 404-er erzeugt. Das hat man global im Ranking gespürt, nicht stark, aber spürbar. Soll auch für zu viele externe Broken Links gelten, hab ich selbst aber noch nicht erlebt.

        Als 4. Ergänzung: der gute alte Google Dance. Immer wieder vorkommende Teständerungen zu einzelnen Phrasen um Userraktionen auf andere Ergebnisse zu testen. Meist auch nur temporär zum Glück.

        1. wow, noch so ein guter Hinweis, das mit der robots.txt hatte ich vergessen. Ist oben ergänzt, vielen Dank :-)

          Ja, der dritte Punkt ist auch nicht zu unterschätzen. In dem Bereich werden die ganzen neuen Onpage-Tools sicherlich wertvolle Hilfe leisten.

    2. Vor allem bei dem Relaunch und gleichzeitigem Wechsel der Softwareplattform.
      Die neue Seite eines Vereins wurde als Sponsor modernisiert und relaunched, aber jegliche Url-Strukturen wurden einfach über den Haufen geworfen, zu dem eine 404 Seite mit „ups“ eingestellt.

      Solche Fehler können sich gravierend auf das Ranking auswirken.

      Gerade bei der Umstellung von Joomla auf WordPress muss man einiges beachten, dass es nicht „blutig“ wird.

  6. Hallo Martin,

    netter Artikel, weitere Punkte fallen mir nicht wirklich ein, ist schließlich alles (außer unter mir schreibt noch jemand was ;)) genannt worden.

    Das mit dem Logbuch hört sich gut an, machst du sowas auch selber oder predigst es nur ? :P

    1. Ich habe hier zwar ein Skizzenbuch liegen, in dem ich viel reinschreibe. Aber meist vorher (meine berüchtigten ToDo-Listen). Manchmal schreibe ich dann ein Datum dahinter, wenn ich es durchstreiche. Teilweise hat es mir schon sehr geholfen…
      Aber ich sollte da viel konsequenter sein.

  7. Schöner Artikel! Auch wenn viele glauben, SEO wäre nicht mehr so wichtig, da die Backlinks die größere Bedeutung spielen, kann man dennoch durch eine gut überlegte H1+TitleTag-Mechanik eine Seite ganz nach oben bringen.

  8. Ich nutze als Changes-Logbuch einen normalen WP Blog mit Passwortschutz mit noindex, nofollow etc. Dort hat jedes Projekt eine „Kategorie“ immer wenn etwas geändert wird, wird ein neuer Eintrag in der Kategorie gemacht. Somit hat man direkt eine Timeline und andere (aus dem Team) können auch einsehen was wann geändert wurde. Hat sich ganz gut bewährt. Gruß

  9. Guten Morgen,

    toller Artikel, aber viel toller finde ich Deine saubere Schulschrift…. ;)
    Gibt es die Schriftart irgendwo?

    Beste Grüße
    Thomas

  10. Was mir öfters schon aufgefallen ist und oben unter dem Punkt Offpage-Faktoren ergänzt werden könnte: Das Abfallen eines Rankings, dass auf Links basiert, muss nicht zwangsweiße durch den Wegbruch der Links herbeigeführt sein. Hat man einen Link aus einem Artikel bekommen, der auf dem Blog direkt auf der Startseite angezeigt wird, so hat dieser meist relativ viel Power (je nach Blog versteht sich), mit der Zeit wandert dieser Artikel natürlich weiter nach hinten auf der Seite und je nach Aktualität des Blogs, kann der Artikel (und damit auch der Link) innerhalb weniger Tage oder eben auch mehreren Wochen irgendwo im Archiv untertauchen. Während man die Schwankungen der Power, die ein Link besitzt, nur relativ schwer (zumindest mit diversen Tools) wahrnehmen kann, wenn dieser schon nach wenigen Tagen auf Seite 2, 3, 4… steht, merkt man unter Umständen die Auswirkungen von guten Links, die dann doch nach mehreren Wochen im Archiv landen durchaus.

    Dies gilt aber nicht nur für Links aus Blogs, das kann auch auf Forenposts, Kommentare und sogar auf Whitehat Links, die man eben so bekommen hat und alle anderen Links anwenden. Steht der Link nichtmehr an prominenter Stelle, beziehungsweiße rutscht in der Seitenstruktur weiter nach hinten, oder die Seite, auf der der Link ist, verliert an interner Verlinkung, vermindert sich auch die Linkpower.

Kommentare sind geschlossen.

Kommentare sind geschlossen.