Meine kleine Content-Farm – oder: was ist Qualität?

Meine kleine Content-Farm – oder: was ist Qualität?

Matt Cutts sauer?
Matt Cutts sauer?

Matt Cutts ist sauer. Vermutlich. Denn seit einiger Zeit mehren sich die Stimmen, die die Qualität der Suchergebnisse von Google kritisch hinterfragen. Zu viel spammige Ergebnisse, meinen viele. Nun ist folgendes klar: das Schlimmste, was Google passieren kann, ist ein allgemeiner Vertrauensverlust in die Qualität der Suchergebnisse. Das weiß auch Mr. Antispam, und so hat Cutts seine Abteilung auf Vordermann gebracht und bläst zum Gegenangriff. In dem Aufsehen erregenden Artikel im Official Google Blog: Google search and search engine spam enthüllt er, dass Google den „document-level classifier“ redesigned und sogar schon gelauncht hat. Hui…

Die Frage ist nun natürlich, was der kann, der neue „document-level classifier„. Klingt irgendwie nach einem neuen pageRank, aber das will ich nicht ernsthaft diskutieren ;-). Nein, interessant wird die Sache, wenn man Matts Ausführungen weiterliest:

As “pure webspam” has decreased over time, attention has shifted instead to “content farms,” which are sites with shallow or low-quality content. In 2010, we launched two major algorithmic changes focused on low-quality sites. Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content.

Auf gut deutsch frei übersetzt: „Das Problem mit simplen Webspam haben wir im Griff, nun konzentrieren wir uns auf „Content-Farmen“. Das sind Seiten mit geringer Qualität. Denn die sind der letzte Abschaum und die Leute fordern, dass wir ohne Gnade durchgreifen und dagegen vorgehen.

Was ist eine Content-Farm?

Jäger und Farmer
Jäger und Farmer

Was soll das eigentlich sein, eine Content-Farm? Sagen wir mal so: Ein Farm ist ja etwas, wo Dinge wachsen und gezüchtet werden. In meinen Artikel „Vom “Jäger und Sammler” zu “Ackerbau und Viehzucht” (Seo-Theorie)“ habe ich noch spekuliert, dass der Content-Ackerbauer (Farmer) langfristig bei Google bessere Chancen hat als der (Backlink-) Jäger. Und nun das!

Webspam ..?
Webspam ...?

Offensichtlich ist eine Farm ein Ort des Schreckens, denn Content ist ja wohl hoffentlich auch für Google noch 2011 etwas Gutes. Aber natürlich geht es nicht um den Content, sondern um die Content-Qualität. So ungeschickt der Begriff nun auch sein mag, so sehr gilt doch die Frage: was mein Google mit „Content-Farmen„? Vielleicht richtet sich Googles Zorn auf diese Bereiche:

  • Automatisierte Übersetzungen von Blogs / Websites ???
  • Webkataloge / Artikelverzeichnisse ??? Dienen diese nur dem Zweck, Backlinks abzugreifen ???
  • Bildergalerien mit wenig Text ??? Sind Bilder eine Qualität an sich, oder sind Bildergalerien mit wenig Text tendenziell spammy?
  • Hotlink-Galerien ??? Ich habe gerade erst wieder einen Fall gehabt, wo jemand eine Site mit 140.000 Universal-Search-Hotlinks aufgebaut und dann innerhalb weniger Tage mit einem krassen Porn-Banner „vergoldet“ hat. Solche Seiten sind echt ein Super-Ärgernis.
  • Kommentar-Spam / Blogs ohne Kommentar-Moderation ??? Womit ich wieder bei der Frage bin, ob man Rechtschreibfehler in Blog-Kommentaren korrigieren sollte. Werden follow-Links in Kommentaren ein potentielles Risiko?
  • Bookmark-Systeme ??? Naja, die hat Google ja bereits beim Mayday-Update abgeschossen.
  • Afiliate-Seiten ??? Sind Produktseiten, die im Grunde nichts anderes bieten als hunderte andere Seiten, auch gemeint? Profitieren die großen Marken noch mehr?
  • Preisvergleiche ??? Ist ein Preisvergleich, der sich die Inhalte aus vielen anderen Seiten zusammen saugt, eine Contentfarm?
  • News-Aggregatoren ???
  • Tweet-Aggregatoren ???
  • Inhaltsloser, oberflächlicher Mist -> Facebook ??? ;-)

Vieles ist denkbar. Und natürlich ist das alles noch spekulativ. Diese Diskussion wird so richtig losgehen, wenn man feststellt, das es den einen oder anderen Bereich erwischt hat.

Was ist Content-Qualität?

Qualität, gut oder schön?
Qualität, gut oder schön?

Es stellt sich an dieser Stelle eine grundsätzliche Frage: Was ist Content-Qualität? Nehmen wir zum Beispiel Wikipedia: für meine Oma ist der Wikipedia-Artikel ein totale Überforderung. Für den Universitätsprofessor ist es genau umgekehrt: viel zu unwissenschaftlich, von Amateuren zusammengeschrieben. Was der einen zu viel, ist dem anderen zu wenig (siehe „Das “Problem” Wikipedia aus Seo-Sicht„).

Auf der anderen Seite: eine gepflegte Trash-Seite, die Augenkrebs verursacht, weil alles blinkt und glitzert, ist bei vielen eher unbeliebt, aber bei „Astro-Pony-Community“ total hipp (sag ich jetzt mal so ;-). Trotzdem sind beide Seiten potentiell weit vorne zu finden. Die Content-Qualität wird nicht von ein paar Google-Programmierern definiert, auch nicht von den Omas oder den Uni-Profs. Hinter der Google Suchergebnissse steckt letztlich die breite Masse.

Abstraktion des Google Algo
Abstraktion des Google Algo

Und wie ermittelt Google die Vorlieben der breiten Masse? Im Grunde ganz einfach: die Massen-Signale werden immer stärker mit einbezogen, um Qualität zu definieren. Anzahl der eingehenden Links, Anzahl der social network Erwähnungen, Anzahl der Bewertungen, etc. Da sich aber die schiere Masse von findigen Tüftler automatisieren und skalieren lässt, fragt Google immer stärker nach der Autenthizität des Einzelnen: der Trust wird immer wichtiger. Auch dieses ist eine Ursache / Wirkung der zuletzt beobachtete Bevorteilung von Marken. Das Zusammenspiel von Masse und Vertrauen war bisher Google-Qualitätsmaßstab. Daran wird sich vermutlich nichts ändern, im Gegenteil: Google wird nach meiner Einschätzung immer mehr daran setzen, die Glaubwürdigkeit einer Quelle zu ermitteln.

Google!!!
Google!!!

Solange es „nur“ um die Reihenfolge der Suchergebnisse geht, kann ich mit dem Massen-Qualitätsbegriff auch durchaus leben. Die Frage wird nur sein, wie weit Google in andere Bereiche hineingeht. Denn dass die Masse in den meisten Bereichen keine Ahnung von Qualität hat, zeigt sich nicht nur in der Kunst.

Bleibt abschließend die Frage: was soll jetzt der Wirbel? Ist der „relaunch des redesigns des document-level classifier“ nur heiße Luft? Ich vermute, dass es letztendlich nur eine Verschärfung bei der Ermittlung von „Duplicate-Content“ handelt. Mit dem kleinen, aber feinen Unterschied, dass nun auch nach automatisierten Übersetzungen gesucht wird.

Was meint ihr?

Das schreiben andere

Auch die Kollegen von seo-United haben sich ihre Gedanken gemacht: „Wie Google Spam erkennt„. Vor allem gehen sie auf ein Interview von Matt Cutts bei c net („Google ready for action against content farms„) ein, wo er seine Äußerungen weiter spezifiziert.

31 Gedanken zu „Meine kleine Content-Farm – oder: was ist Qualität?

  1. Nun, ich denke nicht, dass sich Google umfassend auf linguistische Methoden stürzen wird, um die vermeintliche Qualität von Content zu beurteilen. Es geht ihnen ja auch nicht um Qualität in Abgrenzung von einem Goethe-Blogger zu einem sprachlichen Vollpfosten. „Qualität“ ist für Google immer das, was die Leute mögen. Und das kann die Suchmaschine ja nicht nur mit dem Trust sondern mit Verweildauer, Bounce-Rate und noch ein paar Klassifikations-Signalen errechnen. Was daran schade ist: Zur Volksbildung wird dieser Qualitätsbegriff wohl kaum beitragen ;-)

    eric

    1. Der Satz ist sehr gut. Es ist tatsächlich die Frage, wie gesund der Einfluss von Google am Ende ist. Wer entscheidet über Qualität?

  2. Nur Schall und Rauch. Die Debatte wird denke ich eh bald wieder vorbei sein. Davon abgesehen wird sie ja fast ausschließlich in den USA geführt und das Google die Aggregatoren ein Dorn im Auge sind ist ja nicht erst seit Gestern bekannt.

    Bei den wirklich großen Content Farmen wie z.B. eHow ist außerdem die Qualität zu großen Teilen ganz gut.

    Ich denke das demnächst die Keyword Domains schwächer gewertet werden und ein bisschen härter gegen externen DC vorgegangen wird und das wars. Warum sollte Google auch etwas verändern, solange es gut läuft und die Nutzer treu bleiben.

  3. „…Das Problem mit simplen Webspam haben wir im Griff…“

    Haha, der war gut. Aber Hauptsache die Leute glauben es bzw. noch besser wäre es, wenn er selbst und sein Team wirklich dran glauben.

  4. Pingback: Goeo.de
  5. Die letzte Entscheidungsinstanz kann eigentlich immer nur ein Mensch sein – und das fehlt Google. Selbst wenn ein Filter zu 99,9% berechtigt greift, brauchen die restlichen 0,1% die Möglichkeit der ernstgemeinten und wohlwollenden Prüfung.

    Ansonsten finde ich schon, dass der Low-Level-Spam-Anteil in den Suchergebnissen in den letzten Jahren stark nachgelassen hat.

  6. @Tom: Die Verweildauer an sich nicht, aber die Tatsache ob du danach noch eine Google-Suche ausführst schon. Du suchst also quasi nach etwas bei Google, denkst du findest einen guten Eintrag und klickst drauf. Hast du die gewünschte Info schnell gefunden, klickst du die Seite wieder weg und machst ggf. was anderes (siehe Fussballergebnisse). Findest du die Info aber nicht, klickst du die Seite weg und führst die Google-Suche noch einmal (bzw. leicht verändert aus) oder klickst auf „zurück“ und klickst in den SERPs zur vorherigen Suche auf das nächste Suchergebniss – wie dem auch sei: Du sagst Google damit, dass die Information auf der ersten Seite nicht ausreicht und die Seite damit zur Suchanfrage von keiner guten Qualität ist.

  7. @martin: Tja nun, gute Frage, wer hier wen bildet. Nennen wir es doch einfach „Abwärts-Spirale“ ;-)

    @tom, @florian: An beidem ist was dran. Es kann auch ein positiver Faktor sein, wenn eine Seite nur kurz besucht wird. Ich denke, dass Google hier so ein Gesetz der großen Zahlen nutzt.

    Google hat ja verschiedene Kategorisierungen von Seiten (und dafür auch viele Rater). Und das Verhalten der User ist zwar nicht eindimensional und lässt nicht direkt „Hop“oder „Top“ ableiten. Aber wenn man genug Faktoren beobachtet und ausreichend viele Useraktionen registriert und dann Muster über bewertete Seiten hinweg sucht, wird man die finden. Das wird dann zwar nicht für alle Einzelfälle passen – aber das ist auch nicht nötig. Denn es gibt ja noch andere Faktoren…

    Auf diese Weise bewertet Google z.B. nicht ob der Text auch schön lang ist (und es ist definitiv nicht nützlich, wenn man zu jedem blödsinnigen Keyword Textgräber mit 400 Wörtern faselt) sondern ob die Länge zum Inhalt passt. Und das ganz ohne, den Inhalt direkt zu beobaachten – sondern lediglich das Verhalten der User.

    Hört sich komisch an, aber ich denke, SEO ist keine exakte Wissenschaft wie die Mathematik oder die Physik sondern eher etwas wie Soziologie oder Psychologie.

    Und ich denke, jetzt fasle ich und mach mal lieber Feierabend ;-)

    eric

  8. Eine wesentliche Verbesserung wäre es auf jeden Fall mal, wenn endlich wieder diese ganzen Preisvergleiche aus den SERPs verschwinden würden. Egal nach welchem Produkt man sucht, auf der ersten Seite finden sich quasi nur Preisvergleiche und/oder Affiliateschleudern.

    Ich bin schon seit einer Weile dazu übergegangen, Produktdetails mit anderen Suchmaschinen zu ermitteln.

  9. Matt Cutts hat ja erstmal geschrieben, das vor allem Aggregatoren dran glauben müssen.

  10. Also ich finde es superschwierig die Maßstäbe für das was wir gut finden in einen Algorithmus zu pressen. Ich finde auch manchmal eine Seite toll, auch wenn da keine 250 Wörter + ein tolles Bild sind. Was man allerdings leicht erkennen sollte sind mit Google Translate hin und her übersetzte Texte oder Autoblogs…

  11. Hoffentlich müssen wir uns als Webkatalog nicht sorgen. Wir bemühen uns immer mehr um guten Content.
    Damit müssen dann Linkvorschläge leider zunehmend länger warten.

  12. Google weiss, dass Linkaufbau ohne Nachhilfe nicht möglich ist. Solange man das mit halbwegs Qualität macht, sollte es auch kein Problem darstellen. Seiten, die nur aus internen Netzwerken oder Forenposts ihre Links beziehen, werden vielleicht ein Problem bekommen. Finde ich persönlich auch OK. Meiner Meinung nach, sollte Google endlich anfangen die User Experience mehr in die Betrachtung mit einzubeziehen. DAS wäre ein Schritt Richtung Qualität….

  13. ?Inhaltsloser, oberflächlicher Mist -> Facebook ??? ;-)
    => Lieber Gott, endlich mal jemand, der das genauso sieht wie ich. Ich versteh wirklich den Hype um Facebook nicht. Die Qualität ist doch unterste Schublade und Nischenportale mit Foren sind da zig mal hochwertiger.

    Wieder mal eine riesen Welle der US’ler die rübergeschwappt ist. Keiner weiß gemau wieso, aber alle finden es toll.

    Für noch schlimmer halte ich twitter. Also ich hab in Twitter noch NIE irgendwelche Infos gefunden nach denen ich gesucht habe…

  14. Am Ende bekommen doch die die guten Ergebnisse bei Google, die das meiste Geld dafür hinlegen. Echte organische Suchergebnisse gibt es doch sowieso kaum noch. Und man sieht auch heute noch genau, wer Links gekauft hat und wer nicht! Gruß Andrea

  15. Endlich sagt das auch mal jemand! Facebook ist für mich eine sehr oberflächliche Plattform, durch die auch sehr viel (echte) Kommuniktation verlohren geht. Aktuell scheint es leider so dass selbst Foren an Bedeutung verliehren weil du User sich lieber in irgendwelchen Gruppen in diesem Netzwerk austauschen. Wenn man einige Tage oder gar Monate später jedoch Beiträge sucht wird man stark enttschäuscht…. Das rutscht dann einfach nach unten und weg ist es….

    Für mich unnütz.

Kommentare sind geschlossen.

Kommentare sind geschlossen.