Bilder nachträglich komprimieren? Besser nicht …

Bilder nachträglich komprimieren? Besser nicht …

Rankingverlauf von Bildern
Rankingverlauf von Bildern

Bilder im Internet sind im Vergleich zu Text immer noch recht groß, gemessen an der Dateigröße. Vor allem auf mobilen Geräten können große Bilder ein echter Genusskiller sein. Es ist daher sinnvoll, Bilder und Grafiken so weit wie möglich zu komprimieren, um die Dateigröße zu reduzieren. Aber sollte man bereits vorhandene Bilder noch einmal nachbearbeiten und mit Hilfe eines Komprimierungsdienstes verkleinern? Aus Seo-Sicht besser nicht …

Bild!
Bild!

Malte Landwehr hat nun ein interessantes Experiment durchgeführt: er hat eine Reihe von Bildern, die bereits in der Google Bildersuche zu finden waren, nachträglich mit Hilfe von JpegMini komprimiert. Würden die neuen Bilder nun besser bei Google ranken? Mit Hilfe des Bilder-Beobachter von Ingo Henze hat er die Rankings in der Google.de Bildersuche täglich verfolgt.

Ergebnis: die Bilder sind praktisch alle im Ranking abgerutscht. Das deckt sich auch mit meinen Erfahrungen. Ich habe dazu seit längerem keine separaten Tests gemacht. Denn bei den ca. 6.000 Bildern, die ich im Netz kontrolliere, kommt es sowieso immer wieder vor, dass ich vorhandene und rankende Bilder noch einmal anfasse. Und immer – ich würde sagen ausnahmslos – kommt es dadurch zu einem Rankingverlust.

Rankingverlust trotz Bildoptimierung?

Warum verlieren Bilder trotz der geringeren Dateigröße bei Google ihre Positionen? Der Grund ist einfach: Google behandelt sie wie neue Bilder. Und wer sich einmal den Rankingverlauf eines neuen Bildes angeschaut hat, wir feststellen, dass es bei den allermeisten Keywords einfach mehrere Wochen oder sogar Monate dauert, ehe sie sich nach oben gearbeitet haben. Ausnahmen bilden nur:

  • sehr schwache Keywords, bei denen man mit den richtigen Onpage-Signalen mangels Konkurrenz von 0 auf 1 stürmen kann (das sind aber meist Keywords ohne Traffic ;-))
  • und die „aktuellen“ Bilder, die innerhalb weniger Stunden tausendfach geteilt werden.

Ich habe das mal in einer Grafik dargestellt. Bitte beachten: es geht nur um durchschnittliche, ungefähre Verläufe. Im Einzelfall unterscheidet sich das natürlich…

Rankingverlauf von Bildern in der Google Bildersuche
Rankingverlauf von Bildern in der Google Bildersuche

Die Grafik zeigt, was geschieht, wenn man ein „normales“ Bild (rote Linie) nachträglich bearbeitet: Das Bild fällt aus der Bildersuche heraus und muss sich anschließend wie ein neues Bild neu einsortieren.

Warum es diesen langsamen Aufstieg bei den „normalen“ Bildern gibt, ist mir letztlich unklar. Ich vermute, Google will in den ersten Wochen verifizieren, dass das Bild auch wirklich dauerhaft vorhanden ist. Denn es gibt ja recht viele Seiten und Portale, auf denen Bilder nur für eine bestimmte Zeit eingestellt werden bzw. relevant sind (z.B. ebay, Handelsplattformen, Social-Media, etc).

Langfristige Perspektive

Nach meinen Beobachtungen wandern die nachträglich komprimierten Bilder anschließend langsam wieder nach oben – das kann aber eben erneut Monate dauern. Nur: der kurzfristige Vorteil, den man sich durch die Komprimierung versprochen hat, stellt sich fast nie ein. Und man muss natürlich darauf achten , dass die automatische Komprimierung nicht zu einer optisch sichtbaren Qualitätsminderung führt. Da das Bild sich anschließend vor tausenden von Augenpaaren bewähren muss, sollte man es stets nur soweit komprimieren, dass der ästhetische Genuss auch ein solcher bleibt.

Besser gleich komprimieren

Meine Empfehlung lautet daher: neue Bilder sollte man individuell nur beim Hochladen so weit wie möglich komprimieren. Ich mache das stets mit Photoshop, man kann dafür aber natürlich auch andere Tools wie JpegMini oder PNGgauntlet nutzen (weitere gute Komprimierungs-Tools und Plugins bitte gerne in den Kommentaren). Wenn die Bilder dann oben sind, nicht mehr anfassen. Ein besseres Ranking erreicht man nicht durch Dateikomprimierung, sondern durch Onpage-Optimierung (umliegender Text) und vor allem durch Mehrfachverwendung des Bildes.

ProTipp :-)

Wer aus Perfomance-Gründen unbedingt einen Artikel verbessern möchte, dem sei folgendes empfohlen: Einfach ein neue neue Bildkopie erstellen, am Dateinamen eine „2“ anhängen, und auf der Seite ersetzen (ohne die alte Bilddatei zu löschen!). Unter das Bild dann die alte Bilddatei als Hotlink verlinken (also, so, dass die alte Datei nicht mehr geladen werden muss). Dann behält Google das alte Bild weiter im Index, und irgendwann (.-)) tauscht Google dann die neue Datei gegen die alte aus. Aber darum braucht man sich dann nicht mehr zu kümmern. Da das aber manueller Aufwand ist, würde ich das nur auf den Seiten machen, wo es sich auch – aus User Sicht – lohnt.

Bilder SEO
Bilder SEO

Aus dem Gesagten ergibt sich natürlich: wenn ein Bild gar keine Rankings in der Google Bildersuche hat, oder einem der Traffic aus der Bildersuche egal ist, der kann natürlich ohne Probleme seine Bilder auch noch nachträglich komprinieren.

Weiterlesen?

30 Gedanken zu „Bilder nachträglich komprimieren? Besser nicht …

  1. Ich hab das Malte schon gefragt, aber vielleicht hast du darauf eine passende Antwort:

    JpegMini und PNGgauntlet verändern ja die Bildinformation selbst (wenn auch nur minimal), während Dienste wie z. B. Smush.it nur Metadaten entfernen.
    Hast du Erkenntnisse darüber, ob dies einen Unterschied macht, sprich berücksichtigt Google hier nur veränderte Bildinformationen oder betrachtet Google es bereits als neues Bild, wenn sich auch nur 1 Byte verändert?

    1. Nein, ich habe mit dem Komprimierungstools keine wirklichen Erfahrungen. Aber nach meiner Einschätzung ist die pure Dateigröße das entscheidende Kriterium für Google. Sicher bin ich da aber nicht.

      1. Genau, das wäre doch einen Test wert: Man verändert die Komprimierung des Bildes nicht (also nur Meta weg) und schaut, ob das Ranking sich ebenfalls verändert.

        1. So einen Test würde ich auch sehr interessant finden.
          Könnte mir gut vorstellen, dass die Metadaten eines Bildes von
          google ebenfalls berücksichtigt werden.

  2. Verstehe ich Dich richtig: Bild-URL bleibt gleich, man ändert lediglich die Komprimierung und dadurch wird das Bild als „neues Werk“ von Google gesehen?!

      1. Dann weiss ich ja wieso sich der Bildertraffic verabschiedet hat nachdem ich einmal alle Bilder komprimiert habe… :)

    1. Danke für die Ergänzung. Ich würde aber ehrlich gesagt davon abraten, mit max. Dateingrößen zu operieren. Man sollte Bilder immer nach Optik komprimieren. Wenn ein Bild pixelig wird oder Komprimierungsstreifen aufweist, sieht es unschön aus. Ich kann das zwar auch nicht beweisen, aber ich vermute, dass Google solche Artfakte in Bilder sogar schon erkennen kann (wie auch immer). Soll heißen: wenn ein Bild zu stark komprimiert ist, kann das ein negativer Faktor sein. Zumindest zeigt die Erfahrung, dass die Bildqualität in der Google Bildersuche eine wichtige Rolle spielt. Oder kennst Du ein Beispiel, wo verpixelte Bilder im Ranking vorne zu finden sind?

      1. Kenn ich keine, hab aber auch noch nie recherchiert.
        Das mit der max. Dateigrösse war als „pagespeed first“ Massnahme gemeint. Aber stimmt schon, die Optik muss definitiv passen.
        Guter Beitrag jedenfalls, vor allem der Pro Tipp am Ende :)

  3. In dem Zusammenhang: Ich hatte bei einem starken Key ein super Ranking in der Google Bildersuche – das Bild wurde von anderen Webseiten oft übernommen (ließ sich rechtlich nicht verhindern). Nach einer Änderung beim CMS und neuem Pfad war das alte Ranking weg und kam auch nicht wieder, stattdessen ranken seitdem die Kopien.

    1. ja, danke Frank. Ein typischer Fall, den ich auch schon oft erlebt habe. Wenn es Bildkopien gibt, dann springen die an die Stelle – und man kommt mit dem komprimierten Bild auch nach Monaten oder Jahren nicht mehr vorne rein.

  4. Sehr interessanter Artikel. Wenn mich neue Produkte in meinem Shop anlegen, dann komprimiere ich nachträglich die Bilder. Aber das mache ich dann schon nach einer oder zwei Wochen nach dem Upload. Also dürfte das wohl ziemlich egal sein.

    Ich komprimiere meine Bilder nur verlustfrei. Ganz ehrlich … irgendwelche mobile Surfer mit einer dünnen Leitung kann und will ich keine Rücksicht nehmen. Meine Fotos für ebay sind sogar noch schlimmer für die mobile User. Die sind erstens meistens größer und zweitens überhaupt nicht komprimiert.

  5. Hi,

    was ich nur nicht verstehe ist, das Bild ist unter dem gleichen Link erreichbar und heißt auch gleich. Woher sollte Google merken wie alt das Bild ist?

    VG und Danke
    Yannic

    1. Es geht nicht um das Alter des Bildes sondern darum, daß Google erkennt, daß es sich um ein anderes Bild handelt. Der Google-Bot holt das Bild ab und bildet einen Hashwert über die Bilddaten. Was ein Hashwert ist, muß ich Dir ja nicht erklären. :-)
      So kann Google sehr schnell erkenn, ob das Bild ein anderes ist oder auch, ob es das Bild schon als Kopie auf anderen Seiten unter anderen URls gibt.

  6. Vor noch nicht einmal zwei Wochen habe ich mehrere Dutzend Bilder für eine meiner Webseiten optimiert. Und natürlich die optimierten Bilder unter dem gleichen Namen hochgeladen. Und nun ärgere ich mich, dass der Artikel erst nun erscheint ;-)
    Wobei die Ladezeiten sehr schlecht waren und ich um eine Optimierung nicht herum gekommen wäre. Und bei der Anzahl hätte ich die Bilder auch nicht händisch in jedem Beitrag so ausgetauscht, wie Martin oben vorschlägt.

  7. Eine aufwendige Zusammenfassung, Martin, die sich auch exakt mit meinen Beobachtungen deckt: Bilder, die einmal online sind -> Finger weg.

    Wenn es sich mal ganz und gar nicht vermeiden lässt, dann lasse ich das ursprüngliche einfach auf dem Server liegen, verlinke es also auf den statischen Seiten gar nicht mehr. Es ist dann nur noch über die Onpage-Bildersuche erreichbar. Die neue Fassung geht mit geändertem Dateinamen ins Netz. Funktioniert ebenfalls.

    Was zum Komprimieren auch recht nett ist und m.E. hier nicht unerwähnt bleiben sollte, ist der Klassiker Irfan View – sowohl zur Komprimierung von Einzelbildern, als auch für Batchkonvertierungen usw. gut geeignet.

  8. Google kann Exif-Daten auslesen, Informationen wie Tag und Uhrzeit der Aufnahme, Standort oder Gerätetyp werden von einigen Kameras automatisch eingefügt. Das Problem liegt nicht nur in der Komprimierung. Viel mehr vielleicht in der Umgebung der Bilder.

  9. Wirklich interessant, danke für diese Information.

    Für alle Linux-Nutzer an dieser Stelle mal der Hinweis auf Trimage, welches ich ganz gerne zur (qualitäts-)verlustfreien Komprimierung nutze. Das ganze ist auch graphisch und kein Konsolen-Programm.

Kommentare sind geschlossen.

Kommentare sind geschlossen.