Google pageSpeed: Bilder optimieren = komprimieren!?

Google pageSpeed: Bilder optimieren = komprimieren!?

Bild - Google optimiert
Bild – Google optimiert

Seit Google angekündigt hat, dass die mobile User-Erfahrung für die mobile Suche ein wichtiger Rankingfaktor wird, nutzen wohl viele das pageSpeed Insights-Tool von Google, um die eigenen Seiten entsprechend zu optimieren. Auf meinen Websites sind es im Schnitt schon 30 – 50% aller User , die mit mobilen Geräten auf meine Seiten zugreifen. Insofern ist es wichtig, diese Hinweise sehr ernst zu nehmen. Aber es gibt ein grundlegendes Problem: die Vorschläge zur Komprimierung der Bilddateien sind vollkommen absurd.

Dieser Artikel bietet keine Antworten. Er soll vielmehr dazu anregen, Erfahrungen auszutauschen. Falls ich Zeit habe, werde ich John Müller von Google im nächsten Webmasterhangout dazu befragen. Das Problem: das PageSpeed-Tool zeigt mir bei vielen Bildern an, dass eine Komprimierung um bis zu 90% möglich sei.

Google Pagespeed: Bildkomprimierung erforderlich !?
Google Pagespeed: Bildkomprimierung erforderlich !?

Nun gibt es eine Diskrepanz zwischen „technisch möglich“ und „ästhetisch sinnvoll“. Der Googlebot ist bekanntlich blind, insofern interessieren ihn ästhetische Fragen nicht. Aber die Benutzer meiner Seiten schon. Hochwertige Bilder können die Erfahrung auf einer Website erheblich verbessern. Bei minderwertigen Bildern geschieht das Gegenteil. Eine zu starke Komprimierung bewirkt genau das: die Bilder werden minderwertig.

Hier mal ein Beispiel (209 kb) von meiner Künstlerseite:

Malerei - Moderne Kunst
Malerei – Moderne Kunst

Und hier die komprimierte Version (34 kB). Das ist immer noch deutlich mehr als die 15 kb, die Google vorschlägt…

Kunstmalerei - moderne Kunst (max. Komprimierung)
Kunstmalerei – moderne Kunst (max. Komprimierung)

Der Unterschied ist in meinen Augen gravierend. Die untere Version ist unansehnlich und wirkt billig bzw. schlecht gemacht. Das Ganze gilt für fast alle Bilder, auch für Fotos. Hier noch ein Beispiel: Albert Einstein (Speedpainting von mir). Zunächst die „normale Version“:

Albert Einstein - gut komprimiert (66 kb)
Albert Einstein – gut komprimiert (66 kb)

Und hier die komprimierte Version (12 kb):

Albert Einstein - krank komprimiert (12 kb)
Albert Einstein – krank komprimiert (12 kb)

Schlimm! Die Komprimierungsrate, die das pageSpeed-Tool vorschlägt, führt zu lausiger Bildqualität. Was nun???

Mein Vorgehen…

Ich ignoriere die Komprimierungshinweise aus dem pageSpeed-Tool und nehme damit in Kauf, dass die Werte meiner Seiten nur bei ca. 60 – 70 von 100 liegen. Nicht gerade optimal, aber was solls. Letztlich sind mir zufriedene User wichtiger als ein zufriedenes Google-Tool.

Rankingverlauf von Bildern
Rankingverlauf von Bildern

Übrigens: wenn ihr die Bilder auf Euren Websites komprimiert, dann ersetzt sie nicht (!), sondern erzeugt neue Versionen (gg. in einem anderen Ordner mit gleichem Dateinamen) und ersetzt sie nur im Quellcode der HTML-Seiten. Ersetzte Bilder fliegen aus dem Index und müssen sich neu „hocharbeiten“. Wenn ihr neue, komprimierte Versionen hochladet, wird Google kurzzeitig beide im Index haben und dann nur noch das, was besser ist (aus Bot-Sicht). Hier der Blogartikel dazu: Bilder nachträglich komprimieren? Besser nicht …

Was meint ihr? Kennt ihr das Problem? Welche Erfahrungen habt ihr bislang damit gemacht? Für wie wichtig haltet ihr die Bildkomprimierung im Zusammenhang mit dem kommenden „mobile-Update„?

Bild - Google optimiert ...
Bild – Google optimiert …

51 Gedanken zu „Google pageSpeed: Bilder optimieren = komprimieren!?

  1. Hey Martin,
    ich glaube du überspitzt das ein bisschen. Eine Komprimierung muss nicht immer gleich ein Qualitäts-Einbruch bedeuten. Bei deinen gezeigten Beispielen gehst du natürlich sehr krass vor, aber mittels Tools wie tinypng oder jpegmini ist eine Verschlechterung nicht vorprogrammiert. Natürlich muss man die Bilder nicht zu Unkenntlichkeit verkleinern, aber ich habe immer wieder Kunden, die Ihre Bilder (die im HTML max. 300 x 400px groß dargestellt werden) auf 2500 x 1500px groß hochgeladen. Und mittels ein bisschen Optimierung und Komprimierung ist auch die Dateigröße mal fix 90% kleiner und das Bild sieht weiterhin gleich gut aus.

    1. ja, gebe ich zu. Mich stört der Hinweis, man könne über 90% reduzieren. Ein wenig mehr Komprimierung – bis zur „visuell wahrnehmbaren Grenze“ ist sicherlich in Ordnung und vertretbar. Aber ich ahne, dass es viele gibt, die nur „nach Anweisung“ vorgehen. Ich denke, Google müsste die Textformulierungen anpassen.

      1. Pagespeed ist mir auch ein Dorn im Auge. Die Vorschläge sind teils sinnlos und einfach viel zu pauschal. Mir schlägt das Tool beispielsweise selbst auf Seiten wo die Bilder schon stark optimiert wurden vor, sie noch weiter zu optimieren, um 3 Prozent einzusparen. Total lächerlich, irgendwann ist einfach mal Schluss.

        Bei Bildern ist in Pagespeed aber auch noch gar nicht halt. Es meckert über Javascript, über Routinen die extra so angelegt sind, weil sie im Einzelfall mehr Performance bringen und so weiter…

        Am Anfang fand ich Pagespeed super, mittlerweile sind viele der Empfehlungen einfach nicht mehr anwendbar oder machen im Einzelfall überhaupt kein Sinn. Lächerlich. Google geht mir Jahr für Jahr mehr auf die Nerven.

  2. Man muss ja nicht zwingend komprimieren – Google zwingt keinen dazu. Es reicht, wenn das Bild korrekt optimiert ist, also Metadaten aus dem Bild raus. Ich komprimiere in der Regel nie meine Artikelbilder, aber ich lasse sie sehr wohl von Optimus optimieren – man spricht dabei von einer verlustfreien Komprimierung. Und ich habe bei meinen Projekten eigentlich fast nie weniger als 100/100 Punkten ;)

    Wichtig ist auch genau hinzuschauen und auf die PageSpeed Insights Hinweise zu achten: Da steht nicht umsonst „Durch die Komprimierung UND Größenanpassung“ ;)
    Ich hatte mal hier sehr ausführlich was dazu geschrieben: https://plus.google.com/b/114450218898660299759/114450218898660299759/posts/iF8n7DSUQLg

    1. Ja, stimmt. Aber die Größe zu verringern ist sicherlich auch nur in wenigen Fällen sinnvoll. Im Gegenteil, eigentlich werden Displays ja immer größer und hochauflösender. Wie gesagt: ich finde die Anweisungen von Google zu den Bildern nicht zielführend und für unerfahrene Webmaster verwirrend.

  3. womit hast du komprimiert?
    macht das auch OPtimus so schlecht,
    ich komprimier mit Photoshop nämlich gar nicht,
    sondern nur mehr mit Optimus und da seh ich nicht so zerschossene Bilder

    die Größenanpassung der Bilder ohne CSS, sondern mit modernen Tools würde deine mobilen NutzerInnen sicher freuen, auch wenn das Bild dann irre Datenmengen hat

    1. Naja, im Grunde ist das Komprimierungstool egal. Die Komprimierungsalgos sind inzwischen wirklich deutlich besser als früher. Entscheidend ist, dass man eben nur bis zu einem bestimmten Punkt optimieren sollte – und das ist der, wo man visuelle eine Verschlechterung feststellt. Dadurch werden die Bilder aber nur zu einem wesentlich geringeren Umfang komprimiert als Googles Tool vorschlägt – und diese Bilder landen dann immer noch in der „ToDo-Liste“ des Tools.
      Wer nur die pageSpeed Insight-Angaben umsetzt, macht seine Seite schlechter (bezogen auf die Bilder). Meine Meinung :-)

      1. das Tool meckert auch bei der Größenanpassung
        es ist nicht wirklich nicht mehr nötig ein Bild mit 2000px in den Beitrag zu jagen , um es dann via CSS auf die Hälfte der Größe zu verkleinern :-)

        jpegmini.com löscht ebenfalls die ExifDaten raus, Optimus macht es aber besser, weil es auch die erzeugten Thumbs von WP optimiert

        und dir sogar dein Originalbild erhält, wenn du es magst..

        1. Und warum nicht? iMacs haben 5K und auch sonst gehen Auflösungen immer höher. Klar kann ich jetzt wieder 5 verschiedene Bilder anlegen, aber ich kann auch einfach das 2000px verkleinern und es beim Klick vergrößern, eventuell in einer Lightbox, ohne wieder den Ballast dutzender Thumbs zu haben.

          Theoretisch sollte das doch heute alles möglich sein, stattdessen geht der Trend zurück und Websites sehen wieder aus wie in den 90er Jahren, nur damit die lahmen Smartphones damit zurechtkommen.

          Trotzdem… es ist Zielgruppenabhängig.

  4. Wollte auch im Laufe der Woche noch Stellung dazu nehmen und sehe das mit dem PageSpeed Insight ähnlich wie du.
    Meine Seite könnte laut Google immer noch einiges an Gewicht sparen durch Bilder-Komprimierung, was bei mir eigentlich kein Thema ist (da keine Fixierung auf Bildmaterial vom Inhalt).
    Trotzdem finde ich es doch absolut unrealistisch, die Bilder auf ein Niveau zu crunchen, das Google da vorschlägt.
    Auch einige WordPress PlugIns, die z.B. die Meta-Angaben von Bildern entfernen, reduzieren die Größe der Bilder etwas, das ist dem Google Algo von den PSIs aber herzlich egal oder einfach schlicht zu wenig.

    Generell finde ich es gut, dass Google sich mit dem Thema Ladegeschwindigkeit mehr beschäftigt, habe sogar in einem Blog gelesen, dass auf Android Browsern mit einem Hinweis auf langsame Websites experimentiert wird.

    Wie sich das ganze auf bildlastige Websites auswirken wird, wird sich zeigen. Google wird hier aber denke ich deutlich differenzieren müssen.

    LG

  5. Also bei mir würde auch immer eher ein ansehnliches Bild vor schnellen Ladezeiten gehen. Allerdings kann man ja vielleicht auch einfach auf einen Kompromiss setzen. So weit es geht komprimieren, solange man noch mit der Qualität leben kann. Eine leichte Verschlechterung des Bildes ist ja manchmal noch zu akzeptieren, wenn man dafür ein bisschen beid er Datenmenge spart.

    1. ja klar. Siehe meine Kommentare zuvor. Ich wollte nur zuspitzen, dass man die Tool-Empfehlungen bzw. das „Erforderlich“ nicht 1zu1 umsatzen sollte / kann. Die Größenordnung von über 90% Einsparung durch Komprimierung ist unmöglich.

  6. Wo hast du die Anweisung von Google gefunden, das Einstein-Bild so intensiv zu komprimieren?
    Bei mir schlägt er nur 1,9 KB (3%) vor:
    https://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F%2Fwww.tagseoblog.de%2Fimages18%2Falbert-einstein-1.jpg&tab=mobile

    Mit der PageSpeed Insights Browserextension kannst du dir die nach Google-Maßstäben optimierten/komprimierten Bilder anzeigen lassen und abspeichern. Ich sehe dabei keinen Unterschied zum Original.

    1. Ja stimmt. Das ist schon eine reduzierte Datei. Ich wollte den Unterschied nur deutlich machen. Danke für den Hinweis zum pageSpeed-Tool. Habe ich nun installiert, praktisch zum Arbeiten und testen…
      Interessanterweise schlägt Google sogar bei dem gnadenlos minimierten Bild vor, es nochmal um 6% zu komprimieren. https://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F%2Fwww.tagseoblog.de%2Fimages18%2Falbert-einstein-2.jpg

      Vielleicht sind es irgendwelche Photoshop-Anhänge, die Google rauswerfen will???

  7. Jep, ich ärgere mich auch immer beim PageSpeed-Tool, wenn mir wegen den Bildern Punkte abgezogen werden. Dabei kompremiere ich meiner Bilder viel mehr als du.
    Bei .jpg meist 70%. Weiter runter möchte ich da auch nicht gehen, weil dann die Qualität extrem leidet. Von der Größe optimiere ich die Bilder auch genau die den Content-Bereich des Themes.
    Zusätzlich hab ich überall Optimus laufen.

    Mehr kann ich also nicht machen und Google bemängelt trotzdem noch die Bilder. Meiner Meinung muss da Google nacharbeiten, nicht ich.

    1. Kannst dir sparen. Ich hab das mit deinem Beispielbild oben probiert. Das Tool hat einfach die Kompressionsrate auf 87 runter gedreht.
      Das gleiche habe ich mit Fastone Capture (mein bevorzugtest Tool) gemacht und genau das gleiche Ergebnis erhalten. Sowohl von der Dateigröße, als auch von der Qualität.

  8. Hallo Martin,

    Danke für den spannenden Artikel. Was mich interessiert ist deine Sichtweise zu großen Bannern/Bildern, die gerade auf One-Page-Seiten zu sehen sind… solche Seiten können ja nur verlieren oder sehe ich das falsch?

  9. Hi Martin,

    danke für den Hinweis mit der Neuindexierung bei Überschreibung der Bilddatei.
    Als Mobile User mit relativ schnell auf gebrauchter Datenflat, freue ich mich über jedes komprimierte Bild. Da nehme ich die schlechtere Bildqualität gerne in Kauf. Hauptsache es erscheint überhaupt etwas in den kommenden Sekunden. Perfekt wäre es ohne Performanceeinbüßen die Bildqualität nach Übertragungsrate auszuspielen.

    Luis

  10. Hallo,

    meiner Meinung nach dient die Angelegenheit mit den Bildern nur als grober Richtwert. Denn es gibt ja nicht nur Bilder aus einem Artikel ( Content ), sondern eben auch Hintergrundbilder wie CSS Sprites, Bilder in WordPress Themes, und Shop Templates usw. ( Design der Website ). Diese nicht relevanten Bilder kann man ja auf Teufel komm raus komprimieren, Artikelbilder oder Produktfotos aber sollten nur nicht den Rahmen sprengen. Google unterschiedet hierbei ja nicht welches Bild zum Design und welches zum Content gehört und beanstandet eben jedes Bild, das man komprimieren könnte.

    Interessant find ich ausserdem, das PageSpeed Insights immer etwas grober und schlechter war, wie zum Beispiel PageSpeed im Firefox mit Firebug. Da konnte man wenigstens noch die komprimierten Bilder und CSS Codes direkt downloaden.

  11. Also… Mit 60% komprimieren reicht vollkommen. Wenn Page Speed dann immer noch meckert, dann liegt das an der Größe (Breite) und Du kommst um das picture Element mit mehreren Größen nicht herum. Es bringt nichts einem iPhone mit 320px Bildschirmbreite (wir reden von CSS Pixeln! Nicht die Auflösung, die viel höher liegt) ein 1000px breites Bild CSS runterskaliert zu präsentieren. Da ist eine 400px breite Version besser.

  12. Hi,

    ich mach das in der Regel so das ich initial ein stark komprimiertes Bild lade .. dann auf JS Event scroll oder scrollstart das hochauflösende Bild async nachladen. Ggf. noch ne Viewport Erkennung und dann das entsprechend aufgelöste Bild anzeigen.

    Damit meckert kein PageSpeed mehr und ich zeige für den User qualitativ gute Bilder an.

    Matthias

    1. Hi Matthias,

      eine interessante Lösung.
      Auf welcher Seite hast du das bereits umgesetzt? Ich würde mit das sehr gerne anschauen :-).

      VG
      Luis

  13. Hallo Martin,

    ich sitze hier gerade vor einem (nicht so tollen) Firmenmonitor. Dort erkenne ich die Unterschiede zwischen den Bildern kaum.

    Von daher wäre evtl. die Frage zu klären wieviel Nutzer einen schlechten Monitor haben und wieviel gute Monitore genutzt werden, bzw. bei welcher Zielgruppe es Sinn macht die Bilder in guter Qualität (Grafiker/Fotografen) zu zeigen oder ob eine weniger gute Qualität reicht (Lieschen Müller) :-).

    Möglicherweise würde es ja dann doch reichen, wenn die Bilder in schelchterer Qulität veröffentlicht würden.

    Gruß
    Volker

    1. ja, danke für den Hinweis. Denn natürlich hängt die Frage auch mit der Qualität der Displays zusammen – und mit einem „visuellen Gefühl“. Für manche mag das oben kaum ein Unterschied sein, ich empfinde ihn als sehr krass.
      Nur: worauf läuft das hinaus? Dieses ständige bis an die Grenze minimieren führt doch im Zweifelsfall zu einer etwas zu schlechten Bildqualität. Bei der Entwicklung der Dtaenleitungen meines Erachtens die falsche Richtung.

      Videos sind um ein Vielfaches größer, und da empfiehlt Google/youtube aus gutem Grund HD oder sogar Full-HD, weil klar ist, dass die Entwicklung zu immer besserer Auflösung und schnelleren Datenleitungen geht.

  14. Also ich erkenne auf meinem Standard Acer G236HLBbid LED Monitor den Unterschied schon deutlich. Ich denke auch Google müsste hier seine Hinweise anpassen bzw. besser sich in der Erkennung was möglichst ohne Qualitätsverlust komprimierbar ist verbessern.

  15. Also für Foto, bzw. Bilder mit viel Details, Schatten und Verläufen nutze ich nur noch PNG und bei Illustrationen und Icon-Maps SVG.
    Die PNG werden dann noch mit compresspng.com quasi verlustfrei komprimiert und gut.
    Die Datei selbst regel ich meißt mittels PHP und User Agent, je nachdem welches Device. Aber meist mache ich nur für Smartphones eine andere Variante. Vorrausgesetzt, die Bilder von den breiteren Devices, sind deutlich größer.

  16. Du hast zwar oben bereits geschrieben, dass es recht egal ist, welches Tool komprimiert. Vielleicht ist aber tinyjpg.com dennoch einen Blick Wert.
    Ich habe dein Einstein-Bild mal spaßeshalber damit komprimiert. Aus 66 kb hat das Tool zwar „nur“ 49 kb gemacht, aber wie ich finde, ohne wirkliche Qualitätsminderungen.
    Ich rechne meine Bilder in Photoshop normal raus, ziehe sie bei tinyjpg.com drüber. Google meckert dann nicht mehr und ich finde die Qualität im Verhältnis zu der Bildgröße richtig gut.

  17. Nuetz doch PNG – die Bilder werden zwar in der Dateigroesse zumeist groesser. Hat den Anschein dass das Format von Android bevorzugt wird, jedenfalls wird es fuer Android Entwickler ausdruecklich von Google empfohlen. Ob es ein paar K mehr oder weniger hat, macht ohnehin nichts, bei den Bandbreiten die ihr in Deutschland habt.

  18. Denke ich auch, dass viele gute Bandbreiten haben, höchstens bei den gedrosselten Mobiltarifen siehts vielleicht anders aus.

    Ich mache das schon seit Jahren so:
    Auf der Hauptseite (Einstiegsseite) versuche ich die Bilder so klein wie möglich zu halten.
    Ansonsten ist es mir auch relativ egal.

    Aber unter Photoshop (meine Bildbearbeitung) gehe ich immer automatisch unter: „Speichern für das Web“ da sieht man ja dann die besten noch möglichen Auflösungen und speichere auch dementsprechend.

    Wenn ich mal nicht mit PS arbeite lasse ich einfach die große Bilddatei, wenn sie nicht zu riesengroß ist (in kb).
    Also du hast schon ganz recht.

    Danke Allen für manche guten Infos hier

    lg Wally

  19. Das scheint mir ein Mißverständnis zu sein, es geht Google und dem Page Tool um adaptive Bilder, nicht nur um JPEG Komprimierung.

    Das Pagespeed Tool schreibt ja nicht umsonst „durch die Komprimierung und Größenanpassung […]“.

    Was Du gemacht hast war reine JPEG Komprimierung. Was für mobile Geräte sinnvoller ist, ist die Größenanpassung per adaptiven Bildern.

    Es geht darum, dass keine 1200×900 Bilder resized auf 400×300 angezeigt werden. Mehr infos unter http://adaptive-images.com/

  20. Ich kenne das Problem. Daher habe ich mich über deinen Artikel gefreut, dann aber mit „Ernüchterung“ festgestellt, dass du zum selben Schluss gekommen bist. Qualität > Performance.

    Pixelgewitter überlasse ich den Google-Jüngern, aber das muss jeder selbst wissen.

    Beste Grüße

  21. Bilder auf unter 20 kB zu komprimieren, erinnert mich an die Steinzeit der Internetseitengestaltung, als „Homepages“ noch Frames gehabt haben.
    LG
    Sabienes

  22. Du sprichst mir mit diesem Artikel mal wieder aus der Seele, Martin.

    Ich bin ebenfalls von einigen Google Anforderungen extrem genervt. Ganz aktuell beispielsweise von der Aufforderung auf „Mobile friendly“ umzustellen. Du glaubst gar nicht wie oft ich auf für mobile optimierten Websites nach dem zur „Desktop Ansicht wechseln“ Link suche, weil diese einfach einen bessern Überblick bietet. Zum Beispiel wenn es um Vergleiche, Tabellen oder auch Charts geht…

    Was die Bildoptimierung angeht fahre ich schon seit einiger Zeit aber sehr gut mit dieser Vorgehensweise:

    1. Fotos mit der Photoshop Funktion „Für Web speichern“ (jpeg – 60%) verkleinern. Dein Albert Einstein Bild hätte damit beispielsweise nur 50 statt 60 kb, ohne sichtbaren Unterschied.

    2. In WordPress dann automatische Optimierung über Sergejs bereits mehrfach erwähntes Optimus Plugin.

    3. WP Rocket Pagespeed Plugin verwenden

    Seit ich diese Kombination verwende, schimpft das PageSpeed Tool von Google nur noch über Bilder die von extern kommen Z. Bsp. Werbebanner. Zu den eigenen Bildern gibt es keinen negativen Hinweis.

  23. Ich seh es ehrlichgesagt auch nicht ein, alles 1:1 umzusetzen. Vor allem solange man nicht weiß, ob die Kennzahlen tatsächlich für ein Ranking relevant sind. Bei Nutzererfahrung mobil habe ich 99%, ansonsten mobil 67%. Was ist jetzt hierbei wichtiger?

    Bilder möchte ich mobil nicht kleiner laden, sondern eher etwas größer, da sie dann auf hochauflösenden Geräten schärfer daherkommen. Dann lieber eine gute Nutzererfahrung, als 3 Punkte mehr auf der Pagespeed Gala.

    Optimus würde ich verwenden, aber leider unterstützt das Plugin keine nachträglichen Änderungen an den bestehenden Bildern.

  24. Hat jemand Erfahrungen mit „Lazy Image Loading“ gemacht, nachdem Google jetzt Webseiten mit Javascript besser versteht (http://googlewebmastercentral.blogspot.de/2014/05/understanding-web-pages-better.html)?

    Wenn man viele Bilder auf der Webseite hat, ist es für den User ja viel angenehmer, wenn die Bilder erst geladen werden, wenn sie in den Sichtbereich scrollen.
    In der Vergangenheit wurde immer davon abgeraten Lazy Image Loading anzuwenden, da es einen negativen Effekt auf SEO habe. Wie sieht es aber jetzt aus? Hat Google dazugelernt? Weiss da jemand was?

  25. Also ich habe auf meinen privaten WordPress Blog immer Schwierigkeiten mit den Bildern. Da ich gerne über Reisen berichte, poste ich entsprechend viele Bilder. Diese sollten nach meinem Geschmack auch nicht komprimiert werden. Darunter leidet sichtlich die Qualität wie du schön gezeigt hast.

    Im Moment versuche ich alle anderen Faktoren für den Page-Speed zu optimieren und lasse die Bilder in hoher Auflösung, ob es für Google reicht, wird sich zeigen.

    1. Hallo Heinz

      Bilder kann man auch verkleinern indem man zb diese in reduzierter Auflösung hinaufstellt. Oft braucht man keine 20Mpx in einen Internet Blog und an der Qualität ändert das auch nichts. Lieber eine maximale Breite von 2000-3000px haben dann bleiben die Dateien deutlich kleiner und die Qualität dieselbe.

      Für noch kleinere Bilder kannst du dir mal das online Tool ansehen ? http://www.jpegmini.com/main/shrink_photo

  26. Hallo Martin,

    Danke für den tollen Artikel. Seitenoptimierungen gerade in der Größe ist auch in der heutigen Zeit enorm wichtig – selbst bei Breitbandanschlüssen. Je schneller die Seite ladet desto interessanter erscheinen Sie für den Kunden.

    Falls du das Tool nicht kennst gibt es für die JPEG Bildkomprimierung hier ein extrem Brauchbares tool das ich sehr gerne verwende: http://www.jpegmini.com/

    Liebe Grüße
    Michael

  27. Hallo Martin,

    Dein Artikel spricht mir aus der Seele! Ehrlich gesagt nervt mich google auch mit dem ewigen Gemäkel. Natürlich muss man die Vorschläge nicht umsetzen, aber es hinterlässt dennoch ein ungutes Gefühl, wenn man befürchten muss, dass google die Seiten im Ranking abrutschen lässt, wenn man es nicht tut. Somit steht indirekt schon ein gewisser Zwang dahinter, zumindest gefühlt.

    Was google im Optimierungseifer völlig außer acht lässt, sind die Besucher – und für die sind die Seiten ja letztlich da. Unsere Seite z.B. hat einen regionalen Bezug, demzufolge kommen die Besucher kommen zu 99,6% aus unserer Stadt, die flächendeckend mit einem schnellen Netz gesegnet ist, d.h. für unsere Besucher kommt es nicht auf die Millisekunde an.

    Unter anderem präsentieren wir Immobilienangebote im Auftrag unserer Kunden und diese Kunden erwarten (zu Recht) qualitativ hochwertige Bilder. (Stark komprimierte Bilder sind ja schon zu Hauf in den gängigen Internetportalen zu finden und wer mit dem Handy surft, sucht ohnehin eher dort.)

    Kurzum: Die Zielgruppe unserer Seiten sind eigentlich gar nicht die Smartphone Surfer, unsere Seiten werden häufig von der Generation aufgesucht, die noch per Desktop oder Laptop ins Netz geht. Bei denen kommt die Seite auch gut an, und von den echten Nutzern die wir befragt haben, hat noch nie jemand bemängelt, dass die Seite langsam wäre. Aber was nützt uns das, wenn google sie irgendwann nur noch unter „ferner liefen“ platziert, weil sie nicht optimal für kleine Smartphones und für langsame Mobilverbindungen ist?

    Google verliert in Speedwahn völlig aus dem Blick, für wen die Seiten konzipiert sind. Wenn ich mir Kunst anschauen möchte, (wie deine wunderschönen Beispielbilder), tue ich das nicht mit dem Smartphone, dann möchte ich die Bilder großformatig und in bestmöglicher Qualität anschauen. Gleiches gilt, wenn ich mich irgendwo zu einem Thema ausführlich informieren will und lange Texte lesen möchte. Wenn ich mit dem Smartphone im Netz bin, „konsumiere“ ich andere Inhalte, dann will ich die schnelle Info zwischendurch. Und stoße ich dabei auf interessante Seiten, kehre ich bei Gelegenheit auch gerne vom Desktop aus noch einmal auf diese Seiten zurück um mich dort in Ruhe umzuschauen.

    Ich denke es geht vielen so, dass sie auf dem Smartphone andere Inhalte konsumieren, als wenn sie am Rechner sitzen. Deswegen geht es meiner Meinung nach völlig am Nutzer (oder zumindest an sehr vielen Nutzern) vorbei, wenn man nun ALLES auf Page Speed trimmt, Inhalte immer mehr kürzt und Bilder immer stärker komprimiert. Andererseits setzt es einen als Webmaster schon unter Druck, wenn google so viel zu bemängeln hat, dass man uns hart erkämpfte Ranking fürchten muss. Da bleibt nur zu hoffen, dass google irgendwann einsieht, dass auch ästhetisch anspruchsvolle Desktop / Laptop Nutzer noch eine „Daseinsberechtigung“ im Netz haben …

  28. Ich komprimiere in der Regel nie meine Artikelbilder, aber ich lasse sie sehr wohl von Optimus optimieren – man spricht dabei von einer verlustfreien Komprimierung

  29. hm bin durch zufall (suche nach Pagespeed) auf deine Seite gekommen.

    Warum rufst du nicht die ssh shell auf und optimierst deine Bilder komplett mit mogrify? (Das gleiche wie convert)

  30. Google legt für ihre Messungen ihr Format webp zu Grunde. Damit sind die Werte ohne weiteres zu erreichen. Leider wird es nicht von allen Browsern unterstützt.

  31. Servuus,
    besten Dank für die Hinweise. Da wir im Accessoiresbereich sind, spielt Bildqualität bzw. Produkfotografie an sich bei uns eine riesige Rolle. Laut Pagespeedtest kommen wir gerade mal an die 60/100 ran. Also haben wir nun genau das beschriebene Dilemma. Bilder komprimieren, um schneller zu sein oder so lassen und bessere Produktbilder anbieten.
    Es muss doch aber einen Mittelweg geben. Gibt es denn Tools, die unter Berücksichtigung der visuellen Ergebnisse komprimieren?

  32. Ich habe mir heute eine php Datei gebaut, die alle Bilder in einem Verzeichnis aufruft.
    Diese Datei habe ich dann in Pagespeed aufgerufen.
    Pagespeed hat mir alle zu verbessernden Dateien zum Download angeboten.
    Habe ich gemacht und eine Verbesserung der Pagespeed Werte erfahren.
    Die Bilder erschienen mir optisch aber nicht optimal.

    Der nächste Schritt war dann, die Original Bilder mit dem Code aufzurufen. Über die Originalbilder kann ich bei mir im Shop info und thumbnail Bilder optimieren lassen.

    Das habe ich mit der Einstellung 80% Komprimierung im Shop gemacht.
    Im Nachgang habe ich versucht, meinen HTML Code erneut aufzurufen.

    Pagespeed gibt mir keine zu verbessernden Bilder aus. Mir wird vorgegaukelt, dass alles perfekt ist.

    Rufe ich in Analytics einzelne Seiten auf, wird angemeckert, dass Seiten um ca. 500 Byte optimiert werden könnten.

    Ich finde es ziemlich blöd, dass Google Pagespeed mir das beim zweiten Aufruf meiner php Datei/Anfrage nicht anzeigt.
    Es geht hier immerhin um 1-2 Punkte, die ich verbessern könnte.
    Jetzt habe ich die original Bilder im Shop nochmals optimieren lassen.
    Stabdard Angabe ist dort 80% komprimierung. Ich bin jetzt auf 68% gegangen, weil Pagespeed immer ca. 11-12% anmeckert.
    Das Ende vom Lied… auch hier meckert Google noch rum.

    Kann man irgendwo nachlesen, wie man Bilder manuell komprimieren muss, damit Google zufrieden ist?

    Gruß Alois

  33. Ich bin richtig froh, dass hier auch andere nicht so toll mit der Google pagespeed Auswertung zufrieden sind.

    Vor allem stört mich eines.
    Da hab ich meine Seite nun noch im August relaunched und alle!! eigenen Bilder auf der Startseite optimiert. Von pagespeed wurde nur das extern eingebunde Siegel angemeckert. Doch da hab ich keinen Einfluss drauf.
    Punkte gab es 94. Nun bin ich wieder bei 87 und ich soll noch Bilder komprimieren.
    Hat da Google nun den Algorhytmus geändert?
    Das wird ja eine endlose Story.

    Würde mich freuen, wenn andere ähnliche Erfahrungen gemacht haben.
    Grüße,
    Tom

Kommentare sind geschlossen.

Kommentare sind geschlossen.