Persönlich würde ich auch empfehlen, die Optimierungen manuell vorzunehmen, statt sie einem Modul anzuvertrauen.
Das mag für einen kleinen, handgeschriebenen und relativ statischen Webauftritt noch machbar sein.
Wie viele Mannjahre braucht man wohl für einen riesigen Webauftritt mit Komponenten aus diversen Quellen/Abteilungen/etc., um den
- existierenden Content einmalig und
- neuen Content fortlaufend
zu optimieren? Wer würde so ein Projekt finanzieren wollen?
Wie sieht es mit der riesigen Anzahl
CMS in freier Wildbahn aus, die suboptimalen Output produzieren?
Welche realistische Chance hat ein Webmaster, sowas von Hand zu optimieren?
Das Modul ist nicht dark-magic, sondern versucht Best-Practices zu automatisieren. Ich halte es schlichtweg fuer ueberfluessig.
Das Modul ist brilliant. Als Gegenleistung für ein wenig Rechenleistung - und wir wissen alle, wie rotzbillig die inzwischen ist - spart man sich die manuelle Optimierung der ganzen existierenden und neu entstehenden Seiten.
Hinzu kommt: für alle weiteren möglichen Verbesserungen, die sich in Zusammenspiel mit neuen Technologien und Techniken ergeben, muss man mit
mod_pagespeed nur ein Apache-Modul aktualisieren.
Bei der handoptimierten Variante bedeutet das jedesmal wieder viel manuellen Aufwand.
Die Diskussion erinnert mich ein bisschen an Diskussion
- manuelles Speichermanagement vs. Garbage Collection und
- handgeschriebener Assemblercode vs. Compiler
in der Vergangenheit.