von vauwe » 18.03.2006 21:44
Wie wäre es mit ein wenig Automation? Man kann Seiten auch automatisiert holen und die Zeiten messen. Unter Unix würde ich dazu `wget' nutzen (soweit ich weiß, gibt es dazu auch einen Windows Port).
Damit lassen sich komplette HTML-Seiten und eingebettete Inhalte abholen. Der Vorteil davon ist, daß man tatsächlich nur die Bandbreite bzw. die Server-Responsezeiten mißt, aber die Zeit, die der Browser für das Rendering verschwendet, außen vor bleibt. Das Rendering ist nicht von der Bandbreite abhängig, sondern hängt nur von der verwendeten Rendering-Engine und der Prozessorleistung ab.
Hat nicht mal jemand Lust, mit etwas Skripting zu spielen? Unter *nix könnte ich mit ein wenig bourne (oder bash) aushelfen...