Battweilerer hat geschrieben:Was Reifenberg betrifft: Bei uns passiert so wenig, da wird eigentlich über jeden "Pups" berichet. Auch heute wieder. Es hat wohl ein Bagger eure Glasfaserleitung in Käshofen zertrennt. Autsch !!!
Nicht nur in Käshofen.
Battweilerer hat geschrieben:Und über Reifenberg stand im Juli in der RP, das im August geschaltet wird....
Anscheinend stimmen die Prognosen manchmal doch...

Battweilerer hat geschrieben:Zur Geschwindigkeit: Welche Möglichkeiten habe ich persönlich die Messung durchzuführen ? Ich meine mit welchem Tool ? Das von avm ? Es bringt mir ja nichts, wenn ich das 50.000er Paket bezahle und nur die Hälfte zur Verfügung steht.
Puh. Diese Sache wird gerade von BNetzA, VATM und einigen anderen heiß diskutiert. Die Frage ist gar nicht so einfach zu beantworten. Man kann das Netz in drei Teile trennen:
1) Die letzte Meile, also die Strecke zwischen den beiden DSL-Modems. Was hier übertragen wird, kann man selbst an Hand der Fritz-Box überprüfen. Stimmen die dort angezeigten Werte, ist das die halbe Miete. Stimmen die Werte nicht, ist die Leitung zu lang, zu dünn oder zu schlecht. Wenn das so ist, hat man darauf auch nur selten Einfluss.
2) Das Netz des Anbieters, d.h. die Leitungen zwischen Vermittlungstechnik im Ort und dem Übergang ins "Internet". Dort muss genügend Kapazität vorhanden sein, damit die Daten durch- und abtransportiert werden können, und diese Leistung schuldet der Anbieter. In der Praxis kenne ich keinen DSL-Anbieter, der in seinem Netz dauerhafte Engpässe hat, aber sie können punktuell durchaus auftreten.
3) Das Internet*. Jenseits der Netzübergänge endet der Einfluss des Anbieters. An Netzübergängen kann es durchaus Probleme geben (siehe Telekom vs. YouTube), allerdings sind diese logischerweise nicht einseitig lösbar. Der Zugangsanbieter hat keinen Einfluss darauf, was hinter dem Netzübergang passiert.
Zur ursprünglichen Frage: Vergleichsweise zuverlässig ist es, wenn Du mehrere große Dateien parallel von mehreren Servern herunterlädst (oder hochlädst), von denen Du weißt, dass sie außerhalb des Anbieternetzwerks gut angebunden sind. Dazu folgende Einzelheiten:
- außerhalb des Anbieternetzwerks, um den gesamten Weg von 1 bis 3 abzudecken
- mehrere Dateien, weil manche Server bei einzelnen Downloads eine Maximalrate haben
- mehrere verschiedene Server, um Effekte durch die unterschiedliche Anbindung der Quellen zu verringern
- brauchbar sind unter diesen Voraussetzungen zum Beispiel öffentliche Mirror-Server von großen Open-Source-Projekten
- große Dateien, weil TCP als Protokoll zu Beginn der Übertragung ein Einschwingverhalten hat (Slow Start), das bei kleinen Dateien die Messung verzerren kann; auch die Latenzzeit spielt dabei eine Rolle
- je nach eingesetztem Betriebssystem müssen Window Scaling aktiviert und Puffer vergrößert werden, weil die Endpunkte sonst nicht genügend Pakete auf die Leitung bringen
- der Computer sollte nicht per WLAN angebunden sein. WLAN wird nämlich in den meisten Fällen nur halbduplex betrieben und die Übertragungsrate zwischen Access-Point und Endgerät ist zu sehr von baulichen Merkmalen und der Nachbarschaft beeinflusst.
- der Download sollte die einzige Aktivität sein (andere Applikationen und Geräte deaktivieren)
- Software, die durch Prüfung der Daten die Übertragung verlangsamen könnte (z.B. manche Personal Firewalls oder Virenscanner) sollte für einen sauberen Test deaktiviert werden
- Vorsicht noch bei den Einheiten: Bei manchen Betriebssystemen und Anwendungen ist 1 MB nicht 1.000.000 Byte, sondern 1.048.576 Byte (= 1 MiB).
Bei einem 50 Mbit/s-Anschluss soll dabei in Summe eine Übertragungsrate von etwas über 6 MB pro Sekunde herauskommen. Klappt das, ist alles okay. Klappt das nicht, dann ist irgendwo ein Flaschenhals, aber Du weiß nicht, wo.
*Als Anmerkung, insbesondere vor dem Hintergrund der Diskussionen über Netzneutralität: Es ist eine Frage der Perspektive, ob das Netz des Anbieters Teil des Internet ist, oder ob das "Internet" erst an den Übergängen zu fremden Netzen beginnt.