Fehler20 hat geschrieben:Du kannst ja den technischen Hintergrund für die wesentlich höheren Kosten erläutern...
...
Anderes Beispiel (Windows) Updates: braucht ja erstmal jeder PC. Wenn sich jetzt die durchschnittliche Patchgröße verdoppelt, muss vereinfacht gesagt jeder Provider die Kapazitäten zum Update Service mal eben verdoppeln.
Zum Einen ist das Windows-Update ein schlechtes Beispiel, weil man diese Updates sozusagen zu einer Art "Grundrauschen" des Internets zählen kann, da sie jeder Windows-Nutzer immer wieder braucht und hoffentlich nicht abgestellt hat. Auf diese Belastung konnte man sich also sowohl technisch wie auch kalkulatorisch sehr gut einstellen. Eine plötzliche Mehrbelastung ist hier nicht zu erwarten. Wer das Kernnetz nicht auf soetwas eingestellt hat, ist fehl am Platz.
Zum Anderen beschreibst Du hier wieder das Problem der Spitzenbelastungszeiten. Da sieht es natürlich anders aus, als in den Zeiten, wo genug "Leerlauf" vorherrscht. Dass eine zunehmende Spitzenbelastung einen Ausbau erfordert, wenn die Daten dann auch noch möglichst flüssig übertragen werden sollen, ist ja keine Frage. Oder man greift auf fremde, gemietete Leitungen zurück (wo vorhanden und nutzbar), was natürlich zusätzlich kostet.
Da muss man aber auch nicht mit irgendwelchen komplizierten "BWLer-Zahlen" agieren. Dass die Bandbreiten irgendwann ausgelastet sind und immer mal wieder wegen dem zunehmenden Bedarf erweitert werden sollten, ist einfach zu verstehen. (Das hat dann aber mit möglicherweise ungenutzten, unausgelasteten Resourcen in den Nebenzeiten aber eher soviel zu tun, dass dann ggf. noch mehr Resourcen ungenutzt sind, wenn die nicht anderweitig genutzt werden können oder auch dort der Bandbreitenbedarf höher ist.)
Es gibt ja außerdem Wege, Daten relativ lokal vorzuhalten (Beispiel Proxy-Technik), die sonst sehr oft wiederholt über die stark belasteten Leitungen geladen werden - eben auch von der Mehrheit. Hier fragt sich allerdings, was teurer ist: wieder übertragen oder "zwischenspeichern und bei Bedarf ausliefern".
Fehler20 hat geschrieben:...
Jetzt stell dir mal vor, du musst die Seekabel für mehrere 10 GBits unterhalten und pro Jahr verdoppelt sich die Bandbreite. Jetzt kannst du NICHT hingehen und auf das Seekabel "einfach" eine andere GF-Einheit pömpeln, sondern musst im schlimmsten Fall das komplette Seekabel neu verlegen, weil in einem Seekabel unter Wasser Regeneratoren eingebaut sind, die mit der neuen Technik nix anfangen können. Gleiches gilt für Backboneleitungen über längere Strecken: es müssten oftmals Zwischenverstärker eingesetzt werden, bei einem Upgrade muss alles getauscht werden. Und dann darf während des Upgrades ja nix ausfallen, also bitte alles mindestens doppelt ausgelegen. Und jetzt stell dir mal vor, Youtube hält die 10000 beliebtesten Videos in deinem eigenen Netz an jedem Einwahlknoten vor und die Daten müssten nicht erst durch halb Deutschland. Wäre cool, oder?....
Die alte Strecke (solange sie noch funktioniert bzw. das in Betrieb-halten nicht zu teuer wird), wird man wohl kaum deaktivieren. Wenn ein Unterseekabel bzw. eine Sat-Strecke nicht mehr ausreicht, müssen neue Kapazitäten dazukommen (wenn das vorhandene nicht "updatefähig" ist, also verhältnismäßig kostengünstig zu "beschleunigen" ist). Wenn hier aber schon drei Prozent (Privat-)Nutzer mit ihrer umfangreicheren Nutzung das Netz bei den aktuell vorhandenen Zugangsarten (wohl vorrangig immer noch ADSL) in Bedrängnis bringen, dann stellt sich die Frage der Kalkulation - oder genau bei den Kalkulationsfehlern. Das Kostenproblem bei Übertragungen "über den großen Teich" haben auch die Telekom-Konkurrenten. Das Unterbieten ihrer Konkurrenten wird die Telekom nicht schaffen. Somit wären eher manche Preissenkungen zu hinterfragen. Zumal es solche Dienste wie Youtube nicht erst seit gestern gibt.
(Nebenbei: Gedrosselt wird man ja auch nicht nur, wenn man zu lange Bandbreite auf den teuren Unterseekabeln usw. belegt sondern auch dann wenn man zu lange wesentlich kostengünstigere Leitungen mit den Daten "belastet".)
Die Telekom lässt auch ihre Ausbaupläne hintergründig in einem schlechten Licht dastehen, da eine massive Ausweitung von VDSL und eine damit einhergehende Verringerung des Traffic von ADSL-Anschlüssen zu immer weniger Möglichkeiten führen würde, mit ADSL überhaupt irgendwelche dann noch nennenswerten Belastungen herbeizuführen. Dann würde sich das Thema "Drosselung" bei ADSL-Anschlüssen aber zunehmend von selbst überleben.
(In den VDSL-Leistungsbeschreibungen standen die Drossel-Werte ja schon größtenteils drin. Da wäre nur die "Lücke" der Entertain-Verträge ohne Drosselklausel geblieben.)
Wenn man allerdings davon ausgeht, dass dann immer noch verhältnismäßig viele ADSL-Anschlüsse übrig bleiben und diese auf Grund der zunehmenden Internetnutzungen immer mehr ausgelastet werden, dann ist ein Netz, was schon von drei Prozent der Kunden start belastet wird, in Gefahr...
Fehler20 hat geschrieben:...
Und mit den Managed Services belohnt man diejenigen Firmen, die ihr Netzwerk so intelligent basteln, dass die Daten einen möglichst kurzen Weg haben. Und um die Firmen dazu zu bekommen, Managed Services zu benutzen, zwingt man sie, indem man den Kunden damit einen Mehrwert bieten kann (über die Umgehnung der Drossel). Sonst ist es dem Kunden nämlich egal, wo das RZ mit seinen Daten steht.
...
Was die "Managed Services" angeht:
Was haben vom Kunden zusätzlich zu bezahlende "Managed Services" mit den Standorten der Dienste-Lieferanten zu tun?
Soll der Kunde die Standorte bezahlen - wohl kaum. Wenn es den Dienste-Lieferanten um mehr Bandbreite für die Kunden gehen sollte und die Kapazitäten zum Kunden allgemein ein Problem darstellen (wegen einem teuren Übertragungsweg), dann gibt es die Möglichkeit mit den verteilten Serverstandorten schon heute - ganz ohne "Managed Services".
Wo steht, dass auf die Daten der "Managed Services" dann lokal an allen Stellen, wo auch Entertain eingespeist wird, direkt zugegriffen werden kann - ohne das diese Daten dann auch wieder über Datenleitungen herangeholt werden müssen?
Wenn man die Daten von "Managed Services" aber über nur umgewidmete Datenautobahnen schickt (also von dem eigentlichen Internet abgezweigt), den Rest des Internets aber zum "Feldweg" verkommen lässt, dann hat man genau das erreicht, was mit einer geforderten "Netzneutralität" verhindert werden sollte...
... - erleben was verhindert.
"Grenzen gabs gestern" - heute gibts Verhinderungen.