Benutzer IMHO schrieb:
Licht und Information breiten sich in Kupfer und Glasfaserkabel nur mit 200.000km/s aus, d.h. mit 200km/ms! Wenn mann sich also nur 200km vom Server entfernt befindet, benötigt alleine die Bewältigung von Hin- und Rückweg die besagten 2 Millisekunden.
Das ist richtig. Im Gesamtsystem addieren sich immer alle Latenzen, also die des Teilnehmeranschlusses (DSL, Kabel, Mobilfunk), die des Backbone und dann natürlich auch die des Servers selber. Nun gibt es Anwendungen, für die ist die Latenz nicht ganz so wichtig. E-Mail kann auch mit 10 Sekunden Latenz problemlos zugestellt werden. Bei WhatsApp würden dieselben 10 Sekunden schon gewaltig nerven, bei Sprachtelefonie erst recht. Und für bestimmte Anwendungen im Bereich der Industriesteuerung oder künftig auch beim "autonomen Fahren" sind halt Millisekunden-Latenzen extrem wichtig. Man denke nur an das geplante "Windschattenfahren" auf der Autobahn, bei dem zwei Autos mit nur einem Meter Abstand mit Tempo 130 fahren. Da wären dann die 30 ms Latenz eines "normalen" LTE-Netzes einfach zu viel.
Wird es bei LAA und LTE-U also künftig weniger Teilnehmer-Teilnehmer Konflikte geben? Oder WTF soll uns 2ms sagen?
LAA und LTE-U sind sicher denkbar ungeeignet für Anwendungen, die garantierte Latenzzeiten im 1-ms-Bereich benötigen! Bei LAA geht es eher um zusätzliche "low-cost"-Bandbreite, auf der dann Dienste wie das "Stream On" der Telekom laufen können.
Low-Latenz-Dienste werden auch nie lange Datenpakete oder gar große Datenmengen durch die Gegend schicken. Da geht es zum Beispiel darum, dass das vorausfahrende Auto das hinterherfahrende Auto davor warnt, dass es wegen eines plötzlich aufgetauchten Hindernisses nun mit einer Notbremsung beginnt.