English: Latency / Español: Latencia / Português: Latência / Français: Latence / Italiano: Latenza

Latenz bezeichnet in der Informatik und Informationstechnik die Verzögerungszeit, die zwischen dem Aussenden eines Signals oder einer Anfrage und dem Eintreffen der entsprechenden Antwort oder Reaktion vergeht. Sie ist ein zentraler Leistungsindikator für Netzwerke, Speichersysteme und Echtzeitanwendungen, da sie direkt die Benutzererfahrung und Effizienz technischer Systeme beeinflusst.

Allgemeine Beschreibung

Latenz entsteht durch physikalische, technische und prozessuale Faktoren, die die Datenübertragung oder -verarbeitung verlangsamen. Im Kontext von Computernetzwerken wird sie oft in Millisekunden (ms) gemessen und setzt sich aus mehreren Komponenten zusammen: der Übertragungsverzögerung (Zeit für die Datenübertragung über das Medium), der Verarbeitungsverzögerung (Zeit für die Bearbeitung durch Router, Switches oder Server) und der Wartezeit (z. B. durch Netzwerküberlastung oder Priorisierungsmechanismen wie QoS – Quality of Service).

In Speichersystemen, etwa bei RAM oder SSDs, bezieht sich Latenz auf die Zeit zwischen einer Lese-/Schreibanforderung und dem tatsächlichen Zugriff auf die Daten. Hier spielen Faktoren wie die Zugriffszeit (z. B. bei Festplatten die Positionierung des Lesekopfs) oder die Signalausbreitungsgeschwindigkeit in Halbleitern eine Rolle. Besonders kritisch ist niedrige Latenz in Echtzeitsystemen wie Online-Spielen, Finanzhandel oder industrieller Steuerungstechnik, wo selbst minimale Verzögerungen gravierende Folgen haben können.

Die Messung der Latenz erfolgt typischerweise durch Tools wie Ping (ICMP-Echo-Anfragen), Traceroute (Pfadanalyse) oder spezialisierte Benchmark-Software. Dabei wird zwischen Round-Trip Time (RTT) – der Zeit für Hin- und Rückweg eines Signals – und One-Way Delay (einseitige Verzögerung) unterschieden. Letztere ist schwerer zu messen, da sie präzise Zeitsynchronisation zwischen Sender und Empfänger erfordert, etwa über Protokolle wie Network Time Protocol (NTP).

Latenz ist nicht mit Durchsatz (Datenmenge pro Zeiteinheit) oder Jitter (Schwankungen der Latenz) zu verwechseln, obwohl diese Parameter oft gemeinsam analysiert werden. Während hoher Durchsatz für Datenintensive Anwendungen wie Streaming wichtig ist, dominiert bei interaktiven Systemen die Latenz die wahrgenommene Performance. Beispielsweise führt eine hohe Latenz in Videokonferenzen zu asynchroner Kommunikation, während hoher Jitter zu ruckelnder Wiedergabe führt.

Technische Details

Die physikalischen Grenzen der Latenz werden durch die Lichtgeschwindigkeit definiert, die in Glasfaserkabeln etwa 200.000 km/s beträgt (ca. 2/3 der Vakuumlichtgeschwindigkeit). Selbst bei optimalen Bedingungen entsteht daher eine minimale Latenz von etwa 3,3 ms pro 1.000 km (Hin- und Rückweg). In der Praxis addieren sich jedoch weitere Verzögerungen durch:

  • Protokoll-Overhead: Zeit für das Packen/Entpacken von Daten (z. B. TCP/IP-Header, Verschlüsselung wie TLS).
  • Routing: Verzögerungen durch die Weiterleitung zwischen Netzwerkknoten (Hops), besonders in globalen Netzwerken mit vielen Intermediate Systemen.
  • Pufferung: Wartezeiten in Routern oder Switches aufgrund von Traffic-Shaping oder Congestion Control (z. B. TCP Slow Start).
  • Mediumzugriff: Bei geteilten Medien (z. B. WLAN nach IEEE 802.11) entstehen Verzögerungen durch Kollisionsvermeidung (CSMA/CA).

In Rechenzentren wird Latenz durch Top-of-Rack-Switches (ToR) und Software-Defined Networking (SDN) optimiert, um Datenpfade zu verkürzen. Bei Speichermedien reduziert Caching (z. B. CPU-Caches, SSD-Controller) die effektive Latenz, indem häufig genutzte Daten näher an der Verarbeitungseinheit vorgehalten werden. Moderne CPUs nutzen Out-of-Order Execution und Spekulatives Laden, um Wartezeiten auf RAM-Zugriffe zu überbrücken.

Anwendungsbereiche

  • Echtzeitkommunikation: Bei VoIP (z. B. SIP-Protokoll) oder Videokonferenzen (WebRTC) muss die Latenz unter 150 ms liegen, um natürliche Gespräche zu ermöglichen. Höhere Werte führen zu Überlappungen oder Pausen.
  • Online-Gaming: Competitive Multiplayer-Spiele (z. B. Counter-Strike, League of Legends) erfordern Latenzen unter 50 ms, um faire Bedingungen zu gewährleisten. Hier wird oft der Begriff "Ping" synonym verwendet.
  • Finanzhandel: Hochfrequenzhandel (HFT) nutzt Low-Latency-Netzwerke (z. B. Mikrowellenverbindungen zwischen Börsen), um Arbitrage-Gelegenheiten im Mikrosekundenbereich auszunutzen.
  • Industrie 4.0: In der Fertigungsautomatisierung (z. B. robotergestützte Montage) darf die Latenz zwischen Sensoren und Steuerungen 1–10 ms nicht überschreiten, um Sicherheitsrisiken zu vermeiden (Quelle: IEC 61784-2).
  • Cloud-Computing: Die Performance von virtuellen Maschinen (VMs) oder Serverless-Funktionen hängt stark von der Latenz zwischen Nutzer und Rechenzentrum ab, was zu regionalen Bereitstellungsstrategien (Edge Computing) führt.

Bekannte Beispiele

  • Ping-Befehl: Das Standard-Tool zur Latenzmessung in Netzwerken (z. B. ping google.com) zeigt die RTT zwischen lokalem Host und Zielserver an.
  • 5G-Netzwerke: Der neue Mobilfunkstandard zielt auf Latenzen unter 10 ms ab (im Vergleich zu 30–50 ms bei 4G), um Anwendungen wie autonomes Fahren zu ermöglichen (Quelle: 3GPP Release 16).
  • Google Stadia: Der Cloud-Gaming-Dienst scheiterte teilweise an zu hoher Latenz (>100 ms), die präzises Spielen unmöglich machte.
  • QUIC-Protokoll: Entwickelt von Google als UDP-basiertes Alternative zu TCP, reduziert es Latenz durch schnelleren Verbindungaufbau (0-RTT-Handshake).

Risiken und Herausforderungen

  • Geografische Distanz: Selbst mit Glasfaser entstehen unvermeidbare Latenzen durch physikalische Entfernungen (z. B. 180 ms zwischen Frankfurt und Sydney).
  • Netzwerküberlastung: Congestion führt zu Paketverlusten und Retransmissions (z. B. bei TCP), was die Latenz exponentiell erhöht.
  • Hardware-Limitierungen: Langsame Router, veraltete Switches oder ineffiziente Speichercontroller (z. B. HDDs mit 10–20 ms Latenz vs. NVMe-SSDs mit 0,1 ms) bilden Flaschenhälse.
  • Sicherheitsmechanismen: Verschlüsselung (z. B. AES-256) oder Firewall-Inspektionen (Deep Packet Inspection) erhöhen die Verarbeitungszeit.
  • Jitter: Schwankungen der Latenz (z. B. durch dynamische Routing-Änderungen) stören Echtzeit-Anwendungen stärker als konstante Verzögerungen.

Ähnliche Begriffe

  • Durchsatz (Throughput): Beschreibt die Datenmenge pro Zeiteinheit (z. B. Mbit/s), nicht die Verzögerung. Hoher Durchsatz kann mit hoher Latenz einhergehen (z. B. bei Satellitenverbindungen).
  • Jitter: Die Varianz der Latenz über die Zeit. Kritisch für Audio/Video-Streams, wo konstante Verzögerungen besser handhabbar sind als schwankende.
  • Bandbreite: Die maximale Kapazität eines Übertragungskanals (in Hz oder bit/s). Eine hohe Bandbreite reduziert nicht automatisch die Latenz.
  • Propagation Delay: Die reine Ausbreitungsverzögerung eines Signals im Medium (z. B. Kupferkabel: ~0,6c, Glasfaser: ~0,67c).
  • Queueing Delay: Wartezeit in Puffer (Queues) von Netzwerkgeräten, verursacht durch Traffic-Burst oder ungleiche Priorisierung.

Zusammenfassung

Latenz ist ein vielschichtiger Performance-Indikator, der in fast allen Bereichen der Informationstechnik eine entscheidende Rolle spielt. Während sie in einigen Anwendungen (z. B. File-Downloads) zweitrangig ist, bestimmt sie in Echtzeitsystemen wie Gaming, Finanzhandel oder Industrieautomatisierung maßgeblich die Funktionalität. Die Optimierung erfordert ein ganzheitliches Verständnis von Hardware (Speicher, Netzwerkkomponenten), Protokollen (TCP/IP, QUIC) und physikalischen Grenzen (Lichtgeschwindigkeit).

Zukünftige Technologien wie Edge Computing (dezentrale Datenverarbeitung), 6G-Netzwerke (Ziel: <1 ms Latenz) oder Photonik-Chips (optische Datenverarbeitung) zielen darauf ab, Latenz weiter zu reduzieren. Dennoch bleibt sie ein unvermeidbarer Faktor, dessen Management eine Balance zwischen Kosten, Komplexität und Leistungsanforderungen erfordert.

--