Langsamer Bildaufbau, eingefrorene Systeme – So geben virtuelle IT-Umgebungen Gas!

1326

RDP ist nicht perfekt

Bei grafiklastigen Anwendungen kommt RDP schnell an seine Grenzen. Und der Anteil an Animationen, Effekten und eingebetteten Videos nimmt ständig zu. RDP aber war ursprünglich auf sehr langsame Wählverbindungen hin optimiert. Dabei erfolgt die Datenübertragung idealerweise in kleinen Paketen. Hierdurch erscheint RDP leistungsfähiger, da Bilder schrittweise aufgebaut werden und erst nach und nach an Detailtiefe gewinnen. In Netzwerken mit hoher Bandbreite hingegen ist diese Methode des Bildaufbaus nicht sinnvoll, da sie in langsamerer und schlechterer Bilddarstellung resultiert.

Eine weitere Schwachstelle von RDP ist die Kompression der zu übertragenden Daten. Diese betrifft in erster Linie Bilder und erfolgt verlustfrei. Damit ist sicher gestellt, dass die Darstellungsqualität der Bilder stets einwandfrei ist. Der Bandbreitenhunger ist aber entsprechend groß. Mit RDP 7 hat Microsoft erstmals einen verlustbehafteten Kompressions-Algorithmus eingeführt. Die Kompressionsrate ist jedoch eher gering und führt nur zu einer mäßigen Steigerung der Effizienz. Ebenfalls neu ist die Umleitungs-Funktion für Multimedia-Inhalte. Mithilfe der so genannten Multimedia Redirection verlagert RDP 7 die für die Darstellung von Multimedia-Inhalten erforderliche Rechenarbeit vom Server zum Client. Dieses Vorgehen reduziert die zu übertragende Datenmenge signifikant. In früheren Versionen von RDP wurden etwa Filme zuerst auf dem Server gerendert und dann als speicherintensive Bitmaps an die Clients übertragen. Der Einsatz von RDP 7 ist aber erst mit von Windows Server 2008 R2 möglich. Daher empfiehlt sich eine RDA-Lösung (Remote Desktop Acceleration) eines Drittanbieters.

WAN-Beschleuniger brauchen Köpfchen

Da Verzögerungen bei der Übertragung der Datenströme und dem Bildaufbau in den meisten Fällen auf mangelnde Leistungsfähigkeit des Transportmediums zurückzuführen sind, bietet sich eine Optimierung der genutzten Infrastrukturen an. Dabei sind die Möglichkeiten, die sich im lokalen Netzwerk bieten, recht einfach zu handhaben und in den meisten Unternehmen weitgehend umgesetzt. Die Rede ist von modernen, managebaren Netzwerkkomponenten, ausreichend dimensionierter Bandbreite und der Anbindung der Endgeräte über schnelle Kupfer- oder Lichtwellenstrecken. Hinzu kommt, dass die Übertragung virtueller Desktops oder Terminalservices im LAN die geringsten Schwierigkeiten bereiten.

Optimierungsbedarf besteht in erster Linie für Datenleitungen, die externe Standorte oder mobile Mitarbeiter mit dem Rechenzentrum des Unternehmens verbinden sollen – also entweder über WAN- oder Mobilfunkstrecken. Bei letzteren sind den Unternehmen allerdings in Sachen Beschleunigung die Hände gebunden, außer dass sie sich für den in der entsprechenden Region stärksten Mobilfunkanbieter entscheiden können. An der meist sehr hohen Latenzzeit selbst von breitbandingen HSDPA-Verbindungen ist nichts zu ändern. Für WAN-Datenleitungen hält der Markt hingegen zahlreiche Beschleuniger-Produkte bereit. Dabei handelt es sich für gewöhnlich um Appliances, die für eine Priorisierung von Datenströmen sorgen, die deutlich über das klassische Quality-of-Service-Verfahren hinausgeht. Obendrein arbeiten WAN-Optimizer mit einer starken Kompression des Datenstroms, die protokoll- und anwendungsspezifisch genutzt werden kann. Ziele der WAN-Optimierung sind schnellere Antwortzeiten von Anwendungen, eine bessere Ausnutzung der bereitgestellten Bandbreite und eine Reduzierung der Netzwerk-Latenz.

Appliances sind teuer und wartungsintensiv

Die Verfolgung dieser Ziele gelingt den WAN-Beschleunigern jedoch auf unterschiedliche Weise. So arbeiten manche Appliances recht pragmatisch, indem sie einfach alle Daten möglichst stark komprimieren, um Bandbreite zu sparen. Das ist grundsätzlich ein guter Ansatz, führt aber nicht zu einer optimalen Beschleunigung von Remote-Desktop-Anwendungen, da auf diese Weise auch Applikationen von der Bandbreitenoptimierung profitieren, die nicht unternehmenskritisch sind. Ob Mails oder auch der normale HTTP-Verkehr etwas mehr Zeit beanspruchen, wird einem Unternehmen nicht wirklich schaden, und auch der Nutzerkomfort leidet nicht übermäßig darunter. Moderne, innovative WAN-Optimizer hingegen analysieren die einzelnen Anwendungen dahingehend, ob sie einer Priorisierung bedürfen und inwiefern eine Kompression der Datenströme sinnvoll ist. Auf diese Weise lassen sich durchaus Beschleunigungen um den Faktor 25 und mehr erreichen.

Hardware-Lösungen zur Beschleunigung von WAN-Verbindungen setzen jedoch sowohl auf Server- als auch meist auf Client-Seite die Implementierung spezieller Komponenten voraus. Die Kosten für solche Lösungen übersteigen mit etwa 80 bis 400 Euro pro Nutzer die Investition in ein reines Software-Produkt deutlich. Gerade wenn es um die Anbindung kleiner Zweigstellen geht, sind die Kosten pro User schnell meist unverhältnismäßig hoch und unwirtschaftlich. Für die Anbindung mobiler Clients eignen sich Hardware-Beschleuniger gar nicht, da die Implementierung von Hardware bei Nutzer in diesem Fall nicht möglich ist.

Weitere Stolpersteine beim Einsatz von WAN-Beschleunigern sind die Kompression und Verschlüsselung der Daten durch das RDP-Protokoll. Dies führt dazu, dass die Accelerator-Hardware die Datenströme nicht cachen kann. Eine Abschaltung von Kompression und Verschlüsselung schafft nur bedingt Abhilfe, birgt aber Sicherheitsrisiken. Selbst wenn WAN-Beschleuniger eine positive Auswirkung auf die Leistungsfähigkeit des Netzwerks und damit auf den Nutzerkomfort bei Remote-Desktop-Anwendungen haben, steht der hohe Kostenaufwand in keinem sinnvollen Verhältnis zum Ergebnis. Hinzu kommt, dass WAN-Beschleuniger bei der Skalierbarkeit nicht mit virtuellen Umgebungen mithalten können und damit einen der größten Vorteile der Virtualisierung quasi kannibalisieren.

1
2
3
Alexander Vierschrodt
Alexander Vierschrodt ist seit seinem Abschluss als Diplom Ökonom (1998) in der IT tätig und bekannt als Autor verschiedener Fachartikel zum Thema Terminalserver-Technik, Server Based Computing und VDI. Seit 2003 arbeitet er für die H+H Software GmbH als Produkt- und Marketingmanager. Zuvor war er Produktmanager bei der SuSE Linux AG.

Kommentiere den Artikel

Bitte gib deinen Kommentar ein!
Bitte gib hier deinen Namen ein

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!