Image Image Image Image

Weblogit | December 24, 2024

NVIDIA greift Ruckler neu an: G-Sync wird alles ändern

NVIDIA greift Ruckler neu an: G-Sync wird alles ändern

Mit G-Sync von NVIDIA sollen Mikro-Ruckler und Input-Lag der Vergangenheit angehören. Butterweiche Spiele dank neuer Herangehensweise - wie funktioniert das? Zunächst mal ein Blick auf die Gegenwart: Aktuelle Chips, Taktraten, Speicherbandbreiten, VRAM-Menge, Anschlüsse und effektive aber leise Kühlung - auf viel mehr kam es bei Grafikkarten eigentlich nie an. Vielleicht noch das Übertaktungspotenzial für Enthusiasten, aber die meisten guten Karten gehen ja mittlerweile schon sehr nah an ihre Limits heran und bleiben dabei sparsam.

Jedes Jahr steigern sich die Spezifikationen von GPUs und Karten - trotzdem ruckeln Spiele in fiesen kleinen Rucklern, wenn sie unter 60 Frames pro Sekunde fallen. Und das obwohl wir alles ab 24 Einzelbildern pro Sekunde eigentlich als flüssig wahrnehmen. Warum ist das so?

Meine Empfehlungen für dich

Die 4-Stunden-Woche - Mehr Zeit, mehr Geld, mehr Leben | Der Welt-Besteller für eine geniale Work-Life-Balance, ortsunabhängiges Arbeiten und ein fantastisches Leben.

Bestes iPhone Leder-Case - Eleganter kannst du dein iPhone nicht gegen Schmutz und Kratzer schützen. Das 2in1 Leder-Case von Solo Pelle ist abnehmbar, kommt mit Kartenfächern daher und sieht einfach nur mega aus.

Mein liebster Arbeitsstuhl - Ohne den Swopper Air hätte ich sicherlich mehr Rückenschmerzen. Er fördert trotz Sitzposition eine bewegliche Wirbelsäule und hält mich beim Arbeiten aktiv. Das ist ein riesiger Vorteil zum stink normalen Bürostuhl.

Woher kommen Mikro-Ruckler und andere Probleme beim Spielen?

Das hängt oftmals mit einer Technologie namens V-Sync zusammen. Vertical Sync vermeidet, dass sogenanntes Tearing entsteht. Der übliche TFT-Monitor läuft mit 60 Hz, zeigt also 60 Einzelbilder pro Sekunde. Wenn die Grafikkarte jetzt aber mehr oder weniger als 60 Bilder pro Sekunde liefert, wird das Anzeigegerät ohne V-Sync das Bild "zerreißen", es kommt zu besagtem Tearing. Das liegt daran, dass mehrere Einzelbilder gleichzeitig angezeigt werden (Phasendifferenz), was vor allem bei horizontalen Bewegungen an einem unschönen Saum zu erkennen ist.

Tearing lässt sich auf verschiedene Arten und Weisen beseitigen

Mit vertikaler Synchronisierung wird die Grafikkarte daran gehindert, den Monitor in seinem Bildaufbauzyklus zu übergehen, wir sehen folglich nur ganze Bilder ohne den Tearing-Effekt. Dafür wird ein Bildpuffer genutzt, wo fertig gerenderte Frames landen. Die an den Monitor abgegeben Bilder werden auf 60 Frames pro Sekunde als Maximalwert begrenzt. Was genau jetzt der Monitor bekommt und wo die Grafikkarte gerade in puncto Fortschritt ist, wie da das Management verläuft - das hängt ganz von der Implementierung von V-Sync ab. Prinzipiell ist alles schön flüssig, solange man eben nicht unter die 60 Frames rutscht, dann wird es kompliziert.

Das Problem hierbei: Es treten weitere Artefakte und Anomalien auf (Judder, Input Lag, Throttling) die manchmal noch unangenehmer aussehen bzw. sich anfühlen können. Wenn Spiele beispielsweise Triple-Buffering unterstützen, kann das Input Lag merklich reduziert werden. Da kommt ein dritter Puffer ins Spiel, der alle visuellen Vorteile (größtenteils) bestehen lässt - das beste aus beiden Welten.

Es gab bislang einfach keine elegante Implementierung einer Lösung - alle haben ihre Nachteile und Vorteile

Leider ist V-Sync trotz aller Bemühungen einfach ein fummeliges und nerviges Thema für Gamer, die eine gewisse Sensibilität für Darstellungsfehler und Ruckler haben. Wer viel Geld für seine Hardware ausgibt, tut dies schließlich mit dem Ziel eine möglichst vollständige Nutzungserfahrung zu bekommen. Entweder lebt man mit dem Tearing, oder mit den (spielabhängig) auftretenden Mikro-Rucklern und Input-Lag.

nvidia-g-sync-cover

G-Sync - eine Boyband mit 50 Cent als Frontmann? Was macht NVIDIAs G-Sync jetzt so spannend?

Die Namensgebung dürfte von NVIDIAs GeForce-Reihe und der generellen Neigung etwas mit N oder G zu beginnen herrühren. Viel spannender ist der Impact dieser Technologie, die den alten Hasen Anand Lal Shimpi zu einer "Game-Changer"-Äußerung hingerissen hat - das will schon was heißen. Auf Anand kann man sich hinsichtlich GPU-Hardware und der näheren Umgebung stets verlassen.

G-Sync versucht es nämlich genau andersherum: Statt die Framerate zu deckeln wird die Bildwiederholrate des Bildschirms dynamisch reguliert. Das Unpraktische daran ist natürlich, dass ein Monitor entweder mit der passenden Hardware nachgerüstet werden muss (nur für Bastler), oder ab Werk mit G-Sync-Unterstützung erscheinen muss. So wie es aussieht, wird ab hier die Differenzierung zwischen Normalo-TFT und Gamer-TFT etwas schärfer gestaltet. Idealerweise wird ein Bildschirm mit 120 oder 144 Hz dafür eingesetzt, denn die Hz-Rate bestimmt gleichzeitig das Oberlimit für Frames pro Sekunde. Die Untergrenze liegt bei 30 Hz, ansonsten würde der Monitor stark spürbar flackern. Falls die Framerate unter 30 fällt, werden Bildduplikate zum "Ausfüllen" der Lücken verwendet.

Kurz und bündig: Das G-Sync-Board steuert den Monitor so, dass Framerate und Bildwiederholrate identisch sind. Keine Ruckler, kein Tearing, kein Problem mit normalen Fluktuationen der Performance. Das ist gut für uns Spieler, weil wir alle bisherigen Nervigkeiten mit einem Schlag abräumen. Für Entwickler ist das gut, weil sie nicht so stark auf die Einhaltung von 60 Frames bei Standardhardware achten müssen und etwas mehr Spielraum für visuelle Awesomeness bekommen. Die Lösung ist noch nicht perfekt, funktioniert aber bereits beeindruckend gut. Die asynchrone Ansteuerung von Displays hat natürlich ihren eigenen Satz an Problemen, um die sich NVIDIA aber kümmern will. Wie genau die Hardware funktioniert bleibt ein Geheimnis, NVIDIA hat lediglich Renderings von dem Board veröffentlicht, die mindestens 3x 256 MB Speicher und einen Controller-Chip zeigen. Wir gehen mal von einem SoC aus, das als Mikrocontroller zur Steuerung des Monitors eingesetzt wird.

Hier gibt es übrigens ein sehenswertes Video für technisch versierte Leser, wo John Carmack, Tim Sweeney und Johan Andersson über die Neuerungen von NVIDIA sprechen.

Ich ertrage keine Ruckler und Input-Lag, wann kommt die Erlösung, oh NVIDIA?

Im ersten Quartal 2014 sollen die ersten nativen G-Sync Gamingmonitore auf den Markt kommen, das Board für Modder wird es aber noch 2013 geben. Wer den Asus VG248QE 144 Hz Gamingmonitor bereits besitzt, wird ihn mit dem Board nachrüsten können, Geschick vorausgesetzt. Außerdem als Voraussetzung relevant: Eine GeForce GTX Karte ab der 650 Ti, wer hätte das gedacht! Die Bildausgabe erfolgt außerdem ausschließlich via DisplayPort, weil paketbasiert. Wer sein Grafikkarten-Pimp-Level noch aufstocken muss, schaut am besten in unserer Kaufberatung für Gamer vorbei.


Noch kein Fan? Folge WEBLOGIT auf Facebook oder Twitter, um nichts zu verpassen! ↵


ANZEIGE


Beliebte Beiträge auf WEBLOGIT:



Weblogit