Anzeige
Anzeige
  1. GIGA
  2. Tech
  3. Apps & Downloads
  4. Hardware-News, Deals, Tests & Tipps auf GIGA
  5. G-Sync und FreeSync am Monitor nutzen: Die Technologie erklärt

G-Sync und FreeSync am Monitor nutzen: Die Technologie erklärt

© Getty Images, Kerkez.
Anzeige

Nvidias G-Sync und FreeSync von AMD sind zwei ähnliche Technologien, die beide sogenanntes Screen-Tearing vermeiden und ruckelfreies Spielen ermöglichen sollen. GIGA erklärt euch, wie die Technik genau funktioniert und welche Grafikkarten und Monitore mit den jeweiligen Standards kompatibel sind.

Erfahre mehr zu unseren Affiliate-Links
Wenn du über diese Links einkaufst, erhalten wir eine Provision, die unsere redaktionelle Arbeit unterstützt. Der Preis für dich bleibt dabei unverändert. Diese Affiliate-Links sind durch ein Symbol gekennzeichnet.  Mehr erfahren.
Anzeige

Mit das wichtigste für reibungsloses Zocken am PC ist die richtige Kombination aus Grafikkarte und Monitor. Sollten diese beide Komponenten nicht optimal miteinander harmonieren, kommt es zu unschöner Artefaktbildung wie Screen-Tearing oder Rucklern. Um das zu verhindern, haben sowohl Nvidia als auch AMD eine Lösung entwickelt: Die Synchronisation der jeweiligen Bildraten durch einen fest verbauten Chip im Monitor oder entsprechende Software.

Erfahrt in unserem Video wie G-Sync und FreeSync genau funktionieren:

TECHfacts: FPS vs. Bildwiederholrate Abonniere uns
auf YouTube

G-Sync und FreeSync: Was ist das überhaupt?

Um die Technologie zu verstehen, muss man zunächst begreifen, wie genau Grafiken in Spielen dargestellt werden. Dabei sind vor allem die jeweilige Grafikkarte und der Monitor entscheidend:

  • Die Grafikkarte gibt pro Sekunde eine bestimmte Anzahl von Bildern aus: Die sogenannten Frames per Second (FPS). Je mehr FPS, desto flüssiger erscheint das Spiel für das menschliche Auge. Gerade schnelle Shooter profitieren von 60 Bildern pro Sekunde oder mehr.
  • Hinterher aktualisiert der Monitor diese einzelnen Bilder in einem bestimmten Intervall: Die sogenannte Bildwiederholrate, die wiederum in Hertz (Hz) angegeben wird. Ein Bildschirm mit 60 Hz kann in der Theorie demnach also maximal 60 FPS darstellen.
  • Das eigentliche Problem: Die Bildwiederholrate des Monitors ist fix, während die von der Grafikkarte ausgegebenen FPS schwanken – abhängig davon, was gerade auf dem Bildschirm passiert. Intensive Effekte beanspruchen die Grafikkarte viel mehr als nur simple Darstellungen, was entsprechend geringere FPS bedeutet – und vice versa. Insbesondere bei aktiviertem Raytracing kommen selbst Highend-Grafikkarten gerne mal ins Schwitzen.
Anzeige

Sind die FPS nun deutlich höher als die Bildwiederholrate des Monitors, kann es zu einem zerrissenen Bild (Tearing) kommen. In diesem Fall gibt es dann zu viele Bilder und es kommt zu einer Überschneidung. Sind die FPS hingegen niedriger, fängt es an zu ruckeln, weil die Grafikkarte nicht hinterherkommt und doppelte Bilder aus dem Grafikpuffer nachlädt, um die Differenz zum Monitor auszugleichen.

Anzeige
Ein simuliertes Beispiel für Screen Tearing in The Witcher 3: Wild Hunt. (© CD Projekt Red | Bearbeitung: GIGA)

Hier kommen nun G-Sync und FreeSync ins Spiel, indem die fixe Bildwiederholrate des Monitors aufgehoben wird. Zusätzlich können Monitor und Grafikkarte direkt miteinander kommunizieren, wodurch die jeweiligen Bildraten dynamisch angepasst werden. Somit ist jedes einzelne Bild perfekt mit dem Monitor synchronisiert. Weder ist der Bildschirm zu langsam für die Grafikkarte, noch wird die Grafikkarte vom Bildschirm ausgebremst. Weiterer Nebeneffekt: Die Eingabeverzögerung (Input-Lag) verringert sich ebenfalls, was somit für ein präziseres Spielerlebnis sorgt.

Welche Grafikkarten und Monitore sind kompatibel?

© Getty Images, mikkelwilliam | Nvidia | AMD

Jede Nvidia- oder AMD-Grafikkarte der letzten Jahre ist mit den jeweiligen Standards kompatibel. Es wird mindestens eine GTX 650 Ti oder entsprechend Radeon HD 7000 vorausgesetzt. Bei Nvidia gilt: Bislang mussten Spielerinnen und Spieler auf spezielle Monitore mit dem entsprechenden G-Sync-Modul zurückgreifen, die oftmals deutlich teurer als herkömmliche Bildschirme waren.

Inzwischen ist die Auswahl deutlich größer und viele FreeSync-Monitore sind nun ebenfalls mit Nvidia-Grafikkarten kompatibel. Die meisten dieser Monitore werden von Nvidias Qualitätskontrolle dann als „G-Sync Compatible“ eingestuft. Zwar kann es hier und da dennoch zu grafischen Problemen kommen, dafür sind diese Modelle oftmals um einiges günstiger.

G-Sync, FreeSync und Vsync: Wo liegen die Unterschiede?

Traditionell wurde das Problem von asynchronen Bildraten mittels Vsync gelöst: Eine rein softwarebasierte Lösung, die aber auch einige Nachteile birgt. Vsync sorgt in erster Linie dafür, dass sich die dargestellten FPS eurer Grafikkarte auf die maximale Bildwiederholrate eures Monitors beschränken. Daraus folgt, dass die FPS insgesamt stark verringert werden. Außerdem muss man oftmals erhöhten Input-Lag in Kauf nehmen.

Mit G-Sync oder der AMD-Alternative FreeSync gehören derartige Probleme glücklicherweise der Vergangenheit an. Beide Standards arbeiten nämlich mit einer variablen Bildwiederholrate (VRR) und somit kann der Monitor direkt auf fluktuierende FPS reagieren, indem er die Bildwiederholrate dynamisch anpasst. Sinken die FPS kurzzeitig, sinkt die Frequenz des Monitors auf den gleichen Wert. Steigen sie im nächsten Moment wieder an, dann erhöht sich auch die Bildwiederholrate. Auf diese Weise arbeiten Grafikkarte und Monitore stets in perfekter Harmonie.

Anzeige

Neben der Synchronisation von Bildraten gibt es außerdem noch weitere Technologien wie Nvidias „Deep Learning Super Sampling“ (DLSS) oder AMDs „FidelityFX Super Resolution“ (FSR) – in beiden Fällen sollen entsprechende Algorithmen dafür sorgen, dass bei gleichbleibender oder besserer Qualität mehr FPS ausgegeben werden können.

Weiterhin unterscheiden sich G-Sync und FreeSync darin, dass ersterer ein proprietärer Nvidia-Standard ist, dessen Nutzung ein im Monitor verbautes Modul voraussetzt. Einzige Ausnahme bilden hier Monitore, die über „Adaptive Sync“ verfügen und somit mit beiden Standards funktionieren. Im Gegensatz zu AMDs Lösung lässt sich G-Sync außerdem nur viaDisplayPort nutzen, wohingegen FreeSync ebenfalls mit HDMI funktioniert.

Schließlich gibt es innerhalb der beiden Technologien noch verschiedene Abstufungen. Bei Nvidia wären das „G-Sync Compatible“, „G-Sync“ und „G-Sync Ultimate“. Die ersten beiden sind relativ selbsterklärend. Die Ultimate-Version beinhaltet dann zusätzliche Features wie High Dynamic Range (HDR), funktioniert ansonsten aber beinahe identisch. Im Falle von AMD verhält es sich ähnlich, nur lauten die Bezeichnungen anders: „FreeSync“, „FreeSync Premium“ und „FreeSync Premium Pro“. In der folgenden Tabelle finden sich die wichtigsten Merkmale beider Technologien:

Nvidia

AMD

„G-Sync Compatible“

  • Zertifiziert durch Nvidia
  • VRR (eingeschränkter Bereich ab 30 Hz)
  • Nutzbar via DisplayPort (gilt für jede G-Sync-Variante)

„FreeSync“

  • VRR (eingeschränkter Bereich ab 30 Hz)
  • Geringere Latenzen
  • Nutzbar via HDMI oder DisplayPort (gilt für jede FreeSync-Variante)

„G-Sync“

  • Fest verbauter G-Sync-Prozessor im Monitor
  • VRR (kompletter Bereich ab 1 Hz bis zur maximalen Bildwiederholrate des Monitors)
  • Variabler Overdrive

„FreeSync Premium“

  • Mindestens 120 Hz
  • Unterstützung für „Low Framerate Compensation“ (LFC)

„G-Sync Ultimate“

  • Verbesserter G-Sync-Prozessor
  • Bildwiederholrate übertaktbar
  • HDR (>1.000 Nit Helligkeit)

„FreeSync Premium Pro“

  • HDR
  • Geringere Latenzen in HDR

Grafikkarten-Ratgeber: Welche GPU brauche ich wirklich?

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.

Anzeige