1894905

Grafikkarten - Das Herz eines jeden Spiele-PCs

04.02.2014 | 11:09 Uhr |

Von bescheidenen Display-Adaptern mit vier Farben (CGA) und 16 Farben (EGA) haben sich Grafikkarten für den PC zu Massenparallelrechnern entwickelt, deren Leistung sogar moderne CPUs abhängt.

Die Grafikkarte erhält vom Prozessor Daten für die visuelle Ausgabe auf einem Monitor oder ähnlichem Gerät wie TV oder Beamer. Sie besteht aus einem Grafikprozessor (GPU), dem Videospeicher (Video-RAM) und einem Digital-Analog- Wandler (RAMDAC) für analoge Ausgänge und dem oft noch – aus Kompatibilitätsgründen – vorhandenen VGA-Anschluss (über RAMDAC). Mit der Entwicklung immer leistungsfähigerer GPUs und deren Programmierschnittstellen hat sich die Rolle der Grafikkarte gewandelt, die weit mehr kann als ein hochauflösendes Bild auszugeben oder atemberaubende Bildraten bei Computerspielen zu berechnen.

Moderne Grafikkarten: Rechenleistung pur

Bei einem gut ausgestatteten Gaming-PC übernimmt die Grafikkarte die Führerschaft bei der Rechenleistung: Betrachtet man die Leistungsfähigkeit des Gesamtsystems in FLOPS (Floating Point Operations Per Second), also die möglichen Fließkommaoperationen pro Sekunde, so hat nicht mehr die CPU den größten Anteil, sondern die Grafikkarte (oder auch die Grafikkarten im Plural, wenn es sich um einen Verbund über SLI oder Crossfire handelt). So liefert eine einzige Karte mit Nvidia Geforce GTX Titan 4500 Giga-FLOPS bei 250 Watt Leistungsaufnahme. Die Intel-CPU i7-4770 bringt es als wirklich leistungsfähiger x86-Prozessor nur auf 177 GFLOPS.

Sicher, der Vergleich ist nicht ganz fair. Schließlich hat der Hauptprozessor noch anderes zu tun, als Fließkommaoperationen auszuführen – ausgerechnet eine Disziplin, in der x86-Prozessoren noch nie sonderlich stark waren. Zudem kostet eine High-End- Grafikkarte wie die genannte Nvidia Geforce GTX Titan mit rund 950 Euro so viel wie die gesamte restliche Hardware im PC zusammen und verfügt mit sieben Milliarden Transistoren über fünfmal mehr als der Intel i7- 4770. Der Vergleich zeigt aber, dass sich Grafikkarten für den PC von mickrigen Monochrom- Adaptern zu ausgewachsenen Parallelrechnern entwickelt haben, die sich als universelle Number-Cruncher eignen. Der Supercomputer „Titan“ des US-Energieministeriums, aktuell Platz zwei auf der Weltrangliste, bündelt 18 668 Grafikprozessoren.

So erhöhen Sie die Leistung Ihrer Grafikkarte

Digital: Der analoge VGA-Ausgang wird bei neuen Grafikkarten von HDMI, Mini-HDMI, DVI und Display-Port (dP) verdrängt, was einen Analog-digital-Wandler auf den Karten überflüssig macht.
Vergrößern Digital: Der analoge VGA-Ausgang wird bei neuen Grafikkarten von HDMI, Mini-HDMI, DVI und Display-Port (dP) verdrängt, was einen Analog-digital-Wandler auf den Karten überflüssig macht.

Grafik? Nein danke, kein Bedarf!

Die Grafikkarte hat ihre Existenz dem Desinteresse von IBM zu verdanken, dem IBM-PC einen fähigen Grafikchip mitzugeben. PCs und Kompatible hatten, anders als Heimcomputer dieser Zeit, keine dezidierte Graphics Processing Unit (GPU) auf der Hauptplatine. Wozu auch, es gab keinen nennenswerten Spielemarkt, grafische Oberflächen wie GEM oder Windows hatten sich noch nicht durchgesetzt. Die Bestückung mit Grafikkarten überließ IBM den Systemhäusern und Zubehörlieferanten. Nur tat sich da nicht viel, da die PC-Anwender vornehmlich in Tabellenkalkulationen und Texteditoren starrten, die keinerlei Ansprüche an die Grafikkarte hatten. Für den PC gab es deshalb zunächst nur monochrome Hercules-Display-Adapter, CGAKarten mit vier erbärmlichen Farben und für horrende Preise EGA-Karten mit bis zu 16 Farben und einer Auflösung von 320 x 240 Pixeln. Wer Mitte der 80er-Jahre etwas mit Grafik zu tun hatte, etwa CAD/CAM und Videobearbeitung, benötigte Unxi-Workstations von SGI oder einen damals neuen Commodore Amiga.

EGA mit 16 Farben: Während Homecomputer wie der Commodore Amiga in den 80er-Jahren schon Grafikbeschleuniger hatten, begann der PC ganz bescheiden mit CGA- (vier Farben) und EGA-Grafik (16 Farben).
Vergrößern EGA mit 16 Farben: Während Homecomputer wie der Commodore Amiga in den 80er-Jahren schon Grafikbeschleuniger hatten, begann der PC ganz bescheiden mit CGA- (vier Farben) und EGA-Grafik (16 Farben).

Erst Spiele bringen schnelle PC-Grafik

Einen vergleichbaren Grafikbeschleuniger gab es für PCs erst 1991 mit VGA-Grafikkarte und ET-4000-Chip. Überhaupt brachte der VGA-Standard viel Fortschritt: 16 Bit, 256 Farben aus einer Palette von 262 144 und eine analoge Übertragung zum Monitor, die für jede der Grundfarben Rot, Grün und Blau ein Signal in verschiedener Stärke senden konnte. Die Mischung der drei Signale ergibt dann die Farbgebung eines Pixels. Der alte VGA-Anschluss über einen D-SUB-Stecker ist heute ein Auslaufmodell und wird von digitalen Wegen über DVI, HDMI und neuerdings Display-Port verdrängt. Für höhere Auflösungen bekamen VGA-Karten mehr Speicher, was für das langsam benutzbare Windows 3.0 von Bedeutung war.

Nach dem Zusammenbruch des Markts für Homecomputer wurden PCs zur dominanten Spieleplattform, und dafür war mehr Leistung im 3D-Bereich nötig. Grafikkarten wie die enorm populäre 3dfx Voodoo (1 und 2) bekamen spezialisierte GPUs, die dem Hauptprozessor Arbeit abnahmen. Einzelne Spieletitel wie Tomb Raider, Descent II und Quake erhielten Patches, um direkt die 3D-Fähigkeiten der Grafikkarte nutzen zu können. Zudem brachte Windows 95 mit Direct 3D und Open-GL-Treibern als Programmierschnittstelle eine universellere Möglichkeit, GPUs anzusprechen.

Was taugen Beta-Grafiktreiber?

Schema eines nVidia-chips: In der Geforce GtX 660 GPU vereinigt jeder der insgesamt fünf Stream-Prozessoren (SMX) 192 Shader-cores, die hier als grüne Rechtecke dargestellt sind.
Vergrößern Schema eines nVidia-chips: In der Geforce GtX 660 GPU vereinigt jeder der insgesamt fünf Stream-Prozessoren (SMX) 192 Shader-cores, die hier als grüne Rechtecke dargestellt sind.

DirectX und Open GL

Bei Spielen sind die Software-Hardware- Schnittstellen des Grafikchips wichtig, über welche Programmcode zu 3D-Objekten, Texturen und Effekte in Daten für den Grafikprozessor übersetzt werden. Die verbreiteten Schnittstellen sind Open GL und Microsoft DirectX. Letzteres setzt auf Microsoft Windows und den dafür verfügbaren Grafiktreibern des Herstellers auf. Open GL ist nicht an ein Betriebssystem gebunden und funktioniert etwa auch unter Linux, benötigt aber einen entsprechenden Treiber. Sowohl die Fähigkeiten von DirectX als auch von Open GL wachsen mit den Möglichkeiten der Grafikchips mit. Besonders Microsoft sucht mit neuen Versionen von DirectX mehr und mehr Aufgaben an den Parallelprozessor der Grafikkarte zu übergeben. Aktuell liegt DirectX in Version 11.2 vor, allerdings nur für Windows 8.1, während Vista und 7 mit DirectX 11 vorlieb nehmen müssen.

Parallelrechner auf einer Steckkarte

Mit Open GL und später DirectX wuchsen die Fähigkeiten mit jeder Grafikkarten-Generation nahezu im Jahresrhythmus. Der Wechsel von PCI zu AGP und dann zu PCI-Express schaffte die Voraussetzungen für eine breitere Bus-Anbindung zu Hauptspeicher und CPU. Neben dem eigenen Speicher sind die GPUs einer Grafikkarte deren wichtigstes Merkmal. Nach einer Marktbereinigung Ende der 90er-Jahre gibt es heute nur noch drei tonangebende Entwickler: AMD/ ATI, Nvidia und Intel.

Was GPUs maßgeblich von CPUs unterscheidet, ist die Auslegung auf geometrische Algorithmen, Texture-Mapping und Anti- Aliasing. Diese Funktionen werden im Chip von Hardware-seitigen Shadern übernommen: Vertex-Shader kümmern sich um geometrische Berechnungen und Pixel-Shader um Texturen. Da diese Funktionen gleichzeitig ausgeführt werden müssen, ist die GPU auf Parallelisierung optimiert, damit beide Shader zusammen das fertige Bild berechnen können. ATI und Nvidia sind dazu übergegangen, Shader in universell verwendbaren Stream-Prozessoren zu vereinen, die sich nicht mehr nur zur Grafikberechnung eignen.

0 Kommentare zu diesem Artikel
1894905