heim - Internet
Transistor für die GeForce 8800 GTS 512-Karte. Testbericht zur ASUS EN8800GTS-Grafikkarte

Seit mehr als einem Jahr seit der Veröffentlichung von Grafikkarten auf Basis der NVIDIA GeForce 8800-Reihenchips ist die Situation auf dem Grafikbeschleunigermarkt für den Endkäufer äußerst ungünstig geworden. Tatsächlich hatte ein Übertakter, der eine stattliche Summe für Grafikkarten der Spitzenklasse bezahlen konnte, einfach keine Alternative. Ein Konkurrent von ATI (AMD) erschien später und konnte letztendlich nicht mit der GeForce 8800 GTX und später mit der Ultra-Version der NVIDIA GeForce 8800 konkurrieren Kosten für Top-End-Grafikkarten sind überhaupt nicht erforderlich. Dadurch blieben die Preise für GeForce 8800 GTX und Ultra über den gesamten Zeitraum hinweg auf einem sehr hohen Niveau und nur wenige konnten sich solche Grafikkarten leisten.

Für die Hersteller von Grafikchips und Grafikkarten war das obere Preissegment jedoch nie ausschlaggebend und prioritär. Ja, die Führung in dieser Klasse ist für jedes Unternehmen sicherlich prestigeträchtig, aber aus wirtschaftlicher Sicht ist die mittlere Preisklasse am profitabelsten. Allerdings haben aktuelle Tests der AMD Radeon HD 3850 und 3870, die in der Mittelklasse die Vorherrschaft beanspruchen, gezeigt, dass die Leistung solcher Grafikkarten für moderne Spiele unbefriedigend und für deren hochwertige Modi grundsätzlich inakzeptabel ist. Die NVIDIA GeForce 8800 GT ist schneller als dieses Paar, lässt aber auch bei DirectX-10-Spielen den Komfort vermissen. Was passiert als nächstes, wenn die Möglichkeit besteht, zusätzlich zu zahlen? Bis gestern gab es praktisch nichts, da zwischen GT und GTX buchstäblich eine Preislücke besteht, und das ist alles.

Doch der technische Fortschritt steht nicht still – das Erscheinen des neuen NVIDIA G92-Chips, hergestellt in 65-nm-Technologie, ermöglichte es dem Unternehmen, nicht nur Übertakter mit der recht erfolgreichen GeForce 8800 GT-Grafikkarte anzulocken, sondern auch gestern, 11. Dezember um 17 Uhr: 00 Moskauer Zeit, um ein neues Produkt anzukündigen - GeForce 8800 GTS 512 MB. Trotz des recht einfachen Namens der Grafikkarte weist der neue Grafikbeschleuniger eine Reihe wesentlicher Unterschiede auf reguläre Version GeForce 8800 GTS. Im heutigen Material stellen wir Ihnen eine der ersten Grafikkarten vor, die GeForce 8800 GTS 512 MB Russischer Markt Wir werden die Temperaturbedingungen und das Übertaktungspotenzial überprüfen und natürlich die Leistung des neuen Produkts untersuchen.

Werbung

1. Technische Eigenschaften der am Test teilnehmenden Grafikkarten

Die technischen Eigenschaften des neuen Produkts werden Ihnen in der folgenden Tabelle im Vergleich zu NVIDIA-Grafikkarten der GeForce 8800-Familie vorgestellt:

Name des technischen
Eigenschaften
Nvidia GeForce
8800 GT 8800 GTS 8800 GTS
512 MB
8800
GTX/Ultra
GPU G92 (TSMC) G80 (TSMC) G92 (TSMC) G80 (TSMC)
Technischer Prozess, nm 65 (Low-K) 90 (Low-K) 65 (Low-K) 90 (Low-K)
Kernfläche, qmm 330 484 330 484
Anzahl der Transistoren, Millionen 754 681 754 681
Frequenz GPU, MHz 600
(1512 Shader)
513
(1188 Shader)
650
(1625 Shader)
575 / 612
(1350 / 1500
Shader)
Effektive Betriebsfrequenz
Videospeicher, MHz
1800 1584 1940 1800 / 2160
Speicherkapazität, MB 256 / 512 320 / 640 512 768
Unterstützter Speichertyp GDDR3
Speicherbusbreite, Bits 256
(4 x 64)
320 256
(4 x 64)
384
Schnittstelle PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
PCI-Express
x16 (v2.0)
PCI-Express
x16 (v1.x)
Anzahl der einheitlichen Shader
Prozessoren, Stk.
112 96 128
Anzahl der Texturblöcke, Stk. 56 (28) 24 64 (32) 32
Anzahl der Rasterisierungseinheiten (ROPs), Stk. 16 20 16 24
Unterstützung für Pixel-Shader/Vertex-Versionen
Shader
4.0 / 4.0
Videospeicherbandbreite, Gbit/s ~57.6 ~61.9 ~62.1 ~86.4 / ~103.7

Schattierung, Gpixel/Sek
~9.6 ~10.3 ~10.4 ~13.8 / ~14.7
Theoretisch maximale Geschwindigkeit
Texturproben, Gtex./Sek
~33.6 ~24.0 ~41.6 ~36.8 / ~39.2
Spitzenstromverbrauch in
3D-Betriebsart, Watt
~106 ~180
Anforderungen an die Stromversorgung
Watt
~400 ~400 ~400 ~450 / ~550
Referenzmaße der Grafikkarte
Ausführung, mm (L x H x T)
220 x 100 x 15 228 x 100 x 39 220 x 100 x 32 270 x 100 x 38
Ausgänge 2 x DVI-I
(Dual-Link)
TV-Ausgang, HDTV-
Raus, HDCP
2 x DVI-I
(Dual-Link)
TV-Ausgang,
HDTV-Ausgang
2 x DVI-I
(Dual-Link)
TV-Ausgang, HDTV-
Raus, HDCP
2 x DVI-I
(Dual-Link)
TV-Ausgang,
HDTV-Ausgang
Zusätzlich SLI-Unterstützung
Empfohlener Preis, US-Dollar 199 / 249 349 ~ 399 299~349 499~599 / 699

2. Testbericht zur BFG GeForce 8800 GTS 512 MB OC (BFGR88512GTSE)

Die neueste Grafikkarte eines unter Overclockern bekannten Unternehmens wird in einer sehr kompakten Box geliefert, die in dunklen Farben gehalten ist.

Wieder 128 stärkere kalifornische Schützen, aber mit abgeschnittenen Speeren (512 MB und 256 Bit)

Teil 1: Theorie und Architektur

Im vorherigen Artikel über die Veröffentlichung der neuen Mittelklasse-Lösung Nvidia Geforce 8800 GT, die auf dem G92-Chip basiert, haben wir erwähnt, dass diese Lösung einen Chip verwendet, bei dem nicht alle ALU- und TMU-Ausführungseinheiten entsperrt sind, einige davon jedoch Warten in den Startlöchern. In einer Grafikkarte zu einem anderen Preisniveau enthalten zu sein. Und nun ist es soweit: Nvidia kündigt eine aktualisierte Version der GeForce 8800 GTS an, die den gleichen Namen wie die jüngere Lösung auf Basis der G80 behält. Der einfachste Weg, es zu unterscheiden, ist die Größe des installierten Videospeichers; dieser beträgt 512 Megabyte, im Gegensatz zu den vorherigen Optionen mit 320 MB und 640 MB. Daher wurde dieses Modell Geforce 8800 GTS 512 MB genannt.

Die neue Version der GeForce 8800 GTS basiert auf dem G92-Chip, der zuvor in der GeForce 8800 GT zum Einsatz kam, einer Grafikkarte der sogenannten oberen Mittelpreisklasse, sodass wir die wichtigsten Features und Eigenschaften bereits kennen. Im Gegensatz zu den beiden GeForce 8800 GT-Modellen mit einem empfohlenen Preis von 200 bis 250 US-Dollar (was übrigens derzeit nicht gut mit den realen Preisen korreliert) liegt die Preisempfehlung des Herstellers für die neue Lösung bei 349 bis 399 US-Dollar. Die Besonderheiten des verwendeten Videochips sind die Unterstützung nur eines 256-Bit-Speicherbusses, aber einer größeren Anzahl freigeschalteter Universal Execution Units. Werfen wir einen genaueren Blick auf die neue Low-High-End-Lösung von Nvidia...

Bevor Sie dieses Material lesen, empfehlen wir Ihnen, die grundlegenden theoretischen Materialien DX Current, DX Next und Longhorn sorgfältig zu lesen, in denen verschiedene Aspekte moderner Hardware-Grafikbeschleuniger und Architekturmerkmale von Nvidia- und AMD-Produkten beschrieben werden.

Diese Materialien haben die aktuelle Situation bei Videochip-Architekturen ziemlich genau vorhergesagt und viele Annahmen über zukünftige Lösungen waren berechtigt. Genaue Information Zur einheitlichen Architektur von Nvidia G8x/G9x am Beispiel früherer Chips finden Sie in den folgenden Artikeln:

Wie wir im vorherigen Material erwähnt haben, bietet der G92-Chip alle Vorteile des G8x: eine einheitliche Shader-Architektur, volle Unterstützung für DirectX 10, hochwertige anisotrope Filtermethoden und den CSAA-Antialiasing-Algorithmus mit bis zu sechzehn Samples inklusive. Einige Chipblöcke unterscheiden sich geringfügig von denen des G80, die wichtigste Änderung gegenüber dem G80 ist jedoch die 65-nm-Fertigungstechnologie, die zu geringeren Produktionskosten führt. Schauen wir uns die Eigenschaften der GPU und darauf basierende neue Videolösungen an:

Grafikbeschleuniger Geforce 8800 GTS 512 MB

  • Chip-Codename G92
  • 65-nm-Technologie
  • 754 Millionen Transistoren (mehr als G80)
  • Einheitliche Architektur mit einer Reihe gemeinsam genutzter Prozessoren für die Stream-Verarbeitung von Scheitelpunkten und Pixeln sowie anderen Datentypen
  • Hardware-Unterstützung für DirectX 10, einschließlich Shader-Modell Shader Model 4.0, Geometriegenerierung und Aufzeichnung von Zwischendaten von Shadern (Stream-Ausgabe)
  • 256-Bit-Speicherbus, vier unabhängige 64-Bit-breite Controller
  • Kernfrequenz 650 MHz (Geforce 8800 GTS 512 MB)
  • ALUs arbeiten mit mehr als der doppelten Frequenz (1,625 GHz für GeForce 8800 GTS 512 MB).
  • 128 skalare Gleitkomma-ALUs (Ganzzahl- und Gleitkommaformate, IEEE 754 32-Bit-Präzisions-FP-Unterstützung, MAD+MUL ohne Taktverlust)
  • 64 Texturadressierungseinheiten mit Unterstützung für FP16- und FP32-Komponenten in Texturen
  • 64 bilineare Filtereinheiten (wie G84 und G86, keine freie trilineare Filterung und effizientere anisotrope Filterung)
  • Möglichkeit dynamischer Verzweigungen in Pixel- und Vertex-Shadern
  • 4 breite ROP-Blöcke (16 Pixel) mit Unterstützung für Antialiasing-Modi bis zu 16 Samples pro Pixel, einschließlich mit FP16- oder FP32-Framebufferformat. Jeder Block besteht aus einem Array flexibel konfigurierbarer ALUs und ist für die Generierung und den Vergleich von Z, MSAA und Blending verantwortlich. Spitzenleistung des gesamten Subsystems bis zu 64 MSAA-Samples (+ 64 Z) pro Takt, im Nur-Z-Modus 128 Samples pro Takt
  • Zeichnen Sie Ergebnisse von bis zu 8 Bildpuffern gleichzeitig auf (MRT)
  • Alle Schnittstellen (zwei RAMDAC, zwei Dual DVI, HDMI, HDTV) sind auf dem Chip integriert (im Gegensatz zu denen, die bei der GeForce 8800 auf einem externen zusätzlichen NVIO-Chip platziert sind)

Spezifikationen der GeForce 8800 GTS 512 MB Referenzkarte

  • Kernfrequenz 650 MHz
  • Universelle Prozessorfrequenz 1625 MHz
  • Anzahl der Universalprozessoren 128
  • Anzahl der Texturblöcke 64, Mischblöcke 16
  • Effektive Speicherfrequenz 1,94 GHz (2*970 MHz)
  • Speichertyp GDDR3
  • Speicherkapazität 512 Megabyte
  • Speicherbandbreite 64,0 Gigabyte pro Sekunde.
  • Die theoretische maximale Füllrate beträgt 10,4 Gigapixel pro Sekunde.
  • Theoretische Textur-Sampling-Geschwindigkeit bis zu 41,6 Gigatexel pro Sekunde.
  • Zwei DVI-I-Dual-Link-Anschlüsse unterstützen Ausgabeauflösungen von bis zu 2560 x 1600
  • SLI-Anschluss
  • PCI Express 2.0-Bus
  • TV-Out, HDTV-Out, HDCP-Unterstützung
  • Empfohlener Preis 349–399 $

Wie Sie an den Eigenschaften erkennen können, unterscheidet sich die neue Version der GeForce 8800 GTS 512 MB deutlich von den alten. Die Anzahl der Ausführungseinheiten ist gestiegen: ALU und TMU, und auch die GPU-Frequenz ist deutlich gestiegen, einschließlich der Häufigkeit der Shader-Einheiten. Trotz des reduzierten Speicherbusses (256 Bit gegenüber 320 Bit in älteren Versionen) blieb die Speicherbandbreite gleich, da ihre Betriebsfrequenz auf den entsprechenden Wert erhöht wurde. Infolgedessen verfügt das neue GTS über eine deutlich höhere Shader-Ausführungsleistung sowie eine höhere Texturabrufgeschwindigkeit. Gleichzeitig blieben Füllrate und Bandbreite gleich.

Aufgrund der geänderten Speicherbusbreite kann das letztgenannte Volumen nicht mehr 320 MB oder 640 MB, sondern nur noch 256 MB, 512 MB oder 1 GB betragen. Der erste Wert ist zu klein, er wird für eine Karte dieser Klasse eindeutig nicht ausreichen, und der letzte ist zu hoch. Eine leichte Leistungssteigerung dürfte den erhöhten Preis solcher Optionen (der durchaus in der Preisliste enthalten sein kann) rechtfertigen Zukunft). Daher entschied sich Nvidia für die mittlere Variante mit 512-MB-Karten. Was, wie unsere jüngsten Untersuchungen gezeigt haben, die goldene Mitte für alle modernen Spiele ist, die sehr hohe Anforderungen an den Videospeicher stellen und bis zu 500-600 Megabyte verbrauchen. Wir werden nicht müde zu wiederholen, dass dies nicht bedeutet, dass sich alle Spielressourcen unbedingt nur im lokalen Speicher der Grafikkarte befinden müssen; die Ressourcenverwaltung kann auf die API-Verwaltung übertragen werden, insbesondere in Direct3D 10 mit Videospeichervirtualisierung.

Die Architektur

Wie im vorherigen Artikel über die GeForce 8800 GT geschrieben wurde, können wir sagen, dass die G92 das bisherige Flaggschiff G80 ist, das auf einen neuen technologischen Prozess umgestellt wurde, jedoch mit einigen Änderungen. Neuer Chip verfügt über 8 große Shader-Einheiten und 64 Textureinheiten sowie vier breite ROPs. Trotz aller Veränderungen zum Besseren scheint die Anzahl der Transistoren im Chip zu groß zu sein, wahrscheinlich erklärt sich die erhöhte Komplexität des Chips durch die Einbeziehung eines bisher separaten NVIO-Chips sowie eines Videoprozessors der neuen Generation. Darüber hinaus wurde die Anzahl der Transistoren durch komplexere TMUs beeinträchtigt, und es besteht das Potenzial für größere Caches, um dem 256-Bit-Speicherbus eine höhere Effizienz zu verleihen.

Es gibt nur sehr wenige architektonische Änderungen am G92-Chip; wir haben sie alle im vorherigen Artikel besprochen und werden es nicht noch einmal tun. Alles, was in den Rezensionen früherer Lösungen gesagt wurde, bleibt gültig, wir präsentieren nur das Hauptdiagramm des G92-Chips, jetzt mit allen 128 Universalprozessoren:

Von allen Änderungen am Chip gibt es im Vergleich zum G80 nur eine reduzierte Anzahl von ROP-Einheiten und einige Änderungen an der TMU, die in unserem vorherigen Material beschrieben wurden. Wir möchten noch einmal darauf hinweisen, dass 64 Textureinheiten in der GeForce 8800 GTS 512 MB in realen Anwendungen in den meisten Fällen NICHT stärker sein werden als 32 Einheiten in der GeForce 8800 GTX. Wenn die trilineare und/oder anisotrope Filterung aktiviert ist, ist ihre Leistung ungefähr gleich, da sie über die gleiche Anzahl an Texturdaten-Filtereinheiten verfügen. Wenn ungefilterte Proben verwendet werden, ist die Leistung der Lösungen auf dem G92 natürlich höher.

PureVideo HD

Eine der erwarteten Änderungen im G92 war der eingebaute Videoprozessor der zweiten Generation, bekannt aus dem G84 und G86, der erweiterte Unterstützung für PureVideo HD erhielt. Diese Version des Videoprozessors entlastet die CPU nahezu vollständig bei der Dekodierung aller Arten von Videodaten, einschließlich der „schweren“ Formate H.264 und VC-1. Der G92 verwendet ein neues Modell eines programmierbaren PureVideo HD-Videoprozessors, der die sogenannte BSP-Engine enthält. Neuer Prozessor Unterstützt die Dekodierung der Formate H.264, VC-1 und MPEG-2 mit Auflösungen von bis zu 1920 x 1080 und Bitraten von bis zu 30–40 Mbit/s und führt die Arbeit der Dekodierung von CABAC- und CAVLC-Daten in Hardware durch, sodass Sie alle vorhandenen abspielen können HD-DVD- und Blu-ray-Laufwerke sogar auf Single-Core-PCs mittlerer Leistung. Die VC-1-Dekodierung ist nicht so effizient wie H.264, wird aber vom neuen Prozessor weiterhin unterstützt. Weitere Informationen zum Videoprozessor der zweiten Generation finden Sie in unseren Testberichten zum G84/G86 und G92, auf die am Anfang des Artikels verwiesen wird.

PCI Express 2.0

Von den wirklichen Innovationen des G92 können wir die Unterstützung hervorheben PCI-Busse Express 2.0. Die zweite Version von PCI Express verdoppelt die Standardbandbreite von 2,5 Gbit/s auf 5 Gbit/s, was dazu führt, dass der x16-Anschluss Daten mit Geschwindigkeiten von bis zu 8 GB/s in jede Richtung übertragen kann, im Gegensatz zu 4 GB/s für Version 1.x. Es ist sehr wichtig, dass PCI Express 2.0 mit PCI Express 1.1 kompatibel ist und alte Grafikkarten auf neuen Motherboards funktionieren und neue Grafikkarten mit Unterstützung für die zweite Version auf Boards ohne diese Unterstützung funktionsfähig bleiben. Vorausgesetzt, ausreichend externe Stromversorgung ist vorhanden und natürlich ohne Erhöhung der Schnittstellenbandbreite.

Der tatsächliche Einfluss einer höheren PCI-Express-Busbandbreite auf die Leistung wurde in seinen Materialien vom Hauptkonkurrenten von Nvidia bewertet. Ihnen zufolge beschleunigt eine Mittelklasse-Grafikkarte mit 256 Megabyte lokalem Speicher beim Wechsel von PCI Express 1.0 auf 2.0 in modernen Spielen wie Company of Heroes, Call of Juarez, Lost Planet und World In Conflict um etwa 10 % Die Zahlen schwanken je nach Spiel und Testbedingungen zwischen 5 % und 25 %. Natürlich, Rede in hohe Auflösungen, wenn der Bildpuffer und zugehörige Puffer den größten Teil des lokalen Videospeichers belegen und einige Ressourcen im System gespeichert sind.

Um die Abwärtskompatibilität mit vorhandenen PCI Express 1.0- und 1.1-Lösungen sicherzustellen, unterstützt die 2.0-Spezifikation sowohl Übertragungsraten von 2,5 Gbit/s als auch 5 Gbit/s. Durch die Abwärtskompatibilität mit PCI Express 2.0 können ältere 2,5-Gbit/s-Lösungen in 5,0-Gbit/s-Steckplätzen verwendet werden, die mit niedrigeren Geschwindigkeiten arbeiten. Ein Gerät, das gemäß den Spezifikationen der Version 2.0 entwickelt wurde, kann sowohl Geschwindigkeiten von 2,5 Gbit/s als auch von 5 Gbit/s unterstützen. Theoretisch ist die Kompatibilität gut, in der Praxis kann es jedoch bei manchen Kombinationen aus Mainboards und Erweiterungskarten zu Problemen kommen.

Unterstützung für externe Schnittstellen

Hier ist alles wie bei der GeForce 8800 GT, es gibt keine Unterschiede. Ein zusätzlicher NVIO-Chip, der auf GeForce 8800-Boards verfügbar ist und Remote unterstützt externe Schnittstellen(zwei 400-MHz-RAMDAC, zwei Dual Link DVI (oder LVDS), HDTV-Out) war in diesem Fall im Chip selbst enthalten; die Unterstützung für alle diese Schnittstellen ist im G92 selbst integriert.

GeForce 8800 GTS 512 MB-Grafikkarten verfügen normalerweise über zwei Dual-Link-DVI-Ausgänge mit HDCP-Unterstützung. Was HDMI betrifft, wurde die Unterstützung für diesen Anschluss implementiert; er kann von Herstellern auf speziell entwickelten Karten implementiert werden. Obwohl das Vorhandensein eines HDMI-Anschlusses auf einer Grafikkarte völlig optional ist, kann er erfolgreich durch einen Adapter von DVI auf HDMI ersetzt werden, der in den meisten modernen Grafikkarten enthalten ist.

Update: Wir haben uns entschieden, den ersten Testbericht durch zusätzliche theoretische Informationen, Vergleichstabellen sowie Testergebnisse des amerikanischen THG-Labors zu ergänzen, zu dem auch die „jüngere“ GeForce 8800 GTS-Karte gehörte. Im aktualisierten Artikel finden Sie auch Qualitätstests.

Die GeForce 8800 GTX ist ihren Konkurrenten um Längen überlegen.

Sie haben wahrscheinlich schon von DirectX 10 und den Wundern gehört, die die neue API im Vergleich zu DX9 verspricht. Im Internet findet man Screenshots von Spielen, die sich noch in der Entwicklung befinden. Bisher gab es jedoch keine Grafikkarten mit DX10-Unterstützung auf dem Markt. Und nVidia war der erste, der diesen Fehler behoben hat. Begrüßen wir die Veröffentlichung von DirectX 10-Grafikkarten in Form von nVidia GeForce 8800 GTX und 8800 GTS!

Eine einzige, einheitliche Architektur wird in der Lage sein, mehr aus den Shader-Einheiten herauszuholen, da diese nun effizienter genutzt werden können als mit einem festen Layout. Eine neue Ära in der Computergrafik wird durch die GeForce 8800 GTX mit 128 Unified Shader-Einheiten und die GeForce 8800 GTS mit 96 solcher Einheiten eröffnet. Die Zeiten der Pixel-Fließbänder sind endlich vorbei. Doch werfen wir einen genaueren Blick auf die neuen Karten.

Das Substrat weist 80 Grafikkerne auf. Der neue Grafikprozessor verspricht eine doppelt so hohe Leistung wie die GeForce 7900 GTX (G71). 681 Millionen Transistoren ergeben eine enorme Chip-Fläche, aber als wir danach fragten, antwortete Jen-Hsun Huang, CEO von Nvidia: „Wenn meine Ingenieure sagen würden, sie könnten die Leistung verdoppeln, indem sie die Chip-Fläche verdoppeln, hätte ich sogar nein.“ zweifeln!"

Die Erfahrung hat gezeigt, dass eine Verdoppelung der Fläche nicht zu einer Verdoppelung der Leistung führt, aber nVidia scheint die richtige Balance zwischen technologischen Fortschritten und der Implementierung des Chips auf Silizium gefunden zu haben.

Die GeForce 8800 GTX und 8800 GTS sind vollständig mit den DX10- und Shader Model 4.0-Standards sowie verschiedenen Datenspeicher- und Übertragungsstandards kompatibel und unterstützen Geometrie-Shader und Stream Out. Wie hat nVidia das alles umgesetzt?

Zunächst einmal hat sich nVidia vom festen Design, das die Branche seit 20 Jahren verwendet, zugunsten eines einheitlichen Shader-Kerns verabschiedet.


Zuvor haben wir ähnliche Folien gezeigt, die den Trend zur Steigerung der Pixel-Shader-Leistung veranschaulichen. Nvidia ist sich dieses Trends bewusst und versucht, die Rechenanforderungen auszugleichen, indem es einheitliche Shader implementiert, durch die Datenströme geleitet werden. Dies sorgt für maximale Effizienz und Produktivität.

nVidia erklärt: „Das GeForce 8800-Designteam wusste genau, dass High-End-3D-DirectX-10-Spiele viel Hardwareleistung zur Berechnung von Shader erfordern würden. Obwohl DirectX 10 einen einheitlichen Befehlssatz vorgibt, erfordert der Standard kein einheitliches GPU-Shader-Design.“ Die Ingenieure der GeForce 8800 waren jedoch davon überzeugt, dass „die einheitliche Shader-Architektur der GPU die Last der DirectX 10-Shader-Programme effektiv verteilen, die architektonische Effizienz der GPU verbessern und die verfügbare Leistung richtig verteilen wird.“

GeForce 8800 GTX | 128 SIMD-Stream-Prozessoren



Der Prozessorkern arbeitet mit einer Frequenz von 575 MHz bei der GeForce 8800 GTX und mit 500 MHz bei der GeForce 8800 GTS. Wenn der Rest des Kerns mit 575 MHz (oder 500 MHz) läuft, verwendet der Shader-Kern seinen eigenen Takt. Die GeForce 8800 GTX läuft mit 1350 GHz und die 8800 GTS mit 1200 GHz.

Jedes Shader-Element im Kernel wird als Streaming-Prozessor bezeichnet. Die GeForce 8800 GTX verwendet 16 Blöcke mit jeweils acht solchen Elementen. Als Ergebnis erhalten wir 128 Stream-Prozessoren. Ähnlich wie beim Design des ATi R580 und R580+, bei dem Pixel-Shader-Blöcke vorhanden sind, plant Nvidia, in Zukunft sowohl Blöcke hinzuzufügen als auch zu entfernen. Tatsächlich ist es das, was wir mit 96 Stream-Prozessoren in der GeForce 8800 GTS sehen.



Klicken Sie auf das Bild, um es zu vergrößern.

GeForce 8800 GTX | Spezifikationsvergleichstabelle

Nvidia war bisher nicht in der Lage, Vollbild-Anti-Aliasing mit HDR-Beleuchtung gleichzeitig durchzuführen, aber das ist Geschichte. Jeder Rasteroperationsblock (ROP) unterstützt das Frame-Buffer-Shuffling. Somit können mit Multisampling-Anti-Aliasing sowohl FP16- als auch FP32-Renderziele verwendet werden. Unter D3D10 können Farb- und Z-Verarbeitungsbeschleunigung in Rasteroperationseinheiten für bis zu acht mehrere Renderziele sowie neue Komprimierungstechnologien genutzt werden.

Die GeForce 8800 GTX kann 64 Texturen pro Takt füllen, und bei 575 MHz erhalten wir 36,8 Milliarden Texturen pro Sekunde (GeForce 8800 GTS = 32 Milliarden/s). Die GeForce 8800 GTX verfügt über 24 Rasteroperationseinheiten (ROPs) und wenn die Karte mit 575 MHz läuft, beträgt die maximale Pixelfüllrate 13,8 Gigapixel/s. Die GeForce 880GTS-Version verfügt über 20 ROPs und bietet eine Spitzenfüllrate von 10 Gigapixel/s bei 500 MHz.

nVidia GeForce-Spezifikationen
8800GTX 8800GTS 7950GX2 7900GTX 7800GTX 512 7800GTX
Prozesstechnik (nm) 90 90 90 90 110 110
Kern G80 G80 G71 G71 G70 G70
Anzahl der GPUs 1 1 2 1 1 1
Anzahl der Transistoren pro Kern (Millionen) 681 681 278 278 302 302
Scheitelfrequenz (MHz) 1350 1200 500 700 550 470
Kernfrequenz (MHz) 575 500 500 650 550 430
Speicherfrequenz (MHz) 900 600 600 800 850 600
Effektive Speicherfrequenz (MHz) 1800 1200 1200 1600 1700 1200
Anzahl der Scheitelpunktblöcke 128 96 16 8 8 8
Anzahl der Pixelblöcke 128 96 48 24 24 24
ROP-Nummer 24 20 32 16 16 16
Speicherbusbreite (Bits) 384 320 256 256 256 256
Speicherkapazität auf der GPU (MB) 768 640 512 512 512 256
Speicherbandbreite auf der GPU (GB/s) 86,4 48 38,4 51,2 54,4 38,4
Anzahl der Scheitelpunkte/s (Millionen) 10 800 7200 2000 1400 1100 940
Pixelbandbreite (ROP x Frequenz, in B/s) 13,8 10 16 10,4 8,8 6,88
Texturdurchsatz (Anzahl der Pixelpipelines x Frequenz, in Milliarden/s) 36,8 32 24 15,6 13,2 10,32
RAMDAC (MHz) 400 400 400 400 400 400
Reifen PCI-Express PCI-Express PCI-Express PCI-Express PCI-Express PCI-Express

Achten Sie auf die Breite des Speicherbusses. Wenn Sie sich das auf der vorherigen Seite gezeigte Diagramm ansehen, verwendet die GeForce 8800 GTX-GPU sechs Speicherabschnitte. Jeder von ihnen ist mit einer 64-Bit-Speicherschnittstelle ausgestattet, was eine Gesamtbreite von 384 Bit ergibt. 768 MB GDDR3-Speicher sind an das Speichersubsystem angeschlossen, das wie die GeForce 7x-GPU auf einem Hochgeschwindigkeits-Cross-Connect basiert. Dieser Cross-Connect unterstützt DDR1-, DDR2-, DDR3-, GDDR3- und GDDR4-Speicher.

Die GeForce 8800 GTX nutzt GDDR3-Speicher mit einer Standardfrequenz von 900 MHz (die GTS-Version läuft mit 800 MHz). Bei einer Breite von 384 Bit (48 Byte) und einer Frequenz von 900 MHz (1800 MHz effektive DDR-Frequenz) beträgt der Durchsatz satte 86,4 GB/s. Und mit 768 MB Speicher können Sie wesentlich komplexere Modelle und Texturen mit höherer Auflösung und Qualität speichern.

GeForce 8800 GTX | nVidia schlägt ATi aus


Klicken Sie auf das Bild, um es zu vergrößern.

Wir haben gute und schlechte Nachrichten. Die Guten sind schneller als die Schnellsten, sie sind sehr leise und sie haben so viele interessante technische Dinge, für die es noch nicht einmal Software gibt. Die schlechte Nachricht ist, dass sie nicht im Angebot sind. Nun ja, mit neuer Hardware stimmt immer etwas nicht. Sparkle verkauft diese Karten für 635 Euro. Wir beginnen uns bereits an solche Preise für Top-End-Hardware zu gewöhnen.

Die Platine ist 27 Zentimeter lang, sodass Sie sie nicht in jedem Fall verbauen können. Wenn auf Ihrem Computer Festplatten Wenn sich die Grafikkarte direkt hinter den PCIe-Steckplätzen befindet, wird die Installation der GeForce 8800 GTX höchstwahrscheinlich keine leichte Aufgabe sein. Natürlich lassen sich die Laufwerke immer per Adapter in einen 5-Zoll-Schacht einbauen, allerdings muss man zugeben, dass das Problem selbst wenig Freude bereitet.


Klicken Sie auf das Bild, um es zu vergrößern.

Die technische Umsetzung ist nicht zum Lachen. Dies ist die beste Hardware, die Sie als Geschenk für Ihren PC kaufen können Neues Jahr. Warum erregte die GeForce 8800 GTX so viel Aufmerksamkeit in der Internet-Community? Es ist elementar – es geht um Rekord-Leistungsindikatoren. So ist in Half-Life 2: Episode 1 die Anzahl der Bilder pro Sekunde auf der GeForce 8800 GTX bei einer Auflösung von 1600x1200 sogar 60 Prozent höher als die der Top-Radeon-X1000-Familie (1900 XTX und X1950 XTX).

Oblivion läuft auf allen Ebenen unglaublich reibungslos. Genauer gesagt beträgt die Geschwindigkeit bei aktiviertem HDR-Rendering in Oblivion mindestens 30 fps. Es ist unmöglich, in Titan Quest weniger als 55 Bilder pro Sekunde zu sehen. Manchmal fragt man sich, ob der Benchmark eingefroren ist oder vielleicht etwas mit den Levels passiert ist. Die Aktivierung von Vollbild-Anti-Aliasing und anisotroper Filterung hat keinerlei Auswirkungen auf die GeForce 8800.

Dies ist die schnellste Grafikkarte unter allen 2006 erschienenen Modellen. Lediglich die Radeon X1950 XTX im gepaarten CrossFire-Modus holt stellenweise zur 8800 GTX auf. Wenn Sie sich also fragen, auf welcher Karte Gothic 3, Dark Messiah und Oblivion nicht langsamer werden, dann ist hier die Antwort: Dies ist die GeForce 8800 GTX.

GeForce 8800 GTX | Zwei Steckdosen

Die Stromversorgung erfolgt über zwei Buchsen auf der Oberseite der Platine. Beides ist notwendig – wenn Sie das Kabel vom linken entfernen, wird die 3D-Leistung stark reduziert. Wollen Sie, dass Ihre Nachbarn verrückt werden? Dann nehmen Sie das Richtige heraus – das verrückte Quietschen, das von der Platine zu hören ist, wird Ihre Autoalarmanlage neidisch machen. Das Board selbst lässt sich überhaupt nicht einschalten. Beachten Sie, dass nVidia für die GeForce 8800 GTX die Verwendung eines Netzteils mit einer Leistung von mindestens 450 Watt empfiehlt und auf der 12-Volt-Leitung 30 Ampere anliegen können.


Bei der GeForce 8800 GTX müssen beide Steckdosen angeschlossen sein. Klicken Sie auf das Bild, um es zu vergrößern.

Die beiden Steckdosen sind einfach erklärt. Gemäß den PCI-Express-Spezifikationen kann ein einzelner PCIe-Steckplatz nicht mehr als 75 Watt Leistung unterstützen. Unser Testmodell verbraucht allein im 2D-Modus etwa 180 Watt. Das sind satte 40 Watt mehr als bei der Radeon X1900 XTX oder X1950 XTX. Nun, im 3D-Modus verbraucht das Board etwa 309 Watt. Die gleiche Radeon X1900/1950 XTX verbraucht in diesem Fall 285 bis 315 Watt. Wofür benötigt die GeForce 8800 im Betrieb so viel Energie? einfaches Windows, wir verstehen es nicht.

Zwei weitere Anschlüsse sind für den SLI-Modus reserviert. Laut nVidia-Dokumentation benötigt SLI nur einen Stecker. Der zweite wird noch nicht verwendet. Theoretisch können Sie mit zwei Anschlüssen mehr als zwei zu einem Multiboard-System verbinden. Das Erscheinen des zweiten Anschlusses kann auch mit der zunehmenden Beliebtheit von Hardware-Physikberechnungen in Verbindung gebracht werden. Möglicherweise wird darüber eine weitere Grafikkarte angeschlossen, um die physischen Funktionen in der Spiel-Engine auszulesen. Oder vielleicht reden wir über Quad SLI auf 4 Platinen oder so etwas in der Art.


Ein zusätzlicher Anschluss ist nun für SLI reserviert. Mit der aktuellen Version des Treibers können Sie jedoch nur einen verwenden. Klicken Sie auf das Bild, um es zu vergrößern.

GeForce 8800 GTX | Leises Kühlsystem

GeForce 8800 ist mit einem sehr leisen 80-mm-Turbinenkühler ausgestattet. Wie bei der Radeon X1950 Am Ende der Platine befindet sich ein spezielles Gitter, das heiße Luft nicht nur nach außen durch das Loch im zweiten Schlitz, sondern auch nach unten direkt in das Gehäuse abführt. Im Allgemeinen ist das System einfach, es gibt jedoch eine Reihe kontroverser Punkte.


Durch das Loch im zweiten Slot wird warme Luft abgesaugt, ein Teil gelangt jedoch durch das Gitter an der Seite der GeForce 8800 GTX wieder zurück ins Gehäuse. Klicken Sie auf das Bild, um es zu vergrößern.

Wenn die PCIe-Steckplätze Ihres Computers nahe beieinander liegen und zwei Karten im SLI-Modus platziert sind, sodass der Abstand zwischen ihnen nicht zu groß ist, ist die Temperatur an dieser Stelle sehr angenehm. Die untere Karte wird zusätzlich von der oberen Karte über das gleiche Seitengitter des Kühlsystems erwärmt. Nun, es ist besser, nicht einmal darüber nachzudenken, was passieren wird, wenn Sie drei Karten installieren. Dies ergibt eine hervorragende Elektroheizung für den Haushalt. Bei kaltem Wetter arbeiten Sie in der Nähe eines offenen Fensters.

Wenn das Board alleine installiert wird, kann sich das Kühlsystem sehen lassen und funktioniert optimal. Wie die GeForce-7900-GTX-Boards arbeitet es leise. Während des gesamten sechsstündigen Testlaufs unter konstant hoher Belastung war kein einziges Mal von der Platine etwas zu hören. Selbst wenn die Platine voll mit Arbeit belastet ist, kommt der Kühler mit der Wärmeabfuhr bei mittleren Geschwindigkeiten zurecht. Wenn Sie Ihr Ohr an die Rückseite des Computers halten, hören Sie nur ein leichtes Geräusch, eine Art leises Rascheln.


Der 80-mm-Kühler ist leise und läuft nie auf Hochtouren. Das Kühlsystem des Boards belegt zwei Steckplätze. Klicken Sie auf das Bild, um es zu vergrößern.

Der spezielle ForceWare 96.94-Treiber, den nVidia für die GeForce 8800 GTX vorbereitet hat, zeigt keine Temperaturüberwachungsdaten an. Vor dieser Veröffentlichung konnte man zwischen der klassischen und der neuen Benutzeroberfläche wählen, die Pressemitteilung 96.94 enthält jedoch nur neue Version Einstellungsfeld. Wenn Sie versuchen, die Uhr- und Temperatureinstellungen zu öffnen, werden Sie vom Treiber zur nVidia-Website weitergeleitet, wo Sie das Ntune-Dienstprogramm herunterladen können. Hier werden diese Funktionen konfiguriert. Laden Sie das 30 MB große Archiv herunter und installieren Sie es. Beim ersten Start kommt es zu einem vollständigen Einfrieren des Computers und von Windows.

Wenn Sie nach der Installation von Ntune im Einstellungsfeld die Option zum Anpassen von Frequenzen und Temperaturen auswählen, wird eine spezielle Informationsseite geöffnet, auf der die Motherboard-Einstellungen angezeigt werden. Einstellungen, also Informationen zu Frequenz und Temperatur, werden Sie nicht finden. Deshalb haben wir die Temperatur ganz klassisch gemessen – mit einem Infrarot-Thermometer. Bei voller Auslastung ergaben Messungen eine Temperatur von 71 Grad Celsius, beim Arbeiten im 2D-Modus wurde die Karte zwischen 52 und 54 Grad gehalten.

Wir können nur hoffen, dass nVidia eine Standardversion von ForceWare für die GeForce 8800 veröffentlicht. Die klassische Setup-Oberfläche ist manchmal komfortabler, außerdem zeigt sie Temperaturinformationen an und Sie können die Frequenzen mithilfe von Coolbits anpassen. Der mit Ntune gepaarte neue Treiber benötigt etwa 100 Megabyte und ist in eine beträchtliche Anzahl von Registerkarten und Fenstern unterteilt. Die Zusammenarbeit mit ihm ist nicht immer bequem.


Der GeForce 8800 GTX-Chip enthält bis zu 681 Millionen Transistoren und wird in der TSMC-Fabrik mit 90-Nanometer-Technologie hergestellt. Klicken Sie auf das Bild, um es zu vergrößern.

Der G80 GeForce 8800 GTX-Chip verfügt über 681 Millionen Transistoren. Das ist doppelt so viel wie im Conroe-Prozessorkern Intel Core Prozessor 2 Duo oder im GeForce 7 Chip. Die GPU der Grafikkarte arbeitet mit einer Frequenz von 575 MHz. Die Speicherschnittstelle ist 384-Bit und bietet 768 Megabyte. Als Speicher nutzte nVidia Hochgeschwindigkeits-GDDR3, das mit 900 MHz arbeitet.

Zum Vergleich: Der Speicher der GeForce 7900 GTX arbeitet mit 800 MHz, der der GeForce 7950 GT mit 700 MHz. Radeon X1950 XTX-Grafikkarten verwenden GDDR4-Speicher mit einer Frequenz von 1000 MHz. Die GeForce 8800 GTS-Karte hat eine Kernfrequenz von 500 MHz, eine Speicherkapazität von 640 MB bei einer Frequenz von 800 MHz.

Testergebnisse zeigen, dass Vollbild-Anti-Aliasing und anisotrope Filterung letztendlich die Leistung in keiner Weise beeinträchtigen, wenn sie aktiviert sind. In ressourcenintensiven Spielen wie Oblivion musste man früher darauf achten, jetzt kann man alles auf Maximum stellen. Die Leistung früherer nVidias ist so, dass diese Spiele nur bei Auflösungen bis 1024x768 flüssig liefen, während HDR-Rendering mit Pixel-Shadern der Version 3 enorme Ressourcen beanspruchte. Grafikkarten sind so leistungsstark, dass Sie mit der Aktivierung von 4xAA und 8xAF problemlos mit Auflösungen von bis zu 1600x1200 spielen können. Der G80-Chip unterstützt maximale Anti-Aliasing-Einstellungen von 16x und anisotrope Filterung von 16x.


GeForce 8800 GTX unterstützt 16-faches Anti-Aliasing und anisotrope Filterung.

Im Vergleich zu Single ATi hat die GeForce 8800 GTX keine Konkurrenz. Das neue nVidia kann jetzt HDR-Rendering mit dritten Shadern und Anti-Aliasing durchführen. HDR-Rendering ermöglicht extreme Reflexionen und Glanzlichter und simuliert den Blendeffekt, wenn Sie aus einem dunklen Raum in helles Licht treten. Leider viele alte Spiele - Half Life Episode 1, Neef Für Geschwindigkeit Meistgesucht, Spellforce 2, Dark Messiah und andere – verwenden Sie für HDR-Effekte nur die zweiten Shader. Neue Spiele wie Gothic 3 oder Neverwinter Nights 2 verwenden die bisherige Bloom-Methode, wie dies auch bei Black & White 2 der Fall war. Und obwohl Neverwinter Nights 2 so konfiguriert werden kann, dass es HDR-Rendering unterstützt, ist der Entwickler bei diesen Funktionen vorsichtig, sodass die mit normalem Wer normale Hardware installiert hat, kann FPS spielen. Dies ist in Oblivion korrekt umgesetzt, wo es sowohl Bloom als auch hervorragende HDR-Rendering-Effekte durch dritte Shader gibt.

Es unterstützt auch vierte Shader (Shader Model 4.0) und die wichtigste Neuerung ist die geänderte Architektur der Rendering-Pipeline. Es ist nicht mehr in Pixel- und Vertex-Shader unterteilt. Der neue Shader-Kern kann alle Daten verarbeiten – Vertex-, Pixel-, geometrische und sogar physikalische. Der Leistung schadet das nicht – Oblivion läuft fast doppelt so schnell wie auf der Pixel-Shader-optimierten Radeon X1900 XTX oder X1950 XTX.

Was die Grafikkarte in Sachen DirectX 10 unterstützt, lässt sich noch nicht testen. Windows Vista, Direct X 10 und Spiele dafür gibt es noch nicht. Auf dem Papier sieht jedoch alles mehr als ordentlich aus: Geometrie-Shader unterstützen Displacement Mapping, wodurch Sie noch realistischere Dinge darstellen können, beispielsweise stereoskopische Effekte, Objekte in Form von Mulden und gewellte Oberflächen berechnen können. Mit Stream Output können Sie noch bessere Shader-Effekte für Partikel und Physik erzielen. Die Quantum-Effect-Technologie kommt gut mit der Berechnung der Auswirkungen von Rauch, Nebel, Feuer und Explosionen zurecht und ermöglicht es Ihnen, deren Berechnung zu entfernen zentraler Prozessor. All dies zusammen wird zu deutlich mehr Shader- und Physikeffekten führen, die in zukünftigen Spielen zu sehen sein werden. Wie das alles in der Praxis umgesetzt wird, in welchen Spielen und in welcher Form, wird die Zukunft zeigen.

GeForce 8800 GTX | Boards im Test

Grafikkarten auf nVidia
und Chip Code Name Erinnerung HDR-R Vers./Pix. Shader GPU-Frequenz Speicherfrequenz
nVidia GeForce 8800 GTX G80 768 MB GDDR3 Ja 4.0 575 MHz 1800 MHz
Asus + Gigabyte GeForce 7900 GTX SLI G71 512 MB GDDR3 Ja 3.0/3.0 650 MHz 1600 MHz
Gigabyte GeForce 7900 GTX G71 512 MB GDDR3 Ja 3.0/3.0 650 MHz
nVidia GeForce 7950 GT G71 512 MB GDDR3 Ja 3.0/3.0 550 MHz 1400 MHz
Asus GeForce 7900 GT Top G71 256 MB GDDR3 Ja 3.0/3.0 520 MHz 1440 MHz
nVidia GeForce 7900GS G71 256 MB GDDR3 Ja 3.0/3.0 450 MHz 1320 MHz
Asus GeForce 7800 GTX EX G70 256 MB GDDR3 Ja 3.0/3.0 430 MHz 1200 MHz
Gigabyte GeForce 7800 GT G70 256 MB GDDR3 Ja 3.0/3.0 400 MHz 1000 MHz
Asus GeForce 7600 GT G73 256 MB GDDR3 Ja 3.0/3.0 560 MHz 1400 MHz
nVidia GeForce 6800 GT NV45 256 MB GDDR3 Ja 3.0/3.0 350 MHz 1000 MHz
Gainward GeForce 7800 GS+ GSa AGP G71 512 MB GDDR3 Ja 3.0/3.0 450 MHz 1250 MHz

Die folgende Tabelle zeigt die ATi, die an unseren Tests teilgenommen haben.

ATi-Grafikkarten
Grafikkarte und Chip Code Name Erinnerung HDR-R Vers./Pix. Shader GPU-Frequenz Speicherfrequenz
Club 3D + Club 3D Radeon X1950 XTX CF R580+ 512 MB GDDR4 Ja 3.0/3.0 648 MHz 1998 MHz
Club 3D Radeon X1950 XTX R580+ 512 MB GDDR4 Ja 3.0/3.0 648 MHz 1998 MHz
SEINE + SEINE Radeon X1900 XTX CF R580 512 MB GDDR3 Ja 3.0/3.0 621 MHz 1440 MHz
Gigabyte Radeon X1900 XTX R580 512 MB GDDR3 Ja 3.0/3.0 648 MHz 1548 MHz
Power Color Radeon X1900 XT R580 512 MB GDDR3 Ja 3.0/3.0 621 MHz 1440 MHz
ATI Radeon X1900 XT R580 256 MB GDDR3 Ja 3.0/3.0 621 MHz 1440 MHz
Sapphire Radeon X1900 GT R580 256 MB GDDR3 Ja 3.0/3.0 574 MHz 1188 MHz
SEINE Radeon X1650 Pro Turbo RV535 256 MB GDDR3 Ja 3.0/3.0 621 MHz 1386 MHz
Gecube Radeon X1300 XT RV530 256 MB GDDR3 Ja 3.0/3.0 560 MHz 1386 MHz

GeForce 8800 GTX | Testkonfiguration

Zum Testen haben wir drei Referenzstände verwendet. Alle basierten auf äußerst identischen Komponenten – einem Dual-Core-Prozessor AMD Athlon 64 FX-60 mit einer Frequenz von 2,61 GHz, ausgestattet mit 2 Gigabyte Mushkin MB HP 3200 2-3-2 RAM, zwei Hitachi 120 GB Festplatten in einer RAID 0-Konfiguration. Der Unterschied lag in den verwendeten Motherboards – zum Testen von Single- und nVidia-Boards im SLI-Modus verwendeten wir das Asus A8N32-SLI Deluxe-Motherboard. Zum Testen von Grafikkarten im CrossFire-Modus (dies wird durch die Abkürzung angezeigt CF(unten in den Grafiken) haben wir denselben Computer mit einem Referenz-ATi-Motherboard basierend auf dem RD580-Chipsatz verwendet. Schließlich wurden AGP-Grafikkarten auf einem Computer in derselben Konfiguration getestet, jedoch auf einem ASUS AV8 Deluxe-Motherboard. Die Konfigurationsdaten werden in einer Tabelle zusammengefasst.

Für alle nVidia-Grafikkarten (einschließlich SLI) und einzelne Ati-Karten
CPU
Busfrequenz 200 MHz
Hauptplatine Asus A8N32-SLI Deluxe
Chipsatz nVidia nForce4
Erinnerung
Festplatte Hitachi 2 x 120 GB SATA, 8 MB Cache
DVD Gigabyte GO-D1600C
LAN-Controller Marvell
Sound-Controller Realtek AC97
Netzteil Silverstone SST-ST56ZF 560 W
Für Tests ATi-Grafikkarten im CrossFire-Modus
CPU Dual-Core AMD Athlon 64 FX-60 2,61 GHz
Busfrequenz 200 MHz
Hauptplatine Referenz ATi
Chipsatz ATI RD580
Erinnerung Mushkin 2x1024 MB HP 3200 2-3-2
LAN-Controller Marvell
Sound-Controller AC97
Zum Testen von AGP-Grafikkarten
CPU Dual-Core AMD Athlon 64 FX-60 2,61 GHz
Busfrequenz 200 MHz
Hauptplatine Asus AV8 Deluxe
Chipsatz VIA K8T800 Pro
Erinnerung Mushkin 2x1024 MB HP 3200 2-3-2
LAN-Controller Marvell
Sound-Controller Realtek AC97

Auf Computern zum Testen einzelner Grafikkarten und nVidia-Karten im SLI-Modus verwendeten wir Windows XP Professional mit SP1a. CrossFire-Boards und AGP-Grafikkarten wurden auf Systemen mit getestet Windows installiert XP Professional SP2. Treiber- und Softwareversionen sind in der folgenden Tabelle zusammengefasst.

Treiber und Konfiguration
ATi-Grafikkarten ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire
nVidia-Grafikkarten nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (Spezial), 8800 GTX nVidia Forceware 96.94 (Spezial)
Operationssystem Einzelkarten und SLI: Windows XP Pro SP1a, ATI Crossfire und Windows XP Pro SP2 AGP-Grafikkarten
DirectX-Version 9,0c
Chipset Treiber nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A

GeForce 8800 GTX | Testergebnisse

Das Referenzboard von THG haben wir direkt von nVidia erhalten. Zum Testen wurde uns ein spezieller ForceWare 96.94-Treiber zur Verfügung gestellt, der exklusiv für die Presse vorbereitet wurde. ist eine Karte, die DirectX 10 und Shader Model 4.0 unterstützt. Die Leistung in DirectX 9- und Pixelshader 2- oder Pixelshader 3-Anwendungen ist atemberaubend.

Die Aktivierung von Anti-Aliasing und anisotroper Filterung hat nahezu keine Auswirkungen auf die Leistung. In Half-Life 2 Episode 1 kann die GeForce 8800 GTX-Grafikkarte nicht verlangsamt werden. Bei 1600 x 1200 ist der Chip 60 Prozent schneller als die Radeon X1950 XTX und in Oblivion ist die Leistung doppelt so hoch wie die der Radeon X1900 XTX oder X1950 XTX. Im Prey ist die Grafikkarte bei einer Auflösung von 1600x1200 satte 55 Prozent schneller als die Radeon X1950 XTX. In Titan Quest bleibt die Anzahl der Bilder pro Sekunde unabhängig von der eingestellten Auflösung gleich und beträgt 55 FPS.

In den Half-Life 2: Episode 1-Tests mit HDR-Rendering kann sich das Board sehen lassen, in niedrigen Auflösungen verliert es jedoch gegen die Radeon X1950 XTX und Boards im CrossFire-Modus und liegt ungefähr auf dem gleichen Niveau wie SLI-Lösungen auf der GeForce 7900 GTX. Beachten Sie, dass bei niedriger Auflösung der begrenzende Faktor nicht die Grafikkarte ist. Je höher wir die Einstellungen aufdrehen, desto interessanter wird das Ergebnis.

Mit der Einbeziehung von Anti-Aliasing und anisotroper Filterung beginnt sich das Bild zu ändern. Gleichzeitig verlieren alle Boards etwas an Leistung, die GeForce 8800 GTX fällt jedoch ganz leicht ab – nur 10 fps im Durchschnitt, während die duale ATi Radeon X1950 XTX im CrossFire-Modus sogar 20 fps verliert.

Sobald wir die Auflösung von 1280 x 1024 mit aktiviertem Anti-Aliasing und anisotroper Filterung überschreiten, wird die einzelne GeForce 8800 GTX zum klaren Spitzenreiter. Die Werte übertreffen die der Radeon X1950 XTX um fast 35 fps. Das ist ein wesentlicher Unterschied.

Außerdem. Bei 1600x1200 mit Anti-Aliasing und anisotroper Filterung wird die Trennung von allen anderen Boards zum Albtraum. Zweimal von der GeForce 7900 GTX SLI und etwas weniger von der CrossFire Radeon X1950 XTX. Wow!

Schauen wir uns abschließend die Dynamik des FPS-Rückgangs mit zunehmender Auflösung und Bildqualität an. Wir sehen, dass die Leistung der GeForce 8800 GTX leicht abnimmt – von nackten 1024 x 768 bis hin zu geglätteten und anisotropiegefilterten 1600 x 1200 beträgt der Unterschied nur etwas mehr als 20 fps. Bisherige Top-End-Lösungen von ATi und nVidia reichen weit zurück.

Hard Truck: Apocalypse beansprucht sowohl die Grafikkarte als auch den Zentralprozessor. Dies erklärt die nahezu identische Leistung bei 1024 x 768, wenn einfache trilineare Filterung verwendet und das Vollbild-Anti-Aliasing deaktiviert ist.

Sobald Sie auf 4xAA und 8x anisotrope Filterung umsteigen, beginnen die Ergebnisse zu variieren. „Jüngere“ Karten verlieren deutlich an Leistung, scheinen aber keine Verbesserung der Bildqualität zu bemerken.

Bei 1280x960 vergrößert sich der Unterschied noch mehr, aber die GeForce 8800 GTX zeigt die gleiche Leistung. Es ist deutlich zu erkennen, dass der Athlon 64 FX-60 nicht in der Lage ist, diese Grafikkarte in die Knie zu zwingen.

Bei 1600 x 1200 ist die Leistung aller einzelnen Boards nicht mehr spielbar. Aber die GeForce 8800 GTX zeigte immer noch 51 fps.

Berücksichtigen Sie den Leistungsabfall bei steigenden Einstellungen. CrossFire Radeon X1950 XTX und GeForce 7900 GTX behaupten sich, während Karten der älteren Generation schon lange auf den Knien sind und um Gnade betteln.

In Oblivion, einem Spiel, das die Grafikkarte an ihre Grenzen bringt, ist das Bild zunächst für alle Karten außer der Radeon X1950 XTX in CrossFire und . Wir haben Statistiken zur Leistung von Grafikkarten an offenen Standorten und beim Rendern von Innenräumen gesammelt. Es ist zu erkennen, dass die GeForce 8800 GTX im Freien nahe an oder leicht hinter der dualen Radeon X1950 XTX liegt.






Aber wenn die Auflösung 1600x1200 erreicht, liegt unsere GeForce 8800 GTX weit vorne. Die Lücke ist besonders auf geschlossenen Ebenen sichtbar.


Beachten Sie den Leistungsabfall, wenn Auflösung und Qualität zunehmen. Das Bild bedarf keines Kommentars. An geschlossenen Orten ist die Geschwindigkeit unerschütterlich.


Im Prey-Spiel wird die Grafikkarte zwischen den ATi Radeon X1950 XTX Single-Board-Lösungen und denselben Boards im CrossFire-Modus platziert. Und je höher die Auflösung, desto besser sieht die GeForce 8800 GTX aus.




Ein Vergleich der GeForce 8800 GTX mit Single-Board-Lösungen von ATi und nVidia ist nutzlos. Der Abstand bei hohen Auflösungen ist enorm und selbst bei 1024 x 768 mit Anti-Aliasing beeindruckend.

Im Spiel Rise of Nations: Rise of Legends ist die Grafikkarte der einzige Anführer. Wenn wir den Abstand zwischen CrossFire Radeon X1950 XTX und GeForce 8800 GTX in Prozent berechnen, dann wird der Abstand sehr, sehr groß sein. Wenn man in fps rechnet, ist der Unterschied nicht so auffällig, aber dennoch signifikant.




Beachten Sie, dass die Geschwindigkeit mit zunehmender Auflösung abnimmt. Bei allen Einstellungen liegt die GeForce 8800 GTX nicht nur im Vergleich zu Einzelkarten, sondern auch bei SLI/CrossFire-Lösungen vorne.

In Titan Quest zeigen sich nVidia-Karten von ihrer besten Seite. Gleichzeitig ändern sich die fps von 1024 x 768 auf 1600 x 1200 mit Anti-Aliasing und anisotroper Filterung nicht.




Das Bild dessen, was passiert, wird durch die folgende Grafik gut veranschaulicht. Die Leistung der GeForce 8800 GTX liegt unabhängig von den Einstellungen auf dem gleichen Niveau.

Im 3DMark06 schneidet die Karte sowohl mit dem zweiten als auch mit dem dritten Shader gut ab. Beachten Sie, wie wenig die Leistung abnimmt, wenn Anisotropie und Anti-Aliasing aktiviert sind.


Auch die Erhöhung der Auflösung ist nicht beängstigend. Die Karte liegt auf Augenhöhe mit SLI- und CrossFire-Lösungen und liegt deutlich vor allen bisherigen Spitzenreitern im Einzelrennen.


Um Ihnen eine bessere Vorstellung von der Spieleleistung zu geben, haben wir die Grafiken neu angeordnet. Hier gibt es keinen Vergleich, sondern nur das reine Ergebnis einer Grafikkarte. Zu beachten ist, dass sich die Leistung der GeForce 8800 GTX von Auflösung zu Auflösung nicht ändert. Der limitierende Faktor ist in allen Spielen der nicht ausreichend schnelle AMD Athlon 64 FX-60 Prozessor. Mit der Veröffentlichung viel schnellerer Chips wird die Karte in Zukunft in denselben Spielen noch bessere Leistungen erbringen. Unserer Meinung nach ist der Core 2 Quad der neuesten Generation nicht in der Lage, die GeForce 8800 GTX an ihre Grenzen zu bringen.




Nachdem wir die Testergebnisse gelesen haben, versuchen wir nun, die Effizienz von Grafikkarten einzustufen. Dazu sammeln wir die Ergebnisse aller Gaming-Tests und vergleichen sie mit dem Preis der Lösung. Wir legen dabei die empfohlenen Preise zugrunde, also ohne Aufschläge einzelner Shops. Natürlich werden sie anfangs sehr teuer sein und viele Geschäfte berücksichtigen den überschüssigen Gewinn im Preis. Aber dann werden die Preise sinken und Sie werden wahrscheinlich bald eine GeForce 8800 GTX für einen günstigeren Preis kaufen können.

Wie wir sehen können, übertrifft die GeForce 8800 GTX fast alle Lösungen, einschließlich Dual CrossFire und SLI. Absolut gesehen ist die GeForce 8800 GTX sehr schnell. Aber wie sieht es mit dem Preis aus?

Der Preis ist angemessen – für die Gebühr verlangt der Hersteller 635 Euro. Das ist viel, aber für zwei Radeon X1900 XTX-Boards im CrossFire-Modus muss man mehr bezahlen – 700 Euro. Und für zwei Radeon X1950 XTX oder SLI GeForce 7900 GTX sogar 750 Euro. Wenn man bedenkt, dass in einigen Tests eine einzelne GeForce 8800 GTX diesen Lösungen überlegen ist und auch weniger Breite im Gehäuse einnimmt, gibt es einiges zu bedenken.

Zum Schluss teilen wir die FPS durch Geld. Wir sehen, dass dieser Indikator besser ist als SLI und CrossFire. Natürlich werden die Kosten pro FPS höher sein als bei der GeForce 7800 GTX EX und natürlich deutlich höher als bei der Radeon X1300 XT. Aber die Leistung des Boards ist angemessen. Vom Preis-Leistungsverhältnis her eine sehr effektive Lösung.

Wir haben uns entschieden, unseren Testbericht durch Testergebnisse des amerikanischen THG-Labors zu ergänzen, zu dem auch die GeForce 8800 GTS gehörte. Bitte beachten Sie, dass aufgrund von Unterschieden in Testkonfiguration Die oben angegebenen Ergebnisse sollten nicht direkt mit den Ergebnissen des amerikanischen Labors verglichen werden.


Die GeForce 8800GTX ist länger als die Radeon X1950XTX und die meisten anderen Karten auf dem Markt. Der 8800GTS ist etwas kürzer.

Wie andere Grafikkartentests im Jahr 2006 haben wir weiter getestet AMD-Plattform Athlon FX-60. Wir werden auch Ergebnisse für Konfigurationen mit mehreren GPUs präsentieren. Darüber hinaus werden wir bewerten, wie sich neue Grafikkarten verhalten, wenn die Leistung durch die CPU eingeschränkt wird (geringe Auflösung und Bildqualität).

Systemhardware
Prozessoren AMD Athlon 64 FX-60, 2,6 GHz, 1,0 GHz HTT, 1 MB L2-Cache
Plattform nVidia: Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205
Erinnerung Corsair CMX1024-4400Pro, 2x 1024 MB DDR400 (CL3.0-4-4-8)
Festplatte Western Digital Raptor, WD1500ADFD, 150 GB, 10.000 U/min, 16 MB Cache, SATA150
Netz Integriertes nForce4-Gigabit-Ethernet
Grafikkarten ATi Radeon X1950XTX 512 MB GDDR4, 650 MHz Kern, 1000 MHz Speicher (2,00 GHz DDR)
nVidia-Karten:
nVidia GeForce 8800GTX 768 MB GDDR3, 575-MHz-Kern, 1,350-GHz-Stream-Prozessoren, 900-MHz-Speicher (1,80-GHz-DDR)
XFX GeForce 8800GTS 640 MB GDDR3, 500-MHz-Kern, 1.200-GHz-Stream-Prozessoren, 800-MHz-Speicher (1,60-GHz-DDR)
nVidia GeForce 7900GTX 512 MB GDDR3, 675 MHz Kern, 820 MHz Speicher (1,64 GHz DDR)
Netzteil PC-Leistung und -Kühlung Turbo-Cool 1000 W
CPU-Kühler Zalman CNPS9700 LED
Systemsoftware und Treiber
Betriebssystem Microsoft Windows XP Professional 5.10.2600, Service Pack 2
DirectX-Version 9.0c (4.09.0000.0904)
Grafiktreiber ATi – Katalysator 6.10 WHQL
nVidia – ForceWare 96.94 Beta

Bei unserem ersten Durchlauf von 3DMark führten wir Tests mit allen Auflösungen durch, jedoch mit deaktiviertem Vollbild-Anti-Aliasing und anisotroper Filterung. Im zweiten Durchlauf haben wir die Bildverbesserungsoptionen 4xAA und 8xAF aktiviert.

Im 3DMark05 liegt nVidia klar auf dem ersten Platz. Die GeForce 8800 GTX liefert bei einer Auflösung von 2048 x 1536 das gleiche Ergebnis wie die ATi Radeon X1950 XTX bei der Standardauflösung von 1024 x 768. Beeindruckend.

Doom 3 wird normalerweise von nVidia-Karten dominiert, da deren Design gut zum Spiel passt. Aber ATi konnte dieses Spiel kürzlich mit neuen Karten „erobern“.

Hier stoßen wir zunächst auf die Einschränkungen der CPU-Rechenleistung, denn bei niedriger Auflösung liegt das Ergebnis bei etwa 126 Bildern pro Sekunde. Die ATi-Karte ist in der Lage, bei einer bestimmten Systemkonfiguration höhere Bilder pro Sekunde zu liefern. Der Grund liegt in den Treibern. Tatsache ist, dass ATi Treiber produziert, die die CPU weniger belasten. Dadurch ist die CPU besser aufgestellt und kann dem Grafiksubsystem mehr Leistung zur Verfügung stellen.

Gesamtsieger sind die neuen 8800-Karten. Betrachtet man die Ergebnisse bei allen Auflösungen, schlagen die neuen DX10-Karten die Radeon X1950 XTX ab 1280x1024.

GeForce 8800 GTX und GTS | FURCHT.

In Furcht. Normalerweise liegen nVidia-Karten vorne. Aber auch hier ist die Belastung der CPU bei ATi-Treibern spürbar geringer. Natürlich werden die Ergebnisse mit einer schnelleren Plattform anders ausfallen, aber wenn Ihr Computer nicht auf dem neuesten Stand ist, dann dieser Test Zeigt deutlich, wie G80-Karten darauf funktionieren. Aber abgesehen vom 1024x768-Test schlägt die G80 die Radeon X1950 XTX schlichtweg in den Schatten. Der GTX ist ein Monster. Und egal wie stark wir die GeForce 8800 GTX belasten, die Karte liefert immer mehr als 40 Bilder pro Sekunde.


Klicken Sie auf das Bild, um es zu vergrößern.

Der zweite Screenshot (unten) wurde auf einer 8800 GTX mit den gleichen Einstellungen aufgenommen.



Klicken Sie auf das Bild, um es zu vergrößern.

Die Qualität des nVidia-Bildes ist viel höher als die des ATi-Screenshots. Es scheint, dass nVidia in dieser Hinsicht erneut die Führung übernommen hat. Wir haben einen weiteren Vorteil, den nVidia-Karten auf Basis des G80-Chips haben.


Hier finden Sie eine Tabelle mit neuen Funktionen zur Qualitätsverbesserung auf G80-Karten.

Neben den neuen DX10-Grafikkarten zeigte Nvidia auch mehrere Features, die auf den G80-Karten verfügbar sein werden. Und die erste davon ist eine patentierte Technologie zur Verbesserung der Bildqualität namens Coverage Sampled Antialiasing (CSAA).

Die neue Version des Vollbild-Anti-Aliasing nutzt einen Bereich von 16 Unterabtastungen. Das Ergebnis ist laut Nvidia die Möglichkeit, „redundante Farb- und Tiefeninformationen in den Speicherplatz und die Bandbreite von vier oder acht Multisamples“ zu komprimieren. Die neue Qualitätsstufe arbeitet effizienter und reduziert die Datenmenge pro Probe. Wenn CSAA bei keinem Spiel funktioniert, greift der Treiber auf herkömmliche Anti-Aliasing-Methoden zurück.


Klicken Sie auf das Bild, um es zu vergrößern.

Bevor wir diesen Testbericht abschließen, möchte ich noch auf zwei weitere Aspekte von Grafikkarten eingehen, die schon lange in der Entwicklung sind und mit der Zeit immer wichtiger werden. Der erste Aspekt ist die Videowiedergabe. Während der Herrschaft von GeForce 7 waren ATi Radeon X1900-Karten führend in der Qualität der Videowiedergabe. Mit dem Aufkommen einheitlicher Shader mit einem dedizierten Pure Video-Kern änderte sich die Situation jedoch.

Dank intelligenter Algorithmen und 128 Recheneinheiten konnte die GeForce 8800 GTX im HQV 128 von 130 Punkten erzielen. Wir planen, in naher Zukunft einen detaillierteren Artikel zur Bildqualität zu veröffentlichen. Bleiben Sie also auf dem Laufenden, um Neuigkeiten auf unserer Website zu erfahren.

Schließlich ist eine sehr starke Seite des G80 das, was Nvidia CUDA nennt. Seit Jahren suchen Wissenschaftler und Enthusiasten nach Möglichkeiten, mehr Leistung aus leistungsstarken Parallelprozessoren herauszuholen. Der Beowulf-Cluster ist natürlich nicht jedermanns Sache. Deshalb bieten Normalsterbliche an verschiedene Wege, wie Sie eine Grafikkarte für Berechnungen nutzen können.

Das Problem hier ist folgendes: Die GPU ist gut für Paralleles Rechnen, kommt aber mit der Verzweigung schlecht zurecht. Hier passt die CPU gut. Wenn Sie eine Grafikkarte verwenden möchten, sollten Sie außerdem Shader programmieren, wie es Spieleentwickler tun. Nvidia hat sich erneut entschieden, mit der Einführung der Compute Unified Device Architecture oder CUDA die Führung zu übernehmen.


So kann CUDA für die Flüssigkeitssimulation funktionieren.

nVidia hat einen C+-Compiler veröffentlicht, die resultierenden Programme können auf die Rechenleistung der GPU skaliert werden (z. B. 96 Stream-Prozessoren im 8800 GTS oder 128 im 8800 GTX). Jetzt haben Programmierer die Möglichkeit, Programme zu erstellen, die sowohl mit CPU- als auch GPU-Ressourcen skalieren. CUDA wird Ihnen auf jeden Fall gefallen verschiedene Programme verteiltes Rechnen. CUDA kann jedoch nicht nur zur Berechnung von Blöcken verwendet werden, sondern auch zur Simulation anderer Effekte: volumetrische Flüssigkeit, Kleidung und Haare. Durch CUDA können physikalische Berechnungen und sogar andere Gaming-Aspekte potenziell auf die GPU übertragen werden.


Den Entwicklern wird ein vollständiger Satz SDKs präsentiert.

GeForce 8800 GTX und GTS | Abschluss

Wer nun von GeForce 6 auf umsteigt, erhält eine fast dreifache Leistungssteigerung. Es spielt keine Rolle, wann Spiele für DirectX 10 herauskommen, es spielt keine Rolle, was uns die vierten Shader geben werden – heute ist die GeForce 8800 GTX der schnellste Chip. Spiele wie Oblivion, Gothic 3 oder Dark Messiah schienen auf die Veröffentlichung des G80-Chips und der Grafikkarten zu warten. Es war wieder möglich, ohne Bremsen zu spielen. Die GeForce 8800 GTX hat genug Leistung, um alle aktuellen Spiele zu bewältigen.

Das Kühlsystem ist leise, den 80-mm-Kühler war auf der Referenzkarte nicht zu hören. Selbst bei Volllast ist die Drehzahl des Kühlers niedrig. Ich frage mich, wie ATi darauf reagieren wird. Wie auch immer, nVidia hat einen verdammt guten Job gemacht. Gute Arbeit und ein wirklich leistungsstarkes Stück Hardware herausgebracht.

Nachteile: Die Platine ist 27 Zentimeter lang und nimmt den Platz von zwei PCI-Express-Steckplätzen ein. Die Stromversorgung muss mindestens 450 Watt (12 V, 30 A) betragen. Für die GeForce 8800 GTS wird mindestens ein 400-Watt-Netzteil mit 30 Ampere an einem 12-Volt-Bus erforderlich sein.

Einer langjährigen Tradition folgend sind nVidia-Karten bereits in Online-Shops erhältlich. Auf dem internationalen Markt liegt der empfohlene Preis für die GeForce 8800GTX bei 599 US-Dollar und für die GeForce 8800GTS bei 449 US-Dollar. Und Spiele für DX10 sollten bald erscheinen. Aber genauso wichtig ist, dass Sie in bestehenden Spielen eine bessere Bildqualität erhalten.


So könnte ein DX10-Supermodel aussehen. Klicken Sie auf das Bild, um es zu vergrößern.

GeForce 8800 GTX und GTS | Meinung des Herausgebers

Persönlich bin ich von der DX10/D3D10-Implementierung von nVidia beeindruckt. Crysis in Echtzeit und die zahlreichen Demos zu sehen ist beeindruckend. Mit der CUDA-Implementierung können Sie die Grafikkarte in mehr als nur einen Frame-Renderer verwandeln. Jetzt können Programme nicht nur CPU-Ressourcen, sondern auch die gesamte parallele Leistung des universellen Shader-Kerns der GPU nutzen. Ich kann es kaum erwarten, solche Lösungen in der Realität zu sehen.

Aber der G80 lässt zu wünschen übrig. Was? Natürlich neue Spiele. Meine Herren, Entwickler, bitte seien Sie so freundlich, DX10-Spiele so schnell wie möglich zu veröffentlichen.

GeForce 8800 GTX | Fotogallerie

Es ist bekannt, dass Flaggschiffmodelle von Grafikkarten der höchsten Preisklasse in erster Linie eine öffentliche Demonstration der technologischen Errungenschaften des Entwicklerunternehmens sind. Obwohl sich diese Lösungen bei begeisterten Spielern zu Recht großer Beliebtheit erfreuen, landen sie nie im Verkaufsschlager. Nicht jeder ist in der Lage oder bereit, 600 US-Dollar, ein Betrag, der mit den Kosten der teuersten modernen Spielekonsole vergleichbar ist, nur für eine Grafikkarte zu zahlen. Daher wird der Hauptbeitrag zum Einkommen von AMD/ATI und Nvidia von günstigeren, aber viel weiter verbreitete Karten.

Am 9. November letzten Jahres kündigte Nvidia die erste Consumer-GPU mit einheitlicher Architektur und Unterstützung für DirectX 10 an. Das neue Produkt wurde in unserem „Directly Unified: Nvidia GeForce 8800 Architecture Review“ ausführlich beschrieben. Das neue Produkt bildete zunächst die Basis für zwei neue Grafikkarten – GeForce 8800 GTX und GeForce 8800 GTS. Wie Sie wissen, schnitt das ältere Modell in Spielen gut ab und kann durchaus als Wahl eines Enthusiasten angesehen werden, der sich nicht um den Preis kümmert, während das jüngere Modell seinen rechtmäßigen Platz eingenommen hat Preiskategorie– weniger als 500 $, aber mehr als 350 $.

449 US-Dollar sind kein sehr hoher Preis für ein Produkt der neuen Generation, das volle Unterstützung für DirectX 10 bietet und dem Benutzer ein ernstzunehmendes Leistungsniveau in modernen Spielen bieten kann. Nvidia beschloss jedoch, damit nicht aufzuhören und präsentierte der Öffentlichkeit am 12. Februar 2007 weitere verfügbares Modell GeForce 8800 GTS 320 MB mit einem offiziellen Preis von 299 US-Dollar, was seine Position in diesem Sektor erheblich gestärkt hat. Diese beiden Grafikkarten werden im heutigen Testbericht besprochen. Nebenbei erfahren wir, wie wichtig die Größe des Videospeichers für die GeForce-8-Familie ist.

GeForce 8800 GTS: technische Spezifikationen

Um die Qualitäten und Fähigkeiten beider GeForce 8800 GTS-Modelle zu bewerten, sollten wir unsere Leser an die Eigenschaften der GeForce 8800-Familie erinnern.


Alle drei GeForce 8800-Modelle verwenden den gleichen G80-Grafikkern, bestehend aus 681 Millionen Transistoren, sowie einen zusätzlichen NVIO-Chip mit TMDS-Sendern, RAMDAC usw. Die Verwendung eines so komplexen Chips zur Herstellung mehrerer Grafikmodelle unterschiedlicher Preisklasse Kategorien ist im Hinblick auf die Kosten des Endprodukts nicht die beste Option, kann jedoch nicht als erfolglos bezeichnet werden: Nvidia hat die Möglichkeit, abgelehnte Versionen der GeForce 8800 GTX zu verkaufen (solche, die die Frequenzprüfung nicht bestanden haben und/oder haben). (eine Anzahl defekter Blöcke) und die Kosten für Grafikkarten, die für über 250 US-Dollar verkauft werden, sind kaum kritisch. Dieser Ansatz wird sowohl von Nvidia als auch von seinem Erzkonkurrenten ATI aktiv genutzt; man erinnere sich nur an die Geschichte des G71-Grafikprozessors, der sowohl in der preisgünstigen Massenmarktgrafikkarte GeForce 7900 GS als auch im leistungsstarken Zwei-Chip-Monster GeForce zu finden ist 7950 GX2.

Auf die gleiche Weise entstand auch die GeForce 8800 GTS. Wie Sie der Tabelle entnehmen können, unterscheidet sich dieser Videoadapter hinsichtlich der technischen Eigenschaften erheblich von seinem älteren Bruder: Er verfügt nicht nur über niedrigere Taktfrequenzen und einige Stream-Prozessoren sind deaktiviert, sondern auch die Größe des Videospeichers ist reduziert. Die Breite des Zugangsbusses wird reduziert und einige der TMU- und Rasterisierungseinheiten sind inaktiv.

Insgesamt verfügt die GeForce 8800 GTS über 6 Gruppen von Stream-Prozessoren mit jeweils 16 ALUs, also insgesamt 96 ALUs. Der Hauptkonkurrent dieser Karte, die AMD Radeon X1950 XTX, verfügt über 48-Pixel-Prozessoren, von denen jeder wiederum aus 2 Vektor- und 2 Skalar-ALUs besteht, also insgesamt 192 ALUs.

Es scheint, dass die GeForce 8800 GTS der Radeon X1950 XTX hinsichtlich der reinen Rechenleistung deutlich unterlegen sein sollte, doch es gibt eine Reihe von Nuancen, die eine solche Annahme nicht ganz legitim machen. Der erste davon ist, dass die GeForce 8800 GTS-Stream-Prozessoren wie die ALU in Intel NetBurst mit einer deutlich höheren Frequenz arbeiten als der Rest des Kerns – 1200 MHz gegenüber 500 MHz, was bereits eine sehr deutliche Leistungssteigerung bedeutet. Eine weitere Nuance ergibt sich aus der Architektur der R580-GPU. Theoretisch ist jede seiner 48 Pixel-Shader-Ausführungseinheiten in der Lage, 4 Befehle pro Taktzyklus auszuführen, Verzweigungsbefehle nicht mitgezählt. Allerdings werden nur zwei davon vom Typ ADD/MUL/MADD sein und die restlichen zwei sind immer ADD-Anweisungen mit einem Modifikator. Dementsprechend wird die Effizienz von R580-Pixelprozessoren nicht in allen Fällen maximal sein. Andererseits verfügen G80-Stream-Prozessoren über eine vollständig skalare Architektur und jeder von ihnen ist in der Lage, zwei skalare Operationen pro Taktzyklus auszuführen, beispielsweise MAD+MUL. Zwar genaue Informationen zur Architektur des Streamings Nvidia-Prozessoren Wir haben es immer noch nicht getan, in diesem Artikel werden wir uns damit befassen, wie die neue einheitliche Architektur der GeForce 8800 fortschrittlicher ist als die Radeon X1900-Architektur und wie sich dies auf die Geschwindigkeit in Spielen auswirkt.

Was die Leistung von Texturierungs- und Rasterisierungssystemen angeht, verfügt die GeForce 8800 GTS gemessen an den Eigenschaften über eine größere Anzahl von Textureinheiten (24) und Rasterisierungseinheiten (20) als die Radeon X1950 XTX (16 TMU, 16 ROP). Ihre Taktfrequenz liegt (500 MHz) deutlich unter der Taktfrequenz des ATI-Produkts (650 MHz). Somit hat keine Seite einen entscheidenden Vorteil, was bedeutet, dass die Spieleleistung hauptsächlich vom „Erfolg“ der Mikroarchitektur und nicht vom zahlenmäßigen Vorteil der Ausführungseinheiten beeinflusst wird.

Bemerkenswert ist, dass sowohl die GeForce 8800 GTS als auch die Radeon X1950 X1950 XTX ist mit 2 GHz GDDR4-Speicher mit 256-Bit-Zugriff ausgestattet. Angesichts der Behauptung von ATI, dass der R580 im Vergleich zu einem typischen Nvidia-Controller über einen fortschrittlicheren Ringtopologie-Speichercontroller verfügt, wird es interessant sein zu sehen, ob die Radeon-Lösung von ATI bei hohen Auflösungen mit aktiviertem Vollbild-Anti-Aliasing gegenüber dem Konkurrenten der nächsten Generation einen Vorteil erzielt , wie es bei der GeForce 7 der Fall war.

Eine günstigere Version der GeForce 8800 GTS mit 320 MB Speicher, die am 12. Februar 2007 angekündigt wurde und die GeForce 7950 GT im Leistungs-Mainstream-Segment ersetzen soll, unterscheidet sich vom regulären Modell nur durch die Größe des Videospeichers. Um diese Karte zu erhalten, musste Nvidia tatsächlich nur die 512-Mbit-Speicherchips durch 256-Mbit-Chips ersetzen. Als einfache und technologisch fortschrittliche Lösung konnte Nvidia seine technologische Überlegenheit in der bei Anwendern recht beliebten Preisklasse von 299 US-Dollar behaupten. Wir werden in Zukunft herausfinden, wie sehr sich dies auf die Leistung des neuen Produkts auswirkte und ob ein potenzieller Käufer für ein Modell mit 640 MB Videospeicher 150 US-Dollar extra zahlen sollte.

In unserem heutigen Testbericht wird die GeForce 8800 GTS 640 MB durch den MSI NX8800GTS-T2D640E-HD-OC-Videoadapter repräsentiert. Lassen Sie uns Ihnen mehr über dieses Produkt erzählen.

MSI NX8800GTS-T2D640E-HD-OC: Verpackung und Zubehör

Der Videoadapter kam in einer Einzelhandelsversion in unserem Labor an – verpackt in einer bunten Box zusammen mit dem gesamten dazugehörigen Zubehör. Die Box fiel relativ klein aus, insbesondere im Vergleich zur Box des MSI NX6800 GT, die einst von den Abmessungen her mit der Verpackung von Asustek Computer mithalten konnte. Trotz der bescheidenen Größe ist die Verpackung von MSI traditionell mit einem praktischen Tragegriff ausgestattet.


Das Design der Box ist in ruhigen Weiß- und Blautönen gehalten und schadet den Augen nicht; Die Vorderseite ist mit dem Bild eines hübschen rothaarigen Engelsmädchens verziert, sodass von aggressiven Motiven, die bei Grafikkartenherstellern so beliebt sind, keine Rede sein kann. Drei Aufkleber informieren den Käufer darüber, dass die Karte vom Hersteller vorübertaktet ist, HDCP unterstützt und mit der Vollversion des Spiels Company of Heroes geliefert wird. Auf der Rückseite der Verpackung finden Sie Informationen zu den Technologien Nvidia SLI und MSI D.O.T. Äußern. Letzteres ist eine dynamische Übertaktungstechnologie und kann laut MSI die Leistung des Videoadapters je nach verwendetem Übertaktungsprofil um 2–10 % steigern.

Beim Öffnen der Verpackung fanden wir neben dem Videoadapter selbst das folgende Zubehörset:


Schnellinstallationsanleitung
Kurzanleitung
Adapter DVI-I -> D-Sub
YPbPr/S-Video/RCA-Splitter
S-Video-Kabel
Netzteil 2xMolex -> 6-Pin PCI Express
CD mit MSI-Treibern und Dienstprogrammen
Zwei-Disc-Ausgabe des Spiels Company of Heroes

Beide Ratgeber sind als Poster konzipiert; Unserer Meinung nach sind sie zu einfach und enthalten nur die grundlegendsten Informationen. Das Streben nach der Anzahl der Sprachen, von denen es in der kurzen Bedienungsanleitung 26 gibt, hat dazu geführt, dass man daraus außer grundlegenden Informationen zum Einbau der Karte in das System nichts besonders Nützliches entnehmen kann. Unserer Meinung nach hätten die Handbücher etwas ausführlicher sein können, was auch für unerfahrene Benutzer von Vorteil gewesen wäre.

Die Treiberdiskette enthält veraltete Version Nvidia ForceWare 97.29, sowie eine Reihe proprietäre Dienstprogramme, unter denen MSI DualCoreCenter und MSI Live Update 3 besondere Erwähnung verdienen. Das erste ist ein einheitliches Kontrollzentrum, das das Übertakten sowohl der Grafikkarte als auch des Zentralprozessors ermöglicht. Für die volle Funktionalität erfordert das Programm jedoch ein MSI-Motherboard, das mit einem CoreCell-Chip ausgestattet ist und ist daher für Besitzer von Boards anderer Hersteller von geringem Nutzen. Das Dienstprogramm MSI Live Update 3 dient dazu, Treiber- und BIOS-Updates zu verfolgen und diese bequem über das Internet zu aktualisieren. Dies ist eine recht praktische Methode, insbesondere für diejenigen, die die Feinheiten des manuellen Prozesses nicht verstehen möchten BIOS-Updates Videoadapter.

Verfügbarkeit inklusive Vollversion Das beliebte taktische Echtzeit-Strategiespiel Company of Heroes verdient besonderes Lob von MSI. Dies ist wirklich ein Spiel der höchsten Kategorie mit hervorragender Grafik und ausgefeiltem Gameplay; Viele Spieler nennen es das beste Spiel in diesem Genre, was durch zahlreiche Auszeichnungen bestätigt wird, darunter der Titel „Bestes Strategiespiel E3 2006“. Wie bereits erwähnt, verfügt Company of Heroes trotz seiner Zugehörigkeit zum Genre der Echtzeitstrategie über eine moderne Grafik auf dem Niveau eines guten Ego-Shooters, sodass sich das Spiel perfekt dazu eignet, die Fähigkeiten der GeForce 8800 GTS zu demonstrieren. Zusätzlich zu Company of Heroes enthalten die Discs eine Demoversion von Warhammer 40.000: Dawn of War – Dark Crusade.

Wir können das Paket des MSI NX8800GTS-T2D640E-HD-OC getrost als gut bezeichnen, da die Vollversion des sehr beliebten taktischen RTS Company of Heroes und praktische Software von MSI vorhanden sind.

MSI NX8800GTS-T2D640E-HD-OC: PCB-Design

Für das GeForce 8800 GTS-Modell hat Nvidia eine separate, kompaktere Leiterplatte entwickelt als bei der Herstellung der GeForce 8800 GTX. Da alle GeForce 8800 fertig an Nvidias Partner geliefert werden, gilt fast alles, was im Folgenden gesagt wird, nicht nur für die MSI NX8800GTS, sondern auch für jedes andere GeForce 8800 GTS-Modell, sei es die Version mit 640 oder 320 MB Videospeicher .


Die Platine der GeForce 8800 GTS ist deutlich kürzer als die der GeForce 8800 GTX. Seine Länge beträgt nur 22,8 Zentimeter gegenüber knapp 28 Zentimetern beim Spitzenmodell GeForce 8. Tatsächlich entsprechen die Abmessungen der GeForce 8800 GTS denen der Radeon X1950 XTX, sogar etwas kleiner, da der Kühler nicht darüber hinausragt der Platine.

Unser MSI NX8800GTS-Beispiel verwendet eine mit einer grünen Maske bedeckte Platine, obwohl das Produkt auf der Website des Unternehmens mit einer Platine in einer bekannteren schwarzen Farbe gezeigt wird. Derzeit sind sowohl „schwarze“ als auch „grüne“ GeForce 8800 GTX und GTS im Angebot. Trotz zahlreicher Gerüchte im Internet gibt es keinen Unterschied zwischen diesen Karten, abgesehen von der PCB-Farbe selbst, wie die offizielle Nvidia-Website bestätigt. Was ist der Grund für diese „Rückkehr zu den Wurzeln“?

Es gibt viele widersprüchliche Gerüchte zu diesem Thema. Nach Ansicht einiger von ihnen ist die Zusammensetzung der schwarzen Beschichtung giftiger als die der herkömmlichen grünen Beschichtung, während andere glauben, dass die schwarze Beschichtung schwieriger aufzutragen oder teurer ist. In der Praxis ist dies höchstwahrscheinlich nicht der Fall – in der Regel sind die Preise für Lötstoppmasken unterschiedlicher Farbe gleich, wodurch zusätzliche Probleme mit Masken bestimmter Farben entfallen. Am wahrscheinlichsten ist das einfachste und logischste Szenario: Karten in verschiedenen Farben werden von verschiedenen Vertragsherstellern hergestellt – Foxconn und Flextronics. Darüber hinaus verwendet Foxconn wahrscheinlich Beschichtungen beider Farben, da wir von diesem Hersteller sowohl „schwarze“ als auch „grüne“ Karten gesehen haben.


Das Stromversorgungssystem der GeForce 8800 GTS ist fast so komplex wie das der GeForce 8800 GTX und enthält sogar eine größere Anzahl von Elektrolytkondensatoren, verfügt jedoch über eine dichtere Anordnung und nur einen externen Stromanschluss, dank dessen die Leiterplatte wurde deutlich verkürzt. Für die Verwaltung der GPU-Leistung ist der gleiche digitale PWM-Controller wie bei der GeForce 8800 GTX und Primarion PX3540 zuständig. Die Speicherstromverwaltung übernimmt ein zweiter Controller, Intersil ISL6549, der übrigens bei der GeForce 8800 GTX fehlt, wo das Speicherstromversorgungsschema anders ist.

Die linke Seite der Platine, auf der sich die Hauptkomponenten der GeForce 8800 GTS befinden – GPU, NVIO und Speicher – ist fast identisch mit dem ähnlichen Abschnitt der GeForce 8800 GTX-Platine, was nicht verwunderlich ist, da die gesamte Platine aus diesem entwickelt wurde Ein Kratzer würde einen erheblichen finanziellen und zeitlichen Aufwand erfordern. Darüber hinaus wäre es angesichts der Notwendigkeit, das gleiche G80- und NVIO-Tandem wie beim Flaggschiffmodell zu verwenden, höchstwahrscheinlich nicht möglich gewesen, das Board für die GeForce 8800 GTS wesentlich zu vereinfachen, indem man es von Grund auf neu entworfen hätte. Der einzige sichtbare Unterschied zur GeForce 8800 GTX ist das Fehlen des zweiten „Kamms“ der MIO-Schnittstelle (SLI), an dessen Stelle Platz für den Einbau eines technologischen Steckers mit Riegeln ist, der möglicherweise die gleiche Funktion erfüllt, aber nicht verlötet ist. Sogar das 384-Bit-Speicherbus-Layout bleibt erhalten, und der Bus selbst wird auf einfachste Weise auf die erforderliche Breite zugeschnitten: Statt 12 GDDR3-Chips werden nur 10 verbaut. Da jeder Chip über einen 32-Bit-Bus verfügt, sind 10 Chips drin Insgesamt ergeben sich die benötigten 320 Bit. Theoretisch steht der Schaffung einer GeForce 8800 GTS mit einem 384-Bit-Speicherbus nichts im Wege, das Erscheinen einer solchen Karte in der Praxis ist jedoch äußerst unwahrscheinlich, daher ist die Wahrscheinlichkeit hoch, dass eine vollwertige GeForce 8800 GTX mit niedrigeren Frequenzen entsteht freigegeben.


Das MSI NX8800GTS-T2D640E-HD-OC ist mit 10 GDDR3 Samsung K4J52324QE-BC12 Chips mit einer Kapazität von 512 Mbit ausgestattet, arbeitet mit einer Versorgungsspannung von 1,8 V und hat eine Nennfrequenz von 800 (1600) MHz. Laut den offiziellen Nvidia-Spezifikationen für die GeForce 8800 GTS sollte der Speicher dieses Videoadapters genau diese Frequenz haben. Aber nicht umsonst trägt die von uns in Betracht gezogene Version des MSI NX8800GTS die Buchstaben „OC“ im Namen – sie ist vorübertaktet, sodass der Speicher mit einer etwas höheren Frequenz von 850 (1700) MHz arbeitet, was eine Steigerung bedeutet in der Bandbreite von 64 GB/Sek. bis zu 68 GB/Sek.

Da der einzige Unterschied zwischen der GeForce 8800 GTS 320MB und dem regulären Modell darin besteht, dass das Videospeichervolumen um die Hälfte reduziert wurde, werden auf dieser Karte einfach Speicherchips mit einer Kapazität von 256 Mbit verbaut, beispielsweise Samsung K4J55323QC/QI-Serie oder Hynix HY5RS573225AFP . Ansonsten sind die beiden GeForce-8800-GTS-Modelle bis ins kleinste Detail identisch.

Die NX8800GTS-GPU-Kennzeichnung unterscheidet sich geringfügig von der Kennzeichnung des GeForce 8800 GTX-Prozessors und sieht wie „G80-100-K0-A2“ aus, während der Chip in der Referenz-Flaggschiffkarte mit den Symbolen „G80-300-A2“ gekennzeichnet ist. Wir wissen, dass die Produktion der GeForce 8800 GTS möglicherweise G80-Geräte umfasst, die Funktionsfehler aufweisen und/oder die Frequenzauswahl nicht bestanden haben. Möglicherweise spiegeln sich diese Merkmale in der Kennzeichnung wider.

Der 8800 GTS-Prozessor verfügt über 96 aktive Stream-Prozessoren von 128, 24 TMUs von 32 und 20 ROPs von 24. Bei der Standard-GeForce 8800 GTS beträgt die Basis-GPU-Frequenz 500 MHz (513 MHz tatsächliche Frequenz) und der Shader Die Prozessorfrequenz beträgt 1200 MHz (1188 MHz reale Frequenz), beim MSI NX8800GTS-T2D640E-HD-OC liegen diese Parameter jedoch bei 576 und 1350 MHz, was den Frequenzen der GeForce 8800 GTX entspricht. Wie stark sich dies auf die Leistung des MSI-Produkts auswirkt, erfahren Sie später im Abschnitt zu den Gaming-Testergebnissen.

Die Konfiguration der NX8800GTS-Ausgangsanschlüsse ist Standard: zwei DVI-I-Anschlüsse, die im Dual-Link-Modus betrieben werden können, und ein universeller siebenpoliger Mini-DIN-Anschluss, der sowohl den Anschluss von HDTV-Geräten über die analoge YPbPr-Schnittstelle als auch von SDTV-Geräten ermöglicht über die S-Video- oder Composite-Schnittstelle. Beim MSI-Produkt sind beide DVI-Anschlüsse sorgfältig mit Gummi-Schutzkappen abgedeckt – ein eher bedeutungsloses, aber angenehmes Detail.

MSI NX8800GTS-T2D640E-HD-OC: Kühlsystemdesign

Das beim MSI NX8800GTS sowie bei den allermeisten GeForce 8800 GTS anderer Grafikkartenhersteller verbaute Kühlsystem ist eine verkürzte Version des im entsprechenden Testbericht beschriebenen GeForce 8800 GTX-Kühlsystems.


Der Kühler und die Heatpipe, die den Wärmefluss von der Kupferbasis in Kontakt mit dem Heatspreader des Grafikprozessors überträgt, wurden gekürzt. Ebenfalls anders platziert ist das flache U-förmige Heatpipe, das in den Sockel eingepresst ist und für die gleichmäßige Verteilung des Wärmeflusses verantwortlich ist. Aluminiumrahmen, auf dem alle Kühlerteile befestigt sind. weist viele Vorsprünge an Kontaktstellen mit Speicherchips, Leistungstransistoren des Leistungsreglers und dem NVIO-Chipkristall auf. Für einen zuverlässigen Wärmekontakt sorgen herkömmliche anorganische Faserpads, die mit weißer Wärmeleitpaste imprägniert sind. Für die GPU kommt eine andere, aber auch unseren Lesern bekannte, dicke dunkelgraue Wärmeleitpaste zum Einsatz.

Aufgrund der Tatsache, dass das Design des Kühlsystems relativ wenige Kupferelemente enthält, ist seine Masse gering und die Befestigung erfordert keine Verwendung spezieller Platten, die ein schwerwiegendes Verbiegen der Leiterplatte verhindern. Acht normale federbelastete Schrauben, mit denen der Kühler direkt an der Platine befestigt ist, reichen völlig aus. Die Möglichkeit einer Beschädigung des Grafikprozessors ist praktisch ausgeschlossen, da er mit einer Wärmeverteilerabdeckung ausgestattet ist und von einem breiten Metallrahmen umgeben ist, der den Chip vor möglichen Verformungen des Kühlsystems und die Platine vor übermäßiger Biegung schützt.

Ein Radialventilator mit einem Laufraddurchmesser von etwa 75 Millimetern, der das gleiche hat elektrische Parameter, wie im GeForce 8800 GTX-Kühlsystem – 0,48 A/12 V und über einen vierpoligen Stecker mit der Platine verbunden. Das System wird mit einem lichtdurchlässigen Kunststoffgehäuse so verschlossen, dass heiße Luft durch die Schlitze in der Montageleiste ausgeblasen wird.

Das Design der GeForce 8800 GTX- und 8800 GTS-Kühler ist gut durchdacht, zuverlässig, bewährt, praktisch geräuschlos im Betrieb und bietet eine hohe Kühleffizienz, sodass es keinen Sinn macht, es auf etwas anderes umzustellen. MSI hat lediglich den Nvidia-Aufkleber auf dem Gehäuse durch einen eigenen ersetzt, der das Design auf der Verpackung wiederholt, und den Lüfter mit einem weiteren Aufkleber mit eigenem Logo versehen.

MSI NX8800GTS-T2D640E-HD-OC: Geräuschentwicklung und Stromverbrauch

Um den vom MSI NX8800GTS-Kühlsystem erzeugten Geräuschpegel zu bewerten, wurde ein digitaler Schallpegelmesser DVM1326 von Velleman mit einer Auflösung von 0,1 dB verwendet. Die Messungen erfolgten mit der A-gewichteten Kurve. Zum Zeitpunkt der Messungen betrug der Hintergrundgeräuschpegel im Labor 36 dBA, der Geräuschpegel in einem Meter Abstand von einem mit einer passiv gekühlten Grafikkarte ausgestatteten Arbeitsständer lag bei 40 dBA.






Was die Geräuschentwicklung angeht, verhält sich das Kühlsystem der NX8800GTS (und jeder anderen GeForce 8800 GTS) genauso wie das auf der GeForce 8800 GTX verbaute System. Der Geräuschpegel ist in allen Modi sehr niedrig; In diesem Parameter übertrifft Nvidias neues Design sogar den hervorragenden GeForce 7900 GTX-Kühler, der bisher zu Recht als der beste seiner Klasse galt. In diesem Fall ist die einzige Möglichkeit, völlige Stille zu erreichen und die Kühleffizienz nicht zu verlieren, der Einbau eines Wasserkühlsystems, insbesondere wenn eine ernsthafte Übertaktung geplant ist.

Wie unsere Leser wissen, weigerten sich die Referenzexemplare der GeForce 8800 GTX aus den ersten Chargen, auf einem Ständer zu laufen, der zur Messung des Stromverbrauchs von Grafikkarten ausgestattet war. Allerdings funktionierten die meisten neuen Karten der GeForce-8800-Familie, darunter auch die MSI NX8800GTS-T2D640E-HD-OC, problemlos auf diesem System, das folgende Konfiguration aufweist:

CPU Intel Pentium 4.560 (3,60 GHz, 1 MB L2);
System Intel-Board Desktop-Motherboard D925XCV (i925X);
Speicher PC-4300 DDR2 SDRAM (2x512 MB);
Festplatte Samsung SpinPoint SP1213C (120 GB, Serial ATA-150, 8 MB Puffer);
Microsoft Windows XP Pro SP2, DirectX 9.0c.

Wie wir berichteten, Hauptplatine, das Herzstück der Messplattform, wurde speziell modernisiert: In den Stromversorgungskreis des PCI-Express-x16-Steckplatzes sind Messshunts integriert, die mit Anschlüssen zum Anschluss von Messgeräten ausgestattet sind. Auch der 2xMolex -> 6-Pin PCI-Express-Stromadapter ist mit dem gleichen Shunt ausgestattet. Als Messwerkzeug kommt ein Velleman DVM850BL Multimeter zum Einsatz, welches einen Messfehler von maximal 0,5 % aufweist.

Um den Videoadapter im 3D-Modus zu belasten, wird der erste Grafiktest SM3.0/HDR verwendet, der Teil des Futuremark 3DMark06-Pakets ist und in gestartet wurde Endlosschleife in einer Auflösung von 1600x1200 mit erzwungener anisotroper Filterung von 16x. Der Peak-2D-Modus wird durch Ausführen des 2D Transparent Windows-Benchmarks emuliert, der Teil der Futuremark PCMark05-Suite ist.

So konnten wir nach Durchführung eines Standardmessverfahrens zuverlässige Daten zur Höhe des Stromverbrauchs nicht nur des MSI NX8800GTS-T2D640E-HD-OC, sondern der gesamten Nvidia GeForce 8800-Familie erhalten.











Beim Stromverbrauch liegt die GeForce 8800 GTX zwar vor dem bisherigen „Spitzenreiter“ Radeon X1950 XTX, allerdings nur um 7 Watt. Angesichts der enormen Komplexität des G80 können 131,5 Watt im 3D-Modus als guter Indikator gelten. Beide zusätzlichen Stromanschlüsse der GeForce 8800 GTX verbrauchen ungefähr die gleiche Leistung und überschreiten selbst im schwersten Modus 45 W nicht. Obwohl das PCB-Design der GeForce 8800 GTX die Installation eines achtpoligen Stromanschlusses anstelle eines sechspoligen vorsieht, ist es unwahrscheinlich, dass dies relevant ist, selbst wenn die GPU- und Speichertaktraten deutlich steigen. Im Idle-Modus lässt die Effizienz des Nvidia-Flaggschiffs zu wünschen übrig, aber das ist ein Preis, den man für 681 Millionen Transistoren und eine für GPU-Verhältnisse enorme Shader-Prozessorfrequenz zahlen muss. Ein derart hoher Stromverbrauch im Leerlauf ist unter anderem darauf zurückzuführen, dass die GeForce-8800-Familie in diesem Modus die Taktraten nicht reduziert.

Beide Versionen der GeForce 8800 GTS weisen eine deutlich bescheidenere Leistung auf, können jedoch nicht mit der gleichen Effizienz aufwarten wie Nvidia-Karten mit dem G71-Kern der vorherigen Generation. Der einzelne Stromanschluss dieser Karten ist deutlich stärker belastet und kann in manchen Fällen 70 Watt oder mehr erreichen. Die Leistungsaufnahmewerte der GeForce 8800 GTS-Varianten mit 640 und 320 MB Videospeicher unterscheiden sich geringfügig, was nicht verwunderlich ist – schließlich ist dieser Parameter der einzige Unterschied zwischen diesen Karten. Das mit höheren Frequenzen arbeitende MSI-Produkt verbraucht mehr als die Standardversion der GeForce 8800 GTS – rund 116 Watt unter Last im 3D-Modus, was immer noch weniger ist als der gleiche Wert der Radeon X1950 XTX. Natürlich im 2D-Modus AMD-Karte Viel wirtschaftlicher sind allerdings Videoadapter dieser Klasse, die speziell für den Einsatz in 3D angeschafft werden, daher ist dieser Parameter nicht so kritisch wie die Höhe des Stromverbrauchs in Spielen und 3D-Anwendungen.

MSI NX8800GTS-T2D640E-HD-OC: Übertaktungsfunktionen

Das Übertakten von Mitgliedern der Nvidia GeForce 8800-Familie bringt eine Reihe von Funktionen mit sich, über die wir unsere Leser unbedingt informieren sollten. Wie Sie sich wahrscheinlich erinnern, konnten die ersten Vertreter der GeForce der siebten Generation mit dem 0,11-μm-G70-Kern die Frequenzen von Rasterisierungseinheiten und Pixelprozessoren nur in Schritten von 27 MHz erhöhen, und wenn die Übertaktung unter diesem Wert lag, war dies der Fall praktisch kein Leistungsgewinn. Später kehrte Nvidia bei Karten auf Basis des G71 zum Standard-Übertaktungsschema in 1-MHz-Schritten zurück, bei der GeForce der achten Generation traten jedoch wieder diskrete Änderungen der Taktfrequenzen auf.

Das Schema zur Verteilung und Änderung der Taktfrequenzen in der GeForce 8800 ist nicht trivial, was daran liegt, dass die Shader-Prozessoreinheiten im G80 mit einer deutlich höheren Frequenz arbeiten als andere GPU-Einheiten. Das Frequenzverhältnis beträgt etwa 2,3 zu 1. Obwohl sich die Hauptfrequenz des Grafikkerns in kleineren Schritten als 27 MHz ändern kann, ändert sich die Frequenz von Shader-Prozessoren immer in Schritten von 54 MHz (2x27 MHz), was zusätzliche Schwierigkeiten beim Übertakten mit sich bringt. weil alle Dienstprogramme die Hauptfrequenz manipulieren und überhaupt nicht die Frequenz der Shader-„Domäne“. Es gibt jedoch eine einfache Formel, mit der Sie die Frequenz von GeForce 8800-Stream-Prozessoren nach dem Übertakten mit ausreichender Genauigkeit bestimmen können:

OC-Shader-CLK = Standard-Shader-CLK / Standard-Core-CLK * OC-Core-CLK


Dabei ist OC-Shader-CLK die gewünschte Frequenz (ungefähr), Default-Shader-CLK ist die anfängliche Frequenz der Shader-Prozessoren, Default-Core-CLK ist die anfängliche Kernfrequenz und OC-Core-CLK ist die Frequenz des übertakteten Kerns.

Schauen wir uns das Verhalten des MSI NX8800GTS-T2D640E-HD-OC beim Übertakten mit dem Dienstprogramm RivaTuner2 FR an, mit dem Sie die tatsächlichen Frequenzen verschiedener Bereiche oder, wie sie auch genannt werden, „Domänen“ der G80-GPU überwachen können. Weil das MSI-Produkt Hat die gleichen GPU-Frequenzen (576/1350) wie die GeForce 8800 GTX, sind die folgenden Informationen auch für das Flaggschiff relevant Grafikkarte Nvidia. Wir werden die Haupt-GPU-Frequenz in Schritten von 5 MHz erhöhen: Dies ist ein relativ kleiner Schritt und kein Vielfaches von 27 MHz.


Empirische Tests bestätigten: Die Hauptfrequenz des Grafikkerns kann sich tatsächlich in variablen Schritten ändern – 9, 18 oder 27 MHz, und wir konnten das Änderungsmuster nicht erkennen. Die Frequenz der Shader-Prozessoren wurde in allen Fällen in Schritten von 54 MHz geändert. Aus diesem Grund erweisen sich einige Frequenzen der Haupt-„Domäne“ des G80 beim Übertakten als praktisch nutzlos und ihre Verwendung führt nur zu einer übermäßigen Erwärmung der GPU. Es macht beispielsweise keinen Sinn, die Hauptkernfrequenz auf 621 MHz zu erhöhen – die Shader-Einheitsfrequenz wird weiterhin 1458 MHz betragen. Daher sollte die Übertaktung der GeForce 8800 sorgfältig durchgeführt werden, indem die obige Formel verwendet und die Überwachungsdaten von Riva Tuner oder einem anderen Dienstprogramm mit ähnlicher Funktionalität überprüft werden.

Es wäre unlogisch, ernsthafte Übertaktungsergebnisse von einer bereits vom Hersteller übertakteten Version des NX8800GTS zu erwarten; die Karte zeigte jedoch überraschenderweise recht gutes Potenzial, zumindest auf der GPU-Seite. Es ist uns gelungen, die Frequenz von werkseitig 576/1350 MHz auf 675/1566 MHz zu erhöhen, während das NX8800GTS mehrere 3DMark06-Zyklen hintereinander ohne zusätzliche Kühlung problemlos überstanden hat. Die Prozessortemperatur lag laut Riva Tuner nicht über 70 Grad.

Der Speicher ließ sich deutlich schlechter übertakten, da die NX8800GTX OC Edition mit Chips ausgestattet war, die für 800 (1600) MHz ausgelegt waren und mit einer höheren Frequenz als der Nennfrequenz arbeiteten – 850 (1700) MHz. Infolgedessen mussten wir bei 900 (1800) MHz anhalten, da weitere Versuche, die Speicherfrequenz zu erhöhen, unweigerlich zum Einfrieren oder Abstürzen des Treibers führten.

Somit zeigte die Karte ein gutes Übertaktungspotenzial, allerdings nur für die GPU: Relativ langsame Speicherchips erlaubten ihr keine nennenswerte Erhöhung der Frequenz. Für sie sollte das GeForce 8800 GTX-Niveau als gute Leistung angesehen werden, und ein 320-Bit-Bus bei dieser Frequenz ist bereits in der Lage, einen erheblichen Durchsatzvorteil gegenüber der Radeon X1950 XTX zu bieten: 72 GB/s gegenüber 64 GB/s. Natürlich können die Übertaktungsergebnisse abhängig von der jeweiligen MSI NX8800GTS OC Edition und der Verwendung zusätzlicher Mittel, wie z. B. einer Modifikation der Stromversorgung der Karte oder der Installation einer Wasserkühlung, variieren.

Testplattformkonfiguration und Testmethoden

Eine vergleichende Studie zur Leistung der GeForce 8800 GTX wurde auf Plattformen mit der folgenden Konfiguration durchgeführt.

AMD Athlon 64 FX-60 Prozessor (2 x 2,60 GHz, 2 x 1 MB L2)
Abit AN8 32X Motherboard (nForce4 SLI X16) für Nvidia GeForce Karten
Asus A8R32-MVP Deluxe Motherboard (ATI CrossFire Xpress 3200) für ATI Radeon Karten
Speicher OCZ PC-3200 Platinum EL DDR SDRAM (2x1GB, CL2-3-2-5)
Festplatte Maxtor MaXLine III 7B250S0 (Serial ATA-150, 16MB Puffer)
Creative SoundBlaster Audigy 2 Soundkarte
Netzteil Enermax Liberty 620W (ELT620AWT, Nennleistung 620W)
Dell 3007WFP-Monitor (30", maximale Auflösung 2560x1600)
Microsoft Windows XP Pro SP2, DirectX 9.0c
AMD Catalyst 7.2
Nvidia ForceWare 97.92

Da wir den Einsatz trilinearer und anisotroper Filteroptimierungen für ungerechtfertigt halten, wurden die Treiber standardmäßig konfiguriert, was die höchstmögliche Qualität der Texturfilterung impliziert:

AMD-Katalysator:

Katalysator-KI: Standard
Mipmap-Detaillierungsgrad: Hohe Qualität
Auf vertikale Aktualisierung warten: Immer aus
Adaptives Antialiasing: Aus
Zeitliches Antialiasing: Aus
Hochwertiger AF: Ein

Nvidia ForceWare:

Texturfilterung: Hohe Qualität
Vertikale Synchronisierung: Aus
Trilineare Optimierung: Aus
Anisotrope Optimierung: Aus
Anisotrope Probenoptimierung: Aus
Gammakorrigiertes Antialiasing: Ein
Transparenz-Antialiasing: Aus
Andere Einstellungen: Standard

Für jedes Spiel wurde die höchstmögliche Grafikqualität eingestellt und die Spielkonfigurationsdateien wurden nicht geändert. Um Leistungsdaten zu erfassen, wurden entweder die integrierten Funktionen des Spiels oder, falls diese nicht vorhanden waren, das Fraps-Dienstprogramm verwendet. Wo möglich, wurden Mindestleistungsdaten erfasst.

Die Tests wurden in drei Standardauflösungen für unsere Methodik durchgeführt: 1280 x 1024, 1600 x 1200 und 1920 x 1200. Eines der Ziele diese Rezension ist eine Bewertung der Auswirkung des GeForce 8800 GTS-Videospeichers auf die Leistung. Außerdem, technische Eigenschaften und die Kosten beider Versionen dieses Videoadapters ermöglichen es uns, in modernen Spielen bei Verwendung von FSAA 4x mit einer recht hohen Leistung zu rechnen, daher haben wir versucht, wo immer möglich den „Eye Candy“-Modus zu verwenden.

FSAA und anisotrope Filterung wurden mithilfe von Spieltools aktiviert; Da dies nicht der Fall war, wurden sie gezwungen, die entsprechenden Einstellungen der ATI Catalyst- und Nvidia ForceWare-Treiber zu verwenden. Tests ohne Vollbild-Antialiasing wurden nur für Spiele verwendet, die FSAA aus technischen Gründen nicht unterstützen, oder beim Einsatz von FP HDR beim Testen von Vertretern der GeForce 7-Familie, die den gleichzeitigen Betrieb dieser Funktionen nicht unterstützen.

Da unsere Aufgabe unter anderem darin bestand, die Leistung von Grafikkarten zu vergleichen, die sich nur in der Größe des Videospeichers unterschieden, wurde das MSI NX8800GTS-T2D640E-HD-OC zweimal getestet: bei Werksfrequenzen und bei auf die reduzierten Frequenzen Referenzwerte für die GeForce 8800 GTS: 513/1188/800 (1600) MHz. Neben dem MSI-Produkt und der Referenz Nvidia GeForce 8800 GTS 320 MB nahmen folgende Grafikkarten am Test teil:

Nvidia GeForce 8800 GTX (G80, 576/1350/1900 MHz, 128sp, 32tmu, 24rop, 384-bit, 768 MB)
Nvidia GeForce 7950 GX2 (2xG71, 500/1200 MHz, 48pp, 16vp, 48tmu, 32rop, 256-bit, 512 MB)
AMD Radeon X1950 XTX (R580+, 650/2000 MHz, 48pp, 8vp, 16tmu, 16rop, 256-bit, 512 MB)

Als Test Software Die folgenden Spiele und Anwendungen wurden verwendet:

3D-Ego-Shooter:

Schlachtfeld 2142
Ruf von Juárez
Weit entfernt
FURCHT. Entnahmestelle
Tom Clancys Ghost Recon Advanced Warfighter
Half-Life 2: Episode Eins
Beute
Ernsthafter Sam 2
S.T.A.L.K.E.R.: Schatten von Tschernobyl


3D-Shooter mit Third-Person-Ansicht:

Tomb Raider: Legende


ROLLENSPIEL:

Gotisch 3
Neverwinter Nights 2
Die Ältesten Schriftrollen IV: Vergessenheit


Simulatoren:


Strategiespiele:

Command & Conquer: Tiberium Wars
Kompanie der Helden
Oberbefehlshaber


Synthetische Gaming-Tests:

Futuremark 3DMark05
Futuremark 3DMark06

Spieletests: Battlefield 2142


Zwischen den beiden Versionen der GeForce 8800 GTS mit unterschiedlich viel Videospeicher an Bord gibt es bis zu einer Auflösung von 1920x1200 keinen nennenswerten Unterschied, allerdings ist das jüngere Modell bei 1600x1200 dem älteren um etwa 4-5 Bilder pro Sekunde unterlegen recht angenehme Leistung für beide. Die Auflösung von 1920 x 1440 stellt jedoch einen Wendepunkt dar: Die GeForce 8800 GTS 320 MB scheidet mit mehr als dem 1,5-fachen Rückstand im Durchschnitt und dem Doppelten bei den minimalen fps deutlich aus dem Spiel aus. Darüber hinaus verliert es auch gegenüber Karten der vorherigen Generation. Es liegt ein Mangel an Videospeicher oder ein Problem bei der Implementierung seiner Verwaltung in der GeForce 8800-Familie vor.

Das MSI NX8800GTS OC Edition liegt ab einer Auflösung von 1600 x 1200 deutlich vor dem Referenzmodell, kann aber natürlich nicht zur GeForce 8800 GTX aufschließen, obwohl bei 1920 x 1440 der Abstand zwischen diesen Karten beeindruckend gering wird. Offensichtlich ist der Unterschied in der Breite des Speicherzugriffsbusses zwischen der GeForce 8800 GTS und der GTX hier unbedeutend.

Spieltests: Call of Juarez


Beide GeForce 8800 GTS-Modelle zeigen in allen Auflösungen, einschließlich 1920 x 1200, die gleiche Leistung. Dies ist ziemlich logisch, wenn man bedenkt, dass die Tests mit aktiviertem HDR, aber deaktiviertem FSAA durchgeführt wurden. Bei Nennfrequenzen sind die Karten der GeForce 7950 GX2 unterlegen.

Mit der übertakteten Version von MSI können Sie Parität bei hohen Auflösungen erreichen, deren Verwendung in diesem Spiel selbst dann unpraktisch ist, wenn Sie eine GeForce 8800 GTX in Ihrem System haben. Bei 1600 x 1200 beträgt die durchschnittliche Leistung der Flaggschiff-Grafikkarte von Nvidia beispielsweise nur 40 fps, mit Einbrüchen in grafikintensiven Szenen bis zu 21 fps. Für einen Ego-Shooter kann man solche Indikatoren kaum als wirklich komfortabel bezeichnen.

Spieletests: Far Cry


Das Spiel ist alles andere als jung und eignet sich schlecht zum Testen moderner High-End-Videoadapter. Trotz der Verwendung von Anti-Aliasing sind erst bei einer Auflösung von 1920 x 1200 merkliche Unterschiede in ihrem Verhalten erkennbar. Hier mangelt es der GeForce 8800 GTS 320MB an Videospeicher und sie liegt damit etwa 12 % unter dem Modell mit 640 MB Videospeicher. Aufgrund der nach heutigen Maßstäben bescheidenen Anforderungen von Far Cry besteht für den Spieler jedoch keine Gefahr, an Komfort einzubüßen.

Die MSI NX8800GTS OC Edition liegt fast auf Augenhöhe mit der GeForce 8800 GTX: Deren Leistung wird in Far Cry eindeutig nicht beansprucht.


Aufgrund der Art der Szene, die auf der Forschungsebene aufgezeichnet wurde, sind die Messwerte vielfältiger; Bereits bei einer Auflösung von 1600 x 1200 erkennt man die Leistungsunterschiede verschiedener Vertreter der GeForce 8800-Familie. Zudem ist hier bereits der Rückstand der Version mit 320 MB Speicher sichtbar, obwohl das Geschehen auf engstem Raum stattfindet Raum einer unterirdischen Höhle. Der Leistungsunterschied zwischen dem MSI-Produkt und der GeForce 8800 GTX bei einer Auflösung von 1920 x 1200 ist deutlich größer als im vorherigen Fall, da die Leistung von Shader-Prozessoren auf diesem Niveau eine wichtigere Rolle spielt.




Im FP-HDR-Modus hat die GeForce 8800 GTS 320MB keine Probleme mehr mit der Videospeicherkapazität und steht ihrem älteren Bruder in nichts nach und bietet in allen Auflösungen eine ordentliche Leistung. Die von MSI angebotene Version bietet eine weitere Geschwindigkeitssteigerung von 15 %, läuft aber selbst im Standardmodus Taktraten, ist schnell genug, um eine Auflösung von 1920 x 1200 zu verwenden, und die GeForce 8800 GTX wird dem Spieler bei einer Auflösung von 2560 x 1600 zweifellos komfortable Bedingungen bieten.

Spieletests: F.E.A.R. Entnahmestelle


Der visuelle Reichtum von F.E.A.R. erfordert entsprechende Ressourcen vom Videoadapter, und die Verzögerung von 5 % der GeForce 8800 GTS 320 MB ist bereits bei der Auflösung 1280 x 1024 sichtbar, bei der nächsten Auflösung, 1600 x 1200, beträgt sie deutlich 40 %.

Die Vorteile der Übertaktung der GeForce 8800 GTS liegen nicht auf der Hand: Sowohl die übertaktete als auch die normale Version ermöglichen ein gleichermaßen erfolgreiches Spielen mit einer Auflösung von 1600 x 1200. Bei der nächsten Auflösung reicht die Geschwindigkeitssteigerung durch Übertakten einfach nicht aus, um ein für Ego-Shooter angenehmes Niveau zu erreichen. Dies kann nur die GeForce 8800 GTX mit 128 aktiven Shader-Prozessoren und einem 384-Bit-Speichersubsystem.

Spieltests: Tom Clancy's Ghost Recon Advanced Warfighter

Aufgrund der Verwendung von verzögertem Rendering ist die Verwendung von FSAA in GRAW technisch unmöglich, daher werden die Daten nur für den anisotropen Filtermodus angezeigt.


Vorteil der MSI NX8800GTS OC Edition gegenüber der regulären Version Referenzkarte wächst mit zunehmender Auflösung und erreicht bei einer Auflösung von 1920 x 1200 19 %. In diesem Fall sind es diese 19 %, die es uns ermöglichen, eine durchschnittliche Leistung von 55 fps zu erreichen, was für den Spieler recht komfortabel ist.

Was den Vergleich zweier GeForce 8800 GTS-Modelle mit unterschiedlich großem Videospeicher betrifft, so gibt es keinen Leistungsunterschied.

Spieltests: Half-Life 2: Episode Eins


Bei einer Auflösung von 1280x1024 gibt es eine Einschränkung seitens des zentralen Prozessors unseres Testsystems – alle Karten zeigen das gleiche Ergebnis. Bei 1.600 x 1.200 sind die Unterschiede zwar bereits deutlich, aber grundlegend sind sie zumindest bei drei Varianten der GeForce 8800 GTS nicht: Alle drei bieten ein sehr angenehmes Leistungsniveau. Gleiches gilt für die Auflösung von 1920x1200. Trotz der hochwertigen Grafik ist das Spiel hinsichtlich des Videospeichers anspruchslos und die GeForce 8800 GTS 320MB verliert nur etwa 5 % gegenüber dem älteren und deutlich teureren Modell mit 640 MB Speicher an Bord. Die von MSI angebotene übertaktete Version der GeForce 8800 GTS belegt souverän den zweiten Platz nach der GeForce 8800 GTX.

Obwohl die GeForce 7950 GX2 bei einer Auflösung von 1600 x 1200 bessere Ergebnisse als die GeForce 8800 GTS zeigt, sollten wir nicht die Probleme vergessen, die bei der Verwendung einer Karte auftreten können, die im Wesentlichen ein SLI-Tandem ist, sowie die deutlich geringere Qualität der Texturfilterung in der GeForce 7-Familie Die neue Nvidia-Lösung hat natürlich immer noch Probleme mit den Treibern, verfügt aber über vielversprechende Fähigkeiten und hat im Gegensatz zur GeForce 7950 GX2 alle Chancen, „Kinderkrankheiten“ in kürzester Zeit loszuwerden.

Spieltests: Beute


Die GeForce 8800 GTS 640 MB zeigt nicht den geringsten Vorteil gegenüber der GeForce 8800 GTS 320 MB, vielleicht weil das Spiel eine modifizierte Doom III-Engine verwendet und hinsichtlich der Anforderungen an den Videospeicher keinen besonderen Appetit zeigt. Wie bei GRAW, Gesteigerte produktivität Mit der NX8800GTS OC Edition können Besitzer dieses Videoadapters recht komfortables Gaming bei einer Auflösung von 1920 x 1200 erwarten. Zum Vergleich: Die reguläre GeForce 8800 GTS zeigt bei einer Auflösung von 1600 x 1200 die gleichen Werte. Das Flaggschiff der Linie, die GeForce 8800 GTX, ist konkurrenzlos.

Spieletests: Serious Sam 2


Die Idee der kroatischen Entwickler von Croteam verlangt seit jeher strikt, dass der Videoadapter über 512 MB Videospeicher verfügt, andernfalls wird er mit einem monströsen Leistungsabfall bestraft. Die Kapazität der günstigen Version der GeForce 8800 GTS reichte nicht aus, um den Spielhunger zu stillen, sodass sie bei einer Auflösung von 1280 x 1024 nur 30 fps anzeigen konnte, während die Version mit 640 MB Speicher an Bord war war mehr als doppelt so schnell.

Aus unbekannten Gründen ist die Mindestleistung aller GeForce 8800 im Serious Sam 2 extrem niedrig, was möglicherweise an den architektonischen Merkmalen der Familie liegt, die bekanntermaßen über eine einheitliche Architektur ohne Unterteilung in Pixel- und Vertex-Shader verfügt und auf Mängel in den ForceWare-Treibern. Aus diesem Grund werden Besitzer einer GeForce 8800 in diesem Spiel noch nicht den vollen Komfort erreichen können.

Spieltests: S.T.A.L.K.E.R.: Shadow of Chernobyl

Das von vielen Spielern mit Spannung erwartete GSC Game World-Projekt erblickte nach vielen Jahren der Entwicklung endlich das Licht der Welt, sechs oder sieben Jahre nach der Ankündigung. Das Spiel erwies sich als mehrdeutig, aber dennoch vielfältig genug, um zu versuchen, es in wenigen Sätzen zu beschreiben. Wir stellen lediglich fest, dass die Projekt-Engine im Vergleich zu einer der ersten Versionen deutlich verbessert wurde. Das Spiel erhielt Unterstützung für eine Reihe moderner Technologien, darunter Shader Model 3.0, HDR, Parallax Mapping und andere, verlor jedoch nicht die Fähigkeit, im vereinfachten Modus mit einem statischen Beleuchtungsmodell zu arbeiten und so eine hervorragende Leistung auf nicht sehr leistungsstarken Systemen zu bieten.

Da wir Wert auf höchste Bildqualität legen, haben wir das Spiel im volldynamischen Beleuchtungsmodus mit maximaler Detailgenauigkeit getestet. Dieser Modus, der unter anderem den Einsatz von HDR beinhaltet, unterstützt kein FSAA; Zumindest ist das in der aktuellen Version von S.T.A.L.K.E.R. der Fall. Da das Spiel bei Verwendung eines statischen Beleuchtungsmodells und DirectX-8-Effekten stark an Attraktivität verliert, haben wir uns auf die anisotrope Filterung beschränkt.


Unter bescheidenem Appetit leidet das Spiel nicht – selbst die GeForce 8800 GTX schafft bei maximaler Detailgenauigkeit keine 60 fps in einer Auflösung von 1280x1024. Es ist jedoch zu beachten, dass bei niedrigen Auflösungen der Hauptlimitierungsfaktor die CPU-Leistung ist, da die Unterschiede zwischen den Karten gering sind und ihre durchschnittlichen Ergebnisse ziemlich nahe beieinander liegen.

Allerdings ist hier bereits ein gewisser Rückstand zwischen der GeForce 8800 GTS 320MB und ihrem älteren Bruder sichtbar, der mit zunehmender Auflösung nur noch schlimmer wird und bei einer Auflösung von 1920x1200 hat das jüngste Mitglied der GeForce 8800-Familie einfach nicht genügend Video zur Verfügung Erinnerung. Angesichts der Größe der Spielszenen und der Fülle an Spezialeffekten ist dies nicht verwunderlich.

Insgesamt können wir sagen, dass die GeForce 8800 GTX in S.T.A.L.K.E.R. keinen gravierenden Vorteil bringt. vor der GeForce 8800 GTS, und die Radeon X1950 XTX sieht genauso erfolgreich aus wie die GeForce 8800 GTS 320 MB. Die Lösung von AMD ist der Lösung von Nvidia in einigen Punkten sogar überlegen, da sie mit einer Auflösung von 1920x1200 arbeitet, allerdings praktischer Nutzen Dieser Modus ist aufgrund der durchschnittlichen Leistung bei 30–35 fps unpraktisch. Gleiches gilt für die GeForce 7950 GX2, die übrigens sowohl ihrem direkten Konkurrenten als auch dem jüngeren Modell der neuen Generation etwas voraus ist.

Spieletests: Hitman: Blood Money


Wir haben bereits erwähnt, dass das Vorhandensein von 512 MB Videospeicher einem solchen Videoadapter in Hitman: Blood Money in hohen Auflösungen einige Vorteile verschafft. Offenbar reichen auch 320 MB, da die GeForce 8800 GTS 320 MB fast so gut ist wie die reguläre GeForce 8800 GTS, unabhängig von der verwendeten Auflösung; die Differenz überschreitet nicht 5 %.

Mit beiden Karten sowie der von MSI angebotenen übertakteten GeForce 8800 GTS können Sie in allen Auflösungen erfolgreich spielen, und die GeForce 8800 GTX ermöglicht sogar die Verwendung hochwertigerer FSAA-Modi als das übliche MSAA 4x, da sie über das nötige verfügt Leistungsspielraum dafür.

Spieltests: Tomb Raider: Legend


Trotz der Verwendung von Einstellungen, die maximale Grafikqualität bieten, meistert die GeForce 8800 GTS 320MB das Spiel genauso erfolgreich wie die reguläre GeForce 8800 GTS. Beide Karten stellen dem Spieler im „Eye Candy“-Modus eine Auflösung von 1920x1200 zur Verfügung. Die MSI NX8800GTS OC Edition ist beiden Referenzkarten leicht überlegen, allerdings nur bei den durchschnittlichen fps – das Minimum bleibt gleich. Es ist nicht mehr als das der GeForce 8800 GTX, was bedeuten könnte, dass dieser Indikator auf einige Funktionen der Game-Engine zurückzuführen ist.

Spieletests: Gothic 3

Die aktuelle Version von Gothic 3 unterstützt FSAA nicht, daher wurde der Test ausschließlich mit anisotroper Filterung durchgeführt.


Trotz der fehlenden Vollbild-Anti-Aliasing-Unterstützung ist die GeForce 8800 GTS 320 MB nicht nur der regulären GeForce 8800 GTS, sondern auch der Radeon X1950 XTX deutlich unterlegen und liegt nur knapp vor der GeForce 7950 GX2. Aufgrund der Leistung von 26–27 fps bei einer Auflösung von 1280 x 1024 ist diese Karte nicht die beste für Gothic 3.

Beachten Sie, dass die GeForce 8800 GTX bestenfalls 20 % vor der GeForce 8800 GTS liegt. Offenbar kann das Spiel nicht alle Ressourcen nutzen, die dem Flaggschiff von Nvidia zur Verfügung stehen. Dies beweist auch der leichte Unterschied zwischen der regulären und der übertakteten Version der GeForce 8800 GTS.

Spieletests: Neverwinter Nights 2

Ab Version 1.04 erlaubt das Spiel die Verwendung von FSAA, die HDR-Unterstützung ist jedoch noch in Arbeit, daher haben wir NWN 2 im „Eye Candy“-Modus getestet.


Wie bereits erwähnt, liegt die minimale Spielbarkeitshürde für Neverwinter Nights 2 bei 15 Bildern pro Sekunde, und die GeForce 8800 GTS 320 MB gleicht sich bereits bei einer Auflösung von 1600 x 1200 an dieser Grenze aus, während für die Version mit 640 MB Speicher 15 fps der Mindestindikator sind unterhalb dessen die Produktivität nicht sinkt.

Spieltests: The Elder Scrolls IV: Oblivion

Ohne HDR verliert das Spiel viel von seinem Reiz, und obwohl die Spieler zu diesem Thema unterschiedlicher Meinung sind, haben wir TES IV im Modus mit aktiviertem FP HDR getestet.


Die Leistung der GeForce 8800 GTS 320 MB hängt direkt von der verwendeten Auflösung ab: Wenn das neue Produkt bei 1280 x 1024 mit den produktivsten Karten der vorherigen Generation konkurrieren kann, verliert es bei 1600 x 1200 und insbesondere bei 1920 x 1200 gegen diese und verliert bis zu 10 % zur Radeon X1950 XTX und bis zu 25 % zur GeForce 7950 GX2. Dies ist jedoch ein sehr gutes Ergebnis für eine Lösung, die offiziell nur 299 US-Dollar kostet.

Die von MSI angebotene reguläre GeForce 8800 GTS und ihre übertaktete Version fühlen sich souveräner an und bieten in allen Auflösungen eine angenehme Leistung auf dem Niveau von Ego-Shootern.


Bei der Untersuchung zweier Versionen der GeForce 7950 GT, die sich in der Größe des Videospeichers unterscheiden, konnten wir in TES IV keine gravierenden Leistungsunterschiede feststellen, in einer ähnlichen Situation mit zwei Versionen der GeForce 8800 GTS ist das Bild jedoch vollständig anders.
Verhalten sie sich bei 1280x1024 gleich, dann ist die Version mit 320 MB Speicher bei 1600x1200 mehr als halb so gut wie die Version mit 640 MB und bei einer Auflösung von 1920x1200 sinkt die Leistung auf das Niveau der Radeon X1650 XT. Es liegt auf der Hand, dass es hier nicht um die Größe des Videospeichers an sich geht, sondern um die Besonderheiten seiner Verteilung durch den Treiber. Das Problem kann wahrscheinlich durch ein Update von ForceWare behoben werden, und wir werden diese Behauptung mit der Veröffentlichung neuer Versionen von Nvidia-Treibern überprüfen.

Was die GeForce 8800 GTS und MSI NX8800GTS OC Edition betrifft, so bieten sie selbst in den offenen Räumen der Oblivion-Welt einen hohen Komfort in allen Auflösungen, wenn auch natürlich nicht im Bereich von 60 fps, wie in geschlossenen Räumen. Die leistungsstärksten Lösungen der Vorgängergeneration können mit ihnen einfach nicht mithalten.

Spieletests: X3: Reunion


Die durchschnittliche Leistung aller Mitglieder der GeForce 8800-Familie ist recht hoch, die Mindestleistung liegt jedoch noch auf niedrigem Niveau, sodass Treiberverbesserungen erforderlich sind. Die Ergebnisse der GeForce 8800 GTS 320 MB sind die gleichen wie die der GeForce 8800 GTS 640 MB.

Spieletests: Command & Conquer 3: Tiberium Wars

Die Echtzeitstrategiereihe „Command & Conquer“ dürfte jedem ein Begriff sein, der sich auch nur mehr oder weniger dafür interessiert Computerspiele. Die kürzlich von Electronic Arts veröffentlichte Fortsetzung der Serie entführt den Spieler in die bekannte Welt der Konfrontation zwischen GDI und Brotherhood of Nod, der sich dieses Mal eine dritte Fraktion in Form außerirdischer Eindringlinge anschließt. Die Spiel-Engine ist modern und nutzt fortschrittliche Spezialeffekte; Darüber hinaus verfügt es über eine Funktion – einen FPS-Limiter, der auf 30 Bilder pro Sekunde festgelegt ist. Dies kann erfolgen, um die Geschwindigkeit der KI zu begrenzen und so einen unfairen Vorteil gegenüber dem Spieler zu vermeiden. Weil das regelmäßige Mittel Der Limiter schaltet nicht ab, wir haben das Spiel damit getestet, das heißt, wir haben vor allem auf die minimalen FPS geachtet.


Fast alle Testteilnehmer erreichen in allen Auflösungen 30 fps, mit Ausnahme der GeForce 7950 GX2, die Probleme mit der Funktionsweise des SLI-Modus hat. Höchstwahrscheinlich fehlt dem Treiber seit dem letzten Mal einfach die entsprechende Unterstützung offizielles Windows XP Nvidia-Treiber ForceWare für die GeForce 7-Familie wurde vor mehr als sechs Monaten aktualisiert.

Beide GeForce 8800 GTS-Modelle weisen die gleichen minimalen FPS auf und bieten daher dem Spieler den gleichen Komfort. Obwohl das Modell mit 320 MB Videospeicher dem älteren Modell in einer Auflösung von 1920 x 1200 unterlegen ist, sind 2 Bilder pro Sekunde kaum ein kritischer Wert, was bei gleicher Mindestleistung wiederum keinerlei Auswirkungen auf das Gameplay hat. Ein völliger Mangel an diskreter Steuerung kann nur die GeForce 8800 GTX bieten, deren minimale fps nicht unter 25 Bilder pro Sekunde fällt.

Spieletests: Company of Heroes

Aufgrund von Problemen mit der FSAA-Aktivierung in diesem Spiel haben wir uns entschieden, den „Eye Candy“-Modus nicht zu verwenden und ihn im reinen Leistungsmodus mit aktivierter anisotroper Filterung zu testen.


Hier haben wir ein weiteres Spiel, bei dem die GeForce 8800 GTS 320 MB der vorherigen Generation mit einer nicht einheitlichen Architektur unterlegen ist. Tatsächlich eignet sich die 299-Dollar-Lösung von Nvidia für den Einsatz bei Auflösungen von nicht mehr als 1280 x 1024, selbst bei deaktiviertem Anti-Aliasing, während das 449-Dollar-Modell, das sich nur in der Größe des Videospeichers unterscheidet, ein erfolgreiches Spielen sogar bei 1920 x 1200 ermöglicht. Dies steht jedoch auch Besitzern einer AMD Radeon X1950 XTX zur Verfügung.

Spieltests: Oberbefehlshaber


Aber im Gegensatz zu Company of Heroes stellt Supreme Commander keine strengen Anforderungen an die Größe des Videospeichers. In diesem Spiel zeigen die GeForce 8800 GTS 320 MB und die GeForce 8800 GTS gleich hohe Ergebnisse. Durch Übertakten lassen sich einige zusätzliche Gewinne erzielen, wie das MSI-Produkt zeigt, aber ein solcher Schritt wird es immer noch nicht ermöglichen, das Niveau der GeForce 8800 GTX zu erreichen. Allerdings reicht die verfügbare Leistung aus, um alle Auflösungen, auch 1920 x 1200, zu nutzen, zumal die Schwankungen gering sind und die minimalen fps nur geringfügig unter dem Durchschnitt liegen.

Synthetische Tests: Futuremark 3DMark05


Da 3DMark05 standardmäßig eine Auflösung von 1024 x 768 verwendet und kein Vollbild-Antialiasing verwendet, zeigt die GeForce 8800 GTS 320 MB natürlich das gleiche Ergebnis wie die reguläre Version mit 640 MB Videospeicher. Die von Micro-Star International auf den Markt gebrachte übertaktete Version der GeForce 8800 GTS kann mit einem schönen, ausgeglichenen Ergebnis von 13.800 Punkten aufwarten.






Im Gegensatz zum Gesamtergebnis im Standardmodus erhalten wir die Ergebnisse einzelner Tests, indem wir sie im „Eye Candy“-Modus ausführen. In diesem Fall hatte dies jedoch keinerlei Auswirkungen auf die Leistung der GeForce 8800 GTS 320 MB – selbst im dritten, ressourcenintensivsten Test war kein spürbarer Rückstand gegenüber der GeForce 8800 GTS zu verzeichnen. Das MSI NX8800GTS OC Edition belegte in allen Fällen einen stabilen zweiten Platz hinter der GeForce 8800 GTX und bestätigte damit die erzielten Ergebnisse in der Gesamtwertung.

Synthetische Tests: Futuremark 3DMark06


Beide GeForce 8800 GTS-Varianten verhalten sich gleich wie im vorherigen Fall. Allerdings verwendet 3DMark06 komplexere Grafiken, die in Kombination mit der Verwendung von FSAA 4x in einigen Tests ein anderes Bild ergeben können. Werfen wir einen Blick darauf.






Auch die Ergebnisse einzelner Testgruppen sind konsistent. Die SM3.0/HDR-Gruppe verwendet eine größere Anzahl komplexerer Shader, sodass der Vorteil der GeForce 8800 GTX stärker ausgeprägt ist als in der SM2.0-Gruppe. Auch bei aktiver Nutzung von Shader Model 3.0 und HDR sieht die AMD Radeon X1950




Nach der Aktivierung von FSAA beginnt die GeForce 8800 GTS 320 MB bei einer Auflösung von 1600 x 1200 tatsächlich gegenüber der GeForce 8800 GTS 640 MB zu verlieren, und bei 1920 x 1200 kann die neue Nvidia-Lösung die Tests aufgrund fehlenden Videospeichers überhaupt nicht bestehen. Der Verlust ist sowohl im ersten als auch im zweiten SM2.0-Test nahezu doppelt so hoch, obwohl sie sich im Aufbau der Grafikszenen sehr unterscheiden.






Im ersten SM3.0/HDR-Test ist der Einfluss des Videospeichers auf die Leistung bereits bei einer Auflösung von 1280x1024 deutlich sichtbar. Das jüngere Modell GeForce 8800 GTS ist dem älteren um etwa 33 % unterlegen, bei einer Auflösung von 1600 x 1200 vergrößert sich der Abstand auf fast 50 %. Der zweite Test mit einer viel weniger komplexen und groß angelegten Szene stellt keine so großen Anforderungen an den Videospeicher, und hier beträgt die Verzögerung 5 % bzw. etwa 20 %.

Abschluss

Zeit, Bilanz zu ziehen. Wir haben zwei Nvidia GeForce 8800 GTS-Modelle getestet, von denen eines ein direkter Konkurrent der AMD Radeon X1950 XTX ist und das andere auf den Mainstream-Leistungskartensektor für 299 US-Dollar ausgerichtet ist. Was können wir zu den Ergebnissen der Gaming-Tests sagen?

Das ältere Modell, dessen offizieller Preis 449 US-Dollar beträgt, schnitt in puncto Leistung gut ab. In den meisten Tests übertraf die GeForce 8800 GTS die AMD Radeon X1950 Angesichts der außergewöhnlich hohen Leistung der GeForce 8800 GTS 640 MB würden wir sie jedoch nicht eindeutig mit Produkten der vorherigen Generation vergleichen: Sie unterstützen DirectX 10 nicht, während die GeForce 7950 GX2 eine deutlich schlechtere Qualität der anisotropen Filterung und Potenzial aufweist Probleme, die durch die Inkompatibilität des einen oder anderen Spiels mit verursacht werden Nvidia-Technologie SLI.

GeForce 8800 GTS 640MB kann man getrost nennen die beste Lösung im Preisbereich von 449 bis 499 US-Dollar. Es ist jedoch erwähnenswert, dass die neue Generation von Nvidia-Produkten noch nicht von Kinderkrankheiten geheilt wurde: in Ruf von Juárez flackernde Schatten sind immer noch sichtbar, und Splinter Cell: Doppelagent Obwohl es funktioniert, ist ein spezieller Start für die Treiberversion 97.94 erforderlich. Zumindest bis grafikbasierte Karten auf den Markt kommen. AMD-Prozessor Die GeForce 8800 GTS der neuen Generation hat alle Chancen, ihren rechtmäßigen Platz als „bester Beschleuniger im Wert von 449 US-Dollar“ einzunehmen. Wir empfehlen jedoch, vor dem Kauf einer GeForce 8800 GTS die Frage der Kompatibilität der neuen Nvidia-Familie mit Ihren Lieblingsspielen zu klären.

Auch die neue GeForce 8800 GTS 320MB für 299 US-Dollar ist ein sehr guter Kauf für das Geld: Unterstützung für DirectX 10, hochwertige anisotrope Filterung und kein schlechtes Leistungsniveau bei typischen Auflösungen sind nur einige der Vorteile des neuen Produkts. Wenn Sie also vorhaben, mit einer Auflösung von 1280 x 1024 oder 1600 x 1200 zu spielen, ist die GeForce 8800 GTS 320 MB eine ausgezeichnete Wahl.

Leider ist eine aus technischer Sicht sehr vielversprechende Karte, die sich von der teureren Version nur durch die Größe des Videospeichers unterscheidet, der GeForce 8800 GTS 640 MB manchmal deutlich unterlegen, nicht nur bei Spielen mit hohen Anforderungen an den Videospeicher. wie zum Beispiel Ernsthafter Sam 2, aber auch dort, wo zuvor der Leistungsunterschied zwischen Karten mit 512 und 256 MB Speicher nicht erfasst wurde. Zu solchen Spielen gehören insbesondere TES IV: Oblivion, Neverwinter Nights 2, F.E.A.R. Entnahmestelle und einige andere. Wenn man bedenkt, dass 320 MB Videospeicher eindeutig größer als 256 MB sind, hängt das Problem eindeutig mit seiner ineffizienten Zuweisung zusammen. Leider wissen wir nicht, ob dies an Fehlern in den Treibern oder etwas anderem liegt. Selbst unter Berücksichtigung der oben beschriebenen Mängel sieht die GeForce 8800 GTS 320 MB jedoch viel attraktiver aus als die GeForce 7950 GT und die Radeon X1950 XT, obwohl letztere mit der Einführung dieses Videoadapters zwangsläufig an Preis verlieren wird.

Mit dem MSI NX8800GTS-T2D640E-HD-OC haben wir ein gut ausgestattetes Produkt, das sich nicht nur durch Verpackung, Zubehör und einen Aufkleber auf dem Kühler von der Nvidia-Referenzkarte unterscheidet. Der Videoadapter ist vom Hersteller übertaktet und sorgt in den meisten Spielen für eine spürbare Leistungssteigerung im Vergleich zur Standard GeForce 8800 GTS 640MB. Natürlich kann sie nicht das Niveau der GeForce 8800 GTX erreichen, aber zusätzliche FPS sind nie überflüssig. Anscheinend wurden diese Karten sorgfältig aufgrund ihrer Fähigkeit ausgewählt, bei höheren Frequenzen zu arbeiten. Zumindest zeigte unser Beispiel recht gute Ergebnisse im Bereich der Übertaktung und es ist möglich, dass die meisten Exemplare der NX8800GTS OC Edition weit über das hinausgehen können, was der Hersteller bereits getan hat.

Besonderes Lob verdient die Aufnahme einer Zwei-Disc-Ausgabe von Company of Heroes, das von vielen Spielerezensenten als das beste Strategiespiel des Jahres angesehen wird. Wenn Sie ernsthaft über den Kauf einer GeForce 8800 GTS nachdenken, dann hat dieses MSI-Produkt alle Chancen, Ihre Wahl zu werden.

MSI NX8800GTS-T2D640E-HD-OC: Vor- und Nachteile

Vorteile:

Erhöhtes Leistungsniveau im Vergleich zur Referenz GeForce 8800 GTS
Hohe Leistung bei hohen Auflösungen mittels FSAA





Niedriger Geräuschpegel
Gutes Übertaktungspotenzial
Gute Ausstattung

Mängel:

Unzureichend debuggte Treiber

GeForce 8800 GTS 320 MB: Vor- und Nachteile

Vorteile:

Hohes Leistungsniveau in seiner Klasse
Unterstützung für neue Modi und Anti-Aliasing-Methoden
Hervorragende anisotrope Filterqualität
Einheitliche Architektur mit 96 Shader-Prozessoren
Zukunftssicher: Unterstützung für DirectX 10 und Shader Model 4.0
Effizientes Kühlsystem
Niedriger Geräuschpegel

Mängel:

Unzureichend debuggte Treiber (Problem mit der Videospeicherzuweisung, schlechte Leistung in einigen Spielen und/oder Modi)
Hoher Energieverbrauch

In unserem letzten Artikel haben wir einen Blick auf das Geschehen in der unteren Preisklasse geworfen, in der kürzlich neue Produkte von AMD erschienen sind – die Radeon HD 3400- und HD 3600-Serien. Heute werden wir unseren Blick in der Hierarchie der Karten und leicht erhöhen Sprechen Sie über ältere Modelle. Der Held unserer Rezension wird dieses Mal sein GeForce 8800 GTS 512 MB.

Was ist GeForce 8800 GTS 512 MB? Der Titel gibt, ehrlich gesagt, keine klare Antwort. Das erinnert einerseits irgendwie an vergangene Top-End-Lösungen auf Basis des G80-Chips. Andererseits beträgt die Speicherkapazität 512 MB, also weniger als bei den entsprechenden Vorgängern. Im Ergebnis stellt sich heraus, dass der GTS-Index in Verbindung mit der Zahl 512 für einen potenziellen Käufer schlichtweg irreführend ist. Tatsächlich handelt es sich aber, wenn nicht um die schnellste, dann auf jeden Fall um eine der schnellsten Grafiklösungen, die NVIDIA derzeit vorstellt. Und gegründet diese Karte Keineswegs auf dem scheidenden G80, sondern auf dem deutlich progressiveren G92, auf dem übrigens auch die GeForce 8800 GT basierte. Um die Beschreibung des Wesens der GeForce 8800 GTS 512 MB noch klarer zu gestalten, gehen wir direkt zu den Eigenschaften über.

Vergleichseigenschaften der GeForce 8800 GTS 512 MB

Modell Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 MB GeForce 8800 GTS 512 MB GeForce 8800 GTX
Kernel-Codename RV670 G92 G80 G92 G80
Diese. Prozess, nm 65 65 90 65 90
Anzahl der Stream-Prozessoren 320 112 96 128 128
Anzahl der Texturblöcke 16 56 24 64 32
Anzahl der Mischblöcke 16 16 20 16 24
Kernfrequenz, MHz 775 600 513 650 575
Frequenz der Shader-Einheit, MHz 775 1500 1180 1625 1350
Effektive Videospeicherfrequenz, MHz 2250 1800 1600 1940 1800
Videospeicherkapazität, MB 512 256 / 512 / 1024 320 / 640 512 768
Breite des Datenaustauschbusses, Bit 256 256 320 256 384
Videospeichertyp GDDR3/GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Schnittstelle PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Werfen wir einen Blick auf die obige Tabelle. Basierend auf diesen Daten können wir den Schluss ziehen, dass wir über eine wohlgeformte und starke Lösung verfügen, die mit der aktuellen Spitze des kalifornischen Unternehmens gleichermaßen mithalten kann. Im Wesentlichen handelt es sich um einen vollwertigen G92-Chip mit erhöhten Frequenzen und sehr schnellem GDDR3-Speicher, der mit fast 2 GHz arbeitet. Dass der G92 in der Originalversion genau 128 Stream-Prozessoren und 64 Textureinheiten haben sollte, haben wir übrigens bereits im Test der GeForce 8800 GT besprochen. Wie Sie sehen, wurde dem Modell mit dem GT-Index nicht umsonst ein etwas abgespeckter Chip zugeteilt. Dieser Schritt ermöglichte es uns, das Segment der Hochleistungs-Grafikkarten etwas abzugrenzen und darin ein noch fortschrittlicheres Produkt zu entwickeln. Darüber hinaus ist die Produktion von G92 derzeit bereits gut etabliert und die Anzahl der Chips, die bei Frequenzen über 600 MHz arbeiten können, ist recht groß. Doch bereits in den ersten Revisionen eroberte der G92 problemlos 700 MHz. Sie verstehen, dass diese Linie jetzt nicht die Grenze ist. Im weiteren Verlauf des Materials werden wir Zeit haben, dies zu überprüfen.

Wir haben also ein Produkt von XFX vor uns – die GeForce 8800 GTS 512 MB Grafikkarte. Es ist dieses Modell, das heute Gegenstand unserer eingehenden Untersuchung sein wird.

Endlich haben wir das Board selbst. Die Basis für das XFX-Produkt ist Referenzdesign, sodass alles, was über dieses Produkt gesagt wird, auf die meisten Lösungen anderer Unternehmen angewendet werden kann. Schließlich ist es kein Geheimnis, dass sich heute die überwiegende Mehrheit der Hersteller beim Design ihrer Produkte genau an den Angeboten von NVIDIA orientiert.

Bei der GeForce 8800 GTS 512 MB fällt auf, dass die Platine von der GeForce 8800 GT übernommen wurde. Es ist im Vergleich zu G80-Grafikkarten deutlich vereinfacht, erfüllt aber vollständig die Anforderungen der neuen Architektur. Daraus lässt sich schließen, dass die Veröffentlichung der GeForce 8800 GTS 512 MB kaum kompliziert war. Wir haben das gleiche PCB und fast den gleichen Chip wie sein Vorgänger mit dem GT-Index.

Was die Größe der betreffenden Grafikkarte angeht, entspricht sie in dieser Hinsicht voll und ganz der GeForce 8800 GTS 640 MB. Wie Sie anhand des bereitgestellten Fotos selbst sehen können.

NVIDIA hielt es für notwendig, Änderungen am Kühlsystem vorzunehmen. Es wurde erheblich verändert und ähnelt nun eher dem Kühler der klassischen GeForce 8800 GTS 640 MB als der GeForce 8800 GT.

Das Design des Kühlers ist recht einfach. Es besteht aus Aluminiumlamellen, die von einer entsprechenden Turbine durchströmt werden. Die Kühlerplatten werden von Kupfer-Heatpipes mit einem Durchmesser von jeweils 6 mm durchbohrt. Der Kontakt zum Chip erfolgt über einen Kupfersockel. Die Wärme wird von der Basis abgeführt und an den Heizkörper übertragen, wo sie anschließend abgeführt wird.

Unser Exemplar der GeForce 8800 GTS war mit dem in Taiwan veröffentlichten G92-Chip, Revision A2, ausgestattet. Der Speicher besteht aus 8 Chips von Qimonda mit einer Zugriffszeit von 1,0 ns.

Schließlich haben wir die Grafikkarte eingesteckt PCI-E-Steckplatz. Das Board wurde problemlos identifiziert und ermöglichte uns die Installation der Treiber. Hinsichtlich der Hilfssoftware gab es keine Schwierigkeiten. GPU-Z stellte alle notwendigen Informationen recht korrekt dar.

Die GPU-Frequenz beträgt 678 MHz, der Speicher 1970 MHz, die Shader-Domäne 1700 MHz. Als Ergebnis sehen wir erneut, dass XFX seine Gewohnheit, die Frequenzen über die Werksfrequenzen anzuheben, nicht ändert. Diesmal ist der Anstieg zwar gering. Aber normalerweise umfasst das Sortiment des Unternehmens eine ganze Reihe von Karten derselben Serie, die sich in der Häufigkeit unterscheiden. Einige von ihnen haben wahrscheinlich eine großartige Leistung.

Auch Riva Tuner ließ uns nicht im Stich und zeigte alle Informationen zum Monitoring an.

Danach haben wir uns entschlossen zu prüfen, wie gut der Standardkühler seine Aufgabe meistert. Die GeForce 8800 GT hatte damit ernsthafte Probleme. Das Kühlsystem hatte einen eher zweifelhaften Wirkungsgrad. Dies reichte natürlich aus, um die Platine zum Nennwert zu nutzen, aber für mehr war ein Kühleraustausch erforderlich.

Allerdings kommt die GeForce 8800 GTS damit gut zurecht. Nach längerer Belastung stieg die Temperatur lediglich auf 61 °C. Das ist ein hervorragendes Ergebnis für eine so produktive Lösung. Allerdings hat jedes Fass Honig seinen eigenen Wermutstropfen. Auch hier hätte es nicht passieren können. Leider ist das Kühlsystem furchtbar laut. Zudem wird das Geräusch bereits bei 55 °C recht unangenehm, was uns sogar überrascht hat. Immerhin hat sich der Chip kaum erwärmt. Warum um alles in der Welt beginnt die Turbine intensiv zu arbeiten?

Hier kam uns Riva Tuner zu Hilfe. Dieses Dienstprogramm nützlich, weil Sie damit nicht nur den Betrieb der Grafikkarte übertakten und konfigurieren können, sondern auch über Funktionen zur Steuerung der Kühlergeschwindigkeit verfügt, sofern das Board selbst diese Option natürlich unterstützt.

Wir haben uns entschieden, die Geschwindigkeit auf 48 % einzustellen – das ist ein absolut leiser Betrieb der Karte, bei dem man den Lärm völlig vergessen kann.

Allerdings führten solche Anpassungen zu einem Temperaturanstieg. Diesmal waren es 75 °C. Natürlich ist die Temperatur etwas hoch, aber unserer Meinung nach lohnt es sich, das Heulen der Turbine loszuwerden.

Allerdings haben wir hier nicht aufgehört. Wir haben uns entschieden, das Verhalten der Grafikkarte bei der Installation eines alternativen Kühlsystems zu überprüfen.

Die Wahl fiel auf Thermaltake DuOrb – ein effektives und elegantes Kühlsystem, das einst gute Arbeit bei der Kühlung der GeForce 8800 GTX leistete.

Die Temperatur sank um 1 °C im Vergleich zum Standardkühler mit automatischer Geschwindigkeit (unter Last erhöht sich die Geschwindigkeit automatisch auf 78 %). Nun, natürlich ist der Unterschied in der Effizienz vernachlässigbar. Allerdings ist auch der Geräuschpegel deutlich geringer geworden. Zwar kann Thermaltake DuOrb auch nicht als leise bezeichnet werden.

Im Ergebnis hinterlässt der neue Standardkühler von NVIDIA nur einen positiven Eindruck. Es ist sehr effizient und ermöglicht darüber hinaus die Einstellung jeder Geschwindigkeitsstufe, die für Liebhaber der Stille geeignet ist. Darüber hinaus wird es auch in diesem Fall, obwohl es schlimmer ist, der Aufgabe gerecht.

Lassen Sie uns abschließend noch das Übertaktungspotenzial erwähnen. Wie sich übrigens herausstellt, gilt das Gleiche sowohl für den Standardkühler als auch für den DuOrb. Der Kern wurde auf 805 MHz übertaktet, die Shader-Domäne auf 1944 MHz und der Speicher auf 2200 MHz. Wir können nicht anders, als froh zu sein, dass die Top-Lösung, die zunächst über hohe Frequenzen verfügt, noch über einen deutlichen Spielraum verfügt, und zwar sowohl beim Chip als auch beim Speicher.

Also haben wir uns die Grafikkarte GeForce 8800 GTS 512 MB von XFX angesehen. An diesem Punkt konnten wir problemlos zum Testteil übergehen, beschlossen jedoch, über eine andere interessante Lösung zu sprechen, dieses Mal aus der ATI-Mühle, hergestellt von PowerColor.

Das Hauptmerkmal dieser Grafikkarte ist der DDR3-Speicher. Ich möchte Sie daran erinnern, dass die meisten Unternehmen Radeon HD 3870 mit DDR4 herausbringen. Auch die Referenzversion war mit dem gleichen Speichertyp ausgestattet. Allerdings wählt das Unternehmen PowerColor häufig nicht standardmäßige Wege und stattet seine Produkte mit Funktionen aus, die sich von anderen unterscheiden.

Ein anderer Speichertyp ist jedoch nicht der einzige Unterschied zwischen dem PowerColor-Board und Lösungen von Drittanbietern. Tatsache ist, dass sich das Unternehmen auch dafür entschieden hat, die Grafikkarte nicht mit einer Standardturbine auszustatten, die übrigens recht effizient ist, sondern mit einem noch produktiveren Produkt von ZeroTherm – dem GX810-Kühler.

PCB vereinfacht. Dies betraf vor allem das Nahrungsmittelsystem. In diesem Bereich sollten sich vier Keramikkondensatoren befinden. Darüber hinaus befinden sie sich auf den meisten Brettern in einer Reihe nahe beieinander. Auf der PowerColor-Platine sind noch drei davon übrig – zwei davon befinden sich dort, wo sie sein sollten, und ein weiterer befindet sich oben.

Der Eindruck solcher Merkmale wird durch das Vorhandensein eines Aluminiumkühlers in den Stromkreisen etwas gemildert. Unter Last können sie sehr heiß werden, sodass eine Kühlung nicht überflüssig ist.

Die Speicherchips sind mit einer Kupferplatte abgedeckt. Das mag auf den ersten Blick erfreulich sein, da es sich dabei um ein Element handelt, das die Temperatur bei Erwärmung des Speichers senken kann. In der Realität ist dies jedoch nicht ganz der Fall. Erstens konnte das Schild auf dieser Kopie der Karte nicht entfernt werden. Anscheinend wird es durch Heißkleber festgehalten. Vielleicht lässt sich der Kühler mit etwas Aufwand entfernen, aber wir haben uns nicht darum gekümmert. Daher haben wir nie herausgefunden, welcher Speicher auf der Karte verbaut ist.

Das zweite, wofür wir PowerColor nicht loben können, ist, dass der Kühler so konstruiert ist, dass er Luft auf die Leiterplatte leiten und so deren Temperatur senken kann. Die Platte verhindert jedoch teilweise diesen Luftstrom. Das soll nicht heißen, dass sie völlig im Weg ist. Aber irgendwelche Heizkörper im Speicher wären viel bessere Option. Oder Sie sollten zumindest keine thermische Schnittstelle verwenden, da sich die Platte danach nicht mehr entfernen lässt.

Es gab einige Probleme mit dem Kühler selbst. Ja, natürlich ist der ZeroTherm GX810 ein guter Kühler. Seine Effizienz liegt auf einem hervorragenden Niveau. Dies ist vor allem auf die Vollkupferschale als Heizkörper mit langer Länge zurückzuführen Kupferrohr, alle Platten durchdringend. Das Problem ist aber, dass die Platine einen 2-Pin-Anschluss hat. Dadurch arbeitet der Kühler immer in einem Modus, nämlich Maximum. Sobald Sie den Computer einschalten, läuft der Kühlerlüfter mit maximaler Geschwindigkeit und erzeugt sehr starke Geräusche. Damit könnte man noch leben, wenn man es ausschließlich auf 3D anwenden würde, schließlich kannten wir die lauteren Radeon X1800 und

Die einzig gute Nachricht ist, dass dieses Problem gelöst werden kann. Schließlich können Sie einen Geschwindigkeitsregler verwenden. Wir haben zum Beispiel genau das gemacht. Bei minimalen Geschwindigkeiten ist der Kühler zwar leise, die Effizienz nimmt jedoch sofort stark ab. Es gibt noch eine andere Möglichkeit: die Kühlung ändern. Das haben wir auch versucht. Dazu haben wir den gleichen Thermaltake DuOrb genommen und festgestellt, dass die Installation nicht möglich war.

Einerseits sind die Befestigungslöcher passend, allerdings stören große Kondensatoren auf der Platine die Befestigung. Daher schließen wir unsere Inspektion des Boards mit einer eher negativen Note ab. Kommen wir zum Verhalten einer Grafikkarte, wenn sie in einem Computer installiert ist.

Die Kernfrequenz beträgt 775 MHz, was der Referenz entspricht. Allerdings ist die Speicherfrequenz deutlich niedriger als der herkömmliche Wert – nur 1800 MHz. Dies sollte jedoch nicht besonders überraschend sein. Wir haben es mit DDR3 zu tun. Das ist also ein völlig ausreichender Indikator. Bedenken Sie außerdem, dass DDR4 deutlich höhere Latenzen aufweist. Somit wird die endgültige Leistung ungefähr gleich sein. Der Unterschied wird nur bei bandbreitenintensiven Anwendungen sichtbar.

Ich möchte Sie übrigens darauf aufmerksam machen, dass das Board über das BIOS 10.065 verfügt. Das ist genug alte Firmware und es enthält wahrscheinlich einen PLL-VCO-Fehler. Daher können Sie Ihre Karte nicht über 862 MHz übertakten. Die Lösung ist jedoch recht einfach. Aktualisieren Sie dazu einfach das BIOS.

Riva Tuner zeigte problemlos alle notwendigen Informationen zu Frequenzen und Temperaturen an.

Unter Last beträgt die Temperatur 55 °C, d. h. die Karte erwärmt sich kaum. Die einzige Frage, die sich stellt, ist: Wenn es einen solchen Wirkungsgradspielraum gibt, warum sollte dann ausschließlich die maximale Geschwindigkeit für den Kühler verwendet werden?

Nun zum Übertakten. Generell ist es kein Geheimnis, dass die Frequenzreserve des RV670 recht gering ist, in unserem Beispiel fiel sie jedoch erschreckend gering aus. Wir haben es geschafft, die Frequenz nur um 8 MHz zu erhöhen, also auf bis zu 783 MHz. Der Speicher zeigte herausragendere Ergebnisse – 2160 MHz. Daraus können wir schließen, dass die Karte höchstwahrscheinlich Speicher mit einer Zugriffszeit von 1,0 ns verwendet.

Forschung zur Grafikkartenleistung

Nachfolgend finden Sie die Liste der Testteilnehmer:

  • GeForce 8800 GTS 512 MB (650/1625/1940);
  • GeForce 8800 GTS 640 MB (513/1180/1600);
  • Radeon HD 3870 DDR3 512 MB (775/1800);
  • Radeon HD 3850 512 MB (670/1650).

Prüfstand

Um das Leistungsniveau der oben besprochenen Grafikkarten herauszufinden, haben wir gesammelt Testsystem die folgende Konfiguration:

  • Prozessor – Core 2 Duo E6550 (333–7, L2=4096 KB) bei (456–7 = 3192 MHz);
  • Kühlsystem - Xigmatek HDT-S1283;
  • Wärmeschnittstelle – Arctic Cooling MX-2;
  • RAM – Corsair TWIN2v6400С4-2048;
  • Motherboard - Asus P5B Deluxe (Bios 1206);
  • Netzteil - Silverstone DA850 (850 W);
  • Festplatte – Serial-ATA Western Digital 500 GB, 7200 U/min;
  • Betriebssystem - Windows XP Service Pack 2;
  • Videotreiber - Forceware 169.21 für NVIDIA-Grafikkarten, Katalysator 8.3 für AMD-Boards;
  • Monitor - Benq FP91GP.

Verwendete Treiber

Der ATI Catalyst-Treiber wurde wie folgt konfiguriert:

  • Katalysator-KI: Standard;
  • MipMap-Detaillierungsgrad: Hohe Qualität;
  • Auf vertikale Aktualisierung warten: Immer aus;
  • Adaptives Antialiasing: Aus;
  • Zeitliches Antialiasing: Aus;

Der ForceWare-Treiber wiederum wurde mit folgenden Einstellungen verwendet:

  • Texturfilterung: Hohe Qualität;
  • Anisotrope Probenoptimierung: Aus;
  • Trilineare Optimierung: Aus;
  • Thread-Optimierung: Ein;
  • Gammakorrigiertes Antialiasing: Ein;
  • Transparenz-Antialiasing: Aus;
  • Vertikale Synchronisierung: Ausschalten;
  • Andere Einstellungen: Standard.

Verwendete Testpakete:

  • Doom, Build 1.1— Testen im BenchemAll-Dienstprogramm. Zum Testen auf einer der Spielstufen haben wir eine Demo aufgenommen;
  • Prey, Build 1.3— Tests über HOC Benchmark, HWzone-Demo. Boost-Grafik ausgeschaltet. Bildqualität Höchste. Führen Sie die Demo zweimal aus;
  • F.E.A.R., Build 1.0.8— Testen über integrierten Benchmark. Weiche Schatten ausgeschaltet;
  • Need For Speed ​​Carbon, Build 1.4— maximale Qualitätseinstellungen. Bewegungsunschärfe deaktiviert. Die Tests erfolgten über Fraps;
  • TimeShift, Build 1.2— Die Detaillierung wurde in zwei Versionen erhöht: High Detail und Very High Detail. Die Tests erfolgten über Fraps;
  • Unreal Tournament 3, Build 1.2— maximale Qualitätseinstellungen. Durchführung einer Demo auf VCTF-Suspense-Niveau;
  • World In Conflict, Build 1.007— Es wurden zwei Einstellungen verwendet: Mittel und Hoch. Im zweiten Fall wurden Qualitätsfilter (anisotrope Filterung und Anti-Aliasing) deaktiviert. Die Tests wurden mit dem integrierten Benchmark durchgeführt;
  • Crysis-Build 1.2— Tests im mittleren und hohen Modus. Der Test erfolgte über Fraps.

* Nach dem Namen des Spiels wird der Build angegeben, also die Version des Spiels. Wir versuchen im Test größtmögliche Objektivität zu erreichen, daher verwenden wir nur Spiele mit den neuesten Patches.

Testergebnisse



 


Lesen:



Minitest für technisches Denken

Minitest für technisches Denken

Umfassende Diagnostik der allgemeinen Fähigkeiten von Jugendlichen im Kontext der Fachpädagogik TEIL III 3. Diagnostik der kognitiven Sphäre 3.3. Prüfen...

Geben Sie kostenlos eine Anzeige für den Verkauf einer Wohnung, eines Hauses und einer anderen Immobilie auf. Geben Sie eine Anzeige für den schnellen Verkauf eines Hauses auf

Geben Sie kostenlos eine Anzeige für den Verkauf einer Wohnung, eines Hauses und einer anderen Immobilie auf. Geben Sie eine Anzeige für den schnellen Verkauf eines Hauses auf

Der Verkauf eines Hauses ist ein komplexer Prozess, der die Berücksichtigung einer Reihe von Nuancen erfordert. Um den Prozess zu beschleunigen, raten Experten dazu, sich an Profis zu wenden. Jedoch...

Geld verdienen mit dem Lesen von Briefen. Lesen von Briefen, aber Belohnungen dafür

Geld verdienen mit dem Lesen von Briefen. Lesen von Briefen, aber Belohnungen dafür

Der einfachste Weg, im Internet Geld zu verdienen, wo Sie mit der Arbeit beginnen können, besteht darin, Geld zu verdienen, indem Sie Werbebriefe lesen, die Ihnen von Werbetreibenden zugesandt werden ...

Material zum Thema: Konzertprogramm „Von ganzem Herzen“ TV-Show von ganzem Herzen alle Folgen

Material zum Thema: Konzertprogramm

Im Allgemeinen erzählte die Sendung von den unvorhersehbaren und komplexen Schicksalen des sowjetischen Volkes. Die meisten Zuschauer konnten ihre Tränen nicht zurückhalten, als...

Feed-Bild RSS