Die Geschichte der - sascha.homepage.t-online.desascha.homepage.t-online.de/1/Computer/Einleitung zu...

19
Die Geschichte der Projekt von Sascha Noack IT 05/01 Datum 06.06.05

Transcript of Die Geschichte der - sascha.homepage.t-online.desascha.homepage.t-online.de/1/Computer/Einleitung zu...

Die Geschichte der

Projekt von Sascha Noack IT 05/01

Datum 06.06.05

2

Inhaltsverzeichnis

1. Inhaltsverzeichnis………………………………………………………………….. 2. Der Anfang………………………………………………………………………….. 3. Die Farbanzahl steigt……………………………………………………………….

a. Weiterentwicklung………………………………………………………….. 4. Richtig bunt………………………………………………………………………….

a. Weiterentwicklung………………………………………………………….. 5. Erste Revolution……………………………………………………………………. 6. Neues Zeitalter………………………………………………………………………

a. Zeitleiste der Grafikstandards…………………………………………….. b. Erläuterungen……………………………………………………………….

7. 3 Dimensional………………………………………………………………………. a. Einer bleibt hartnäckig……………………………………………………... b. Die zweite Generation………………………………………………………

8. Ein neuer Stand…………………………………………………………………….. a. GeForce 256………………………………………………………………… b. Kyro 2…………………………………………………………………………

9. nVidia Neubeginn…………………………………………………………………... a. Schattendasein……………………………………………………………...

10. Der heiße Krieg beginnt…………………………………………………………… 11. Neue Chips kommen………………………………………………………………. 12. Die wichtigsten Meilensteine……………………………………………………… 13. Wo werden wir ankommen……………………………………………………….. 14. Quellenverzeichnis…………………………………………………………………

2 3 4 4 5 5 6 7 7 7 8 8 9 10 10 11 12 12

3

Der Anfang

Die Frühzeit der Grafikkarten begann etwa vor 20Jahren, ist also noch gar nicht so lange her, angesichts der technischen Weiterentwicklung heutzutage.Hercules als erster Grafikkartenhersteller versuchte früher, die Alten Monochrome Grafikkarten der PCs zu verbessern.

Monochrome Grafikkate

Diese konnten nämlich nur Text, also den ASCII-Zeichsatz, nach dem MDA(Monochrome Display Adapter)Standard von IBM darstellen.

Hercules entwickelte darauf hin den ersten Grafikstandard HGC, der neben dem Textmodus noch einen Grafikmodus von 720x348 Pixel beherrschte.Beschränkt war dieser aber weiterhin auf 2 Farben, welche aus Schwarz, je nach Monitor grün, Bernstein oder bei den ganz edlen Modellen papierweiß.

Da der HGC Standard somit auch den MDA Standard beinhaltet, ist der MDA Standard vom Markt verdrängt worden.Aber dieser Standard wurde schnell wieder vergessen, als die nächste Generation aufkam.

4

Die Farbenanzahl steigt(CGA)

CGA steht für (Color Grafik Adapter).Die Karte beherrschte einen 4 Farben Modus mit 320x200 Pixel oder einen 2 Farben Modus bei 640x350 Pixel.

Einige CGA Karten konnten den Hercules Monochrome Modus ebenfalls noch darstellen.Die Karten konnten auch einen 160x100 Modus mit 16 Farben darstellen, davon wurde aber jedoch so gut wie nie gebrauch gemacht.Die Auflösung war dafür zu niedrig und viele Monitore zu der Zeit hatten Probleme das darzustellen.

Weiterentwicklung(EGA)

EGA(Enhanced Grafik Adapter) konnte immerhin schon volle 16 Farben darstellen, bei 320x200 oder auch bei 640x350 Pixel.Die Karte war voll abwärtskompatibel zum CGA Standard.Auf der EGA Karte wurde auch erst mal ein eigenes Grafikkarten-Bios eingesetzt.Die Vorgänger bis dahin wurden noch vom PC-Bios gesteuert.

Die Übertragung der Farben erfolgte im Format R-G-B+Intensity. Durch Aus- und Einschalten der Farben Rot, Grün und Blau konnten 2^3 = 8 Farben kombiniert werden. Diese konnten noch per Intensity auf Hell geschaltet werden, wodurch sich 16 Farben ergaben.

Bislang übertrugen alle Karten die Bilder im Übrigen rein digital. Der Anschluss war dabei ein 9-poliger Sub-D Stecker.

5

Richtig Bunt (VGA und MCGA)

Die VGA(Video Grafik Adapter) und die Konkurrenz dazu MCGA(Multicolor Grafik Adapter).Mit den beiden Grafikkarten war es jetzt möglich,256 Farben gleichzeitig dazustellen.Das gelang aber nur in 320x200 Pixel,in 640x480 Pixel waren weiterhin nur 16 Farben möglich.Bei MCGA Karten sogar nur zwei Farben.Schuld war damals die Monitortechnik.Früher wurden alle Monitore digital von der Grafikkarte angesteuert,es gelang aber nicht, ein Protokoll zu entwickeln,welches auch die hohe Auflösung und auch die hohe Farbtiefen übertragen kann.Die Konsequenz daraus,die nächste Generation von Monitoren wurden nur noch Analog angesteuert.

Weiterentwicklung(S-VGA)

Die Super-VGA Karten sind erweiterte VGA Karten.Sie konnten 256 Farben auch in 640x480 Pixel darstellen und die maximale Auflösung betrug jetzt 800x600 Pixel wobei wieder nur 16 Farben möglich waren, begrenzt durch die damals üblichen 256 Kbyte Grafikspeicher.

6

Erste Revolution (X-VGA) Die erste Revolution begann mit der X-VGA(XGA).Erst wurden 512 Kbyte Ram oder mehr auf den Karten verbaut,

Wo durch sich Auflösung von 1024x786 Pixel bei 256 Farben und bei den kleineren Auflösungen Farbtiefen von bis zu 24 Bit(16 Mio. Farben) ermöglicht.Die berühmteste Grafikkarten zu der Zeit war die Tseng ET 4000 die zum Schluss sogar mit 2 MB Grafikspeicher zu haben war.

Tseng ET 4000

7

Neues Zeitalter(VBE Standardisierung)

Da der Grafikkartenmarkt mit den etlichen Standards sehr unübersichtlich geworden ist, wurde von VSEA, dem Standardisierungskomitee die VBE(Vesa Bios Extensions) festgelegt.Das war dann zwar langsamer als der Direktzugriff auf den Grafikchip, aber die Programmierer konnten ihre Programme so schreiben, dass sie auf allen Grafikkarten lauffähig waren.

Zeitleiste der Grafikstandards

Jahr Model Auflösung Farben Typ Frequenz

1981 MDA (Mono Display Adapter) 720x350 2 TTL 50 Hz

1981 CGA (Color Grafik Adapter) 160x200 4 TTL 60 Hz

1981 RGBI (Red Green Blue Intensity) 640x200 4 TTL 60 Hz

1982 HGC (Hercules Display Adapter) 720x348 2 TTL 50 Hz

1984 PGA (Professional Grafik Array) 640x480 Analog

1984 EGA (Enhanced Grafik Adapter) 640x350 16 TTL 60 Hz

1987 8514 (Video Standards für PCs) 1024x768 256 Analog 43,5Hz

1987 MCG (MultiColor Grafik Array) 720x400 256 Analog 60 Hz

1987 VGA (Video Grafik Array) 320x200 256 Analog 70 Hz

1988 VGA (Video Grafik Array) 1600x1200 DDC 85 Hz

1990 XGA (Extended Grafik Array 1024x768 16 DDC 70 Hz

1990 SVGA (Super Video Grafik Array) 1600x1200 256 Analog 60 Hz

1991 EVGA (Extended VGA) 1024x768 256 Analog 70 Hz

Erläuterungen

TTL (Transistor-Transtor-Logic) Bezeichnet eine Technologie, bei der die Farben digital auf dem Bildschirm angesteuert werden.Hiermit können die einzelnen Farben Rot, Grün und Blau nur ein oder ausgeschaltet werden.Auf diese Art und Weise sind maximal 64 Farben darstellbar. DDC (Display Data Channel) Bei diesen Standard gleichen Grafikkarten und Monitore ihre Eigenschaften aufeinander ab.Die Grafikkarte kann sich durch die erhaltenden Identifikationsdaten an die Auflösung, Bildwiederholrate etc.die unterstützt werden, anpassen. Analog Bei diesem Videosignal wird eine theoretische unbegrenzte Zahl von Farben möglich, weil die Intensität jeder Grundfarbe stufenlos verändert werden kann.

8

3Dimensional NVidia versuchte sich mit dem NV1 und landete damit erstmal einen totalen Flopp, weil sie im Gegensatz zu allen anderen Versuchen, und vor allem im Gegensatz zu Microsofts Direkt X keine Dreiecke als geometrisches Grundgerüst verwandte. S3 hatte damals mit seiner Virge Reihe zwar großen Erfolg, aber 3D war das, was diese Karten zeigten, bei weitem nicht. Auch Matrox und ATI konnten mit ihren 3D-Funktionen nicht gerade brillieren.

Das war die große Stunde von 3Dfx, die mit ihrem VooDoo-Chip alles damals Mögliche in den Schatten stellten. Der große Vorteil war, dass man die VooDoo-Karte parallel zur bisherigen Karte einsetzen konnte, und so die u.U. gerade erst getätigte Investition nicht schon wieder verloren war.

Ein weiteres geniales Feature der VooDoo (und später auch der VooDoo2) war die sogenannte SLI Fähigkeit, die es möglich machte 2 Karten miteinander zu verbinden welche sich die Rechenleistung teilen sollten. Leider war diese Technik zu Zeiten der Voodoo Graphics noch auf kaum einem Board vorhanden und nur Quantum 3D brachte eine einzelne PCI-Karte heraus, auf der bereits zwei parallele Voodoo-Graphics Einheiten mit ihren jeweils zwei Chips arbeiteten, leider kostete dieses Monster weit über 1000 DM.

Einer bleibt aber hartnäckig Während sich alle Chiphersteller gegenüber 3Dfx geschlagen gaben und eigentlich nichts revolutionäres auf den Markt brachten, gab sich nVidia nicht mit der Niederlage zufrieden und präsentierte die Riva128 welche auch gleich wie ein Hammer einschlug.

Es war die erste kombinierte 2D/3D Karte die leistungsmäßig einer VooDoo ebenbürtig war und zusätzlich TV in/out bot. Ein Feature was damals nur auf ATi-Karten zu haben war, welche aber nur eingeschränkt 3D fähig waren. Darüber hinaus, war sie die erste Grafikkarte am Markt, welche mit einem 128Bit Grafikprozessor daher kam. Das ließ sich 3Dfx nicht lange bieten und schob schon kurze Zeit später die VooDoo2 auf den Markt um sich die Krone wiederzuholen. Technisch hatte sich gegenüber der Voodoo Graphics nichts getan, die Multitexturing-Fähigkeiten verdankte man einem zusätzlichen Texturierungs-Chip, so dass nun drei Chips auf einer Voodoo2-Karte ihre Arbeit verrichteten.

9

Die zweite Generation

Damit war der große Kampf, nVidia vs. 3Dfx, eingeläutet und das Rennen nahm seinen Lauf. nVidia konterte mit dem TNT-Chip, welcher, je nach Anwendung, zwar nicht immer ganz so schnell wie die VooDoo2 war, aber mit seinen 32Bit Farbtiefe alles bisherige an Grafikqualität in den Schatten stellte.

Auch Matrox kam in der Zwischenzeit mit einem 3D-Chip, dem G200, auf den Markt, der den Namen auch wirklich verdiente. Denn im Gegensatz zu den alten MGA-2164 Chips auf der Mystique und Millenium, gab es hier ein wirklich vollständiges Featureset an 3D-Effekten, inklusive 32Bit Rendering. Ein erst nach Erscheinen des Nachfolgers G400 verfügbarer OpenGL ICD, wichtig für die Dauerbrenner basierend auf der Quake2/3-Engine, verhinderte leider größeren Erfolg im Massenmarkt.

Auch S3, die nach ihrem Virge-Debakel schon von vielen abgeschrieben worden waren, kamen mit dem Savage3D zurück in dem Markt. Leider krankte er an mangelnder Akzeptanz der Boardhersteller, auch aufgrund anfänglich schwacher Treiber. Zwei Highlights sollen aber nicht unerwähnt bleiben: Mit diesem Chip hielt Texturen(de)Kompression in Echtzeit Einzug im Bereich der Consumerkarten, und Ati erhielt endlich Konkurrenz im Bereich des DVD-Playbacks, da dieser Chip nun auch iDCT unterstützte. Damals war das aufgrund der Leistung aktueller CPUs noch wesentlich wichtiger als heute.

10

Ein neuer Standard (TnL oder nicht TnL)

Gleichzeitig wurde ein neuer Bus für Grafikkarten geschaffen - AGP (Accelerated Graphics Port). Während der TNT sämtliche AGP-Features von Anfang an beherrschte, schaffte es 3Dfx weder mit der VooDoo Banshee (VooDoo2 mit 2D-Einheit) noch mit der VooDoo3 die Features von AGP (Texturen in den RAM auslagern, 2xAGP usw.) zu nutzen. Darüber hinaus hielt 3Dfx selbst nach erscheinen des TNT2 immer noch an 16Bit-Rendering fest, was wohl oder übel auf lange Sicht das Aus für 3dfx bedeutete.

nVidia GeForce256 Als nächstes schickte sich nVidia mit dem GeForce256 im Herbst 1999 an, die Alleinherrschaft über den Grafikmarkt zu übernehmen. Die GeForce256 war zwar anfangs teilweise sogar langsamer als die TNT2-Ultra aus eigener Produktion, aber ein ausgeklügeltes Marketing überzeugte die mittlerweile 3D-besessenen Spieler von der Notwendigkeit des Hardware T&L, welches die CPU von Transformations- und Lichtberechnugen entlasten sollte. Außerdem zog die Zahl 256, welche auf einen 256Bit Grafikprozessor hinwies, viele Spieler in ihren Bann.

Schnell wurde die GeForce256, welche später sogar mit DDR-RAM ausgeliefert wurde, zum neuen Standard im Grafikmarkt. Der Konter von 3dfx mit der Voodoo 4 und 5, welche technologisch trotz inzwischen eingeführtem 32Bit Rendering nicht mehr up-to-date waren, da sie mit einem halben Jahr Verzögerung fertig gestellt wurden, verklang in der Euphorie, die durch die GeForce hervorgerufen wurde, zumal sie sich zum Zeitpunkt ihrer Markteinführung bereits mit der GeForce2GTS herumschlagen mussten.

11

Wenig später entwickelte nVidia die GeForce2 welche über einen höheren Takt, einen Texelshader und bis zu 64MB Speicher verfügte. Nebenbei besann sich nVidia auf "alte Tugenden" und produzierte unterschiedlichste Versionen der GeForce2 welche sich in Preis und Leistung deutlich von einander unterschieden.

Der Kampf zwischen 3dfx und nVidia war zu der Zeit von vielen Lizenzrechtsverfahren, Patentverletzungen und Spekulationen gezeichnet. Mal war nVidia in der Zwickmühle, mal hatte 3dfx den schwarzen Peter. Die ganze Sache hatte erst ein Ende, als nVidia quasi über Nacht 3dfx aufgekauft und sämtliche Patente in seiner Hand hatte. Von ATI und Matrox, den einzigen übrig gebliebenen Herstellern, kam nicht viel Neues. ATI konzentrierte sich auf den schnell wachsenden Videomarkt und brillierte mit Darstellungsqualität und Funktionsvielfalt. Matrox hatte zwar mit der G400, wie schon erwähnt, kurzzeitig die schnellste Grafikkarte der Welt, verlor aber den Anschluss an nVidia, weil man in der nicht börsennotierten Firma den rasend schnellen Produktzyklus von 6 Monaten nicht mitmachte und sich auf den Officebereich beschränkte.

Kyro2

Die Kyro2 war ein Schlag ins Gesicht von nVidia. Hat man PowerVR bisher nur müde belächelt, musste nVidia doch plötzlich einsehen, das es mit einem intelligenten Rederingverfahren möglich ist, eine 25MHz höher getaktete GeForce2GTS im Regen stehen zu lassen.

Überdies sah man sich bei nVidia offenbar zu einem sehr unglücklich formulierten internen Schriftstück veranlasst, welches dummerweise seinen Weg ins Netz fand. In diesem Text wurde der KyroII als „TNT2-class“ Produkt bezeichnet, was PowerVR und die Fangemeinde als regelrechte Denunzierung empfanden. Der Effekt war, dass PowerVR durch intensive Aufklärung durch diverse Internetseiten, jede Menge Sympathiepunkte ergatterte und zu einem ernstzunehmenden Gegner für nVidia avancierte, zumal die Kyro2 nur knapp die Hälfte einer GeForce2 GTS kostete.

12

nVidia Neubeginn nVidia konterte wiedermal mit einer neuen Grafikkarte. Die GeForce3 betrat den Markt und kam mit dem hohen Preis von 1000DM (ca. 510€) in die Läden. Die Leistung der GeForce3 war anfangs noch nicht so grandios, da DirectX-8 Spiele nicht verfügbar waren und auch die Treiber die neuen Features abseits der Shader nur unzulänglich unterstützten. Nur in hohen Auflösungen und in 32Bit Farbtiefe konnte man sich von der GeForce2ultra deutlich absetzen. Trotzdem versprachen Vertex- und Pixelshader gigantische Leistungsschübe, welche hauptsächlich durch den extrem TnL-lastigen 3DMark 2001 dokumentiert wurden. nVidia selbst sprach von einer bis zu 7x höheren Leistung gegenüber der GeForce2, die sich freilich nur in sehr konstruiert wirkenden Szenarien nachstellen lässt. Das Versprechen revolutionierter Grafik blieb man uns bis heute schuldig, da entsprechend angepasste Spiele noch fast überhaupt nicht verfügbar sind.

Schattendasein Aus dem Schattendasein trat nun auch ATI wieder ins Rampenlicht und präsentierte mit der Radeon8500 einen würdigen Gegner der GeForce3, nachdem der ein Jahr zuvor vorgestellte? GeForce2-Killer? Nicht den hohen Lobpreisungen gerecht werden konnte, die er auch aufgrund höherer Taktung vorab erhalten hatte. Auch das leidige Treiberproblem war hier wiederum ein Thema.

Nicht nur, das die Radeon in vielen Bereichen schneller als die GeForce3 war, auch bei der Bildqualität und den gebotenen Features konnte ATI voll überzeugen. Ebenso wie die GeForce3 verfügte die Radeon8500 über eine programmierbare T&L-Unit (Pixel- und Vertexshader). Der GeForce3 voraus hatte die Radeon8500 zwei interessante Funktionen. SmoothVision, eine qualitativ höherwertige, dafür langsamere Anti Aliasing Variante (die aber leider anfangs nicht verfügbar war und auch heute noch nicht fehlerfrei zu sein scheint) und Truform, welches polygonarme Modelle in 3D-Spielen ohne großen Aufwand abrunden soll, dazu allerdings einen Patch der Programmierer benötigt.

Kern 256 Bit

Speicherinterface 128 Bit DDR

Chip-Takt / RAM-

Takt

250 MHz / 550 MHz

(DDR)

Speicherbestückung 64 Megabyte und 128

MByte

Kompatibel DirectX8.1 , OpenGL

1.3

AGP-Speed 4x

Besonderheiten

6xAA, Smoothvision

(4xFSAA),

Smartshader, Truform.

13

Der heiße Krieg beginnt

Noch einmal sollte es heiß hergehen. Während ATI fleißig am Radeon8500-Nachfolger werkelte, warf NVidia die Geforce4 auf den Markt. Im Februar 2002 erschien die NVidia Geforce4. Sie war an sich eine getunte Geforce3. Die Fehler des Vorgängers wurden behoben (so das Problem mit der Bildqualität) und die Leistung merklich verbessert.

Geforce4/Ti/4200/4600/4800

Die Geforce4 erschien in 4 Versionen, wobei sich diese nur im Takt unterschieden.

MX Ti4200 Ti4400 Ti4600

Chip-

/Speichertakt 250-300 MHz / 166-275 MHz

250 MHz /

257 MHz

275 MHz / 275

MHz

300 MHz / 325

MHz

Besonderheit Schlechtere Performance als

Geforce2GTS

Die Geforce4 MX (alle Varianten) war so stark in ihren Features beschnitten, dass ihre Performance gerade mal an eine Geforce2GTS heranreichte. Lediglich die später erschienenen Varianten 440 und 460 waren einigermassen brauchbar.

Kern 128 Bit

Speicherinterface 128 Bit DDR

Chip-Takt / RAM-

Takt

250-300 MHz / 500-650

MHz

Speicherbestückung 64 Megabyte und 128

MByte

Kompatibel DirectX8.1 , OpenGL

AGP-Speed 4x später 8x

Besonderheiten

siehe Geforce3;

Annähernd 3x so viele

Vertexes wie beim

Vorgänger möglich;

LMA2

14

Ende des Jahres dann erschien die ATI Radeon9700, welche das Feld abermals aufmischte und die Performance, wer hätte es gedacht, der Geforce4 zu überflügeln wusste.

Vorteile des neuen Modells - brachiale Erweiterung des Vorhandenen. 256Bit Speicherinterface, 8 Pixelpipelines, 4 Vertexshader Version 2.0 - beeindruckend! Die Performance war wie erwartet hoch und die Karte ein Traum auf dem Gabentische Weihnachten 2002. Die Anzahl der Transistoren hat sich fast verdoppelt.

Radeon9500/9700/Pro

Auch die Radeon9700 gab es in verschiedenen Varianten.

9500 9500 Pro 9700 9700 Pro

Chip- /

Speichertakt 275 MHz/ 540 MHz

275 MHz / 540

MHz

275 MHz/ 540

MHz

325 MHz / 620

MHz

Besonderheit Nur 128-Bit

Speicherinterface

Vor der Radeon9500 muss man schon fast warnen. Sie ist derart beschnitten worden, dass sie von der Leistung zu stark abfällt.

NVidia kündigte das Topmodell als Karte "für echte Kinoeffekte" an. CineFX nannten sie das ganze. Es beinhaltet ein Bundle aus DirectX9-Effekten, welche, sollten sie jemals genutzt werden, erhebliche optische Reize ins Spiel bringen. Kern ist wie erwähnt der Vertex-Shader, welcher nun mit bis zu 1024 Befehlen daher kommt und die Möglichkeit mehrere Texturen in einem Durchgang zu berechnen.

Alles schön und gut, aber das benutzt bisher noch niemand. Ergebnis ist, dass der GeforceFX5800 gnadenlos durch jeden Benchmark fiel und gegen die Radeon9700Pro, trotz weit besserer Technik, nur selten punkten konnte.Als absolute Fehlentscheidung dürfte das DDR-II-Speicherinterface gelten, welches den Einsatz von teurem, aber nicht zwangsläufig besserem DDR-II-RAM erfordert.

Kern 256 Bit

Speicherinterface 256 Bit DDR

Chip-Takt / RAM-

Takt

275 - 325 MHz / 540-

620 MHz

Speicherbestückung 64 Megabyte und 128

MByte

Kompatibel DirectX8.1 , OpenGL

AGP-Speed 4x , 8x

Besonderheiten

4x Vertexshader;

Speicherinterface;

HyperZ-III; Erfüllt

bereits OpenGL1.4-

Specs

15

Der GeforceFX5900, nun wieder mit DDR-I, leicht gesenktem Chiptakt aber internen "Optimierungen", welche dazu führen sollen, dass dieser Chip attraktiver wurde. Die Kühlung ist etwas kleiner, aber verbraucht meist immer noch 2 Slots.

GeforceFX5200-5900/Ultra

Natürlich gibt es auch hier verschiedene Varianten.

5200 5200

Ultra 5600

5600

Ultra 5800

5800

Ultra 5900

5900

Ultra

Chip- /

Speichertakt

250 MHz /

400 MHz

325

MHz/

650

350

MHz /

550

MHz

375

MHz /

700

MHz

400

MHz/

800

MHz

500

MHz /

1000

MHz

400

MHz /

425

MHz

450

MHz /

450

MHz

Besonderheit schlechte

Performance DDR-II DDR-II DDR-I DDR-I

Da es Kritik gab: Ja, die XT-Varianten fehlen, und die 5700er fehlt auch. Damit kommen wir dann auf ein knappes Dutzend Varianten desselben Chips.Spätestens zu diesem Zeitpunkt nahm der Grafikkartenmarkt in seiner Vielfalt unüberschaubare Ausmaße an.

Aber auch ATI hat nicht geschlafen, denn unlängst ist die Radeon9800 und deren höhergetaktetes Brüderchen Radeon9800Pro und XT erschienen.Seit der Radeon9700 hat sich allerdings technisch nichts geändert. Die Featureliste ist, bis auf Shader2.0b gleich geblieben. Seinen Platz in der Grafikkartengeschichte hat sich die Radeon9800 vielleicht gesichert, Urvater und Kultobjekt wird jedoch die 9700 bleiben.

NVidia wiederum hat mit der GeforceFX5950 im Highend- und mit der GefroceFX5700 im niedrigeren Preissegment aufgewärmt. Auch hier keine weitere Tabelle, da sich nur Chiptakt und Speichertakt erhöht haben. Doch auch diese Karten haben das Shader-Performance-Problem noch nicht behoben, weshalb noch 2004 die Geforce6x-Karten erschienen.

Kern 256 Bit

Speicherinterface 128 Bit DDR-II

Chip-Takt / RAM-

Takt

250 -500 MHz / 400

MHz (DDR-I) bis 1 GHz

(DDR-II)

Speicherbestückung 128 bis 256 MByte

Kompatibel DirectX9 , OpenGL

AGP-Speed 4x , 8x

Besonderheiten

4 Pixelpipelines mit 8

Pixeln pro Takt;

CineFX; DDR-II-

Interface; Mitgelieferter

Haartrockner

16

Diese brachten einiges altes in neuem Gewand, so wurde das SLI-System neu belebt. Zwei Karten in einem System, was neben Höchstleistung auch Höchstromverbrauch bedeutet.

Geforce6800/GT/ULTRA

Und einige Varianten:

6200 6600/GT 6800/GT 6800Ultra

Chip- / Speichertakt ? / ? 300 & 500 MHz /

bis 500 MHz

325 & 350 MHz / 350

MHz bis 500MHz

400 MHz / 550

MHz

Pixel-Pipelines/Geometrie-

Pipelines 8/3 8/3 16/6 16/6

Varianten sind sowieso eine tolle Sache, denn zu dem oben geführten Sortiment gesellen sich noch die weiter abgespeckten LE-Karte und die neuen TC (TurboCache) Karten, welche weniger Speicher aufweisen, dafür aber schneller auf den Hauptspeicher zugreifen um schnelleres Auslagern möglich zu machen und den Peformance-Einbruch zu lindern.Doch wer nun denkt, die von NVidia spinnen, der darf sich über ATI freuen. Die haben derzeit den X800 und seinen Refresh-Chip X850 im Angebot. Die Technischen Daten sind der NVidia-Generation nicht unähnlich.Sepcs der ATI X800/850

Die X800 gibt es in 7 verschiedenen Varianten, die X850 in weiteren 7.

Kern 256 Bit

Speicherinterface 256 Bit DDR-I/III

Chip-Takt / RAM-

Takt

250 -500 MHz /

700MHz (DDR-II) bis

1,1 GHz (DDR-III)

Speicherbestückung 128 bis 512 MByte

Kompatibel DirectX9 , OpenGL,

AGP-Speed 8x, PCIe

Besonderheiten

16 Pixelpipelines;

CineFX; DDR-II/III-

Interface; Shader3.0;

Kern 256 Bit

Speicherinterface 256 Bit DDR-II

Chip-Takt / RAM-

Takt

bis 520MHz / bis

1,12GHz (GDDR-III)

Speicherbestückung 128 bis 512 MByte

Kompatibel DirectX9 , OpenGL,

AGP-Speed 8x, PCIe

Besonderheiten

24 Pixelpipelines;

DDR-I-III-Interface;

Shader2.0.

17

Neue Chips kommen

Erweitern ist in! Shader3.0 sind Stand der Dinge, Shader4.0 werden wahrscheinlich nicht mehr Shader4.0 heißen und so weit Programmierbar sein, dass es danach keine weitere Version mehr geben muss. Bis 2006 erwarten uns aber hier keine Revolutionen und so setzen die Hersteller auf bewährtes: Mehr Takt, mehr Pipes mehr Speicherbandbreite.

NVidia NV48 - 2. Halbjahr 2005

ATi R520 - 2. Halbjahr 2005

Kern 256 Bit

Speicherinterface 128 Bit DDR-III

Chip-Takt / RAM-

Takt

250 -500 MHz / 400

MHz (DDR-I) bis 1

GHz (DDR-II)

Speicherbestückung 128 bis 256 MByte

Transistoren 300 Millionen

Kompatibel DirectX9 , OpenGL

Strukturbreite

(Micron) 0,11 oder 0,13

AGP-Speed 4x , 8x

Besonderheiten

CineFX; DDR-III-

Interface; Shader3.0,

WGF-kompatibel (?);

24 Pipelines

Kern 256 Bit

Speicherinterface 128 Bit DDR-III

Chip-Takt / RAM-

Takt

250 -500 MHz / 400

MHz (DDR-I) bis 1

GHz (DDR-II)

Speicherbestückung 128 bis 256 MByte

Transistoren 125 Millionen

Kompatibel DirectX9 , OpenGL

Strukturbreite

(Micron) 0,09

AGP-Speed 4x , 8x

Besonderheiten

CineFX; DDR-III-

Interface; Shader3.0,

WGF-kompatibel (?); 24

Pipelines; Shader3.0

18

Die wichtigsten Meilensteine in der Geschichte der Grafikkarte

1982 Hercules stellt HGC vor und kann damit erstmals Grafik auf dem PC darstellen.

1983 Der PC wird farbig mit CGA.

1985 Noch ein wenig mehr Farbe verspricht die EGA-Grafikkarte.

1988 Der PC wird richtig farbig, dank der VGA-Karte - ab sofort arbeiten die Karten mit

analogem Signal.

1989

Immer höhere Auflösungen und Farbanzahlen sind möglich. Endlich bringt das

VESA-Komitee mit den VBE BIOS-Erweiterungen einen Standard in den durch das

Wettrüsten entstandenen Wildwuchs.

1992 Der Bildaufbau wird durch Windows-Beschleuniger-Chips erstmals beschleunigt.

1993 Zwei neue Bus-Systeme, der VESA Local Bus und Intels PCI umgehen den ISA-

Flaschenhals und machen Grafikkarten plötzlich massiv schneller.

1995 nVidia stellt mit dem NV1 den ersten 3D-Beschleuniger vor.

1996 3dfx stellt mit dem Voodoo Graphics den ersten wirklich brauchbaren 3D-

Beschleuniger vor.

1997 Intel definiert den AGP-Bus und stellt somit noch mehr Bandbreite speziell für den

3D-Bereich zur Verfügung.

1999 nVidia bringt mit der GeForce die erste Grafikkarte mit Transform & Lighting

Engine im Consumer-Bereich.

2000 Videologic stellt mit dem KYRO die erste Karte mit problemlos funktionierenden

und leistungsfähigem Deferred/Tile-Based Rendering vor.

2001 ATI’s erste Radeon 7500

2002 GeForce 4 kommt auf dem Markt

2003 ATI stellt die 9800 und nVidia stellt die GeForce FX 5800 Serie auf dem Markt

2004

ATI stellt eine Serie von PCI-Express Grafikkarten vor.Dabei handelt es sich um die

bekannte X800(es wird hier für die PCI-Express Visionen keine extra Namen

geben)sowie Radeon 9600jeweils mit PCI-Express Steckplatz.

2005 Ende 2005 stellt nVidea seine NV48 vor.ATI bring zur gleichen Zeit seine R520

19

Wo werden wir ankommen?

Mittlerweile ist es Normalität, dass schwierige Aufgaben nicht mehr allein von der CPU, sondern auch von den eingesteckten Komponenten bewältigt werden. Bei 3D-Beschleunigern ist es die GPU, aber auch bei Sound ist dieser Trend da (Stichwort EAX und Aureal3D). Wahrscheinlich wird Grafik noch schöner und noch realistischer, wir sind noch lange nicht an der Grenze des Machbaren. Wenn es nach NVidia geht, werden wir alle demnächst eine Wasserkühlung haben, die Grafikkarten haben 500 Millionen Transistoren und produzieren ausreichend Abwärme um das mitgelieferte Fußheizkissen zu betreiben. Ein plumper Weg zu mehr Leistung führt über mehr Speicher und mehr Takt, mehr Bandbreite und mehr Effekte. Doch sind die Grafikchipschmieden bereits an einer magischen Grenze angekommen. Diese ist nicht technischer Natur, sondern betriebswirtschaftlicher.

PCIe wird den AGP endgültig ablösen. Mehr gibt es dazu nicht zu sagen. Zwar bringt PCIe auch auf lange sicht keine Vorteile gegenüber dem "alten" AGP, in der Tat reizen 3D-Karten bis heute den AGP8x-Modus nicht aus, doch setzen nun einfach alle Hersteller auf den neuen Slot und damit wird es auf kurz oder lang Eng für AGP. Bei einem neuen System würde ich nicht mehr auf AGP setzen!