Strana 1 z 2
Úvod
Trochu jsem přemýšlel, kdy tento článek uvést. Přeci jen vlastně GF8 je zcela jiná generace i technologie a nelze ji jako takovou srovnávat s oběma předcházejícími, o kterých tento veliký test je především a budu se na ně soustředit i zítra v kompletním testu. Přesto se asi sluší o GF8 říci pár slov ... Vzhledem k tomu, že GF8 teprve vlastně spíše přichází na trh, tak kompletní informace nemůžete očekávat. Proto bude tento článek postupem času revidován a budou přidávány další kapitoly.
Geforce 8 - 3D grafika na osmou
Jak už jsem předestřel v článku o GF6, Nvidia byla první na tahu s uvedením nové generace grafických karet. Na rozdíl od minulosti, kdy šlo vlastně jen o malé vývojové kroky ve smyslu práce grafických karet, tak generace GF8 a k ní konkurenční ATI Radeon HD200 jsou grafické řady založené na zcela nové generaci grafických čipů. Od vertex a pixel shader konstrukce jádra se přesouváme ke konstrukci unifikované architektury.
GF8 v podobě jádra G80 a nejvyššího modelu 8800GTX byla vydána v listopadu roku 2006. V té době už nVidia a její generace karet GF7 už vlastně vyklidily high end, kde výkonově nestačily na Radeon X1950XTX a v mainstreamu to bylo snad ještě horší. Nicméně GF7 přišla s půlročním předstihem před ATi Radeon X1000, takže měla nejvyšší čas a právo na vystřídání a to započalo právě v listopadu 2006. Podle plánu byla GF8 generací, která má sloužit jako základ pro generaci následující. Tedy proti generaci GF7 se mělo podle zažitých zvyklostí u Nvidie jednat o zcela novou architekturu. A to se také stalo ...
GF8 - technologie v kostce
Technologie, s kterou pracuje G80 je stále ještě novinka. Pojmy jako vertex a pixel shader, které existovaly v předchozí generaci grafických karet na unifikované G80 nenajdeme. Zcela vývojáři odpárali i „renderovací potrubí", ještě nedávno pevně vžité do křemíku v řadě Geforce7.
Osmitisícovky vytáhly do boje s takzvanými Stream procesory. Ty na G80 naleznete celkem v osmi seskupení, kdy je každá z jednotek tvořena šestnácti stream procesory, přičemž každému bloku jsou přiřazeny čtyři texturovací adresovací jednotky, osm jednotek texturových filtrů a samostatná L1 cache. Klíčovým prvkem Geforce8800 je proto oněch 128 stream procesorů, které jsou specializovány na operace s plovoucí čárkou a je jim jedno, jestli pracují jako vertex nebo pixel shadery. Podle potřeby se zkrátka přepnou a pracují se všemi daty. Přepínají se dynamicky a to je základ vysokého výkonu, ale také hlavní příčina neustále vysoké spotřeby. Na G80 je ještě jedna technologická zajímavost a to, že stream procesory pracují na zcela jiné frekvenci než zbytek čipu kmitají na neuvěřitelných 1,35 GHz(1,2GHz u GTS).
Stream procesory jsou přes šest ROP jednotek napojeny ke grafické paměti. Každá ROP dostala k dispozici vlastní 64-bitovou sběrnici. To nám po jednoduchém vynásobení dává doopravdy mohutnou 384bit(GTS 320bitu) paměťovou sběrnici. Ta ostatně byla velkým překvapením a mnoho lidí tomu divnému číslu nevěřila.
G80 disponuje 681miliony tranzistory, což proti G71, která měla pouze 278 milionu, vypadá neskutečně. GPU je vyrobené na 90 nanometrové technologii pro nVidii je vyrábí stará známá TSMC. Kvůli tomu se G80 stal největším mikročipem s největším množstvím tranzistorů, který kdy byl k vidění. Nvidia se nechce moc svěřovat kolik z jednoho plátu vyrobí jader G80, ale odhady mluví o 80ti kusech, přičemž je každé jádro možným nositelem defektu, protože je jedním slovem zkratka obrovské. Přesná velikost činí 480mm2 (a to proto, že RAMDAC zajištující l/O komunikaci je oddělen do samostatného čipu s rozlohou 50mm2). Dokud tedy nvidia nepřikročí na 65nm technologii budou jádra velice drahá.
To může být celkem potíž, protože zmenšit čip z 90nm na 65nm není jen tak. To bude vyžadovat zcela nový návrh, takže 65nm se dočkáme nejspíše až u některých slabších GF9. GF9 má totiž podle zažitých kolejí být jen vylepšením GF8 a tomu by přechod z 90nm na 65nm neodpovídal. První GF9 bude nejspíše 80nm. Právě velikost jader, malá výtěžnost, vysoká cena jednoho jádra a se zvoleným výrobním postupem i vysoká spotřeba a tepelné zahřívání jsou celkem velkým strašákem, zvláště když už víme, jak bude vypadat soudobý konkurent GF8. Radeon HD2900 bude disponovat jádrem R600, které má přibližně stejný počet tranzistorů, jenomže díky pokročilé výrobě 65nm bude mnohem menší, tedy z jednoho plátu jich ATI vyrobí více, což umožní nízkou cenu a sekundárně má nízký výrobní postup dobrý vliv i na spotřebu a teplotní vyzařování. Nicméně kvůli marketingovým odkladům spojených s převzetím ATI firmou AMD se vydání ATI HD2900 dočkáme až v květnu 2007, tedy půl roku po vydání GF8 a to už nVidia bude připravovat GF9 .
Technologii GF8 řady jsme se věnovali v tomto článku, časem to do tohoto článku doplníme, jelikož nVidia opět něco málo upravila v souvislosti s řadou 8600. Snad něco málo se sluší říci k velmi diskutovanému DX10.
DirectX 10
DX10 (DirectX) je zcela odlišný a není zpětně kompatibilní - v systému naštěstí může pracovat i s DX9. Tento radikální řez byl nutný, aby se rozhraní zbavilo balastu posledních deseti let. O co jde. Aby hardware a software mohly spolupracovat, musí tu byt daná pravidla a to zařizuje softwarové API (Application Programming Interface). Ve Windows byl tradičně možný výběr dvou grafických API a to Open GL (Open Graphics Library), jež bylo původně vyvinuto pro aplikace CAD. A tím dalším je Direct3D, jenž spolupracuje s DirectX, které bylo původně vyvinuto pro hry a multimedia. No a právě v nových Vistách se snaží Microsoft první zmiňovaný(Open GL) vymítit a zanechat pouze DirectX! K dispozici je pouze emulace ve verzi 1.4(nejnovější je 2.1), takže záleží pouze na výrobcích grafických karet jestli dají do GPU podporu nové verze Open GL nebo ji nechají emulovat. Microsoftu tato situace vyhovuje: jejich API existuje pouze pro Windows a Xbox což znamená konkurenční výhodu a v tomto duchu se nese rozhodnutí o tom zanechat DX10 jen pod systémem Vista a tak zatraktivnit nove Visty hráčům a možná tak zamaskovat určitý problém okolo kompatibility s hardwarem, softwarem a drivery. V neposlední řadě i výkon v herních aplikacích, který je někdy horší než v odzkoušených Windows XP.
Vzhledem k tomu, že pod Windows Vista mohou aplikace komunikovat s grafickým hardwarem přímo, musel Microsoft změnit desátou řadu Direct3D. Nová verze WDDM 2.0(Windows Display Driver Model 2.0)umožňuje například 3D multitasking. Pomoci vláken řadičů (tread schedulers) může být každé aplikaci přiřazena dynamicky virtuální grafická paměť. K tomu je nezbytný správce video paměti, který uvolňuje potřebnou kapacitu. Současná generace DX10 kompatibilních GPU (NVIDIA 8xxx), ale tuto funkci bohužel prozatím nemá a přítomna je pouze emulace v ovladačích. Její Hardwarová podpora se objeví patrně během roku 2008 s příchodem DX10.1 (zajímavé je, že dx10.1 by už měla podporovat nová ATI R600) a WDDM 2.1.
V současné době tak zátěž spočívá na CPU a může ho zatížit i na 50%. Nový WDDM nabízí výrazně lepší stabilitu grafického subsystému, neboť při záseku nebo chybě ho umí resetovat aniž by to ohrozilo běh OS a aplikace. Shader Model 4.0 je mnohem flexibilnější než verze SM3.0. Mezi základní požadavky SM4.0 patří třeba možnost současné aplikace HDR vyhlazování hran (antialiasing) a vykreslování . Tím se GPU osamostatni a nemusí probíhat opakovaná výměna dat mezi GPU a CPU . Zásadní novinkou DX10 je novy typ shader jednotek . Ty se vyznačují vyšší efektivitou práce v 3D scéně, což umožňuje zcela běžně používat efekty, jako je motion blur (pozn. DD: tenhle efekt z duše nenávidím a všude vypínám :) ), či podrobné modely vlasů, srstí nebo vegetace. I práce se světly a stíny teď spadá na bedra GPU a tím se sníží zátěž CPU zase o nějaké to procento.
Samozřejmě ale dx10 hry budou na sílu grafického procesoru patřičně vysazeny, takže je otázka, zda si dx10 efekty v nějaké rozumné míře vychutnáte na pomalých grafikách. Ostatně to bude tématem diskuse již brzy.
V tabulce tak máte parametry prozatím vydaných karet generace GF8. Parametry se budou ještě určitě časem trochu měnit a budeme je podle toho doplňovat. Podívejme se tedy na některé dostupné modely.
|