Už žádné polovičaté řešení, ala sendvič GTX 295 či 9800GX2 – reálná dvoučipová grafika NVIDIA od Inno3D.
Duální grafickou kartu NVIDIA GTX 295 už známe, vyšla oficiálně v lednu, jako konkurence k dlouhé měsíce bezkonkurenčnímu HD 4870 X2. Ačkoliv je mezi HD 4870 X2 a GTX 295 více než půl roku rozdílu, NVIDAI nedokázala výrazně dvoučipovou grafiku ATI překonat a v náročných nastaveních a vysokých rozlišeních ne vždy je GTX 295 výkonnější, a to i přes to, že HD 4870 X2 s ednes prodává za ceny kolem 9000 korun, což je o dost levněji než GTX 295. Záleží na funkčnosti SLI a CrossFie a v poslední době druhý jmenovaný funguje v mnoha hrách o něco lépe, ale pořád tu je závislost na vyladění ovladačů u obou řešení …
V čem GTX 295 výrazně ztrácela, byla konstrukce a technologická pokročilost. Zatímco ATI HD 4870 X2 už byla druhá duální grafická karta vše na jednom od AMD, NVIDIA stále potřebovala dvě PCB a výsledkem byl z mnoha důvodů nevýhodný sendvič, který se hlavně špatně chladil.
NVIDIA až nyní uvádí skutečnou dvoučipovou grafiku s jediným PCB, která se může postavit HD 4870 X2 a konstrukčně vlastně i staršímu HD 3870 X2. NVIDIA nikdy nebyla přítelem vícejádrových grafik, proto s vývojem duální grafiky poměrně otálela. Její strategie totiž stále počítá s tvorbou velkých high-endových jader a NVIDIA si zkrátka myslela, že dvoujádrovou grafiku nebude potřebovat. Konkureční AMD-ATI totiž razí filozofii výroby malého mainstreamového jádra, které na high endové grafiky dává ve více kusech a prostě s tvorbou a prodejem duálních grafik vyloženě kalkuluje. Jenže jednojádrová NVIDIA GTX 280 ani GTX 285 nestačí na dvoujdárovou HD 4870 X2 a tak NVIDIA musela chtě nechtě dvoujádrovou grafiku uvést.
Model GTX 295 tak zůstává, jen se konečně technologicky a konstrukčně stane skutečně konkurencí k HD 4870 X2. Jako první představuje prodejní model společnost Inno3D.
Jak vidíte, PCB doznalo velkým změn. Grafika samotná se ale pak v parametrech a ani výkonu od starší GTX 295 v sendvič provedení lišit nebude. Konstrukce karty je docela podobná HD 4870 X2. Na každé straně je v podstatě logika vlastní karty a uprostřed se to vše spojuje do čipu NF200, který to vlastně řídí. Pořád jde o SLI. Karta tak obsahuje dvě jádra GT200 v 55nm a 240SP na taktu 576MHz. Najdeme zde také 2x 448bit rozhraní a 2x896MB paměti. V podstatě jsou to dvě podtaktované GTX 275 na jednom PCB.
Délka karty je trochu větší, než je u grafik běžné a PCB má 267mm. Napájení zůstává stejné 6+8pin a karta má také stejných 289W TDP, jako měla starší sendvič verze. Novinkou je absence nativního HDMI konektoru, pro který nezbylo místo a HDMI tak budete mít přes redukci z DVI.
Pokud jde o chlazení, tak na jednu stranu má velice pěkné a jistě účinné pasivy, které jí referenční HD 4870 X2 může jen závidět, na stranu druhou je tu jen jeden poměrně malý ventilátor uprostřed. To zase nedává takové naděje na slušný chladící výkon a ještě schopnost chladit tiše. Přeci jen HD 4870 X2 lze již dnes chladit velmi tiše, Arctic Cooling před časem vydal speciální chladič přímo pro HD 4870 X2. Ten určitě na tuhle novou GTX 295 pasovat nebude. Ale uvidíme až kartu dostaneme.
Co se týká nástupu na trh, měla by jít v podstatě hned. Zatím se o GTX 295 nezmiňuje žádný další výrobce. Je otázka, jak velká série nové GTX 295 vlastně vznikne. V současné situaci není mezi zákazníky a obecně ani mezi výrobci velký zájem o drahé grafiky, protože prostě není ani k čemu je využít a kdo chtěl výkon, ten už má dávno HD 4870 X2 nebo o ledna GTX 295 a nová GTX 295 ho těžko může něčím zaujmout. Zbytek už čeká na novou generaci grafik. Co se týká výkonu, tak ten by měl zůstat beze změn a cena by měla být také stejná u nás tedy něco kolem 12 000 korun včetně DPH …
Můj názor je že dvoujádra zatím ne - ať už ATI, které vlastně nic jiného nezbývalo, než začít s dvoujádry grafiky vyrábět, protože nemá na to (myslím finančně) vyrábět high-end jádro, tak i NVidia, která to IMHO nemá zapotřebí (samozřejmě kromě toho zůstat výkonnostně na trůnu)
Důvody:
-Spotřeba
-Ne všude dvoujádrové řešení funguje
-Chlazení (jak píše DD výše nevýhodný sendvič u NVidie a šajz u referenčních ATI jak říkám já )
souhlas ..taky nejsem přítelem dvoujádrových řešení. Pořád jsou nedostatky. Uvidíme co přínese DX 11 generace ..třeba vyjde Nvidii strategie s jedním obřím jádrem a bude zase na nějaký čas vystaráno. Ale to, že výkon ani stávající generace není kde využít je prostě alarmující. Pokud se nic nestane jen těžko se bude hledat důvod k přechodu na DX 11 .....sakra
1. Vice jader je dobre reseni, problemem je totalni nepodporovani ze strany OS (nativne myslim) to ze se to vselijak supluje pres ovladace je hezke, ale samo o sobe to neumoznuje vyuzit potencial).
2. Nevyuzity vykon je vec, ktera je zavinena Nvidii. Jeji ignorace z hlediska DX 10.1, nechava autory her v klidu. Navic Microsoft s nepodporou Win Xp u rozhrani DX 10 v podstate odstrihl vetsinu pocitacu.
Osobne nemam potrebu kupovat win Vista jen proto abych si zahral hru pod DX 10 (prestoze mam DX 10.1 gfx ;-).
Majitele XP od DX10. Ani na nových grafikách to tam nejde. Většinou MS má velice dobrý marketink, ale s XP rozhodně nemá pravdu - současně dávat zápornou cenu na XP pro nettopy/booky a nepodpořit DX10 podle mně moc smyslu nedává.
Neznámý
2009-05-13 00:57:50
Zdar GROVIKu, no rozhraní, a to rozhraní, DIrectX10.1, asi nějaká verze CZ, je a to je, v Operačním systému Microsoft WINDOWS Vista Ultimate SP1, asi nějaká verze CZ, třeba, a rozhraní, DirectX10.0, asi nějaká verze CZ, je a to je, v Operačním systému, třeba MIcrosoft WINDOWS Vista Ultimate SP0, asi nějaká verze CZ, tedy, abych tak, řekl, prostě no.
Neznámý
2009-05-13 01:01:39
ZDar DOKTORe 2, aha a to aha, takže, a to takže, hra Crysis, už a to už, běhá dobře, na plné Detaily, a v rozlišení 2560x1600, a při, a to při, asi tak, 24 ¨-násobném Anti-Aliasingu, a s 16-ti Násobných ANizotropním FILTRovám, aha a to aha, tak, a to tak, to jo, tedy, abych tak, řekl, prostě no!
To já si právě myslím, že dvoujádrové řešení může být dobrým řešením. Akorát, že ty myslíš slovem "dvoujádro" kartu se dvěma čipy, a teda běžně se používá "dvoujádro" pro dvě jádra v jednom čipu.
Nevmí jak je to možné či ne, ale určitě by byla dvě jádra v jednom pouzdře zajímavá.
a snad čekáš, že budoucnost je "jednojádrová"? To těžko, neprůchodnost a konkurenční nevýhodnost takové strategie prokázala GT200 a GT300 ji IMHO jen potvrdí (a možná tím pohřbí nvidii), nebo aspoň zajistí že na "GT400" už nvidia "nebude mít finančně"
Ostatně i Intel s Larrabee jde směrem vícejádrového řešení, procesory jdou rovněž tímto směrem...
pletes jabka s hruskama. v tomhle smyslu procesorove vicejadrovosti jsou vicejadrove gpu uz davno. phenom mas vicejadrovy procesor, ale stale je to jeden velkej cip. nedela se tam kazdy jadro zvlast. ale trebu u core 2 quad se davali k sobe 2 dvoujadra. tady jde prave o to ze se nevyplaci delat jeden obri cip. a treba ten tvuj priklad vicejadroveho larrabee jeden obri cip bude.
Myslím, že nepletu. Stejně jako u SMP potřebuješ jádro OS, které SMP podporuje (jinak ti je více CPU/jader na pendrek), stejně tak u multiGPU potřeba speciální podpory (řekněme jakéhosi scheduleru) - tedy GPU rozhodně není vícejádrové, je pouze paralelizované (což JE rozdíl).
Dále - není až tak velký rozdíl, zda je X-jader na jednom kusu substrátu, nebo na několika, ten zásadní rozdíl ve výtěžnosti je ten, že nepovede-li se jedno jádro "larrabee", mohou i tak celý čip prodat velmi jednoduše jako nižší verzi. Oproti tomu u GT200/300 apod. toto lze učinit pouze tehdy, je-li chyba v některé z "pipek" (zjednodušeně řečeno), protože je-li chyba třeba v řadiči RAM, můžeš čip jen vyhodit...
Takže nabízíš takové schéma: 1024 grafických ALU rozdělit na 8 skupin po 128, každé skupině dát název "jádro" a zavést ještě jeden jak správně říkáš, "jakési sheduler", který bude řídit toky mezi jádrami. A samozřejmě, ještě sheduler v každém jádru.
Jsi milovník hierarchických řešení? Zdají se být jednoduché, ale jsou přílíš slabé, aby řešily opravdu vážné problémy. A vůbec nejsou jednoduché v použití - mají základní problém - pořád se musí rozhodovat, co do jaké větví dát. Ostatně, bionika nám napovídá, že hierarchické systémy jsou pro IT nevyhodné.
Hierarchie se tak prosazují v IT proto, že se snadně dělají, modelují, programují. A střední úroveň programátorů rapidně klesá. Takže hlédají snadná řešení, která zvládnou udělat. Ale použití velkých hierarchických systémů je za trest.
Jo, a pozor, láska k hierarchickým systémům je příznakem totalitního skladu psychiky!
já nenabízím nic :-), jsemť jen prostý pozorovatel...
Jen několik poznámek: máš pravdu, paralelizace, predikce apod. je dnes hodně problematická, ale to neznamená, že to je cesta nemožná, jde jen o to vypracovat nové přístupy a postupy.
Jinak že většina programátorů jsou obyčejní lepiči kusů kódu mi říkat nemusíš
rek bych ze cpu ktery ma chybu v pametovem radici muzes vyhodit taky rovnou..mozna se pletu ale nevim o tom ze by kazde jadro procesoru melo svuj vlastni radic RAM..ale nak sem tohle ani teda nezkoumal. jinak gpu ale muzes osekat nejen po strance sp jednotek ale i rop a sirky pametove sbernice. viz gtx260/275/285. co se tyce osekavani tak sou na tom tedy podle me gpu mnohem lepe nez cpu, kde muzes jen vypnout jadro nebo mnozstvi cache.
to je mi známo, že snižovat výkon lze různě, a že lze využívat i "polomrtvých" nepodarků. Otázkou je, zda u tak velkých čipů nebude poměr polozmetků k bezchybným kusům už příliš velký (a tím nepoměrně nastaveny cenové relace)
jasně, mrkni na šesté slovo v mém příspěvku - pokud červenozelení vyladí škálování a podobné prkotiny ve faktickém CF nebo SLI řešení v DUÁLNÍCH (pro Holowaye ) grafických kartách, pořádně vyřeší power management, tak proč ne...
No jo souhlas, ale třeba DD má jiný názor http://www.ddworld.cz/index.php?option=com_content&task=view&id=2415&Itemid=61&limit=1&limitstart=11 což je docela LOL, protože já tu hru hraji už podruhé (viz moje sestava) schválně 4xAA jako DD a fps mám úplně jinde (pochopitelně směrem nahoru ), IMHO problém je asi v DDho Phenomu...
A co se týče DX 11 karet, já do toho asi půjdu, to mám všechny prachy prochlastat ? (ačkoliv... ) teď už stejně ze svých bývalých hobby cpu prachy jenom do kompu (REASON: dvě děti takže pivko tak dvakrát do měsíce)
At se vyprdnou vydavat temer nepotrebne grafiky(jedine co to umi je zrat elektrinu) a nestezuji si, ze je nikdo nekupuje, protoze vsichni cekaji na DX11 karty. At vydaji konecne ty DX11 karty. Jedine to zas zvysi prodeje grafik
Ano. Kupovat drahou grafiku teď jaksi postrádá smysl. Jedině možná pro lidi, které neznají co s penězmá, nevědí nic o grafikách a potřebují mít všechno nejdražší... Ale myslím, že by bylo vyhodnější pro takového zákazníka osadit 275 drahokamy a dát je do počítače hned 4. Stejně kupují jen celé systémy.
Už vidím! PC systémy Smaragd/Rubin/Diamant/Safír s 20 drahokamy každý! Přední lišta skříně z malachitu/čaroitu/opalu. Boční lišty jsou z průhledné mozaiky heliotropů, berilů a achatů, zasazené do platiny. Stříbrné chladíče. Nefritové větráky. Zlaté kabely. Klavesy z růžových perel. Power tlačítko - 30 karatový Smaragd/Rubin/Diamant/Safír podle názvu systému... Ne, ty autoři posledních drahokaret prostě nemají fantazii.
A takový systémy teď budou mít i ještě jeden úžitek - pokud jí máš, každý vidí, že se ti vede dobře i v krizi, banky tě půjčují, zákaznici ti věří... Viz skvělé hospodařské výsledky Apple.