NVIDIA už ví, že jednočipová grafika s GT300 nebude samo stačit na pozici nejvýkonnější grafiky na světě.
¨
Server Fudzilla kdesi vyhrabal informaci, že prý NVIDIA usilovně již nyní pracuje na duální GT300 grafice. To by naznačovalo předpokladům, že se bude opakovat situace ATI radeon HD 4800 vs GTX 260/280 z loňského roku, kdy NVIDIA spoléhala na to, že GTX 280 bude tak výkonná, že si s přehledem pohlídá pozici nejvýkonnější grafiky světa. Jenže ATI nachytala společnost NVIDIA s kalhotami u kotníků. V srpnu 2008 vydala Radeon HD 4870 X2, který rozdílem třídy výrazně deklasoval všechno, co NVIDIA kdy představila. Ta se na odpověď zmohla až v lednu letošního roku, kdy uvedla technologicky méně pokročilou GTX 295, která ale nebyla často o nic výkonnější. I dnes zůstává GTX 295 jen o málo rychlejší než HD 4870 X2 a zdaleka to neplatí všude – obě grafiky jsou závislé na fungování ovladačů SLI nebo CrossFire v jednotlivých hrách – kde CF nebo SLI nefunguje, tak jede jen půl grafiky. Jedinou změnou je, že nedávno NVIDIA GTX 295 předělala do technologicky pokročilejší podoby s jedním PCB a tedy vyrovnala technologický návrh ATI HD 4870 X2 z léta loňského roku. Má se také za to, že tato verze GTX 295 není ničím jiným, než cvičením právě pro nový duální model. Zatímco ATI razí strategii multi-grafik přímo a s ničím jiným do high endu už téměř dva roky neoperuje, NVIDIA se duálním modelům bránila, okolnosti jí ale donutili tvořit i tyto grafiky.
ATI na 101% uvede nástupce HD 4870 X2 už letos. A NVIDIA už pravděpodobně ví, že jí jedno jádro GT300 rozhodně na jeho překonání stačit nebude. Nehodlá však dopustit, aby jí opět trůn pro nejvýkonnější grafiku ATI na delší dobu přebrala a tak už připravuje duální GT300 model. Cílem není nic menšího, než překonat blížící se „HD 5870 X2“ se dvěma RV870 na palubě za každou cenu. Duální „GTX 395“ se dvěma obřími GT300 (každé má přes 500mm2 a dvojnásobek jednotek než současné GT200b) jádry se na trh dostane až v Q1 2010.
Je však otázka, zda to bude skutečně stačit. Už z několika zdrojů totiž proniklo na veřejnost, že duální R800 grafika (s neméně působivými 40nm RV870 jádry) a tedy „HD 5870 X2“ nemusí být TOP modelem u ATI. Podle některých informací totiž ATI plánuje uvedení X3 modelu s kódovým označením Trillian se třemi RV870! Ale zatím jsou to jen spekulace, byť rozhodně není ATI X3 model technicky nereálný. Každopádně si připravte pořádný zdroj, Ať už to budou hned GTX 395 nebo HD 5870 X2 nebo dokonce HD 5870 X3, přes 300W TPD se určitě u nové generace grafik přehoupneme …
Ha ha ha, tak to sedí.
Teda kolik to bude brát elektřiny jsem fakt zvědavej.
A propo, nevidim nic světobornýho mít nejvýkonnější grafiky na světě, jo pro PR marketing to je něco co se dá prodat, ale v reálu využije nemnoho lídí takový grafiky.
Přesně tak, na jednom PCB bude jádro a na druhém obvody a paměti. A ke každé grafice budou dávat samostatný 500W zdroj a děkovný dopis od ředitele ČEZu.
Na QuakeConu ATi ukazovala zřejmě RV830 v rozlišení 2560x1600 s 78FPS v nějaké hře. Když vezmeme potaz, že se jedná o nízký mainstream, tak si představte, kolik FPS bude mít RV870 a ještě X2...5870X2 bude brutální karta .
500W a 300W TV budu zakazane rovnako by to malo byt aj u GPU
potesila by verzia s dual biosom,
green mode - 1 jadro GPU/s troch, dvoch/ na polovicnej frekvencii a 65W spotreba
http://www.topky.org/2009/02/zelena-europa-chce-zakazat-plazmove.html
Plazma s uhlopriečkou 106 centimetrov minie ročne 822 kWh /4000 SK/ elektriny, zatiaľ čo rovnaký LC displej je vyše trojnásobne úspornejší
Spotřeba plazmových televizí je dnes srovnatelná s LCD. V průměrné spotřebě třeba i nižší - plazma žere hodně když zobrazuje bílou a má nastaven nejvyšší jas. Pokud si srovnáš jas plazmy a LCD tak pochopíš proč plazmy za těchto podmínek žerou víc jak LCD. Je to podobné i mezi LCD monitory- čím vyšší jas tím má monitor i vyšší spotřebu - teda pokud nesrovnáváš podsvícení diodama a trubicemi. Plazmy porážejí LCD i v kontrastu a odezvě takže je škoda, že se nehodí pro monitory.
nejúspornější by měly být LCD obrazovky s LED podsvícením, v budoucnu jich určitě bude spousta i jako PC monitory. I když můj 19 palcový samsung má 32W při 100% jasu a 19W při sníženém jasu na 20% (ideální na text, internet). A to už mu táhne na 3 rok Zkrátka tvrdit že CRT je úspornější než LCD jako ve výše uvedeném článku je dost zavádějící.
BTW, pochybuji že nějaký europoslanec ví co je to grafická karta, ale mohli by nějak omezit prodeje kompletních PC s vysokou spotřebou...
Plasmy a LCD obrazovky bohuzel zerou temer stejne, ale to kvuli tomu, ze se na LCD televize nepouzivaji zadne zazracne technologie. U monitoru je ta technologie na 3x vyssi urovni.
to bys chtěl do gpu cpát dva biosy? docela zbytečné, pokud se nebojíš že jeden při flashování zrušíš..... jinak by ti to bylo na prd, takty máš v jediném dvoje už.... hoodně dlouho, vždyť dvoje takty má v biosu i moje stará x1900....
no bude pekne ze bude dalsi souboj o nejvykonejsi grafiku,uz sem zvedav na prvni testy...nastesti mi ted doma topi zbrusu novy stroj a tak je v moji penezence trochu sucho a s klidem si budu procitat recenze karty drahe a drazsi
Aby se spekulace s X3 nestaly skutečností a i tahle dual NV grafika by dostala na frak.
Ke spotřebě: berte to z té lepší stránky... v zimě ušetříte na topení. Pěkně zalezete do kutlochu, zapnete počítač a tyhle grafiky 2 v jednom (GK+topení) mám nejenom dodají nádherný výkon, ale ještě vás udrží v teple
Tak toto jsem si neuvědomilm že kdyby ATi vydala X3, že by byla nVIDIDA s GTX 395 v řiti. Tohleto vypadá ještě na ostřejší boj, než v generaci HD 4000 vs. 200, 9000.
jako kdyby se neobjevila x3 karta už v době 3870 tehdy to byl jen enginering sample (nebo jak se píše) tehdy bylo od asusu tak proč by ted neudělala sama ATI historie se opakuje voodoo s čipem vesa 100 to byla monstra snad ATI nezamyšlí něco podobnýho
no to teda trochu pockej...voodoo 5 6000 poradne ani nebyla vydana. skoncilo to jen u minima kusu. a voodoo 5 5500 (2 cipy), ktera vydana byla normalne, byla naprostym propadakem a to vykonovym, cenovym i technologickym. asi 2 mesice po ni vychazela geforce 2, ktera ji totalne zadupala vyssim vykonem, nizsi cenou, lepsi spotrebou a podporou treba tenkrat zacinajiciho a duleziteho T&L.
Jejda, no nejspíš máš pravdu, mě se jen zdálo že jsem kdysi někde viděl test Voodoo 6000 vs radeon 9600... Ale moc bych stebou nesouhlasil stím, že to byl technologický propadák, např. kvalitu obrazu měly voodoo řádově lepší než konkurence, měly daleko lepší režimy AA. 3dfx si to podělala tím, že už nevymýšlela nové jádro, jen furt přidávala další a další čipy k sobě, ale platilo při tom, že čím víc čipů, tím rychlejší a kvalitnější AA nabízela.
kámoš má HD radeon 9550 a rozjede na tom stejné hry jako já na 8500gt krom crysis a company of heroes ..
jinak vše,i Empire total war, sice mu to skoro nejelo, ale přiznejme si že taková karta by pomalu neměla zvládat ani cod2 na low s 1024x768,a on na tom v takovým nastavení hraje cod4 ..
x) zázrak
to se ti opravdu zdalo radeon 9600 je o slusnejch par generaci mladsi. sem prave tenkrat kupoval (no spis rodice mi kupovali ) novy pc s geforce 2 gts, misto voodoo 5 5500 na kterou sem byl puvodne natesenej mnohem vice. jinak to AA bylo jediny v cem byla voodoo lepsi, jenze nejaky AA bylo tenkrat na 15" crt v 1024x768 trosku useless.
No myslim že celá serie FX5.. byla nepovedená,měl jsme tenkrát jak GF MX440 na 64MB a hry na ní šlapaly podstatně líp než na FX5600 na 256MB ,tak sme jí střelil,pořídil 9800pro na 128MB a to bylo nebe a dudy,jsem tenkrát vubec nechápal jak je to možný,sem pak rozjel i far cry(1.díl) na full detaily
ehm tak to je uz ale pekna kravina. fx5600 byla podstatne vykonejsi nez mx440, ktera vychazela z geforce 2 a nemela ani podporu dx8. fx5600 mela zhruba vykon jako geforce 4 ti 4200. fxka ale oproti radeonum obecne hlavne ztraceli v dx9 modu. to napravila az geforce fx5700, ktera byla pod dx9 klidne i o 50% rychlejsi nez fx5600, ale stalo to na konkurenci s radeonem 9600xt nestacilo. 9800pro byl tenkrat pak high-end (kterymu konkurovala jiz v celku dobra fx5900) a to bylo fakt nebe a dudy oproti mainstreamove nepovedene fx5600.
myslis na tu dobu velmi precenovaneho T&L. dobry clanok aj s testami voodoo5 so 4cipmi vsa bol na jednom ceskom serveri o 3dfx. Ta 2cipova verzia ktora sa predavala vo velkych mnozstvach pootrebovala vykonny procesor, ktore v tej dobe este neboli, a neskor sa napr. nedala osadit do dosiek k p4 kvoli inej specifikacii agp slotu, kvoli rozdielnemu napajaniu hrozilo spalenie cipov
mno pokud ATi udělá X3 tak nVidia zase zapne mozky a udělá něco ,,velkýho,,
každopádně si myslím že i tak by X3 nedalo, nedokážu si představit X2 s nVidia jádrama, natož tak něco většího..třeba rovnou tři, u ATi je to ,,jednoduché,, pač ti maj prostoru až až
každopádně sem zvědavej na velikosti PCB těchto karet .. pod 25cm to asi nebude x) spotřeba o tom ani nemluvím
..sorry já sem se začal o IT zajímat, když vycházela 9600gt, 7900GX2 sem nikdy neviděl, každopádně LOL ..dlouhý jak cyp, ale i tak, nějaký menší skříně by s tim problem mít mohly, navíc ta tíha na ten slot ..;-)
Ked bude hd7000 x6 a gtx500 , tak mozu zacat jadra pridavat aj na druhu stranu PCB , a na kazdu stranu daju jeden jednoslotovy chladic, ktory snad tie grafiky pri TDP 500 W uchladi aspon na 90°C .
jenže až budou GTX500 a HD7000 tak může bejt uplně nová dimenze grafických karet, někdo muže přijít na novej zpusob výroby čipů a standard klidně muže být i 100mm
technologie jde stále kupředu a to závratnou rychlostí
každopádně kdyby na světě mělo bejt za 5 let 500 milionů počítačů s TDP 500w, tak by energetické společnosti ovládly svět ...
Jinak energetické společnosti už začínají ovládat svět. Zmoměn jak bylo do zdražování ČESu hej, a když měl slevnit... no však víme
A navíc se zlepšujícím se procesem se spotřeba bude snižovat. V budoucnu pujde spíš o úsporu energie, to už budou grafiky dost silné na všechno a bude se hlavně šetřit
Těžko říct jak to dopadne ..Obr ve své newsce (beru ji s rezervou)tvrdil, že GTX 380 bude výkonově jako GTX 295. Tady by duální karta dávala smysl. Jen mi ale nesedí jak potom Nvidia obhájí určitě vyšší cenu než bude mít HD 5870.
Spíš to vidím tak, že GTX 380 bude výkonnější o 20-30% než HD5870. Na duální Radeon ale stačit nebude proto vznikne GTX 395. Pro hraní v rozlišení 1920x1200 bude na dost dlouhou dobu stačit GTX 380 (myslím, že konečně dáme v pohodě na very high Crysis i budoucí Crysis 2), pro 30ti palcové LCD bude určena GTX 395 nebo duální Radeon. Otázkou jen zůstává, zda-li si GTX 380 obhájí svoji cenu proti HD 5870 .....já doufám, že ano ..rád bych měl novou Geforce ve své bedně.
K tomu Crysis 2 jsem včera viděl zajímavé video z editoru ...a musím říct, že mi spadla čelist ..hoši z Cryteku vymysleli báječnou věc ..vývojář pracuje na jednom PC a z něj tvoří na všechny platformy, přičemž se vše automaticky přizpůsobí zvolenému HW ..tedy na konzole se to dost ořeže ..a oproti tomu na PC přidají více vegetace, daleko detailnějších textur, propracovanější modely postav, dohledovou vzdálenost 7 km!, DX 11 efekty atd. Cevat Yerly říkal, že PC verze Crysis 2 rozhodně překoná po vizuální stránce jedničku a že bude podporovat DX 11. Kouzlo Cry Engine 3 je v tom, že umožní vznik nativních her na všech verzích DX ..tedy bude nativní verze DX 9, DX 10 a DX 11 ..nikoliv jen rozšíření. Tohle by chtělo DD samostatný článek ...pokud je to tak jak ukázali včera na gamescomu 2009 nebudou současné konzole brzdit vývoj ...ale spíš to povede k jejich postupnému odchodu do penze.
Ja jenom nevim Jak by vypadal CF dvou x3 karet,.. pokud je mi znamo QCF(4cipy) je maximum, co by chudatka delali s tema 2mi zvysnejma
Samoztrejme pokud DX11 bude specializovan na paralelizaci tak strop 4cipu mozna skonci.