S postupujícím časem se dostávají na povrch nové a přesnější informace o nových čipech.
Začněme u AMD-ATI, která by měla vyjít z nových čipů jako první. Z obchodních kanálů, informovaných přímo od AMD, uniklo, že první možný termín vydání RV870, je konec července! Není bohužel známo nic bližšího, co se konstrukce procesoru týká. Známé jsou jen rámcové věci, jako orientace na paralelismus, OPEN CL, DirectX 11 a HAVOK.
Konečně o něco podrobnější informace se dostaly na povrch ohledně nového čipu NVIDIA. Ta již v kuloárech o GT300 hovoří, má jít o výrazně odlišnou architekturu proti G80/GT200, která by tu s námi měla být zase další 2-3 roky. Pokud všechno půjde dobře, tak by GT300 mohla být dostupná pro partnery a výrobce grafik v druhé polovině října. Vydání karty by pak podle zdrojů blízkých NVIDIA mělo být v Listopadu, tedy podobně jako tomu bylo u 8800GTX. Každopádně termín vydání listopad je závislý na tom, jak se povedou první revize čipů. Pokud bude nutné dělat více revizí, tak se tvorba čipu zpozdí. Testování A0 revize by mělo být někdy v srpnu. Každopádně dříve než v listopadu by první DX11 grafika od NVIDIA na trhu být neměla. Jinak o GT300 není známo mnoho informací. Má se za to, že NVIDIA přestaví čip na více paralelní architekturu. Samozřejmostí je zaměření na DirectX a Open CL. Otázkou jsou další technologie NVIDIA. Jasný také není výrobní proces. Větší naději dáváme 55nm.
Každopádně máme se konečně na co těšit. Po delší době fungl nové grafiky se blíží.
Vice pararelni v jakem smyslu? Nemas zadny blizsi info? Pararelizovane uz to maji i ted. Co ja vim, tak pracuji na konecne plne skalarnich shaderech, ale to je info stare cca 3/4 roku. Moc neocekavam, ze by presli na uplne jinou architekturu napr. podobnou 5D SIMD u ATi.
Pokud me hlava nesali, tak v generaci G80/G9x jsou shadery temer kompletne skalarni s vyjimkou Dual Precision operaci, ktere se resi vyuzitim specializovanych co-issue jednotek v ramci kazdeho shader bloku. Efektivita Dual Precision na G92 je pro Nvidii aktualne "problem" hlavne v profi sektoru, kde ji v techto operacich prekonava RV730 (!!!)od Ati; stejne tak DP nelze vyuzit pod CUDOu - zjevne problem aktualni architektury.
Taky nemyslim, ze by prechazeli na jiny koncept, spise dotahnou ten aktualni do kristalove podoby. Snad
Dual precision se prakticky beztak nepouziva..a co se tyce vypocetniho charakteru architektury, tak mnohem vice zavisi na optimilazici SW nez na hrubem vykonu HW. Dual precision je fajn, ale ma zhruba stejnou budoucnost jako tesselace - zadnou. Tam kde je parareliazce funkcni, nejde o dual ci single precision natolik, aby to hralo podstatnou roli.
Shadery u Nvidie nejsou ciste sklarni, za kazdym shaderm je sdilena TMU - v zasade nastava situace cekani velmi casto, stejna jako u SIMD 5D, kde zase dochazi k nevyuzivani jednotek naplno, velmi casto. U her je to krasne poznat - ATi friendly (5D SIMD) vs Nvidia friendly 1D. Pak jeste samozrejme hraje roli pocet ROP's TMU's atd. Tohle je samozrejme jen velmi povsechne vysvetleni.
Vzhľadom k tome že ani 5% hier ešte nepodporuje DX10...
Neznámý
2009-04-18 00:20:52
Zdar SAMOMANe, to jako, a to to, jako, myslíš,jako, 5, a to 5%, her, co a to co, jsou na světě, a nebo, jak, jako, myyslíš, a to jako, myslíš, že, a to že, by mněli, a to že by mněli, předělat, a to přědělat, do rozhraní DirectX10, asi nějaká verze CZ, i hru, a to i tu hru DOOM 1, asi nějaká verze CZ, a nebo, jak co?
DX11 umí nejen grafiku, ale také unifikovanou podporu výpočtů na GPU, a co je pěkné, dokáže používat k tomu i DX10 a DX10.1 karty (i když ne tak efektivně). Takže užítek z DX11 bude dříve, než nejen DX11 hry, ale i DX11 grafiky :-)
Computed shaders je jen dalsi alternativa k CUDA, OpenCl atd. To nutne neznamena, ze to bude umet - dulezita bude podpora. i kdyz uznavam, ze pokud to bude pod DX tak to ma asi nej sanci do budoucna. Ale stale to neresi pristup - fyzika pro vsechny nezavisle na HW... Cim dal tim ic to vypada, ze propietarni reseni nakonec bude ta nejlepsi volba - unifikovana API se pravdepodbne neprosadi. Analogie na Linux je vice nez zrejma...
Neznámý
2009-04-19 20:41:35
Přesně, tak, on, a to on, výkon, těch Grafických Karet, stoupne, a to stoupne, i ve hrách pod, rozhraním, DirectX10.0, asi nějaká verze CZ, takže, a to takže, stejně, a to stejně, ty, Grafické Karty, DirectX11, nebudou, a to nebudou, na-nic, a když, a to když, si vezmu, mizerný výkon, Dnešních Grafických Karet, v Některých krách, v rozlišení, asi tak, 2560x1600, tak, a to tak, ty, Graifkcýc Karty, tak, , stejně, at o stejně, ty, nové Grafické Karty, nebudou, a to nebudou, na-nic, tedy, abych tak, řekl, prostě no! :-)
Ano. Ale co se výkonu týče až takový skok být ani nemusí. Doufám, že nové karty dokážou o moc lépe šetřit elektřinou. Například, nejen podtaktováním ve 2D, ale i vypínáním svých ALU, shaderů, jader, záměnou ALU5 za ALU1 atd. A vypínáním v Idle.
Skok ve výkonu bude tehdy, kdy se zvédnou rozlížení monitorů (ne velikosti, lidí nemají tolik místa na stole), začné se aktivně používat 3D obraz, grafiky začnou spolupracovat v distribuovaných sítích přes internet atd.
Přímo teď vývoj výkonu grafik se brzdí nedostatečným vývojem dalšího HW a SW. Ale to nevadí. Vyvojáři mají čas se zamýslit, zlepšit spotřebu, kvaliu, stabilitu, podporu, atd. A budou muset to dělat, vždyť uživatele mají mít důvod kupovat novou kartu. Hlavně, aby celý výkon lokomotivy nešel do houkání (reklamy a marketinku)
Porad lepsi nez aby to bylo naopak! DX11 hry a grafiky jen z DX10. VZdy to musi mit zpozdeni, ale je pravda, ze z tema DX10 hrama to s tim zpozdenim uz dost prehaneji!!!
Byli články o to, že se očekává další generace PS a XBOX. Takže je naděje, že DX11 nebude jen papírová. Nebo, pokud DX11 uožní grafickým šaderům pracova jako procesory, možná, nové karty budou umět měnit tu svou grafickou knihovnu a DX12 a další budou pracovat na stejném železe. A změny železa nebudou umožňovat pracovat na nové knihovně, ale jenom zrychlovat práci na ní. Jako dříve procesor dokázal emulovat určity DX, tak teď by to mohli dělat karty. Výkonu vypočetního na to mají dost.
tiez by som to videl tak 50:50 kedze nvidia ma vo zvyku vydavat prvu jednu az dve karty z novej vyrobnej rady este na starsom vyrobnom procese.
Viz:
6xxx - 6800 Ultra na 130 nm - neskor presli na 110nm
7xxx - 7800GTX na 110nm neskor presli na 90nm
8xxx - GTX a ultra prisli na 90nm -neskor presli na 80nm a 65nm
9xxx - 9800GT/9800GTX 65nm neskor 55nm (9600GT, 9800GTX+)
GT200 - 65nm neskor 55nm
Proste taka tradicia sefa Nvidie kedze prva karta ktoru vidaju v danej generacii bola vzdy highend, co bolo vetsinou dost zlozite GPU ktore by pri pouzitii noveho procesu vykazovalo vysoku nepodarkovost.
Vyhodou vydania highendu ako prvej karty v danej serii je zasa marketingova pozornost ktora sa onej karte dostane s tym ze navodi pozitivny dojem o kolko je nova generacia rychlejsia ako to predchadzajuca.
Nechci rýpat, ale 9600 GT se vyrábí v 65nm procese a pouze nová ''Green Edice'' obsahuje 5nm G94 a to se snížením taktem procesoru a snížením napětí > žádný napájecí konektor. Viz ASUS EN9600GT/DI/512MD3.
no mas pravdu s tym ze 9600GT originalne bola na 65nm co uz v tedy ked G94 ako jadro vyslo bola doba ked ATI mala na trhu 3850/3870 na 55nm.
Momentalne sa G94ka nachadza na 9600GSO v 55nm spracovani. Takty jadra u G94 na 55nm su pritom na 650mhz co je rovnaka frekvencia ako u 9600GT.
Skor mi islo len oto poukazat na fakt ze proces akym nvidia dostava na trh nove graficke karty je iny ako u ATI ktore tuto strategiu zmenilo s prichodom AMD.
(ved 3850/3870) povodne mali byt v serii 2xxx kde si malo ati vyskusat prechod z 80nm na 55nm s odlahcenym 2900xt .
AMD sa vsak rozhodlo zatlacit a z marketingovych dovodov karty predstavit ako novu serii (koniec koncov nvidia by okolo takej zmeny spravila aspon 4 premenovania)
Tusim od vtedy AMD-ATI zacina svoje nove generacie s mainstreem kartou a nvidia stale podobne ako kedysi ATI highend.
Nvidia ma problem relativne narocnej produkcie ich GT200 s 240sp, a moj blby odhad je ze ked ma mat GT300 okolo 400sp na 40nm to o nic jednoduchsie to nebude.
Je to take hlupe porovnanie ale CPUcka (4jadra) maju menej tranzistorov a aky ma odpad intel pri ich vyrobe na uz zvladnutom 45nm procese ze s toho robi solarne panely alebo AMD ze vydava 3jadra ako besne.
Teď Vám trochu nerozumim. Z vašeho komentu v horní části vypývá, že nevíte, o co je 9600GSO ochuzená. Navíc 9600 GSO se tuplem nevyrábí pouze v 55nm procese, ale můžete i na 65nm narazit, protože to je pouze přeznačená 8800GS. Možná ale mluvíte o 9600GSO+, která má už 55nm G94, ale je osekaná o sběrnici a unifikované jednotky.
Já také tomu mišmaši kolem 9600 nerozumím.
Byla 8800GS, změnil se název za 9600GSO (před rokem), potom po půlroku se změnila (48 místo 96 shaderů) aniž by změnila jméno. IMO, je to největší hřích NVidia za poslední dobu.
9600GSO je hroznej bordel. Ted dokonce MSI vydala 128-bit 600/1400 1GB verzi. Jinak jako u vseho je nutny sledovat specifikace vice nez jmeno, v nizsich cenovych hladinach obzlvast.
no já myslím že se nvidia mohla poučit z toho že výrobní proces jejich jader je drahej ... takže by to mohli na tu 45nm hodit
navíc rozhodně nechtějí dopustit aby amd-ati byly až tak moc vepředu s technologii atd.
Určitě se nepoučili a měl bys jim poslat maila, a napsat jim, co dělají špatně. Určitě ti poděkují, žes jim zachránil firmu a možná, ale jenom možná, dostaneš od akcionářů nějakou pěknou plaketu nebo diplom...
Osobně jsem zvědav co obě firmy předvedou.U ATi se ani tak nebojím, ale jestli Nvidia nepředvede opravdu něco výkonného tak to zase bude jen na marketingu, aby dokázal zázraky jako to dělá teď. Konkurovat ATi s něčím co je 2 roky staré je opravdu na poklonu.Nejsem ani fanATik ani Nvidiot, ale grafické odvětví je opravdu zajímavý sektor. Necháme se překvapit no...
Neznámý
2009-04-18 00:18:50
Zdar Dark RIDDICKu, viď, a to viď, taky, a to, taky, si tak, říkám, tedy, abych tak, řekl, prostě no!
Však minimálně 50% lidí chodí na DDWORLD jen proto, aby si si přečetli nové příspěvky od Ladika Beztak je to DD, který tak přilákává čtenáře a zvyšuje tím návštěvnost serveru
Neznámý
2009-04-19 21:06:19
Zdar Kwitte, jsi moc, skvělý a super samozřejmě, i pro tebe, palec, na-horu, jak jinak, tedy, abych tak, řekl, prostě no!
vzhledem k tomu že palce dolů jsou jaksi bez smyslu(níž už to prostě u ladika dolů nepůjde )tak si myslím že by nebylo špatné mu trochu přilepšit, ať je zase co srážet
Neznámý
2009-04-19 21:04:07
Zdar Nem3, samozřejmě, a to samozřejmě, že i pro tebe, palec, dolů, jak jinak, tedy, abych tak, řekl, prostě no!
mno zase ale nemužeme říct že nvidia marketing nějak zanedbává
očividně to umí lépe jak AMD-ATI ..i když to moc hezké není
zas je pravda že ati marketing moc nepotřebuje, udělala hezkej krok kupředu a nvidiu víc jak dohnala
uvidí se mno
Nepleť si marketing s propagací. Bez marketingu se žádná větší firma neobejde. To, že AMD-ATI zanedbává jednu z jeho oblastí - propagaci - škodí jen samotné AMD-ATI. Už dávno neplatí, že dobré věci se prodávají sami. A nVidia to moc dobře ví...
Ahojte. Zajímavé téma a zajímavé názory. Třeba qmox nám tady toho napíše do diskuze hodně, a proto mě napadá, co takhle zkusit něco napsat (třeba souhrný názor na toto téma) do blogů? Přivítám i jakékoukoliv jinou novinku, článek, cokoliv, co bude mít hlavu patu
Právě jsem dělal úklid, pár článků vydal, co se za poslední týden nashromáždily. Takže se určitě do blogů podívejte a určitě přidejte i svůj kousek, ať si máme co zajímavého číst, když zrovna budeme mít víc času a všechny ofiko články od DDho a redakce přečtené
DD nemohu se ubránit dojmu, že ta zpráva je psaná s jakousi automatickou skepsí vůči Nvidii a její dosud nevydané generaci GK. 55 nm proces je samozřejmě možný..ale Nvidia se nechala slyšet, že 40 nm proces je výborný a je něčím naco se dlouho čekalo ....Možná budou jejich inženýři testovat 55 nm verze a 40 nm verze ..a rozhodnou se podle výsledků těch testů ....ale spíš si myslím ..že výrobní proces bude 40 nm a GDDR5 ....Ati totiž GDDR 5 a lepší výrobní postup dlouho používala jako účinnou marketingovou zbraň a taky na tohle bude chtít Nvidia reagovat. ..Jinak osobně jsem také spíše opatrný ...a nezačnu se nad nevydanou kartou rozplývat, abych pak nebyl nepříjemně překvapený jako s vydáním GTX 280. ...Přehnanou skepsí ale na druhou stranu netrpím...protože si myslím, že konečně musejí předvést něco co zato bude stát.
No, já tedy nevím, ale já četl o 40nm výrobním procesu jen relativně negativní hodnocení (třeba oproti 55nm). Jak je poměrně složitý oproti předchozím, náročný apod. To by mě zajímalo, kde bylo něco o tom, jak je to výborný a skvělý
Neznámý
2009-04-19 21:31:32
Zdar Holoway, ale, ale, jen, a to jen, si vem, přechod, a to přechod, těch procesorů Intel Pentium IV., s asi tak, těch 130 Nm, kde, mněli, nějakou spotřebu, a nějakou, Frekvenci, a pak, přešli, ty procesory, Intel Pentium IV, na asi tak, tu 90 Nm, Výrobní Technologii, a mněli, snad, na stejné= Frekvenci, snad, vyšší spotřebu, než, a to než, ty procesory, Intel Pentium IV. na té Výrobní Technologii, asi tak, 130 nm, no a na-konec, a to na-konec, to Firma Intel, taky, a to taky, vyřešila, a pak, a to pak, už mjněli, ty, procesory, Intel Pentium IV, na stejné Frekvenci, a na 90 Nm, výrobní technologii, už taky, nižší spotřebu, a to to tehdá vypadalo, že bude, se zvyšováním, výkonů, počítačů, Ámen, no nebudu, ti lhát, taky, a to taky, jsem, se tehdá bál, že se zvyšování výkonu, počítačů, zastaví, no a tedy, o tom, 40 NanoMetrovém procesu, to vypadalo, a to to, vypadalo, blbě, ale já jsem, si říkal, jestli a to jestli, nás, jen zase, nestraší, jak a to jak, to tehdá, vypadalo, s Firmou Intel, ale vlastně, 40 NanoMetrová Technologie, je a to je, v pořádku, když, a to kdy¨si vezmeš, tu Grafickou Kartu ATI Radeon HD4770, nebo, která, a o tnebo, která to přesně, je, a tak, a tu spotřebu, téhle, Grafické Karty, tak, a to tak, si myslím, že 40 NanoMetrová Technologie, je, a to je, v pořádku, no, takže, myslím, a to myslím, že můžeš být,v klidu, tedy, abych tak, řekl, prostě no! :-)