Místo aby ten, kdo nic nemá, šoupal nohama, dělá pravý opak …
Společnost NVIDIA, která si říká leader na poli vizuálních technologií, nedodala na trh ani jeden kus nové grafické technologie s DX11, ale neustále banalizuje přínos DX11 a to, že jej konkurenční výrobce ATI na trh dodal už v počtu více než 800 000 grafik, považuje za bezvýznamné.
S NVIDIA lze souhlasit jen, že skutečně 800 000 DX11 grafik, proti mnoha desítkám milionů GPU, které tvoří kvartální dodávky, jsou poměrně bezvýznamné. Na druhou stranu na desktopovém trhu a zákazníkům bezvýznamné rozhodně nepřijdou a vzhledem k tomu, že DX11 ATI HD 5000 v lednu pronikne i na mobilní trh a do low endu a NVIDIA stále nenabídne ani jednu DX11 grafiku, měla by NV raději držet pusu zavřenou. Nebo nám snad chce zopakovat, že DX11 není natolik důležité a tedy není žádný důvod kupovat „budoucí“ DX11 grafické karty NVIDIA? NV nám to ale určitě vysvětlí, uvidíte, že až vydá (někdy) DX11 grafiku, hned to bude najednou podle ní ta nejlepší věc na světě, kterou musíme mít.
NV se rozhodně jako tzv. leader na poli vizuálních technologií nechová a na rozvoji DX11, který vidíme už v některých současných hrách a ve špičkových titulech let příštích, nemá absolutně žádnou zásluhu. Být na technologickém leaderovi NVIDIA, tak stále kupuje zastaralé DX10.0 grafiky i když DX10.1 už NVIDIA slavnostně po dvouletém zpoždění uvedla, ale ne na herních grafikách. NV zároveň za skvělé technologie považuje své předražené a koncepčně zastaralé 3DVision pomocí 120Hz obrazovek, aktivních brýlích, a dvousložkové barevné technologie nebo zbytečnou akceleraci PhysX přes GPU (záměrně neoptimalizovanou přes OpenCL), záměrně zmrzačenou aby na vícejádrových CPU, chodila jen na jednom jádru. Na druhou stranu vizuální leader je určitě leaderem v ukazování vizuálů (prezentací super skvělých grafik na papíře) falešného HW a její extempore s falešnou FERMI opravdu nemá konkurenci … Ano, je to všechno marketing a ten NV šel dobře, na druhou stranu je v zoufalé situaci a prázdné ruce s nabídkou se podepisují i na hloupostech, které marketingové oddělní NV v poslední době vypouští. Přes nepřesnosti, falešní grafiky, falešné nadhodnocené výkonové grafy až po úplné lži. Možná bychom se bez toho obešli.
Ale teď z jiného soudku a podívejme se na nezkreslenou realitu. Na FERMI všichni čekáme jak na smilování, konkurence je třeba a já mám pár nových informací. NVIDIA má skutečně podíl na tom, že 40nm grafiky ATI jsou špatně dostupné. Její podíl na situaci je ten, že TSMC má omezené kapacity 40nm výroby a NVIDIA chytře zabrala větší část kapacit pro sebe. V tomto ohledu tedy selhalo AMD-ATI, které prostě nevyjednalo u TSMC dostatečné kapacity, ty se podařilo zajistit až nyní, na začátku prosince spuštěním dalších výrobních linek. Ptáte se, co NVIDIA vyráběla, když FERMI nemá? Hlavně mobilní 40nm grafiky, které jsou dnes všude k vidění, ale také se 40nm vyrábí TEGRA2, která by mohla zabodovat. Přesto 40nm výroba tvoří jen 4-6% produkce TSMC, takže ani v případě ATI, ani NV nelze u 40nm čipů mluvit jako o většinové produkci.
Ale zpět k FERMI. NV prezentovala FERMI (snad už reálné) těm, kterým je hlavně určena. Tedy výzkumníkům. Samozřejmě připravila si hodně vychvalování, ale FERM zjevně vzbudila spíše rozpaky. 30.9. se NVIDIA chlubila uzavřením významného kontraktu s velkou národní laboratoř Oak Ridge v USA (ORNL), která měla postavit Superpočítač na FERMI. FERMI mělo podle NV a ORNL umožnit podstatné vědecké průlomy. NVIDIA FERMI ještě není ani na světě a už přišla o významného zákazníka. ORNL celý projekt zrušila, FERMI superpočítač nebude z mnoha důvodů. Problémem je například i spotřeba. Uvidíme, jestli budou rušit objednávky na FERMI i další výzkumníci, což by naznačovalo, že FERMI asi není to, co by být mělo. Nás ale více zajímá FERMI jako grafická karta.
Do výroby byla zadána už třetí revize čipu, a grafiky tak stále přichází v úvahu až během února, či spíše března. FERMI desktopový čip bude základem minimálně tří modelů grafik. Všechny ale zatím jen high end. GTX 360/380 a 395. NVIDIA by nedělala duální model s tak velkým čipem a žravostí, kdyby nevěděla, že s jedním prostě konkurenční ATI nepřekoná a to se prostě nestane. HD 5970 je natolik poddimenzovaná takty, že stačí jen málo a zase GTX 380 ujede o pěkný kus (jestli neujíždí už nyní, což je pravděpodobné, protože takty FERMI budou nízké v závislosti na výtěžnosti). Takováhle je realita. Problém FERMI bude i cena grafik, nic levného to nebude. NV, jak je z výše uvedeného v tomto článku patrné, banalizuje DX11 a zatím o něm vlastně jinak než o zbytečnosti nemluví. To by mohlo souviset s tím, že FERMI prostě nebude pod DX11 zrovna excelovat a své by v tom mohlo hrát i to, že FERMI nemá tesselátory, ale bude jejich funkci emulovat, což nemusí podávat ideální výkon. FERMI vypadá jako čip dobře, ale na papíře vypadá dobře kde co.
Osobně doufám (je to spíše vroucné přání), aby FERMI vyjelo na grafikách co nejdříve a dokázalo za solidní cenu solidně konkurovat ATI HD 5000. Bude k ničemu, když FERMI GTX 360/380 sice výkonově budou konkurovat HD 5870/5970, ale za cenu o stovky dolarů vyšší a jen ve starých DX9/10 titulech a v DX11 budou mít problémy. Problémy s dostupností HD 5000 grafik rychle mizí a byla by skutečně zapotřebí nějaká konkurence. Hlavně ale potřebujeme silné hráče na poli PC grafik k posílení vývoje her a dalšího, to nám dnes začíná chybět, i když AMD-ATI i na tomto poli jeví výrazně větší aktivitu, než v minulosti, dva jsou lepší než jeden. Bylo by skutečně dobré, kdyby NVIDIA přestala s ukazováním falešných grafik, prezentací falešných nadhodnocených grafů a banalizováním DirectX11, či trváním na zastaralé uzavřené koncepci 3DVision nebo uzavřené podpoře PhysX jen pro své grafiky, včetně omezování funkce tehdy, když máte v systému grafiku jinou. Bylo by skutečně dobré, kdyby se NVIDIA začala chovat jako visuální grafický leader, kterým sice není a fakticky nikdy nebyla (Intel vyrábí přes 50% všech GPU) a nějakou tu skutečně novou grafiku nám už na ten trh dodala. Já se nudím (obrazně řečeno)! Snad NVIDIA zavře a zamkne někam své nedůvěryhodné marketingové pracovníky a vypustí místo nich povedený produkt, který bude mluvit sám za sebe. Včera už bylo pozdě ...
Co na to říct. J8 taky věřím že fermi vyjde brzo a bude dobrá, je to fakt nuda. Před rokem a něco to byla jiná káva hd4000 vs gtx200 to byla opravdu konkurence. Jinač dostuponost grafik ati hd5850, 5870 a 5970 se zlepšuje, ale ty ceny jako to je děs. HD5870 je ve větších e-shopech i kolem 10 000. To je fakt síla.
dolar je také za 18,5 a ne za 17,2 když HD 5850 vycházela ... oficiální cena HD 5850 je 299 dolarů, u nás by se tedy prodejn ceny měly pohybovat kolem 6200 korun po vydání, kde také chvíli byly, pak to nedostupnost zvedla ... momentálně na základě aktuálího kurzu by HD 5850 měla stát 6600 korun včetně DPH minimálně, takžke rozmezí 6600-7600 korun je normální ...
hmm jenže za takové ceny to už není zdaleka tak výhodná karta a svou cenou již začíná spíše zasahovat do nižšího highendu. Nemluvě o tom, že HD5870 se stal právoplatným high-endem se vším všudy.
Mně nezajímají nějaké teorie, či velkoobchodní ceny v dolarech, mně zajímají ceny v běžných obchodech. A podle současných cen je HD5870 čistý highend (nemluvě o tom že osobně nikdy neuznám za mainstream grafiku, která se nevleze do spousty běžných skříní).
Siddhi asi myslel že cenou (českou) se dostává do nižšího highendu. Nebo spíš že je to karta vyššího mainstreamu za cenu nižšího highendu. Ale asi každému je jasné že nedostatkové zboží, novinka bez konkurence před vánoci bude trochu dražší. Uvidíme jaké budou ceny po vánocích, až jich bude dost na kladech a hlavně až vyjde fermi.
české ceny se vrací do normálu ... dříve jsem také přemmýlěel jestli X800GT za 8000,- jako mainstream nebo X800XL za 10500 jako nižší high end nebo 14000 za X800XT jako vyšší high end ... prostě se vše rací do normálu, dolarové ceny zůstávají ...
dříve jsme jako mainstream brali grafiky typu X1650/6600GS za 4000 a byli jsme vysmátý jak jsou levný a jak krásně zvládnou střední detaily ... zvykli jste si zkrátka na neudržitelnou situaci, kterou nasatratovala HD 4850 za 2800 po vydání (čemuž u nás pomohol abnormálně nízký kurz dolaru) to se opakovat nebude ...
Nevím, ale X800GT byl čistý mainstream to máš pravdu, ale stála kolem 5tisíc a byl to přímý konkurent 6600GT, která stála při uvedení kolem 6tis. a pak klesla na 5tis. To byl mainstream. Stejně jako X1650XT s cenou kolem 5-6tis a jeho konkurent 7600GT s cenou 5-6tis.
nevím kde jsi přišel na 200-400 dolarů vyšší mainstream. 6600Gt a X800GT stáli kolem 150-200 dolarů a patřili do středního až vyššího mainstramu. Vzhledm k tehdejšímu kurzu tych 200 dolarů + daň atd. udělalo u nás cenu 6tis.
s tema konkurentama to bylo tenkrat trochu jinak. puvodne jako odpoved na 6600gt se cekalo nez ati vyda x700 radu. ta ale vykonove moc nestihala a jeste byla drazsi. x800gt (gto) prisla az jeste o neco pozdeji. melo tehdejsi high-endova jadra (az 3 ruzna se kteryma se prodavala zaroven) osekana na polovic. nejlevnejsi varianty pak meli myslim i jen 128bit sbernice a ty se na 6600gt moc nechytaly. drazsi varianty s 256bit sbernicema pak 6600gt prekonavaly, ale byly drazsi.
7600gt pak byla take dlouho bez konkurence (x1600 se moc nechytali) a konkurovali ji spise o neco drazsi a vykonejsi derivace x1800 karet, at uz meli znaceni gt nebo le. x1650 prisla az o dost pozdeji spolu s x19xx radou.
jo x800GT přišla o hodně později než 6600GT (osobně 6600Gt považuji za naprostou legendu)
i, já chtěl hlavně poukázat na to že čistokrevný mainstrem se pohyboval v cenách kolem 150-200 dolarů (u nás kolem 5-6tis), a high-end začínal již na 300-400 dolarech (což u nás znamenalo 10-15tis). Tak nevím proč dnes by mněla být HD5870 mainstreamem.
Moje řeč, měl sem jí od Leadteku - GT6600 128DDR3 to byla karta..
Jinak nepovažuju HD5870 s cenovkou za mainstream!!! Ten bych viděl kolem 4-7tisíc.
Reakce na DDho-si fakt matěj a ty tvoje bláboly...bože zaco nás trestáš. Já vím, každý má tu svou a jedinou pravdu..
No a ještě reakce na cenu-lidi neblbnětě a pokud máte solidní železo nekupujte teď nic!! Po vánocích to spadne a určitě bych počkal na Fermi-nejen z hlediska technologie..,ale i výkonu. a Kritizovat něco co vlastně ani neni a teď se nabavím o pr nV je ujetý. Nikomu se nelíbí trh bez konkurence, ale to opakování dokola..chjo
No a na druhou stranu bych i s nV souhlasil, teda v tom že DX11 zatím taková výhra neni. Vždyž i ty TOP herní tytuly jako je ME2 sou v podstatě na DX9
a opravdový DX11 tady bude tak nejdřív za 1/2roku a s ním i snad FERMI.
Takž bych se ti na AMD/ATi grafiky vybodnul. Za půl roku ti možná dám za pravdu, ale ted je to o tom vydržaŤ
DD si plete jablka s hruškama. X1650 nebyl sazen proti 6600GS jsou to jiný generace :o) 6600/GS/GT byli sazeni proti X700 (který se mimochodem vůbec nepovedl a výkonem stal za prd) a X600
Uz to proboha zkousni, GK za ~8-10k je proste highend a berou to tak vsichni, co HW dostavaji za koruny v obchode, ne k recenzim ci za ne (zadny utok na ddworld ;) ).
Vidis ty reakce, nikdo ti nebere tvuj nazor, tak nas (vetsinu) geeks alespon prestan oznacovat pomalejsimi. Nejsme pomali, jsme jen odkazani na komercni kanaly a koncovou cenu resit musime.
tak kdyz na to pujdu takovym selskym rozumem, tak mainstream by se dal prelozit jako hlavni proud. do toho by meli tedy patrit karty, ktere si muze dovolit vetsina lidi do nejakeho mainstreamoveho (prumerneho) pc. takle si ja predstavuju grafiky zhruba v rozmezi 3000-6000, maximalne 7000. v drivejsich dobach byly mainstreamovymi grafikami vzdy rady, ktere meli v ciselnem oznaceni sestku. takze mainstreamem byly treba radeony 9600, X600 (X700), X1600 a geforce FX5600, 6600 a 7600. tyto karty ve svych nejlepsich variantach (at uz XT u ati nebo GT u geforce) stali vetsinou kolem tech 6-7k a byly povazovany za vyssi mainstream. drazsi karty, ktere byly odvozene od high--end karet orezanim jadra o nake ty pixel/vertex pipeline jako treba radeony x800xl, x1800xl byly povazovany za nizsi high-end a staly u nas vetsinou kolem 9k. jaktoze najednou, kdyz u nas je kurz dolaru pomalu o tretinu nebo az polovinu nizsi, jsou graficke karty za 10000 mainstreamem?nebo on core i7 za 10k je taky mainstream procesor?high-end je az ta extremni edice za 25k?
Přesně tak, mainstream, neboli hlavní proud může jen těžko stát 10000. To už pak není hlavní proud protože, větsina hráčů si nekoupí takhle drahou kartu ale bude koukat právě (pokud chtějí kartu na hraní) na karty do 6000-6500 kč tedy do mainstreamu. Nemluvě o tom že dolar je levnější než kdysi.
tak mi řekni co znamená mainstream? Přelož mi to slovo. Hlavní proud nikdy nebude stát 30 000 protože pak to není hlavní proud, nejde tu o fixní hranice pěněz ale o význam slova. To by znamenalo že by si většina hráčů neboli hlavní proud (mainstream) kupoval grafiky za 30 000.
O tom právě mluvím ne? Mě právě nepřipadá. A´t si má jádro jaké chce označení, mainstream označuje karty které si hráči kupují nejčastějí, tudíš hlavní proud, tudíš cenu okolo 5-6 tisíc.
Jj. Dale je take zajimave, proc se tu neprohlasuje, ze lowend cipy NVIDIE uspesne souperi s mainstream cipy AMD/ATI, ze? Kdyz i RV710 je mainstream cip podle nekoho. A jeste jedna drobnost, AMD pouziva VALUE pro oznaceni nejnizsi tridy, nad ni oznacuji jako mainstream, performance a pak tusim enthusiast.
to se trochu pletes, ona tady byla oznacovana jako navrhem high-end za mainstremovou cenu tohle mi uz pripada jako kdyby mel byt high-end snad neco spatnyho a jenom mainstream ten nejlepsi. pritom to mas ale uplne jedno...kdyz ale karta stoji 8k a vic, tak uz urcite patri spise do high-endu.
Já bych to až takhle nestavěl. Co je potom 295 GTX má to dvě jádra a přitom je to rychlý jako jednojádrová 5870. Siddhi to myslel asi tak, že HD 5870 v současný době poráží High end karty Nvidie, takže je to high end. Cenově určitě
Celkově o svátcích býva na webech mrtvo. Autoři a admini většinou vybírají, co za rok zameškali a neprochlastali. I když podle IT Crowd to stejně neprosouloží i když zrowna DD má dle toho co se tu chlubil partnerku. Ale podle sebe soudím tebe... A pro nás co dáme děcka spát, sluníčko se dívá na pohádky , tak co jiného zbýva jenom ten net a hry. Už teraz si šetřím některé články na období informačního sucha.
Schválně, kolik tu bude komentů 24.12.2009 mezi 16 00÷20 00?
ATi dle mě udělala hodně dobrý tah s tím HD 5970, že u něj zůstali pod 300 W čímkoliv bude chtít nVidia překonat HD 5970, to bude mít vyšší spotřebu jak těch 300 W
proč myslíš ? měla snad vyšší spotřeby v GT200 řadě ? neměla, a ještě měla o něcomálo vyšší výkon (GTX295)
a to to byl ten netechnologickej hamburger jak ju DD nazýval
??? wtf ??? 9800+ GTX o 20 W větší spotřeba než HD 4850 v klidu i zátěži GTX 260 vs. 4870 +- stejně v zátěži, idle horší HD4870 ( špatný power management ) - údaje jsem teď schválně ještě vyhledal na servru www.extranvidia.cz , tak jenom ať se nVidia ukáže, jak bude výkonná do 300 W
Srovnani 9800GTX+ (prakticky OC verze) je vazne smerodatne, ty karty si konkurovali cenou, nikoliv spotrebou. GTX260 vs HD4870 - Nvidia lepsi. GTX295 vs HD4870X2 - Nvidia lepsi. To jsou srovnatelne parametry soubeznych generaci, tak srovnavej to co srovnat lze.
jenze HD59xx a budouci Fermi,jsou(budou)high end a u toho se az tak moc ma spotrebu a svim spusobem i na cenu nehledi.U superpocitacu se na tu spotrebu asi hledet bude protoze napr. 4 dvoujadrove Fermi nakrmit bude pro zdroje problem(i ten se da vyresit),takze "asi" jediny duvod proc Oak Ridge v USA (ORNL)rusi sve zavasty(obednavku)je ze Fermi poda podobny vykon jako 4X HD59xx
PS:pro ty co maj high end sestavu je min.zdrojem cca700W a to uz utahne Fermi,jinak bych rek ze takovi lidi maj uz 1000W(a vic)a Fermi i kdyby bylo o 5% vykonejci(nez HD59xx) a o dost drachsi tak si ho prote koupi.Kazdy produkt ma sveho kupce jen tech kupcu nebude tolik
to je nesmysl. Počítáš jen s "výdělkem", ale nepočítáš fixní náklady (vývoj, logistika, management) - na to si taky musíš vydělat a cena zboží má v sobě tento náklad započítaný, a to tak, že se počítá s prodejem určitého množství kusů. Když se tolik neprodá, je třeba zvýšit cenu.
Rovněž se neměří jen čistě finanční výkonnost, ale třeba taky podíl na trhu a přiznejme si to, nvidia dnes těží už jen ze své zašlé slávy a penetrace trhu (vývojáři her nemohou nvidii ignorovat, protože ji stále má velké procento hráčů). Až se to tebou popsaným postupem zvaným "prodal jsem jen pár kusů, ale kapsu jsem si i tak namastil" zvrtne, přestane být nvidia zajímavá (ostatně tak jako se dnes nevyvíjejí hry podporující třeba Matrox) a její pád se bude celou tu dobu zrychlovat. proto tento scénář žádný výrobce (včetně nvidie) nechce dopustit. Podíl na trhu je jednoduše velmi důležitý parametr.
Pravda, ale tyka se hlavne mainstreamu, v high-endu se skutecne proda par kusu a marze je tam podstatnejsi nez podil na trhu, ktery eventuelnim lepsim podilem cena/vykon ziskas. Plus rovnez nezanedbatelny marketingovy prinos "nejvykonejsiho" reseni na trhu. A on mluvil o HD5970 a pripadne Fermi, tedy predpokladany high-end. Tyhle karty se trochu vymykaji beznym ekonomickym standartum.
dan666 ty jsi vůbec nepochopil o čom je řeč, díky té 300 W hranici budeme mít možná přímé porovnání výkonu na watt energie, ovšem pokud se mu nVidia záměrně nevyhne
Podle vseho je nzna spotreba vlastnost 40nm procesu, proc predpokladas, ze by to u Nvidie melo byt jine? koukni na GT240 - spotreba luxusnejsi nez prozatim u ATi, samozrejme zatim neni moznost srovnavat, uvidime az po uvedeni konkurence v podobe HD56xx a nizsich. Podle myho bude spotreba cca stejna, jako u minule generace. ATi dohnalo ztratu, kterou v tyhle oblasti melo, dnes je to jiz smerodatny parametr pri nakupu, nvidia doposavad v globalu v tomhle smeru ATi prekoavala - proc by se to melo nejak vyrazne menit?
Ako to ze Fermi nebude mat teselatory? Dufam ze teselacia tam tympadom bude riesena nejakym inym sposobom. Nechcel by som si kupit drahe Fermi a kukat sa na nejaky sestuholnik miesto kolesa na aute zatial co Ati bude mat vsetko pekne oble.
Tesselace je sice předepsána v API DX11, ale jak k ní budou výrobci GPU přistupovat je na nich ... ATI dlouhodbě už řadu let má na to vlastní tesselační jednotky a v některých hrách využívány byly, NV nikdy Tesselaci nepoužila takže s tím nemá žádné zkušenosti a vytvořit specializované jednotky neměla čas, navíc když se sosutředí se svým čipem na jiné věci ...
muzu se zeptat v cem byl tak spatnej muj prispevek o tesselaci?to ostatni beru a ani me to nak netankuje, ale zrovna v tom prispevku o tesselaci sem se nijak neprovinil. nebo muzu vedet cim?
no tak si ty odkazy o te banalizace dx11 taky precti. jeden je jen tak mimochodem uz dost stary a v druhym je to nejhorsi proti dx11 asi jen to, ze to ted jeste neni zadnej "big deal". ale to je pravda ne?zmeni se to az tu bude naka AAA hra, kde ten prinos bude opravdu znat. coz bude nejspise nejdrive az vyjde nove avp...
Jde primárně o to, že NVIDIA místo aby držela hubu když už DX11 nemá a jako technologický ledaer se chovala a tedy DX11 přinesla ... neřekla ani slovo o tom, jaký je to pokrok a vzhledem k rychlosti, jakým se prosazuje pokrokem je.
takžke si vytáhni hlavu ze zadku a čti pozorněji co píšu, možná ti pár důležitých vět z článku neunikne (pro ty slepé zvýrazním:
Citace:
Osobně doufám (je to spíše vroucné přání), aby FERMI vyjelo na grafikách co nejdříve a dokázalo za solidní cenu solidně konkurovat ATI HD 5000. Bude k ničemu, když FERMI GTX 360/380 sice výkonově budou konkurovat HD 5870/5970, ale za cenu o stovky dolarů vyšší a jen ve starých DX9/10 titulech a v DX11 budou mít problémy. Problémy s dostupností HD 5000 grafik rychle mizí a byla by skutečně zapotřebí nějaká konkurence. Hlavně ale potřebujeme silné hráče na poli PC grafik k posílení vývoje her a dalšího, to nám dnes začíná chybět, i když AMD-ATI i na tomto poli jeví výrazně větší aktivitu, než v minulosti, dva jsou lepší než jeden. Bylo by skutečně dobré, kdyby NVIDIA přestala s ukazováním falešných grafik, prezentací falešných nadhodnocených grafů a banalizováním DirectX11, či trváním na zastaralé uzavřené koncepci 3DVision nebo uzavřené podpoře PhysX jen pro své grafiky, včetně omezování funkce tehdy, když máte v systému grafiku jinou. Bylo by skutečně dobré, kdyby se NVIDIA začala chovat jako visuální grafický leader, kterým sice není a fakticky nikdy nebyla (Intel vyrábí přes 50% všech GPU) a nějakou tu skutečně novou grafiku nám už na ten trh dodala. Já se nudím (obrazně řečeno)! Snad NVIDIA zavře a zamkne někam své nedůvěryhodné marketingové pracovníky a vypustí místo nich povedený produkt, který bude mluvit sám za sebe. Včera už bylo pozdě ...
nVidia už dávno psala o DX11 jako o super produktu microsoftu, a říkala že je velice ráda že muže spolupracovat na projektu DX11, říkali taky že sou DX11 přímo nadšení ..
Odkial mas zasa to, ze bude mat Fermi v DX11 hrach problemy? Snad nie len kvoli tomu, ze nema HW teselacne jednotky? Teselacia sa ani zdaleka nerovna DX11.
Ja si myslim, ze NV mat problemy s teselaciou nebude. Otazny je rozdiel vo vykone oproti konkurencym kartam s HW riesenim. Ak nebude mat SW vypocet teselacie vazne dopady na vykon tak pohoda.
proc by ho ted vychvalovala, kdyz ho nema? to prece odporuje "zdravemu" obchodnimu mysleni. je blbost ji za tohle nadavat, protoze to po ni nikdo ani nemuze chtit. a na dx11 karte urcite pracuje.
co delalo ati kdyz sme pul roka cekali na jeji prvni dx10 kartu?nadaval si na ni jak zdrzuje pokrok?ne v napeti a nerealnych ocekavani se cekalo a psalo se jaka to bude bomba a jak 8800gtx uplne rozdrti. tak proc se ale do nvidie ted musis takle navazet? z jednoho extremu si presel do druheho, kdyz se pozice ati a nvidie vystridali.
Citace:
Bylo by skutečně dobré, kdyby NVIDIA přestala s ukazováním falešných grafik, prezentací falešných nadhodnocených grafů a banalizováním DirectX11, či trváním na zastaralé uzavřené koncepci 3DVision nebo uzavřené podpoře PhysX jen pro své grafiky, včetně omezování funkce tehdy, když máte v systému grafiku jinou.
porad nam ukazuje nvidia falesne karty?ne ukazala nam ji jednou, utrhla si ostudu, pekne se zkritizovala a deme dal. tedka nam snad zadne falesne karty neukazuje nebo jo? kde si vzal ty grafy?nvidia nam snad zadny neukazovala nebo jo?vsichni se snad zhodli ze to je nejakej fake od nejakyho vtipalka. i ty sam si udelal grafy, ktery mely byt "jako" od nvidie. tak proc to ted davas na triko nvidii?kdy nekdo chce doma 3D tak jakou jinou moznost ma nez to 3D vision?ta koncepce neni sice idealni, ale aspon neco tu je. a je videt ze do budoucna s tou technologii nvidia pocita, takze treba neco na zpusob 3D vision 2 uz bude lepsi a vychytanejsi. physx uz nvidia nabizela ati davno. kdyby tenkrat podporila i cudu, tak tu mame davno nejake gpgpu rozhrani i fyziku, ktera by jelo na grafikach obou vyrobcu spolu s kupou aplikaci i her s gpu akcelerovanou fyzikou. a v te dobe bylo opencl jeste v plenkach a pomalu se o nem ani nevedelo, stejne jako o nejakem directcompute. jestli nvidia bude chtit rozsirit physx pres gpu, tak ho chte nechte bude muset dat pod opencl. ale to vsechno nejde proste hned. podpora opencl tu je sotva nakejch par mesicu a nvidia si stale jeste s physx veri, tak ji to nic nenuti delat hned. opet by to delala sama proti sobe. mame ji to mit za zly?hmm muzeme. ale logicky nemuzeme chtit po ni neco, co by ji samo pripravilo o penize. ani ati ani nvidia nedela nic jen tak zadarmo pro vseobecny blaho. na prvnim miste jsou vzdy penize a u firem i vzdycky budou.
jo a jeste jak vys ze gtx360 bude o stovky dolaru drazsi nez hd5870?a co bude teda ta gx395, kdyz je uz gtx360 high-end?
A to tu mame este fakt, ze OpenCL ani DirectCompute nie su ziadna konkurencia k PhysX. Najskor by niekto musel v tychto API naprogramovat fyzikalny engine a az to by bolo to co sa slubuje od spominanych rozhrani uz teraz.
To v zivote nepochopi. Nedokaze oddelit obchodni stranku od produktove. Proste nedospely jednani. Marketing v zasade odfiltrovavam, nezajima me. zajima me, jak si to povede, co to dokaze, za kolik to dokaze a co mi to prinese, kdyz si to koupim. ne to, ze vcera Nvidia rikala to a dneska tohle. Takhle by mel postupovat fanda technologii a ne, ze na zaklade jednani marketingoveho oddeleni bude neustale posuzovat vsechno z tohhohle uhlu. jak dite na hristi, s tebou se nebavim, tys mi vcera rozdupal babovicku....
neoděluji související věci ... to je dospělé jednání. Jako fanda technologií považuji banalizování DX11, konečně viditelného posunu za dlouhé poslední roky, přejmenovávání grafik, ukazování falešných grafik, omezuování PhysX na jedno jádro CPU atd. za jasné selhání ... a každý kdo je skutečně objektivním technologickým fandou to musí vidět stejně ...
fandit jen ATI nebo NV může jen idiot ... já fandím oběma a mnoha dalším stejně ... ona totiž žádná barva loga a ani logo samotné žádnému čipu na výkonu nepřidala. Každý kdo je objektivní by to měl vidět podobně, evidentně s tím ale máte někteří problémy ...
Pokud tomu tedy rozumis a chapes, pak pochopis i to, proc to nyni bagatelizuji. Protoze to nemaji, kdezto konkurence ano. Momentalne je to duvod, proc pri koupi noe grafiky volit ATi, takze Nvidia tohle voli. je to pochopitelny pristup a pokud to hodnotime z pohledu marketingu, tak i spravny. Jenze prave to, ze neustale lpis na tom co je pouhopouhy obchodni tah, je detinske a nedospele. Marketing duklezity neni, dulezite je co produkt prinasi. jiste Nvidia ma agresivnejsi marketing, na druhou stranu taky nese sve ovoce - prodava stale vice i kdyz uz evidentne nestiha konkurovat, minimalne po HW strance. Naopak prave chby AMD je, ze sve vyhody nedokaze vyuzit a vytezit ji na maximum. Omezovani PhysX, prejmenovani, bagatelizovani - to vse je jen marketing, naopak by byla spatou firmou, kdyby to nedelala. Samozrejme, ze ne vsechny veci jsou koser a spravne, ale takovy zivot uz je, s tim nic nenadelas a brecet nad tim nesvedci o pristupu technologickeho famndy, naopak, ti ta nvidia prave timhle vadi, ze pak nejsi schopen nestrane posoudit zda prinasi ci neprinasi neco uzitecneho.
Všechno je o obchodu a nvidia je dobrý obchodník a dobře ví, že když bude držet hubu pude pod kytičky. Tohle je prostě tvrdý konkurenční boj a firma která bude držet hubu skončí. Za tyhle různé řeči prostě nelze nvidi kritizovat.
Kritizovat ji člověk musí za to že podcenila vývoj, byla příliš ukolébána obrovským úspěchem osmičkové řady grafik a jednoduše zaspala.
DD fakt nechapem. NVIDIa 3D je podla teba zastarala technologia(resp. aka je novsia taka co uz funguje a tlaci sa hore) a este k tomu predrazena a pritom kupit si dalsie 2 monitory na ATI efinity ti nevadi. Aky je tam financny rozdiel? Co sa tyka PhysX skoda hovorit. Da sa polemizovat iba o tom, ci je mozne to co bolo doteraz prezentovane, spustat aj na CPU. Ale teoria zamerneho zmrzacenia je fakt smiesna. Vies dokazat ze PhysX bol niekedy optimalizovany na viacjadrive CPU a od prevzatia NVIDIou uz nie je?
Pokial viem tak si ani zdaleka nerobil podobne zavery ked meskala s kartami ATI. Tam si este odporucal cakat a ako sa neskor ukazalo tak to co vyslo bol prepadak....
A tie reci okolo Fermi to je o com? Najsko nebude dostatocne vykonna lebo NV opusta herny segment. Potom odrazu musi byt aspon o 30% vykonnejsia ako ATI inak je to prepadak. A teraz ked to vyzera ze bude o take percento vykonnejsia tak uz je zasa problem cena...
NV ponuka vsetko to, co aj ATI(az na ATI eyfinity) a este k tomu sa snazi svoje produkty podporit aj SW cestou na co AMD kasle. Vyhovorky typu ze je AMD hlavne HW firma ich maju akoze ospravedlnit? Vracis ze si technologicky fanda. Ako si potom mohol napisat ze podpora C++ na Fermi je zbytocna? Vies si hadam predstavit o kolko je na svete viac C++ programatorov oproti CUDe resp. ATI streamu. Vravis ze si neutralny ale pritom vsetko co ma NV ako plus sa snazis zhodit alebo zosmiesnit a u ATI vychvalujes aj to co sa pomaly neda. Tam ti nevadi ani cerpat zarucene pravdive informacie z PR materialov bez zbytocnych posmeskov alebo vyhrad. Fakt je to vsetko divne. A potom sa este cudujes ze ta niekto oznaci za fanATIka. Nevies preco a pritom kazdy clanok o NV je len v negativnom svetle a kazdy o ATI ako keby bola nejaka super firma na tomto svete jedinecna.
A este mam aj jeden dotaz ohladom staleho vychvalovania ATI kariet poukazovanim na vypocetny vykov v TFLOPs. NV karty ho mavali vzdy viditelne mensi ale pritom na vykone, ktory je pre kazdeho kupujuceho dolezity sa to nikdy neprejavilo. Je to cisty marketing a dokial sa to nepreukaze vyraznejsim vykonom oprtoti konkurencnym kartam tak to tak aj zostane. Ale toto uz ti nevadi. Treba ukazat aky je vypocetny vykon NV kariet mensi. Co tam potom ked v realny vykon je obdobny alebo ako je to vo vacsine pripadov lepsi.
Marku, jenže to, co DD říká, je pravda... nVidia se sama v negativním světle ukazuje (atrapa FERMI, ty grafy csááá), to popřít nemůžeš. Přiznávám, že DD je víceménně přikloněný na stranu ATi, ale v poslední době je většina bývalých nVidiotů na straně ATi (mimoto já tky, tkže vítej v klubu DD ) a to je realita...
Papuch, ty zas přiznej to že nevěříš že by jen tak nVidia vydala výkonnostní grafy, ještě tak odfláknuté ... všichni nromální nezaujatí lidi to museli hned poznat, ti zaujatější si z toho teď dělaj srandu a hážou to na hřbet nVidii a neprávem ji takhle shazují
atrapa Fermi jak mě tak hodně lidí sklamala v tom se přít nechci a nemůžu
btw. když tu píšeš ,Přiznávám, že DD je víceménně přikloněný na stranu ATi, ,, tak přeci musíš pochopit že hodně lidí ovlivní makretingové kecy ... ačkoli si to DD neuvědomuje a nepřiznává, dělá tu nehoráznou propagandu ATi a nVidiu háže do koše jen aby v něčem nebyla náhodou lepší, aby člověk na webu nezačal pochybovat o výkonosti radeonek
Tak neobhajujem NV za to, ze ukazala falosnu kartu. Zosmiesnila sa a hadam sa uz podobna blamaz nezopakuje. Ale co sa tyka tych grafov tak pokial viem nikto z nas doteraz nevie ci islo o skutocne PR grafy od NV alebo to nejaky vtipalek, ako pise Raigor, vyvesil na net ako svoju pracu. A takto by som mohol pokracovat dalej. Proste na NV triko sa pripisuju aj vyhlasenia alebo ciny, ktore tato firma neurobila. Tak na to iba upozornujem.
Zatial si to predstavujem tak, ze spravne napisany program v C++ bude mozne skompilovat tak na CPU ako ja na Fermi. V com vidim velku vyhodu oproti CUDe, ktorej zdrojovy kod pokial viem je viazany iba na karty od NV.. Alebo sa mylim?
No jo, Charlie zo SemiAccurate si vymysli nejaku hlupost na zvysenie citanosti a DD mu na to skoci ako mucha na ho*no ... klasika Tato sprava bola okamzite dementovana takze asi by bolo dobre si fakty z tak cerveneho webu najskor overit ako ich vydavat za pravdu
Škoda sa k tomu vyjadrovať, Nvidia kydá na všetkých čo jej skrížia obchody, môže to znamenať že Fermi bude prepadák ale tiež nemusí. Z hľadiska konkurencieschopnosti na trhu je zlé, že Fermi tu ešte nie je. Dosť mi to pripomína hru na mačku a myš ktorú roky dozadu hrala nVidia s 3Dfx.
Na nV marketing nadáváš, ale přitom jsi úplně stejný jako oni, akorát šíříš ty informace v inverzním smyslu. Rozdíl mezi vámi je v tom, že oni za ty řeči dostávají zaplaceno (merketingová oddělení tu rozhodně nejsou proto, aby šířili pravdu) ale ty jsi pouhý fanda druhého tábora. Svým způsobem obdivuhodné.
Pamatuju kdyz vyslo 8800GTX/GTS že ATi taky neměla žádnou konkurenci k těmto kartám a to pěknou dobu, a ty si psal aby lidi čekali na 2900 od ATi který byly pěknej propadák, Pamatuju titulek "ATI HD2900PRO drtič asfaltu", a výkon karet od NV dohnali až karty z generace 3000. Kdybych ještě použil tvoje slova že všechny karty od Nvidie jsou vlastně jen G80 jádra, který ale pořád na karty od ATi stačej, tak asi Nvidia nemá kam pospíchat.
Píšeš že Nvidia má zastaralý jádra do článků ale když se pak podíváš na testy tak tam takovej rozdíl zas není co?
IMHO je toto srovnání, které jsi dal, poněkud nesouměrné. Jednak X2900 byla jen "nedoladěná", nebyla to nevyrobitelná slepá větev (respektive "poslední vývojový šlahoun G80" jako Fermi), ale naopak první svého druhu.
Když se podíváš na testy, tak já vidím dost zásadní rozdíl :-) A hlavně u nových her to bude nesrovnatelné, DX9/10 grafiky s DX9/10 vzhledem proti DX11.. A když se k tomu přidají provozní parametry (taková HD5770 proti GTS260) jako spotřeba, hluk, kvalita zobrazení apod., tak ten rozdíl neuvidí jen člověk, co jej vidět nechce.
Ja by sompockal s porovnavanim rozdielov v spotrebe/teplote az kym tu nebudu karty z rovnocennej generacie. Samozrejme ze starsie karty vyrobene vacsim vyrobnym procesom sa v tomto nevyrovnaju tym novym.
Její podíl na situaci je ten, že TSMC má omezené kapacity 40nm výroby a NVIDIA chytře zabrala větší část kapacit pro sebe. V tomto ohledu tedy selhalo AMD-ATI, které prostě nevyjednalo u TSMC dostatečné kapacity, ty se podařilo zajistit až nyní, na začátku prosince spuštěním dalších výrobních linek. Ptáte se, co NVIDIA vyráběla, když FERMI nemá? Hlavně mobilní 40nm grafiky, které jsou dnes všude k vidění
tak mi to nejak nejde dohromady s Odkaz tímto slavným článkem
Být v marketingu Nvidie, tak možná blábolím to samé Ono je pro ně asi těžké přiznat si, že: Lidi, pokulháváme s výrobou GK s čipem fermi. Věříme, že do půl roku bude na trhu a co se týče konkurence schopnosti, tak uvidíme
Oni si to preci klidne priznaji, neco jineho je tohle rict navenek. Pokud nemas sebevrazedne sklony, pripadne nechces aby te akcionari ukamenovali, tak to preci nereknes. Tohle neni o cestnosti ci jakychsi podobnych vlastnostech. Zodpovednost je prilis velka na to, abys sis mohl hrat na skautika. RV600 - 8 mesicu zpozdeni oproti prvnimu uvedenemu datu vydani, ATi priznavala pouze to, co se uz tajit nedalo - prirozene, tak to proste musi byt. Pokud by ted Nvidia vylezla a rekla, Fermi se nam nedari, nevime kdy ho dodame, hodnota akcii okamzite klesne. Tohle nikdo normalni nepripusti a tudiz se dal bude mlzit, mlzit a mlzit. Proste tam kde se toci penize je treba byt pragmaticky. Je naivni predpokladat, ze nekdo kona jinak. Tohle chovani diktuje trh a konkurence, prizpusob se, akceptuj nebo zustan vzadu.
Ježiši kriste, proč se zase hádáte ?! Prostě je aktuálně NVIDIA v prdeli a ATi na koni, nic víc, nic míň. Určitě se to zase jednou obrátí a takhle to bude dokola. Taky chápu NVIDIOTY a FANATIKY, prostě chtějí mít grafiku od svého ''miláčka'' no, nevím proč jim za to nadávat. A to, že třeba počítače v Tescu mají z 95% jenom NVIDIA grafiky je prostě lepší postavení NVIDIE na OEM trhu, než ATi. Dělá hodně to, že NVIDIA hodně propaguje své grafiky a lidi slyší jenom DŽÍFORC či ENVIDIA.
Nechapu jak tu někteří NV pacienti píší jak je DX11 na nic a blablabla,nesmysly..Ale sotva NV vydá svoje Fermi tak jé to je paráda tati kup mi ji ona má DX11. .Clanek je o tom že NV má zase svoje blbé řeči o tom jak je DX11 nanic to samé co tvrdila o DX10 a 10.1..Už jenom proto jak se táto firma chová bych od ní nekoupil nikdy nic..Jenom klame zákazníky přeznáčováním karet atd..Chápu nějací lidé se najdou co jí to baští to jsou ty kterým říkám malé ovečky
No nevím jsem si moc nevšiml, jde o to že se tu DX11 v současnosti trošičku přeceňuje, protože výrazný rozdíl čověk zatím nevidí. Ale samozřejmě v budoucnu to snad bude výraznější. Jde o to DX11 je nevýhoda nVidie, ale než si ho člověk bude moc pořádně vychutnat, tak tu DX11 nVidie budou. A to že nVidia umí prodat to co má, není její chyba
ale ne grafické karty jako takové, porovnávat grafiku Intel a AMD či Nvidia je jako porovnávat práškovač s raketoplánem. Obojí sice létá ale to je vše co mají společné
A označovat termínem grafická karta švába na základovce, to je velmi eufemistické. Hodí se spíš termín zobrazovací adaptér
řekl bych že to bylo myšleno tak, že se do prodeje dostanou méně kvalitní čipy, které nezvládnou vysoké takty, a proto bude celá modelová řada mít právě tak nízké takty.
Mno nevím, jestli je něco mezi dobrým a špatným čipem. Podle toho, co tak čtu/vím je prostě architektura jader ATI schopna vyšších frekvencí. U nVidia jsou samotná jádra nízko (do 700MHz - myslím high-end) s tím, že mají vysoko nataktované shadery.
Tak podle zatim uvedenych parametru, podotykam ze prozatim pouze spekulaci, se uvadi 650MHz - coz je nize, nez v minule generaci (brany takty jadra). Ovsem za a) jsou to pouze spekulace, byt pravdebodopne dost informovane a za b)ony nizke takty asi skutecne s vyrobnim procesem tolik spolecneho mit nebudou, zrejme se skutecne jedna spis o vlastnost architektury jako takove, nez ze aby to bylo omezenim kvuli 40nm vyrobe. Zrejme se uvazuje predpoklad nejakeho vykonu ve vztahu ke spotrebe - protoze spotreba zacina byt jeden z parametru pri vyberu. Takze spekuluji, ze takty samozrejme pujdou navysit, ovsem za cenu vyssiho napeti a tim i spotreby - takze do prodeje pujdou referencni jadra a takty, ktere zaruci nejaky odpovidajici vykon v dobrem parametru vuci spotrebe. Napriklad HD5970 je jakysi takovy priklad, urcila se hranice TDP, ktera je jeste prijatelna pro vetsinovou populaci s tim, ze to sice zere, ale ne zase toli a AMD k tomu nabidne OC, ktere sice navysi spotrebu vyrazne, ovsem nabidne i odpovidajici vyko - dle meho dobry marketingovy tah.
Žial nvidia má pravddu v tom, že DX 11 sa moc rozširovať nebude. Jednoducho preto lebo primárne sú gamesky stále vyvvíjané na herné konzole. Tak všetky gamesky budú natívne dx9c + k tomu pár DX11 efektov naviac. Čiže nič od čoho by muchy kapali. AMD by malo prehovoriť mrkvosoft aby rýchlo uviedlo novú hernú konzolu s dx11 ready a potom by to bolo už o inom. Ale do príchodu novej genrácie herných konzol má nvidia čas s uvedením DX 11 redy GPU. Žial je to tak PC trh neni pre vývojárov hier najpodstatnejší. Pár hier bude natívne pod dx 11, ale to bude tak všetko. A dobre vieme, že vyzuálny rozdiel medzi DX11 a DX10 nieje až taký priepastný.
je vidět, že si situaci kolem DX11 nepochopil ... DX11 se rozšiřuje velmi rychle proto, že je uděláno tak, aby hry ud+ělané jako DX11 běželi i pod DX10/9 a konzolemi, lze jen příslušná vylepšení, které nepodporují nižší DX, deaktivovat. Je to ve skutečnosti jednodušší vyvíjet to jako DX11 než jako DX9 a DX11 tam roubovat ;)
A protože je většina her vyvíjena jako multiplatformní, budou vyvíjeny jako DX11. Dokazuje to rozsáhlý seznam her, které jsou jako DX11 vyvíjeny už dnes ...
Mě nejsíve baví, jak všichni očekávají mezi DX11/10 velký vizuální rozdíl, napadlo vás někdy, že DX není ve skutečnosti o velkém vizuálním rozdílu, ale o technologiích programování a nových funkcí? v tomto ohledu je všemi výávojáři DX11 hodnocen jako velmi dobrý a bude proto hojně využíván a už dokonce je ...
Ano, skvelou ukazkou je napriklad Dirt2 - nepodporuje DX10 a rozdiel medzi DX9 a DX11 je skutocne minimalny a pri samotnom hrani prakticky nepostrehnutelny
ano DIRT2 je skvělou ukázkou toho, jak špoatně se dělá DX9 hra s DX11 které je tam naroubováno ;) DIRT2 je DX9 hra není ani DX10 a DX11 je tam naroubováno hra proto vypadá skutečně v DX11 o dost lépe, ale není to to, co od DX11 čekáme architektornicky ;)
dirt2 vyzera lepsie v dx11 ako v dx9?pokial to myslis ze si urobis 2screeny a hladas rozdieli tak hej je tam brutal rozdiel pokial hru hras vsimnes si velke prd celkovo dx11 v dirte je len reklama na ati nic viac dx11 sa 1x ukaze az v avp..
Mě nejsíve baví, jak všichni očekávají mezi DX11/10 velký vizuální rozdíl, napadlo vás někdy, že DX není ve skutečnosti o velkém vizuálním rozdílu...
tak u tohodle sem se pobavil zase ja. drive byl vzdy vizualni rozdil mezi starsi a novejsi verzi directx docela propastny. dx7 prineslo oproti dx6 mimo jine treba podporu t&l. vizualni rozdil mezi temito dvouma verzemi byl obrovsky. dx8 pak zase prineslo pixel a vertex shadery. opet pokrok ve vizualni kvalite obrovsky. dx9 prineslo uzasne hratky se svetlem a hlavne hdr. srovnej si dnesni dx9 hru s nejakou dx8 proboha. tam asi neni zadnej velkej vizualni rozdil co? nejjednoduseji porovnas treba dx7,8 a 9 v half-life 2, ktere pro kazdou verzi nabizi jeden graficky mod. nebo si srovnej nature test v 3Dmark01 a 3Dmark03. tam ten graficky rozdil dela take hlavne nove directx.
novy directx byl vzdycky ve skutecnosti o velkem vizualnim rozdilu. nevim proc ted by sme k tomu najednou meli pristupovat jinak.
Citace:
DX11 se rozšiřuje velmi rychle proto, že je uděláno tak, aby hry ud+ělané jako DX11 běželi i pod DX10/9 a konzolemi, lze jen příslušná vylepšení, které nepodporují nižší DX, deaktivovat
opravdu je takle udelano dx11?neudelalo si spis nektere studio jenom pokrocilejsi engine a hlavne jeho editor, ktery dokaze takle nektere featury oseknout?
nebo jestli tohle dokaze teda dx11 sam o sobe, tak mam cekat v kazde hre, kde si vypnu tesselaci (at uz kvuli tomu ze to grafika nepodporuje, nebo nezvlada jako radeony 57xx a nizsi), misto schodu sikmou plochu, tak jak se to deje v unigine benchmarku?
a jak to ten dx11 jeste osekava na konzole, kdyz ps3 nebo wii nema o nejakym directx ani potuchy?
Je určide nepríjemné pre nvidiu, že némá GPU DX11 ready. Ale problém je v tom, že fakt sa nemusia nikam ponáhlať. DX10 grafiky budú v compoch v budúcom roku v prevahe nad DX11 železom. Čiže ako hovorím nvidia má stále čas.
by udajne bylo mnohem jednodussi pro Larrabee a Fermi.
A ty gamesy jiste vyjdou, ale vyvojarum prinesou penize az v dobe, kdy DX11 zvladnou konzole - a to, myslim, tak rychle nebude, takze jsem opravdu zvedavy, kdy DX11 hry skutecne vyjdou. Vydani muze ovlivnit jeste tak "rivalita" mezi hernimi studii, kdy marketingovy slogan "Mame DX11 hru, proto jsme ti nejlepsi" funguje na kupujici jako magnet a proto se studia budou snazit takove gamesky vydat, ale take se klidne muze stat, ze vyjde par titulu a ty ostatni budou odlozeny o nejaky ten mesic. Nu, uvidime.
To Choucas: Asi tak nejak to je. Som zvedavy na AVP co by mala byt prva hra nativne pod DX11. Uvidime co ukaze. Do toho casu by sme mali byt uz presnejsie informovany co bude vlastne Fermi zac a ci sa oplatilo resp. oplati cakat.
koukam, ze jsi opet nezklamal, titulek opravdu hodny bulvaru. DX11 - jiste krok vpred a zcereni stojate vody, nicmene napr. tebou vychvalovany DIRT2 a jeho graficke vylepseni zatim vetsina recenzentu hodnoti jako temer neznatelne - jo, na tomhle typu her jsou uzasne efekty (podle me) na nic, tady jde prece predevsim o hratelnost. Dalsi tvuj oblibeny sarkasticky vyrok "NV a technologicky lidr" - promin, ale pokud Fermi vyjde (a asi ano, nic jineho NV nezbyva), tak to z hlediska technologickeho pokroku bude hodne, hodne velky prevrat a jsem presvedceny, ze pokud na to budou site aplikace na miru, jako ted na soucasne GPU, tak bude vykon velice dobry. No a nakonec, kteri ze to jsou ti zakaznici? V clanku jsem nasel jen jednu, Oak Ridge, a ta, jak se nakonec ukazalo, momentalne poprela, ze by od kontraktu odstoupila - beru, ze jsi (alespon to tvrdis) amater-novinar a nadsenec, ale alespon trochu strizlivosti a snaha o overeni dulezitych zprav by neskodilo. Jinak ti ale preju do Noveho roku hodne uspechu a uzij si Vanoce
Ak si to zhrnieme:
Ati je momentálne - výkonovo - lepsie na tom ako nvidia to je fakt ktorý nevidí len slepec.
Problém Ati nadalej zostáva cena a dostupnosť. Pre nás čo uvažujeme čo to ekonomicky a celý náš volný čas netravíme pri 3Dmarkoch a iných testoch - nenahaname kazdé jedno FPS je 10 tisíc za grafiku nenormálny peniaz.
Problém DD je že nepočúva vedie len jednostranný monológ. Ak mu niekto poukáže na problém "že aj on sa mýlil" príklad dominancie 8 serie Nvidie - pridá len ďalšiu perličku v podobe v čom je Ati lepšia. Ano momentálne je - ale na 1000% ak výjde Fermi a bude o niečo výkonejšia problém pre DD bude vysoká spotreba alebo nízky výkon v 1 hre kde Ati porazi konkurenciu atd...Jednoducho opet vyhrá Ati. O tomto to je...