Že nová grafická jádra na FERMi architektuře nejsou z nejefektivnějších, se všeobecně ví, ale jak moc?
Asi bych se opakoval, kdybych tu měl psát celou tu mnoha měsíční anabázi kolem FERMI jader NVIDIA, která zdaleka nesplnila očekávání samotné NVIDIA. Což je asi jasné každému, kdo je schopen porovnat bombastické prezentace FERMI před vydáním z konce roku 2009 a realitu v podobě skutečných grafik a jader FERMI. Takže se omezme na konstatování, že FERMI čipy jako GF100 jsou prostě příliš velké, příliš výrobně náročné a přitom nedosahují ani zdaleka takových výkonu a hlavně energetické i výrobní efektivity, jaká byla plánována. NVIDIA nedávno vydala derivát velkého jádra GF100, kterým je jádro GF104, co by základ GTX 460.
Zde už je situace lepší a jádro na grafikách GTX 460 dosahuje použitelných provozních vlastností, nicméně nemá smysl z něj dělat zázrak, jak to někteří nešťastně pojali, protože přišlo mnohem později, než konkurence, která dávno nabízí minimálně to samé, ale zdaleka nedosahuje její efektivity. GF104 není špatné jádro a na jeho základech nejsou postaveny špatné grafiky, ale není ani posunem vpřed a něcím, co tu ještě nebylo, a to je to, o co jde. NVIDIA se o přesné parametry a údaje o výrobě jader nechce moc dělit, a má k tomu dobrý důvod. GF104 je totiž větší než se čekalo a má mít ve skutečnosti přesně 367mm2 a to je víc než se čekalo a uvádělo, a hlavně je to více než mají RV870 jádra, co by základ HD 5800/5900 grafik. RV870 má totiž 330mm2. I proto se objevují informace, že GF104 má v sobě i více než 336 výpočetních jednotek, ale nízká výtěžnost nedovoluje nasazení plné verze s cca 380SP a je to podobná situace, proč není GF100 na trhu ve své původně plánované podobě s 512SP. GF104 je tedy vetší než RV870 a problémy, které to přináší, jsou zjevné …
V první řadě i přes větší rozměry je schopno GF104 na GTX 460, při stejné spotřebě jako RV870 na HD 5850/5870, dosahovat mnohem nižších výkonu a dokáže konkurovat jen notně ořezanému RV870LE na HD 5830. A druhý problém s tím první úzce souvisí. Výtěžnost většího jádra je vždy menší, takže GF104 má nižší výtěžnost než RV870! S oběma problémy pak souvisí problém třetí, který je logickým důsledkem.
Díky nižšímu výkonu grafik s GF104 a díky nižší výtěžnosti je výroba méně efektivní, více nákladná a protože se grafiky musí prodávat levněji, je zisk na výrobě těchto grafik nižší, jak pro NVIDIA, co by toho, kdo prodává GF104 jádra, tak pro výrobce samotných grafik – ale o tom, že výrobci nejsou z GTX 460 zrovna nadšení, jsem vás již informoval a tohle je právě ten důvod. AMD má tak logicky větší prostor pro snížení cen, který jí ale zároveň zmenšuje situace kolem TSMC, které upřednostňuje NVIDIA, co by firmu, která na rozdíl od AMD, nemá vazby na jeho úhlavního nepřítele, společnost GlobalFoundries. Ale to také není novinka poslední dní, pomáhá to však NVIDIA a mírní důsledky nižší efektivity čipů architektury FERMI ve srovnání s ATI RV800.
Od nás už jste také slyšeli, že NVIDIA doplní v příštím měsíci svou DX11 grafickou řadou konečně i levnějšími GTS 400 modely. Ty budou založeny buď na ořezaných, méně povedených GF104 jádrech, ale hlavně také na ještě menším derivátu GF106. Konkurovat by měly ATI Radeon HD 5750/5770, které už jsou na trhu od ledna. Problém je, že v nízkonákladových grafických segmentech, což jsou ty pod 150 dolarů, se efektivita čipů hodně počítá. ATI Radeon HD 5700 jsou z hlediska efektivity v současnosti opravdový vrchol. Jejich výkon (HD 5770) je na úrovni starších velmi populárních modelů vyššího mainstream jako HD 4870/4890 nebo GTX 260/275, přitom mají poloviční energetické nároky, poloviční výrobní náklady a jsou samozřejmě technologicky mnohem pokročilejší. Vždyť starší vyjmenované modely měly grafická jádra o velikosti 300-470mm2, paměťové sběrnice 256-448bit a TDP kolem 180-200W. Radeon HD 5700 mají grafická 40nm DX11 jádra RV840 s pouhými 186mm2, 128bit paměťovou sběrnici a TDP maximálně 108W v zátěži. A s tím bude muset NVIDIA soupeřit se svými GF104 jádry. Jenže už dnes je asi jasné, že vítězství na poli efektivity už půl roku starým HD 5700 nevezme. Vždyť GTX 460 768MB s GF104 je jen o 10-15% výkonnější než HD 5770! GTS 450 a nižší modely se budou muset výkonově vyrovnat za stejnou cenu HD 5700, to znamená, že musí být za cenu 100-169 dolarů a to bude díky horší efektivitě obtížné. NVIDIA dobře ví, že první bitvu DX11 grafických generací prohrála na plné čáře a děkuje situaci kolem TSMC, které mu přes zjevně horší efektivitu jejích čipů dává z politických důvodů více prostoru ve výrobě. Kdyby měla o výrobě rozhodovat efektivita čipů a zájem výrobců používat efektivnější čipy, byla by situace úplně jiná než dnes. Není tedy divu, že hospodářská situace firem neodpovídá skutečnému potenciálu jejich produktů a je také jasné, že mít vedle TSMC ještě dalšího konkurenčního výrobce, mohla by konečně nastat nějaká skutečná konkurence a pak by skutečně rozhodovaly lepší grafické karty a ne politické a obchodní zájmy jediného monopolního výrobce velkých GPU. Bohužel toho se nedočkáme dříve, jak u nové generace 28nm grafik a to bude nejdříve v druhé polovině roku 2011.
Do té doby doufáme, že se alespoň ceny udrží na solidních úrovních, i když je evidentní, že současná situace tlaku na snižování cen nenahrává. Vždyť AMD na GTX 460 reagovala jen snížením cen HD 5830 a obchodníci pak snížili ceny HD 5850 na ceny oznámené při jejím vydání před tři čtvrtě rokem (beru oficiální cenu 279 dolarů, což v 09/2009 při 18 korunách znamenalo 6000 korun u nás a dnes 7/2010 při 20-21 korunách za dolar skoro 7000). A to je prosím vše, i když není vinna AMD, že to bohatě jako odpověď na GTX 460 stačí. NVIDIA nemá dostatečně konkurenceschopná jádra tlačit ATI někam do rohu, ATI má sice technologicky lepší jádra, ale zase nemá potřebné výrobní kapacity u TSMC, které rozhoduje o tom, komu kolik výroby přidělí, a jde mu o vlastní zájmy. Takže pokud čekáte s uváděním nových grafik NVIDIA nějaký konkurenční boj, tak smůla. Maximálně jsme se dočkali konečně výběru v podobě alternativ, bohužel i přes značný časový odstup nenabízejí nové grafiky NVIDIA nic nového a lepšího a to je jistě poněkud smutná realita, která konkurenčnímu prostředí a vývoji nenahrává. Na druhou stranu, pokud jste četli DDWorld.cz pečlivě v uplynulých měsících, tak víte, že jsem vás na tuto situaci připravoval. Pokud jste chtěli věřit pohádkám a zázrakům, které vám někteří předkládali, pak jste zklamaní, ale můžete si za to sami. Ale ono stačilo používat jen logiku a chladný nadhled. Grafické karty nejsou nějaký kouzelný předmět, kde se dá čarovat a jednoduše měnit vlastnosti a co platí pro hlavní stavební kámen, platí i v určitém měřítku o jeho úlomcích a derivátech.
Jinými slovy pokroková NVIDIA technologie která je díky TSMC nevyrobitelná. Pak ale bude muset ATI hodně zapravovat aby s přechodem nových výrobnách procesů mělo něco co se bude moci Fermi na novém procesu postavit.
Nvidia na rozdíl od ATI nemusí nic vyvíjet jen si počká na nový výrobní proces.
Tiez som zvedavy na novu architekturu od ATI. Bude musiet ist podla mna tym istym smerom ako NV a teda hybat sa ku vypoctovym kartam. Uvidime ako si s tym poradi.
nemyslím si, že "výpočetní karty" jsou budoucnost. Spíše bych řekl, že AMD offloaduje všechno možné (tedy ony výpočetní jednotky) přímo do CPU (protože tam to dává logiku a bude to násobně rychlejší a efektivnější, protože bude možné zpracovat data přímo v cache a nebude nutné balit je do balíčků a posílat po vnější -pomalé- sběrnici) a externí "kartovou" grafiku si nechá např. na postprocessing apod.
To je BTW, velmi pravděpodobný budoucí směr, protože TOTO je technologie, kterou Intel nemá vůbec a která by mohla mít stejný efekt, jako měly svého času výborné Athlony64 a Opterony. Má to jen jednu "chybičku" - bude potřeba změnit programovací styl a samozřejmě dodat odpovídající kompilátory, a to bude největší problém.
AMD aj NVIDIA pojdu kazda svojou cestou. Tou vyhodnejsiou pre nich. Kedze NV CPU nevyraba, bude sa snazit urobit CGPU kartu. Co sa nakoniec presadi a co bude efektivnejsie sa uvidi.
a muzes mi rict jak amd integruje ty tisice stream procesoru (hd5970 ma 3200sp) do procesoru spolu se vsema rasterizacnim a texturovacime jednotkama a tesselatory a jeste s kdovi cim?a uvedom si ze ten pocet stream procesoru se bude stale zvysovat. a jeste by me zajimalo jak velka bude musit byt ta cache aby grafika mohla zpracovavat vsechna data primo v ni...momentalne by musela byt velka minimalne 512mb...prece to nebudeme posilat pres pomalou sbernici do ramky...
jak? Nijak. Domnívám se, že se tu bavíme o nové "kvalitě." Dnes, technicky (a velmi obecně) vzato, musíš v CPU spočítat scénu, tu odeslat s texturama do GPU, kde je vyrastrována, popř. jsou na ni aplikovány postprocess efekty.
Co když ale celý proces změníme a počítaná scéna bude okamžitě nějakým způsobem "předpočítána" (např. tesselací, vliv fyziky na počítané prostředí, apod.), tak jak ji CPU bude generovat? Dnes se děje to, že spočítáš snímek v CPU a celý jej odešleš do grafiky, kde je "zobrazen" (tedy použit z-buffer, vykresleny primitivy, opatřeny texturou, osvětlením, proveden posprocessing, etc., etc. Tohle celé jde přece v zásadě atomizovat na jednotlivé primitivy, tj. spočtu primitiv a zároveň jej vzápětí opatřím "vizuálním kabátkem" a uložím do framebufferu. Navíc se framebuffer může, ale nemusí, zpracovat ještě v dedikované grafice (o značně redukovaném počtu SP), ve které se provedou případné změny.
Dle mého názoru, tím, že se obejde systémová RAMka jako "meziúložiště" přesouvaných dat ke zpracování, se získá nemalý výkon navíc. Jednoduše dojde k optimalizaci "datového sokobanu" co spolu hrají CPU a GPU (proč asi mají potřebu stále rychlejších sběrnic které je propojují?)
DD, preco neuvadzas pod clankom zdroj webovy server Odkaz ?
.....................................
A len tak medzi nami-tu svoju ohranu skladbu o AMD ako uhlavnom nepriatelovi TSMC si si mohol odpustit. Proste priznaj ze to v AMD nejaky manager proste posral a neobjednal dostatok kapacity. Zakryvanim pravdy iba prispievas k tomu, ze ten neschopny clovek je stale vo vedeni AMD.
.....................................
Len tak medzi nami, ako je mozne ze nove kapacity uz TSMC dava AMD? A ako je mozne ze ked TSMC tak nenavidi AMD, ze podpisalo zmluvu na vyrobu gr.cipov pre nove procesory z rodiny Fusion? Ako je toto mozne ked AMD je pre TSMC tak strasne velky a uhlavny nepriatel a ked tak vsade podla teba uprednostnuje Nvidiu?
Také si myslím, že TSMC musí být rádo za KAŽDÉHO zákazníka. Přece nebudu do krámu pouštět lidi jen proto, že chodí nakupovat i ke konkurenci. Naopak. Co nejvíc jim polezu do zadku aby chodili co nejvíc a nejdýl ke mě. Navíc GF výroba AMD pomůže, ale neznamená to, že převezme veškerou výrobu.
musíš zohlednit to, že GF odlákalo z TSMC klíčové lidi, a to se mezi firmami moc neodpouští... Za předpokladu, že mě neohrožuje konkurent, tak mi fakt, že zákazník nakupuje i u něj nevadí. Ale v okamžiku, kdy bych cítil, že (důležitý) zákazník přejde s drtivou většinou těch lepších zakázek ke konkurentovi, který mi navíc odlákal můj kapitál (ve formě klíčových zaměstnanců s know-how), tak bych si to také hlídal.
P.S.: nemám nic proti TSMC, GF nebo AMD. Jen popisuju běžnou praxi.
Tu nikto netvrdi ze TSMC ma AMD nejak v laske alebo nieco podobne. Ale tie blbosti od DD o tom, ako TSMC uprednostnuje Nvidiu a podobne blaboly sa uz nedaju citat.
...................................
Fakty su take, ze TSMC ma rado kazdeho zakaznika, ktory u nej wafery nakupy.
...................................
Faktom je, ze AMD je cisto firma, ktora navrhuje cipy. AMD nema v GF absolutne ziadny akciovy podiel(dokonca o tom informoval aj ddworld.cz)
...................................
Faktom je, ze aj napriek slovam DD o tom ako TSMC nenavidi Nvidiu a ako ju uprednostnuje, tak si podpise zmluvu o vyrobe gr.cipov pre Fusion.
...................................
Nech mi DD vysvetli jeden jediny dovod, preco ma TSMC nenavidiet AMD, ked AMD je u neho tak velky zakaznik. Ak skrachuje AMD, tak TSMC to absolutne nijako nepomoze-naopak si pohorsi, pretoze nevyuzije celu svoju kapacitu. Nvidia sa tiez moze kedykolvek obratit ku GF alebo inemu vyrobcovi.
...................................
Dajte mi vy alebo DD jeden jediny rozumny dovod, preco ma TSMC uprednostnovat Nvidiu pred AMD. Trhove zakony su take, ze cenu tvori ponuka a dopyt. Uz od zaciatku tvrdim, ze blaboly o tom ako TSMC uprednostnuje Nvidiu su len blbosti, ktore maju zakryt chybny managment, ktory nenakupil dostatocnu vyrobnu kapacitu! To je vsetko.
Ale AMD má v GF podíl. Je teď už silně pod 50%, to je pravda. Ale v radě GF pořád má 50% míst. Podle smlouvy o rozdělení. A podle týž smlouvy ještě musí do GF platit kolem miliardy ročně ještě pár let.
Co se tvého vysvětlení týče, souhlasil bych s tebou, pokud by lidi jednali ekonomicky. Ale oni tak jednají jen zřídkakdy. Tak jsou schopní jakékoliv voloviny, podrazu nebo hrdinství. :-)
"TSMC uprednostnuje Nvidiu"? Určitě, může to být. Ale proč? Tady přijde na řadu právě chybný management, zmíněný Tebou.
Takže s tvým závěrem souhlasím, jen bych k němu šel jinou cestou :-)
TSMC má dnes bezkonkurenční postavení, které mu brzy skončí
GlobalFoundries přetahuje lidi z TSMC a hodlá spolu s dalšími firmami třeba IBM, přetáhnout významnou část zakázek TSMC
GlobalFoundries a AMD-ATI jsou úzce propojeni, majetkově i zájmově ...
Je tedy více než jasné, že TSMC nebude AMD-ATI upřednostňovat a posilovat tak vlastně konkurenci
A také fkat, že se hraje o NVIDIA, která klidně u GF může vyrábět, což TSMC samozřejmě nechce, tak jí nadbíhá, dává lepší podmínky a tak dále. Je to více než logické, je to totiž pravda ...
Takže ty své bláboli o neschopném managementu si nech, když jsou fakta a souvislosti proč TSMC AMD-ATI nemusí, více než zřejmé!
No su to skor domnienky ako fakty. Ake maju tieto firmy zmluvy a preco, to nikto z nas nevie a aj ked logickejsie je to tak ako pises, tak za fakty by som to nevydaval...
No a co má nvidia z toho, že dotáhla na trh technologie, které jsou 1) dnes nevyužitelné, a 2) dnes nevyrobitelné? Já to řeknu slušně, jo? - NIC.
Tohle dělala ATI roky, neustále inovovala a uváděla nové technologie, které ale nikdo nevyužíval, a taky na to doplácela (naposledy např. X2900). Od okamžiku, kdy přešli z inovačního modelu "revoluce" na model (postupné) "evoluce", jsou najednou lepší - minimálně z provozního a ekonomického hlediska, pokud akceptujeme +/- stejnou výkonnost konkurenčních modelů.
Je fakt, že Thermi má čistě z designového hlediska náskok, ten ale není tak velký a HLAVNĚ se neprojevuje v reálných aplikacích. A až se bude reálně projevovat (např. ona tesselace), věřím, že jeho konkurence bude na tom stejně dobře, ne-li lépe. To je totiž IMHO taky jedno z "poučení", které si inženýři z AMD odnesli, nesnažit se dobývat příliš vzdálené mosty. I proto např. začínali na 40nm s "lowendem" HD4770
Problem s cenou tu bude minimálně do vydání další serie a možná ještě déle. Jak to bude se změnou výrobního procesu se můžem jen domnívat a vůbec není jisté, že Fermi 2 bude takové dělo a Ati ostrouhá. Ale vyloučit se to nedá.
To s Vámi nesouhlasím podívejte se jak bylo Fermi ořezané a podtaktované. I když není správní cesta monobloku ale cesta Ati nový výrobní proces umoání použít původní neořezaný design a využít plné takty.
Navíc si myslím, že nastává doba výpočtů a tesselance. Tam tahá za kratší konec ATI ne Nividia.
Ati musí přijít a já doufám, že přijde s něčím konkurence schopným.
Nikde není psáno, že 28nm znamená nabušená Fermi 2 bez problémů. Taky budu rád, když bude mít Ati konkurence schopnou kartu. Čas ukáže, jak na tom budou.
Protože jste mi uvedl jediný důvod tak to chápu, že máte jenom svoje přesvědčení a nic víc. Vlastní víra může uzdravit ale ne druhého. Věřte si dále svému rudému nábožeství a přeji hodně zelených palců.
Chlape, ty si zaritý nvidiot, to vidím hneď z tvojich príspevkov.
FERMI je zaujímavá architektúra a keby neboli tie problémy s výrobou, tak by to boli aj zaujímavé karty. Veď ak si pozriem čo dokáže GTX480 pod dusíkom kde dosiahli takt jadra okolo 1,4GHz čo je perfektné a to ešte neprišli tie pravé nereferenčné modely. S L2N sa ukazuje skutočný potenciál architektúry, ale takto sa chladiť nedá. Avšak s vodou by to už aj celkom šlo.
ATI so svojou architektúrou sa snaží vyjsť v ústrety dneším požiadavkám herného trhu a to sa jej darí. To, že teraz neuprednostnila tesalačné jednotky ešte neznamená, že ich nevie do jadra natlačiť viac ak to bude potrebné. Avšak pri HD5000 sa počitalo len so začiatkom rozširovania DX11 a preto sa nesnažili hneď to úplne optimalizovať pre DX11 ale aj pre DX9 a 10
Kromě toho, že na 28nm se u GF podílí i IBM, což může samo o sobě dosti síly vychýlit na stranu AMD-ATI, protože TSMC přišlo o klíčové pracovníky které přetáhlo právě GF a AMD-ATI si samozřejmě navrhne čipy na míru ... bych se ale neodvážil teď hodnotit, kam se síly překolí.
Nicméně jen z logiky věci. RV870 je už dnes efektivnější čip než GF100 generace a to je RV870 jen vylepšený RV770/670, zatímco GF100 je nová generace a jak to vypadá výkonově, efektivností už dnes vidíme. A jestli jej RV970 letos nějak výrazněji trumfne, nevidím žádnou oporu pro tvrzení, že by 28nm proces měl změnit poměr cil ve prospěch NVIDIA, když ATI bude vyrábět u TSMC i GF ;)
Neznám novou genraci chipů a mohu hodnotit. Není na tom nic nelogického.
Znám AMD a vím, že když něco převratného chystají tak to bubnují do světa. Viz Fusion kterým nám krmí nám tom uši několik let a zatím nic pořádně neukázali. Proto si myslím, že nová generace nebude nic jiného naž stávající trochu vylepšená. Ve Fermi je potencál do budoucna. To Ati připravilo kartu přesně na tyto okamžiky.
Dnes je ATI efektivněnší to je fakt který uznáván a nezpochybňuji. Ale jíž od prvopočátku píši o novém procesu který umožní zahození všech brzd Fermi architektury. RV 870 je už dnes efektivnění to ano ale s novým procesem může být efektivnější Fermi.
Co se týká výrobních procesů tak tak tam záleží hlavně na čísle ozančující velikost. To ostatní je zandebatelné.
DD znova já neříkám, že to budoucna vyhraje Nvidia. Tvrdím, že Fermi má architekturu která při pouhé změně výrobního procesu má potenciál sebrat Ati vedení pokud Ati nezaeaguje na tento Fermi trend.
Problém je, že Architektura FERMI neukázala ani neukazuje nic, čím by měla být zajímavá do budoucna, naopak ukazuje, že je neefektivní, jednostranně zaměřená a neposkytuje očekávaný výkon ....
ATI je se svými čipy i po výpočetní stránce mnohem dál, stačí, kdyby se SW začal optimalizovat skutečně paralelně a využil tak 5D architekturu čipů ATI, pak by FERMI nemělo sebemenší šanci ... a to už ukazují některé aplikace, které 5D architekturu ATI důsledně využívají. Pak totiž výkon ATI v řádech 3-5 TFLOPS, není teoretický ale praktický a NVIDIA jí není schopna konkurovat ani s FERMI. Nicméně vývoj čipů jasně směřuje k průniku CPU a GPU a zde má AMD-ATI zjevnou výhodu a naopak NVIDIA něco důležitého chybí ...
Jinak ATI, když dělá něco nového, tak to dopředu nevytrubuje, platí to od té doby, co AMD ATI koupilo .... RV670/770/870, všechny tyto čipy dokázaly více než překvapit a ještě pár dní před vydáním ATI mlčelo a tvářilo se, že nic extra to nebude ...
To, že NVIDIA má půl roku zpoždění a její nová architektura si není schopna vlastně poradit se starou architekturou konkurence, o nějakém potenciálu do budoucna zrovna nehovoří. Navíc, když AMD se na rozdíl od NVIDIA může opřít o vlastní kompletní platformu a o průnik čipů CPU-GPU, které jsou jasnou budoucností. Jinými slovy, ATI není tím, kdo musí na něco reagovat, AMD spolu s Intele určují jasnou cestu dalšího vývoje čipů pro všechny segmenty, NVIDIA je ta, která má problém a musí reagovat a musí hodně přemýšlet, kde se u FERMI stala chyba.
Hodně věcí naopak napovídá tomu, že HD 6000 zcela pokoří FERMI do země a to je hodně zlé, protože HD 6000 není nová generace grafik - HD 7000 pak na 28nm unikne NVIDIA o generaci a může být hůře. FERMi tu má být 4 roky aktuální, ale už nyní ji poráží odcházející grafická generace ATI, co teprve až přijde ta nová, která se s FERMI má utkávat?
NVIDIA se spoléhá na TSMC, ale nikde není napsáno, že se 28nm TSMC podaří. TSMC přišla o klíčové a důležité lidi, proto má problémy se 40nm. Ty lidi ale získalo GF, které navíc polupracuje s IBM a jejich 28nm může být mnohem lepší. Hlavně ale ATI ladí 28nm čipy na míru výrobě GF a to může být značná výhoda. NVIDIA tuto výhodu nemá a musí spoléhat na TSMC, které se ale dostane do pozice, na kterou není zvyklé - bude mít vedle sebe velmi vážnou a odhodlanou konkurenci, která navíc disponuje jejími bývalými klíčovými pracovníky ...
Nevydím tedy jediný padný důvod a argumet, o který lze opřít, že by FERMI měla nějaký budoucí potenciál a měla by ATI s novou generací HD 7000 nějak ohrozit a nastoupený trend zvrátit ve prospěch NVIDIA .... o co se tedy opíráš?
Pochybujem, ze Fermi bude na 28nm to iste co je dnes na 40nm. HD7000 bude superit s Fermi 2, pri ktorej snad neurobi NV rovnaku chybu ako teraz. Inak predpovede o tom ako AMD unikne NV o jednu generaciu sa mi skor vidia ako tvoje osobne priania. To by musela NVIDIA naozaj riadne pochybit.
EDIT: A este nieco ku tym vypoctom kde ma ATI NV podla teba pochovat. NVIDIA na rozdiel od ATI si v tomto smere pomaha sama a ma co ukazat uz dnes. Zatial co od AMD stale pocuvame iba reci. Iba sa schovavaju za standardy ale sami na rozdiel od NV nic nevytvoria. To je obrovsky rozdiel medzi tymito dvomi. A to uz ani nehovorim o spolupraci a pristupe k vyvojarom hier. Dalej kto sa podla teba lepsie pripravi na to co bude? Ja si myslim, ze najvacsie sance ma firma, ktora aktivne spolupracuje pri vyvoji hier a ma velke skusenostami s tvorbou SW...
to není žádné osobní přání, to je reálná možnost ...
už dnes má NVIDIA minimálně půl roční zpoždění a výsledkem je architektura a čipy, které tu mají být dalších několik let a přitom si nejsou schopny poradit se starou generací čipů konkurence, která navíc na 28nm zbrojí už několik let a úzce spolupracuje na vlastním vývoji 28nm procesu!
Jinými slovy už dnes stará generace čipů ATI je efektivnější než FERMI, a to ještě neřekla své poslední slovo, protože díky zrušení 32nm přechodu bude následovat ještě poslední vylepšení na RV970, které podle očekávání odstraní slabiny HD 5000 a tím se ve všech ohledech stane lepším než FERMI.
Jenže FERMi je nová generace a má bojovat po většinu svého aktivního života s novou generací ATI a tou bude nástupce RV970, který bude hodně revoluční, odladěný na 28nm na odladěné výrobě u GF. Takže NVIDIA nemusí udělat žádnou další chybu aby ani na 28nm na ATI nestačila. Je to jen logický důsledek toho, jak si vede FERMi už dnes. ATI rozhodně nebude stát s rukama v klíně.
Jedno je tedy jasné, HD 7000 bude na 28nm mnohem mnohem lepší a technologicky úplně jinde, než HD 5000, což v souvislosti s tím, jak se FERMi uvedlo na trh, rozhodně nehovoří ve prospěch FERMI a to nemusí NVIDIA udělat žádnou další chybu. Je otázka, zda ten potenciál, o kterém se mluví, je využitelný i s 28nm a zdali vůbec může stačit na to, jaký krok udělá s novou genercí ATI, když už dnes stačí ATI na pokoření FERMi v mnoha ohledech její stará architektura ... a to dnes se ještě můžeme opírat o fakt, že samotná výroba je pro oba tvůrce čipů stejná, s nástupem GF se situace razantně změní a na dobrém návrhu čipu bude záležet více, než kdy jindy a budou rozhodvat technologie a ne politika a obavy o budocnost jediného monopolního výrobce velkých GPU - společnosti TSMC ...
Ja dufam, ze ani jedna spolocnost nebude sediet so zalozenymi rukami. Hlavne ma zaujima prechod ATI na novu generaciu. Ako si s tym poradi a ako na tom celkovo bude oproti Fermi 2. NV tiez nebude chciet ist vacne pozadu.
Ta doba je este dost daleko. Kazdopadne ako som hovoril, mysliet si ze ATi teraz rok bude spat, aby pockala na nVidiu, je hruby omyl. ATi/AMD ma riadne našľapnuté a kto to tých pár zásadných rokov, ktoré ubehli sleduje, tak je v obraze...
Není to vůbec o rudém nebo zeleném náboženství! Dnes je 23.7.2010 a ty píšeš, jako kdyby jsi už věděl jaká bude Fermi 2 na 28nm nebo Ati. Pořád to jsou jen domněnky a ty Ti neberu, ale nemůžeš to brát jako fakta. Za půl roku nebo tak si povíme kdo měl pravdu. A nemám problém přiznat, když budeš mít pravdu a Fermi 2 bude nabušená bez problémů a ATI třeba nebude stíhat ok
1. že nemůžeme čekat nějaké překotnosti ve vývoji
2. fermi byla navržena pro menší procesy ( 28 )
3. AMD se trefili svojí technolofiíí na stávající procesy ( 40 )
z toho vyplývá
1. s novým procesem nebude Fermi potřebovat úpravy a zaví se snížení frekvení i odpojení nekterých částí.
2. Ati bude potřebovat upravit (protože se jaksi víceprocesorové karty nějak neprosazují)
Je to hypotéza nad kterou se rozumný člověk zamyslí a začne s ní souhlasit nebo polemizovat. Rudonábožní budou jako DD hovořit o jiných tématech tváříc se jak by mi odpovídali.
FERMi pro 28nm postaveno nebylo, protože v době, kdy se tvořilo, 28nm neexistoval ani v testovacích vzorcích, navíc když tu měl být 32nm, který byl zrušen. FERMI bylo jasně děláno na 40nm je to v mnoha papírech a oficiálních materiálech samotné firmy NVIDIA. FERMi je 40nm grafická architektura! takže tady nelžete a už vůbec nehodnoťe to, kdo je objektivní, když jste zjevně pomatený zelený fanda, který ani neví, co samotná NVIDIA vůbec jak tvoří!!!
AMD se nijak "netrefili" - je zajímavé jak banalizujete fakt, že AMD prostě a jednoduše má technologický i časový náskok, který mu umožnil vyvinou a odladit čipy pro 40nm lépe než NVIDIA (ATI mělo 40nm čip mnoho mnoho měsíců před NV už v podobě HD 4770), která prostě zaspala a nepoučila se z předchozích zkušeností a i přes varování z mnoha stran opět tvoří obří monolitický čip ...
je více než zjevné, že architekutra FERMi nefunguje tak, jak bylo plánováno. Bude potřebovat velké úpravy aby stačila nové generaci ATI, když už se současnou mnohem starší generací ATI, má dnes už tak velký problém.
Víceprocesorové grafiky se jasně prosadily. High end mají obsazený a svědčí o tom i fakt, že NVIDIA nepřekonala HD 5970 a tak laboruje s duálním modelem také ale to není novinka, NVIDAI musela kapitoluvat už v souboji 9800 GX2 vs HD 3870 X2. ATI nic upravovat nepotřebuje a nai nebude protože stávající generaci končí a 28nm bude úplně nová! RV870 jsou lepší a mnohem efektivnější čipy než GF100 a to ještě přijdo vylepšené RV900, pořád je to ale nová generace NVIDIA vs stará ATI a ATI už mnoho let pracuje na zbrusu nové generaci, která bude nepochybně ve stejném duchu a mnohem lepší než současné. kromě toho je vícejádrová budoucnost budoucností CPU i GPU!
Lžete tu, vymýšlíte nesmysly. Jste hloupý a vůbec nemáte šajnu o tom, co vůbec píšete. každý rozumný člověk, se základním přehledem na grafickém trhu vás snadno prokoukne a musí se mu chtít brečet nad těmi výlevy co tu předvádíte. technologická dema považujete za testy, konkrétní hry s těmi technologiemi a výkony grafik v nich ignorujete, ignorujete fakta, protože odporují vaším tvrzením, které se neopírají ani o jednoduchou logiku .... jste asi nejhorší případ flamera, se kterým jsem se kdy setkal. Sbohem navždy.
jaké testy to jsou technologická dema!!! žádné testy!!!!
Já mluvím o konkrétním nasazení těch technoligií v konkrétních hrách, ne jen vytržené technologie z kontextu ... to zjevně nechcete chápat!
Kde berete tu jistotu že se 28nm TSMC podaří??? nějaký důkaz?
FUSION je dluhodobý projekt AMD a hlavně je to hlavní směr vývoje, není divu, že se o něm mluví, ale o grafických kartách ATI se nijak AMD dopředu podrobně nešíří, ale to také zjevně nevidíte ....
na jake vypocty podla teba bola navrhnuta fermi? kde je ta architektura fermi taka supervykonna? (predpokladam ze nehovoris o tesselacii)... Ja teda neviem, ale su ludia ako ty, ktori sa ohanaju nejakym super vykonnym vypoctovym vykonom, ale ja sa k nemu neviem dopatrat. Teselacia jej ide to je fakt, a co este?
Pusťte si stone gianta. To je cesta kam budou kráčet nové hry a kde Ati tahá za kratší konec. Hodně lidí to bude bagatzelizovat, že to není hra ale test jenomže v tom testu se skrývá budoucnost her.
V com je stone giant taky odlisny, ze sa o nom da tvrdit, ze skryva buducnost hier? Sice som sa o neho moc nezaujimal, ale vzdy som ho bral iba ako dalsi benchmark ako napr. Unigine Heaven.
Jsem si naprosto jist, že co bude v DX11 s tessellací hratelné na GTX 400 to bude hratelné i na HD 5000! Žádný větší využitelný potenciál pro DX11 GTX 400 grafiky proti HD 5000 neskrývají!
stačí se podívat na Metro 2033, ani GTX 480 jej nedá hratelně na plné detaily a to jsme o Tessellaci sotva zavadili, HD 5870 je na tom v podstatě stejně a jediná grafika, která tu hru dá na plné detaily je HD 5970! Troufám si tedy tvrdit, že se zvýšením tessellace, které ale neneastane dříve jak za 3-4-5let, nebude současná generace grafik použitelná, proč by také měla, když v té době budeme o 2-3 grafické generace dál.
Stonemark nebo Unigine, jsou naprosté nesmysly a jen idiot podle nic něco hodnotí .... nemají žádnou vypovídající hodnotu pro nic a nikdy neměly - je to jen ukázka určitého typu technologie, která ale není ve hře nikdy sama!
Právě protože jak píšetě že jsme jen o teselanci tak tak zavadili. Tímto směrem budou hry ubírat. Proto jsem nezmínil hry a hovořím tady o stone kterým pohrdáte. Protože na těchto testech je vidět a dá se poměřit jak budou grafiky reagovat na hry budoucnosti.
Počkejte si na nový proces a na nové Fermi grafiky tam se projeví to co v Nvidii vymysleli.
PS: Právě o Vás jsem si myslel, že pochopíte díky tomu, že vidíte za obzor. Inu jsem jenom člověk který se někdy mýlí.
Ano já vidím za obzor na rozdíl od vás, znovu opakuji, co vy ignorujete:
STONE ani Unigine neukazují nic reálného, je to jen ukázka vybrané technologie, která není ve hře sama!!!! A to je problém.
Pokud chcete totiž testovat potenciál grafik, tak jej testujete v těch technologiích ale ve hrách! Tedy v reálném nasazení. A tak si můžeme otestovat třeba Metro 2033, které má DX11 a nejnižší stupeň tessellace ...
ale co to, i s nízkým stupňem tessllace je hra tak náročná, že nejde v 1920x1200 8AA/16AF se vším všudy na GTX 480 plynule hrát!!! Co to znamená? Že když zvýšíte úroveň tessellace, zvýšíte samozřejmě náročnost na grafiku a bude to naprosto nehratelné! GTX 400 ani HD 5000 nemají dost výkonu na to, provozovat hru s náročnějšími stupni tessellace hratelně! Nemají žádný potenciál do budoucna, ale také jej mít nemusejí, protože až se Tessellace začne ve větší míře používat, budou tu dávno grafiky o 2 generace novější s výkonem 4-6x vyšším! FERMI grafiky nemají žádný vyšší použitelný potenciál pro DX11 a tessellaci, což jasně ukazují praktické hry, proč se zabývat nějakými teoretickými benchmarky, když ty technlogie máme již dávno tam, kde mají být tedy ve hrách.
Stojím si za tím, že GTX 400 nemá o nic větší potenciál pro DX11/tessellaci než HD 5000 a co bude hratelné na jednom, bude hratelné i na druhém ve stejných cenových kategoriích a naopak co nebude hratelné, to nebude hratelné ani na jediném .... hry jako Metro 2033 či Stalker CoP které využívají DX11 a lehký stupeń tessellace, to jasně dokazují!
Stone ani Unigine nejsou testy ale technologická dema!!!!!!
Nebudou k nim blíže. Jak ukazují konkrétní hry s nasazením těch technologií z dem v praxi - GTX 400 nemá žádný větší potenciál pro DX11 než HD 5000 - obě jsou pro větší využití tessellace slabé!!! A je to jedno, protože až se za mnoho let začne větší stupeň tessellace používat bude to souboj úplně jiých grafickcýh generací ...
Metro 2033 přesně ukazuje, jak je na tom s potenciálem pro DX11+Tessellaci současná generace grafik - minimální úroveň tessellace a přesto si hru na plno nezahrajete na jiné grafické kartě než HD 5970!
Přestaň tady plácat kraviny a podívej se na konkrétní testy a reálné nasazení těch technologií a to, jak ve skutečnosti těm kartám jde!
Víte DD on totiž mezi Vámi Obrem není zas tak veliký rozdíl. I Vy jako Obr nehodláte připustit něco se Vám nehodí do krámu. Obr kvůli zisku a Vy kvůli přesvědčení. I když se Ta Vaše motivace může zdát čestnější tak výsledek je stejný. Oblbování mas.
Já hledám pravdu a ty zelené pravdy PCT ani ty rudé pravd DD mi prostě nesedí. Omluvám se jestli jsem se Vás doktnul ale vždy jsem říkal co si myslím.
lžete a vymýšlíte si! To není žádné o voze a o koze. Bavíme se o potenciálu grafik pro DX11+tessellaci a protože máme konrkrétní hry, kde se tyto technologie vyskytují, můžeme snadno v praxi ověřit ten potenciál. technologická dema technologií vytržené z kontextu her nejsou testy a neukazují nic použitelného!
Na ddworld.cz žádné rudé pravdy nejsou - rozdíl mezi mnou a vámi je ten, že mě je jedno co se komu hodí do krámu a vidím věci v souvilostech podloženými jasnými fakty, vy tu plácáte nesmysly nepodložené fakty a ještě horší je, že těm hloupostem i věříte ...
to není o tom, že byste se mě dotknul - jiný názor podložený fakty se mě dotknout nemůže, kraviny, tkeré se snažíte opakovat 100x aby se staly pravdou, se mě a každého inteligentního čtenáře dotknou a když už jste zoufalí, vytáhnete zaojatost a objektivitu místo abyste připustil,m že jste to vy, kdo je úplně mimo!
to je o tom že plácáte kraviny a blbnete lidi. Nepředložil jste jediný důkaz na podporu svých tvrzení, já vám tu důkazy předkládám, ještě vás upozorním na vaši hloupost pokládat technologická dema vybraných technoligií za testy a vy si stejně melete své naprosto mylné a nepodložené věci ....
Podívejte se na to, jak si karty vedou ve výkonu v konkrétní hře Metro 2033, která má DX11 a má nejnižší stupeň tessellace a hodnoťte potenciál do budoucna existujícíh karet na základě toho výkonu.
Anonymní
2010-07-22 20:48:36
Už se těším, Fermi 2, stejný výkon, jako teď, akorát, už to nebude, žrát, Reálně 300 Wattů, ale jen 150 Wattů, a proti, tomu 150 Wattová ATI, s asi tak, těmi 2 680 Stream procesory, a s asi tak, o 60%, vyšším výkonem a se stejnou spotřebou, jako Fermi 2, nevím, proč, by ATI, na tom, mněla, být, špatně, když už teď, je na tom, lépe, jak nVIDIA, tak je jasné, že na 28 NanoMetrech, to bude, možná stejné, ne?
Anonymní
2010-07-22 20:49:30
178 Wattová ATI, s 3 200 Stream procesory, to jsem zvědavý, jak se s tím, nVIDIA Popasuje, tedy!
Na rozdiel od NVIDIe ATI este len caka prechod na novu architekturu. A samozrejme NV nezostane iba u toho co ma teraz. Urcite sa poucili z chyb z GF100. Dolezite ale je, aby bola stale vyrovnana konkurencia pretoze to je to co hybe vyvoj najrychlejsie dopredu. Preto nechapem ludi, ktori sa tesia ked sa niektoremu z dvojice ATI/NV nedari. A to uz ani nehovorim o tom, ze aj ceny su v takom pripade ine.
To ze sa nvidia pouci z vlastnych chyb je len logicke. Avsak ATi sa poucovat nemusi, ti to uz davno vedia a davno to konšatovali, že velke jadra su nanic. takze fail. Samozrejme konkurencia je vitana. Ale cakat, ze nvidia uz bude teraz len ok a ATi caka nejake zle obdobie je dost scestne... Preco si myslite, ze Nvidia "uz len caka" na prechod na 28nm a ATi sa s nim bude musiet trapit? To skade tato logika?
Zeby z prechodu na novu architekturu, ktoru ATI este len caka a NVIDIA ju uz ma za sebou? A co sa tyka vypoctovych kariet tak si trochu nastuduj architekturu Fermi a zistis sam na co je orientovana. Naozaj myslis, ze velke jadra su na nic? Ak su nevyrobitelne tak hej. Ale pokial je ich vyroba v pohode, nie je co riesit. Zober si ako museli byt Fermi orezane a podtaktovane kvoli tomu, ze im terajsi vyrobny proces bud nesadol alebo bol samotny taky chybovy.
a odpovedal si mi? na co su orientovane? Maju nizsi vykon na watt aj plochu. Tak mi prosim odpovedz a netaraj. To ze pri 28nm bude vyrobitelne jadro velkosti fermi nehovori nic o tom, že ATi nebude mat podobne jadro, sa uz z toho zobudte.
Fermi sa podla architektury pohla smerom k univerzalnejsim cipom. Zober si usporiadanie jadra, pritomnost L2 cache,.... Nepripomina ti to skoro procesor? Hovori ti nieco raytracing? Ide o to, ze NV uz ma prvy krok za sebou a ATI ho este len ide urobit. A tym nemyslim HD6xxx ale HD7xxx. Netvrdim, ze ten cip bude horsi, ale ze sa mozu ocakavat problemy kvoli prechodu na novu architekturu. Mal by si trochu ubrat a snazit sa na to pozerat aspon trochu objektivne. Tu totiz nejde o kritiku AMD, takze ju vobec nemusis takto branit.
Ja samozrejme jadro Fermi poznam. Moja otazka bola básnická... Mám nieco co ma super vykon v niecom, co sice teraz nevyuzijete, a ked to budete moct vyuzit, tak vam tento kus i tak nebude stacit. K real-time raytracingu je hoooooodne daleko. Je vôbec nejake porovnanie ako su na tom v raytracingu (trebars cez openCL) momentalne grafiky? Tu nejde o zastavanie ani kritiku, sam mam nVIDIU, uz som to povedal viackrat a je mi u zadku, ktory sú lepší. Ubrat by mali tí, ktorí si precítajú zopár obrovín a majú jasno. howk
pod clankom neni ziadny zdroj. odkial su tieto informacie?
zaujimave ze po celom svete su vyhradne kladne recenzie na 460gtx preco nie tuto? ta karta ma vybornu cenu, vyborny vykon, tiche a vykonne chladenie a prvotne informacie ze sa zaradi medzi 5770 a 5830 sa ukazali ako uplne mimo a tato karta hravo 5830 prekonala. co je s nou v neporiadku? to ze to je nvidia a 5830 sa stala nepredajna?
inak zaujimalo by ma ci sa tu objavi clanok o StarCrafte 2. asi dva dni dozadu sa objavili prve testy grafickych kariet pre hru starcraft 2 no tu o tom neni ani slovo. preco?
je vela old school hracov co hravali a mozno aj stale hravaju starcraft a nove hry ich nezaujimaju. no prichadza starcraft 2 a mnohi z nich budu kvoli tejto hre upgradovat PC. a kedze nvidia prisla s 460gtx s vybornym pomerom cena vykon a nvidia v starcraft 2 rozniesla ATI na kopytach je jasne ze na tejto hre zarobi nvidia balik. ati zatial klasicky sedi a nic nerobi. som zvedavy kolko im bude trvat nez sprovoznia AA na starcrafte.
aky nazor ma autor clanku na starcraft 2? viem ze nema rad konzoly no starcraft 2 je PC (Mac) exkluzivita a povedzme nepospineny konzolovym pristupom zjednodusovania a nicenia pokracovani klasickych hier.
tak sa este raz opytam. objavi sa tu clanok o starcraft 2 a testoch grafickych kariet pre tuto hru? dakujem
Na moji 8800GTX jedu SC2 na max. detaily v rozliseni 1920x1080 s min. 35+ FPS. Pokud mas neco na urovni tehle serie (GT/GTS) tak nebudes mit nejmensi problem.
Ale ta recenze GTX460 (1GB) by me taky zajimala, kdy bude ?
1. kladne recenzie ?? mozno na 1GB verziu ale 768 nic moc....
2. ano radi sa medzi 5770 a 5830 ale ta GTX 460 s 768mb pamatou ta 1gb sa radi medzi 5830-5850...zle to sformuloval....
3. starcraft ma nezaujima a vela ludi ani nebude.. recenzia vsak potesi jej obdivatelov...
4. ty ces testy grafik na star craft?, si normalny?? ved ta hra je tlacena nvidiou ta sa necuduj ze na nV kartach pojde lepsie...
5. koly jednej hre budu upgradovat?? sa spamataj?.. to nie je Crysis 2 a podobne co ocakavju miliony a budu niektory idioti si koly tomu upgradovat pc...
6. "a kedze nvidia prisla s 460gtx s vybornym pomerom cena vykon a nvidia v starcraft 2 rozniesla ATI na kopytach je jasne ze na tejto hre zarobi nvidia balik."
???? pomer cena vykon ano ma lespi ako spominana HD 5830 a preco lebo NV vedela ze to je trn v ATI tak postavila kartu ktora ju znici a aspon si NV trosku polepsi v mainstreme...ze ju rozniesla v sc2 omg ved ked do nej Nv vtlacila love a priplatila si za reklamu ...myslis ze sa nabalia koly takejto hre..
7. aky ma nazor autor clanku na SC 2? omg na jeho mieste o tu hru ani nezakopnem nie je to hra na ktoru sa kazdy tesi...ako mafia a podobne..neprinesie ziaden zazrak bude to len take ozivenie niecoho stareho..
8. naco ces tolko testov grafik na starcrafte?, ved si pozri ine weby ved ty vies vsetko naco cez recenzie...OMG...
podla poctu omg nemas viac ako 15 a nazory deti berem s velkou rezervou. ovzvlast ked nemas sajn o com pises chlapcek
768MB nic moc... aha zaujimava informacia.
vela ludi nebude zaujimat starcraft 2 ? by si sa cudoval. cielovou skupinou SC2 nejsu deti takze asi preto nemas o tuto hru zaujem. a ak by o tu hru nebol zaujem asi by do nej vyvojari nevrazili 100 milionov dollarov
nvidia vtalcila love a zaplatila si reklamu od koho asi tak mas tieto nazroy. akoby zazrakom ta reklama ktoru si nvidia zaplatila sposobila ze starcraft ide na ich kartach omnho lepsie a ma AA. dobra reklama vsak?
hele nechovej se jako OBR, tady na to nejsme zvědaví ...
768MB má stejný výkon a dnes už i cenu jako HD 5830, tkerá ma navíc výhodu v dnes hojně používaném 1920 rozlišení, kde ji nelimituje sběrnice a množství ram. Navíc stojí dnes již stejně, takže nebuď hloupý a čti fakta ....
recenze GTX 460 se dodělává, na karty jsem musel čekat, jsou prázdniny, jsou dovolené, práce i doručování karet jdou pomaleji ...
proč řešíš hru, která ještě nevyšla a firmy tak nejsou povinny mít na ní bezproblémové ovladače? Aha, protože nějakej debil testuje výrobek před oficiálním vydáním hry i ovaldačů ... co tím sleduje a ty mu to baštíš? Zabývej se vydanými produkty s příslušnou tehcnologickou podporou ...
takze ani z daleka nestoaj rovnako. najlacnejsia 5830 je drahsia ako najdrahsia 460.
460 je vykonnejsia a lacnejsia a oproti nej je 5830 prakticky nepredajna. to je holy fakt.
OK tak si vytáhneme testy v dnes nejrozšířenějším rozlišení 1920x1080 na 22" LCD a výše ... budeme hrát i s 8AA (u DX9/10 her většinou výkonově žádný problém pro grafiky za 5000)
a u náročných her musíme hrát bez AA, protože GTX 460 ani HD 5830 nemají na plné detaily s AA/AF v DX11 hrách jako METRO 2033 či Stalker výkon a jaká bude situace v režimu 1920 s 0AA nebo 8AA?
HD 5830 koupíš i ve velkých obchodech jako CZC, mironet za 5000,- včetně DPH: Odkaz
GTX 460 768MB stojí přibližně stejně, což není divu, když oficiální ceny HD 5830/GTX 460 768MB jsou 199 dolarů!: Odkaz
Každopádně pro tebe poslední upozornění, flame, naprosto mylné věci vydáváš za fakta a ty navíc překrucuješ - toto tady pěstovat nebudeme. Přestaň tady s tím svým překrucováním faktů a vyvolávání flame. Jistě lze diskutovat i bez toho, já důkazy na podporu obecně známých faktů uvedl, ty nikoliv ... Pokud se ti něco nelíbí, rač se přesunout na jiné stránky ...
Jiný názor je vítaný, je ale rozdíl mezi podloženým názorem a překroucenými fakty a evidentní flame vydávanými za názor.
To že to nechápeš není moje chyba ...
//většina testů nezahrnuje tolik her a tolik nastavení jako testy na CB. Navíc CB vydává dlouhodobě velmi přesné recenze, tudíž se není důvod domnívat, že by byly špatné. Naopak i jiné testy dokazují, že jsou správné ... pravda je taková, jak jsem ji napsal. GTX 460 768MB a HD 5830 mají stejný výkon, % sem tam nehraje roli, protože se bavíme o 1-2FPS. Rozli už hraje ale fakt, že díky 256bit sběrnici a 1GB paměti nemá HD 5830 takové problémy s vyšším rozlišením 1920x1080(1200), což je problém, protože téměř každý nový monitor od 21,5" výše má 1920 rozlišení .... neodiskuovatelnou výhodou GTX 460 768MB je ale rozměr karty, HD 5830 je prostě zbytečně dlouhá - více v naší recenzi, kterou chystáme ....
Pleteš si názor a fakta. Fakta jsou daná pro všechny. Názor má každý jiný. Ale cena grafiky nebo její výkon není názor, ale fakt. A to že to nVidia zajebala je prostě fakt. No někdo to prostě nedokáže překousnout.
Myslel jsem samozřejmě zpoždění a "kvalitu" FERMI. Ale uznávám, mohl jsem volit lepší slovník.
Anonymní
2010-07-22 22:01:05
Pri 22" Full HD je rozdiel medzi 4×AA a 8×AA pri hrani prakticky nulovy. 8×AA ma vyznam pri 22" 1680 a 24" Full HD.
Jo a na computerbase su skutocne podivne vysledky s ohladom na zvysok sveta ... ale to je tym, ze maju podivny vyber testovacich hier. Napriklad vykon v DX10 hrach testovali na Crysis a Anno, co je velmi podivne a urcite to nedava realny pohlad na vykon kariet.
ComputerBase.de mají nejlepší testovací postupy z drtivé většiny webů, jejich výběr her zahrnuje aktuální používané technologie a aktuálně hrané hry a vždy je otestována trojice rozlišení v trojici nastavení ....
když si vybereš výsledky jiných webů a dojdeš k tomu, že kdyby testovali se stejně pečlivým skutečně odpovídajícím reálné herní situaci vzorkem her jako CB, byly a jsou ty výsledky stejné.Jinými slovy ty výsledky jsou velmi velmi reálné a snadno ověřitelné ...
nastavení s 8AA je ale ve hrách nastavitelné, v mnoha hratelné a je také náročnější než 4AA tudíž je relevnantí pro určení výkonější grafiky ... 8 je pokud vím, více než 4!
Anonymní
2010-07-22 22:23:11
" jejich výběr her zahrnuje aktuální používané technologie a aktuálně hrané hry" ... toto bohuzial neplati pri recenzii GTX 460 ... kazdopadne otazka pre vsetkych, myslite si, ze Crysis Warhead a Anno 1404 je optimalny vyber DX10 hier pre test?
S AA je to vzdy vec nazoru, ja osobne mam radsej 50 fps s 4xAA ako 35 s 8xAA
tak mohli zařadit i HAWX ajko DX10.1 ale jinak jo myslím že je to v poho .... mají o to více DX11 her
tak 35FPS s 8AA je už docela málo, ale většina grafik u starších her zvládá 8AA s 40FPS+ takže proč to nepužívat když to nastavit v menu jde a jsou to ty pné detaily ....
samozřejmě, když je hraní s 8AA kolem 30FPS je to málo a musí se snížit, problém je že snížení AA na FPS zase takový vliv už nemá :/, třeba moderní náročné hry jako METRO 2033 se s AA na grafice v 1920x1200 za 5000 hrát nedaj ...
Anonymní
2010-07-22 23:11:56
Presne tak, pridat tam aspon HAWX a just Cause 2 a nemal by som namietky
Já nevím ale mě přijde GTX460 jako hodně dobrá karta za tu cenu... konečně za dlouhou dobu dobrá karta od Nvidie... já mít ty prachy tak si ji i koupím... a to jsem věčný ATInář Myslím si že HD video dekóduje lépe a hlavně hodně programů využívá CUDA akceleraci a pak to šlape super Btw. na některých webech a v některých hrách slušně drtí i 5850 tak nevím
on nikdo netvrdí že je špatná, ale není ničím výjímečná, zvlášť s tím zpožděním a to je fakt ...
ale v tom ostatním ...
HD video má na ATI grafikách lepší obrazovou kvalitu ... to je dokázané testy.
dekódování probíhá v závisloti na softwaru, třeba Cyberlink PowerDirector 8 s podporou ATI STREAM by tě dost překvapil ;) doporučuji vyzkoušet.
na některých webech drtí HD 5850? tak to evidentně špatně měří protože kdyby tomu tak bylo, tak jsou ceny těch karet minimálně stejné ....
Problem vidim skor v kartach ako GTX460 GS-GLH resp. Sonic Platinum, ktore su vykonovo nad defaultnou HD5850 a su o 30E lacnejsie. Vobec nezalezi na tom, ze ide o OC GPU pretoze sa daju takto uz kupit a konecny spotrebitel nemusi nic riesit. Je to podobne ako ked si kupujes kartu a nezujima ta kolko ma jadier ale aky vykon a vlastnosti.
A teď je otázka, zda přetaktovaná karta bude mít stejné parametry (teplota, hluk) jako nepřetaktovaná. Navíc je zde pro HD5850 nezanedbatelný bonus v podobě možného OC se znatelným výkonovým růstem (kterého se dá docílit prostým tažením jezdce v CCC)
Porovnaval som ceny u nas kde v ageme stoji najlacnejsia HD5850 o 29E viac ako GTX460 GS-GLH, ktoru mam objednanu za 252E. Ale ano. Inde mozu byt ceny odlisne.
nemam sajn o com pisem??? hmm... zaujimave hlavne ze ty mas sajn o com pises...
ukaz mi 768 varziu kde je oproti HD 5770 lespia vo vykone cene spotrebe? danej karty a jej cenovej hladiny..??
ano cudujem sa...cielovou skupinou nie su deti ako ja??.. ako viem diet sa si do 18 rokov a dospely az od 21... nie nadarmo sa vravi matura skuska dospelosti....
hmm.. ukaz mi hru do ktorej nejdu miliony??? ale ty mas zarucene informacie ze kolko love idu do ktorj hry ... nie?? samozrejme...
ano nvidia si zaplatila reklamu a spolupracovala pri vyrobe.. to mas to iste ako pri mafii 2 far cry 2 mirors adge batman... a podobne... proste je lepsia v hrach ktore si zaplatila.. to mas tak v tomto svete kto ma love ten je panom....a vsetko sa toci okolo neho..
Pozeras sa na to velmi jednoducho. Vyvojari nie su babky s ktorymi sa NVIDIA moze hrat ako sa jej zachce. Tak isto maju svoje podmienky a tak isto mozu NVIDIU k niecomu pritlacit. Na obchod a dohodu musia byt dvaja. A NV nie je az v takom dobrom postaveni aby si mohla rozkazovat ako si myslis.
nevies ako to je ci ma Nv zalohy myslim financne staci sa pozriet co za sracky roby ona s Physx a zistis ze ta firma nehraje fairplay.. a to sa mne ako hracovi nepaci.. aby som hral hru kde si neuzijem efekty koly nvidii lebo si zaplati nieco viac co nema konkurencia a ja mam kartu tej konkurencie.. tak dakujem pekne to je mi charakter firmy..
ta firma nehraje fairplay.. a to sa mne ako hracovi nepaci..
Citace:
neuzijem efekty koly nvidii lebo si zaplati nieco viac co nema konkurencia
neuzijes si efekty kvoli nvidii? nebyt nevidie tak tie efekty nema nikto. oni si to vyrobia, naprogramuju a a oni maju pravo s tym robit co chcu. opet si dokazal ze si len chlapec a moc si neuvedomujes ako veci funguju.
v prvom rade ageia bola mala firma a pochybujem ze by mala prostriedky na to presadit svoj fyzykalny model v tolkych hrach ako nvidia. a ked chces physx v hrach kup si nvidiu. ked nemas nvidiu nech ta physx nezaujima. navyse cim dalej sa vyuziva podpora cpu physx. komu sa nepaci a citi sa byt ukateny alebo urazeny ako ty tak nech si kupi nvidiu.
prepac nemam vo zvyku byt grammar nazi ale prosim preboha poopravuj si tie hrubky!
Tak to nie je. Keby nebolo NV tak uz tu ziadny PhysX nie je alebo by sa boril na okraji zaujmu. Ageii totiz biznis nevysiel lebo nebola dostatocne silna presadit svoj fyzikalny engine v takom meritku ako NVIDIA. Myslis, ze by Ageia pristupila na odkupenie keby neboli v neriesitelnych problemoch?
ide o to ze keby nebolo agii tak by ani PhysX nebol nehovorim ze po case by nieco vyslo ale bolo by to na obach stranach a nie len na strane NV proste tym ze si ageiu odkupila ziskala ludi a skusenosti a proste ty jej dopomohly vylepsovat physX a Nv zamerne stoho vyrobyla nieco co konkurencia nemam a teraz na tom rizuje proste dobre zainvestovala... nam moze byt luto ze to nie je fair play pre hracov hier ktory vlastina ATI...
Lenze ono to je fair-play. NVIDIA vlastni, NVIDIA zaplatila, NVIDIA urobila a je to zasa NVIDIA, kto na tom chce zarobit a jej pravo ako vlastnika. Nemozes chciet aby to slo rovnako na HW firmy, ktoru vyvoj PhysX-u nestal ani korunu. S tymto hraci nemaju nic spolocne. Chces advanced PhysX - musis si kupit kartu od NV. Inak momentalne aj tak nie je co riesit. NVIDIA zoptimalizovala a prekopala CPU@PhysX do takej miery, ze bude musiet prist s niecim ovela lepsim co pobezi iba na jej grafikach aby to stalo za to. To sa rozhodne uvidi az po uvolneni release-u SDK 3.0. Proste bude musiet obhajit GPU ako akcelerator jej fyziky. Co si myslim, ze s jej SW skusenostami by nemal byt pre nu az taky problem.
keď si si nevšimol tak nie je zaujímavý pre mňa ale ako pre hračov to nie je fair play a áno ani mne ako hracovi to nie je jedno lebo privítal by som taký physx ale keby to bola samozerejmosť tým že je to len nejaký nadštandart NVidie tak nemám záujem...aj tak neprídem o zážitky s hrania...
nesuhalsim. BATMAN AA som presiel aj, bez physx aj s physx a bez toho boli uricte pasaze hry velmi chudobne.
a zas si protirecis. pies ze ta physx nezaujima a zaroven pises ze by si to privital. vyber si.
ty asi nechápeš podstatu to som si aj myslel len som to nechcel písať ja vravím že ma to nezaujíma a áno zaujímalo keby to mali všetci vtedy by som to privítal ale tým že to nie štandart tým pádom ma to nezaujíma a nekúpim si hneď konkurenciu len kôli nejakému výbuchu alebo tráve...ako to je pri Mafii..
PS: V Batmanovi to bolo zámerne tam išlo práve o tu podstatu že kto ma physx a NV ma výhodu že si to zahrá v efektoch a kto nemá NV ma smolu musí hrať beztoho... a to sa mi nepaci.. ale cely Batman bol kúpený nvidiou a si myslím že preto prišiel aj o veľa priaznivcou mohol mať aj väčší úspech a preto ho ani nemal..
PS: ako pozerám na teba snažíš sa nájsť nejakú chybičku alebo dierku v mojich textoch aby si ma napadol a tvrdil svoje a ak si toto nepochopil ako som to napísal tak už .......
Lenze to ryzovanie nie je zadarmo. Stoji vela usilia a penazi. A ver tomu, ze NV na PhysX-e dost zapracovala a pracuje dalej. A to znamena aj okrem ineho dalsie vydavky. A samozrejme ze sa potom od toho ocakava aj primerany zisk. A teraz mi povedz preco by mala moznost podpory PhsyX zlepsovat predaj HW firmy, ktora do neho nic neinvestovala?
PS: Batman dosiahol dost velky uspech. V metacritics ma hodnotenie 91.
predstav si ze mas vlastnu firmu. do niecoho vlozis svoj cas, peniaze. tato vec k tebe prilaka zakaznikov. teraz k tebe pride konkurencia s placom ze to neni fer ze vy to mate a aj oni to chcu. co by si im asi tak povedal? prsote toto tvoje nariekanie je fakt smiesne. PhysX je produktom nvidie. ked tak velmi chces physx povedz rodicom nech ti nabuduce kupia nvidiu a budes psokojny.
inak celkom sa ti aj podarilo zhrnut vyhody nvidii nad ati kartami. maju physx a staraju sa o optimalizaciu velkeho poctu hier. to su dovody preco stale vela ludi kupuje nvidie. navyse s prichodom 460 je to velmi rozumna kupa.
Urcite ano. Otazne je ci by dokazal a hlavne bol ochotny vynalozit na PhysX tolko prostriedkov ako NV. Keby skoncil ako Havok v Inteli, asi by sme zaplakali.
nejsem si jist, zda by to, kdyby Intel koupil PhysX, nebylo i lepší ... minimálně bychom měly lepší CPU fyziku s hezčími efekty Havok-PhysX ale akcelerovanou přes multijádrová CPU bez ohledu na značku čipu ....
Toho sa dockame s dalsim release-om PhysX-u. Len ci potom NV nezmeni aj podmienky jeho pouzivania. Cas ukaze.
EDIT: Okrem toho Intelom som narazal skor na to, ze vyv oj Havoku absolutne zbrzdil ak doslova nezastavil. Preto som ovela radsej, ze je PhysX tam kde je.
Po niektorych nepodarenych hrach s GPU@PhysX by bola mozno CPU cast situaciu zachranovala, keby bola prisla v stave akom sa chysta vyjst teraz. Ale zeby bolo pre nu neskoro. To pochybujem. NVIDIA by len tak nestracala cas poslednych par mesiacov s APEXOM keby dopredu nevedela ci ho vyuzije alebo nie. PhysX tu s nami este nejaku tu dobu urcite bude. A pochybujem, ze zrovna malu.
Ver tomu, ze Starcraft 2 zaujima velmi vela ludi. Ovela viac ako si chces predstavit. Preto to ze rozbila NV v teste tejto hry karty od ATI je pre nich vynikajuci marketingovy tah.
A ver aj tomu, ze spolupraca s NV je o nieco inom ako si to par ludi na tomto fore predstavuje. To nie je len tak ze NV prinesie prachy a vyvojar urobi. NVIDIA posiela a plati svojich lud, ktori makaju a vdaka tejto praci je vela hier lepsie optimalizovanych prave na ich karty. Preto v ziadnej poriadnej hre nechyba podpora AA na kartach od NV. A aj vdaka tomu vidis reklamu na NV v pomaly kazdej hre.
Skus si precitat v diskusii na PCT ku Starcraft 2 prispevok od uzivatela romanox. Je to celkom poucne citanie.
prosím vás o čem to tu plácáte, vždyť ta hra stále oficiálně nevyšla a tak je dosti předčasné se dohadovat o tom, kdo má lepší výkon, když na dolazení ovladačů je stále vrchovatě času ....
opět jen flame diskuse nad kravinou ... nehcte si to na PCT a tady se budeme SC2 zabývat až po jeho uvedení na trh a vydání grafikých ovladačů pro něj určených, pokud by náhodou ty současné nějak limitovali ATI nebo NVIDIA v plynulém hraní této hry ...
OMG dakto si robil graf.. ani nevies ci je relevantny a ako to testovaly... nie je to podlozene a ani doveryhodne.. vies kolko takch grafouz som sa napozeral pred vydanim fermi ako da na prdel ati a nic...
co tím ty weby sledovali, když testují hru, kde žádná grafika nemá problémy dosáhnout 30FPS, naopak 3-4x přeshují ptořebnou hranici hratelnosti ....
a testovali hru před vydáním bez oficiálních ovladačů a zveřejnili zjevně nesmyslné výsledky, když je více než dokázáno, že herní výkon HD 5870 je výrazně vyšší než GTX 460, přesto to někteří berou vážně tyto "výsledky a situaci" je to myslím zjevné svinstvo a podvod na zákazníky, moc mě bude zajímat, jak budou vysvětlovat, až ATI vydá s vydáním plné hry ty ovladače, přesně tehdy, kdy mají vyjít a výkon grafik bude jiný ... každý web, který uveřejnil tyto zjevně nestandardní výsledky bych nechal zažalovat a zavřít za klamání, oblbování a podovod na zákazníky ... tobě to přijde standardní, slušné a normální?
Je to obycajne PR, ktore ale napoveda o tom, ktore karty si v testoch budu viest lepsie(a nielen v nich). Samozrejme po vydani novych ovladacov nebude ten naskok taky ako v tych grafoch, ale ocakavam ze NV karty budu lepsie podobne ako tomu bolo vo Farcry 2. A ci je to standardne? Samozrejme ze ano. ATI tiez pred vydavanim hier v ktorych ma prsty ukazuje grafy s porovnavanim vykonu proti NVIDIA a tiez je to pred vydanim novych ovladacov k tejto hre od konkurencie. NV si tie optimalizacie, ktore do hry priniesla odpracovala, zaplatila programatorov, ktori na tom robili a teraz zne ovocie.
No vidíš, já PR nepěstuju a jako zákazníka a hráče mě podobné oblbování ať už ze satrany NV, ATI apod. bytostně urážejí.
Hodnotit výkon ve hře budu až hra vyjde a bude standardně na trhu, jak to ostatně dělám vždy, také vám nedělám herní recenze před vydáním her!
Samozřejmě se SC2 budeme zabývat ve standardní herní recenzi cca 1-2 týdny po jejím vydání, až si hru zahrajeme .... pak budu řešít i výkonost grafik, protože to teprva bude aktuální ... do této chvíle pokládám weby, které recenze udělali se záměrně nestadanrdními podmínkami testu pro obě společnosti, za naprosto neprofesionální se snahou oklamat a obelhat čtenáře ... každý produkt se hodnotí po vydání a ve stejných podmínkách pro zůčastněnné ... když jedna firma měla možnost udělat optimalizace dříve než ta druhá, ale hra stále není na trhu a výsledky se prezentují, zjevně to není v pořádku ....
teraz sa budem hrat na zakaznika ktory uvazuje nad kupou noveho HW kvoli hre StarCraft2.
viem ze na hre spolupracovala nvidia ale skutocne to ma aj nejake klady? pozrem testy a jasne vidim ze to klady ma. hra ide na kartach od nvidie vyrazne lepsie ako na kartach od ATI.
na ATI kartach navyse v den vydania asi nebude fungovat AA.
hru chcem hrat v den vydania. takze si kupim kartu od nvidie.
pre vacsinu takychto ludi je jasnou volbou 460gtx.
povedz mi teda akym sposobom tieto predcasne testy klamu citatelov/zakaznikov?
co kdybych to řekl, že zítra vyjdou ovladače ATI, které výkonově posunou ATI grafiky, HD 5830 překoná GTX 460 768MB a HD 5870 pokoří GTX 480 samozřejmě opraví AAA a umožní plynulou hratelnost a odladění SC2 na 3 LCD v Eyefinity i na grafice HD 5750/5770? V den vydání hry, tedy příští týden tak bude vše s výkonem ATI v pořádku a provedené "testy" nebudou mít cenu ani stažených kb.
(PS: je to hypotetická, leč reálná věc, nevím, kdy a jestli ATI nějaké ovladače na SC2 vydá).
Nicméně co je na vydávání předčasných testů se zjevně nestadnardními podmínkami i výsledky špatné a klamání zákazníků? No když to nechápeš tak se ti to pokusím vysvětlit polopatě.
Představ si, že mám Auto, které brzy půjde na trh. Jako nějaký subjekt, který nehraje směrem k zákazníkům-čtenářům fér, jej před vydáním otestuji v předvýrobní verzi se starší pohonou jednotkou a vymlácenými tlumiči, i když dobře vím, že nové auto v podobě, které vyjde na trh s novým lepším a vylděným motorem, s vyladěným podvozkem, nebude mít s testovanou předvýrobní nehotoovu verzí mnoho společného ... přesto čtenářům, těm hloupějším, kteří si nedají 2 a 2 dohormady, předložím pár dní před vydáním recenzi nehotové verze výrobku, který ale takový nebude. To není klamání a podvod?
(PS: je to hypotetická, leč reálná věc, nevím, kdy a jestli ATI nějaké ovladače na SC2 vydá).
A to je prave ono. Niekto prezentuje momentalne realne vysledky a u ineho je to co by bolo keby. Myslim, ze sa chapeme ale obaja sa na to pozerame inak.
Citace:
nehotové verze výrobku
Spominane testy su na takych serveroch, ze by som sa cudoval keby nemali presne taku verziu hry aka sa o 3 dni objavi na trhu.
keby keby keby...
je dost naivne si myslet ze ati ovladace nejak vyrazzne ovplyvnia vykon ati kariet. maximalne tak pridaju AA.
skratka starcraft pojde lepsie na kartach nvidia. kludne by som sa o to vsadil
navyse tak ako pridu ovladace od ati pridu aj ovladace od nvidie a tie mozu (a uricte aj zvysia) zas vykon zvysit. kazda minca ma totiz dve strany.
starcraft2 je skratka hra pod taktovkou nvidie a jej karty v nej budu slapat ovela lepsie. ked niekto bude kupovat kartu kvoli starcraftu jednoznacne kupi nvidiu ak to neni uplny idiot.
úplný idiot bude vtedy keď bude kôli tejto hre vlastne kupovať grafiku... grafika sa kupuje koly využitie a budúcnosti a nie kôli jednej hre kde je trošku lepšia ako konkurencia..a v ostatných hrach zaostáva...
clovek by bol hlupy koly 1 hre ktora este nevysla bude kupovat grafiku koly nejakym neof. testom a koly par fps naviac co su zanedbatelne... ale takym si ty si myslim ja osobne ty by si bol schopny kupit koly hre novu grafu ze??
ACH JAJ!
som fanusik starcraftu 1. hry moc nehravam akze mam v pc nejaku 6600GT. starcraft 1 je moja srdcovka tak sa tesim na starcraft 2 a chcem si ho zahrat v plnej parade. pozrem na graficke karty okolo 200$. 460 vs 5830. z testov vidim ze jednoznacne lepsou grafickou kartou pre starcraft je nvidia.
tak ktoru si kupim?
prsote ty si neuvedomujes co bol starcraft a aku ma komunitu hracov. starcraft 2 neni nejaka shitna tucotova hra ktora ma milion alternativ. ziadne FPS ktorych je milion.
Ludi, ktori su ochotni kvoli jednej hre kupit GPU je dost vela. A hlavne v tomto pripade nejde o nejaku tuctovu hru. To je ten obrovsky rozdiel.
Inak by som si tiez kvoli jednej hre GPU nekupoval ak by mi stihala na vacsinu a hlavne na tie co ma bavia.
pokial hra nevyjde officialne take testy su mne zbytocne a len hlupy clovek im bude berit tak testy si spravim aj ja a dam ho na weba a pis si ze nejaky debil mi na to naleti.. a nebude ich malo!!
pred vydanim fermi to boli grafy nvidie.
mas popleteny PR zaujatej firmy a testy nezaujatych stranok.
a testy su na strankach ako hardwarecunucs, tomshardware, guru3d a vsade vychadaju rovnako. najprv si over informacie prosim.
no ale graficka stranka hry byla v bete uz plne hotova...verejna beta sc2 slouzila jenom k vychytani nejakych bugu, ktery nejakou hodne velkou nahodou prosli internim betatestem a pak hlavne k vybalancovani jednotlivych ras a jejich jednotek. v tomhle pripade betu hry s finalni hrou klidne muzes plne porovnavat. prirovnat by se to dalo treba k windows 7 RC. plne funkcni pripravena na vydani, ale par drobnostni to chtelo lehce poladit (tu pridat HP, tady ubrat DMG apod). zavery z nejakych testu bych ale delal az po vydani hry, mozna ati na ten den pripravi nejakej hotfix.
když pominu, že ta hra stále oficiálně nevyšla, ani oficiální ovladače pro ni a nemá smysl se jí zabývat tak už nelze pominout ...
už jen z toho důvodu ti to nepřijde jako pitomost nehodná pozornosti, neodpovídající herní realitě v 99,9% ostatních her?
Hledáte senzaci tam kde není??? Takže až vyjdou ty ATI ovladače pro SC2, kde bude nárůst výkonu 100%, to zas budu za fanatika co .... lidi nebuďte blbci a nešiřte bludy je jasné, že GTX 460 nemá výkon jako HD 5870 a tak orpavdu nebude mít v SC2 výkon takový, jaký ukazují tyto ehm "testy" a každý kdo to posílá do světa je idiot a mate lidi, takhle si tu kartu někdo koupí, hra vyjde, vyjdou voladače a výkon karet bude úplně jiný ...
jinak já ti nevím, ale odmítám se zabývat výkonem v HW nenáročné strategické hře DX9, když všechny grafiky dalece převyšují potřebných 30FPS pro bezproblémové hraní ....
Nikde som nepisal, ze GTX460 ma vseobecne vykon HD5870. Je jasne z inych recenzii kde je jej skutocne miesto. Ide iba o to, ze SC2 je velmi ocakavan hra(a to je este slabe slovo) a ze tento tah NVIDII nepopieratelne vysiel. Inak nikde nikto nesiri bludy o tom, ze je akakolvek GTX460 na zaklade jednej hry na urovni HD5870...
Tobě přijde normální a v pořádku, když se objeví "testy" hry, která ještě nevyšla, s ovladači které jesou pro danou hru odladěny, protože být nemusí, když hra nevyšla a zjevně nestadardní výsledkovou situaci grafik někteří používají jako marktingový nástroj, když je více než jasné, že s oficiálními ovladači, na které je stále dost času, protože hra oficiálně nevyšla, se výkony vrátí od obvyklých kolejí???
Take testy vychadzali aj predtym a budu vychadzat dalej. V niektorych momentoch ide o to kto s akym vysledkom pride prvy ci uz je to vykon alebo moznost AA. Samozrejme sa tesim na testy s ovladacmi vydanymi k tejto hre kvolu porovnaniu vysledkov.
uvidime v pondeli, jestli amd napadlo zapracovat do catalyst 10.7 uz nejake optimalizace pro betu, rozhodne by bylo marketingove nemoudre to ignorovat, vidis co to s nvidiakama dela ja hlavne doufam, ze tam treba zapracuje podporu hw dekodovani pro vlc, navic je ostuda co se stalo v catalystech 10.6, musel jsem se vratit na 10.5 protoze me v poslednich nejde 3D, ani hry .. jen opengl furmark coz se mi za ty leta co uz mam ati karty stalo prvne, ze by ovladace nefungovaly||| a problemem trpi hodne lidi, alespon kdyz jsem patral po netu, je pripadu vic ...
omg na starcraft opravdu, ale opravdu potrebuji 120 fps,...
na starcraft full ti bohate postaci HD5770, rozdil nepoznas a jeste usetris 100W na elektrine
no mozna by ses divil, ale tech 45fps ve warcraftu III co mam v dote na notebooku je oproti nejakym stovkam fps na desktopu obrovskej rozdil v komforte hrani.
Mrzí mě teda jedna věc. Že se musí ladit ovladače pro konkrétní hru. Ovladač má být ovladač. A hra by se pak měla přizpůsobit možnostem HW/SW.
Stejně jako mě rozčilují dnešní OS. OS má dělat jen rozhraní pro aplikace, ale dneska se do toho roubuje kdeco. Plejery, zobrazovače webového obsahu a sockoidní aplikace. Ble.
prosimte nestrapnuj se...starcraft 2 ocekava o mnoho lidi vice nez naky tupy crysis. je mi jasne ze si v dobe vydani starcraftu byl sotva na svete, ale prvni dil se hojne hrava dodnes. kdo si dnes vzpomene natoz zahraje crysis???jestli crysis proda neco pres milion kusu tak muzou byt tvurci spokojeni. na starcraft II ale cekaji miliony lidi uz od vydani tretiho warcraftu a jeho prodeje klidne muzou vystoupat i blizko k 10 milionum.
Samozřejmě článek se objeví, jak hra v plné verzi dorazí do obchodů a NVIDIA a ATI vydají pro ni určené ovladače, které jsou aktuálně v přípravě, netestuji nikdy hry, které nejsou hotové a už vůbec ne v situaci, kdy nejsou plně podporované a ani být nemusejí, protože hra není na trhu!
Jinak SC2 je technologicky zastaralá hra, který je ale tak účelově udělána .... Blizzard ví, že díky tomu, jako postavení má SC1 dodnes, nemůže si dovolit experimetnovat ... takže nepředpokládám, že by si měl s ATI nebo NVIDAI nějaké problémy takového rázu, aby se hra nedala hrát a padala pod 30FPS.
Vzhladom na to, ze testy boli robene tyzden pred oficialnym vydanim, pochybujem o tom, zeby ti co testy robili nemali plnu hru alebo dokonca nedorobenu.
Od ATI zrejme nie a od NV predpokladam, ze mali vyladenejsie ovladace medzi ktorymi a najblizsie oficialnymi nebude velmi velky rozdiel.
Aj tak ide hlavne o prvotny efekt a mnozstvo ludi, ktori na hru cakaju a na nieco taketo sa chytia.
aha ... takže oficiálně nevydaná hra s oficiálními ovladači od jedné firmy a tedy s neférovými podmínkami pro testování a srovnávání .... inu to vypovídá jasně.
O vlivu na lidi nepochybuji, ale já se tohoto obelhávání lidí účastnit nebudu a za normální a v pořádku jej nepovažuji ....
No ani tie ovladace od NV urcite neboli oficialne, ale vzhladom na to, ze si dali tu pracu a optimalizovali hru na svoje GPU tak ich maju urcite v odladenejsom stave ako konkurencia.
pořád je to oficiálně nevydaná hra pro kterou tudíž nemusí být odladěné ovladače a prezentace takových výsledků, které navíc zjevně jsou divné v porovnání s tím, jak výkonné ve skutečnosti ty grafiky v jiných hrách jsou, je přinejmenším zavádějící ...
myslis si ze ceny sa znizia okamzite?, treba len trochu casu aj ked si nemyslim ze HD 5850 treba zlacnovat stale ponukne lepsi vykon za priatelnejsie cenu ako o par eur menej pretaktoavana GTX 460...pricom HD 5850 je OC kral...
Kdyby sis precetl recenzi 5850 kde DD dosel na max. protoze na to nestacil chladic mozna bys mel trosku jiny argumenty, HD5850 nezlevni v dohledne dobe, ATi pro to nema prostor. Zalezi co je pro tebe par eur myslim ze pro vetsinu lidi je 1500,- Kc vcelku dost.
Bez nejakych velkych urazek ti bohuzel musim rict ze pises jako zak 3 zakladni skoly a tvoje argumenty sahaji do stejne kategorie. Staci mi tvuj prispevek o par radku vyse a mam o tobe udelany obrazek. Mel by ses nad sebou trosku zamyslet.
ale hlavne ze ty mas padne a dobre argumenty a ty vies vsetko a co povies tak tak to bude proste si myslis ze si zaujimavy a tym ze sa tu vitahujes sa len strapnujes...
Nevim kdo se tu VITAHUJE a strapnuje ale alespon o sobe muzu rict ze zvladam zaklady pravopisu. Nemluve o tom ze tady vytvaris offtopic a napadas ostatni ctenare tohoto webu a za kazdou vetou mas tve oblibene "OMG" nic proti vericim nemam ale nic by se nemelo prehanet. Pripominas mi Stratose ve slovenske verzi.
ok ako myslis...:
zaklady pravopisu si ovladaj mne to je u riti....
offtopic som tu nevytvoril len reagujem.. kludne si si ma nemusel vsimnut a povedat si a na neho neragujem ja som to prave spravil prave teraz tam vyssie ako si spomenul tie ceny ale teba to nenapadne...a ohladne OMg budem ho pisat kedy cem mam slobodu slova a poviem si svoj nazor ty snim nemusis suhlasit ale nemozes mi ho zobrat...ked ti tak vadi ze nemam cistu gramatiku a asi sa povazujes za inteligentneho cloveka tak ta asi napadne ze namna zbytocne ragujes ja si aj tak poviem svoje ale tvoj slepaci mozog toto nepochopy...
Uzivatele tohoto typu se zde toleruji ? Pri registraci by se mela posilat obcanka a az po kratkem zkontrolovani datumu narozeni by se danemu cloveku mela dat moznost prispivat do diskuze. Tento clovek porusuje min. jedno z pravidel zacinaje vulgarismem v diskuzi, napadanim ostatnich ctenaru apod.
Poprve jsem musel otevrit slovensko-cesky slovnik a podivat se co znamena veta " ale tboj slepaci mozog toto nepochopy... " Bohuzel jsem nenasel preklad a musim ti oznamit. Nerozumim reci tveho kmene.
Keby si bol normalny tipek a nie zakomplexovany "....." tak by si stale nerypal... Nema to zmysel.. ako nema zmysel sa tu stebou hadat lebo si myslis ze si jedinecny a co napises tak to aj je..myslis si ze mas nazor ktory niekoho zaujima...Mna nie ja len reagujem na prispevky s ktorymi nesuhlasim a uz je len na danom cloveku ci sa ozve alebo nech tak ako som si vsimol ty nemas rad ludi ktory stebou nesuhlasia lebo stale rypes domna....ohladom reci mojho kmena...."......." neci vediet co som ti tam napisal.....necem byt vulgarny... takych ako ty milujem.... cmuk....
Ale nemuzeme zit v minulosti cena dolaru je ted proste jina a od toho se odviji take cena ktera je ted takova jaka je samozrejme za to nemuzes ty ale cena teto karty vlastne stoji.. HD5850 sezenes dnes za cca 7100Kc stim ze par stovek levnejsi verze jsou od GB na kterych se nedaji myslim regulovat vetraky manualne.
no jo, ale když píšu o ceně HD 5850 jako že prodejci zlevnili na úroveň ceny při uvedení, tak mluvím o ceně 279 dolarů. Tehdy v říjnu 2009 to bylo 18 korun za dolar, takže zhruba 6000 korun včetně DPH. Dnes je to 20 korun (ještě nedávno 21 a zásoby těch karet za tyhle ceny v obchodech jsou), takže minimálně 6700 korun včetně DPH ;) a to hruba odpovídá ...
G80 a R600 jsou jiná generace grafik .... a situace v jejich době enní té dnešní ani trochu podobná .... situace v obou firmách je jiná, situace na poli dostupné výroby je jiná atd. ;)
Krásné téma,když to tak nějak pročítám můžu jen dodat že vše tady jsou jen domněnky a mnohdy spekulace jelikož nikdo z nás do kuchyně jednotlivých výrobců nevidí.K NV má nejvyšší čas pořádně máknou a myslím že ta její architektura čipu není špatná.ATI musí makat stejně aby jednou se nedostala do problémů jako NV.Hurá vývoj jede dál,je se na co těšit.
Ad.celá diskuse-Jen mě napadá,zda obchodní vztahy a smlovy TSMC se zákazníky jako NV vs. ATI nejsou primárně založeny na "spotřebě" WAFFERů????Tahle možnost by hodně vysvětlovala
dnešní stav, kde VÝTĚŽNOST výrobce přesouvá na bedra zadavatelů.Může to vysvětlovat i poslední zprávy o přerozdělování!!!
Z celé diskuse bych jenom vypíchnul:
-kdoví zda by neexistence PhysX nepřispěla k jednoduššímu,kvalitnějšímu ale hlavně unifikovanějšímu HW a hlavně SW?/snad by to mělo dopad i na propastný rozdíl mezi konzolemi a desktopem/
-Ad. věštecké weby "budoucnosti"-rámec tzv.objektivity by měli doplnit/SC2 na nV/ jak to bude na kartách HD6xxx,resp.
nedej bože 7xxx.Myšleno jak reálné SCI-FI.
Jinak běhám na HD5850/nV475-předem děkuji za ATI palečky.
Tak mi tenhle týden odešla grafika, tak jsem se rozhodoval, co koupit. Nakonec jsem zvolil GTX 460 (ačkoli, kdyby jí nevydali, šel bych do nějakého Radeonu do 6000,-). A teď tady čtu že ta karta má velký jádro! To je strašný! Mam jí ještě na poště, tak uvažuju, že jí ani nevyzvednu. Vždyť co když ani nezavřu bočnici u case?
EDIT: Musim se pochlubit: tu zemřelou grafiku jsem strčil na 10 minut an 250 stupňů do trouby a ona zase fachá
Ale řiká se, že je to jenom tak na měsíc až tři...
Já na to samozřejmě kašlu, ale pokud razantně klesla spotřeba a poměr výkon/watt je podobný konkurenci, tak si myslím že nemá vůbec cenu to řešit. Snad jedině z toho hlediska, že bychom Nvidii přáli větší výtěžnost a s ní spojenou výrobu efektivnějších jader nebo naopak zlevnění stávajících modelů. ale to už zavání spekulacema a patřilo by to spíš do nějaký rubriky "finance".
Jinak obdivuju ostatní, kteří se v diskusi prokousali až sem
Takúto diskusiu nie je schopné vyvolať ani Apple, ani konzoly, na odveký spor výrobcov grafických čipov sa nič nechytá...
Toto by mohlo byť prvé pravidlo za predpokladu, že DDWorld by mal nejaké desatoro...