Během uplynulých několika dní se opět vyrojilo pár informací o očekávané novince.
Poté, co AMD-ATI představila první z rodiny nových grafických čipů, zavládla v táboře zelených (NVIDIA) nefalšovaná a odůvodněná panika. NVIDIA se sice snažila mírnit škody, ale příliš se jí to nedaří a vyjádřením o zbytečnosti DirectX11 vzbudila akorát negativní reakce jak ze strany uživatelů, tak ze strany herních vývojářů i výrobců grafik. To vše bohužel jen přiživuje nervozitu kolem čipu „GT300“.
NVIDIA nemá prostě nic, vůbec nic, co by mohla proti nové generaci grafik ATI Radeon HD 5000 v současné době nabídnout. Tím něčím, co by mohlo mít proti HD 5000 šanci po výkonové a hlavně technologické stránce je 40nm čip GT300. O něm toho ale mnoho známo není. To je velmi netypické pro NVIDIA, jejíž PR se v současnosti omezuje na to, že PhysX je bomba, kterou musí každý mít, DirectX11 je zbytečné a GT300 bude pecka ….
Fudzilla, přišla s informací, že GT300 má interní označení Fermi. To bylo jméno vynálezce jaderného reaktoru, což mnoho napovídá o tom, co je GT300 vůbec zač. V zákulisí už delší dobu mluvíme o tom, že NVIDIA utíká z klasického segmentu grafických karet a její nové čipy jsou velmi specificky zaměřeny. K těmto domněnkám nás vede hned několik věcí. První z nich je, že současná generace grafik NVIDIA je technologicky hodně zaostalá a NVIDIA s tím evidentně nic nehodlá dělat, i když času byla hromada. GT200 nemají podporu DX10.1, nemají, GDDR5, na stejný herní výkon NVIDIA potřebuje karty dvojnásobných parametrů, co ATI, které je pak drtí výrobními náklady a nízkými prodejními cenami. NVIDIA drží nad vodou její marketing a peníze, které narvala do CUDA a pár aplikací pro ni. Pokud by však skutečně GPGPU programy a aplikace využívaly paralelismu v unifikovaném GPGPU prostředí, jako je OpenCL už nyní, neměla by NVIDIA se svou architekturou GT200 proti ATI HD 4000 a jejich superskalární architektuře nejmenší šanci (nemluvě o tom, že by ty NVIDIA aplikace chodily i na ATI). Vždyť v tom případě by výkon jednojádrové ATI Radeon HD 4890 při v podstatě polovičních parametrech, činil skutečných 1,7TFLOPS, zatímco výkon jednojádrové GTX 285 je jen kolem 1TFLOPS. Není tedy divu, že NVIDIA neustále chválí CUDA, ačkoliv všichni ví, že to má spočítaný. CUDA je navíc hodně podobná OpenCL a v podstatě je velmi jednoduché předělat CUDA aplikace pod OpenCL. NVIDIA zkrátka hraje jen o čas.
GT300 má být totiž pravděpodobně MIMD čip, tedy místo jednoduchých jednotek, bude skutečně paralelním čipem a tedy něčím, co se může rovnat supeskalární architektuře ATI, nebo ji dokonce předčít. Otázka je, jak to bude s herním výkonem a podporou DirectX11. Poslední spekulace dokonce hovoří o tom, že GT300 nebude DirectX11 čip, za což ale může sama NVIDIA svým bagatelizováním DirectX11. Součástí DX11 specifikace je i Tesselace a to je něco, co NVIDIA nikdy nezkoušela a její čipy neobsahovaly. Zatímco ATI už Tesselátory používá od roku 2001. O tom, že NVIDIA se začíná upínat jiným směrem ve vývoji GPU, svědčí i to, koho si vybrala na místo nového šéfa vývoje. NVIDIA zjevně směřuje k většímu důrazu na využití GPU jako výpočetního, než herního nástroje. NVIDIA nemá na výběr, Integrace a uzavírání platforem AMD a Intel pokračuje a se svými grafikami je vytlačována, soustředění na grafiku, jako herní nástroj, se už také nezdá být příliš výhodné. Na rozdíl od AMD nebo Intelu, NVIDIA nemá procesory, takže musí využít grafiky k výpočtům. Ať už ale mluvíme o AMD, Intelu nebo NVIDIA, vývoj jasně směřuje k unifikovaném GPU-CPU, tedy jedinému čipu, který bude zastávat jak úlohu procesoru, tak grafiky. NVIDIA na to jde cestou od grafik, protože jinak nemůže, Intel to zkouší cestou od procesoru a výsledkem je projekt Larrabee. A AMD vždy ve spolupráci se svým tichým společníkem (IBM), pracuje na projektu „Fusion“, což není nic jiného než první známý čip, který ponese jak procesorovou, tak grafickou část a to v jediném čipu.
Vraťme se zpět k NVIDIA GT300. Očekávání jsou veliká, ale soudě podle mlčení NVIDIA a dalších náznaků, možná někteří čekají na něco, co nepřijde a GT300 bude pravděpodobně úplně jiného. Na čem se většina pozorovatelů shoduje, je, že by „GT300“ mělo být velkým čipem, téměř 500mm2, bude mít pravděpodobně ca 2x tolik SP jednotek, co současné GT200, ty ale budou zcela jiné konstrukce. „GT300“ by mělo mít výpočetní výkon vyšší, než RV870, pokud jde ale o herní výkon a podporu DX11, zde už jsou predikce velmi opatrné. Každopádně bude GT300 opět větší než čip RV870 od ATI, a nemůžete prodávat dlouhodobě karty s větším a dražším čipem a dalšími nákladnějšími parametry za stejné ceny, co konkurence. Mimochodem, poslední spekulace se zmiňují o tom, že NVIDIA trochu ubere na sběrnici a místo 512bit dostane GT300 „jen“ 384bit. Ve spojení s GDDR5 to bude bohatě stačit. Ale v herním nasazení by opravdu nemuselo GT300 plně podporovat DX11 a tedy umět vše, co RV870 a herní výkon nějaké té „GTX 380“ by dokonce dost pravděpodobně mohl být jen na úrovni jednojádrového mainstreamového HD 5870, což by pro NVIDIA nebylo vůbec dobré a proto ten klid a ticho kolem GT300, pokud jde o komunikaci k běžným uživatelům a PC hráčům …
Kolem „GT300“ je až příliš velký klid a věřte, že pokud by to byla taková pecka pro DX11 a hry, tak by NVIDIA dělala úplně jiné haloo a nenechávala by řadě ATI HD 5000, takový prostor. Každopádně první GT300 by měla NVIDIA představit na konci listopadu, dostupnost na trhu se ale spíše očekává někdy v Q1 2010. GT300 však téměř nic neřeší, to je jen High endový čip pro High end grafiky a tedy soupeřům proti dvoujádrovým HD 5850/5870 X2 (5890?), o skutečné konkurenci k performance a mainstream grafikám ATI HD 5850/5870 nebo 5750/5770 není na generaci „GT300“ ani vidu, ani slechu …
nV hybe marketingom, ked bude odsudzovat DX11 a nebude ho implentovat do svojich grafik, tak prve hry s DX11 budu zaroven aj posledne.
Co sa tyka G300 tak to aby recenzanti v redakcii, nepouzivali na testovnaie hry, ale kompresiu suborov WinRAR, Cinebench a miesto 3DMark pouzivat PC Mark
Podle mne, dokud tu budou stávající konzole, tak MS nemá moc zájem tlačit DX11, když xbox umí jenom DX9.. to by taky konzolisti nemuseli nést libě kdyby jim pcčka hodně utíkaly..
No ak to teraz Nvidia dokurví, môžeme sa s príjemnými cenami grafik rozlúčiť a to nehovorím o ďalšom technologickom pokroku ako sme zvyklí do teraz u ATI.
ale zas nebudme pesimisti, Fermi by malo prekonať 5870 o značný kus (už len súdiac z parametrov čipu). Problém však nastane, ak resp. keď ATi vydá HD5890 (hlavne zrýchli GDDR5)...
to je IMHO nesmysl. Už dnešní karty se projektovanému výkonu Larrabee přinejmenším vyrovnají. V čem je přínos Larrabee není jeho užití jako herní grafiky, ale jako plně programovatelné protředí (a tím myslím opravdu PLNĚ, nikoli ve stylu dnešních grafik). Tohle na hraní nebude, aspoň ne v současné (budoucí) první generaci.
šak nikdo neříká, že se nVidia s něčím nevytasí, jen mě zaráží, že si nechala vyfouknout tučné vánoční zisky A aby ta 300 nebyla rychlejší jak 5870 by bylo divné, když je větší, tak je to i u Intelu a AMD procáků, kde AMD jsou menší a o něco míň výkonné jak Intely Zřejmě letos přechod na 45 nm u TSMC udělal čáru přes plány AMD ( s 4770 ) i nVidii Kdoví, jak rychlý bude přechod na těch 28nm, co plánují na příští podzim, třeba to bude mít taky půlroční skluz a dočkáme se ho až v Q1 2011.
otázka je jedna: opravdu bude mít AMD takové velké zisky, když nVidia během října začne pouštět neoficiální zprávy o GT300 a v listopadu ukáže kartu která bude rychlejší? Ještě by mohli dodat "poukázky pod stromeček" na GT300 a vsadím se, že by se dost lidí nad nákupem pozastavilo, alespoň co se Vánoc týče
já neříkám, že to tak udělám, ale věřím tomu, že tohle by určitě výrazně snížilo AMD prodej, protože to by na něco takovýho nedokázalo pořádně zareagovat
zalezi jak moc bude cenove jinde hd5870 je pro bezny uzivatele az prilis draha..sam DD psal ze se nejvice karet proda do 3-4 tisic a hd5870 je skoro vic jak 2x tak draha. a v high-endu je uz pak celkem jedno jestli das za kartu 8 nebo 10k, kdyz karta za 10 bude o kus vykonejsi. tezsi to bude nvidia proti hd5850 jestli bude stat tech 5k a hlavne pak proti 5770/5750, ktery by mely snad zapadnout do segmentu 3-4k.
Fudzilla, přišla s informací, že GT300 má interní označení Fermi. To bylo jméno vynálezce jaderného reaktoru, což mnoho napovídá o tom, co je GT300 vůbec zač.
JJ GT 300 bude mít každý komp na SkyNetu a instrukce naprogramované v CUDA vypustí jaderné hlavice na Rusko... Jo a Arnold bude mít taky jednu zašitou v bachoru
Nastesti se v prumyslu a armade pouzivaji Ridici Systemy bez Widli a vetsinou i bez Intelu, maximalne se tak na WIntelu provadi Vizualizace a programovani, ale vlastni kod jede v cyklickem CPU bez OS Widli a jejich silenych rezii...
To by jsme opravdu "zahoreli" kdyby na Widlich behal treba Ridici System pro Temelinskou jadernou elektrarnu, pro Widle neni nekolik sekund zadna mira(skluzy aplikaci na pozadi atpdb.) a ty potrebujes ridit/regulovat vyrobni procesy na urovni milisekund v radu tisicu operaci kde pokud dojde k casovym prodlevam ktere jsou hlidane zpusobi odstaveni vyrobniho procesu. Naprosto jsi mne tou CUDOU rozesmal, vsechny takoveto systemy behaji na privatnich oddelenych sitich(z pravidla s prumyslovymi protokoly jako MODBUS, PROFIBUS atpdb.) nebo jako samostatne RS...
Fudzilla, přišla s informací, že GT300 má interní označení Fermi.
Toť jediná novinka, navíc z pera "píár NVidie a člověka který se v 90 procentech plete" (toto nejsou moje slova), zbytek zase psán tendenčně....¨
NVidia hate machine jede na plné pecky že ?
a navic uz pekne stara...oznaceni fermi se objevilo uz na nvision 08.
kdyz uz je tu taky novinka tak se mohly uvest rovnou i nove informace z vrzone. g300 ma mit 480-512 SP, 384bit sbernici a vyko v 3D mark vantage pres P20000 bodu...
Tak zas jedna pekna "masaz" o zle a odporne Nvidii, ktera je uz vlastne pod drnem
Nemuzu si pomoct, ale tohle snad nema s novinkou nic spolecneho. Halda spekulaci a clanek doslova zavani Flamem.
Nejak nam tu jde uroven dolu, smer sr**ky
No uvidime jak Ati pokryje trh s novyma grafikama s podporou DX11 aby jsme se do vanoc vubec neceho dockali ..A takove osobni nazory DDho ze nV nic nema je cista spekulace pokud teda nechodi do tovaren nVidie uklizet Nejlepsi vsak jsou ty reci jak DX 10,1 je u Ati super a jak je to uzasna technologicka vyhoda.... panove co nam DX 10,1 prinesl?Myslim ze naprosto nic stejne kdo zustal na DX 10 o nic neprisel a v klidu si casem prejde na DX 11
Obava z uzavírání platforem je podle mě naprosto neopodstatněná. Koupim si PC s AMD procesorem a Atinou, dobře. Ale až dojde na upgrade grafiky, tak budu koukat po tom, co je pro mě výhodnější a ne na to, že bych měl mít VGA i CPU z jedný korporace. A to že AMD koupila ATI není žádný uzavírání platformy. Platforma se uzavře třeba až AMD vyvine vlastní sběrnici namísto PCI-E a nepůjdou do ní osadit NV grafiky. Například.
K uzavírání platforem podle mě může dojít jedině kdyby měl intel něco lepšího než je Larabee. Jestli bude Larabee propadák, tak to vidím tak, že si Intel koupí Nvidii a pak se možná platformy opravdu uzavřou.:-)
Co je s podivem, že největší propagáto otevřených standardů DD .. pořád píše a propaguje "ucelené a uzavřené" platformy. Tedy hlavně tu AMD.
ale to mluvíš o herních grafikách, musíš vidět to že samotný vývoj a výroba čipů se nevyplácí pokud prodáváš jen vyšší třídu produktů. Nejvíce se pořád vydělává v low-endu kde již začínají postačovat integrované řešení přímo v čipsetu základní desky (či v CPU). Tím uzavíráním platforem si již brzy NVidia v low-endu neškrtne a díky tomu se jí přestane vyplácet vývoj nových grafik.
Tyhle predikce tady jiz byli x-krat a Nvidia si stale drzi dost vyrazny podil, ktery kupodivu zatim ani moc neoslabuje. Uzavreni platforem je vec, ktera nepujde tak lehce. Ono jedna z veci, co drzi ty ceny u toho low-endu na dnesni vysi je prave i tvrdy konkurencni boj, ktery se v tomhle segmentu vede. Termin brzy je opravdu hodne predcasny. Zrovna low-end ma Nvidia podchyceny zpusobem, ktery ji dava prevahu na dalsi rok ci dva bez nejakeho vyrazneho snazeni. Jeji IGP rady 8300/8400(9300/9400) je narozdil od konkurecniho srovnatelneho 4200 zastoupeno velmi vyrazne. AMD sice muze platformu uzavirat, jenze napriklad oblast mobilniho segmentu tak zanedbala, ze ji k dohnani ztraty nestaci "jen" vytvoreni vlastni vykone platformy, musi jeste predevsim prehrat Nvidii v oblasti OEM odberatelu a tam to neni beh na kratkou trat. Takze prave naopak - v oblasti hernich GPU Nvidia ztraci svoje dominantni postaveni (ovsem situace spise logicka, po dohnani ztraty po uvedeni 2900), v oblasti IGP a OEM low-endu zatim AMD nema adekvatni odpoved. Jadra rady G94, G96 jsou schopna predevsim cenove konkurovat vsemu co je AMD schopno postavit na zaklade modernich GPU, ktere budou logicky drazsi diky nezaplacenemu vyvoji. A zrovna v tomhle segmentu se ani tak nehraje na ykon, jako prave na cenu, za kterou jsou schopni dodavat ve velkem OEM partnerum.
Takze skutecne tvoje predikce mi prijde hodne nedomyslena.
mluvíme o uzavírání platforem. Na Core i3/5/7/9 momentálně Nvidia nemá licenci na výrobu čipsetů, navíc Intel začíná grafiky integrovat přímo do CPU. U AMD zatím nvidia taky nemá licenci na novou architekturu AMD CPU, které by se mněli objevit zhruba za 1-1,5 roku, navic AMD chce taky integrovat GPU a CPU dohromady. Momentálně je na tom ještě nvidia v klidu (hlavně právě díky OEM trhu - Apple, Dell a další), ale do budoucna to na low-endovém trhu pro ni dobře nevypadá. Až se dostane na trh (hlavně mobilní) Core i3 s integrovanou grafikou, tak právě třeba u takového Apple či Dell nebudou mít důvod používat v základu GPU, či čipsety od Nvidie.
Jiste, tohle ovsem predpoklada ze: Nvidia vzda svuj boj o vyrobu cipsetu pro i3/5/7/9, coz zatim nevzdala. Integrovane GPU v CP je bezesporu cesta jak prevzit low-end, ovsem taky ne vse. Stale budou existovat segmenty, kde to nebude prakticke. Takze jiste dojde k omezeni, ale nikoliv totalnimu.
Ja te chapu, predikce je jiste zcasti zalozena na realnych informacich, ovsem rozhodne to nebude brzy a rozhodne se nestane, ze by si Nvidia v low-endu neskrtla. Minimalne v radu 1-2 let. A to je dostatecne dlouha doba na to, aby se tahle predikce mohla stat minimalne zpochybnenou.
At to jakakoliv strana fanATIku nebo Nvidiotu vidi jakkoliv tak je to jedno. Dulezite je aby byla konkurence. Pak vyhraji spotrebitele. Zatim je ATI v pozici leadera technologii a trh na sebe nenecha dlouho cekat pokud budou mit aspon trosku fungujici marketing. Tak momentalne drzim palce Nvidii a doufam ze nasadi cenu nizko aby se s ATI zase pretahovaly o nizke ceny
Není tedy divu, že NVIDIA neustále chválí CUDA, ačkoliv všichni ví, že to má spočítaný.
Pane redaktore, máte v článku faktickou chybu Já to nevím a rozhodně jsem neviděl, že by to měla Cuda už spočítaný? btw. cože to vypočítala? Odpověď na otázku života, vesmíru a vůbec To by chtělo upřesnit
stejnou vesteckou kouli bych taky chtel mit. holt jak je fudzilla podle pana sefredaktora nvidia PR, tak tady si muze podle stejne logiky dat nalepku ati PR.
v profesionalnim segmentu je cuda vice nez dobre zajeta a pomalu se teprve dostava i do desktopu. kde je ted oproti cude opencl?kde je ted oproti cude directx compute?nikde! microsoft take prosadil vlastni directx proti standardizovanemu opengl. proc by nemohla nvidia prosadit vlastni cudu proti standardizovanemu opencl, ktery zatim nic neukazalo? neni dulezite, ze cuda nebo i to physx nepodporuji vsichni. dulezite je jestli se cuda a physx stane duvodem ke koupi nvidia karty namisto ostatnich. zatim se nestalo ale porad jeste ma sanci...
NVIDIA drží nad vodou její marketing a peníze, které narvala do CUDA a pár aplikací pro ni.
Ještě bych si nechal vysvětlit jak je myšlena tahle věta. Buď znamená, že CUDA nVidii vynáší, čímž popírá zbytečnost CUDA, o které se tu káže a nebo popírá zdravý rozum, protože jak může utrácení peněz za "zbytečnost" držet podnik nad vodou, to už mi zavání dlouhodobým zadlužováním států, které je prý ok a dělají to "všichni".
to už mi zavání dlouhodobým zadlužováním států, které je prý ok a dělají to "všichni
A clovek pak naivne voli ODS v domeni ze zavede pravicove reformy a ejhle, za tri roky ta radobypravicova strana stihne akorat navysit levicovy prerozdelovaci mechanizmus v podobe poplatku u lekaru misto aby si skutecnymi reformami doslapli na rozkradacske pojistovny... Smutne je pak "vystrizliveni" kdyz si clovek uvedomi ze jsou nevolitelni jak postbolsevici(ODS) tak postkomousi(CSSD+KDU+KSCm), a zeleni to je kapitola sama pro sebe(pro mne taktez nevolitelna strana, zelene reseni by melo byt bounsovano a ne ze na mene ekologicke reseni zavedu vyssi dan)...
PS: K tematu jen dodam ze jste dostali s raigorem ode mne palce nahoru
politická situace je k pláči. modří nemaj gule na to aby udělali co maj. (vyrovnaný rozpočet) a oranžovejm je to zase všechno jedno. Co se zbytku týče, tak zelení mě jakožto studenta elektra vyloženě točí, KSČM už ztratilo i tu poslední "vykořisťovatelskou" berličku, když teď dokázali, že berou stejně jako ostatní. No a o KDU se nemá cenu snad ani bavit...
Tak, tak - nerad tahám do IT politiku, ale diskuze to snad unese. S Maxem i Jirikem souhlasím. Bohužel ODS i ČSSD se mi slila v nějakou modrooranžovou skvrnu kamarádšoftů (ten pocit pramení od "bezvládí" neboli takzvané velké koalice, kdy se sice neschválila jediná reforma, ale obě strany se celkem solidně provázaly (společný jmenovatel - might & money) a teď se to snaží jakoby oddělit v různých agresivních a vyhraňovacích kampaních aby bylo vidět že si jdou navzájem "po krku". Situace je imho úplně jiná... Co se týče zelených - jak psal Jirik - dělám taky do elektroenergetiky a nevolil bych je ani omylem. No a komanči a hadi ,tak tam je to no comment. A nakonec knížecí strana, která se tváří jako něco nového a má u sebe Kalouska který mělo imho dávno skončit v teplákách, tak to už je vrchol....
Když jsme u toho počítání - Nvidia prý nemůže výpočetně překonat super-skalární technologii (a ano složitá MIMD technologie je nic oproti jednoduchému 5D), přitom většina odborníků se domnívá, že nvidia překoná výpočetně Ati, ale ne ve hrách - tak v čem? V počítání rohlíků? A takovýhle nepřesností a demagogii je v článku celá řada.
BTW dneska jsem si vzpomněl - kde je HAVOK 2.0 s GPGPU pro Ati (tímhle se nesměju majitelům Ati karet, kterým sem, ale lidem co prorokovali brzký příchod fyzikálního standartu a konec physX - zdrojem byl asi Pan Cucavý Prt :lol.
smutné je, jak se každej redaktor na českých webech tlačí do hodnocení architektur a přitom se vsadím, že ani jeden z nich by nedokázal vysvětlit, jak to funguje. Akorát si přečtou prezentaci od výrobce a pak to píšou dál. Stejně tak by mě zajímalo jestli se tu na webu vůbec někdy pokusili něco v CUDA, Stream nebo OpenCL naprogramovat, aby mohli "zasvěceně" hodnotit...
Prečital som si článok. A mám dosť Niektoré náznaky o tom že DX11 na GT300 vôbec nebudú mi fakt vyrazili dych . Niektorý by sa mali radšej začať modliť pretože bez NV DX11 GK nebudú ani DX11 hry Dalej ospravedlňovať vykonnostný náskok vecami nevyťaženosti vyroby a podobnými kravinami je už skutočne na palicu konečný zákazník zaplatí za NV GK o 600Kč viacej a dostane GK s 20% vykonu naviac...no ano treba to nejako zahovoriť...to fakt nie je konkurencia lebo má večší výkon je to zlá NV a nikto to kupovať nebude...bóóóóže ludia spametajte sa!
Většina lidí je v poho a nenechají se jen tak zmasírovat. Spíš je zarážející jak je nám "novinka" servírována - hlavní část se vůbec nezabývá možnými specifikacemi ale spekulováním o tom že vlastně je nVidie odkecaná a at vyrobí co vyrobí tak to bude špatný o ATI jak je skvělá . Ale co se vůbec ještě divím vždyt je to pořád dokola
sice nechci aby nvidia zkrachovala (konkurence je dobra vec),ale nechapu proc schvalne musi kazit hry na ati kartach.Trebas takovy novy batman na netu uz jsou postupy jak to s PhysX na ati s vice fps.A taky to AA co na ATI nejde staci prejmenovat exe na trebas ut3.exe a volala.No jsem zvedavy jak nizko jeste klesne treba konecne narazi na dno a vzpamatuje se.
Ale ako vám ten smiešny PhysX vadí Keď pochopiš že PhysX je taká exkluzivitka o ktorú sa snaží NV a nie nejaký kazič hier tak sa ozvy ...jediný problém bol že Batmana kôli PhysX vydali trocha neskôr to je všetko.
ja aj pochybujem že by bol taký PhysX aky je v Batmanovy ak by to nebol NV exkluzivita... Stačí sa pozrieť ako sa hrnú do PhysX hry na konzolách..tam im to netreba oni su spokojný a PhysX im nechýba..a vdaka tomu sa ani nerozšíri
Je to jednoduchý. Ten kdo kupuje nové PC a chce výkonnou grafiku, tak s ohledem na budoucnost musí koupit jedině ATI.
Pro všechny ostatní by bylo rozumnější počkat až co vydá Nvidie a hlavně až budou nějaké DX11 hry.
Upgradovat za tyhle nehorázné ceny a stát někde fronty na 5 kousků předražených 5870 co zrovna někam dovezou když není jediná hra co by podporovala DX11 a skoro žádná hra, která by potřebovala takový výkon je prostě hovadina.
Já osobně čekám na NVIDII a čekám jak budou vůbec DX11 hry vypadat a taky jak budou nové hry náročné na stávající hardware.
No to nevím. Já osobně mám WINDOWS XP, takže nějaké DX11 mě absolutně nezajímá. Stejně jako to nemusí zajímat 80% lidí co nemají Windows7 nebo Visty.
A dokud nevyjde nějaká hra která mi nevyrazí dech nebo dokud nedojde dech mojí GTX260 pro 1680*1050 tak na upgrade házím bobek.
windows 7 - zdarma legalne je dostupna RC verzia a urcite ti pojede lepe nez XP mam uz rok 64bit win7 a som max spokojny
a tvoja GTX260 v XP nikdy neukaze svoj realny vykon FPS+kvalita obrazu
NVIDIA ako prva dala do driverov podporu DIRECTX COMPUTE pre win7, Dx10,+...DX11 , ambient oclusion
New in Release 190.38
Supports Microsoft’s new DirectX Compute API on Windows 7.
http://downloads.guru3d.com/Forceware-190.38-Vista-%7C-Win-7-(64-bit)-WHQL-download-2330.html
Ten kdo kupuje nové PC a chce výkonnou grafiku, tak s ohledem na budoucnost musí koupit jedině ATI
Z toho jsem předpokládal, že mluvíš o 5-kové generaci ATIn. Pokud myslíš na generaci 4kovou, pak se naskýtá otázka jestli je lepší ATI nebo NVidia. Osobně bych s "ohledem na budoucnost" nekoupil ani jednu. A rozhodně bych nepsal, že je třeba volit "jedině ATI" takové věty bych osobně nechal místnímu expertovi
No a navíc ten poměr cena výkon, který je u HD5870 daleko horší.
Když NVIDIA přišla u řady G2xx s cenou jakou přišla v době kdy byly ceny jaké byly, tak to bylo a dodnes je ta nejšpatnější a AMD/ATI ta nejlepší a nejlidumilnější. A hle, teď přišli AMD/ATI s cenama které jsou jen o malinko nižší než ty ceny NVIDIE tenkrát, ale v době kdy průměrná cena grafické karty je na polovině co tehdy. A nějak nečtu kritiku na jejich cenotvorbu. Holt časy se mění a názory červenají jak listí na stromech.
Ale prosím Vás, v čem se liší situace uvedení HD5xxx a G2xx? V jedné jedinné veci. A tou jsou průměrné ceny grafik. Takže vlastně ta hodná AMD/ATI nasadila ceny ještě daleko výše než tenkrát NVIDIA. Pokud je toto nestranný web, tak chci číst v každém dalším článku kritiku AMD/ATI ohledně cen řady HD5xxx!!!
a hlavně může cenu kritizovat až se bude něco prodávat. až se aspoň občas ukážou ty karty skladem, tak pak teprve se může někdo rozčilovat nad cenou...
Ja cenu nekritizuji. Já kritizuji to, že NVIDIA nasadila prakticky v tu dobu normální cenu, možná na vrchní hranici a je zde za to kritizována "dnes a denně". AMD/ATI nasadila na dnešní dobu ceny vysoké a je to v pořádku. Jinak samozřejmě já chápu, že je ta cena dnes jaká je. Ale jde o ten přístup zde v úplně stejné situaci, jednou zelené a podruhé červené. Nebo se snad tyto dvě situace nějak liší?
Ja ti rozumim... V zasade se nelisi, situace je vicemene stejna. Ja jenom rikam, ze logicky nelze hodnotit zda je karta predrazena ci nikoliv, pokud neni s cim srovnavat. S tim videnim mas bezesporu pravdu, nicmene tim, ze se dovolavas podobneho z druhe strany objektivizaci moc nepomuzes.
Ja len nechápem aké že to ceny ste očakávali? 5870 za 4000 a 5850 za 3000? A koľko by potom ATi pýtala za 57xx? Predávali by sa zadarmo? Cena 5870 je nižšia ako 4870X2 (keďže nie je taká výkonná) a cena GTX295 je tiež niekde úplne inde. Takže cena premrštená nie je. Za dnešné "priemerné ceny grafík" si kúpite radu 57xx ktorá je výkonom pri "dnešnej nadpriemernej grafickej karte" 4870 (keďže ani zďaleka nemá väčšina ľudí výkonnejšiu/túto grafiku), a cenou bude pod 200USD, to je tiež zlá ponuka? Alebo snáď očakávate že s každou novou uvedenou radou grafických kariet pôjde ATi s cenou nižšie?
nvidia ma skutocne prazdne ruky, nemyslim ze by drzala jazyk za zubami keby mala za rohom nieco paradnejsieho a nechala zakazniky kupovat veselo karty ATI ako horuce pecivo.
Kto by si potom kupil ich novu GT300, ked by uz mal narvate v kompe 5870ku? Vyzera to tak ze sudruhom z nvidie spadla sanka a uznali, ze este musia na svojej GT300 popracovat, aby Ati strcila do vrecka. Ze bude gt300 vykonnejsie ako rv870 niet pochyb, inak by nemalo ziaden vyznam pustit to na trh.
Možná je to tak a možná nVidia nespěchá - přeci jen vánoce jsou ještě docela daleko (stačí jim vydat GK na konci října) a těch ATInek se mezitím zas tolik taky neprodá - 1. dostupnost není moc valná. 2.nic zatím nenutí kupovat GK s DX11
Ale nvidie nemá vlastní televizní kanál aby celý den mlela o novinkách - ty se dějou pomocí výstav a přednášek na nějakých akcích...a čirou náhodou od 30. září jedna taková začne! A nvidia o ní informuje hned na přední stránce informuje...táákže . A místo toho aby DD o téhle konferenci informoval, tak píše tyhle nesmysly - lidi to je jako kdybyste se applistům smáli dva dny před začátkem Macworldu, že nemají žádné novinky...
DD poriadne neinformoval ani o tej minulorocnej ... a to tam bolo skutocne mnoho zaujimaveho ohladom technologii (vratane DX11 a DX Compute) ... ale kedze to organizovala ta firma s demonickym PR, tak to predsa nemoze byt dobre
Pod 64bit win7 som spustil 64bit demo - basic High level shader language - postavicka v 3D
prekvapilo ma ze vidim D3D11 ako API v ktorom to bezi, feature set 10.1
D3D11 10.1- 5800 FPS
D3D11 10.0- 5600 FPS
po prepnuti na
D3D9 API, D3D9 FEATURE SET
D3D11 - 2000 FPS /a zhorsenie vzhladu - svetlo/
Takze naozaj je pravda ze Dx11 hry prepnete kliknutim na DX9 mod a
vsetci stracame na modernych grafikach mozno polovicu vykonu vdaka starym hram.
Co vedie k myslienke ze vsetky Dx9 hry su dost pomalsie ako by mohli v native Dx11....
Jsem zvědav, co se z toho nakonec vyklube, mám dojem, že se snaží NV vytvořit silně programovatelný a výkonný čip, který by mohl vykonávat prakticky jakékoliv grafické operace, ale ne hardwarově jak je nyní zvykem, ale softwarově. To by si ale museli hodně věřit s výpočetním výkonem takového čipu.
Mam stejne takovy neodbytny pocit, ze ma Nvidia dosti slusne prijmy z jejich jinych produktu a aplikaci (vizualizacni, lekarske...), o kterych se ve zdejsich IT nadseneckych kruzich moc nevi a nemluvi. Treba jim jejich produkty v Holywoodu vydelavaji tolik, ze je pro NV zajimavejsi cilit novou architekturu tim smerem...
Pouze registrovaní uživatelé mohou přidat komentář!