Společnost NVIDIA se naplno vrhá do kampaně za GPU a v jejím podání vypadá budoucnost opravdu růžově (světle zeleně).
NVIDIA vzdala svůj boj o procesory, protože nemá kapacity ani možnosti, jak v dohledné době konkurovat na tomto poli AMD nebo Intelu. NVIDIA se tak opět plně soustředí na GPU, se kterými chce konkurovat Intelu a AMD nejen v oblasti výkonných grafik, ale také ve výpočetní oblasti.
Šéf společnosti NVIDIA prohlásil, že výkon v oblasti GPU computingu se v následujících 6 letech zvýší 570x! Výkon procesoru se prý během stejné doby zvýší jen 3x.Zdá se, že NVIDIA opět naplno začíná svou kampaň proti procesorům, kterou si zcela rozházela vztahy zejména se společností Intel. Podle událostí v poslední době ale již Intel ani nemá zájem na nějaké další spolupráci s NVIDIA na své platformě, a tak se NVIDIA naplno může pustit do boje proti CPU. 570x vs 3x je opravdu hodně zajímavý odhad vývoje.
NVIDIA se na poli GPU opravdu snaží, jelikož vlastně ani nemá na výběr a tak ji nelze upřít, že vývoj v této oblasti sune kupředu právě NVIDIA, minimálně v tom, že (se) o něm hodně mluví. Samozřejmě si nepřipouští, že by se tato cesta mohla ukázat jako sice zajímavá, ale nikoliv všespásná, či dokonce úplně mylná. Potenciál tady určitě je značný, což vidíme všichni. Je samozřejmě otázka, zda samostatné GPU a CPU budou existovat ještě za nějakých 10-15 let. Vše zatím nasvědčuje tomu, že se dříve nebo později dočkáme jednotného čipu zpracovávající to, co CPU a GPU dnes samostatně. K vývoji tedy potřebujeme vyrovnaný vývoj na obou stranách barikády. NVIDIA má tu výhodu/nevýhodu, že se nemusí/nemůže ohlížet na procesory a jejím jediným zájmem jsou GPU a podle toho vypadá i marketing. AMD a Intel ale rozhodně svými plány na poli GPU výpočtů netají a jen se o nich tolik nemluví, protože pro obě společnosti je dnes primární trh s procesory. Nicméně superskalární 5D architektura čipů ATI i multi jádrová CPU architektura Intel Larrabee jsou na věci kolem GPU computingu více než dobře připraveni a v žádném případě za NV nijak nezaostávají ve výkonu, v pokročilosti ani v podpoře nových technologií. Zaostávají jen v marketingu, protože to pro ně zkrátka není primární oblast podnikání. Nedávají také žádné velké náhledy a odhady na to jak poroste výkon do budoucna, zatímco NVIDIA maluje budoucnost svých GPU opravdu hodně narůžovo (světle zeleno) a za 6 let nárůst výkonu 570x je opravdu těžko uvěřitelné číslo a moc by nás všechny zajímalo, jak se k němu u NV dopočítali, či případně co tahle legrace zákazníky bude stát ...
Kdyby alespoň 50% z toho, co tvrdí NVIDIA se nakonec podařilo zrealizovat, určitě by nám to stačilo a následujících 6 let by mohlo být hodně zajímavých.
Ale k čemu to je? Programování přes grafiku, jak se nedávno řikalo, je 4x dražší než programovaní pro procesorová monojádra a 2x než pro multijádra. Nikdo ho nepoužívá. Nikdo takový výkon zatím ani nepotřebuje. Ano, jsou výjimky, ale velice vzácné. Věc se posune, pokud se objeví nějaký dost všeobecně použitelný a potřebný algoritm, který pro realizaci takový výkon potřebuje. Ale aby se takový algoritm realizoval, už na výzkumním stadiu je potřeba mít programátory, které umějí počítat přes grafiku. A současně se význají v problémech toho tájemného algoritmů.
Takoví všeobecné algoritmy vidím 3: AI, simulace něčeho velkého (ekonomika, turbulence...) a databazový engine. problém je ten, že lidí, které se zabývají optimalizací těchto algoritmů, ve své práci doposud ani nemuseli vědět, že počítač nějakou grafiku vůbec má.
Takže prostě nevidím, kdo by mohl vytvořit potřebu pro tak a takovým způsobem silnou grafiku.
a co třeba cca ?
to tě nenapadlo ?
pokud počítali jak jim mohlo vyjít 569,734 589
nebo 571,734 589
ale taky tomu nevěřím, je to přehnané, ale vývoj pujde dopředu, a věřím tomu že hodně... každopádně processory jen 3x méně ...to je máálo z toho že AMD vydává serverové 12jádra a 6tijádra pujdou za chvilku do desktopu
Tak si porovnej max. TDP těch grafik cos uvedl(cca 50W proti 280W). Spotřeba už dál moc růst nemůže a 4870X2 už se dost blíží nějakému skousnutelnému maximu. A navíc jde i o to jak nVidia předpovídá vývoj CPU. Kecá a kecá.
jenže takto to počítat nelze. Musíš vzít v potaz, že se:
a) mění rozlišení
b) mění náročnost scén
c) mění struktura a výkon samotných výpočetních jednotek (o tom, že se mění kompletní design GPU ani nemluvě)
d) mění se API (DX8 vs. DX10)
e) zvyšuje výkon videopaměti
atd. atd. Prostě takové "srovnání" je sice pěkná matematická ekvilibristika, ale třeba takový GLquake bude na obou kartách běhat přibližně stejně rychle, protože vyšší výkon jednoduše nevyužije.
Ano, máš 100% pravdu, mluvilo se o vypočetním výkonu - náročnost scen s tím nemá nic společného. Problém je ten, že 99% lidi neodpovidají oponentovi, nybrž svému tajemnému vnitrnímu hlasu.
Nebereš v potaz, že tenkrát měly stream procesory výkon kapánek někde jinde.
Porovnej třeba ati x1950 vs ati 2600
48 pixel shaderú vs 120 stream procesorú.
A výkonostní vítěz je... překvapivě x1950 s ubohými 48Ps
Nezapomínej, že počet tranzistorú a SP jen nenarústá, ale mění se i archytektura, protože staré výrobní postupy by vynesli spotřebu do nebeských výšin v porovnání s dnešní archytekturou.
Vsadím se, že kdybys zapojil 400x 9800Pro do něakého zázračného crossfire (třeba Hydra ), tak bys hrubý výkon ve hrách měl o dost vyšší, jak 4870x2.
Neberu v potaz ovladače, DX10.1 atd
1. Ano, máš pravdu s výkonem jednotlivých SP.
2. Ano, máš pravdu s výkonem ve hrách.
3. Tvoje myšlenky mohou být sami o sobě spravné, nebo ne, ale TY pravdu stejně nemáš, protože s nimi bys měl jit na jiný thread nebo radší i článek. O tom výkonu ve hrách tady prostě nejde. Jde o vypočetní výkon. Vypočetní výkon AMD karet je asi 2-3X vyšší, než vypočetní výkon odpovidajících herních výkonem karet NV.
Máš pravdu.
V čisle, které je představované jako VÝSLEDEK, musí být představené jenom cifry, za kterí se dá ručit. Pokud máš přesnost +-5, 570 může být. Ale tady přesnost je */2, a i to je velice optimistický odhad, takže výsledek, ať byl počítan jakkoliv, ať ho počítali třeba i s 16 čislovkami, musí být zaokrouhlen na 10^3 nebo 2^9, v souvislosti s použitým základem a přesnosti.
Takže 570 je prostě chyba. Ve škole, kterou jsem absolvoval já, za to jsme hned měli minus, úkol se prostě nezapočítal.
ale zasa na druhej strane nevieme ake graficke karty porovnavaju. Ak by sme porovnali vykon 8200 s HighEndom za 6 rokov tak mozno ze ani daleko od pravdy nie je
570 možná když přiletí ufo, dá technologii nVidii a vznikne "geforce ufo edition" na něčem jiném než křemíku. Pochybuju, že by grafiky takhle předehnaly CPU.
Myslim že to vychází uplně přesně, ted maj 1Tflops na kartu, quadSLI má vykon 4TFlops, a každej rok se zdvojnásobí, tak vám lehkou matematikou vyjde něco přes 500Tflops...
Hele asi nechápu tvojí lehkou matiku. Pokud je současný výkon 4TFlopy tak za 6 let bude mít 256 TFlopů (pokud se to tedy bude opravdu zdvojnásobovat každý rok). A i těch tvých 500 TFlopů je zvýšení "jen" 125x.
no letos bude nová generace, tak si za letosni nultej ročník zvyš výkon zase 2x, pak je tu otazka vícečipových karet a systémů, podle toho jestli to zapocitas nebo ne, tak se nejak k tomu nějak dostaneš, navíc se dá počítat stím, že konecne vydají nejakou novou architekturu která jen nezdvojnásobí 2x počet SP a seš doma Ale je fakt, že je to jen hraní s číslama, ačkoli když porovnám fillrate GF Ti4800 s 2400MT/s a 285GTX s 51.84GT tak za posledních 6 let se zvýšil jen 25x, leč výkon ve flopsech sem nikde nezjistil, tak težko říct, každopadně, kdyz začaruješ s čísly a počty karet a čipů, tak by to melo vyjít, ale neříkám že je to nějaký košér počítaní a asi to tak počítali i u nVidie, ale co se dá dělat Navíc se v tom článku mluvilo o GPU computingu, takze to nebude nic, co by bylo u nás na stolních počítačích běžně vidět a bylo využitelný.
Pri dnesnim trendu, ze se zdvojnasobi vykon kazdy rok tak by za 6 let vykon zvysil na 64krat. Coz i tak je pomerne slusne oproti procakum, ktery navysi vykon jen 3x. Pokud by to zvladli ne co rok,ale co 7-8 mesicu tak by se dostali na tech 570x, ale moc tomu neverim, ze to v reale tak bude ikdyz by to nemuselo byt spatne z duvodu pokroku vpred, ale zas shediska rychlosti zastaravani grafik dost silene
Dnes sa uz hovori natvrdo o akceleracii dat, GB/s a GFlops /jedno ci CPU, GPU, ina karta/
Preto logicky na zakladnej dosky bude integrovane aj CPU
spolu s VGA, LAN, zvukom, SATA, sifrovanim.......
Spotreba toho celoho bude cca 60W-pasivne chladena
a v PCIE express slote bude
obrovsky datovy akcelerator /Data Procesing Unit- DPU/
TFLOPS vykon taky vysoky aky si mozete dovolit a aky dokazete uchladit
[i]Kedze intel to uz davno vie a nemoze uz pretlacit cez Microsoft aby v DirectX neboli moznosti nahradzujuce CPU
/je tu OPENCL, CUDA.../[/i]
vizia :
Game user si kupi - ATI DPU /DirectX 12/
CAD Engineer - NV DPU /CUDa 3.0/
MOVIE producent INTEL DPU /LARABEE 1.0/
Některé firmy jsou prostě trapný. Nvidia ztratila jakoukoliv soudnost. Doufám, že takhle nezdegeneruje intel, amd aspol. Nechce nVidia začít prodávat grafiky přes teleshopping ? I ten je, ale o něco serióznější
PS: Mám grafiku nVidia tak mě neobviňujte z ...
Třeba to NV počítala od své první grafiky, co kdy vyrobila... aby tam byla alespoň kapička pravdy a to číslo vypadalo zajímavě Nicméně tvrdit se dá cokoliv, ale jiná věc je to zrealizovat... možná před tou 6 vynechali 1
"Zaostávají jen v marketingu, protože to pro ně zkrátka není primární oblast podnikání."
Tak tohle me dost pobavilo, to ze nVidia povazuje marketing za dulezity clanek v prodeji svych produktu je uplne v poradku, protoze takto obchodni model proste funguje. Treba Microsoft je toho zarnym prikladem... To ze to ostatni marketing nedelaji nebo neumeji, uz tak v poradku neni, a myslet si "jsme technologicka firma, marketing nepotrebujeme, vsak ono se to proda samo, vsechno si to nasi zakaznici mezi sebou reknou" - to musi myslet vazne jen opravdovy ignorant.
Nejlepší reklama je spokojený zákazník, dobrý produkt si zákazníka vždycky najde atd. Pokud se to s marketingem přehání tak to je špatný. High-end produkty reklamu nepotřebují skoro vůbec. Microsoft nezískal monopol kvůli marketingu jaký používají Ati-nVidia, ale to je složitý.
Marketingu není nikdy málo nebo hodně. Je jen dobrý nebo špatný marketing. A něco mezi tím. Záleží na tom, jak schopné pracovníky firma má.
Z ekonomického hlediska se nevyplatí dělat reklamu na špatný produkt. Možná přilákáš lidi, ale ti odejdou, že se jim produkt nelíbí a nekoupí od tebe radši ani nic dalšího, příště radši nakoupí jinde. To je vidět u výrobců graf. karet s čipy nVidia, kteří přechází na ATI.
U dobrého produktu přilákáš lidi stejně, navíc odejdou spokojení a sami ti pak dělají reklamu, navíc u tebe pravděpodobně v budoucnu znovu nakoupí. Marketingoví odborníci to ví, na špatné produkty se reklama nedělá.
nVidia nemá špatné produkty, jen v poslední době nejsou takové, jaké bychom je chtěli mít...
Myslim ze odchadzaju ludia aj od AMD ku NVIDII. Takze je to na povazenie. Vykon maju v podstate obe firmy podobny aj ked je fakt ze s tym preznacovanim to naozaj zeleni prehnali.
Otazne je v akom pomere sa to preskupuje a aky je momentalny podiel oboch firiem na trhu.
jestli sem to nespocital spatne, tak uplne nerealne to tedy opravdu neni. dneska ma gtx285 cca 1tflops. kdyz nvidia kazdych 8 mesicu ten vykon zdvojnasobi (takze tedka by g300 mela 2 tflops, o 8 mesicu pozdeji g400(?) 4tflops atd), tak nejaka grafika by za 6 let pri tomhle tempu dosahla vykonu 512 tflops. to uz je k tomu slibovanymu 570x narustu vykonu docela blizko...zalezi jestli je tedka nvidia schopna kazdych 8 mesicu vykon zdvojnasobit.
možná počítaj s tím že se donekonečna bude přeháczet o 15nm dolů ..
za necelej rok tu máme 22nm ? ale zas, nVidia se nesnaží čip zmenšovat, takže tam narvou dvojnásobek a čip má stejnou velikost, a tak to možná bude furt
tak do te doby se minimalne jeste 2x bude menit architektura. klidne muzou prejit na superskalarni jednotky jako ma ati, ktere sice zdaleka nejsou 100% efektivni, ale ten teoreticky vykon vyssi maji a nezaberou tolik mista na cipu.
Ale je mozne ze to Nvidia pocita v double precision, kde ma teraz GTX285 cca 80GFlops. Pripravovany GT300 by mal mat v double precision 500 - 1200 Gflops, co je obrovsky rozdiel. A tych 45 Tflops (570 x 80 Gflops), o ktorych mozno Nvidia hovori, sa zvladnut s prehladom da. A ked nie, tak na dosku natlacia styri grafiky do SLI a pojde to.
no len zober si že napr CPU od Intelu Core i7 od neho spravia 3 krát silnejší CPU za 6 rokov tak myslím že je to totálna blbosť aj keby to tak bolo tak si zoberte a porozmýšlajte že grafika bude mať teoreticky 512 tflops ako napísal Raigor tak proste ten CPU by nestačil .....nad týmto sa asi vela ludí zamyslí to by bolo reálne keby sa výkon za 6 rokov zväčšil o 100 krát to by bolo reálnejšie
No pokuď by měla Nvida pravdu čemuž moc nevěřím tak už by měla vytáhnout ted s GT300 s nějakýma 5Gflops, no ale co Bill Gate taky říkal v roce 80, že nám budou stačit 100mb disky a kde jse ted :-D
570x je prostě moc, jako byla by to paráda, ale zaprvé musely být na to nějaké aplikace a za druhé to je prostě při současném trendu nereálně, pokud bude silnější 20x tak to už bude super. Stejně je to jedno, když si budu chtít něco koupit tak budu vybírat tak co je pro mě nejlepší a nejvyhodnější, NV, ATI, AMD intel to je jedno. Hlavně at je něco .
Treba nVidia chce stejne jako Microsoft urychlovat vyvoj a uvolnovat na trch sve produkty rychleji.Vzdyt MS chce vydavat operacni system co cca 2roky a nVidia zase co cca 8 mesicu vypustit na trch 2x vykonejsi GPU(je jen otaska jestli jim to vyvoj Nm dovoli,protoze kremik uz ma namale a z novym materialem by to nemuselo jit tak rychle+cenova dostupnost)
a myslim si ze nVidia tech 570x vzalo z GT200(jedno jadro) a za sest let pocitaj z GT900(ale treba X3 ci X4 nebo i vic+jeste dany do SLI )potom by to mohlo byt i realne. Na tom samim bude i ATI protoze kdyby ATI prestala jit z vykonem nahoru tak by i nVidie nespechala
uvidime za sest let jestli kecali nebo ne
PS:CPU mi nepripada moc realny,ze bude "jen" 3x vykonejsi
Málo vizionářů vidí dál než na špičku svého nosu, většinou vidí dál jen naprosté nesmyly. Realita ale bude v prognostikované době zcela jiná... Realita se bude z mnoha důvodů držet více zpátky...
Bylo tomu tak i u Intelu, podle něhož už měly procesory mít 10GHz...
Bude tomu podobně i u nVidie, která na sebe jen chce upoutat pozornost... A zvýšit hodnotu svých akcií..
Nahodou ja optimizmu nvidie celkom fandim.
Ked zdvyhnu vykon grafickych kariet 570x ,
zdokonalia 3d vision 570 nasobne
a cele to skombinuju s 570x vylepsenym Airborne Ultrasound Tactile Displajom
tak uz za 6 rokov upgradujem pocitac na holodek.
Urcite bych to nenazval nerealny ani realny. Muze bych nejaky zasadnejsi prelom a bude. Kdyz si vemu 386ku a meho Q6600@3,6GHz tak ten vykon je uplne nekde jinde a u grafickych karet jakby smet. A nVidie vi vic nez my vsichni dohromady.
a k čemu ten poprask lidi? co se stalo za poslední 4 roky na poli nvidia? g GeForce 6 na GeForce 9*** a pak lehce silnější úprava na GTXka.. a výkon? jestli se za ty 4 roky zvedl 6krát, když výkon z GF 8800 GT vztroslt na trojnásobek v podobě GTX 295, dopočtete li, kolikrát stoupl výkon z GF6 ke GF8, je to opravdu dist vysoké číslo.. takže ať nVidia hlásá jak hlásá, opkud se bude vydávat cestou úprav a přejmenovávání, za dalších 6 let počítám tak desetinásobný nárůst, víc ne..
a to jak tu někdo násobil frekvenci čipu neznámými a nesmyslnými čísliy a vyšel mu 400 násobný vzrůst výkonu, to je tedy pěkná blbost.. IMHO se to dá zjistit - třeba Underground 2 na 9800PRO šly hrát celkem přijatelně, mnohem lépe než na GF4 v tté době.. a teoreticky by mě zajímalo, kolik FPS by dala právě 9800 PRo a kolik HD4870 X2.. a vsadím se, že pokud by PRO dla 30FPS, X2 by rozhodně nedala 12 000FPS, to je tedy kravina monstrózního rozměru stejně jako 570x zvýšení výkonu za pouhých 6 let.. a co se procesorů týče, AMD dokázalo, že 2jádro vs 4jádro je výkon dvojnásobný, tzn pži dvanáctijádře, které bdue dříve než za 6 let bude výkon 3násobný od současného X4 Phenomu.. tím se tedy dá dokonale vyvrátit i číslo "3krát" pro procesory.. odhaduju, že v té době tu již bude 64 jader v plné 3D architektuře a že multicore se nám teď vyvíjí poměrně rychle a nVidia se se svými prognózami může jít zahrabat.. nevěřim jí ani slovo ani kyby plánovala slepence GTX4** do 3D čipu monstrózních rozměrů s využitím tak 32 jader.. pak by se tomu číslu dalo teoreticky uvěřit, ale nemyslím si, že během 6ti let nastane éra multicore grafik..
jenomze to je hruby vypocetni vykon coz je hodnota ktera nijak nesouvisi s fps v nake hre
zkus si spocitat PI na 1M na nakem P4 a zkus to na i7 @ 4Ghz a uvidis ten rozdil muze to byt klidne 20x a neznamena to ze i7 by byl ve hrach 20x rychlejsi nebo i v jakychkoliv jinych cinnostech
jinak s 8800 GTS 512 sem mel v CoD1 asi 300-600 fps, bohuzel nevim z ktryho je roku CoD a z kteryho roku je 8800
Tak jestli vidíte marketing už i v tomhle, tak jste tu zralí na léčebnu. Je to stejně nesmyslá prognóza jako když Gates vytruboval jak bude 640kB paměti stačit všem, jako když ATI vytrubovalo jak bude mít do konce r. 2008 51% podíl na trhu atd. Jestli někdo podle současného stavu odhaduje stav budoucí, může se plést a taky nemusí. Ale je smutné, že se vždycky vyrojí vlna lidí, kteří o tom ví kulový, ale zato do všeho kecají. K tomu prohlášení došel na základě nejakého odhadu, který bude jistě mnohem kvalifikovanější než ty prostoduché bláboly, co tu vyplodíte vy. To neznamená, že nemůže být mylný. Míň fanatismu a víc rozumu...
Problem je, ze si spousta lidi neuvedomuje, ze jedna o vypocetni vykon. S hrami to nema nic spolecneho. A pokud jde o vypocetni vykon, tak tahle predpoved az tak od veci neni. Procesory ponechavam stranou. Ovsem videt za tim marketing je uz vazne na hlavu. No nic, jinak stylistycky je tahle newska opet hodne mizerna.
ziadny rozdiel. Ked si zoberies vypocetny vykon, tak dva roky stara high-endova 8800 GTS 512 MB mala vykon 416 GFLOPS, co je proti dnesnemu high-endu GTX 295 s vykonom 1800 GFLOPS rozdiel styrikrat nizsi. Tie cisla si nVidia cuca z prsta, a aj ked som podla teba na hlavu, nevidim za tym nic ine ako marketing kamuflujuci neschopnost prist na trh s niecim novym.
Souhlas, mas bod, graficke karty umeji cim dal vic a computing uz je pro ne realna funkcni zalezitost....
Zajimave je kdyz AMD-Ati nebo Intel mluvi o svych budoucich planech tak to jako marketing vnimano neni, viz uz je tu mezi nami leta kodove jmeno Bulldozer, kazda firma si "maluje" jake budou pouzity vyrobni procesy "vyhledove", etc etc etc....
tohle kopíruje strategii mnoha her, furt je co nového lepšího shánět, a tudíž tak se nadržuje bohatý zákazník na každý další produkt, stejně jako hry nadržujou na lepší equip.
Pouze registrovaní uživatelé mohou přidat komentář!