Čip PowerXCell-8i nebude mít zatím svého nástupce. IBM mění strategii.
Čip PowerXCell-8i není moc úspěšný. Nejvíce se proslavil v konzoli PS3, ale je také zdrojem části jejích problémů s drahým vývojem her. Obecně nebyl tento procesor moc dobře přijat a tak svého nástupce nedostane. IBM zastavuje vývoj nového PowerXCell-32iv čipu, jehož návrh prý neposkytuje očekávaný výkon. Některé jeho technologie byly hodně zajímavá, ale jako celek se to nakonec neobjeví.
Hlavní problém CELL procesorů IBM je výkon, který je sice vysoký a třeba Cell-8i dosahuje výkonu 500GFLOPS v double precision, ale současné GPU ATI RV870 už má výkon vyšší a za nižší cenu! CELL navíc nemá dostatečné výrobní výnosy.
Části architektury se objeví v novém čipu, je ale dost možné, že IBM právě začíná kuchtit své GPU! Že by IBM po dlouhé době zakoplo a podcenilo nástup GPU, kdy konkurenční Intel maká na svém Larrabee, NVIDIA na FERMI a AMD už dokonce má čip FUSION, který je úplným průnikem CPU a GPU? Každopádně je to další důkaz toho, kam se aktuálně ten svět čipů ubírá – spojení GPU a CPU je zdá se zcela nevyhnutelné, zbývá jen vyřešit otázku, čí produkt na tomto poli bude tím nejlepším, který bude utvářet standardy a výchozí pohled na celou novou generaci CGPU čipů …
Když už to i IBM priznava, tak je budoucnost asi opravdu v GPU a CPU se propadne nekam k lepsimu radici pameti a komponent, a pak se to casem vsechno integruje do jednoho cipu.
Poznamka pre DD: AMD ziadny funkcny cip Fusion este nema. Zatial ma iba projekt s nazvom Fusion a to je dost velky rozdiel.
.............................................
Co sa tyka vykonu GPU, tak to trochu prehanate. Jednoducho GPU ma oproti CPU obrovsky vykon v urcitych matematickych operaciach. Taketo koprocesory tu uz boli desiatky rokov, len sa na nich nedala pocitat grafika, tak sa nikdy masovo nerozsirili. Aj dnes existuju koprocesory ktore maju vykon mozno aj 100 krat vacsi ako GPU,ale znovu-iba na urcite matematicke operacie.
.............................................
Fyzika: Skuste si na gpu vypocitat nasobenie stvorcovych matic o velkosti napr 1 000 000-inac v simulaciach vesmiru dost bezna vec. GPU by malo teoreticky jednoznacne dominovat(je to iba operacia nasobenia a scitania). Napriek tomu vam to moj roky stary dobry AMD Barton 3200+ vypocita rychlejsie ako najrychlejsia gr. karta ktora tu bude o 5 rokov. Kto vie spravnu odpoved preco to tak je ma u mna maly bezvyznamy bod:-)))
...............................................
Este raz, GPU ma sice ohromny vykon-ale uz malokto dodava ze iba v obmedzenom mnozstve matematickych operacii. A naviac iba tam, kde su tieto ulohy dobre paralelizovatelne. Vykon CPU budeme potrebovat aj o desiatky rokov, GPU ho nemoze nahradit vo vsetkom.
V tomto asi mas pravdu. Ale nic funkcne nikdy prezentovane nebolo, takze zatial su to iba vyhlasenia.
...............................................
Osobne si myslim ze mozno uz maju aj nejake prototypy na 45nm,ale asi zistili ze to ma vela chyb,tak s tym ani nevysli na svetlo sveta.
...............................................
Fusion je zatial iba jedna pani povidala. Projekt existuje, ale ziadny prototyp nikto nikdy nevidel...
Násobení matic neni podle Tebe paralelizovatelné???
Ano, pokud používáš algoritm neoptimalizovaný pod stovky jader, procesor na tom vyjde lépe. Barton a i starý Duron je silnější, než jeden shader. Ale to není problém potenciálu GPU, nýbrž používaného algoritmu.
Vím o čem mluvím, pracoval jsem s maticemi 10mln x 10mln na PC 386/387. Přesnějí řečeno, obrácel jsem jednu takovou. Jak říkával Trurl u Lema, "algoritmus je ze všeho nejdůležitější :-)"
Nikde som predsa netvrdil, ze nasobenie matic nie je paralelizovatelne-naopak,je to priklad na ktorom sa ukazuje ako je uloha ktora je ako stvorena pre paralelne pocitanie nevyhodna na gpu:-)
.............................................
Len cas potrebny na vytvorenie tolkych threadov je v takejto ulohe tak enormny, ze za ten cas uz na cpu mas maticu vypocitanu. Naviac do cache procesora narves rovno obe dve matice, zatial co vstupy pre jeden thread na gpu su tak velke, ze to cache jednotky gpu sa jednoducho nezmestia.
..............................................
Ono nie vsetko co dobre vyzera na papiery je dobre aj v praxi:-)
..............................................
Svojim prispevkom som len chcel poukazat na mytus ake su gpu neskutocne vykonne na matematicke ulohy atd. Ano, je to pravda,len nikto nedodava aj to B, ze su vykonne len na urcie matematicke operacie a tam,kde je mozna paralelizacia(a ma zmysel).
Ale houby. Před 20 lety taky vše počítalo CPU a grafické karty byly jenom na zobrazování. Pak se začaly samostatně vyvíjet, prostě to bylo levnější na výrobu, než aby to tehdá nacpali do CPU a prostě se to rozjelo na dvou frontách. No a teď až to technoligie umožnuje, tak to opět nacpu do jednoho čipu, který se i nadále bude jmenovat CPU a spíše to naznačuje počátek konce grafických karet. Takže pro nV další katastrofa, i když podle všeho bude Fermi spíše takové x86 nekompatibilní CPU.
Aby to GPU bylo zatraceně výkonnější než CPU, tak má spotřebu 100-300W.. jak bys tohle chtěl integrovat do CPU se spotřebou 50-100W a elegantně chladit?
Malé GPU integrované do CPU je už tady bylo.. říkalo se tomu FPU a nakonec to zmizelo
FUSION je velmi zaujimave a urcite aj nesmierne zlozite ... DD ako to myslis s tym za AMD uz ma ci fusion ? chces povedat ze uz ho fyzicky ma a testuje ? ci ako ?
No ano, AMD uz ma svuj FUSION. Uz ho dokonce i testuje napr. tady: http://www.youtube.com/watch?v=C37__7E3HTc
Naprosto revolucni tlacitko
Tady te uvedou dale do problematiky: http://www.youtube.com/watch?v=o8BvHPSOC8I&feature=related
a kdyby stale zbyvaly nejake dalsi otazky na ktere bys chtel odpoved, zkus tohle: http://www.youtube.com/watch?v=ofQO8p0GMJM
ved ja chapem ze nie na trhu ... ale ide o to, ze larrabbe tu uz malo byt zaciatkom buduceho roka, takisto ako malo byt fermi, ale FUSION sa predpokladalo na 2012 aj to mozno iba na konci roku, tak preto sa cudujem ze ho uz ma v nejakej tej revizii a testuje ho ...
A pak taky procesory do Nintenda Wii, XBOXu 360, do cisco routeru, taky sem je potkal v lepsich linuxovejch satelitech, blu-ray a jinejch HD prehravacich, taky neco Xillinx ma licencovany a STMicroeletronics, proste jsou uplne vsude, kde ta bedna nevypada uplne jako PC nebo notebook a taky tam kde je obycejnej ARM procesor malo vykonny..
To je náhodička. Zrovna včera jsem mluvil s kamarádem na toto téma ( Paralelní zpracování, CPU, GPU, apod.). No a dobrali jsme se k tomu, že IBM asi zaspalo... no a teď se dovídám, že naše dohady byli docela odpovídající...
Tak to samozřejmě nepopírám. Někdy se "čekání" může i vyplatit. Zde je otázka zda to bylo úmyslné čekání nebo probrání z letargie... Osobně nefandím žádnému z výrobců, jsem rád za konkurenční boj, který by měl táhnout vývoj stále lepších ( levnějších, výkonnějších, spořivějších...) výrobků.
"...ale současné GPU ATI RV870 už má výkon vyšší a za nižší cenu!"
Hmm jenže rozdíl je v tom, že u procesorů je možné plně využít udávaný výkon, jenže u ATI GPU je udáván nějaký teoretický výkon, který stejně žádná aplikace neumí využít
Tak neumi, ale kdyz se zameri na nejaky konkretni vypocetni hardware, tak uz pak jo. Viz. Playstation 3 a CELL processory. Vzdy v prubehu existence playstationu vypadaly hry na zacatku stejne jak ty nejlepsi na predchozi konzoli +- a casem se naucili programatori vyuzivat vsech moznosti a znamenalo to pokrok v grafice na stejnem hardwaru. Teda aspon tak to chapu ja a vychazim z toho co vim.
Osobně se mi sloučení CPU a GPU moc nelíbí a myslím, že se bude jednat jen o lowend max mainstream. Vždyť univerzálnost znamená kompromisy. Nikdy nemůže být něco co je univerzální, tak dokonalé jako něco specializovaného. Krom toho kouzlo PC je právě v tom, že je to skládačka. Každý si může nakonfigurovat co chce a tunit do aleluja. Takhle dostanem jeden prťavý čip, který bude umět všechno a bude to nuda Přijdem o ten pocit vybalovat tu nadupanou grafárnu a brutálním chlazením a futuristickýma nálepkama
Ano. Pro kancelářský PC je to ok. Ale pro PC k vědeckým účelům, nebo složiějším výpočtům, nebo programování ,pokud majítel není fanoušek GPU programování, je to kombinace naprd. Tam je potřeba silného procesora se slabou grafikou (silná není potřeba, takže se dá ušetřit). Tak v tomto případě je kombinace GPU na základce lepší.
Tak nikdo neříká že by integrované GPU mělo být ve všech procesorech. Intel jasně takové CPU vydává jen do lowendu-mainstremu. Pro profi PC tu jsou Core i7/Xeon
Tak jestli je to ten projekt Fusion, ktery je integraci CPU a GPU, tak zatim nic moc. Realna dostupnost kdo vi, zatim je jen na road-mapach, a Intel tohle reseni de-facto zacne prodavat, tj. realna dostupnost, uz na zacatku pristiho roku. Jiste, je to "jen" splacnuti dvou cipu, ale kdo to pod tim spreaderem pozna? Naopak je to v soucasne dobe ucelne a ekonomicke - stejne jako bylo slepeni dvou dvoujader.
Pouze registrovaní uživatelé mohou přidat komentář!