OpenCL je zde v plné síle a podpoře hlavních platforem.
Společnost AMD dodala ke svým grafickým kartám novou beta verzi veledůležitého SDK OpenCL.Ta nově kromě procesorů AMD podporuje právě i chod OpenCL na grafických kartách ATI Radeon a podpora se zavádí na HD 4000 i HD 5000 řadě a to jak na desktopových, tak mobilních a samozřejmě i na FireGL profesionálních verzích těchto karet. Tato verze již má oficiálně certifikovaný od Khronos Group, která za OpenCL stojí. SDK OpenCL AMD dává k dispozici pro operační systémy Windows 32/64 a to všechny od XP počínaje, ale také pro Linux OpenSuse 11.0 a Ubutu 9.04.
AMD poukazuje na to, že software tak pod OpenCL bude moci využít všechny dostupné procesory v systému, tedy najednou jak CPU, tak GPU. SDK je stále ve verzi beta, což ale vývoji aplikací nepřekáží. V současnosti tak mají OpenCL podporu jak NVIDIA, tak ATI grafiky a samozřejmě také AMD i Intel procesory. V podstatě tak už nic nebrání nástupu OpenCL do našich počítačů a velká softwarová revoluce a skutečné využití mutlijádrových procesorů i grafických karet, může začít …
Na světě jsou i Catalyst 9.10 a dokonce 9.11, které výrazně zlepšují výkon HD 5700/5800 grafik v některých hrách a programech a opravují některé nedostatky, v době recenzování grafik HD 5800/5700 k dispozici nebyly, jen jejich beta verze, takže dost recenzí je nepřesných. Ale na to jsme upozorňovali, že ovladače ještě nejsou doladěné. Finální verze Catalyst 9.10, která se zaměřuje na Radeon HD 5000, DX11, OpenCL a Windows 7 má oficiálně vyjít za týden s vydáním Windows 7.
Pokud to SDK bude pohodlné pro práce, budou se na něm psát hry, a tím budou optimalizované pro ATI karty. Konečně přestane blbý stav, když NV karta s mnohém menším vypočetním výkonem dává stejné FTP.
zapomel si doplnit slovicko teoretickym. i ve vypocetnich aplikacich (jako prevod videa, pocitani cehokoli), ktere sou urceny pro grafiky jsou i nvidie s mensim teoretickym vypocetnim vykonem proste efektivnejsi nez ati a casto vykonejsi...ati de na to hrubou silou, nvidia se snazi o co nejefektivnejsi vyuziti jednotek a fermi v tomhle ma znamenat jeste vetsi pokrok.
dale ati vydala sdk az ted a to jenom betu. nvidia podporuje opencl uz vcelku dlouho...takze stejne jak budou optimalizovane pro ati, tak budou optimalizovane pro nvidii.
To všechno ano, máte pánove, pravdu, ale JE to konečně krok spravným směrem, s tím snad diskutovat nebudete?
A ATI má čas na polepšení své SW podpory. Ovšem, pokud ji pořádně neprovede, její sebevýkonnější karty prohrají.
No, víš to je právě o té úžasné superskalární 5D architektuře, o které tu lidi co o tom nic nevědí neustále básní. Nvidia má izolované skalární jednotky, kde každá může v jeden okamžik dělat úplně něco jiného, tedy jí udávaný teoretický výkon je ve velké míře dosažitelný, není potřeba nic řešit. Na druhé straně ATI má jednotky sdružené do bloků po pěti a jednotky v bloku nemohou v jeden okamžik vykonávat různé operace. Pokud jdou operace v daném problémů rozdělit taky, aby se daly přiřadit do bloků, pak ano, potom bude výkon ATI karty daleko nad nVidií. Jenže vtip je v tom, že toto nastane jen v superideálním případě, který v praxi nikdy nebude. Tedy teoretický výkon který udává ATI je pro většinu úloh opravdu jen a jen teoretický a praktický je úplně jinde, mnohem níž. A jak už tu napsal někdo nademnou, potvrzuje to spousta existujících praktických prográmků, kde je výkon nVidia karet vyšší, i když jejich TEORETICKÝ výkon je o hodně nižší.
Prostě praktický výkon nVidia karet se tomu teoretickému dost blíží. U ATI ani zdaleka ne a u 95% úloh ani nemůže a nikdy nebude.
I kdyby to byla pravda, tak jak to souvisí s mým příspěvkem? Je jen otázkou času kdy někdo vyvine něco pořádného. Badaboom byla jen ukázka (btw. i tak tisíckrát lepší, než např AVIVO od ATI, produkující obraz naprosto odpadní kvality).
Vytrhnout jednu vetu z kontextu a pak na ni stavet nazor. Krom Badaboom existuje spousta dalsich aplikaci, ktere GPGPU pres CUDA vyuziji, at jiz na video, muziku ci dalsi. Pokud oznacis CUDA za realne nefungujici pak nevim, jak by jsi oznacil STREAM... To ze ty ji nevyuzijes uz neznamena ze nekdo jiny k tomu bude pristupovat stejne. Ve skutecnosti je vyuzitelna vrstva CUDA, tedy aplikace pro domaci pouziti (protoze v profi segmentu CUDA exceluje), jiz dost riroka a narozdil od konkurence poskytuje pripadnym zajemcum o mnoho vice sanci jak GPGPU vyuzit. Ovsem prvni veta tveho prispevku je totalni nonsens - CUDA funguje a to realne.
"A jak už tu napsal někdo nademnou, potvrzuje to spousta existujících praktických prográmků, kde je výkon nVidia karet vyšší, i když jejich TEORETICKÝ výkon je o hodně nižší."
já tvrdím že je to klidně možné ale na encoding videa je pro mne cuda nefunkční shit, to je celé!
nechápu co je na tom divné, až bude software schopný využít této technologie s kvalitou na úrovni software encodingu (x264)poté svůj názor přehodnotím.
Pro tebe, jako konzumenta, jakýkoliv jazyk programování je na nic. Ty nepoužíváš ani produkt, na něm vytvořený, ale spíše produkt(hru) vytvořený na produktu (engine) vytvořenem v jazyce. Neřeknu, že CUDA je nebo není dobrá, nepracoval jsem s ní. Ale posuzovat jazyk podle několika SW produktů, už vůbec podle JEDNOHO produktu od produktu, je měkce řečeno, nelogicky.
NV poskytla OpenCL SDK uz zaciatkom leta ... Preco sa revolucia OpenCL zacina az dnes?
EDIT: aby som bol presny bolo to vydanie pre vyvojarov. Pre beznych ludi sa da OpenCL od NV stiahnut z ich stranok uz par dni a nikde som tu necital ze sa zacina nejaka revolucia. Ale ked to vyda AMD tak to je hned bomba.
Jasne ze je to dobra sprava. Tiez som zvedavy na prve OpenCL aplikacie. Len je clanok pisany(a aj tie minule) v duchu ako keby v tomto vyvoji NV vobec neparticipovalo. Ako by to cele bolo iba zasluhou AMD. Proste to tak na mna posobi.
Bombou je všechno, co se teď děje s podporou vývoje pro grafiky od obou firem. Nvidia v červnu přestala za své vyvojářské prostředky účtovat peníze. ATI začala podporovat několik prostředku a jsou také zdarma. PANOVÉ, chápete, k čemu to může přivést? Násobně se sníží cena vývoje pro grafiky. A tak na trh přijde mnoho nových vyvojářů s novými nápady, které(lidi a nápady) se doposud nemohli prosadit kvůli nedostatku kapitalů a tak příjdou i nové, originální hry, které jsme už léta neviděli.
Máme naději, pánové!
Stará pravda zní, že niceho co v názvu obsahuje "open" nebude víc než uzavrených aplikací. Viz. OpenGL, to už je v dnesní době využívaný snad jen k akademickým učelům, a proc ? Protože ho už v posledních letech pořádně nevyvíjí, ale je v něm stale snadnejší něco udělat než v DX, což u OpenCL snad ani tuhle vyhodu nemá, takže dávám mu maximalne rok prvotní slávy a pak ho prevalcuje Microsoft nebo nVidia.
OpenGL je momentalne uz podporovany minimalne vo verzii 3.1. A vyvija sa stale. Nestoji. Na OpenCL spolupracuje niekolko vyznamnych firiem vratane NV takze by som povedal ze ide o ich vlastnu iniciativu takze nemaju dovod nieco valcovat...
osobně se taky bojím takového vývoje. Stejně jako MS převálcovalo OpenGL jednoduše tím že do vývoje DX napralo neskutečné finance a nějaké združení OpenGL nemělo sebemenší možnost udržet se na stejné technologické výši. Takhle to může dopadnout opět. Osobně si myslím že Microsoft s Intelem již mají něco upečené...
Inak DD by ma zaujimalo ako to vlastne bude fungovat. NV aj AMD vydali OpenCL ovladace a SDK. Ide o jednotny ovladac a je jedno od koho si ho stiahnem alebo bude treba mat obe? Aj ked si myslim ze bude iba jeden, rad by som sa v tom uistil...
Rekl bych, ze velmi pravdepodobne nebudou, alespon ne v nejblizsim case - jak u STREAM/CUDA bylo nutne natahavat balicky s ovladaci (pouze API driver, nikoliv GPU), prekladacem, SDK zvlast - predpokladam podobny pristup. Minimalne do nejakeho masivnejsiho rozsireni pouzivani funkci na techto technologiich zalozenych. Preci jen, je to dalsi davka desitek MB navic, ten kdo to bude potrebovat si to proste stahne.
Ja nevim proc tu vladne takova radost. Pro domaci pouziti bude openCL maximalne tak na Fyziku do her a prevod videa, na nic jineho se paraleni vypocty nehodi (a vetsinou nejen ze se nehodi ale vubec nejdou pouzit).
Vztah ktery pomerove popisuje prinos pridani dalsich paralelnich vypocetnich vlaken do algoritmu (jader CPU, SP GPU..) se jmenuje Amhdalův Zákon. http://en.wikipedia.org/wiki/Amdahl's_law Abych naznacil proc mi tyhle technologie pripadaj zajimavy, ale nepouzitelny se mrknete treba jen na ten obrazek v odkazu vejs. Reálně jsou výsledky kvůli řízení vláken ještě horší.
Pokud se nekomu nechce klikat: Pokud mate algoritmus z 95% paralelizovatelnej maximalni mozny zrychleni na neomezenym poctu vvypocetnich jednotek je 20* a vic uz proste nejde. To dosahnete nekde při 4000 SP (aby nekdo neremcal tak je to hodnota ktera se 20 velmi tesne blizi) jenze zrychleni 19* mate uz při nejakych 400SP. (ano 10* vetsi GPU prinese v tomhle pripade vykon +5.26%)
Pokud by algoritmus byl paralelizovatelnej z 50% (a to bude mnohem castejsi pripad) tak limit poctu vlaken je kolem 20 a zrychleni vypoctu je 2*. To mimochodem znamena, ze kdyz ma 4870 1600SP tak se jich stejne vyuzije 20 a vyuziti cipu klesne na 1/80. To je hlavni vyhoda Fermi, ktere ma mene vykonejsich jader, kde by vyuziti cipu pro 512SP kleslo jenom na 1/25 plochy.
A nejlepsi na tom je to, ze 1SP na dvojnasobny frekvenci by to spocital stejne rychle, to tedy znamena ze teoreticky vykon cipu pro tento vypocet je roven presne souctu vykonu 2SP daneho jadra. (a to je u radeonu 1/800.. 2,73TF/800=3,41GF a to zvladne kazdy blby CPU uz snad 10 let. U Fermi je to 1/250 zatim neznameho vykonu) . A to jsem jeste nezminil tu skutecnost, ze stejne i tech 50% paralelizace je vetsinou nedosazitelnejch.
Ale tvoje predikce, co se týče schopnosti paralelizace současných úloh (pod 50%, ale třeba i 95%) nejsou min. u některých typů úloh správné. Vem si třeba grafické operace (vykreslování scény, nacož je grafická karta primárně určena) má výpočetně téměř 100% schopnost paralelizace. HD5870 je při 2x tolika stream jednotkách než starší generace, skoro 2x tak rychlá (spočítá scénu 2x rychleji, tj. 2x tolik FPS). Samozřejmě mají vliv i ostatní záležitosti jako rychlost pamětí, cache, optimalizace atd.. To samé platí pro řešení rovnic (maticový počet), tady jde paralelizovat výpočet také téměř 100%. Ale z uvedeného vyplývá jediné, smysl počítat přes GPGPU je jen u určitých typů úloh, obecně jde o řešení čistě matematických problémů, což je většina vědeckých úloh.
"obecně jde o řešení čistě matematických problémů, což je většina vědeckých úloh" - tak to určitě ne, s tím to nesouvisí. Je spousta matematických problémů, které dobře paralelizovat nejdou. Ale jinak máš pravdu, grafika, video a některé další úlohy mají tu schopnost paralelizace hodně vysokou, větší než 50%.
Při 95% paralelizaci, by např. u počítání grafických scén nárůst výkonu mezi HD4870 (800 stream jednotek, tj. souběžných vláken programu) a HD5870 (1600 stream jednotek) dělal 1.2%:-). Ten nárůst je ale skoro dvojnásobný, stejně jako počet jednotek, tj. paralelizace úlohy je téměř 100%. Takových úloh je samozřejmě celá řada, lámání hesel, komprese videa, rendrování atd.)
Jj řada velmi specifických úloh, které běžný uživatel nepoužije (možná až na tu kompresi videa, hry). Prostě úlohy na které se to hodí jsou, jinak by to nikdo nědělal Ale revoluce nebude žádná.
Když to vezmeme obecně, tak v drtivý většině běžných aplikací (v práci) není limit nedostatek výpočetního výkonu, ale "lidský faktor", ten brzdí nejvíc.
Ano "některé", ale jsou v jasné menšině proti těm málo (a obtížně) paralelizovatelným. Trochu mě vyprovokoval ten revoluční nadpis, protože podle mě se nic moc pro normálního uživatele nezmění(video + fyziku sem zmiňoval)
Právě o to my šlo, ukázat, že OpenCL neni žádná spása a architektura grafickejch karet prostě není vhodná na všechno. Protože mi pripadá jakoby tu panovaly názory stylu hurá mame OpenCL všechno bude rychlejší, od teď každá druhá aplikace bude využívat OpenCL. Prostě takhle masivní paralelizace není žádná spása a hodí se jenom na specifické úlohy. (Ano jako třeba právě to co grafiky obvykle dělaj)
Moje predikce není predikce a není moje, ale je to uznávaná a funkcní metoda a uvedl jsem 2 konkrétní prípady. Jenom prostě existují úlohy kde se paralelizovatelnost blíží 100%. 50% a 95% jsou jenom krajní hodnoty z grafu na wikipedii. Měla z toho být vidět ztráta efektivity při i relativně hodně (95%) paralelizovatelných úlohách. A naprostá nevhodnost GPU i pro ty zdánlivě dobře (50%) paralelizovatelné.
Jenze vykon GPU nesouvisi pouze s SP, zavisi taky na jejich prirazeni k RBE, TMU - to ti pak dava vykon ve hrach. SP sice dobre, ale pro hry konkretne to neni vsechno - vzdyt jedna z nejvetsich zmen v RV870 je prave zvetseni pomeru RBE, TMU k bloku jednotek a tim navyseni vykonu. Zdvojnasobeni poctu SP svuj efekt taky jiste prineslo, ale rict, ze graficke operace jako vykreslovani sceny ma schopnost 100% pararelizace (silne pochybuji, maximalne bez jakykoliv postefektu, AA atp.) a ze HD5870 je dvakrat vykonejsi diky dvojnasobnemu poctu jednotek je nesmysl - narust vykonu je cca 1.6, tkze SP se na nem spise nepodileji, respektive ne primo. Vice se na nem bude podilet narust poctu bloku a jim prirazeneych TMU, RBE.
Ja kašlem na cele opencl a podobné hlúposti. Video nekonvertujem a ak aj budem chcieť, tak mi moje core i7 bude postačovať. Grafika nech počíta to čo má počítať. A k fyzike len toľko, na mojom druhom compe physx aj tak vypnem bo gtx 260 216 OC nezvláda počítať fyziku aj grafiku súčasne s AA + AF v 1920 x 1200.
Ja kvoli tomuto cakam na GT240 ako PhysX akcelerator. Mala by to byt karta s dostatocnym vykonm, spotrebou aj teplotami. Takze by v PC nemala prekazat ked sa prave nebude pouzivat.
Pouze registrovaní uživatelé mohou přidat komentář!