Havok a Ubisoft oznámili partnerství ohledně dalšího vývoje her …
Společnost Ubisoft, která je v současnosti pravděpodobně největším herním vydavatelem (blízce soupeří s Activision Blizard a EA), bude pro své nové hry pod svými křídli využívat nadále výhod fyzikálního systému HAVOK, za který stojí dnes společnost Intel. Ubisoft se k tomuto kroku rozhodl, protože HAVOK umožňuje využití multijádrových procesorů (nejen AMD a Intel), ale také grafických karet. HAVOK je v současnosti přítomen na všech herních platformách a HAVOK toho hodlá využít.
Společnost Ubisoft se tak připojuje k významným herním studiím, které spolupráci s HAVOK oznámila již dříve. Mezi tato studia patří Microsoft Games Studios a také Capcom. Na straně konkurenčního PhysX stojí zatím jediné významnější studio a to EA. Pak je zde řada společností, která využívají Bullet Engine a část studií, která mají vlastní systémy (například Crytek). Posílení pozice HAVOK enginu má znamenat další vývoj tohoto fyzikálního systému a to kromě plného využívání multijádrových CPU, což je jeho hlavní výhoda proti PhysX, i na grafických kartách, když OpenCL verzi Havoku akcelerovaného přes grafiku předvedl letos HAVOK s AMD-ATI na grafikách ATI Radeon. Lze to ale považovat za pravděpodobné. HAVOK však chce primárně využívat multijádrových procesorů, což je vzhlede k majetkovým vazbám s Intelem poměrně pochopitelné. Akcelerace fyziky přes OpenCL na grafikách je jen bonusem.
Staci si zahrat Silent Hill 5 -Homecoming,,,tam je fyziky hodne.A na kartach ATi to bezi velmi pekne!A to mam starucky socket 939 s dualCore Opteronem 180.
Pekny den!
celkem špatný příklad Silent Hill.
Je tam nějaká fyzika vůbec ?
Na Ati kartách to běží zcela jistě pěkně, když hru si zahraješ i na integrovce.
Pěkný den
Ano ,na integrovanej by sa to tiez urcite dalo,ale neskusal som to.Ak by teda zvladla 1680x1050 tak urcite ano.Zavisi vsetko od nastavenia parametrov hry.
Ale v tej hre sa pouziva HAVOK co sa tyka fyziky. (havok.com)tu by mali byt vsetky "available games" ktore asi pouzivaju HAVOK fyziku.
zatim
Skoda ze nechcu vyuzivat do vacsej miery aj GPU. Aj ked sa to da chapat kedze Intel GPU nema. Mozno sa to zmeni po prichode Larabee a uvidime ak niekedy bude Havok@GPU aky rozdiel bude oproti PhysX@GPU.
Nechte to konovi, vyvoj si s tim poradi i bez vasich zabomysisch valek co kde jak pocitat, snaha vyvojovych prostredi je aby byli programy maximalne efektivni, tzn. aby bylo plne vyuzito jak multiCPU tak multiarchitekturaGPU, preci nejde jednoznacne rici jen to nebo to...
Copak ty si domu kupujes JEN CPU, nebo jini zase JEN GPU????
Proboha, zjistěte si už konečně něco o tom, kolik toho může z fyziky spočítat procesor a kolik GPU.
Fyzika počítaná CPU není fyzika ale nascriptované chování objektů.
já nepochybuji o tom, že současné GPU je rychlejší při výpočtu fyziky než CPU, ale na co to GPU trápit ještě výpočty, když ho můžeme zaměstant hezčími grafickými efekty a nudící se jádra v CPU nám na ty dostupné fyzikální efekty stačí s velkým přehledem ?
Akurat ze ako pisal AgipDieselTech su to z vacsej casti efekty naskriptovane. Ak sa chceme posunut dalej tak na to nam CPU nestacia a nebudu stacit urcite ani tie co pridu traz po nich. Pozri si odkaz co mam v prispevku nizsie kde sa pise o pocitani Raytracingu. Do akej miery dokazala byt GTX 285 s CUDOu rychlejsia oproti Core i7 2.93Ghz. Ten rozdiel je velky.
To můžu napsat například, proč zatěžovat CPU ještě fyzikou když ho můžeme zatížit za účelem lepší hratelnosti, dokonalejší AI, .....
"nudící se jádra v CPU nám na ty dostupné fyzikální efekty stačí s velkým přehledem" stojí opět za to. ANO na nascriptovanou fyziku opravdu stačí nudící se jádro. Dokonce bude stačit i na hru, kde pujde úplně vše roztřískat. Bohužel "pokaždé" stejně. A někteří zde budou u vytržení, jak je to reálné.
Vzhladom na moznosti Larabee by mohol byt Havok viac ako len to. Mohol by dokazat vyuzit aj CPU a aj Larabee.
Apropo to ze NV vyuzila PhysX vo viacerych pripadoch na veci, ktore sa mozno dali spocitat aj cez CPU neznamena, ze CPU je pre fyziku postacujuci. Na GPU to proste nema. Pozri si DD nasledovne:
To je ukazka toho ako dokaze byt GPU byt pri podobnych vypoctoch efektivnejsie ako CPU. Clanok je sice v nasobnosti zrychlenia trosku prehnany ale podava celkom zaujimave info.
Beru to jako začátek neodvratitelného konce physx. nVidia nemůže porazit Intel i AMD. EA na to taky časem přijdou - co je perspektivní - nemůžou dělat "nVidia only game" jako jediný velký studio.
jde hlavne ale o to kolik her bude jeste vychazet na UE3. prave ten v sobe totiz physx implementuje. a pak taky jestli epic i u pripravovaneho UE4 pocita s physx dale nebo nikoli...
Tak to by som rad vedel ci bude PhysX aj v UE4... Ale vzhladom na to aku reklamu si na tom NV postavila a tiez pomoc s implemntaciou specialnych PhysX map... Myslim si ze sa s nimi dohodne...
Kdyby PhysX koncilo tak taky neuronim ani slzicku, proste zatim nepredvedlo nic co by konkurence(at uz na CPU ci GPU) nezvladla, ale na rozdil od tebe ji nezatracuji a myslim si ze by mela mit jeste prostor a cas na to ukazat co umi....
Toto su iba dohady. Momentalne ma PhysX najvacsi potencial co sa moznosti tyka. Casom sa to moze zmenit ale rad by som tiez videl jeho terajsie maximalne moznosti. Aj ked na to asi nemame HW.
No všichni na to hardware určitě nemáme - hlavně majitelé Atin, kterým to prostě nepude . I ten potenciál je diskutabilní - když jsem viděl co umí Pixelux.
A mozeme to vyuzit pri hrach? Alebo je to stale o tom istom ako aj GPU Havok a Bullet? ... teda zatial pre hracov ponuka velke NIC?
Je to uzasne ako sa zatracuje PhysX, ktory tu je a da sa realne vyuzit (Batman je fakt super). Naproti tomu sa tu ospevuju fyzikalne enginy ktore vobec nie su hotove ... fok
btw, je to taka spolupraca ako s Bullet? - slova hlavneho vyvojara “Bullet’s GPU acceleration via OpenCL will work with any compliant drivers, we use NVIDIA GeForce cards for our development and even use code from their OpenCL SDK, they are a great technology partner.”
Škoda, že na fyziku taky není jednotný standart. Mohl by vzniknout benchmark aby uz konečně byly nějaké výsledky. Nebo by alespoň mohl vzniknout benchmark, který by uměl sérii stejných testů pro různé enginy. Je otázka, jestli by to vůbec bylo reálné dostat se na 3 různých enginech na stejné výsledky.
Pak by mě ještě zajímalo, jak je to ve skutečnosti s tím Havokem přes GPU. Podle mě jen zbožné přání. Nebo je nějaký posun od času nicneříkajících dem od ATI?
Myslis benchmark ve stylu 3D marku kdy Nvidia uplatila Futuremark aby se do vysledku zapocitavala pritomnost PhysX?Takove benchmarky si poustej doma.Dobreze je Futuremark dnes tam kde je.Kdyz uz uvidis test tak jen v starych neplacenych verzich.na fyziku benchmark udelat ani nejde.muze byt vice ci mene realisticka a vice ci mene narocna.Chci videt jak nekdo zmeri ze pri rozbiti okna ze mel jeden z tisicu strepu spadnout o 2 cm vic vlevo .a nejde tu jen o hry.pokud v realu hodis stejnou cihlou do okna stejnou silou a do uplne stejneho mista vysledek bude pokazde jiny .jakpak to asi budes merit? A co se tyka zboznych prani?Ocividne nevidis ze tva milovana Nvidia prechazi do jinych segmentu trhu nez jsou hraci.Urcite nejsou hloupi a vi proc to delaji.Dulezite jsou penize a ne zbozna prani hracu.
Moznoze sa NV presuva do ineho segmentu ale na hracov zatial nezanevrela. Mozno neskor ale nie teraz. Bude podporovat presne to co aj AMD + par veci navyse. Nevidim na tom nic zle. Apropo myslis si ze AMD ide o to splnit zbozne priania hracov alebo o ich zisky?
Kazdemu jde jen o zisky .Pokud to Futuremark udelal zadarmo tak jsou hodne mimo.Zvyhodnovanim jedne spolecnosti si odrizli pulku trhu.A placenou verzi 3D mark pohrbili uplne.Myslis ze vlastnici ATI karet budou platit za software ktery umyslne podava zkreslene vysledky?nejak sem si nevsiml ze vsechny hry obsahuji PhysX
Nevidim problem v tom ze sa pouzilo PhysX v benchmarku. Skor by ho som videl tam, kde sa vysledky s nim prezentovali bez toho aby boli citatelia informovany. Pretoze PhysX si mozes na GPU vypnut a potom tie vysledky budu zrovnatelne aj s ostatnymi.
Ja som si napriklad rad porovnal vysledky benchmarku s a aj bez PhysX. Rozdiel bol 2000 bodov.
Jenze ne vsichni jsou fandove do IT.Pokud se v nastaveni benchmarku meni cokoli jineho nez rozliseni dostanes v 3DMarku umyslne zkresleny vysledek.Vubec nevidim duvod neco v nastaveni menit.3D mark je dnes dalsi z veci Nvidia only.At si ho strci za klobouk .Uz je to naprosto neduveryhodny benchmark.Tohle si dovolit nekdo v segmentu CPU kde by nejaky benchmark umyslne zvyhodnoval jednu firmu tak je davno v softwarovem pekle