GF106 bude jádro pro mainstreamové grafické modely GTS 400, které by měly konkurovat HD 5700.
Je to neuvěřitelné, ale NVIDIA ještě nevydala konkurenci pro ATI Radeon HD 5700 modely. Až teprve v druhé polovině září vydá NVIDIA očekávané GTS 400 modely, které konečně do cenových relacích kolem 100-150 dolarů proniknou. Bohužel naplno ukáží to, jak NVIDIA technologicky ve vývoji klasických grafických čipů zaostává za současnou nabídkou ATI.
(NVIDIA GTS 450 - GF106, 128bit, 1GB GDDR5)
Jádro GF106 bude mít 192SP a v případě modelu GTS 450 bude tikat na 783MHz. Karta bude mít 1GB GDDR5 pamětí na frekvenci 3800MHz. GTS 450 by mělo stát zhruba 160 dolarů, tedy v podstatě stejně, jako HD 5770. Jenže je výrobně dražší, a co je nejhorší, i pomalejší.
V 3Dmark Vantage dosahuje GTS 450 výkonu jen kolem P9950 bodů a to na hodně výkonném procesoru. Samotné GPU score ale jen kolem 8200. HD 5770 přitom na slabším CPU dosahuje výkonu P11500 bodů a GPU score je kolem 9750. Celkově tedy HD 5770 vede nad GTX 450 o 12-15%. A to je v této cenové kategorii poměrně velký rozdíl.
(GTS 450 + silnější CPU)
(ATI HD 5770 na slabším CPU)
Navíc GF106 na GTS 400 je i méně efektivní než RV840 na HD 5700. GF106 je o dost větší než RV840, což znamená nižší výtěžnost, vyšší spotřebu a zahřívání a hlavně vyšší výrobní náklady na kartu, která stejně nedosahuje výkonu téměř rok starého modelu konkurence. Grafické karty Radeon HD 5700 se tedy zdají být neporaženy a to do svého uvedení nezměnili ceny. Zdá se být rozhodnuto i v mobilním segmentu, protože jádra RV840 slouží co by základ mobilních ATI Radeon HD 5800 grafikám. A protože Radeon Mobility HD 5870 je jen o 10% slabší než GTS 480M, která je postavena na GF100, jak to asi dopadne s mobilním grafikami NVIDIA založenými na GF106?
(GF106 vs RV840 - není to v poměru, ale samotné jádro ATI je asi o 25% menší)
A aby toho nebylo málo, AMD-ATI se chystá na svět vypustit Radeon HD 6000 grafiky, které ještě vylepší vlastnosti a výkon současných HD 5000 modelů. Architektura NVIDIA FERMI to zatím moc dobře nevede. Slabou útěchou jsou GTX 460 modely, které jsou bohužel zajímavé hlavně proto, že se záměrně posadily do cenové mezery, kde ATI vlastně nic nenabízí. To má ale zjevně svůj racionální důvod. O grafiky středního mainstream za 5000-6000 (200-250 dolarů) je stále menší zájem, protože pro běžné uživatele a běžné hraní her stačí s přehledem levnější grafiky kolem 150-170 dolarů a pro skutečné hráče jsou zase grafiky typu GTX 460 moc slabé a skutečný hráč si koupí silnější grafiku za 300 dolarů +, protože mu nabídne minimálně 2x tolik výkonu co slabé grafiky, který skutečně využije – protože chce hrát bez omezení detailů ve vysokých rozlišeních.
Tomu odpovídají i prodeje grafik – zhruba 90% připadá na grafiky do 199 dolarů, 7% pak na High-end (300 dolarů+) a jen kolem 3% tvoří prodeje grafik kolem 200-250 dolarů. Úspěch GF106 na GTS 400 modelech je tedy pro NVIDIA životně důležitý, na rozdíl od GF104 na GTX 460, které toho v současné situaci na trhu moc nezmůžou. Není proto divu, že AMD-ATI až okázale GTX 460 modely konkurenčně zcela ignoruje, zatímco HD 5700 si hýčká a brzy je nahradí, aby nic neponechalo náhodě. NVIDIA GF106 na GTS 400 ale nevypadá jako něco, z čeho by AMD mělo mít obavu. Naštěstí doufejme, že ATI nevyužije situace a nebude HD 5700 grafiky jen přejmenovávat …
GTS 450 by se v obchodech měla objevit v druhé polovině září a samotné vydání by mělo proběhnout nejdříve 13.9.2010. Na parametrech a výkonu se tedy podle zkušenosti už nic nezmění.
To mas dobre, me 577 VX vysla na 4,5k (unor) a navic s defektnima pametma (Samsung, nastesti to spravilo podtaktovani upravou BIOSu) Ale stejne toho nelituju, s lehkym OC cca 10-15% vykonu navic, a uz se blizime k GTX 460
Ne - jak píšu, to je cena od, konkrétně za Palit. Já jsem si například koupil Gigabyte GTX 460 768, OC verze s vylepšeným dvouvětrákovým chlazením za 4675 Kč.
Hm, čakal som, že sa s GF106 viac pohrajú a aspoň sa vyrovnajú konkurencii, som zvedavý v akej cenovej hladine sa tie grafiky objavia, ak nebudú lacnejšie ako HD57xx tak to môžu s Fermo zabaliť.
Problem nv je vtom, ze nemaju cas sa vyhrat s navrhom cipu! Konkurencia tu uz davno je a oni potrebuju dodat na trh aspon nieco, aby mali nejake prijmy a samozrejme aby si udrzali podiel na trhu, ktory im pomali klesa!
Taky jich hodně znám, navíc i prodejci se budou snažit je vnutit méně znalým, větší cena větší marže. Výrobci hotových PC pro Tesco atd. dostanou zajímavou cenu od nVidii a ti vidláci to koupí na splátky (mámo neslyšela si jak pán říkal, že je to vynikající?).
Nuz, keby vidlaci kupovali aspon tu Nvidiu, tak by to bolo fajn. Lenze vidlakom staci integrovana grafika od Intelu, stiahnuta hra z internetu atd...
...................................................
Dost casto pomaham znamym pri kupe napr. notebooku. Jedine co ich zaujima je kolko ma procesor GHz a aky velky disk tam je(kolko si tam mozu dat filmov a mp3). A drvivej vacsine z nich pojem Nvidia a ATI nehovori absolutne nic.
jj taky taky, CPU + GPU je jako Motor + Převodovka u auta. To pak vypadá jako motr 3.0 litr z BMW + převodovka ze Škody 105! Radši úspornější 1.9 TDi + 6 rychlostní převodovku, než kvílení motoru na max. a tachometr 120km/h.
DD nez zacnes odhadovat vykon cpu podle celkoveho CPU score ve vantage, tak si o tom aspon neco zjisti. z dilcich vysledku je jasne videt ze v prvnim cpu testu (AI) ma gts450 podstatne nizsi skore nez hd5770 (729 vs 3469 plans/s). v druhem cpu testu (physx) ma ale gts450 vyssi skore nez hd5770 (112 vs 31). z tohodle jasne vypliva ze bud mela gts450 k dispozici podstatne slabsi cpu, ale zapnuta akcelerace physx pres grafiku dela vyssi celkove cpu skore...nebo je to nepovedenej fake...
taky bych těmhle rádobytestům nevěnoval velkou pozornost, zvlášť když pro ně jsou jen nějaký alfa ovladače
A označovat architekturu Fermi za technologicky nepovedenou je úplně zcestné, jako porovnávat džípa se sporťákem, prostě je dimenzovaná na výpočetní výkon a na hry až druhořadě a hovořit o ní jako o technologicky nižší a horší než je RV 870tka, vycházející z R600 je úplný nesmysl
Pis si co chces ale sam dobre vies ze nemas pravdu. Daj sem anketu a uvidis co je pre ludi zaujimavejsie. Ak uz by som chcel ist do troch monitorv co nechcem, tak by som si radsej zaobstaral 3D Vision surround. Bez 3D by to fungovalo ako Eyefinity a zo zapnutym 3D....no ved vies. Treba dve grafiky??? To ano, ale tym padom dostanem aj lepsi vykon.
Snazim sa len povedat ze tebou ospevovane Eyfinity nie je na hry to NAJ na trhu. Toz moj nazor na vec
Ja mam grafiky v SLI takze viem o com hovorim a samozrejme ze som skusal viac monitorov. Ako som pisal vyssie nesiel by som do toho. Eyefinity som mal moznost sice len vyskusat a taktiez ma to neoslovilo. Takze DD poznam to. Skor mi to pripada ze ty si nic okrem Eyefinity nevidel
proč ti nevěřim ani slovo ... doslova každý, každý kdo mohl Eyefinity nebo vůbec více monitorů na hry používat, protože Eyefinity je jen označení pro oficiálně MS podproovanou technologii zobrazení více monitorů, kterou si ale HW dříve musel řešit přes různá zařízení (Matrox to umí dávno).
každý kdo tři monitory na hry i na práci mohl třeba týden používat, každý to chce. Nevěřím ti ani slovo, že že tebe to "neoslovilo". neznám nikoho, který by to na pár dní práce a her zkusil a pak to dal pryč, že ho to neoslovilo. Neviděl si to a lžeš! A z lhářema já se nebavím.
a ten svůj FLAME si nech od cesty. Navíc Eyefinity není nic světoborného, zobrazení na více monitorů tu bylo dávno, ATI to jen dala k dispozici všem s jedinou i levnou grafikou. Nemůžu za to že NVIDIA to neumí ... Člověk který měl léta dva monitory si rád pořídí třetí a bude nadšen, ještě víc, když zjistí, že kromě práce to otvírá ve hrách úplně novou dimenz zážitku a nekoukáš na hru na jediném LCD jakoby zkrz průzor ale díky 3 LCD máš pěkně vidění ajk ve skutečnosti. Ale to bys věděl kdybysi to vážně viděl a hlavně pár dní zkoušel ...
Takovahle reakce mi prijde jednak dost prehnana a taky ponekud uboha. Spousta lidi mnohem vic vyuzije PhysX + 3D, at uz z duvodu prostorovych (precejenom 3x 24" monitor nejake misto zabere) tak treba proto ze hrajou hry kde vnimani prostoru a realisticka fyzika maji mnohem lepsi efekt nez nejake monitory po stranach (typicky FPS a jine akcni hry)
Tohle je subjektivni zalezitost a kazdy na to ma svuj nazor. Takze laskave prestan svoje nazory prohlasovat za ultimatni pravdu
Můžeš to nějak kvantifikovat (počty her, ve kterých PhysX přináší nějaký zásadní přínos, počty lidí, kteří nakupují hry výhradně s PhysX)? Nebo jsi o tom jen přesvědčen?
A BTW, jak mohou využívat 3D obrýlení lidé, když k jeho použití jsou třeba speciální brýle? Už sis zkoušel nasadit najednou dvoje brýle?
Predstav si, ja nosim okuliare a v kine mam vzdy nasadene obidva. Nic prijemne, ale da sa to. Vydrzal som aj Avatara ktory nepatri medzi najkratsie filmy. Navyse obcas nosim aj cocky cize mi tento problem celkom odpada.
Citace:
Můžeš to nějak kvantifikovat (počty her, ve kterých PhysX přináší nějaký zásadní přínos, počty lidí, kteří nakupují hry výhradně s PhysX)?
Hra kde physx prinasa skutocne zasadny prinos je Mafia 2. Velky rozdiel pri CPU a GPU full physx. BTW Minexew hovori o tom ze viac ludi vyuzije physx ako Eyefinity co je aj pravda. Kolko ludi ma 3 monitory a kolko ludi ma nVidiu s physx? Myslim ze to bude obrovsky rozdiel v prospech zelenych.
Jo a Odkaz physx hry este len zacnu pribudat, takze o kvantifikacii sa mozme pozhovarat tak o rok. Za ten cas si uzi ATI GK.
Asi tak. PhysX presiel vyraznym vyvojom ale co mozme hovorit? Dal som sem vela odkazov, ktore o tom hovoria, ale proste par ludi tu siri hluposti typu ze vyvoj PhysX-u stoji a ostatni tomu veria bez toho aby si to aspon overili. Presvedceneho nepresvedcis ani argumentami. :-)
Promiň, ale právě Mafia dokazuje, že buď je PhysX nesmysl, nebo jej alepoň programátoři neumějí používat. Pod reálnou fyzikou si opravdu nepředtavuji, že střílím hodinu do dřeva, odlétají kila třísek a dřevo je pořád kompaktní. Pod reálnou fizykou si předtavuji, že fyzikální engine bude mít v sobě datábazi např. materiálů a pokud programátor uurčí, že je neěco ze železa, ze dřebva a pod, tak ten engine podle toho upraví průstřelnost, deformovatelnost, balistiku, když to někdo odhodí, apod. To co zatím ve hrách PsynX předvádí je ubohost...
Presne to co opisujes je uloha vyvojarov hry. Urcit v pouzitom fyzikalnom engine ako sa maju dane objekty spravat. Preto sa niekde drevene bedne rozstrielaju na cucky a inde zasa nie(iba z nich odlietava tona materialu). Nie je to o tom, ze by PhysX tu bednu rozbit nevedel. Pleties si funkcnost fyzikalneho enginu s jeho samotnym pouzitim. A dalsia vec je ta, ze na realnu fyziku nebudeme mat HW este vele vela rokov. Takej sa tak rychlo nedockame.
a o tom to přesně je. Když srovnám MafiiII a prastarý HL2, tak co se fyziky týká, zvítězí HL2. Protože tam ta fyzika má smysl, je integrální a zábavnou součástí hry. Totéž třeba BFBC2, i když je to taková "fyzika-nefyzika" a baráky se hroutí dle předpočítaného modelu a ragdolly čas od času lítají fakt srandovně.
V MafiiII je to jen zparchantělé eye-candy, které nemá na hru naprosto ždný vliv, jen to trochu líp vypadá. A můžeš to oslavovat jak chceš, jen proto že to je od nvidie, to je hodně málo na to, aby to mělo úspěch.
Takže jak jsem už psal, i když má PissX "potenciál", to, že funguje jen na určitém malém počtu typů HW jej jasně diskvalifikuje kvůli nepoužitelnosti v reálném nasazení. Výsledkem je to, že vývojáři "použijí" PissX jen marginálně (nebo vůbec a ty kraviny tam dohackuje někdo z nvidie). Z toho plyne jasný závěr o zbytečnosti takovýchto proprietárních technologií.
PhysX je pouzitelny okrem GPU aj na CPU a na konzolach(PS, XBox) takze o jeho vyuzitelnost sa nebojim. Beriem ze ide o urcity handicap ze to nejde aj na ATI kartach, ale pokial bude vyssi vykon na CPU tak nebude problem integrovat PhysX aj tak aby ovplyvnoval gameplay. Eey-candy efekty su fajn a beriem ich ako prvy krok kym sa situacia okolo PhysX utrasie(dokoncia sa optimalizacie na CPU a APEX-u). Pre mna ako majitela GPU od NVIDIe kludne moze zostat prinos to, ze si vsetky tie efekty budem moct nechat pocitat cez GPU a nebudem potrebovat n-jadrovy CPU, ktory sa tym padom moze odlahcit aj na nieco ine.
HL2 bola samozrejme vynikajuca hra s dobrou fyzikou. Stale si ju sem tam pustim aj ja. Mafia II ma zasa nieco ine. Ok neovplyvnuje to gameplay ale zasa rozbijatelne prostredie s dobrymi efektami prida hre na atmosfere. Samozrejme clovek sa musi odprostit a neriesit to co sa o to stara(mam taky pocit, ze niektorym vadi NVIDIA PhysX tak, ze by mohol ukazat co by chcel vzdy by nasli vela inych veci, ktorym by to skopali pod holu zem - schvalne som napisal NVIDIA PhysX pretoze keby to bolo na ATI, tak by sme sa mozno hadali na opacnych stranach aj ked ja by som rozmyslal nad kupou ATI karty kvoli PhysX-u).
PS: Neoslavujem PhysX kvoli tomu, ze je od NV ale kvoli tomu ze sa mi ako fyzikalny engine paci. A NVIDIU mam rad preto lebo dokaze takymto veciam na rozdiel od ATI dat priechod a potlacit ich. Venovat sa okrem HW aj SW nie je na skodu a je to cesta, ktora sa mi proste paci viac.
Tohle je debata o ničem. Sám musíš uznat že porovnávat tegnologickou náročnost a využitelnost PhysX (nejen ve hrách) je nesmysl. Jak už někdo podotkl výstup na více monitorů měl první Matrox a takový humbuk s tim nedělal. U AMD hodili jen pěkný název s pěkným obrázkem a šup, je tu nová a převratná technologie. Je to sice hezké i praktické a s PhysX nesrovnatelné, je to jen obyčejný výstup na víc monitorů
Problém je, že Matroxí karty nebyli určeny pro hry a pro "obyčejné" uživatele. Zkusili to s Parhelií, ale to se nepovedlo a pak se na to vykašlali. A vždy byli velmi drahé, 3 a 4 hlavé karty s velmi nízkým výkonem za šílené ceny. Teď to samé dostaneš jako bonus prakticky zadarmo! A na kartách které lze použít i na hry! a V hrách využít! Proto se to bude váíce a více rozšiřovat. A nachází to uplatnění i u neherních aplikací, např. u profesionálních notebooků. Díky ATI je možno u některých notebooků použít 4 externí a 1 interní LCD naráz. Atd ...
Zajimave, je nas tu v kancelarich 42, a nikdo z nas nema vice nez 2 monitory. Naopak nekteri dokonce ze 2 monitoru prechazi zpet na 1 monitor. Jen pro poradek tu mame zastoupeny jak oba tabory hernich VGA, tak oba tabory profi VGA, tedy ATi a nVidia, vcetne novich generaci ktere jsou komercne dostupne. Zamereni zdejsi prace je vizualizace prumyslovych a infrastrukturalnich staveb.
IMHO zbytečná debata, která se nedá vyjádřit nějak číselně. DD to moc hrotí, ostatní se nedají a přidávají se.
Prostě někomu to může vyhovovat, někomu ne. Podle mě je jen jasné, že komu vadí okraje, tak to nikdy nezkoušel. Pak už je to různé...dva monitory používá mnoho lidí v práci. Já to hodlám zavést takhle doma, tak uvidím, tak mi to bude vyhovovat. Zda na tom půjdou hry. Tři monitory jsou zatím utopie pro dost lidí, ani já bych do toho tech 10 tisic (coz je dle me min, aby vsechny byli stejne a low-end 23") nedal.
Bohužel DD, proč si myslíš, že tři monitory jsou pro každého super? mně se to taky nelíbí, radši bych si koupil 30" než tři monitoriy. Na prácí ano, to souhlasím, ale na hry se mi to prostě nelíbí. nechápu, že ty nechápeš, že prostě existuje někdo, komu se to nelíbí. Už jsi jak Pohlreich....
jestli je tohle tvuj nazor na rozvoj technologii, tak to snad radeji zabal. Tve "zajimave" nazory v tvych prispevcich uz jsem si zvykl docela slusne ignorovat, ale tohle je trochu moc. Tim chces rici, ze co vyvijeji a maji napr. profici u Matrox uz LETA, je ted u AMD neco prevratneho? Nepis hovadiny, protoze pokud se srovnava "priblbly" vystup na vice monitoru a PhysX, technologicky prinos ma jen ta fyzika.
jo, DD zase zaperlil, sice se snaží psát nestranně ale v poslední době to zase dost ustřeluje k AMD
přesně kvůli těmhle výlevům je pověst serveru jaká je, stačilo by trochu méně osobních emocí a více nadhledu
Lépe by těmto článkům slušel tón nezaujatého komentátora než fandy jedné stáje
....naprosto souhlasím Jinak k článku... doufám že se Nvidii ta mainstreamová řada aspoň trochu povede ať už je tu nějaká konkurence... nejsem fanoušek Nvidie ani ATI prostě bych si koupil v tu chvíli kartu pro mě výhodnější a neřešil bych od koho to je. To platí i o procesorech... holt alě nektěří jsou vážně jak fanatici a stojí si za "svou stájí" stůj co stůj A pak podle toho styl psaní takových článků odpovídá
Eye .. není nic převratného, převratného je to, že to AMD nasadilo a nenechalo to pro oblast jen profi karet. PsynX může být něco převratného, ale momentální apliklace nemají s fyzikou nic společného!
Nechápu, myslel jsem tím, že 3 LCD nejsou nic přeratného samo o sobě - jak jinde píšeš, uměl to již Matrox, ale převratnost vidím v tom, že to dal hráčům prakticky zadarmo a nenechal si to pro oblast profi karet. Jinak na 2 monitorovéím systému jsem hrál, ale sdamozřejmě jsem hru měl jen na jednom a na druhém něco jiného :-)
Nikoli. Matrox uměl pouze 2 monitory. 3 až od Parhelie, což je karta relativně nová a hlavně ukrutně předražená a s téměř nulovým 3D výkonem.
A hraní na 2 monitorech bylo samozřejmě myšleno jako "mutliploché" - a tam narazíš na to, že zrovna v nejdůležitější části obrazu máš jaksi předěl tvořený z rámečků monitoru.. Proto je 3-monitorové zobrazení první, které je reálně použitelné pro hraní (pokud se zrovna nejedná o nějakou okenní resp. strategicko-simulační hru - např. FS od MS myslím uměl na zobrazovat výhled a budíky na jiných výstupech).
No Parheliu jsem myslel a hrát se na to falo - Quake 3. A myslím, že 8 let od uvedení první 3hlavé karty jednoho výrobce k uvedení 3hlavé karty druhého výrobce je docela dost dlouhá doba...
Od dob uvedeni vystupu na vice zobrazovadel technika hodne pokrocila, vsechno se zmensilo a zjednodusilo, tudiz moznost zobrazit obsah na vice monitorech byl jen a jen marketingovy tah. Ci dobre nebo spatne, to je mi vcelku putna (hry nehraji a na praci mi staci 2 LCD, coz jiz zvladne snad kazda grafika), ale pro me, jako amaterskeho fandu technologickeho pokroku, je tenhle krok z pohledu rozvoje tg temer zcela bezvyznamny.
OMG. Matrox se ale specializuje na 2D zobrazení (přičemž ATI hydravision taky není něco, co by právě releasli - hydra funguje už min. 10 let) - jeho přínos byl v multimonitorovém zobrazení a jeho kvalitě. A v obém je dnes ATI hodně blízko Matroxu. Navíc ale umí v takovém režimu i 3D (což určitě není totéž a stejná technologie jako 2D u MTX) a což MTX (výkonově) nezvládne ani na jednom monitoru.
MTX znám a používám, a to od MTX Millenium, až ke G550 ("trojhlavý" MTX jsem nikdy nepotřeboval, s ohledem na výkon/cena to bylo řešení pro úzkou skupinu uživatelů)
Ale to,že pro tebe má větší hodnotu zapojení 3 monitorů neznamená,že to tak je i pro zbitek světa.
Nejlíp uděláš,když si sem dáš anketu,co lidi využívají více,jetsli Physx nebo Eyefinity.Tak se dozvíme co je využitelnější a nemusíme se tady o tom hádat.
Lenze to by nemalo vyznam. Vacsina ludi co tu je sice nema doma 3 monitory ale aj tak by zaskrtala ze vyuzivaju Eyefinity. Totiz na PhysX je tu dost vyhraneny vseobecny nazor.
a ve které hře se ten PissX projevuje tak, že to je něco, nad čím budu slintat a chtít to? Nevybavuje se mi ani jedna, všechno jsou to jen takové nanicovaté eye-candies aby řeč nestála.
To mně připadne Eyefinity z hlediska hraní o dost použitelnější, protože od hry nevyžaduje téměř nic - v zásadě jen podporu custom rozlišení, což dnes podporuje velké procento novějších her.
Jak s DD v poslední době nesouhlasím a jak se mi zdá, že to tak trochu fláká a recykluje témata, tak v tomto ohledu má IMHO na 100% pravdu. Navíc toto je hodnocení čistě subjektivní, i když mnou uvedené argumenty jsou téměř výhradně technického, a tudíž měřitelného rázu (jediná výjimka je subjektivní názor na smysl aktuálních PissX efektů).
P.S.: dle mého názoru je PhysX čistý hype. Proprietární technologie korektně implementovaná jen pro jednu značku HW (SW PhysX je výsměch) - to není standard, to je jen opakování historie rozhraní Glide (3dfx), které bylo pro svou nekompatibilitu převálcováno normami DX a OGL, ač v prvopočátku poskytovalo funkce, které nikdo jiný neměl.
jsou (maji byt) jen jednou skupinou vyuzivajici PhysX, moznosti te technologie jdou ale mnohem dal, treba pouziti v navrharstvi, ve vedeckych simulacich apod. To, ze zde jen zminujes hry, muze vypovidat o tvem zuzenem pohledu na vec a ignorovani ostatnich moznosti.
CAD systémy používají poněkud sofistikovanější a hlavně spolehlivější SW a HW. Proč myslíš, že stojí tolik peněz? Protože výrobce musí zaručit, že ty výpočty jsou správné a že tedy nedojde vinou SW nebo HW k tomu, že díky špatně spočítanému prvku např. nespadne most při zemětřesení, záplavách apod. Kdyby totiž ano, tak je z toho průšvih jak vrata, projekční firma i výrobce SW a HW by mohli být žalováni o náhradu škod a odškodnění pozůstalým - a proto si nikdo jen tak "nespočítá most" s PissX (které je čistě HERNÍM systémem, bez aspirace na jakékoli profesionální využití). Totéž platí pro simulace apod. Netvrdím, že se na to dnes nepoužívá grafických karet, ale rozhodně nikoli PhysX.
Takže jako sen, kdy tvá herní nvidie s PhysX pomáhá lidstvu řešit problémy, to je super, ale realita je poněkud jinde.
povinnosti kazdeho statika je provest rucni zjednoduseny kontrolni vypocet, vypocet z vypocetniho programu neni smerodatny. Pokud ti ten most spadne, potom ti vubec nepomuze ohanet se argumentaci o "chybe" v programu ci HW. Ne, na statiku ci dynamiku se asi tezko bude pouzivat PhysX, ale na zobrazeni "kolize" mostniho pilire a vodni masy pri, napr. 500-lete vode uz by to, dle meho, melo jit, proc ne? Stejne tak v navrharskem prumyslu - usetri to spoustu casu a penez.
možná v budoucnosti, ale v návrhářství potřebuješ REÁLNOU SIMULACI fyziky, ne něco, co se snaží dělat něco JAKO, aby to vypadalo - momentální PhysicX nemá se SIMULACÍ fyziky nic společného, jen NAPODOBUJE VIZUÁLNÍ stránku fyzikálních projevů ...
DD ty si konkretne nikde o FERMI nepovedal ze je nepovedena. Ty len vsade pises ze nVidia technologicky zaostava za ATI co je vlastne to iste. A to vobec nie je pravda. Bud prosim ta chlap a uznaj si to.
No to není to samé! Přesně tohle zjednodušování a zevšeobecňování stojí za tím, proč někteří tak lžete a pomlouváte. Nebuď hloupý a přemýšlej a hlavně čti pořádně všechno co píšu, když mi chceš něco vyčítat a nevytrhávej části vět z kontextu!
často píšu hodně konkrétně všem NVIDIA technologicky zaostává a máš to i v tomto článku! je to v efektivitě čipů. na stejný výkon NVIDIA potřebuje více tranzisotrů a čip je větší a nemůžeš to na nic svádět, protože ATI i NV čipy se dělají ve stejné tovráně na stejných linkách ;)
Buďte od té dobroty a čtěte to pořádně! Vždy mluvím konkrétně a nezevšeobecňuji, jak je vidět, i když si někteří stěžují že se opakuji, stále je to málo, protože kdyby ne, tak byste netvrdili, že jsem něco takového napsala a myslel to tak.
Já jsme chlap a za svým si stojím zvlášť když to tam tak podrobně popíšu a napíši co tím myslím. Co jste ale vy, když vytrháváte věci z kontextu, souvisloti vás nezajímají a pak mi tady tvrdíte, že jsme to napsal, když je to v článku jasně jinak????
tak kdyz si chlap tak aspon edituj v clanku ty tve chyby mimo tech veci okolo pouziteho cpu pri testovani v 3Dmarku, ktery musela mit gts450 opravdu o hodne slabsi, tak take tvuj popisek u udajneho nacrtu pcb gts450. vzhledem k tomu ze vidim na kazde strane jen 6 mist pro pametove cipy, tak je nemozne aby ta karta mela 1GB gddr5 pameti...muze mit jen nasobky 192 (nejspise tedy 768MB, pripadne 384/1536MB), stejne jako bude mit ocividne i 192bit pametovou sbernici. pokud tedy ty obrazky nejsou fake
Zaostalosť != Neúspešnosť
Nemýliť si dojmi s pojmami. AMD tiež zaostáva za Intelom, no pritom technologicky je na tom dobre, veď čo dokázalo vyžmýkať z 45nm výrobného procesu.
Zaostalost a Neuspesnost nastesti pro nVidii Fermi-GF100 nepotkalo v segmentu kam GF100 spada predevsim, jedinou oblasti kde tato Fermi neuspela je oblast pocitacovich her. V oblasti profi a visual-computingu je to velice zadany produkt. Tesla ma prodeje zrejme velice dobre a cekaci lhuty pro maloodberatele jsou dlouhe. Na Quadro rady 5000 ceka take spousta lidi, a prozatimni testy tuto generaci stavi v jistych typech softwaru hodne do popredi.
Bohuzel V8800 (RV870) me oproti predchozi V8750 (RV770) omnoho navic neprinesla v zadne mnou pouzivane CAD a 3D aplikaci a pouzitych nastavbach, tudiz je prome soucasna generace FirePro docela zklamanim. Naopak v druhem PC kde Quadro 3800 bylo nahrazeno GTX470 se zlepseni dostavilo diky lepsimu RT za pomoci GPU.
Já mám 5770 ve svém druhém kompu a fakt je dobrá, sice nemůže konkurovat 5850 kterou mám hlavním ale už se těším až je spáruji a to bude hned jak mi pošlou desku z reklamace,kurňa!
Chcel som iba vediet akym sposobom mikronovi pomoze HD5770 k vykonu v PC kde ma HD5850. A co vlastne znamena v tomto pripade sparovat. Nic viac nic menej. Holloway ma dnes asi zlu naladu.
Na tý slabší rozjede podporu PhysX. Jelikož PhysX nemá přeci žádný přínos, tak si jenom představí, že akceleruje PhysX a je to .. spokojenost se dvěma ATI kartami se hned dostaví.
Popřípadě může třeba připojit další 3 monitory. 6 monitorů má doma dneska skoro každý. Kupříkladu já jich mám 10 v kanceláři a 5 v obýváku.
Já špatnou náladu? Vy si tu vymýšlíte kraviny, lžete, že to spojit nejde a já mám špatnou náladu? To je jasný příklad toho, co tu štve DDho. Si něco vymyslíte (v tomto případě, že nejde CrossFire těch dvou karet) a začnete si z dotyčného dělat srandu?! Je to normální si bez ověření psát takovýhle kraviny? podle mě není, podle mě dost dmnc a důkaz toho, že DD má pravdu, když tu píše, co tu píše o vašem diskutování.
Neviem ci je mozne spojit do Crossfire karty z roznej modelovej serii u ATI. Pokial viem SLI nieco take nedovoluje. Preto som sa na to pytal. Nikde som nepisal ze to mozne nie je. Iba ma to prekvapilo a rad by som vedel ako to je. Netreba byt hned nervozny. Napis mi prosim ta z tohto vlakna pod Mikronovym prispevkom co tak tak podrazdilo. To ta veta o zlej nalade?
psal jsem pod tebe jako reakci na to předtím - naštvalo mě hlavne
Citace:
MIKRON to dokaze ako prvy
Tos nepsal ty ;)
A ano, také věta o zlé náladě, neb jí nemám, ale pokud někdo někoho uraží a přitom je trotl sám, tak mě to točí a proto mám pak špatnou náladu (ač je to jen v rámci diskuze, normálně je mi to jedno ¨)
Jo a ještě k tomu CF - jít by to mělo, oficiální podpora je mezi třeba HD58xx s HD5970 nebo jinou HD58xx, pak zase HD57xx s HD57xx, ale prý to jde i HD57xx a HD58xx. Takže to zkusí a snad napíše, třeba do blogu.
JJ to by mohol. Poznamka o nalade bola myslena zo srandy kvoli tomu ako si reagoval na mna pod mikronomvym prvym prispevkom. Nemalo to byt nic urazlive. Sorry.
Jde to spojit, aler jestli se nemýlím, tak ta 5850 se degraduje na výkon 5770. Sice to bude určitě rychlejší, jak 1x 5850, ale nemyslím si, že se to vyplatí.
To se nedá číst ty vaše diskuze. Jeden chce obhajovat svojí pravdu, která má v základu jistý potenciál, ale dělá to moc horlivě (a zbytečně). Ostatní se snaží to vyvrátit všemi možnými způsoby a dost často tím, že si hodně viditelně vymýšlí. Tak nevím, co je lepší. Snad raději nediskutovat, aby jedni nemuseli lhát a druzí, aby se nemuseli rozčilovat No jejda.
Jinak k článku: test 3DMarku mi teda nic neříká, pustil jsem to snad dvakrát do testů, kde to být muselo, ale že bych věděl, co to měří, to se říct nedá. Takže až bude karta a testy ve hrách, tak se uvidí. Teď je to takové věštění z 3DMarkKoule
jenze DD na 3Dmarku stavi celej clanek a ani se nesnazi poradne zanalyzovat informace, ale jen letmo si to prohlidne a odnekud vezme nejakej 1GB gddr5, coz je vzhledem k tomu obrazku blbost a pouziti rychlejsiho procesoru u gts450, coz je podle dilcich vysledku z toho 3Dmarku taky blbost. o pravosti testu pak nikde nepochybuje a vydava ho opravdu za skutecny...tobe snad prijde takovadle novinka v poradku?
vždyť DD nebere 3Dmark jako test, ale nic jineho ted neni, tak se snazi pracovat aspon s tim. jo kdyz by byly jine testy tak by to asi nepsal ani, tady se snazi neco uvarit, ale nic se z toho i pres tvou pripominku varit neda. vsak i dnes ma karta v jedne hre o 15% vic nez druhe a ve druhe je to naopak (je to extrem ale i takove hry jsou). takze to proste neresit. je to zajimavy info, ale kazdej, kdo tomu jako ty rozumi to vezme ze je to proste preprepretest na programu, kterej nic nerika
ja ale nemam nic proti tomu ze to pouzije. vsak objevil se udajny test gts450, ktera teprv vyjde, tak o tom napise novinku. to je uplne v poradku. ale v poradku uz neni, kdyz si ten screenshot z 3Dmarku a ani ten navrh tistenyho spoje poradne neprohlidne a pak pise kraviny. sak i laik snad vi, ze ze 6/12 mist pro pametovy cipy zadnej 1GB gddr5 nevycarujes, stejne jako nevycarujes 128bit sbernici. jedine, ze by si ty pameti neosadil, ale pak proc by tam ty mista pro ne byly?a v tom screenshotu v 3Dmarku jde zase jasne poznat, ze gts450 byla testovana se zapnutym physx. diky tomu ma vyssi cpu score. ale DD se na dilci testy cpu proste nepodiva, podiva se jen na cpu score a mylne to interpretuje jako ze gts450 mela mnohem silnejsi cpu. a kdyz ho na to upozornim tak to s radosti ignoruje a tyhle dost zasadni chyby v novince necha...
Já to ani nějak nestudoval, jen jsem si to přečetl a ani tu tvou diskuzi neřešil. Nevím, to je zase jeho věc že jo. Pokud máš pravdu a pomoct si nenechá, tak je to jeho problém, ale zase stačí to napsat jednou. Vím, že ti jde o kvalitu, tak na to reaguješ a znovu...třeba si to uvědomí, že udělal chybu a poučí se do příště
Pánové jsem rád že jste tak zaujatí mým pokusem spárovat ty to dvě gráfi.1.pokut se nepletu jdou spárovat gráfi stejné řady např.5 ové u ATI a nemusí být plně identické.Mě nejde tolik o navýšení výkonu,jako to prostě zkusit jelikož jsem to nikdy nedělal a člověk by měl zkoušet nové věci ne.
O tom to není. Vůbec tomu, jak funguje SLI nebo CrossFire viditelně nerozumíš. Mikron to píše správně. Crossfire u HD5xxx by měl normálně fungovat ve všech kombinacich...takže zbytečný pohrdavý příspěvek od tebe, spíš smutný, že si to ani neověříš a zesměšňuješ se. Bohužel, takových příspěvků a přispěvatelů je tu více a proto ty diskuze vypadají, jak vypadají
Dík kolego.Je tady znát proč někdo je hodnocen 100 body a někdo jenom 53mi body.v každém případě jsem rád že rozum se zde ještě nachází i když jeho poměr začíná klesat.
Neboj jenom co mi pošlou desku z reklamace,tak to prubnu a dám ti osobně vědět.Jinak dík za podporu. Ps.Vždyť sám víš že blbost nechodí po horách ale bohužel po lidech.
Niekedy si myslím, že tu asi nikto z vás nemá rodinu. Ja mám 22palcový monitor a myslím, že na hry do bohate stačí. Nevravím, že Eyefinity s tromi alebo šiestimi monitormi je zlá vec, ale mám 31rokov a som otec rodiny, a ak príde niekto ku mne na návštevu a uvidí ma sedieť za tromi, alebo viac monitormi poprípade v 3D okuliaroch za kompom tak si pomyslí, že už mi úplne preskočilo. To je len taký môj názor, že sem tam treba je ísť si zahrať tenis aj na skutočný dvorec.
ani bych neřekl že rámečky, ty zase tak nevadí, ale spíš že serou na nějaký multibalení třeba. prostě dva monitory, nebo tři monitory za lepší cenu a vybavený k tomu, aby se dali secvaknout na stole, aby si to tam nemusel stavet a premerovat, ale jen nejak treba nasunout do sebe. s tim by samozrejme mohli byt i mensi ramecky, ale primarne je dle me lepsi vyresit tu podporu od vyrobcu monitoru pro tech vice kouscích
to není špatný nápad a kdyby byl o to větší zájem tak by se přetrhli aby taková balení uvedli, ale to by musel být masový zájem. Pro pár jedinců se nebudou namáhat
Mno jak muzes vedet ze by nebyl zajem? Kdyz to nikdy nikdo nezkousel prodat. Jenom sehnat nejakej system na uchyceni 3* LCD neni zrovna legrace a stojej vic jak monitor.
Stacilo by ke 3 LCD pridat zdarma nebo za nejakej rozumnej poplatek ten drzak a ono by se urcite lidi nasli. At mi nikdo nerika, ze by se par desitek tisic kusu tohohle baleni nepodarilo prodat. Jenze dokud to nikdo nezkusi tak ani nikdo nezjisti jestli by se to prodavalo.
Pouze registrovaní uživatelé mohou přidat komentář!