NVIDIA pokračuje ve vydávání nové generace grafických karet AMPERE RX 3000, která ovšem zatím dokázala všechny jen pořádně naštvat. A vůbec přitom nejde o to, jaké jsou nebo nejsou samotné karty, co by produkty. Jde o to, že nemůžete tvrdit, že jste vydali na trh kartu, přitom si jí nikdo nemůže normálně koupit. Dodávky jsou tak nízké, že se ještě nedostalo ani na všechny, kteří si kartu objednali před více než měsícem (RTX 3080/3090), nové objednávky se tak prakticky nepřijímají a fronta je velmi velmi dlouhá. Ani po několika týdnech nemůžete přijít do obchodu a RTX 3000 si tam koupit a odnést ...
Nyní navíc NVIDIA přichází a papírově dostupnějším modelem, o který bude logicky ještě mnohem větší zájem a který vypadá papírově i v praxi opravdu dobře. Jenže ani tuhle karty si téměř jistě běžně nebudete moci koupit, protože všechny velmi omezené dodávky zmizí během prvních pár minut. A ani další nebudou tak velké, aby pokryly poptávku. Takže stejně jako u RTX 3080/3090, kdy obchody ani neuvádí ceny, to samé čeká RTX 3070. V obchodech zalistované jsou, ale bez cen a těch prvních pár tisíc dodaných karet, které mají 29.10.2020 do obchodů dorazit, bude ihned rozebráno a další dodávky jsou otázkou.
RTX 3070 přitom vypadá skutečně velice dobře. Tedy teď v tuto chvíli, když nemá zatím přímé generační konkurenční srovnání a srovnáváme ji hlavně se silně předraženou RTX 2080 Ti …
NVIDIA RTX 3070 FE v testech
Tahle FE grafika není referenčním modelem. Je to luxusní OC edice přímo od NVIDIA. Reference ale samozřejmě existuje, ovšem jen jako technologický základ, který budou využívat výrobci nereferenčních karet a partneři. NVIDIA sama si udělala mnohem luxusnější verzi, kterou ovšem ohlásila za těch stejných oficiálních 499 dolarů, u nás 13 999 korun vč. DPH.
Problém je, že většina RTX 3070 bude nepochybně stát více, protože jen s těmi pomalejšími, ne tak dobře chlazenými základními modely, se výrobci na tuhle cenu (možná) dostanou. Většina těch ostatních, kvalitativně a výkonem srovnatelných s FE verzí bude stát více. Tedy tak 15 až 17 tisíc korun, ale samozřejmě pokud by NV oznámila reálnou cenu 549 až 579 dolarů, nevypadalo by to tak „hezky“, jako když bude tvrdit, že je to karta za 499 dolarů.
I tak to zatím vypadá slušně bez možosti srovnání s konkurencí, uvážíme-li, že karta má výkon podobný RTX 2080 Ti, která byla předražená a stála nejméně dvojnásobnou cenu!
Výkon ve 2K dobrý, ve 4K už je limitace jen 8GB paměti
Dá se říci, že RTX 3070 má výkon skutečně zhruba na úrovni RTX 2080 Ti. Jsou případy, kdy je i o kousek lepší, ale také mnohem více případů, kdy je horší. Je zjevné, že hlavní limitací je jen 8GB paměti a 256-bit sběrnice, kdy RTX 2080 Ti měla 11GB a 352-bit. V obou případě jde o stejné GDDR6 14GHz, takže RTX 3070 má jen 448GB/s propustnost, proti 616GB/s u RTX 2080Ti. To prostě všude, kde je vliv paměti více znát, bude nějaký rozdíl dělat.
Nicméně ve 1080p a 1440p je výkon dnes prakticky identický.
Až u vyššího rozlišení ve 4K je trochu slabší. Ale to se dalo kvůli jen 8GB paměti čekat.
Efektivita je výborná!
Děsivá spotřeba nových RTX 3080/3090 se u RTX 3070 naštěstí neopakuje. Karta je zhruba o nejméně 100W úspornější ve hrách a dosahuje spotřeby jen o něco vyšší než RTX 2070 SUPER a podobné úrovně jako RX 5700 XT (záleží kterou edici testujete). Hlavně je asi o 35W úspornější, než RTX 2080 Ti. Oficiálně má RTX 3070 spotřebu 220W proti 250W u RTX 2080Ti. Tohle je tedy hlavní praktický přínos přechodu z 12nm TSMC na 8nm SAMSUNG. Menší jádro, stejný herní i RT výkon a o 14% úspornější pokud jde o spotřebu. Pravda, RTX 2080 Ti má o 3GB paměti více, takže pokud bychom je započítali, ten rozdíl spotřeby by byl nižší.
Afektivita je ale v tuto chvíli výborná a tuhle kartu s touhle spotřebou a výkonem bychom jistě mnozí doma bez potíží akceptovali, na rozdíl od extrémně žravých až 400W modelů RTX 3080/3090. Radost by měly hlavně napájecí zdroje :).
Závěr aneb RTX 3070 vypadá dobře …. zatím …
Jak víte, tak NVIDIA měla původně RTX 3070 vydat před 14ti dny, ale odložila to až na teď. A to konkrétně 27.10. kdy se mohou zveřejnit recenze jejích vlastních FE edic od vybraných novinářů. Dnes se tedy může ukazovat RTX 3070 ve svém nejlepším světle ve velmi kvalitní edici za oficiální cenu 499 dolarů, za kterou ovšem většina zákazníků podobnou edici nebude moci pořídit. Až 29.10.2020 se mohou zveřejnit recenze nereferenčních edic a karty se začnou oficiálně prodávat. Obojí záměrně v době, kdy AMD představí Radeon RX 6000 sérii a velmi pravděpodobně ukáže přímou konkurenci pro RTX 3070/3080/3090!
NV tedy má výhodu, že dnes, když ještě nevíme, jaká je přímá konkurence, vypadá RTX 3070 8GB za těch oficiálních 14 tisíc opravdu dobře. Kartě jako takové se vlastně nedá nic moc vytknout, protože lepší tu za tyhle peníze ještě nebyla. A stejný výkon s nižší spotřebou proti dosud více než 2x dražší RTX 2080 Ti? Co na tom nemít rád. Potíž je, že ono to tak určitě nezůstane.
NVIDIA to ukazuje na superkvalitní FE edici, kterou si prakticky nikdo nebude mít možnost koupit. Nereferenční edice se srovnatelnou kvalitou a výkonem ovšem budou dražší. To by ještě nebyl takový problém, jako fakt, že ani ony ani nemají být příliš dostupné. Největší otázkou ovšem je, co na to AMD. Nové Radeon RX 6800/6800XT a 6900XT oficiálně ohlásí 28.10. s dostupností na trhu v polovině listopadu. Zatím se mluví o tom, že všechny tři modely budou mít 16GB GDDR6 paměti a RX 6800 vyrazí přímo proti RTX 3070. Ovšem nabídne lepší výkon a ještě o něco výkonnější RX 6800XT vyrazí proti RTX 3080, zatímco RX 6900 XT bude ještě nad nimi. Dostupnost zejména 6800 série má být také lepší. RTX 3070 8GB tak může vypadat dobře jen na pouhý jeden den, než dostane pravděpodobně 16GB konkurenci, která bude o něco lepší. Ono 499 – 599 dolarů, kde se má karta pohybovat, není malá cena a nacpat se do ní dá hodně, kdy ovšem NVIDIA se nám snaží nabídnout co možná nejméně ... přitpomínám, že RTX 2080 Ti nahrazovala 699 dolarovou GTX 1080Ti/980Ti, takže 2080Ti měla stát normálně 699 dolarů (pokud by na trhu byla konkurence). To už to mezigeneranční zlepšení mezi 499-599 vs 699 dolarovou kartou zase tak úžasně nevypadá ...
Zdroj testu: Techspot.com = Hardware Unboxed YT
Samozřejmě na ničem z toho nezáleží, pokud se potvrdí, že reálná dostupnost RTX 3070 karet ani náhodou nebude pokrývat poptávku, takže si tu kartu vlastně stejně nebudete moci většina koupit, protože prostě v obchodech dostupné nebudou. Jinak ale RTX 3070 vypadá na papíře takhle dobře, i když osobně bych za 15tisíc požadoval v roce 2020/2021 už 12 - 16GB paměti na kartě, nejen těch ušmudlaných a evidentně již poněkud omezujících 8GB. Jaká ale karta je nebo není, zjistíme ale až prostě ve srovnání s přímou generační konkurencí, která se představí 28.10.2020 s testy a prodeji někdy v polovině listopadu ….
Guys, nejaka overena stranka ktora mi zisti kompabilitu komponentov? Myslim, co mi sadne na maticnu,aky typ grafiky, ak su kupim grafiku,ci sa mi nebude byt so silnejsim procesorom a podobne? Kde na taketo info narazite, alebo je to len o tom to studovat a studovat?
Tato grafika je trhac asfaltu.
Výrobci MB vypisují kompatibilitu s CPU a pak mají QVL listy s ověřenou kompatibilitou s některými RAM a většinou i SSD, které otestovali. Ale neznamená to, že když tam nějaký produkt není tak s deskou nebude šlapat.
Co se týče GPU, tam je jen kompatibilita slotu...PCIe v4 je zpětně kompatibilní s PCIe v3 a to zase s PCIe v2.
Asi nikdy se ti nebude mlátit CPU s GPU. Tam jde jen o to, aby sestava byla vyvážená a jedno nebrzdilo druhé a nebo podle osobní preference. A jestli ti to utáhne zdroj.
Je to hlavně o študování, nasávání informací a jejich porozumnění a zkušenostech.
Jaká kompatibilita komponent? To jsem nikdy neřešil, vždycky všechno jelo na všem. Je potřeba hlavně nekupovat obskurní hardware - dřív to byly zhusta základovky s dvěma typy slotů na paměti a nebo s PCIE a AGP na jednom.
Jediný reálný problém byl se základovkou se socketem 1156. Té nešmakovaly novější paměťové DDR3 moduly - brala jen ty starší moduly, se švábama z obou stran PCB.
Tak možná myslí bottleneck, Odkaz tam by pro základní orientaci mohlo něco takového pomoci... Pak na trubce hledat testy s tím co by chtěl koupit.
Jinak jak píšou ostatní každý výrobce MB má support list co v jeho desce bude 100% fungovat-RAM, CPU, disky.
Problémy většinou přijdou jen u starších OS. Já teď válčil s novou deskou, win7-32 a LPT, kdy cena SW a připojených zařízení několikrát přesáhne cenu PC. Takže zatím jedu na omezené free variantě pod Linuxem a zbytek budu muset slepit ze zbytků z šuplíku nebo investovat do nového SW...
Velmi zaujimava karta, vykon ako 2080Ti spotreba 220W pre moj 2K monitor ako šite na mieru, čo zvladne v pohode aj moj 450W zdroj, tak to už ma GTX1060 spočitane ešte počkam čo ponukne AMD do 250W a ide sa nakupovať.
450W bych teda já osobně pro takovou kartu neriskoval. Třeba to zdroj zvládne na hraně, pokud je kvalitní ale ta účinnost, chlazení atd. bude na nic. Já mám třeba RX 5700 XT a 3700X a zdroj mám 650W titanium, ... myslim, že aspoň 650W Gold to chce, aby to byla ideálka.
O tom jestli je to bronze nebo gold vůbec nejde. Na výstupu mají stejné watty. Účinnost je o tom, kolik si vemou ze zdi a jaké jsou na zdroji ztráty ne?
Souhlasím, že 450W je na 200-250W grafiku málo. On to možná utáhne, ale taky to může skončit špatně. Není dobré když zdroj jede na krev a je taky potřeba počítat se špičkami, kdy si CPU i GPU mohou říct o více wattů.
Osobně dávám do sestav zdroje s aspoň 25% rezervou. Pokud se u sestavy plánuje i nějaká "budoucnost" jako je upgrade CPU a GPU, tak klidně i s větší rezervou, ať se pak zdroj nemusí řešit.
Jasný já tohle chápu, ... ale prostě bych do zdroje s účinností menší než gold nešel. Vím, že se zrovna na zdrojích často hodně šetří a spousta uživatelů je neřeší, ale me to nepřijde jako dobrý tah. Uznávám, že třeba titanium zdroje jsou už dost předražený, ale zas 12ti letá záruka je opravdu dost, to není zdroj na pár let a gold v dnešní době jsou za pěkné ceny.
Souhlasím. Já dříve na zdroji šetřil (to je tak 15-17 let) a jednou blesk a hrom a PSU, MB, CPU a RAM v háji. Od té doby se snažím koukat na kvalitu a počítat rezervu
OC to samozrejme neplanujem, teraz to ťaha AMD3700, doska 570 a GTX1060 v klude 45W, plna zaťaž 143W undervolting, a zdroj je celkom drahy 160€ seasonic platinum bez ventilatora. Planujem to vyladiť že to v zaťaži cele cez 250W nepojde. Ešte neviem aka značka GPU to bude, ale jedno viem iste, bude pasivne chladena
Na to čo planujem mal by 450W platinum zvladnuť pri 60% zaťaži.
Od 2008 preferujem pasivne chladenie. Nie vždy to ide, napriklad doska 580 a ten blbi vetrak, ale cez rezistor som mu znižil otačky na 30% viac ako 8dB nema a napajanie čipsetu som znižil s 1.1V na 0.9V tak že čipset je studeny aj pri niššich otačkach.
Možno sa to niekomu zda divne obetovať cca 5% vykonu aby spotreba kesla skoro o 50%, ale je viac takych šialencov ako ja
Zkus to a uvidíš, pokud se Ti začne zničeho nic sám od sebe při hraní restartovat komp, tak budeš muset koupit novej zdroj...
Mě to dělalo při přechodu z GTX970 na RX5700XT. Měl jsem 4 roky starej Chieftec 650W Gold a nedával to a to mám starej 6600K procák, co prd žere. Musel jsem koupit 750W Corsair a od té doby klid...
ja mam 550W foxtron mel sem v pc 5700xt a spotrebu sem pres 420W nedostal i kdybych se stavel na hlavu.
Samozrejme kuli efektivite to neni idealni ale dava to v pohode.
a v reakci na diskusi dole je tech 420w mereno na vstupu a zdroj ma 92% ucinost takze moje setava ma 386W max
verim ze i 550W utahne nakou ne oc verzi 3080
To není o tom, že by to na tom starým zdroji nejelo, ono to jelo, akorát čas od času z ničeho nic restart. Ten Radeon generuje nějaký výkonový špičky, který ten zdroj nedokázsl vykrýt...
to sa mi nezda, kvalitny zdroj 650W staci na 5700xt uplne v pohode s rezervou aj na OC aj na vykonostne spicky, tipoval by som nejaku inu pricinu nestability
Jen nezapomeňte, že ze 450W při 80% efektivitě je najednou 360W.
Radši bych si to ověřil aspoň orientačním výpočtem zde: https://outervision.com/power-supply-calculator Odkaz
EDIT: RTX 3070 má ve špičkách spotřebu 247W, takže to může být s 360W zdrojem docela na hraně.
U napájecích zdrojů je taky vcelku důležitá účinnost zdroje.Ve zkratce jde o to jak účinně dokáže zdroj využít vstupního proudu.Žádný zdroj nemá 100% účinnost.Vždy jsou nějaké ztráty.Typická účinnost je 80%.To znamená že k získání 400W zdroj potřebuje dodat ze sítě 500W.
Kupujeme zdroje o určitém výstupním výkonu, ne vstupním.
Já mám např. EVGA 750W G2 s účinností 80 Plus Gold.
Při 50% zátěži (375W na výstupu) má účinnost 90%, tzn. 10% ztrát ve zdroji. Takže na vstupu (ze sítě) musí odebírat více aby dodal oněch 375W.
Jestli dobře počítám, tak na vstupu je to nějakých 416W.
416 * účinnost 90% (tedy *0,9) = 375W.
EDIT:
Citace z alzy je krkolomná a nepřesná:
Citace:
Zde vstupuje na scénu účinnost zdroje, která by měla být v principu co nejvyšší. I proto se už v roce 2008 zavedlo certifikování energetické účinnosti počítačových zdrojů. Čím lepší kategorie, tím více elektrické energie je k dispozici pro napájení počítače. Zároveň, pokud byste měli dva stejně výkonné zdroje avšak s jinou účinností, tak ten účinnější spotřebuje méně elektrické energie. Účinnější zdroj se bude také daleko méně zahřívat a pravděpodobně bude i tišší.
Zvýrazněná část je úplně špatně.
Čím lepší kategorie certifikace 80 Plus tím je lepší účinnost zdroje a tedy ve zdroji jsou menší zdráty, což vede k menšímu odběru ze sítě. 650W zdroj v Bronze a s Gold budou při stejné zátěži dodávat stejný výkon, ale příkon (odběr ze sítě) bude u každého jiný.
Cemada: Jistě že. To co tvrdí exRathanuviel je kapitání blbost. A velice častý omyl při chápání dané problematiky. způsobený nekvalitnímy zdroji. Kdy nějakej EC 400W má 400W ale reálně dá tak 280w a potom vypne lidi si proto myslely že to je jeho úřinností. ( svým způsobem taky) ale je to především tím že je to smějd.
Kdyby to bylo jak tvrdí exRathanuviel tak teoreticky existují i 120% účinné zdroje protože třeba Platinax 1000w je schopen dodat i 1200W aniž by vypnul dlouhodobě. Takže by jeho účinnost byla 120%
OK, chápal jsem problematiku blbě, ale vy jste evidentně objevil perpetum mobile. Dodat 1000W a získat 200W navíc? Sem s tím a budu nejbohatší člověšk na světě
Ta tučná část není špatně, jen je v kontextu nešťastně zasazena...
Bohužel každý si to vztáhne k tomu číslu na štítku zdroje a né obecně a pak se dozvídáme zajímavé věci...
Bohužel i školství je v pérdeli... Posledně mě "elektrikář" varoval že na výstup zdroje nemám sahat aby mě to nezabilo... Přeci jen na štítku bylo 12V/20A
Dříve jsem taky myslel, že je to obráceně. Až při jedné diskuzi (myslím zde na DDW) mi to bylo vysvětleno. Prostě člověk se učí celý život
A to s elektřinou nejsem kamarád. Vím že pohání kde co, kope a je to největší droga na světě
Kdyby ta tučná věta na Alze nebyla, vůbec nic by se nestalo. Mě tam takhle moc smysl nedává. Možná je to myšleno takhle:
Dáme-li dvou zdrojům o různých účinnostech stejný příkon, ten s lepší účinností bude mít vyšší výkon.
Což je správně, ale pak to mají napsané fakt divně
Zdroj je trafo které převádí 230v 50hz 16A na nižší a stejnosměrné napětí 12v 5v 3.3v záleží vše na součástkách ve zdroji zdroje s pasivním chlazenim mají kvalitní součástky nekvalitní zdroje foukání jak zběsile čím menší účinnost větší odpadní teplo většinou teda a zabíjí Ampery ne volty a vím menší volty musí být větší Ampery
Zdroj jako první to střídavé napětí usměrní. Poté z něj udělá znovu střídavé o řádově vyšší frekvenci, což teprve transformuje(vyšší frekvence umožní použít menší transformátor), pak znovu usměrní a stabilizuje.
Kvalita součástek a návrhu pak i ovlivňuje tu účinnost. Pokud je zdroj pasivní musí se použít mnohem kvalitnější, aby vznikalo méně tepla.
K tomu zabíjení, kde není napětí, není ani proud a tam ani Smrť nebere. Tj potřebuješ určité napětí aby začal při daném odporu protékat určitý proud. U stejnosměrného je bezpečných cca 60V, pokud Člověk nestojí v kaluži, nemá mokré ruce...
No účelem diskuze by mělo být i napravit omyl, což se nám povedlo. Třeba ta Alza se tím doporučením využití zdroje jistí proti omylům a zároveň prodá dražší výrobek...
Standardně je ok, pokud zdroj při plném výkonu jede na těch 80% on i slušný výrobce tam má nějakou rezervu. Viz těch 1000/1200W.
Pokud se člověk chystá taktovat, nebo chce rezervu na upgrade, tak samozřejmě přidat musí.
Mě třeba tu sestavu co mám aktuálně R5 2600+1060, že začátku tahal 300W zdroj bez certifikace a fungovalo to bez problémů. Už to ale bylo opravdu na hraně, tak s výhledem na něco v úrovni 5700/2070 jsem měnil za 500W.
Pokud to není něco z Wishe, tak 450 je pořád 450... Udává se výkon co dokáže zdroj dodat, takže účinnost do toho netahat. Ta jen ovlivní celkový odběr ze sítě a zahřívání zdroje. Účinnost mají dnešní zdroje téměř stejnou v pásmu ~25-100% max výkonu (+-1-2%).
Jinak pokud bude mít 65w CPU a nebude tam kupa disků a dalších karet, tak by to kvalitní 450 měla zvládnout ale nebude rezerva na případný upgrade...
Ach zas mantaci co si neumějí vypočítat spotřebu komponentu ?
Pokud ta karta má 220W + k tomu nějakého Ryzena 65w (88 max)
To máme dohromady 310W
K tomu ostatní komponenty do 50w.
Jsme na 360w. (90w rezerva naprosto dostačující)
Jedu 3700+1080Ti na 500w Kvalitním zdroji. 6x fan a k tomu vodnik na grafice. A max spotreba nejde přes 400W
Nicméně testu kolik sestavy žerou je na YouTube mraky. Pokud mate kvalitní zdroj není na průměrnou sestavu nutný 650w zdroj. :-) průměrnému člověku stačí 500w.
Samozřejmě pro lidi s OC core nad 5Ghz silnější zdroj doporučim :-)))
https://m.youtube.com/watch?v=X_wtoCBahhM
Ps: Seasonic opravdu kvalita není. Je to podprůměr .
Já teda používám seasonicy rád a nikdy žádný problém nebyl. Vždycky čtu i recenze samosřejmě než něco koupim a že by seasonic nebyl kvalitní jsem se teda nikde zatím nedočetl. Taky si myslim, že jsou kvalitní.
Noo, taky mám 65W procík a plné zátěži bere i 120W protože OC. Je to o tom, kdo jak své PC provozuje.
Já třebas k Ryzenu koupil 750W zdroj (původně R7 1700 + RX580), protože jsem počítal s případným OC a v budoucnu i upgradem CPU a GPU a taky nemám zájem o to tahat ze zdroje více jak 75%.
Konečně "normální" karta od Nvidie tzn. nemá absurdní rozměry ani spotřebu ani cenu. Zamrzí málo paměti.
Co mě těší je, že AMD nemůže být za stejnou cenu horší. Samozřejmě preferuji 16BG paměti před 8GB a funkční freesync na certifikovaném freesync panelu, kdy s Nvidii to není jistota.
Rozhodně ale spokojenost už teď - i kdybych měl nakonec skončit na RTX 3070 - budu spokojen. Teď už to může dopadnout jen lépe
edit: tak odkaz k infinity cache dnes nalezena přímo v driveru - 128Mb, jen nevíme jestli je to "up to" nebo tuto velikost shodně ponesou všechny 3 big navi. Tipuji že všechny - čímdálvíc se mě líbí ta nejslabší 6800 - paměťově nemá ořezáno + u nejslabšího modelu se dá očekávat nejlepší poměr cena/výkon.
Už se těšíme na 17 00, na youtube už je stream, lidé tam už diskutují
Verim ze 6800 bude mit +-podobny vykon jak 3070 a za me zalezi jen na tom jestli dokazu urvat nakou 3070 pri zacatku prodeje.
Kdyz ne tak AMD jasna volba protoze si myslim ze bude dostupnejsi pri prodejnim uvedeni.
V rusku jsou k dostani karty of mineru na bazaru. Na kartach jsou nekvalitni termopolstarky na pametech a Tim padem karty nepracuji jak maji.
Typek v odkazu ma rig z rtx 3080. Tyka se to vice znacek a fakt ty karty nepecou. Maji je v chladnem prostredi. Někteří mineri je jich zbavují, dokud jsou na trhu vysoké ceny.
https://youtu.be/3jfFLIdo09
To je blbá zpráva pro natesene zájemce. Nejsou a ještě problematické.
Takze nejlevnejsi karta generace 30xx bude 3060 za $400. Parada. Uvidime s cim se vytahne AMD, ale soucasne ceny me nechavaji chladnym. Oproti generaci 20xx narust $50 za zakladni model. Mezigeneracni narust ceny o 15%. Narust ceny modelu od generaci 4xx az 10xx pak cini 100% (resp 50% oproti 1060 6GB). To vse v dobe kdy jsou pameti cenove temer na historickem minimu.
Pouze registrovaní uživatelé mohou přidat komentář!