Nestabilita a potíže s NVIDIA RTX 3000 grafikami se rychle množí. Už je jasné, co je důvodem.
Někteří si možná vzpomínáte, že jsme před vydáním nových NVIDIA RTX 3000 grafik varovali, že NVIDIA a výrobci neobvykle spěchají s kartami na trh. NVIDIA ladila parametry nových karet až do poslední chvíle. Možná si někteří vzpomenete, že původně jsme začátkem roku „ifnromovali“ že výkon nových karet bude níže. NV ale z nějakého důvodu natlačila výkon výše, i za cenu obrovské spotřeby a nulové rezervy.
Výrobci nereferencí pak měli jen několik málo týdnů před vydáním karet, na návrh, a hlavně testování karet, které však mohli provádět jen omezeně. NVIDIA totiž nedala výrobcům k dispozici finální ovladače! Ten spěch, ve kterém RTX 3080/3090 vznikly a vyrazily na trh, byl jednoznačně varující. A problémy zcela zaslouženě proto přišly.
I když karet bylo zatím vyrobeno velmi málo, diskusní fóra se plní naštvanými a zklamanými uživateli, kteří o počátečním nadšení z karet se potýkají s pády, černými obrazovkami a jinými potížemi. Obecně s nestabilitou mnoha RTX 3080 a téměř jistě se bude týkat i některých 3090 edic. Jde totiž často o fyzicky stejné karty se stejnými PCB, jen odlišnou specifikací GPU a pamětí. A vypadá to, že se našla příčina.
Problém v návrhu PCB
Uživatelé si stěžují na problémy prakticky u všech modelů. Nejméně jsou postiženy NVIDIA FE (jen minimum nahlášených případů) a ASUS TUF série (žádné nahlášené případy). U všech ostatních značek se však potíže objevují, u některých edic v alarmujícím množství. U MSI, u ZOTAC, PALIT, EVGA, COLORFUL a mnoha dalších speciálně. Igor Wallosek (igor’sLAB) a někteří další si dali tu práci a odhalili jednu velmi pravděpodobnou příčinu potíží, což následně zatím neoficiálně/polooficiálně potvrdili někteří výrobci. Na vyjádření NV se stále čeká. O co jde?
A je tu kromě jiného třeba design kondenzátorů, filtrů a věcí kolem, které jsou přímo pod samotným GPU. NVIDIA ve svém designu doporučuje používat OSCAPs (Conductive Polymer Tantalum Solid Capacitors) vyznačené červeně nebo MLCCs (Multilayer Ceramic Chip Capacitor) vyznačené zeleně:
Zleva: NVIDIA PG132 reference, ZOTAC TRINITY, ASUS TUF, Zdroj: Igor’sLAB
Mezi nimi jsou funkční rozdíly, ale zejména kvalitativní a cenové rozdíly. OSCAPs jsou výrazně levnější, nejen jako součástka, ale hlavně při výrobě a kompletaci PCB samotného. MLCCs jsou v mnoha ohledech lepší, ale mnohem dražší a výrazně náročnější při výrobě toho PCB. Rozdíl může být v desítkách dolarů jen na téhle jediné komponentě! A to je ten problém. Sama NVIDIA má u svých FE edic, které nejsou referenční edice(!), osazeny dva MLCCs. Ale na svém referenčním designu (PG132 PCB), který dala výrobcům, co by základní specifikaci, je pouze jeden! Někteří výrobci ale neosadili ani ten, a všech 6 je těch "lacinějšího" typu. Výjimkou je třeba ASUS a jeho TUF edice, která má naopak všechny výhradně toho mnohem dražšího typu.
Co to znamená v praxi?
Tohle už je složitější. Jde o celou soustavu věcí. NVIDIA už nějakou dobu neudává ty skutečné takty, na kterých její grafiky běžně běhají, ale na jakých udává ten výkon karet, jaký předvádí v prezentacích! Konkrétně u RTX 3080 udává NVIDIA jako boost maximum 1710MHz. To je takt, který prostě NVIDIA garantuje jako běžně dosahované maximum u všech modelů a kusů RTX 3080 v běžných podmínkách.
Jenže RTX 3080 běhají rychleji, protože ten výkon, který NVIDIA udává, který slibuje a který inzeruje není vztažen k 1710MHz, ale k více než 1900MHz, na kterém za normálního boostu ty karty běhají. Konkrétně „nereferenční“ NVIDIA RTX 3080 FE edice běhá ve skutečnosti stabilně v průměru na 1935MHz s maximy až 1965MHz. Abyste si to někteří představili, co to znamená v praxi:
NVIDIA říká a ukazuje, že její RTX 3080 FE má výkon třeba 60FPS v dané hře. Jenže těch 60FPS má, jen pokud běží na těch neudávaných 1935MHz. Pokud by běžela jen na tom nejvyšším taktu, který NV sama udává, tedy 1710MHz, měla by RTX 3080 třeba jen 54FPS! A pokud by musela běžet na 1440MHz, tedy základním uváděném taktu karty, mohla by mít klidně jen 46FPS! Takže NV udává takt jen pro těch 54FPS, inzeruje ale výkon karty 60FPS. Cokoliv nad 54FPS jednoduše negarantuje.
Chlubí se 60FPS, vystavuje je, počítá s nimi, ale negarantuje je, protože je to pro ni takto výhodnější ... ví, že někerá GPU jsou fyzicky horší kvality a těch 1935MHz pro 60FPS prostě za toho samého napětí atd. nedají. Dokud ale mají alespoň těch 54FPS, je to v pohodě. Že je to nefér? Že stejná karta v recenzi a stejná karta u vás doma může mít až 10% rozdílný výkon, i když má stejných uváděných 1710MHz? Tak si stěžujte ;) ....
Vše záleží na mnoha okolnostech, a dokonce ani dva kusy stejné edice nejsou stejné. Záleží na fyzické kvalitě samotného čipu (kde u 8nm novinek jsou velké rozdíly), na chlazení, tedy teplotě, kdy nad 83°C dochází k snižování taktů vždy. Záleží tedy i na okolní teplotě a podmínkách, ve kterých kareta běží. Samozřejmě záleží na typu zátěže atd. NVIDIA ale udává a inzeruje ten výkon RTX 3080 FE, který odpovídá těm neudávaným 1935MHz, nikoliv těm 1710MHz, což je nejvyšší takt, který najdete v oficiálních parametrech. Rozdíl výkonu, pokud by karta běžela na těch 1710 je ale klidně 10%! Pro NVIDIA je tohle ale výhodné proto, že na těch 1710MHz běží i ty nejhorší kusy. To že vámi koupený kus může mít až o 10% nižší výkon než jiný kus stejné edice, který jste viděli v recenzi, je váš problém! NVIDIA garantuje jen těch 1710MHz a tomu odpovídající výkon, co je nad tím, je "navíc". A tím je z obliga. To je kouzlo boost technologie.
(referenční NVIDIA RTX 3080 PCB - odlišné od FE edic!)
U RTX 3080 nicméně existuje referenční design PCB a karty, který je ale zjevně fyzicky horší kvality než NVIDIA RTX 3080 FE design! NVIDIA prostě vyrábí vlastní „nereferenční OC“ edice, což je FE karta. Potíž je, že NVIDIA ohlásila jen jednu cenovou hladinu. Ty své luxusní FE edice prodává za 699 dolarů. Jenže téhle ceny nejsou schopni ostatní výrobci se svými kvalitními OC edicemi, prostě dosáhnout! Aby jí dosáhli, musí šetřit, a tak se snaží buď použít ten horší referenční design, nebo ho ještě upravit. Zde ale nastává ten problém. Ten horší design prostě sice splní ten udávaný 1710MHz boost, ale už třeba nedokáže dosáhnout na těch 1935MHz, na kterých běží NVIDIA FE edice s tomu odpovídajícím výkonem. Výrobci karet se to tedy snaží kompenzovat třeba přidáním napětí, tak aby prostě jejich proti FE edici dražší základní edice nebyla pomalejší než ta FE edice. Anebo dokonce se snaží ty takty dostat výše, blíže k 2000MHz, či dokonce přes ně, což je pro 8nm AMPERE GPU obrovská potíž. A výsledek je to, co vidíme. Nestabilita karet a problémy všeho druhu.
Kdo za to může a jaké je řešení?
Původcem problémů je NVIDIA sama. A to z více důvodů. Někteří samozřejmě ihned namítnou, že za to přeci mohou výrobci nereferencí, je to jejich design. To ale není pravda. NVIDIA nepoužila pro své FE edice ten svůj referenční design, takže nevíme, zda ten dokáže to samé, co ten kvalitnější FE (zjevně ne). NVIDIA oznámila ale jen jedny parametry RTX 3080 a jednu cenu! A její nereferenční FE edice tak přímo konkurují jiným nereferenčním kartám. NVIDIA má ovšem nižší náklady na výrobu svých FE karet, protože neplatí maži sama sobě ze svých GPU ;). NVIDIA tedy vytvořila prostředí na trhu, kdy tradiční výrobci karet nejsou schopni konkurovat jejím FE edicím, pokud jde o výrobní náklady na takto kvalitní a rychlé karty. Jsou schopni vyrobit jen o pár % slabší edice, a i tak za vyšší cenu. A protože RTX 3000 jede navíc zjevně na limit a na krev bez rezervy, není zde ani potenciál pro OC či stabilní podvoltování u všech kusů, který by se dal využít.
(NVIDIA FE edice PCB - odlišné od referenční verze)
Potíž je, že RTX 3000 AMPERE série prostě vyšla na trh prakticky bez rezervy. NVIDIA používá neosvědčenou 8nm výrobu, která má velké kvalitativní rozdíly mezi vyrobenými GPU. Ty navíc jsou velké, vyžadují mnoho energie a NVIDIA je tlačí na naprosté maximum. Takže jakákoliv drobnost může ovlivnit výkon i stabilitu karet. A výrobci nereferenčních edic nechtějí prodávat a nabízet zákazníkům pomalejší kartu za vyšší cenu, než je NVIDIA RTX 3080 FE prodávaná za tu oficiální doporučenou cenu 699 dolarů. Současně NVIDIA s uvedením karet na trh tak děsně spěchala, že těch pár týdnů, které nechala na vývoj a otestování, zjevně nestačilo.
NVIDIA tedy vytvořila podmínky a prostředí na trhu kolem svých karet, které prostě podobné problémy přímo vyvolaly. Nicméně tím hlavním důvodem, proč NVIDIA je přímo zodpovědná za problémy nereferenčních edic je fakt, že je schvaluje!!!
Žádná nereferenční grafika s NVIDIA GPU nemůže vyjít na trh bez toho, aby její design neotestovala a neschválila sama NVIDIA! Takže NVIDIA ten design těch kondenzátorů a filtrů u jednotlivých edic, stejně tak úrovně napětí, power limitů a taktů, sama testovala a jednotlivým výrobcům schválila do výroby a do prodeje! Tohle je normální věc, podobný schvalovací kvalitativní program nemá jen NVIDIA, má jej i AMD i další. Je zde právě proto, aby nedocházelo k tomu, že by nějaký výrobce uvedl na trh vadný a nedostatečný design, protože jeho problémy by samozřejmě vrhaly špatné světlo na celou sérii, tedy výrobce GPU a jeho značku.
Překvapuje ale někoho, že v tom celém spěchu s vydáním RTX 3000 karet, kontrola a schvalovací proces NVIDIA zjevně selhal? Což není zdaleka poprvé. Někteří výrobci, například ASUS, zjevně problémy odhalil. Proto jeho i základní TUF verze je kvalitnější než sama FE edice a ROG STRIX bude vydána později. ASUS celý problém zjistil před uvedením karet a svůj design tak upravil ještě před vydáním, i když je díky tomu dražší a STRIX má zpoždění.
Ostatní výrobci však na problém přišly pozdě, nebo vůbec. EVGA začala vyrábět některé edice, které poslala i do recenzí a teprve nedávno objevila tenhle problém, takže je předělává a na trh by měly pak většina jejich karet uvedena už s tím opraveným designem. Špatně je na tom ZOTAC a další, kteří budou karty prý rovnou měnit kus za kus. Samozřejmě výroba se díky tomu ještě zpozdí a dodávky karet také. Někteří výrobci pak zkusí řešení, které je nic nestojí. Vydají update BIOSu nebo firmware, který sníží ten maximální takt, na který karta může boostovat. Ano, díky tomu klesne výkon, ale protože i tak ten takt bude stále vyšší, než je ten maximální udávaný boost takt oficiálně, je vlastně vše v pořádku. Jenom prostě některé kusy stejné edice budou o několik % slabší než jiné.
Obecně RTX 3080/3090 modely zjevně jedou bez rezervy a na krev, což už jsme od NVIDIA mnoho generací neviděli. 8nm výroba SAMSUNG není zdaleka tak dobrá a ve stavu, v jakém NVIDIA doufala že bude. Proti 12nmTURING prakticky nedošlo k žádnému generačnímu posunu taktů. NV přitom plánovala, že AMPERE poběží přes 2GHz běžně, ale to prostě stabilně nedokáží. I tak vyžadují obrovské množství energie, které jsme u jedno-jádrových grafik ještě neviděli. RTX 3080 je sice o 20 až 30% výkonnější než RTX 2080 Ti, ale taky žere o 25% více energie. Takže 320 – 350W žádný problém? Ale on to je problém z mnoha důvodů. Je to velký zápřah na komponenty, na PCB a celkovou konstrukci karet samotných. Takže jeden malý detail, o pár MHz či 0,01V více, a je problém. Jako v tomto případě ….
Závěr
Je to zpackané uvedení nových produktů a vše padá na hlavu NVIDIA. Ta prostě a jednoduše ze zatím nám neznámých důvodů, tak děsně spěchala s AMPERE RTX 3000 grafikami na trh, že nedala nikomu dost času na vývoj a hlavně otestování i samotnou výrobu. Pokud by odsunula představení a vydání RTX 3080/3090 o měsíc, byl by to velký rozdíl. Téměř jistě bychom o žádných problémech se stabilitou neslyšely. Současně by se při vydání karet do prodeje, dostalo na mnohem více zákazníků. Především by byly tyhle nové produkty skutečně otestovány tak, jak měly být.
Byla to také sama NVIDIA, která vytvořila to prostředí, které na trhu je, že svými nereferenčními OC FE edicemi za „referenční“ ceny, konkuruje výrobcům nereferencí, a ti tak mají potíže, jak nabídnout kartu stejné kvality a boost výkonu za stejnou cenu, kdy NV má nižší náklady. Především však NVIDIA přímo testuje a schvaluje design jednotlivých nereferenčních edic! Včetně jejich parametrů a dovoluje je výrobcům takto vydat na trh. A ona sama, co by tvůrce GPU a celé karty a jejího základního referenční designu (a zjevně i toho nereferenčního) musí vědět nejlépe, jaký design musí mít a co už je nepřijatelné. A protože výrobcům nereferencí schválila ty jejich verze, je přímo zodpovědná za to, že mnoho RTX 3000 má potíže, tím spíše, že ani její FE edice prý nejsou úplně bez tohoto problému.
Nicméně především za to může ten zbytečný spěch, který vydání RTX 3000 grafik z nějakého důvodu provází. Osobně důrazně nedoporučuji nikomu teď uspěchané RTX 3080/3090 kupovat, bude lepší počkat 1-2 měsíce na lepší edice. A zejména na to, co představí AMD, či dokonce sama NVIDIA, kdy RTX 3080 20GB je prakticky jistá. Je opravdu otázkou, co NVIDIA donutilo takhle uspěchat vydání RTX 3080/3090, protože jediný důvod, který nás napadá je, že NV ví o konkurenčních AMD Radeon RX 6000 RDNA2 grafikách něco, co mi zatím nevíme … proč jinak by si v zatím bezkonkurenčním prostředí pro své RTX 3080/3090, tímhle spěchem a nedostatečnou kontrolou kvality a nedostatkem karet obecně a cenami výrazně nad těmi slibovanými, kazila celé vydání a pošramotila pověst RTX 3000 série jako celku?
Dalej pozrel som testy 5tich verzii 3080 a ani jedna karta nejde pod 1850mhz ( nv ma primer 1815mhz ) tak autor prestante robit senzacie ze si kupim 3080 a bude mat nizsi nez udavany vykon alebo ze pojde nedajboze na 1700mhz!
vzhledem k tomu jak rychle po vydání článku si napsal komentář a že jsi slovák, tak opravdu nepochybuji, že nemáš nejmenší tušení, co se v článku píše ...
to že jsi slovák bylo myšleno v tom smyslu, že evidentně nepochytil všechno tak jak jsem napsal ;) což je pochopitelné ... to to větší pozor bych si při tom jeho rychlém komentování a podstrkování věcí dával ...
To ze som slovak bolo myslene skor ze nie uplne prrsne chapem pisany cesky text a naopak ze autor cech tiez nieledy nepochopi....nebolo tp v zlom ani nic....to sa musim zastat autora.
Asi by ses měl buď naučit číst - to v případě, že bych ti byl ochotnej uvěřit, že jsi to nepochopil - a nebo zalézt pod most a přestat trolit!
V článku se nic o tom, že některé karty jedou na 1700 nepíše. Naopak se tam píše, že většina AIB tlačí karty ještě výš než jedou FE (tedy cca 1935) a to v kombinaci se šetřením na součástkách vede k těm problémům se stabilitou.
V podstatě ta nejdůležitější informace, kterou jsem ještě jinde neviděl je to, že NV jim tento ošizený design musela otestovat a schválit.
Nevím jak je to možné, ale nějak mi není úplně proti mysli myšlenka, že to NV neschválila nedopatřením, ale zkrátka proto, že dlouhodobě chce, aby její FE edice byli lepší a luxusnější varianta k AIB kartám. Třeba jsem úplně vedle a mohl za to jen spěch, ale u NV by mě zkrátka nic nepřekvapilo.
Klidně by to mohla být i pomsta za to, jak se jí loni AIB vzepřeli, když chtěla zavést ten úžasný a přátelský "partner program" ;-)
Je mi zkrátka podezřelé, že by těch ošizených karet otestovala tolik a ani u jedné si ničeho nevšimla. Kdyby to byla jen jedna nebo dvě nejlevnější edice, tak bych to bral, ale tohle fakt smrdí...
Jako úmysl Nvidie bych zcela vyloučil. Proč by poškozovala vědomě svou značku? Viděl bych to v manévru výrobců jak mít nějaké marže, když už nemůžou nabídnout pořádné OC edice, tak musejí šetřit jinde a vymstilo se jim to.
Hele myslel jsem si přesně to co píšeš. Ale jen do okamžiku kdy jsem zjistil, že tohle jejich šetření musí projít testy a schválením u NV.
Tady přece platí přesně to, co píšeš. A tedy že schválit jim tyto ošizené karty k prodeji poškozuje AIB téměř stejně jako NV samotnou. Takže proč jim to vlastně schválila?
Taky je možná ASUS jeden z největších a kapitálově nejsilnějších výrobců (to nevím) a nemusel tak šetřit a vyšlo mu to. Resp nevědomě se mu problémy vyhly. Taky možnost.
Cena je podle mě jasná. Je to nástupce minulé generace. Takže cena stejná. Co se týče data vydání, tak ty se stanovují celkem dlouho dopředu podle mě. Takže jen to udělali v nějakém jejich termínu. Otázkou zůstává, jestli by to posunutí pomohlo. Pravděpodobně ano.
Mne sa tak zda že karty neboli počitane až na taku spotrebu a zaťaženie. Možno mesiac pred uvedenim karty bežali na 280W a max. 1800MHz a len tesne pred uvedenim sa Nvidia rozhodla, že to poženie ku 2GHz 330W a ostatny vyrobcovia aby nezaostavali 10% za kartami čo vyraba sama Nvidia, urobili to iste.
Možno pomože tymto postihnutym kartam softwarova uprava so zniženim napatia na cca 0,85V a obmedzenie taktu 1,8GHz.
Myslim si že majitelia kariet s tymto postihntim neskaču od radosti a vobec nezavidim eshopom vybavovať reklamacie 3080
no to by mohlo být - Vánoce nebo ti ilumináti Důvod byl (abych byl férový) - asi stejný jako když AMD na poslední chvíli zvyšovalo takty na 5600XT, ale tam to nebyl očividně takový extrém, jako co předvádí Nvidia s 3080/90.
Ale jak říkám, i kdyby by byl důvod stejný, tak ho nevíme . Co ale víme učitě je, ŽE TO ROZHODNĚ NENÍ/NEBYLo KVŮLI KONKURENCI!!! To by nám přece každá firma řekla, kdyby tomu tak bylo - stejně jako nám Intel začal po vydání prvního Ryzenu nějak navyšovat jádra (a TDP) - z nezištné lásky k nám zákazníkům. No a NV kupodivu najednou nám taky "trošku" přitlačila na TDP. Myslím tedy, že to dělá NV ze stejných důvodu jako Intel - tedy taky z lásky k nám zákazníkům
P.S: dnes např. na red gaming techu jedna naprosto nesouvisející informace o tom,že Big Navi mají být díky obyč 256-bit GDDR6 non-X pamětem levné a úsporné a že díky infinity cache se karta chová jako by měla 384-bit sběrnici i na 256-bitech. To se mě líbí, osobně bych uvítal raději "o hodně nižší cenu" než má NV za cenu toho, že to sotva dosáhne na 3080. Bohužel předpokládám naopak více výkonu za cenu "jen o trochu nižší" takže takové nemasné/neslané a žádný jasný vítěz.
Jinak nepochybuju o tom, že časem ty bugy na kartách NV vychytá. Proto nekupuji early modely a neudělám to ani u big navi a dobře tak všem hype-podléhajícím nedočkavcům za jejich problémy
nesleduji jen jeho, ale mimojiné také jeho. Jen tak pro zajímavost, když už mě chceš školit ve zdrojích, koho mi doporučíš - Linuse, JayZTwoCents nebo rovnou troubu v Huangově kuchyni?
A co konkrétně z toho co jsem napsal podle tebe není pravda? - že sběrnice nebude 256-bit? Že nepoužijí GDDR6? Prosím buď konkrétní, ať si to po vydání karty můžeme ověřit se skutečností a je tedy jasné kdo komu se má omluvit
No přečetl jsem si ten tvůj komentář radši ještě jednou a asi jsem jen nepochopil to, že jsi tuhle pasáž myslel ironicky:
"Co ale víme učitě je, ŽE TO ROZHODNĚ NENÍ/NEBYLo KVŮLI KONKURENCI!!!"
Co se týče zdrojů, tak kromě toho tlučhuby z Red Gaming Tech rozhodně vynechat i "Gamer Meld", to je další podobná drbna.
Pokud chce člověk seriózní info, tak poslední dobou fakt jen Gamers Nexus a Hardware Unboxed, případně pak Buildzoid (Actually Hardware Overclocking) a Igor z bývalého TomsHW DE (Igors Lab). Linus a Jay jsou spíš baviči. Něco technicky zajímavého a hodnotného z nich vypadne jen občas ;-)
Pokud bys mermomocí chtěl něco jako drbnu, tak se dá asi doporučit AdoredTV, ale je to tuším Skot s hodně silným přízvukem, takže to chce fakt angličtinu na výši. Já s tím mám problém...
Dá se sledovat v podstatě každý kanál a vždycky to je jen o tom, jak si člověk dokáže zanechat svůj vlastní úsudek, tedy jak je vybaven k toleranci přísunu informací a následné jejich zpracování. Problém je, že střední proud je lehce manipulovatelný, ale i hlásné trouby dokáží někdy nakopnout k nějakým neobvyklím nápadům a myšlenkám. Pak už je jen na lidech jak tomu propadnou či nikoliv.
Gratuluji k pochopení ironie a potvrzení že tvé IQ je NAD hodnotou 80-90 - než se urazíš, tak nad touto hodnotou je např. i hodnota 180+
Ke zdrojům: Igora sleduji taky a ty informace co tu dávám jsou i od něj btw, což bys nejspíše věděl, kdybys ho opravdu sledoval. BTW řada informací od Igora se shoduje s tím, co říká i Red Gaming Tech, tzn. místo ad hominem bys mohl příště zapojit to své vysoké IQ co pozná ironii (na podruhé) a uvědomit si, že i když někdo o kom si myslíš, že je "tlučhuba" říká shodně něco o kom si myslíš, že je věrohodný, pak ta informace samotná tak nevěrohodná není. Ale na to je potřeba zapojit logiku a to už těch 90+ vyžaduje
JayZ a Linus jsou "baviči" jen za předpokladu, že tě baví lhaní, arogance, dětinské chování a PR proma - což není můj šálek, z těch "velkých" mě už zůstal jen Steve z Gamers Nexus
HW unboxed nic moc originálních informací nepřínáší, nechápu proč sledovat papouškovače
Jinak dík za tip, angličtina v pohodě (15 let v mezin. IT, státnice + CAE) , jináč je se bavím třeba i u toho Ira "not apple fan" musí se to brát spíš jako glosy, ale dle mého je velice trefný a nenechá na nikom nit suchou
Jo, já Igora sleduju jen výjimečně a obecně moc nejsem na drby a spekulace.
Proto mi vyhovuje Hardware Unboxed, páč ti dělají primárně kvalitní testy už vydaných věcí.
Takže vzhledem k tomu že RGT mám zablokovaného a Igora téměř nesleduju, tak nemůžu použít to mé neuvěřitelně vysoké IQ, abych mohl porovnat jestli se někde neshodují;-)
S angličtinou já taky problém nemám, denně jí používám v práci a kromě té státnice jsem na tom stejně jako ty. Ale to co používají ve Skotsku není dle mých měřítek už Angličtina ;-)
Jo, "not apple fan" je spíš takovej střelec u kterého se někdy člověk pobaví a jindy nevěřícně kroutí hlavou:-)
Mě proma nevadí, pokud jsou jasně označena a že by lhali, to je přehnané.
Evidentne si ma nepochopil....ja pisem ako autor mi tu podsuva ze nv nedrzi takty a vykon budem mat mensi nez v recke.....pozrel spm recky a priemerne takty a nie je to pravda....skoda ze sa neda citovat lebo potom vznikaju nedorozumenia....a pozor ja stale svoje tvrdenie podlozim reckou alebo nejakou verejne znamou informaciou....nedovolil by som si trolit natp su tu iny pacienti....
Dalej nikde som sa nedocital ze nv schvaluje aib dizajn kariet to by autor mohol postnut zdrpj nech si tp overime....nv max da doporucenie akp ma vyzerat pcb ale je to v rezii aib a nv doda iba gpu alebo to tal nie je?
jenže autor nenapsal, že budeš mít nižší výkon, ale že můžeš mít nižší výkon!!!! Budeš a můžeš jsou dost velký rozdíl ... takže mě tu zase podsouváš něco co jsem nenapsal a zase to trollíš a flamuješ
ty nevíš, že NVIDIA schvaluje design nereferenčních grafik? To si myslíš, že NVIDIA někam pošle své čipy aniž by si ověřovala na jakých kartách budou a jaké kvality? Vážně?
Nie ja si len myslim ze vykon nizsi ako udavany mat nikdy nebudete pokial nieje karta vadna. Vykon budete mat bud rovnaky alebo vyssi. Aspon takto sa chovali vsetky nv karty co mi prešli rukami. Amper som zatial nemal tu cest.
Nie neviem o tom zeby da nv miesala do aib kariet. Mate nejaky zdroj / clanok alebo nieco co to potvrdzuje?
Fakt je ze nv ma referencny dizajn a ten niektory vyrobcovia nedodrzali a tu je vysledok, tak ako za toto moze nv ? Nemoze zato skor aib pokial ide o tento problem?
Prosim autor netykajte mi uz davnajsie som Vam to pisal. Dakujem.
nVidia ve své nenažranosti jednoduše konkuruje vlastním dvorním výrobcům tím, že prodává svoje nereferenční karty s "nereferenčními takty" za referenční ceny, které nejsou ostatní výrobci schopni dodržet, ani pokud by zcela zkopírovali návrh FE edic. nVidia jednoduše svoje karty "dotuje" tím, že si trochu sníží marži a vsaď boty na to, že si také bere ten nejkvalitnější křemík.
asus to nemel problem dodrzet a jit vis..problem je ze treba zotac de niz s kvalitou nez referencni navrh a jestli to nv schvaluje, tak ze kontrola u ni selhala. jinak je vtipne ze pri vydani rtx20 vsichni nadavali ze NV prodava svoje FE o 100$ a ze nereference kvuli tomu taky nejdou sehnat levneji, takze sou vsechny karty drazsi. ted NV prodava FE za zakladni cenu a zase je to spatne, ze chudaci vyrobci tomu nedokazou konkurovat myslim ze vyrobci maji marze porad vic nez dostatecne...jasne nebudou asi takovy jako u rtx20, ale tam byli spis moc zmlsani. treba padli na uroven amd grafik..5700xt s dle ddworldu mnohem kvalitnejsim pcb musi byt prece na vyrobu mnohem drazsi nez 2060s a presto je prodavaj za podobny ceny...
Pemoro absolutně nechápu co tu vlastně obhajuješ a co ti vlastně vadí ?
Vadí ti, že NV má nějaké chyby ? Tak buď v klidu, všichni máme nějaké chyby i AMD, ty i já. A že když má NV nějaké chyby, tak se to přechází, jako kdyby nebyly a u AMD se zveličují a přehánějí. A Dede na ně upozorňuje, to ti vadí ?
V tom případě ti doporučuji přispívat zde: Odkaz
To platí veskrze pro všechny, kteří mají problém s Dedeho články. Dede je prostě takový a takového ho musíš brát.
A k tomu tykání. Jsi na zájmovém webu, což je veskrze komunitní web, kde platí jiná společenská pravidla. A já předpokládám, že tu budu jeden z nejstarších a přesto mě ještě nikdy nenapadlo někoho upozorňovat na to, že mi tyká. Já s tím nemám žádný problém, protože se nepotřebuji nad nikoho povyšovat a jsem schopný příjmout i kritiku, což u tebe cítím jako problém. Pokud nejsi psychicky odolný a nejsi schopen brát názor, který se neslučuje s tvým, jako taky názor, prosím jdi přispívat do... viz odkaz výše.
Ne, to ty jsi buď nepochopil článek, nebo schválně děláš, že ho nechápeš.
Autor ti nic takového rozhodně nepodsouvá, jen správně píše, že teoreticky se to může stát, pokud budeš mít smůlu a NV bude i v takovém případě z obliga.
Kazdopadne uz nejaky ten piatok tu je boost tak nejake parametre sa udavat proste musia. Neviem ci 680 bola prva alebo nie ale od 680 sa hrajeme s boostom. Niekedy staci len power limit dvyhnut ale pri rtx3000 to bude bez oc a skor undervolt lebo 300w je 300w a 3090 si to dava 350w jak nic co uz je dost cez ciaru
Referenčný návrh - návod ako má karta vyzerať, aby normálne fungovala a ten návrh nefunguje, nVidia sama použila pre svoje karty iný návrh s ktorým to funguje. A každý návrh karty schvaľuje nVidia.. A ono tie chybné refrenčné a ešte chybnejšie schválila.
Hmm, to mi něco připomíná. RX 5700XT?
Trochu jsem čekal, že nVidia vydá karty na nižších taktech a až by vyšly nové Radeony, zopakovala by v podobném duchu situaci se SUPER edicemi RTX 2000. Už vlastně něco podobného chystá: 8GB vs. 16GB VRAM, 10GB vs. 20GB.
Ale že udělala to, co udělala s FE edicí vs. neferenční edice AIB, to bych nečekal. Trochu chudáci AIB. Říkal jsem si, kam až nVidia může zajít. Teď si představte, že jste jedna z oněch společností, chcete konkurovat, prodávat a máte takto malý manévrovací prostor. Jak potom můžete maximalizovat zisky?
možnost proč to všechno NV dělá je ta nejjednodušší, která se nabízí, to jen NV-fans si ji odmítají připustit, tak sáhnou raději po mimozemšťanech a iluminátech, přitom dle principu ockhamovy břitvy bychom měli přijmout vždy tu nejjednodušší možnost
Vidim, ze jsem udelal dobre, kdyz jsem koupil 2080 Ti za 12 k se zarukou 29 mesicu u Alzy. Bylo to par dnu po prezentaci Ampere, kdyz zaclo silenstvi po bazarech Dal jsem ji na vodu a mam na par let na 1440p 144 Hz klid. Zhave novinky se nikdy nevyplati kupovat u cehokoliv.
Co je na tom pohadkove? Ted jsou ceny na bazarech uplne jinde, nez vyslo najevo, ze 3080 se nedaji koupit. Sakra chlape, ty bud neumis nakupovat, nebo zijes ve sve bubline, jako mnoho zdejsich
Se zarukou u Alzy, ne ze jsem ji koupil na Alze, ta by v zivote takovou cenu nedala Nikdy jsem nove GPU nekupoval, pac je to stejna blbost, jako koupit nove auto. Okamzite to akorat ztraci rychle na hodnote.
OK, ale to se z tvého komentáře moc uhádnout nedalo;-) Navíc záruka u bazarové karty je spíš zbožné přání. Alza ani jiný obchod jí vůbec nemusí přijmout. Mají to v záručních podmínkách jasně uvedené.
Jaká je realita netuším, nikdy jsem to nezkoušel. Ještě jsem bazarovou kartu, tak novou aby ještě měla teoreticky záruku, nikdy nekupoval. Buď koupím novou a nebo už tak starou, že záruku už ani nepamatuje.
Vzhledem k tomu, že na rozdíl od auta tady nejde o stovky tisíc, tak nevím jestli to riziko za to stojí. To je každého věc.
Navíc ti teď dost reálně hrozí, že za měsíc půjde za 12k koupit nová karta s tím samým výkonem jako máš u té jeté bazarovky...
Reklamovat to lze - ale reklamační ticket musí ze svého účtu založit původní kupující. Jako takový to "prodávám jetou kartu v záruce, i s původním dokladem/záručákem s ještě x měsíci záruky" - je ti k ničemu, protože nevygeneruješ ten ticket. A když tam přijdeš s tím papírem, tak tě nejspíše vyfuckujou.
Není pravda. Zrovna minulý týden jsem reklamoval grafiku, kterou jsem kupoval loni na bazaru a na pobočce s tím nebyl žádný problém. Reklamaci mi přiřadili na můj Alza účet úplně v pohodě
Za mesic realne hrozi, ze padne cela ekonomika Nevim, co bude za mesic, ja potrebuji vykon ted, ne za mesic nebo dele. Cekat muzu celej zivot na neco. Reklamace je vzdy v pohode a bezproblemova, pro sichr sespat smlouvu o postoupeni prav z vadneho plneni, nemaji s tim nikde problem, zatim jsem ji nikde nepotreboval vytahovat. Chce to vic zit a ne teoretizovat
A můžu se zeptat na co ten výkon tak najednou teď potřebuješ, že za měsíc by bylo pozdě? ;-)
Ale já právě víc žiju. Nemám čas řešit jestli je zrovna správný čas na nákup dané karty na bazaru tak abych neprodělal kalhoty a pak ještě investovat čas do problémů s reklamací. To vše stojí čas a čas jsou peníze, případně je to čas, který raději investuju někde jinde.
Samozřejmě když jsem byl chudý student se spoustou času, tak jsem taky šmelil bazarové věci. Třeba se mi povedlo od nějakého overclockera jen rok staré kombo mobilního Bartona XP-2600M s luxusní NV deskou a drahým chladičem za 1500Kč :-)
Ale od té doby co pracuju, tak už zkrátka raději investuju čas do něčeho jiného a připlatím si za klid nákupem nových komponent u kterých vím, že je třeba někdo nehnal až na/za hranu bezpečného napětí (jako byl případ toho XP-2600M - proto byl tak levný).
Abych vyvratil lzi, ohledne reklamace bazaroveho zbozi:
Dobrý den,
záleží na tom, jestli se jedná o faktúru s IČO, či nikoliv. Produkt na faktuře bez IČO může reklamovat kodokoliv. Produkt na faktuře s IČO muže také reklamovat kdokoliv, ale právo na vyzvednutí vyřízené reklamace nebo proplacení dobropisu má pouze firma, případně jednatel firmy, případně pověřená osoba.
V případě jakýchkoliv dalších přání či dotazů nás neváhejte kontaktovat.
Přeji Vám pěkný zbytek dne.
Saša Polakovičová - Alza.cz
Vic to nema cenu komentovat.
A proc vykon ted? Protoze ted mam volnejsi rezim cca mesic, tak to vyuziju i na hrani. Pak mne cekaji dalsi projekty a to budu pracovne vytizenej cca do unora. A kartu vyuziju i na praci, vyuzivat na to novej vyrobek, kterej ma porodni bolesti by se mi opravdu nevyplatilo Delam to tak jiz nekolik let a nemuzu rict, ze by jsem takhle prodelal i kalhoty. Spis naopak.
SKvělá úvaha a názor + skvělý kauf. Gratuluji, měl jsem to udělat taky (pro nejmenovaného blba - jop "AMD fanatik" co si klidně koupí NV ), trochu lituji - ne že bych tenhle výkon od Big navi nedostal, ale stát mě to bude víc (ale tak zas nová karta +16GB VRAM)
Na tyto technické věci je nejlepší se podívat na Actually Hardcore Overclocking alias Buildzoida, který to sice kostrbatě, ale detailně vysvětlí. JayzTwoCents je dobrý když se chci pobavit u recenze něčeho.
Nemyslím si že by t byl vyloženě nový problím. Já osobně užívám 2x 1080ti od INNO a na obou mám na gpu -100Mhz, protožebyl v renderech nestabilní. Takže ono to nebude až tak nový problím, spíše to nyní výrobcá tlačí opravu až moc.
80CU je víceméně jisté (takže žádných 60-64 jak nám někteří "pesimisté" prorokovali)
Takže, známe-li množství CU a víme-li, že RDNA2 je o 50%+ (prý až o 60%) efektivnější než RDNA1 plyne nám z toho:
a). že to nemá šanci protože to není od Nvidia a sotva to bude stačit na 3070
b). za jistých okolností kdy se nebude hledět na TDP (jakože NV na ni snad hledí ), to má víc než dobrou šanci i na 3080 a protože víme, že 3090 není "daleko" tak... ale to už raději nebudu vyslovovat, protože i s těmi eufemismy že není daleko i s nabízenými možnostmi je ta samotná myšlenka kacířská jako pro věřícího kdyby snad měl začít uvažovat, že jeho bůh snad možná nemusí být ten nej . Na druhou stranu, NV fans mohou být v klidu 3090 zůstane nejspíš nejrychlejší v productivity apkách, RT a bude mít nejvíc VRAM, AMD když zvítězí, tak "jen" ve hrách s klasickou rasterizací, které NV fans už dávno od dob RTX 2xxx stejně nehrají. Takže jo, víc lidí potřebuje určo NV link, 16GB VRAM je pro ně málo atd. takže vlastně už NV "vyhrála" . Fajn ať si to "vítězství" užijou, já si pak užiju raději ten "socka hiend" od AMD, protože jsem jednoduchý a chtěl jsem na tom stejně jen hrát ve 4K max a jsem skromný, takže RT budu zapínat jen tam kde mě to nepoleze pod 75fps, jináč ho vypnu.
Ten výpočet není špatně.
Jen reálný výkon bohužel neškáluje lineárně. To co jsi spočítal je očekávatelný teoretický výkon. Ale stejně jako 3090, která má o 20%+ lepší parametry než 3080 není o 20% reálně výkonnější, tak ani těch 264% proti RX 5700XT v reálu nevyjde (i když můžou být ojedinělé případy, kdy to tak bude, ale to budou výjimky).
Spíše se dá očekávat 200-230%.
Bohužel to platí všude. Já se třeba ke své nelibosti na vlastní kůži přesvědčil, že 200kW auto taky nejezdí 2x lépe dokonce ani než 85kW, které jsem měl předtím :-)
Pokud tento takt je reálný, tak se AMD GPU opravdu bude přibližovat vizi, že RDNA2 bude něco jako Ryzen. Procesory také kdysi začínaly na nízkém taktu a 2500MHz je takový středobod dnešních frekvenčních možností CPU
AMD malo pripravene tri jadra NAVI23 240mm2 40CU NAVI 22 340mm2 60CU NAVI 21 505mm2 80CU. Lenže tym padom že Nvidia šupla 3080 na čip GA102 s podstatne vyšim vykonom ako by mala na GA104 to vyzera tak že AMD to zobralo na vedomie a karty pripravovane na jadre NAVI 22 340mm2 s 60CU škrtla a vyraba len NAVI 21 s 80CU, kvoli tomu aby zase nehrala druhe husle.
Plan Apple sa tiež zmenil lebo oni mali mať tiež jadro NAVI 22(32) s 60CU ale s HBM a na 5nm procese pre svoje potreby.
Plan Apple sa zmenil tak, že tiež sa vykašlali na jadro NAVI22 a prešli rovno na NAVI 21(31) len s tym rozdielom že si ho Apple vyraba na 5nm procese pre svoje potreby.
Nvidia to pekne zamotala, ale ako zakaznik sa nesťažujem proste budu podstatne vykonejšie karty ako keby boli na GA104 či NAVI 22. Tolko konšpiračne teorie s UK Ja som len zvedavi čo s toho bude pravda o mesiac
Zakulisne veci oficialnou cestou sa nikdy nezverejnuju. Tak ako AMD nepovedalo oficialne že 5800 stiahli kvoli malim vyrobnym kapacitam a radšej tie waferi použili na vyrobu ZEN2 ktorych bol velky nedostatok a lepši zisk.
AMD sa len prisposobilo Nvidii ta mala 3070 aj 3080 mať na jadre GA104 cca 400 mm2, na nu smeroval čip NAVI 22 340mm2 60CU, lenže ako už vieš 3080 sa hodila na GA102 a tam by AMD s NAVI22 vela nenakonkurovala, tak očividne letel cez palubu a bude len NAVI 21 v troch verziach.
Zakulisne veci su zakulisne veci, to maš iste že teraz sa nepostavi predstavitel AMD pred kameri a začne vyplakavať, že nvidia svoju 3080 nevidalo na GA104 ale na podstatne vykonejšom čipe GA102 a teraz si AMD s NAVI 22 može vytrieť prdel
Jaké 5800?
Člověče to jsou tak zákulisní informace, až to skoro zní jako výmysly;-)
Nedávno tu přistála informace, že NAVI 22 s 340mm má 40CU, ne 60. Chápu správně, že ty tvrdíš, že to co je dnes pojmenované jako NAVI 22 bylo původně NAVI 23?
Počul si o novej PS5 a Xboxu? Tak PS5 ma NAVI 23 a Xbox ma NAVI 22 v sebe. Odkaz
Chapem že do uvedenia je ešte mesiac, ale zase taku sprostosť že NAVI 22 ma 40CU a NAVI 23 32CU už to trošku prehnali.
No z toho co jsi sám napsal vyplývá, že na těch 340mm by se jim 60CU ani nevešlo, když víme že na stejné ploše měl Radeon7 52CU a to je velmi pravděpodobné, že RDNA2 má ty jednotky větší.
Ale zase je pravda, že pokud nejsou RDNA 2 CU o hodně větší než u RDNA 1, tak je těch 40CU málo. Tedy pokud ten větší křemík nevysvětluje nějaká ta magická cache o které se už psalo tuším i tady na fóru.
Zkrátka ani jedna informace nevypadá 100% správně a asi nezbude než přestat fantazírovat a počkat si na uvedení, nebo nějakej detailnější únik ;-)
Pro mě je zajímavý rozptyl výkonu s ohledem na počet CU.
Navi23 pokud by mělo 32CU a je výkonnostně 3 od shora, kde NAVI21 má mít 80CU, tak to je brutální denzita jen na 3 výkonostní stupně.
Pokud vemu v potaz, že NAVI23 bude konkurovat RTX 3050/60, tak 80CU je killerka s ohledem na výkon a efektivitu RDNA2, pokud tedy údaje jsou správné a NAVI23 bude konkurence pro ten zmiňovaný mainstream (32CU).
PS: Ještě do toho započítat efektivitu RDNA1 40CU alias RX 5700XT a jak konkuruje bez optimalizací RDNA2.
Vím komplikejšn, ale já to jinak nepochopím.
Ber to s velkou, velmi velkou rezervou, ešte je mesiac do vydania a je napušťane do obehu velmi vela hoaxov, možno aj samou AMD. Napriklad že NAVI 22 ma 2560SP je sprostosť, alebo NAVI 21 že ma vraj GDDR6 a korunovali to 256bit zbernicou. Treba si na zaveri fakt počkať ten mesiac.
To je pravda. Jen se už těším na nějakou 180W kartu příští rok, která mi nabídne výborný výkon z ohledem na mou RX 570.
Jen ten Ryzen 2600 nevím nevím zda bude stačit.
Ze 7nm na 5nm nemůžeš jen tak přejít lusknutím prstů. Na to musíš mít defacto úplně nový návrh čipu, přeorganizovat ho tak, aby něco nebylo moc blízko něčemu jinýmu, atp. Nestačí jen vzít a změnit měřítko na 5:7.
Ale tu sa bavime o Applu ktory pomaha AMD s GPU od RadeonVII.
AMD sa ku 5nm procesu dostane až 2022. Netušim ake maju dohody AMD s Applom, že mu AMD poskytlo čip NAVI 31, ale predpokladam že matricu si cvaka Apple a aj softwarove odladenie si vo svojej režii zabespečuje apple.
Ako bežny zakaznik sa ku tejto GPU nedostaneme, nechcem si ani predstaviť čo bude apple za takuto GPU chcieť v profi oblasti.
DD, menší offtopic. Poslední dobou si všímám, že je tu víc a víc vykřičníků v článku. Zde celých 19, pokud jsem nepočítal špatně. Mnoho lidí je citlivý na tón textu, jsou-li tam smajly, vykřičníky, nebo je to spíše klidnější, bez těchto emotikonů. Neříkám, abyste se vykřičníků vzdal, ale možná trochu zapřemýšlet, zda to s nimi nepřeháníte. Když to čtu, pocitově mám pocit, jako by autor nonstop křičel. My two cents.
Aby se články lépe četly. Chci to tady číst, protože mě čtení těchto článků vcelku baví. Znepříjemňují to jen 2 věci. Excesivní množství vykřičníků a neustálé opakování (ale to Vám už říkali další x-krát) myšlenek, i mnohokrát v jednom textu.
Samozřejmě, je to Váš blog. Můžete si tu psát, co uznáte za vhodné a jak uznáte za vhodné. Ale to zas nebrání mně říct, co si představuji jako vylepšení obsahu.
P.S. Škoda, že už neděláte YT. Těch pár videí bylo dobrých :-)
Jde to :-) Mne samotnému vyčítali, že jsem vždy psal romány a zbytečně vysvětloval. Postupem jsem se naučil to zkrátit a přemýšlet nad tím, co píši. Takže doslova chápu, jak na tom jste vy :-)
Znáte to pořekadlo. Horší YT video lepší než žádné YT video
A s tím návrhem webu, nechce se mi věřit, že nemáte přístup ke zdrojovým datům, jen k administraci článků. Ale ok :-) To není moje věc.
Klasika, že řada 5700 měla a má tunu problému jak po software stránce, tak po hardware stránce, to se tu smetlo ze stolu, že prý Vám se to neděje, tak je zbytek světa mimo.
Blackscreeny, pády všeho druhu. Nejlepší nereferenční karty se zas přehřívají na hotspoty, protože mají dementne řešeny přítlak chladičů, u některých se zas nezapíná chlazení atd... Ale u Nvidie se to musí pořádně rozmazat, ještě před recenzi, že?
5700 neměla žádné potíže po HW stránce ani žádné zásadní rozšířené problémy se SW. Používáme ty karty od samého začátku a vše bez potíží, nejen já ale i řada recenzentů říká to samé, ty "problémy" kteří s RX 5700 někteří mají, nejsou v kartách ani ovladačích, ale ve windows i tak jsou problémy velmi omezené na velmi málo uživatelů, kteří často k nim přispívají špatnou instalací na nevyčištěný systém, či použitím nekvalitním kabelů apod. a je to objektivně prokázáno opakovaně mnoha recenzemi a testy ...
takže vaše plácání o tom jak zase NV někdo ubližuje, je jen flame ... speciálně na DDW, kde jsme psali o "problémech" RX 5000 stejně jako teď píšeme o problémech RTX 3000, které jsou navíc dobře zdokumentované, prokázané a výrobci je dokonce potvrzují ... takže je máme ignorovat a být neobjektivní? To by se vám určitě líbilo. Samozřejmě NVIDIA nám ty karty mohla a může kdykoliv na recenze poslat, je to její soutěž, stejně jako evidentně může za situaci a problémy RTX 3000. Já ty věci nevymyslel, já o nich jen informuji ... váš komentář mě tedy hrubě osobně uráží a jděte si dělat ten váš FLAME bordel někam jinam ....
Já měl takovou nějakou předtuchu, že s tou Nvidií není něco v pořádku. Asi měli plné ruce práce s koupí ARMu a nějak zapoměli vyladit nové grafiky. Teď už do Nvidie nepůjdu tím tuplem a počkám si na nové grafiky od AMD. Doufám, že neudělají stejnou chybu.
Mít problémy s ovladači je věc která se dá doladit ale nekvalitní součástky je věc které je fakt pruser což AMD i s velkou spotřebou mojí vegou 64 nitro jako papne si dost ale žádné problémy cívky nejdou slyšet a po povolování a přetaktování je na tom lépe jak 1080 a to stala o dost min před vánocemi 6000 řadu beru doufám že se na mě dostane :-)
po tech problemech jim nevěřim a nějak doufam že asi věděli proč musi rychle vydat něco za dobre penize na oko jestli amd bude mit stejny vykon nebo podobny a za 15-18 tisic tak neni co řešit tam kvalita součastek je bez problemu dokonce i masakr radeon7 s hbr2 16gb šlapalo v pohodě takže ano věřim AMD
Tady ctu, ze nove ovladace pomohli vice lidem se stabilitou. https://new.reddit.com/r/nvidia/comments/j1ccfq/game_ready_driver_45655_faqdiscussion/ Cas ukaze, zda je to skutecne problem kondiku....
Vetsinou tam ctu narust vykonu, stability a nizsi teploty. Ano, zrejme osekali boost, ackoliv netusim, zda to jde ovladaci, nebo jen biosem, tomu nerozumim popravde. Je zrejme, ze se zbytecne spechalo s vydanim.
Pouze registrovaní uživatelé mohou přidat komentář!