Stejná cena, stejný název, nižší výkon. NVIDIA pokračuje ve své tradici klamání a podvádění.
Takže je to potvrzené. Jak jsem vás informoval dříve, kvůli problému s dodávkami drahých GDDR6X pamětí, které vyrábí výhradně Micron, NVIDIA musí přejít na osazení GDDR6 u některých karet. Jinak by nebylo dost pamětí pro aktuální objem produkce všech stávajících RTX karet, které ty X paměti používají. A tak se rozhodla, že množstevně nejzásadnější stávající RTX 4070 12GB, která je vybavena 21GHz GDDR6X, „doplní“ na trhu verze s 20GHz GDDR6. To znamená že tahle stále silně předražená karta střední třídy se 192-bit sběrnicí, bude mít nově propustnost 480GB/s místo dosavadních 504GB/s. Na trhu ale zůstávají samozřejmě obě varianty současně a z názvu samotné karty běžný uživatel, který neví výše uvedená technická data, nic nepozná. Parametry jádra zůstávající stejné. Stejná je i cena. Pokles výkonu sice bude malý (velmi malé jednotky % maximálně), ale samozřejmě měřitelný.
Problém by to nebyl, kdyby NVIDIA zohlednila v názvu, že nejde o dosavadní RTX 4070, ale o pomalejší variantu, tedy fakticky mírně odlišný produkt. Jenže to opět neudělala. Klame zcela záměrně zákazníky. Jako už poněkolikáté a úplně stejným způsobem. Za stejnou cenu se stejným názvem nabízí prostě horší produkt. Ano, v tomto případě (na rozdíl od některých starších případů NV karet) není rozdíl dramatický, ale je tu.
Pravda, na trhu má i horší případy vyloženě podvodu. Jako jsou třeba RTX 3050 8GB a RTX 3050 6GB nebo RTX 3060 8GB a 12GB a mnoho dalších příkladů v minulosti. Ano, NVIDIA není jediná, která něco podobného dělá, ale jen ona to dělá opakovaně a v neuvěřitelně masivním měřítku. Ostatně používá zbytečně zmatečně stejné názvy pro mobilní a desktopové karty, i když jsou často založené na odlišných čipech s velmi odlišným výkonem. Nemluvě o použití různých TDP variant pro stejně se jmenující grafiky, kdy v jednom notebooku může být klidně RTX 4080 pomalejší než RTX 4070 v jiném apod.
Pro nás, kteří se v tom pohybujeme a tedy orientujeme, to možná není tak složité ty rozdíly vidět a pochopit. Ovšem pro běžného zákazníka? Tedy 99% uživatelů? Je to prostě nemožné se v tom vyznat. A vím ze zkušenosti, že ani spousta lidí kteří ty karty prodávají, se v tom také nevyzná a budou si myslet, že jde o stejný nebo dokonce lepší produkt, protože vyšel později, než ta původní sinější verze. Všichni prostě dle názvu očekávají, že bude mít ten výkon, který vidí v původních recenzích toho výchozího produktu, a neví, že rozdíl prostě není jen v množství paměti apod. Tedy třeba mezi RTX 3060 12GB a RTX 3060 8GB jsou v praxi až desítky % výkonového rozdílu i když se obojí tváří jako stejný produkt s označením „RTX 3060“. Většina uživatelů a dokonce i prodejců to prostě neví, protože dle názvu to berou jako stejný produkt, Speciálně když to ten název nereflektuje a také cena to mnohdy nereflektuje. Jde jednoznačně a bez přehánění o podvod a NVIDIA to dělá záměrně a opakovaně:
RTX 4070 je zkrátka jen jedna a má GDDR6X. Pokud nyní NV uvádí z jakéhokoliv důvodu verzi, která má GDDR6 čipy na nižším taktu, a je jedno, že je v praxi opravdu jen o trochu pomalejší, pokud stojí stejné peníze a jmenuje se „RTX 4070“ je to klamání. A neexistuje žádný dobrý důvod, proč tahle verze nemohla mít jasné odlišné jméno. Třeba „RTX 4070 LE“ (Light edition), jako v minulosti NV tohle označení pro některé karty používala. Stejně tak mobilní grafiky mají mít jasné odlišení od desktopu, tedy ne „RTX 4070“, ale „RTX 4070M“ apod. Opět to tak v minulosti bylo a nebyl žádný dobrý důvod to měnit. NVIDIA to ale záměrně neodlišuje a záměrně klame uživatele, protože se jí to vyplatí. Může mnoha neznalým prostě prodat mnohem horší produkt s nižšími výrobními náklady (a tedy větším ziskem pro NV) za stejnou nebo jen o trochu nižší cenu, než je ta špičková varianta, kterou si zákazník pod tím označením představuje a originálně tak byla představena.
A ano, není to jen NV, problémy s jasným odlišením produktů mají i další výrobci, včetně Intelu a AMD. Ale jen NVIDIA to prostě dělá v takovém nehorázném měřítku a opakovaně, protože mimo články objektivních a nezávislých novinářů, nebo autory výše uvedeného videa, kteří na tuhle zákeřnost porušující zákony o ochraně spotřebitele upozorní, není za tuhle zjevně klamavou obchodní praktiku dlouhodobě trestána. Přitom podobné/stejné praktiky v jiných oblastech jsou přísně sledovány a trestány. Zde zkrátka selhávají hlavně odpovědné úřady, které tohle v EU a USA rychle a tvrdě nepostihují …
Se silnými výrazy o klamání by se zde mírnil. O 5% pomalejší paměti mají zase o něco lepší latence, takže rozdíl ve výkonu by potom mohl být na úrovni různých edicí téže čipové řady, které se také liší naladěním taktů GPU jednotlivými výrobci grafických karet. Odlišné značení by si to ale zasloužilo.
karta rozhodne nesplnuje HW parametry toho s jakymi ta karta vysla.. mela se jmenovat jinak.. ale na tohle jsme u Nvidie za ty roky celkem zvykli ze si dela co chce..
Jaké parametry nesplňuje?
Na webových obchodech i krabicích by měl být uveden typ, frekvence a kapacita paměti a z toho je jasně patrné, co si člověk kupuje. A to jsou jediné oficiální parametry. Jestli myslíte recenze karet, tak to není oficiální parametr, výkon se liší použitými komponenty, modelem GK, výběrem her...
Předpokládám, že teď se na webu objeví několik testů s porovnáním výkonu, aby si každý případný kupec mohl ověřit změnu rychlosti
---
Jinak ano, karta by se mohla jmenovat RTX 4070 GDDR6 a bylo by vyřešeno.
oficialni parametry ty karty v dobe vydani na trh primo od nvidie jasne uvadi jaky HW karta ma mit a jake ma splnovat specifikace... To bohuzel tato RTX 4070 nesplnuje.
Pritom stacilo ji jenom pridat nazev treba RTX 4070 GS/DDR6 apod.. Hlavne mela stat mene, protoze GDDR6 jsou mnohem levnejsi....
Užasne všeci žasneme nad 4070 cez 2 roky starou GPU (dopredajom starych zasob) ale to že už na internete sa objavuju prve testy NAVI 48 to ako že nikoho netrapi
Takže máme na trhu současně 4070 a 4070Ti a 4070Super a 4070 Ti Super...Hele ani se jim nedivím, že se vykašlali na to označovat tuhle o 2% (FPS) pomalejší verzi jako další samostatnou verzi...Lajkovi by fakt další rozdělení nepomohlo.
V tomto případě bude větší rozdíly ve výkonu způsobovat zcela něco jiného než cca 5% změna propustnosti pamětí.
Bude to jiný hw v konkrétní sestavě, procesor, paměť, chlazení, samosebou na to bude mít podstatnější vliv použitý systém, jeho nastavení, používaný software a tak dále.
A nakonec na to bude mít mnohem větší vliv výrobce / montér grafické karty jak nastaví takty a chlazení.
Rozhodně všechno co jsem vyjmenoval bude mít větší vliv, než 5% snížení propustnosti pamětí, aneb okurková sezóna jede.
A pokud si (nejen) v tomto případě myslí autor, že jde o porušení nějakého právního předpisu, jak snadné je podat podnět k příslušnému orgánu? No bude to rychlejší přes datovku než sepsání tohoto článku.
Mnohem větší prasečina je podle mého systém značení mobilních procesorů od AMD, aby si zákazník někde u třetího čísla v názvu hledal co to je za architekturu, je dramaticky větší než 5% snížení propustnosti.
Nic to nemění na faktu, že běžný zákazník tohle nezjišťuje, ani ho to nezajímá a to včetně chytrolínů v oblasti IT, ti tohle nezjišťují v jiných oborech :-)
Mě nedávno třeba překvapil desktopový R7 5700X vs non X kde rozdíl není v taktu jako u 5600X vs non X, ale doslova rozdíl v jádrech s podporou pcie 3.0 vs 4.0. Jako nevěřil jsem a musel dohledat.
je zaujimave sledovat ako niektori fanusikovia pri inych firmach aj pri najmensom preslape beru vidly a pochodne do ruk a uz idu upalovat,
ale pri Nvidii vsetko zlahcuju, bagatelizuju, obhajuju, dokonca ze ten "ojeb" je vlastne skvely pre zakaznikov
P.S. a tu na DDworlde je to este v tej miernejsej forme
To je pravda, ale mna tiez zaraza, ako sa o momentalnom technologickom lidrovi Nvidii pise, ako su tie technologie vlastne zbytocne a nikto ich nepotrebuje. Tato stranka v tom obzvlast vynika.
Bude výkon prakticky stejný, jako u GDDR6X verze? Ano, rozdíl bude na 99,99 % na úrovni chyby měření. Potud vcelku OK. Je dobře, že karty od sebe nebudou rozlišitelné? To rozhodně ne, mělo to být jasně označené. Ale známe Nvidii, ti už mají otestováno, že jim to projde. :/
Pouze registrovaní uživatelé mohou přidat komentář!