AMD až doposud nemělo důvod podobnou technologii uvádět – nemá jednu potřebnou složku této technologie …
Jak už jsem říkal před mnoha týdny, kdy se Optimus objevil, v základní myšlence to rozhodně není nezajímavá a neužitečná technologie, po které jsme navíc volali dlouhá léta. Problém je, že v praxi má dnes poněkud jiný účel a hlavně funguje jinde a jinak než by bylo nejlepší. NVIDIA neměla na vybranou, protože o možnost osazovat integrované grafiky, které jí zajišťovaly vysoké příjmy, přišla, hrozilo, že přijde i o část trhu levných klasických grafik. Aby dala svým grafikám smysl, přišla s technologií Optimus. Jako myšlenka to není špatná. Pokud špičkový výkon grafiky nepotřebujeme, stačí integrovaná grafika v CPU (dnes u Intel Core i3/5). Pokud ale systém zaznamená požadavek vyššího výkonu od GPU, přepne se automaticky bez prodlevy na výkonnější grafický čip. Bohužel, ačkoliv to tak skutečně funguje, má to v současném nasazení vady na kráse.
Za prvé, většina notebooků, která se s touto technologií prodává, je vybavena jen dvoujádrovým procesorem Intel s integrovaným grafickým jádrem a navrch slabou grafickou kartou NVIDIA, na které si stejně nic pořádně nezahrajete, a reálně tak není důvod ji tam dávat a platit za ní, když integrovaná grafika Intel zvládne vše, co běžný člověk potřebuje. U silných PC, kde by z hlediska spotřeby a využitelnosti měla podobná technologie smysl, fungovat ale Optimus nemůže. Ve čtyřjádrových nebo šestijádrových procesorech Core i7 (s výjimkou přeznačených dvoujádrových Core i5 na Core i7) žádná integrovaná grafika, na kterou by se dalo přepínat, není, a tak tam Optimus fungovat nemůže.
Za druhé, reálně je stejně funkční a účinné klasické přepínání grafik, kdy pokud jde o výdrž na baterii, jede notebook na integrovanou grafiku, pokud jej dáme na elektriku, jede na dedikovanou grafiku a bezvadně to funguje i s ATI, jak vám velmi brzy předvedeme v recenzi jednoho velmi zajímavého notebooku. I tento systém umožňuje, přepnout ručně jakou grafiku chcete využívat, zabráníte tak tomu, aby vám zbytečně vyžírala třeba při videu automaticky dedikovaná grafika baterii, když stejnou úlohu zvládne integrovaná s nižší spotřebou. A tak dále.
Každopádně jako technologie je to dobré a jistě se to časem podaří odladit a určitě to má budoucnost. Ale rádi bychom něco podobného viděli hlavně na desktopech a výkonných NB, kde by to mělo z hlediska spotřeby čipů největší přínos. S rozvojem procesorů s Integrovanými grafikami se jistě podobných technologií dočkáme. Mnozí se k mému překvapení divili, že AMD-ATI nepřišlo hned s nějakou odpovědí na NV Optimus, ale ti inteligentnější s větším přehledem ví, že AMD-ATI s tím nepřišlo ze dvou základních důvodů.
Tím prvním je, že současné mobilní, ale i desktopové grafiky ATI Radeon HD 5000 žerou v klidu tak málo, že podobnou berličku pro prodeje nutně nepotřebují. Kromě toho se AMD-ATI nemusí bát o prodeje svých grafik v žádném segmentu. Na rozdíl od grafik NVIDIA, které se výkonem a s tím související spotřebou nemohou dnes s HD 5000 na desktopu ani v mobilním segmentu měřit. Druhým a tím hlavním důvodem (protože nižší spotřebu s využitím podobné technologie můžou mít i systémy s HD 5000) je, že AMD na rozdíl od NVIDIA prodává i procesory! AMD ale logicky nebude podporovat prodeje Core i3/5 procesorů na úkor svých Athlon/Turion/Phenom II modelů. AMD dnes, pokud vím, nemá na trhu žádný procesor s Integrovanou grafikou, a tak by pro AMD uvedení této technologie nyní bylo kontraproduktivní. Že ale podobnou technologii má a chystá ji na uvedení je více než jasné, protože příští rok začne ve všech segmentech s prodejem procesorů, které budou mít grafické jádro (FUSION). Lze tedy předpokládat, že AMD-ATI uvede podobnou technologii, dopracovanou tak, aby pracovala i s Intel čipy a pravděpodobně jak na mobilní, tak desktopové platformě. Stejně tak nepochybuji o tom, že Optimus může fungovat i na AMD, pokud AMD uvede na trh procesory s integrovanými grafikami, na které lze přepínat. Proto dnes ani NVIDIA Optimus nemůže na AMD platformě pracovat.
Nedělejme tedy z podobných technologií vědu. Upřímně řečeno, po nepříliš vydařených pokusech o přepínání na integrované grafiky v čipsetech, buďme rádi, že se něco skutečně použitelného blíží, i když současný stav má k tomu skutečně pořádnému využití stále daleko. Na druhou stranu přemýšlím, zda není lepší postavit tu klasickou grafickou kartu tak, aby měla v klidu a nízké zátěži tak malou spotřebu, že by nemělo smysl si s nějakými přepínacími technologiemi komplikovat život …
jak to tak vidím, tak nVidioti by měli koupit (nebo se dohodnout na velmi úzké spolupráci) Viu a společně se starat o low end maximálně dostačující na 1080p video....bo "schopnosti" by k tomu měly Ale třeba se tak s Tegrou stane, pokud to tedy nebudou odsouvat tak dlouho, než ztratí i tenhle trh...
ma smysl delat dedikovane grafiky tak aby meli pri nizke zatezi minimalni odber, to je spravna cesta, bez berlicek a dalsich cipu navic, ale cim vic cipu tim vic adidas ;), na letacku to bude vypadat dobre a tak zakaznik nejakou tu tisicovku navic zkousne ;)
...ono ale otázka znie: Je vôbec možné aby mala dedikovaná grafika tak extrémne nízku spotrebu, ako bude mať Fusion??? Ja si myslím, že všetko je možné, ale inak názorný príklad reality - HD5850 a HD5830 - počet aktívnych SP a spotreba týchto grafík...teda snáď to nemusím ďalej vysvetľovať a je vám jasné načo sa to snažím poukázať
A na jednej strane je blbosť aby boli v PC dve grafiky a naraz bežala vždy len jedna, lenže bude vedieť Fusion spolupracovať s dedikovanou grafikou a to či už pri hrách, tak i pri tom hlavnom načo Fusion je - GPGPU, tak rozhodne to na škodu nebude
PS: Keby tak spravili nový Acer Ferrari, ktorý by vyzeral tak krásne ako ten posledný, ale mal by nejaký najvýkonnejší Fusion určený do "NEO 3", k tomu ešte nejaký slabší nový dedikovaný Radeon, výkonnú baterku s >10h výdržou(o tom môžem asi snívať, pretože na tomto všetci jak banda ******* šetria ako na niečom najnepodstatnejšom, pričom ja som názoru, že je to to najdôležitejšie...veď načo mi je super výkonný noťas, keď ho mám akurát tak na okrasu, keď sa vybije baterka...) a s výkonným SSD!!! Ako viem, že takéhoto noťasu sa asi nedožijem, ale taký by som vyvážil zlatom
spoluprace fusionu s dedikovanou kartou je blbost. to je jako kdyby si k hd5870 dal do crossfire hd5650. az na to ze jak vyjde fusion, tak tu muze byt klidne karta 4x vykonnejsi nez hd5870...vykon ti to nezvysi teda o nic, spise naopak klidne snizi, protoze nejakej vykon spotrebujes i na domluvu tech gpu s tim gpgpu je to pak uplne to stejne...
Kto povedal, že to musí fungovať tak, ako aktuálne funguje CF a SLI, teda že pri dvoch GPU počíta každá každý druhý obrázok, no čo keby Fusion počítal iba nejakú grafickú časť(ako napr. niektorý si kupujú sekundárnu grafiku na PhysX, aj keď majú prvú Nvidiu...samozrejme Fusion PhysX pravdepodobne nebude vedieť počítať, ale nikdy nevieš čo bude) a tak isto pri GPGPU predsa nemusí Fusion nemusí počítať 50% operácii...jednoducho nemôžeš sa nato takto pozerať a kľudne sa môže stať, že Fusion bude vedieť spolupracovať i s veľmi výkonnými grafikami Veď toto je predsa jedna z hlavných myšlienok aj pri Hydre, aj keď zatiaľ to tak nefunguje, no všetko sa môže zmeniť zo dňa na deň...každopádne to čo si mi povedal je mi plne jasné, že to tak funguje aktuálne, ale i blízka budúcnosť je vo hviezdach a všetko sa môže razantne zmeniť
ja nerikam ze musi pocitat 50% operaci. tolik operaci ani zdaleka pocitat nebude...spis sotva 5%, ale nakej vykon padne vzdycky na rezii tech grafik...
Vezmi si aké sú aktuálne grafiky v 12" noťasoch a chceš mi povedať, že grafika so 400SP bude mať tak 5% vplyv na výkon...v 12" noťasi sotva nájdeš dedikovanú grafiku s 400SP, takže tam to bude mať určite slušný prínos ;)
Také si myslím, že AMD nemá v současné době potřebu uvádět nějakou technologii podobnou NV Optimus, protože její grafiky mají oproti NV mizivou (čti nižší) spotřebu. Naopak pro budoucí grafiky by tato technologie mohla znamenat třeba i levnější vývoj, při kterém by AMD nemusela ladit čip na co nejnižší spotřebu v klidu, protože by systém jel na integrovanou grafiku. Ovšem když se AMD podařilo tak skvěle optimalizovat řadu 5000 nevidím důvod, proč by to nemělo jít i v budoucnu s novějšími řadami.
Pouze registrovaní uživatelé mohou přidat komentář!