Vélemény: a konzolok csapdájában az AMD?

Az AMD közel három éve rántotta le a leplet az első GCN mikroarchitektúrán alapuló, Tahiti kódnevű grafikus processzoráról, mely először a Radeon HD 7970-en kapott helyet. Bemutatását követően a GCN és az arra épülő GPU-k, illetve grafikus kártyák sikeresek voltak, bár az időközben befutott NVIDIA Kepler közel tudott férkőzni hozzájuk, amivel egy viszonylag kiegyenlített adok-kapok alakult ki a két nagy rivális között. Mindez hosszú hónapokig tartott, miközben napvilágot látott a hír, miszerint a Microsoft és a Sony legújabb konzolja egyaránt AMD központi egységet kap, melyben a grafikus processzor szerepét egy, az aktuális PC-s Radeon GPU generációhoz nagyon hasonló, GCN-alapú megoldás fogja ellátni.


Nehéz választást szül a hasonló APU

Mindez pénzügyi szempontból talán nem is jöhetett volna jobbkor az AMD-nek, ugyanis ezzel néhány évre egy relatíve biztos, kiszámítható bevételi forrásra tettek szert. Emellett szorosabbra fűzhették első számú piacuk, a PC és a konzolok kapcsolatát, hisz az Xbox One és a PlayStation 4 a Jaguar x86-os CPU-magok mellé a már említett GCN-alapú grafikus egységet kapta meg, ami nagyban megkönnyítheti az átjárást az egyes platformok között. Ettől az AMD azt remélte/reméli, hogy a konzolról átportolt játékok majd jobban teljesítenek a GCN-alapú grafikus kártyákkal szerelt masinákon. Ezt követően pár hónappal később a vállalat bejelentette az alacsony szinten programozható Mantle API-t, mely PC-ben is konzol stílusú hozzáférést hivatott biztosítani. A két lépés között természetesen számos összefüggés van, ezeket korábban már kiveséztünk.

Ez idáig még éppen jól hangozhat, ugyanakkor a konzolokkal való szoros kapcsolat és a Mantle egyben meg is kötötte a tervezők kezét. Az alacsony szintű grafikus API-k kedvezőtlen mellékhatásai ugyanis könnyen a felszínre törhetnek, ha a korábban optimalizált mikroarchitektúra kissé módosításra kerül. Ahogy közelmúltban megjelent írásunkban említettük, a Radeon R9 285 esetében már mindez meg is mutatta magát.

Ez alapján az AMD-nek nincs túl sok választása. A GCN komolyabb áttervezése nélkül nehéz lenne jelentősebbet előrelépni, ráadásul azzal borulna a konzolokkal való szoros rokonság, illetve a Mantle is megsínylené mindezt. Jelen helyzetben csak egy több szempontból is kedvezőbb gyártástechnológia javíthatna az AMD GPU-k nyers számítási teljesítményén és energiahatékonyságán, ugyanakkor a TSMC 20 nm-es, kisméretű SoC chipekre kihegyezett megoldása nem nyújt kellő előrelépést nagy teljesítményű, illetve méretű GPU-k számára ahhoz, hogy megérje a váltás. Az AMD így nem tehet mást, mint vár egy megfelelő gyártástechnológiára, ami kizárásos alapon a TSMC 16 nm-es, illetve esetleg a GlobalFoundries 14 nm-es vagy 20 nm-es fejlesztése lehet. Az említett 14 és 16 nanométeres technológiák érkezéséhez még legalább egy év szükséges, míg a 20 nanométeres átállás továbbra sem biztos, hogy megéri a befektetést.

Egy szó mint száz, a fentiek okán az AMD valamiféle kutyaszorítóba került. Csupán az a kérdés, hogy a helyzet megteremtése mennyire volt tudatos lépés a vállalat részéről? Tény, hogy egy teljesen új, vagy legalábbis jelentősen átalakított mikroarchitektúra megtervezése, majd annak piacra dobása igen tetemes befektetést kíván, melynek megtérülését komolyan számításba kell venni. Ezek alapján reális esély van arra, hogy a vállalat szántszándékkal marad le a GPU-architektúrák fejlesztési versenyében, és ezzel szemben inkább a jóval kisebb befektetést megkívánó szoftveres támogatásra helyezték a hangsúlyt, illetve ha a jövőben elérhetővé válik egy újabb, megfelelő gyártástechnológia, akkor azt majd kihasználják. Már csupán az a kérdés, hogy így hosszútávon hova fognak kilyukadni, hisz mindez némileg kockázatos lépésnek tűnik. Optimális esetben az AMD megoldásai ugyan még jól fognak teljesíteni a konzolról átportolt és/vagy Mantle API-t támogató játékokban, de eközben más területeken szépen lassan lemaradhatnak a konkurencia mögött.


[+]

A lemaradás márpedig az NVIDIA Maxwell mikroarchitektúrás termékeinek felbukkanásával meg is kezdődött, ugyanis a konkurens a Kepler GPU-kal bevetett 28 nm-es csíkszélesség alkalmazása mellett lépett előre közel akkorát, mint azt korábban tették például a 40-ről 28 nm-re váltás esetében. Egyszóval az NVIDIA megfelelően elvégezte a házi feladatot, miszerint mostantól bizonyos generációk esetében még a korábbi csíkszélesség megtartása mellett kell nagyot ugrani. Ennek végeredménye pedig az összes korábbi API-ban vagy épp játékban könnyen megtapasztalható, kimérhető.

A két vállalat meglehetősen eltérő fejlesztési iránya tehát egyre kontrasztosabban rajzolódik ki. Az NVIDIA egyre komolyabban veszi a hatékony energiafelhasználást, aminek nem mellesleg egyre nagyobb létjogosultsága is lesz az általuk megcélzott piacok jelentős részén. Gondoljunk csak a Tegra vonalra, ahol a K1-gyel a Kepler már megvetette lábát, és csak idő kérdése a jóval hatékonyabb, így a pár wattos SoC-okhoz is sokkal jobban passzoló Maxwell debütálása. Ezen felül ott van még ez egyre kisebb és kisebb házakban helyet kapó, zsugorodó méretű PC, ahova nem hogy egy 250-300, de már egy 150 wattos GPU is nehezen passzírozható be, és akkor a notebookokról még nem is beszéltünk. Ezekre a területekre jelenleg az NVIDIA Maxwell a legjobb alternatíva, amin még egy jó API-val is csak igen nehezen tudna változtatni az AMD.

A nagy kérdés tehát az, hogy az AMD-nek hosszútávon mennyire válik majd be az aktuális stratégia. Sajnos nem látunk a vállalat kártyái (vagy inkább lapjai) mögé, így jobb híján csak találgatni tudunk sok kérdést illetően, de jelenleg úgy fest, hogy az AMD hazardírozik. Hogy ennek pusztán anyagi okai vannak, vagy ennyire hisznek abban, hogy az alacsony szinten programozható API-k nagyban kedveznek majd termékeiknek (netán mindkettő), azt egyelőre nem tudjuk megmondani. Ugyanakkor már nem csak az NVIDIA-ra muszáj figyelniük, hisz az Intel keményen jön fel saját integrált grafikus megoldásaival, ezért az AMD-nek már a visszapillantóba is egyre sűrűbben bele kell néznie.

Oliverda

Azóta történt

Előzmények

Hirdetés