Hirdetés

A Maxwell is megmarad a Pascal architektúra mellett

Az NVIDIA szempontjából a következő év során a legfőbb kérdés az, hogy az új Pascal architektúra a teljes termékskálát leváltja-e, vagy inkább csak a teljesítménycentrikus területeken lesz bevetve. Erről a megjelenéshez közelebb kerülve egyre több pletyka lát napvilágot, és alapvetően kirajzolódik az az irány, amivel az NVIDIA inkább a biztonságra akar játszani.

Mint ismeretes a Maxwell architektúra egy igen speciális fejlesztés az NVIDIA termékskálájában. A vállalat gondolt egy merészet és úgy döntött, hogy ultramobil elvek szerint tervezi meg a csomagot, ami ugyan radikálisan egyszerűbb ütemezést jelentett, de ezzel rengeteg fogyasztás spórolható meg. Ennek a koncepciónak az előnye, hogy a mai mobil és PC-s játékok főleg grafikai futószalagra építenek, és a grafikai munka relatíve jól kiszámítható, tehát úgymond a jellemző koncepciókra ki lehet gyúrni a hardvert. Hátránya viszont, hogy a jelentősen leegyszerűsített ütemezés miatt a kiszámíthatatlan programkódokban már erősen hátrányos a rendszer viselkedése, így például azokon a területeken, ahol a compute feladatok döntő fontosságú tényezők már hiányozhatnak azok a tranzisztormilliók, amelyeket a tervezők az energiahatékonyság érdekében kivágtak. Ilyen terület például a HPC-piac, illetve a virtuális valóság. Előbbi esetben látszik is a stratégia böjtje, mivel az aktuálisan legerősebb Tesla K80 felújított Kepler architektúrára épülő lapkákat vet be, míg a virtuális valóság szempontjából is figyelmeztető jelzésű az NVIDIA azon ajánlása, amely szerint a fejlesztőknek gondoskodniuk kell arról, hogy a timewarp elé semmiképpen se szoruljon be egy hosszú ideig tartó rajzolási feladat, mert a hardver a beépített tudás hiányában nem tud ezzel a helyzettel mit kezdeni, és virtuális valóságban hatványozottan rossz, ha a következő képkocka lekési a szinkronablakot.

A következő generációs Pascal esetében már kiderült, hogy a rendszert az NVIDIA kevésbé tervezi az ultramobil iránynak megfelelően, mivel gondolni kell a virtuális valóságra, illetve a Kepler már most elavult a Tesla vonalon, vagyis ezt is jó lenne leváltani. Továbbá nem lehet elmenni amellett sem, hogy az új generációs grafikus motorok egyre több compute futószalagot használnak a grafikai futószalagok helyett vagy mellett, aminek a következménye az lesz, hogy az egyes, egyre komplexebb leképezők egyre kevésbé lesznek kiszámíthatóak, így nem lehet rájuk specifikusan kigyúrni a hardvert.

A Pascal az előző bekezdésben taglaltakra alapvetően megoldás lesz, hiszen amit kiszedtek a mérnökök a Maxwellből, azt végre visszapakolják – természetesen némileg fejlesztve. Eddig azonban kérdéses volt, hogy az erre épülő hardverek mekkora területet fednek le. A legfrissebb pletykák szerint az alsóházban marad a Maxwell. Ennek lesz egy új, továbbfejlesztett verziója, amelyet biztosan megkap a következő generációs Tegra SoC. A felsőházba természetesen jön Pascal, első körben legalább két lapkával, de ami igazán kérdéses, hogy a középkategórián belül mi lesz. Erről valószínűleg azért nincs még semmilyen információ, mert az adott generáción belül az ide szánt lapka érkezik a legkésőbb. Természetesen a Maxwell és a Pascal mellett is szólnak érvek és ellenérvek. Többek között egy áttervezett középkategóriás Maxwell, a következő generációs Tegrából áthozva valószínűleg nagyon jó teljesítmény/fogyasztás mutatóval rendelkezne, viszont a Pascal architektúra alkalmas az olyan új irányok lefedésére, mint például a virtuális valóság, ami még úgy is kedvezőbb opció lehet, ha az ehhez szükséges bonyolultabb ütemezésért és preempciós képességekért extra fogyasztással kell fizetni.

Azóta történt

Előzmények

Hirdetés