Hirdetés

Olcsó élsimítást kínál a DLSS

A nem túl okosan, RTX égisze alá sorolt technika igazából egy SSAA eljárás, egészségesen visszafogva.

A hétfőn bemutatott, új GeForce RTX sorozatnak a sugárkövetésre vonatkozó részét már röviden kielemeztük, de van még egy újdonság, amit az NVIDIA – nem túl logikus módon – az RTX jelző alá sorol, viszont köze nincs a sugárkövetéshez. Ez a DLSS, vagyis a Deep Learning Super-Sampling eljárás, amiről meglehetősen keveset mondott a vállalat, de azért a Gamescomon meg lehetett ismerni a titkokat.

Alapvetően egy prediktív szupermintavételezésről van szó. Utóbbi réginek tekinthető élsimítási eljárás, amit korábban SSAA néven emlegettünk, de bizonyos programokban és meghajtókban még ma is elérhető. A lényege igazából az, hogy minden egyes pixelt többször számol ki, de az eredeti pixelpozícióhoz képest mindig egy kicsit eltolva, majd összemossa a képet. A megoldás amolyan "mindent erőből" elvet alkalmaz, így teljesítményigénye óriási, de képminősége is félelmetesen jó, hiszen például a négyszeres mintavétel alkalmazása gyakorlatilag felér azzal, hogy a Full HD-s képet négyszer számolja ki, vagyis egy kvázi 4K-s eredményt generál. Azért csak kvázi, mert hagyományos értelemben a felbontás nem lesz natív, viszont a pixelpozíciók az átfedés szempontjából annyira változnak, hogy igazából a végeredmény eléggé közel lehet a natív 4K-hoz, ha az adatok összemosása helyett inkább felskálázná a képet egy utófeldolgozásra vonatkozó lépcső.

Az egyetlen probléma az SSAA-val az, hogy nyilván a többszörös mintavétel miatt a feldolgozással járó munka is többszörös lesz, vagyis effektíve egy Full HD-s képet négyszeres SSAA-val számolni hozzávetőleg akkora terhelés, mintha natívan 4K-s kép születne a jelenetről.

Az NVIDIA DLSS eljárása azt veti fel, hogy mindenképpen szükséges-e minden elemét a képnek többszörösen mintavételezni? Ez egy jó kérdés, hiszen az SSAA-nak nagy előnye, hogy nem csak a "recés éleket" kezeli, de ugyanakkor ezek látszanak igazán, tehát az aliasing probléma ugyan a felületeket fedő egyes shadereken is jelen lehet, de nem annyira bántó módon, mintha egy geometriai alakzat élét vizsgálnánk. Ezzel persze nem igazán lehet úgymond sebességkímélő módon bármit is kezdeni, ha valaki nagyon maximalista, használjon SSAA-t, vagy ott vannak a különböző szuperfelbontásra vonatkozó implementációk a meghajtókban, de ezeknek pokoli ára lesz a teljesítményt tekintve, noha az abszolút képminőségben tényleg verhetetlenek.

A DLSS inkább egy újabb, arany középutat kereső megoldás a sok közül. Az elgondolás alapja az, hogy a GPU-ban található tensor magok megkeresik azokat a részeket a készülő képkockán, amelyeknél az aliasing probléma erősen látszana, és ezekre alkalmaznak többszörös mintavételt, vagyis az SSAA-hoz hasonlóan, a kijelölt területekre vonatkozóan számolnak több pixelt, méghozzá az eredeti pixelpozícióhoz képest mindig egy kicsit eltolva, ahogy az eredeti eljárás működik. Ezt kétféle módon lehet használni. Egyrészt a natív felbontás mellé, vagyis például egy 4K-s képre még lefuthat egy DLSS eljárás, és akkor ennek a képnek az egyes részei – a mintavételtől függően – még nagyobb felbontáson kerülnének leképezésre. Ilyenkor a DLSS eljárás lassít valamennyit, hiszen nyilván többletszámítás történik, ahhoz az állapothoz képest, mintha le sem futna, de messze nem annyit esik a sebesség, mintha hagyományos SSAA lenne alkalmazva. Eközben pedig a képminőséget hátrány csak olyan helyeken éri, amelyek a gyakorlatban nem vehetők igazán észre.

A másik opció az alacsonyabb részletességgel történő leképezés, méghozzá úgy, hogy a kép kritikus részeit a DLSS eljárás feljavítja, és a végeredmény 4K-ban lenne kitéve a kijelzőre. Itt már a DLSS eljárás gyorsít a natív 4K-s számításhoz viszonyítva, hiszen csak az aliasing probléma szempontjából lényeges képi területek lennének natívan számolva. Ez amolyan kvázi 4K-s eredmény lenne. A paraméterezéstől viszonylag sok függ, hiszen ahogy megvan a hardver számára, hogy hol érdemes többletszámítást végezni, ott lehet kevés vagy sok mintát is venni, tehát a teljesítmény igen széles skálán konfigurálható. Opció a temporális, előző képkockáról származó adatok felhasználása is, amivel még kevésbé lesz megterhelő a számítás.

A DLSS eljáráshoz az kell, hogy a fejlesztők az ehhez tartozó környezeten keresztül tréninggeljenek egy, az adott játékukhoz használható neuronhálót. Itt minden játékhoz másik szükséges, továbbá ahogy új tartalom kerül be, rögtön újra is kell kezdeni a tréninget, mivel a lementett neuronháló alapján lesz képes eldönteni a hardver, hogy a kép mely területeit kell máshogy kezelni. A többi munka igazából elenyésző, hiszen alapvetően egy SSAA az egész, amit csak megfelelően kell paraméterezni. A tréninghez az NVIDIA a DGX rendszereit ajánlja, de ha erre nincs pénz, akkor át tudják vállalni ezt a szakaszt, ha a fejlesztő hajlandó biztosítani számukra a kiadás előtt álló program nyers tartalmát.

A DLSS egyébként általánosan működhetne minden alkalmazással (elvégre tényleg nem sokkal több az SSAA-nál), de nem automatikusan, mivel az adott programhoz mindenképpen tréningelni kell egy neuronhálót, így szükség van az egyes alkalmazások összes grafikai tartalmára. Ha ennek átadásától az adott fejlesztő elzárkózik, akkor nem igazán lehet mit tenni. Ami lényeges, hogy a DLSS kifejezetten hasznos a sugárkövetéshez, hiszen utóbbinál rendkívül kritikus, hogy minél kevesebb sugárral kelljen számolni, márpedig ennek a legjobb módja a felbontás csökkentése. DLSS-sel viszont az adott kép kritikus részeit megfelelően magas felbontással lehet számolni, a többi részen pedig élvezni lehet a kevés sugár általi teljesítményelőnyt.


[+]

Érkezik új GeForce Experience is, ami igazából az Anselre gyúr. Ezen belül is az Ansel RT jelenik meg. Itt lényegében ugyanúgy a DirectX Raytracingről van szó, csak amíg valós időben a sugarak száma igen korlátozott, addig Anselben megsokszorozódnak, ami nyilván a teljesítményt jól leépíti, de csak képmentésre kell, nem pedig játékra, tehát komoly gond ebből nem lesz. Emellett jönnek különböző szűrők, illetve az AI felbontásnövelés is.

Az NVIDIA teljesítményt is közölt a GeForce RTX 2080-ról, amit a GeForce GTX 1080-hoz hasonlítottak. 4K-s felbontással előbbi 30-60%-kal gyorsabb, de azt érdemes megjegyezni, hogy az NVIDIA több helyen is bekapcsolta a HDR-t, ami a Pascal architektúra mumusának számít, akár 10%-kal is lassabb lehet a feldolgozása ebben a módban a normál leképezéshez képest, miközben nem tudjuk, hogy a Turing javította-e a HDR-re vonatkozó teljesítményesést. DLSS eredmény is van a GeForce RTX 2080-ra, de ez az összehasonlítás nem egységes, ugyanis enélkül a korábbi generációs hardver sokkal többet számol, így természetes, hogy a különbség nő.


[+]

A GeForce RTX 2080 esetében a nagy kérdés a GeForce GTX 1080 Ti elleni eredmény, hiszen a sima 1080-hoz képest 45%-os átlagos előnyt tud felmutatni, miközben az ára majdnem dupla annyi, így a legközelebbi ellenfele a még szintén olcsóbb 1080 Ti lesz. Az NVIDIA grafikonja így nem fest túl jó képet erről, de egyelőre ezzel nem érdemes foglalkozni, mert nincs adat a tesztgépről, illetve a beállításokról, szóval érdemes megvárni a tényleges teszteket.

Azóta történt

Előzmények

Hirdetés