Testasimme DLSS-ominaisuutta GeForce RTX 20 -sarjan näytönohjaimilla Battlefield V- ja Metro Exodus -peleissä.

NVIDIAn 418.91-ajureiden myötä GeForce RTX 20 -sarjan näytönohjaimille tuli tarjolle tuki DLSS-reunojenpehmennykselle Battlefield V- sekä Metro Exodus -peliin. Testasimme käytännössä, mitä hyötyä DLSS-tuesta on tällä hetkellä saatavilla eli miten se vaikuttaa suorituskykyyn ja kuvanlaatuun.
Lue artikkeli: Kokeiltua: NVIDIA DLSS-suorituskyky ja -kuvanlaatu
Onko nVidia joskus tehnyt jotain avoimilla metodeilla jos vaihtoehtona on ollut oma nVidia only tapa?
Ei juuri mitään. Megoja/kymmeniä megoja per tuettu peli. Superkompura-treenauksesta tehty datasetti on varsin pieni.
Keksit juuri miksi niitä tensorcoreja siellä on. Koska tekoäly on päivän sana ja dedikoitu kiihdytys tuo etuja kun myydään ammattirautaa.
Ja jotta NVIDIA voi hyötyä massatuotannon eduista, ne ovat siellä myös pelikorteissa. Hillot vedetään Quadroista, mutta niiden valmistusmäärät ovat liian pieniä jotta niille voisi tehdä oman custom-piirin. Sen sijaan cherrypickataan parhaat kalleimman pelikortin piirit ja pistetään niille moninkertainen hinta ja Quadro-tarrat.
NVIDIA olisi voinut yksinkertaisesti kääntää tensorcoret pois päältä pelikorteissa ja leikkiä ettei niitä siellä ole. Mutta sen sijaan katsoivat että hei, mitä me voitais tehdä näillä coreilla niin että niistä olisi iloa myös pelaajille ja saada samalla kilpaluetua lisä-featurella. Vastaus tähän tällä hetkellä on DLSS. Kyynikot voisivat ehkä todeta että kyseessä on keksimällä keksitty käyttötarkoitus raudalle joka joka tapauksessa on mukana piirissä muista syistä…
Kysymykseen kuului.
Miksei kukaan muu ole tehnyt?
Maailmassa on tasan kaksi peli GPU:ta toimittavaa yritystä ja niistä AMD on todennut, että DLSS tuottaa liian paskaa jälkeä, että siihen viitsisi satsata. Tämä lienee riittävä vastaus sinulle.
Etkö juuri itsekin näin todennut? "Mitäs tällä raudalla voisi kuluttajavehkeissä tehdä? – 'Tekoäly' ohjattu reunojenpehmennys!"
Onko AMD oikeasti jossain näin sanonut?
Miksi olisi tehnyt? Iso investointi ja tähän mennessä nähdyn perusteella hyödyt melko vähäisiä.
Markkinajohtajan asemassa nvidialla on vähän enemmän millä mällätä ja tosiaan saavat noille muuten suht turhille tensor coreille edes jotain käyttöä pelikorteissakin.
Ja mitäs noita avoimia on edes vielä olemassakaan? DirectML julkaistaan ilmeisesti vasta joskus keväällä.
AMD dismisses Nvidia’s DLSS for its “image artefacts” and “harsh scaling”
Kyllä minä tuon niin luen, että AMD haukkuu nimenomaan kuvan laatua vaikka väittääkin, että DLSS:n tapainen olisi mahdollista myös AMD:n raudalla
Alkuperäinen kysymykseni ei liittynyt DLSS vaan avoimeen.
eli jos et ole enään kartalla niin katso alhaalta viivattua kohta.
Ja laitatko vielä linkin AMD kommentointiin DLSS?
Älä viitsi viilata pilkkua kun joka ainoa täällä tajuaa tasan tarkkaan mihin viittaat alunperin
Avoimeen vaihtoehtoon(Ei DLSS) jota et tajunnut.
Jep. Tuli sanottua sama asia kahteen kertaan. Eli kun oli päätetty että halutaan piiriin tensorcoreja koska rautakiihdytys ammattirautaan, valistunut arvaukseni on että vaihtoehdot olivat:
– Disabloidaan tensorcoret pelikorteissa.
– Enabloidaan tensorcoret mutta antaa niiden olla, ei käyttöä ellei aja jotain amattipuolen tavaraa. Titan V on käytännössä tämmöinen (eivät tehneet DLSS-tukea sen ajureihin – olisi ilmeisesti mahdollista, mutta vaatisi varmaan lisätyötä)
– Enabloidaan ja keksitään niille jotain tekemistä. Todennäköisesti tämä tapahtui aika myöhään ja coret olisivat joka tapauksessa olleet siellä. Eli kuten totesin, kyynikko voisi sanoa että ensin oli tensorcoret (muista syistä) ja sitten lähdettiin keksimällä keksimään niille jotain tekemistä pelikäytössä jotta markkinointiosastolla olisi lisää pihviä myytäväksi – unique competitive advantagea jne 🙂
Hyvä että kehitys kehittyy ja joku keksii jotain uutta. Nähtäväksi sitten jää miten teknologia kehittyy ajan myötä ja tuleeko siitä näytönohjainten vakiokauraa joka valmistajalta vai jääkö unholaan kun keksitään taas jotain uutta.
Raytracing puolestaan on paljon selvempi nakki – se on tulevaisuudessa ehdottomasti tärkeä juttu ja kunhan tarpeeksi odotellaan, pelit tulevat järjestään käyttämään sitä. Sillä puolella on vain se sama ongelma kuin uusien DirectX-versioiden tuomien herkkujen kanssa. Ei käytetä pohjatasona uutta teknologiaa ennenkuin alkaa olla 100% käyttäjistä ajan tasalla ja sitä ennen jos käytetään, käytetään silleen "no voit tämänkin kääntää päälle mutta koska pitää toimia vanhemmallakin, on vähän puolivillainen". Vieläkin tänä päivänä tehdään DX9 pelejä… tosin DX11+ on sentään jo yleisempi. Ehkä semmoiset viisi vuotta niin alkaa olla säteenseuranta normikauraa. Riippuu hieman siitä mitä seuraavien konsolien kanssa käy – tuleeko ylläri että niihin on ympätty dedikoitua rautaa säteenseurannalle vai ei.
Jos pitää arvata, niin seuraavan sukupolven konsoleiden ei vielä tule dedigoitua raytrasing rautaa. Niiden graffapiiriä ovat jopa 1660ti malleja pienempiä, joten tulisi sama ongelma kuin huhutulla rtx2050 piirillä. Teho ei vain piisaisi.
Avoimeen vaihtoehtoon jolla toteutetaan DLSS:n tapainen efekti eli kuten sanoin viilaat pilkkua. Älä viitsi vastata tähän, koska pääsit osaltani juuri ignoreen. En jaksa katsella yhden asian rautatrolleja.
Tesloista. Quadrojen myynti ei ole kasvanut pitkään aikaan, datacentterit imee tesloja. Mutta muuten pointtisi on oikea. Quadroissa noista RT ytimistä on enemmän hyötyä, jahka ammattisoftat alkavat kunnolla tukemaan niitä nyt kun Optix6 on ulkona.
Toisekseen tottakai nvidia on edes hieman rajoittanut noita geforcen Tensor ytimiään.
Omaan silmään toi näyttää ihan pelkältä blurrifiltteriltä on sitten ihan makuasia tykkääkö terävämmistä tekstuureista vai vähän blurratuista itse ehkä pidin enemmän blurratuista ainakin mitä katsoi noita ei zoomattuja kuvia. 🙂
Linkit poks, tulee 404.
Vedät nyt ihan omia tulkintojasi. NVIDIAn raudasta ei voi tehdä mitään johtopäätöksiä AMDn konsoleihin tekemistä semicustomeista, ei ole mitään geneeristä dedikoitua RT-rautaa vaan on erilaisia tapoja kiihdyttää asiaan liittyviä prosesseja erilaisin rautaratkaisuin jotka voivat viedä hyvin erilaisia määriä tilaa sirulta.
Lisäksi sekä PS4Pron että Xbox One X:n APU-piirit ovat isompia kuin vaikka se TU116, tarkkaa lukua ei tietenkään ole että kuinka suuri osuus tuosta on itse GPUta mutta ottaen huomioon miten pieniä jaguarit ovat en yllättyisi vaikka olisi pelkkä grafiikkaohjaimenkin koko jo isompi
Tuntuis toimivan ainakin foorumin puolella. Linkitetyt tiedostot ei taida tällä hetkellä toimia artikkelin kommenteissa.
Ei ne pelkät säteenjäljityksen törmäystarkastusyksiköt kovin paljoa pinta-alaa vie.
nVidia vaan halusi sinne niiden lisäksi tunkea vielä ne (pelikäytössä turhat) tensoriyksikötkin. nVidia toki käyttää niitä tensoriyksiköitä säteenjäljityksen kohinanvaimennukseen, mutta paremman kohinanvaimennuksen säteenjäljitykseen saa tehtyä ilman niitä, ihan normaalilla shader-koodilla.
Voipi olla että tensoreiden käyttö tuohon tarkoitukseen jäi teorian tasolle, sillä Battlefield ja Metro Exodus käyttää molemmat TAA:ta kohinanvaimennukseen. Unreal Enginestä en tiedä.
Eihän nuo Tensoriytimet ole turhia pelikäytössä, kun niitä käytettään FP16-laskuihin "Rapid packed mathia" tukevissa peleissä.
GTX 1660 TI:n tapauksessa Nvidia poisti Tensoriytimet, mutta jotta Turing-arkkitehtuuriin kuuuluva FP16-tuki säilyi, piiriin lisättiin erilliset FP16-ytimet.
RTX vs GTX 1660 TI:
Tom´s Hardware:
"In TU116 specifically, Nvidia says it replaces Turing’s Tensor cores with 128 dedicated FP16 cores per SM, which allow GeForce GTX 1660 Ti to process half-precision operations at 2x the rate of FP32. The other Turing-based GPUs boast double-rate FP16 as well though, so it’s unclear how GeForce GTX 1660 Ti is unique within its family. More obvious, based on the chart below, is that the 1660 Ti delivers a massive improvement to half-precision throughput compared to GeForce GTX 1060 and its Pascal-based GP106 chip."
RTX-korteissa ei ole erillisiä FP16-ytimiä, vaan kyseiset laskut lasketaan Tensor-ytimillä.
@Sampsa voisi täsmentää tätä artikkeliin, kun tätä ei mielestäni ollut selitetty siinä. Arkkitehtuuriosuudessa oli vain maininta (GTX 1660 TI:ssä) "GeForce RTX 20 -sarjan näytönohjaimista löytyvät RT-ytimet ja ja Tensor-yksiköt on karsittu kokonaan pois."
En yllättyisi vaikka noi "FP16"-ytimet olisi oikeasti tensoriytimiä rampautettuna softalla, toki voi olla ihan erikseen suunniteltuja yksiköitäkin mut mut
Hyvin mahdollista, mutta siltikään tensor-ytimet eivät ole "turhia pelikäytössä".
Sinänsä ovat että NVIDIAlla on kyllä osaamista 2xFP16-nopeuteen ihan normi CUDA-ytimilläkin (Tegra X1:ssä ja GP100:ssa FP32-ytimet hoitavat 2xFP16 (Tai katsantokannasta riippuen 2xFP16-ytimet osaavat myös 1xFP32)
Ok, kuvittelin sen säteeseurannan syövän enemmänkin tilaa… Hyvä tietää!
Mutta sellaista rautaa vaan markkinoille ettei Dlls kaltaista keinottelua tarvita.
Eiköhän Ampera sitten jaksa jo paremmin vähän jokaista peliä kuin Turingit tai Amdeet.
Eli jos oma käsitys DLSS:tä perustuu vielä ensimmäiseen BF5 ja Metro Exoduksen aikaiseen vähän köpöön versioon niin kannattaa päivittää tietämystä, tekniikka on kehittynyt ilmeisen paljon siitä.