NVIDIA julkisti eilen illlalla uudet GeForce RTX 20 -sarjan näytönohjaimet. Keynote-puheessaan yhtiön toimitusjohtaja Jensen Huang keskittyi suurimman osaa aikaa esittelemään Turing-arkkitehtuurin RT core -ydinten mahdollistamia reaaliaikaisia säteenseurantaefektejä käytännössä.
Huangin keynote-puheesta jäi kuitenkin monen mielestä uupumaan jotain: suorituskykylukemat. NVIDIA ei julkaissut yhdenkään uuden näytönohjaimen suorituskykylukemia nykyisiä näytönohjaimia vastaan, vaan Huang tyytyi toteamaan näytönohjainten olevan kymmenen kertaa Pascal-sukupolvea nopeampia – kunhan testi käyttää hyväkseen sekä RT core-yksikköä että Tensor-ytimiä.
Saksalainen PC Games & Hardware tarjoilee nyt yleisölle ensimmäistä kertaa oikeita suorituskykylukemia uuden malliston lippulaivanäytönohjaimella, GeForce RTX 2080 Ti:llä. Sivusto kuvasi Gamescom-messuilla kameralla pätkän Shadow of the Tomb Raider -pelistä, jossa oli säteenseurantaefektit käytössä. Ruudunpäivitysnopeus oli pätkän alussa 60 – 75 FPS:n välimaastossa, mutta kun valaistusefektejä oli ruudulla enemmän, oli ruudunpäivitysnopeus suuren osan testistä 30 – 40 FPS:n välimaastossa.
Testi ajettiin FullHD- eli 1920×1080-resoluutiolla, mutta tulos ei ole vertailukelpoinen minkään muiden mahdollisten Shadow of the Tomb Raider -testien kanssa säteenseurantaefektien ja keskeneräisen pelin vuoksi. Testistä ei kannata vielä vetää johtopäätöksiä lopullisen version suorituskyvystä, sillä pelin kehittäjät ovat varmistaneet säteenseurantaefektien tulevan peliin vasta ilmestymisen jälkeen tarkemmin määrittelemättömänä ajankohtana julkaistavana päivityksenä.
Lähde: PC Games & Hardware
Oliskohan tämä Rtx2080 suunnilleen siellä Gtx1080Ti tienoilla tai aavistuksen nopeampikin ilman DLSS.
Mutta tuolla DLSS jos tälläsiä nopeuksia saa niin oikein hyvältä vaikuttaisi.
Tuo on vokselimoottori, eikä pyöräytä ensimmäistäkään vektoria yhtään missään, joten koko sm-potku on pyhitetty hyvin simppelille säteenseurannalle.
Niin, ja? Ei siihen mitään erikoistunutta yksikköä tarvita että niitä laskuja voi laskea.
Ei toi tensorcore ainakaan kovin simppeliltä vaikuta,kehittelyynkin meni aikaa mukavasti.
vaikuttaa melkoisen erikoiselta yksiköltä kun tuohon on lukemalla tutustunut
Ei ne tensorit varsinaisesti liity millään tapaa siihen säteenseurantaan, vaan niitä käytetään "valmiin" kuvan jälkikäsittelyyn.
Tensoriytimillä taas ei ole mitään tekemistä RT coren kanssa.
Tensoriytimet kykenevät vain tietyntyyppisiin tekoälylaskennassa hyödyllisiin 4×4-tensorilaskuihin (lisää siitä mitä ne ovat vaikka Tensori – Wikipedia). Sen "TFLOPSit" näyttävät niin isoilta kuin näyttävät koska se osaa niitä yhden tyyppisiä laskuja tehdä pirun nopeaan, mutta muuta se ei sitten osaakaan.
RT core -yksikkö taas laskee vain tiettyjä säteenseurannan laskuja ja on verrattain nopea niissä
CUDA-ytimillä (mitkä on niitä NVIDIAn "normaaleja" laskuyksiköitä) lasketaan sitten kaikkea muuta ja voidaan laskea myös samoja laskuja kuin tensoriytimillä ja RT core -yksiköllä
Kiiitoksia, aina oppii uutta
NVIDIA releases some RTX 2080 performance numbers and some info on DLSS
DLSS käytössä: We've seen some game demos of the same game running on a 1080 Ti and the other on the 2080 Ti, the performance was often doubled with close to the same image quality.
Mielenkiintoista nähdä minkälainen ero kuvanlaadussa on DLSS päällä, mitään suttua en kyllä ala katsomaan.
4K noin +50% verrattuna Pascaliin (1080 vs 2080)!
DLSS tukevissa peleissä ~2x FPS.
Ark:Survival Evolved (UE4) 4K ja esim. jos Gtx1080:lla pyörii ~60fps, niin Rtx2080+DLSS pyörii samoilla asetuksilla ~140fps, siis 3840×2160.
Tuossa Guru3d jutussa myöskin sanotaan että
"DLSS is not game specific, and in the future should work on most game titles."
Lupaavalta kuulostaa.
Tarkempi kuva.
Ei toi hilbert ainakaan puusilmä ole ollut, jos hän toteaa että on lähes sama kuvanlaatu niin ei se kovin pahalta voi silloin näyttää.
ja mikä parasta niin
DLSS is not game specific, and in the future should work on most game titles.
Jos tuosta RTX kortien ei stellaarisesta suorituskyvystä alkaa tulla yleinen urputustrendi niin Nvidialla voi tulla houkutus pelleillä sen Tensorcore upscaling ominaisuuden kanssa kun sillä homman saa näyttämään paremmalta kun vajaa 60FPS 1080 tarkuudella näyttää pahalta mutta jos sen tekoäly skaalaakin 1440 tai 4K tarkuudelle se vajaa 60FPS ei enää näytäkkään niin pahalta, olettaen että nuo Tensorcoret pystyy tekemään sen ylösskalauksen ilman merkittävää eroa FPS lukemassa.
No ei vaan nimenomaan vaatii tuen erikseen, NVIDIA julkaisi ihan jopa listan peleistä jotka sitä tulevat tukemaan NVIDIA RTX Platform Brings Real-Time Ray Tracing and AI to Barrage of Blockbuster Games
edit:
NVIDIA julkaisi GeForce RTX 2080:n suorituskykyvertailun GTX 1080:een – io-tech.fi
Digital Foundryn Richard Leadbetter:
"In its demo, Nvidia compares DLSS to standard UE4 temporal anti-aliasing. Based on the subjective eyeballing of three DF staff members, we'd say that based on the Infiltrator demo at least, Nvidia gets pretty close in achieving comparable quality here. Close-up head-to-heads revealed a minuscule amount of shimmer on the DLSS side but overall, the demo was rather impressive. That said, full judgement will need to be reserved for actual games where the dynamic, ever-changing nature of any given title may prove more challenging to process effectively."
https://www.eurogamer.net/articles/digitalfoundry-2018-nvidia-reveals-rtx-2080-benchmarks
Yhteen aikaisempaan puhujaan liityen
”Nyt jos on saatu 4K suorituskyky selkeästi edellistä sukupolvea paremmaksi, niin markkinoita on pelaajapuolella heti.”
Kysymys
Mikä on pahin pullonkaula GTX 1080 Ti kortin 4K FPS lukemille kun jos se on kortin muistien nopeus/kaista niin tuo RTX 2080 Ti parantaa ilmanmuuta merkittävästi 4K FPS lukemia koska se antaa selvästi enempi muistikaistaa.
Tuossa vaan toteaa että tulevaisuudessa pitäisi toimia suurimmassa osaa peleistä.
Toi lista peleistä ei ole kuitenkaan lopullinen,niitä pelejä tulee sitten lisää kun mennään tässä aikaa etiäpäin.
Nividian kirjoituksissakin viitataan että lisää DLSS tukevia pelejä on tulossa.
Games that will use DLSS include the following, with more to come.
Totta kai tulee lisää, pointti oli että se vaatii erikseen tuen peliltä (tai vaihtoehtoisesti nvidialta pelille) toisin kuin pasteamasi teksti väitti – muuten se toimisi kaikilla peleillä.
:kippis:
Guru3d:ltä : DLSS is not game specific, and in the future should work on most game titles.
Aivan mahtavaa
Guru3D:llä on väärää tietoa ja vielä puhuvat ristiriitaisesti tuossa. DLSS vaatii erikseen tuen joko peliltä ko. ominaisuudelle tai NVIDIAlta ko. pelille, se on nimenomaan pelispesifinen, muutenhan se toimisi kaikilla.
Floppi. 1080Ti hoitaa asiansa siihen saakka kun tulee parempaa tekniikkaa. Vitun kalliskin tämä säkki rtx
Kyllähän ne varmasti ajetaankin rinnan, mutta jos tungetaan RT-ytimet aivan tukkoon säteenseurantamatskulla, niin siellä sitten odottelee tyhjänpanttina muu GPU tämän valmistumista. Säteenseuranta kyllä myös rinnakkaistuu rajattomasti, joten olisiko mahdollista käyttää tälläisessä tilanteessa sitten tyhjänpanttina odottelevia cuda-ytimiä apuna loppumatskun valmiiksisaamiseen? En osaa sanoa.
Titan V:ssä on hiukan enemmän tensor-ytimiä (640 vs 576), mutta flopseissa mitattuna mennään aikalailla samoissa 2080ti:n kanssa. Taisi olla jopa inasen korkeammat nuo 2080ti:n ilmoitetut tensor-flopsit.
Oma arvio tuosta nopeus järjestyksestä on tämä ilman DLLS.
Rtx 2080ti
Titan V
Rtx 2080
Gtx 1080ti
Rtx 2070
Gtx 1080
Hankala tommosesta on mitään sanoa kun uutta teknologiaa joka ei ole valmista viellä ja tomb raideri ei ole edes valmis peli.
Minä kyllä mietin vähän tätä asiaa kun ihmiset jotka ovat olleet ekoissa testeissä näitten näytön ohjaimien kanssa sanoivat että missään pelissä ei ole ollut FPS laskuria ja kellekkään ei ole viellä jaettu testaus versioita näytönohjaimista joten mistä nämä numerot on revitty.
Hilbert (DLSS):
It is an algorithm, the setting, in the end, will be available in the NV driver properties with a slider. Currently 2xDLSS equals (roughly) TAA. It's not a 100% perfect supersampling AA technology, but it's pretty good I must say.
Considering you run them on the tensor cores, the shader engine is offloaded. So you're rendering a game with the perf of no AA, as DLSS runs on the tensor cores.
Joo tuo dlss saattaa kyl olla mullistava 4klle. nythän on vedetty esim. bf1 4k ultralla ilman aa:ta jotta saa fps sinne 100 päälle. tosin tuohon en mene sanomaan mitään että parantaako/huonontaako kuvanlaatua tuo dlss. itse en ainakaan huomaa tällä postinmerkin kokosella ruudulla (27") eroa enää 4klla onko aa päällä vai ei.
Itse jätän lopullisen tuomion siihen kun ulkopuoliset pääsee testaamaan, mutta nyt nähdyt, katsotun ja luetun valossa kyllä vahvasti näyttää että tuhnu tulossa.
En nyt ihan ymmärrä… TAA on kumminkin sen verran kevyt toimenpide, että ei luulisi tuolla nopeushyötyjä syntyvän.
Tuo DLSS:n vertaaminen TAA:han nvidian toimesta on omiaan aiheuttamaan hämmennystä, sillä DLSS ei ole pelkkä AA-metodi. Ilmeisesti DLSS on skaalausalgoritmi, joka tuottaa esim. 4k kuvaa alhaisemman resoluution kuvasta (1440p tms) kuvasta siten että AI generoi puuttuvat pikselit. AA tapahtuu tässä sivutuotteena.
AI on koulutettava toimimaan kyseisessä ohjelmassa/pelissä yhteistyössä nvidian kanssa, eli on epäselvää kuinka laaja tuki tälle tekniikalle tulee.
Niin minäkin kuvittelen. Ei siitä muuten voida saada tuollaista nopeushyötyä.
DLSS ei ole AA. Kuva renderöidään matalammalla resoluutiolla, ja sitten annetaan AI:n päätellä puuttuvat pikselit. Ei se nyt käy järkeen että se olisi mitenkään verrattavissa johonkin AA ratkaisuun, ainakaan tässä julkistetussa vertailussa: DLSS:n käyttö lisää suorituskykyä, joten järkevin päättely on se, että matalampi resoluutio on siellä alla. Tosin ei noita asetuksia ole muutenkaan kerrottu, ehkä nuo perusasetukset käytti jotain AA:ta… en tosin usko, muuten nuo palkit ei käy järkeen.
Ominaisuutena tuo voi olla ihan hieno, mutta saa nähdä kuinka pahasti se vaikuttaa itse kuvanlaatuun. TXAA:ta markkinoitiin jonain "tehokkaana AA:na", mutta sahalaidat vaihtui vaan sumuiseen ruutuun. Jos AA on toteutettu hyvin, niin resolution scale + AA voi olla parempi ratkaisu kuin pelkkä natiivi 4K, varsinkin jos ruutuun on jonkin verran etäisyyttä. Joka tapauksessa upsamplattu 4k vs natiivi 4k -vertaukset voi jättää benchmarkeissa suosiolla pois.
Myös ylipäätään se, että noissa nVidian käppyröissä jotain hikistä GTX 1080 Founder's Editionia verrattaan RTX 2080 Founder's Editioniin on myös hämäävää. GTX 1080:aa pystyy vielä aftermarket-ratkaisuilla kellottamaan, RTX 2080 Founder's Editionilla on valmiiksi perusversiota korkeammat kellot ja aiempaa parempi parempi jäähdytys. Villi veikkaus on se, että jos hankkii kunnollisen aftermarket GTX 1080:n ja kellottaa sen, ja tekee saman RTX 2080:n kanssa, niin ero pienenee.
Kaikista viimeisempänä tulee se havainto, että 4K-performanssissa on usemmiten enemmän kyse muistikaistaista kuin flopseista. Lisäksi ihan myös hinnan suhteen pitäisi verrata GTX 1080 Ti -> RTX 2080.
On kyllä semmoinen julkaisu, että kannattaa odottaa kolmannen osapuolen revikoita. Battlefieldin raytrace-efektit lähinnä nauratti, alhaisella resoluutiolla ja fps:llä mennään. Jossain muissa peleissä niitä käytetään ilmeisesti vähän agressiivisemmin, mutta sitten performanssi on luokkaa <60fps @ 1080p. Ei siinä, hienoa että tätä on saatu tehtyä, mutta ei kyllä yhtään jäänyt ainakaan mulle missään vaiheessa sellainen kuva, että tämä mitään muuta ole kuin jotain early-early-access efektejä.
nVidia antoi nuo julkaisuhinnat reippaalla haarukalla. Siihen on syynsä. Ainoa mikä enemmän huolettaa, on se, että uudemmissa peleissä sitten jätetään wanhat sarjat oikein kunnolla sivuosaan… sillähän tuon tehoeron saa helpoiten aikaan.
Itse olen saanut TAA vertauksista sen vaikutelman, että DLSS tuottaa kuvaa, jota ei enää ole syytä antialiasoida. Nvidia insinöörin mukaan AI koulutetaan tehtäväänsä 64x supersämplätyllä materiaalilla. Puhui myös 2xDLSS:stä (tjsp), josta sain käsityksen, että kuva piirretään vanhoin metodein kokonaan ja sitten saadaan AA-efekti tuolla AI-raudalla.
edit: ehkäpä jo ensimmäisissä revikoissa saadaan tähän selvyyttä, jos esim. PUBG tuota tekniikkaa jo tukee.
Luin enemmän ja enemmän oikeassa olet. Luin AI super sampling, mutta ei ihan sitä tarkoittanut, mitä ensimmäisenä ymmärsin 😀
Eli nuo alkuperäiset perustulokset on jollain muulla AA:lla sitten oltava nVidia-vertailussa (hölmöä 4K-resoluutiolla). Samalla käy järkeen myös se, miksi se ei joka pelissä toimi.
Säteen seurantaan on saatu ihan kivasti lisää potkua (lisää on luvattu):tup::
katso liitettä 166951
Videolla esimerkkejä:
Ei siihen ole kyllä tullut yhtään lisää potkua vaan se olemassaoleva kapasiteetti on jaettu videon perusteella vähän järkevämmin. Tuossahan vain yritetään saada alitehoisesta raytracer raudasta irti niin paljon kuin vain silmää huijaamalla pystyy eli optimoimaan se siten, että mitä silmä ei huomaa sitä ei myöskään lasketa.
Myös bugikorjauksilla sanovat parantaneensa suorituskykyä. Ja jos silmänkääntötemput tehty taitavasti niin minulle kyllä kelpaa.
Mukava nähdä että 1080p60fps 2080Ti jutut olikin ihan bullshittiä. :tup:
"Right now (marraskuussa) the Nvidia drivers don't allow you to run compute shaders and ray-tracing shaders in parallel, so I imagine that's the barrier to their planned implementation of doing reflections in screen space, but spawning ray-traced shaders in the cases where SSR would fail because the ray is reflected off screen".
Tällä hetkellä taitaa toimia.
Pelihän on vielä kehitys vaiheessa. Ei Dicen inssi paskaa puhunut.
Kylläpäs tuntuu ottavan hermoon se, ettei se RTX-rauta olekaan 30fps luokassa 1080p resolla pyörivää roskaa vaan ihan oikeasti toimiva, kunhan pahimmat bugit saadaan kalasteltua pois ja optimoidaan hommaa paremmaksi.