
Säteenseuranta on parhaillaan käynnissä olevien Game Developers Conference -messujen kuumin puheenaihe. Tapahtuman yhteydessä on nähty paitsi AMD:n, Microsoftin ja NVIDIAn esityksiä ja teknologioita aiheeseen liittyen, myös ensimmäiset kolmansien osapuolien toteuttamat demot.
Suomalaisosaamista nähtiin jo Remedyn NVIDIAlle tekemässä Northlight-pelimoottoridemossa, mutta lisää on luvassa Futuremarkin suunnalta. Futuremark kertoi GDC:ssä valmistelevansa uutta 3DMark-testiä, joka tulee hyödyntämään DirectX Raytracing -rajapintaa.
Toinen säteenseurantaa oman pelimoottorinsa sisällä esitellyt studio on Epic Games. Yhtiö toteutti Reflections-nimisen Star Wars -aiheisen demon yhteistyössä ILMxLAB:n ja NVIDIAn kanssa käyttäen Microsoftin DXR-rajapintaa ja NVIDIAn RTX-teknologiaa. Peleihin vastaavaa laatua on kuitenkin turha odottaa aivan heti, sillä saavuttaakseen edes 24 FPS:n ruudunpäivitysnopeuden Epic Games joutui turvautumaan järeään DGX Station -tietokoneeseen. DGX Station sisältää neljä Tesla V100 -laskentakorttia, jotka kommunikoivat keskenään NVLink-väylien avulla.
Game Developers Conferencen aikana voitaneen odottaa vielä lisää säteenseurantademoja ainakin Electronic Artsin Seed- ja Frostbite-studioilta sekä Unityltä.
Lähteet: Futuremark, Unreal Engine
Jotta tuo Epicin Star Wars demo pyöri 1920×1080-tarkkuudella edes tuon 24fps, piti hommaan valjastaa DGX Station, jossa 4kpl NVLinkitettyä Tesla V100:sta.
Lähteenä "Cinematic Lighting in Unreal Engine" -luento Unreal Enginen suora lähetys GDC:stä.
NVIDIA käyttää myös GDC:n demokoneina DGX:ä:
Joten varsin kaukana ollaan siitä että tästä ihan pelimaailmaan jotain lystiä saataisiin.
No, Epic esitteli jokunen vuosi sitten Unreal Enginen "ray traced shadows" -ominaisuutta, että pienin askelin lähdetään liikkeelle, mitä peleihin tulee.
Joku tuossa star wars demossa kommentoikin että aina kun kuvakulma vaihtuu niin noi heijastukset ovat pari framea epätarkkoja, laittakaa youtube video pauselle ja frame kerrallaan eteen/taaksepäin kelaus ”,” ja ”.” käyttäen. Täysin sama asia on nähtävissä tuossa futuremarkin demossa myöskin.
Mielummin haluaisin nähdä (kuulla) että peliäänille tehtäisiin kunnon ”raytracing” mallinnukset
Ehkä näkymättömiä kohteita on helpompi piirtää.
Siis onko tämä tosiaan tietokoneella tehty? Aika uskomattoman hienon näköinen 😮
Millä kuvittelit näiden tehtävän? Vahanukeilla? Eiköhän kaikki digitaalinen tehdä tietokoneillta.
Tuo Star Wars -pätkä on huomattavasti vakuuttavampi. Tuntuu ettei nuo Futuremarkin tuotokset ole hirveästi sen näyttävämpiä kuin 10v sitten.
Future Markin demo pyörii perus PC:llä. Tuo Star Wars tarvitsi jonkun Nvidian superkoneen.
Kameralla, näyttelijöillä ja lavasteilla.
On, tosin 24 FPS:n suorituskykyyn tarvittiin DGX Station jossa on neljä Tesla V100:sta NVLinkattuina toisiinsa. Voisi tuonkin oikeastaan mainita uutisessa
Tässä vielä NVIDIAn Tony Tamasi sanomassa tuon asian (kohta 43m 21s):
näyttispiirit tuplaa kokonsa taas kun lisätään rautakiihotustuki tälle. tai sitten erillinen raytracing kortti.
Samaa mieltä. Vuosien varrella on putkahdellut esiin muutamia tuonlaista teknologiaa sisältäviä esittelyjä, mutta ei niistä valitettavasti kukaan pelinkehittäjä ole vielä innostunut.
Johtuu vain siitä ettei pelintekijät viitsi itse nähdä vaivaa. Odottavat valmiita implementointeja. Jotain DirectX 3D Soundia tms. mikä tekisi asian helpoksi. Tämä valitettavasti tekee peleistä samannäköisiä ja kuuloisia, kun kaikki käyttävät samoja enginejä, apeja ja tekniikoita. Mieluusti näkisi aivan erilaisia juttuja peleissä. Vähän niinkuin silloin ennenvanhaan, kun asiat tehtiin itse assylla paukuttamalla suoraan rautaa 🙂
Tätähän tarjotaan sekä AMD:n toimesta TrueAudio Nextillä että NVIDIAn toimesta VRWorksin Audio-paketilla, mutta ei noista kumpaakaan taideta missään käyttää
Tähtiensodan lattia on kuin vesivuodon jäljiltä.. tähtiensotaukkeleiden puvut on vasta vahattu ja kiillotettu. Omiaan lisäämään epärealistisuutta. Ei näin.
Muistuttaa ensimmäisistä peleistä ajalta, kun HDR/bloom tuli mukaan peleihin.
Futuremarkin demossa on niin kamala Depth of Field -efekti, etten pystynyt keskittymään muuhun kuin sen katsomiseen.
Ei ihan hirveästi vakuuta kyllä tuo demojen näyttävyys suhteessa tarvittavaan tehoon. Peli toteutukset taitaa olla aika pitkissä puissa eikä pelaamiseen edelleenkään okeastaan tarvitse DX12 juuri mihinkään.
Mää syyttämässä rajapintaa kun taiteilijoiden näkemykset ei kohtaa omien kanssa :facepalm:
Ei DirectX 12:n suurin juttu ole mitkään "uudet kikat" vaan mahdollisuus hyödyntää koko tietokoneen rautaa selvästi vanhempia rajapintoja tehokkaammin.
Mää selittämässä jotain paskaa kun techdemot ovat tuhnuja ja raskaita eivätkä aiheuta juuri mitään mielenkiintoa asiaa kohtaa. Lisäksi Vulkan on ainoa noista rajapinnoista jolla on selvästi tehot paremmin käytössä DX12 ei ole tarjonnut käytännössä yhtään mitään tähän asti. Joo on DX12 pelejä mutta lähes sama ajaa DX11 modessa jos yleensäkään voi.
Monen muun kohdalla nuo herättävät paljonkin kiinnostusta etenkin tekniseltä kantilta, vaikkei se grafiikka olisikaan Crysis 7 -tasoa. Suuri ellei peräti selvästi suurin osa grafiikan näyttävyydestä on kiinni taiteilijoista, ei rajapinnasta tai käytetyistä kikoista.
Ei se rajapinnan vika ole jos kehittäjät käsittelevät sitä lähinnä checkbox-featurena. Vulkan ei yhtään sen paremmin taio niitä esiin itsestään.
Ei, vaan juurikin noin, sillä, ihan videon nimen mukaankin, tarkoitus oli esitellä kyseisen teknologian mahdollistamia todenmukaisia heijastuksia. Yliampuminen on siis tarkoituksenmukaista. Luin myös videon viesteistä, että kun on säteenseurannasta kyse niin likaisuus vain entisestään lisäisi laskentatehovaatimuksia.
Pidemmän päälle tuollainen jatkuva "tarkentuminen" voisi alkaa häiritä. Ei sillä, hyvä että tulee uutta teknologiaa, mutta ei se nyt ihan tätä päivää vielä ole. Eikä ihan huomistakaan. 🙂
No onhan tuo Star Wars demo nyt hieno, siitä ei pääse mihinkään.
Metro Exodus lienee ensimmäinen "varmistettu" peli johon tämä olisi tulossa. Lupailevat demota gdc:ssä, mutta ainakaan en itse löytänyt 4A gamesin seissiota listoilta(liekkö sitten nvidian kanssa jossain yhdessä).
On hyvä, että uusia ominaisuuksia kehitetään, vaikka nykyrauta ei niille kunnolla taipuisikaan. Mitä taas tulee DX11:sta ja 12:sta, niin siinä on lähinnä 2 asiaa.
1. DX11:sta on paljon työkaluja ja kun MS pelehti windowsien kanssa käyttäjien tahtoa vastaan, niin seiskalla on edelleen yllättävän suuri suosio., joten sitä kannattaa tukea, jos haluaa myyntejä -> DX11.
2. Nvidian rauta ja ajurit on dx11:suhteen ovat yksinkertaisesti erinomaiset.
Pitää tietysti muistaa että näillä työkaluilla tähdätään myös elokuvateollisuuden tarpeisiin, jos pelimoottori voi tehdä raytracing-tarkan scenen 1-2fps nopeudella niin se on jo 100x nopeampi kuin yksikään render-farmi murto-osalla kustannuksista.
..ja arkisempina sovelluksina esim arkkitehtovisuiin joissa raytracingin tuoma realistisuus on suuri etu/välttämättömyys, ja jos kamera-ajojen rendausnopeus nousee luokasta frame per jotain minuutteja luokkaan muutama frame sekunnissa niin tekniikalle alkaa olla käyttöä suunnilleen jokaisessa toimistossa.
4A Games julkaisi viimein oman RTX-aineistonsa.
NVIDIA Reveals Collaboration with 4A Games on RTX Technology at GDC 2018 – 4A Games
Valmista on jo tarjolla, AMD TrueAudio Next ja NVIDIA VRWorks Audio
Oiskos tästä missään suoraan videota, ainakin itellä tuo yuutuubin pakkaus aiheuttaa melkosta mössöä videoon.
Tässä on hyvin tiivistetty, miten homma tulee menemään: Unreal Engine + $60,000 GPU = Amazing, real-time raytraced Star Wars [Updated] – Ars Technica
Uutisessa mainitaan myös Titan V joten olisikohan kehitetty tekniikka saatavilla myös sille myöhemmin tänä vuonna. Parilla Titanilla kulut saisi melkein kymmenesosaan DGX-aseman hinnasta ja teoreettinen laskentakyky tippuisi vain reilulla puolella. Jos rendausfarmin päivitys pitäisi toteuttaa alle 10k€ kustannuksella, niin CPU-pohjaisia ratkaisuja ei kannattaisi periaatteessa harkitakaan – olettaen että GPU-tekniikalla saisi riittävän kattavat shaderit. Tosin missään ei ole tietenkään mainintaa rajoitteista, esim perinteisesti hyvin rajoitetuista tekstuurikoista, joka ilmeisesti johtuu hyvin rajallisesta muistimäärästä per core. Samat muistirajoitteet rajoittavat ilmeisesti myös kaikkia vähääkään monimutkaisempia shadereita.
DICE julkaisi esityksensä ja GDC videon säteenseurannasta Frostbite-pelimoottorille.
Real-time Raytracing for Interactive Global Illumination Workflows – Electronic Arts
https://media.contentapi.ea.com/con…c18-frostbite-interactive-gi-preview-dxr.pptx
GDC Vault – "Real-time Raytracing for Interactive Global Illumination Workflows in Frostbite" & "Shiny Pixels and Beyond: Real-Time Raytracing at SEED" (Presented by NVIDIA)
NVIDIA GameWorks-kanavalla lisää aiheeseen liittyviä GDC-videoita.
Coffee Break: Ray Plus Raster Era Begins | NVIDIA Developer Blog
Tämä pyhä Graalin maljahan kaivettiin PowerVRn toimesta esiin jo vuosikymmenen alussa
Jokainen alaa seurannuthan tuon tietää. Kyse onkin laskentatehosta, jolla ei silloin kovin paljoa saatu aikaan. Lisäksi PowerVR oli pieni tekijä yrittämässä vallankumousta. Nyt on toisin kun isot tekijät eli NVIDIA ja AMD panostavat, ja nähtävästi ainakin NVIDIAn toimesta vieläpä isosti. Jospa se iso nytkähdys kohti Hybrid RT-, sitten RT ja lopulta PT-tulevaisuutta nyt viimein tapahtuisi…
Kyllä se AMD on panostamassa myös säteisiin ja tällä viikolla sieltäkin varmaan kuullaan lisää jo kerrottuijen asioiden lisäksi. Jäänyt vaan ProRender uudistukset nyt näiden nvidia julkaisujen varjoon.
Mutta jos kiinnostaa niin tässä on jotain maistiaista
AMD Radeon ProRender update from SIGGRAPH – AMA : Amd