NVIDIA julkaisi edellispäivänä uudet Ampere-arkkitehtuuriin perustuvat GeForce RTX 30 -sarjan näytönohjaimet. Itse keynote-tilaisuudessa näytönohjaimet ja niiden ominaisuudet esiteltiin lähinnä pintapuolisesti ja nyt yhtiö on vastannut joihinkin kysymyksiin uusista näytönohjaimista Redditissä.
NV_Tim -nimimerkillä Redditissä liikkuva NVIDIAn edustaja on koostanut yhteen postaukseen yhtiön muiden edustajien tiivistetyt vastaukset monien kysymiin kysymyksiin uusista GeForce-näytönohjaimista. Vastaukset antavat uutta tietoa myös arkkitehtuurin sisäisitä piirteistä, mutta paljon pureksittavaa on jäämässä myöhemmin julkaistavaan whitepaper-julkaisuun sekä näytönohjainten arvosteluihin.
NVIDIAn rajusti kasvanut CUDA-ydinten määrä nostatti useita kulmakarvoja ja Tony Tamasi avasi Ampere-arkkitehtuurissa tehtyjä muutoksia, mitkä johtivat uusiin lukuihin. Turing-arkkitehtuurissa NVIDIAn SM-yksiköt rakentuvat yhteensä neljästä elementistä, joista kussakin on kaksi datapolkua: yksi FP32-CUDA-ytimille ja toinen INT32-ytimille. Amperessa on edelleen samat kaksi datapolkua, mutta nyt toinen poluista voi laskea pelkkien INT32-laskujen sijasta joko INT32- tai FP32-laskuja. Turingin SM-yksikön elementit kykenivät siis yhdessä kellojaksossa 16 FP32- ja 16 INT32-laskuun, kun Amperen kykenevät joko 32 FP32-laskuun tai 16 FP32- ja 16 INT32-laskuun. NVIDIA laskee CUDA-ytimiksi vain FP32:een kykenevät yksiköt, minkä myötä niiden määrä siruissa on nyt kaksinkertaistunut. Tulemme pureutumaan aiheeseen tarkemmin Ampere-arkkitehtuuria käsittelevässä artikkelissamme myöhemmin.
Moni on ihmetellyt myös RTX 3080:n ”vain” 10 gigatavun muistia, etenkin kun RTX 3090 -mallissa sitä on peräti 24 Gt. NVIDIAn näkemyksen mukaan 10 Gt on riittävä nykyisille ja tuleville peleille 4K-resoluutiolle asti. Yhtiön mukaan useimmat pelit käyttäisivät todellisuudessa vain 4 – 6 Gt muistia kyseisellä resoluutiolla. Myös muistin hinnalla on ollut luonnollisesti merkitystä, eikä näytönohjainta olisi voitu julkaista samaan hintaan suuremmalla muistimäärällä.
NVIDIA varmisti lisäksi, että heidän käyttämänsä HDMI 2.1 -linkki tukee täyttä 48 Gbps:n nopeutta sekä Display Stream Compression -teknologiaa. Ne riittävät parhaimmillaan 8K-resoluution 60 hertsin virkistystaajuudella ja 12-bittisillä HDR-väreillä ilman kroman alinäytteistystä. Videonpakkauksesta Amperessa huolehtii sama 7. sukupolven NVENC-versio, kuin Turingeissa, mutta purkupuolesta on vastuussa uusi 5. sukupolven NVDEC, mihin on lisätty tuki AV1-purulle.
Väylänopeuksiin liittyvä ihmetyksen aihe on PCI Expressin nopeus, tai pikemminkin rajoittaako PCI Express 3.0 uusia näytönohjaimia. NVIDIAn edustajan mukaan suorituskykyero PCIe 3.0:n ja 4.0:n välillä on useimmiten vain muutamia prosentteja ja käytettävän prosessorin suorituskyvyn merkitsevän enemmän, kuin näytönohjaimen väylän nopeuden.
NVIDIAn eksoottinen jäähdytysratkaisu RTX 3080- ja RTX 3090 -malleissa on myös herättänyt paljon keskustelua ja kysymyksiä. NVIDIAn mukaan jäähdytys tulee toimimaan normaalisti kotelossa kuin kotelossa riippumatta näytönohjaimen varsinaisesta asennosta, kunhan kotelosta löytyy tuuletin syöttämään näytönohjaimelle viileää ilmaa ja toinen puhaltamaan kuumaa ilmaa ulos kotelosta, kun näytönohjaimen taaempi tuuletin on ensin imenyt sen jäähdytysrivaston läpi. RTX 3090:n ”The Silencer” -coolerin kerrotaan olevan hiljaisempi kuin Titan RTX:n tai RTX 2080 Superin Founders Edition -versiot, mutta yhtiö ei lähtenyt vertaamaan sitä näytönohjainvalmistajien omiin jäähdytysratkaisuihin.
RTX IO:n osalta yhtiö varmisti, että teknologia tulee olemaan tuettu vain Windows 10 -käyttöjärjestelmällä ja vaativan NVMe-teknologiaan perustuvan SSD-aseman. Syykin tälle on selvä, sillä RTX IO:n hyödyntämiseen vaadittu DirectStorage-rajapinta on tulossa vain Windows 10 -käyttöjärjestelmille. Lisäksi pelinkehittäjien pitää tukea DirectStorage-rajapintaa erikseen, eikä se ole automaattisesti tuettu kaikissa uusissa peleissä.
NVIDIA Broadcast -sovellus poikkeaa merkittävästi siitä kuvasta, mikä siitä annettiin keynote-lähetyksessä. Sen sijasta, että kyse olisi kilpailijasta esimerkiksi OBS:n streamaussovellukselle, kyse on lisätyökalusta Streamlabsin ja muiden vastaavien tueksi. NVIDIA Broadcastia käytetään välikerroksena, johon voidaan liittää esimerkiksi webbikameran ja mikrofonin sisääntulot erilaisten tekoälypohjaisten efektien, kuten virtuaalisen greenscreenin, käyttöön. Sen jälkeen sovellus luo virtuaalilaitteet, mitä voidaan käyttää lähteenä esimerkiksi Streamlabsissa tai muussa vastaavassa sovelluksessa.
Lähde: Reddit
En oikein tässä vaiheessa jaksa uskoa että 10GB olisi riittävä määrä muistia niille, jotka päivittävät tehokkaampaan näyttikseen noin 5 vuoden välein. Isommat resoluutiot yleistyvät hiljalleen, ja olempa nähnyt övereimmässä tapauksessa raskaasti modatun Skyrimin käyttävän sen 20 gigaa.
Videocardzin tietoon vuotaneiden huhujen mukaan Lenovon tulevissa pakettikoneissa olisi 3070ti, jossa olisi 16gigaa GDDR6:sta. Eli halvemmat chipit laitettu sinne.
Itse oletan, että pelit alkavat siirtymään käyttämään tuota DirectStoragea (RTX IO ja AMD:n vastine), jolloin pakkaamattomien tekstuurien välimuistissa pitämisen sijasta osa näyttömuistista voidaan täyttää pakatulla datalla ja decompressoida tarvittaessa.
Nuo mahdolliset 16/20GB variantit olisivat sitten odottamassa sitä päivää, kun DirectStorage on virallisesti julkaistu, sillä voisi ajatella RTX IO:n hyötyvän suuresta näyttömuistista. 3090 taas julkaistiin suoraan 24GB muistilla, jottei $1600 korttiinsa käyttäneet tule petetyiksi, jos olisi nyt tullut 12GB malli ja myöhemmin sitten 24GB (ja samalla saatiin Titan -ostajakunnalle kortti).
Kyllä tulee varmasti riittämään 10GB tuon 5v ajan eli noin 2-3 sukupolvea. Nvidia varmasti tietää vähän paremmin oikeasta muistinkäytöstä peleissä, sillä monet pelit ja ohjelmat varaa ylimääräistä muistia turhaan.
"Isommat resoluutiot yleistyvät hiljalleen". Painoittaisin tuossa tuota hiljalleen sanaa, sillä 1080p on edelleenkin kaikkein suosituin ja tärkein resoluutio ja 4K sekä 1440p on hyvin harvinaista ja yleensä sellaisten käyttäjien herkkua joilla ei joka näyttis-syklin välein päivitys ole mikään ongelma.
Tuo modattu Skyrim on juurikin niin överi tapaus että sitä ei voi käyttää minään mittarina muistinkäytöstä, kun tekstuurit on monta kertaa isompia kuin vakiopelissä.
Näkisin itse että 1080p/1440p miehet selviävät tuolla 8-10GB muistilla monta vuotta.
4K miehille 10GB voi olla vähän siinä ja siinä. Tuskin mikään peli jää pyörähtämättä, mutta se kovin Ultra-taso voi jäädä väliin jonain päivänä.
Missä tilanteessa tuolla AV1-decooderilla on merkitystä?
Simppelisti ajateltuna 4K-resolla frame bufferiksi riittää alle 2GB. (giga enemmän kuin 1080p).
Kortin muistissa olevat tekstuurit ja muu 3D-data puolestaan on sama resoluutiosta riippumatta.
Tuolleen ajateltuna ei ole niinkään kyse resoluutiosta, vaan tekstuureista ja muusta 3D-shaissesta joka on muistissa samanmoisena näyttötarkkuudesta riippumatta.
Eli kyse on enemmän pelistä kuin näyttötarkkuudesta.
VP9 pakattu video todennäköisesti hiljalleen korvautuu AV1 pakatulla. YouTubessa tuo pitäisi olla jo osassa sisältöä käytössä.
Suoratoistopalveluiden ja muiden video-on-demand palveluiden kasvava datamassa halutaan aina saada puristettua pienempään kokoon, jonka vuoksi tuo AV1 on kehitetty.
Selaimet toistavat videot käyttäen näytönohjaimen rautapurkua mm. H.264, H.265, VP9 ja AV1 formaateille (decoding), kunhan laitteistokiihdytys on käytössä.
data-unfurl="true" data-result-id="77165" data-url="https://en.wikipedia.org/wiki/AV1" data-host="en.wikipedia.org" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
AV1 – Wikipedia
data-onerror="hide-parent"/>
en.wikipedia.org
Aina loppuvat kesken, tämä julkaisu varsinkaan ei ole poikkeus.
Itse näkisin että tolla DirectStorage systeemillä ei ole niin kriittistä sen näyttömuistin kanssa kun sinne muistiin saadaan vaihdettua matskua nopeasti.
Kunhan saisivat sen ensin tukemaan DX12. Käsittämätöntä että peli on jukaistu DX11 tuella.
Huhujen mukaan saatavuus tulee olemaan heikko. Syynä se, että NVidia haluaa odottaa että Samsung saa prosessin saannot kohdalleen.
data-unfurl="true" data-result-id="77175" data-url="https://wccftech.com/report-nvidia-geforce-rtx-30-gpus-to-be-in-short-supply-until-2021/" data-host="wccftech.com" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Report: NVIDIA GeForce RTX 30 GPUS To Be In Short Supply Until 2021
data-onerror="hide-parent"/>
wccftech.com
Mitkä pelit käy edes lähelläkään tuota 10GB vram kulutusta 4k resoluutiolla? Kiinnostaisi tietää. Mitä mä oon katellut niin kyllä siellä 4-6GB tienoilla pyöritään. Jokin lentokonesimulaattori on tietenkin asia erikseen.
Pelit osaa nykyään käyttää muistia, jos sitä on. En usko, että tuo 24GB:kään on turhanpanttina.
Mutta en myöskään tiedä yhtään peliä, joka vaatii yli 8GB mihinkään resoluutioon. Sitä muistia on vaan kiva olla, mutta ei taida olla vaatimuksena missään.
Tuntuu hieman hassulta, että cooleri imee lämpimän ilman katosta alas ja se pitäisi sieltä puskea ulos.
…..voiko näitä jo ennakkotilata jostain?
24GB on 8K-resoluutiota varten. Siihenhän tuota korttia markkinoidaan
esim. Control Can Use Up to 18.5GB of Video Memory
?
Alhaaltahan tuo etummainen tuuletin vetää sen viileän ilman läpi ja puhaltaa ylöspäin. Sieltä sitten cpu coolerin ja takatuulettimen kautta pihalle. Taaempi tuuletin taas vetää alhaalta viileää ilmaa ja puhaltaa sen kortin I/O paneelin kautta pihalle.,
Kysyn nyt täältä teiltä alan ammattilaisilta, että kumpi noista kannattaa ostaa 4k 144hz pelaamiseen, Rtx 3080 vai Rtx 3090?
3090. 3080 ei tule välttämättä riittämään tasaiseen 144FPS:aan 4K-resoluutiolla, ilman että grafiikka-asetuksia pitää karsia.
Kas joo, en tajunnut että 3070 on eri cooleri, eikä kuvissa vain "avattu" tuota kotelointia. Tulkitsin siis sanallisia selityksiä väärän kuvan perusteella, my bad.
Ainakin 2160p resolla päästään useimmissa tämän vuoden tripla A -julkaisuissa aina sinne 10 gigan vram -käyttösuhteeseen. Riippuu myös paljon sitä vrammia kortilta löytyy.
Horizon zero dawn on aika raskas. Kannattaa myös huomata että riippuen paljon Vramia löytyy, ki
Rtx 3090 Hintaa katsoo, niin taitaa ehkä koneeseen riittää tuo 3080. Ei sen tarvitse tykittää tuota 144hz, esim 90-100fps riittää ihan hyvin, onneksi mun järki sanoo mulle että Rtx 3090 ostaminen olisi hukkaan heitettyä rahaa, en omista 8k näyttöä. Kiitos vastauksesta Escalibur!
Ei sitä pysty julkaisemaan 16gigan muistilla tiputtamatta muistikaistaa. Sen voi julkaista joko 20gigalla ja samalla kaistalla, tai 11-12 gigalla ja korkeammalla muistikaistalla.
En tiedä onko teknisesti toteuttamiskelpoinen ratkaisu mutta @zepi huomauttui aiemmin että teoriassa tuo onnistuisi 4 piiriä normaalisti + 6×2 clamshell tilassa.
Paitsi että tekstuurit eivät ole muistissa "samanmoisena näyttötarkkuudesta riippumatta"
Teksturoinnissa käytetään MIP-mäppäystä, jossa samasta tekstuurista on monta eri versiota sen mukaan, millaista tarkkuutta tekstuurista tarvitaan; Normaalit filtteröinnit toimivat hyvin vain kun alkup. tekstuurin tarkkuus on melko samaa luokkaa kuin filtteröinnin lopputuloksen tarkkuus.
data-unfurl="true" data-result-id="77233" data-url="https://en.wikipedia.org/wiki/Mipmap" data-host="en.wikipedia.org" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Mipmap – Wikipedia
data-onerror="hide-parent"/>
en.wikipedia.org
Pienempää resoluutiota käyttäessä suurimman tarkkuuden versiota tekstuureista ei välttämättä koskaan tarvita joten niitä ei tarvi ladata näyttiksen muistiin.
Eikä siellä ole merkittäviä määriä "muuta 3d-shaissea" kuin tekstuureita. Geometriadatan muistintarve on pikemminkin suuruusluokkaa kymmeniä megatavuja, ei gigatavuja. Ja suurin osa kaikista ylimääräisistä puskureista joita käytetään temppidatalle renderöinnin aikana on kooltaan resoluutioriippuvaista.
Periaatteessa toimisi jos vaan muistiohjain tukee moista järjestelyä. Lisäksi toi ymmärtääkseni tarkoittaa että osa muistista toimisi hitaammin, kuten vaikka tossa uudessa xboxissa jossa myös osa piireistä on isompia kuin toiset. Jos haluat että koko muistiavaruus toimii symmetrisesti samalla nopeudella, niin kaikkien piirien pitää olla samankokoisia, ja se clamshell on käytännössä vain yksi isompi muistipiiri muistiohjaimen näkökulmasta katsottuna. Epäsymmetrinen muistisetuppi tarvitsisi mielellään sitä, että käytetty ohjelma tietää rajoitteet, osioi muistin eri käyttötarkoituksille ja siirtelee aktiivisesti tavaraa siellä ympäriinsä riippuen käyttötarpeesta. En jotenkin usko että kovin moni pelinkehittäjä moiseen pelleilyyn lähtisi mukaan vapaaehtoisesti.
Onhan näitä epäsymmetrisiä konfiguraatioita ollut, esimerkiksi GTX 970.
Kyllä on mipmapit edelleen aktiivisessa käytössä.
EI MIP-mappayksella ole mitään tekemistä sen kanssa että "lasketaan tekstuurista oikea kohta".
Vaan sen kanssa, että se filtteröinnin lopputulos on vaan aivan kuraa jos se tehdään koon erotessa merkittävästi.
Jos tekstuuri on resoluutioltaan pienempi kuin ruudun resoluutio, tekstuuri on hyvin sumea.
Jos tekstuuri on resoluutioltaan suurempi kuin ruudun resoluutio, seuraa pahaa aliasoitumista kun tekstuurista jää välistä pisksleitä käyttämättä
Ja ei, reunojen pehmennykseen käytetävät AA-tekniikat eivät YHTÄÄN korjaa niitä ongelmia jota tulee siitä että tekstuutifillteröinti tehdään aivan erikokoisesta tekstuurista. Se data on jo hukattu siinä vaiheessa kun tekstuurista on jo jätetty samplaamasta väliin menevät pikselit.
Se "Ultra" on vaan sana siellä pelin asetusruudussa.
Ja on vain typeryyttä jos peli mahdollistaa pakottamaan lataamaan sinne kortin muistiin sellaiset mipmap-tasot joita se ei sillä resoluutiolla koskaan tule tarvitsemaan ja ihmiset pitää tätä optiota päällä.
Tällöin peli ei todellisuudessa tarvi sitä muistia paljon vaan typerät käyttäjät pakottavat pelin tuhlaamaan muistia jota se ei koskaan käytä.
Vähän sama kuin säätäisi puolet koneensa keskusmuistista RAM-levyksi eikä koskaan laittaisi sinne RAM-levylle mitään dataa.
"et vaan usko"
Koska olet pihjalla siitä, miten teksturointi toimii.
Niitä pienempiä mipmap-tasoje EI VOI JÄTTÄÄ POIS ilman että kuvaan tulee joko pahoja kuvanlaatuongelmia, TAI että joudutaan käyttämään jotain TODELLA RASKASTA ziljoona samplea/pikseli käyttävää tekstuurifiltteriä.
Ja verrattuna siihen, että olisi pelkästään suurimman resoluution versio, ne mip-mappayksen pienempiresoluutioset tasot lisäävät kokonaistilantarvetta vain 1.33-kertaiseksi.
Toisaalta, jättämällä se suurimman resoluution versio pois tilantarve putoaa KOLMASOSAAN.
Että jos jostain tarvii tinkiä, mistäköhän se tinkiminen kannattaa aloittaa?
Siis kantavana ideana minulla on tässä, ettei ole yhtään peliä, jossa on 3840×2160 tekstuureita (tai 4K tekstuuri on yleensä 4096×4096). Tämä ihan mutulla ja jouduin vähän hakemaan verkosta, kun en taas vähään aikaan ole koodannut pelejä. Tämä löytyi:
data-unfurl="true" data-result-id="77368" data-url="https://www.pcgamer.com/why-are-game-install-sizes-getting-so-big/" data-host="www.pcgamer.com" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Why are game install sizes getting so big?
data-onerror="hide-parent"/>
http://www.pcgamer.com
Siellä oli myös mipmappien käytöstä nykypeleissä, niin kai se on uskottava. Tämä vaan olisi mielestäni laskentayksikön tehtävä, mutta olin väärässä, ja se tehdään vieläkin noin. Myös @Kaotik huomautti asiasta ja joo, viimeeksi koodasin näitä asioita yli 10v sitten. Oletin tässä tapahtuneen edistystä ja ei saisi olettaa.
Tässä kuitenkin tuo PCGamerin jutun pihvi:
Carmack mietti, että koko pelialue voisi olla tyhjä canvas, johon suunnittelija voisi piirtää vapaasti (siis selitteenä Megatexturingille ja siihen, miksi RAGE kiinnosti aikoinaan) :
Talk:MegaTexture – Wikipedia
Tuo idea ja sinun idea kaatuu siihen yksinkertaiseen faktaan, ettei ole vaan tilaa peleissä käyttää noin paljon tekstuureita , noin kovalla laadulla ja noin suurella resoluutiolla. 2K-tekstuurit (siis 2048×2048) vievät PCGamerin laskelmmien mukaan pakkaamattomana 150GB , jos niitä on 9600 pinnalle. Ja usko pois, moderneissa peleissä on yli 9600 pintaa, joskus jopa levelissä. Tätä on taklattu tekstuuripakkauksella ja asseteilla, jotka toistuvat, mutta ei niilläkään ihmeitä tee. Lisäksi tekstuurien lisäksi on yleensä leivottu valaistustekstuuri (onko se vielä lightmap?) ja valaistus on laskettu etukäteen ja se on joka pinnalle uniikki.
Ei vaan yksinkertaisesti ole tilaa käyttää mitään 8K (tässä 8192×8192) tekstuureja. Korkeintaan pelin päähahmo ja se pressidemo käyttävät niitä.
Lisäksi sen scenen pitäisi mahtua näytönohjaimen muistiin, niin eipä sinne hirveästi saa neljäsosagigan tekstuureita. Pelikokojen pitäisi olla 500GB-1000GB tai enemmän , kun lähdetään puhumaan 8K-tekstuureista (8192×8192). En usko, että vielä lähivuosina ollaan tässä tai sitten siirryn takaisin mekaanisiin pelilevyihin.
—
Ja tämä nyt on se yksinkertaistettu tapaus, jossa tekstuurit ovat näytönohjaimen muistissa. Niitä todellisuudessa kai vieläkin säädetään edestakaisin ja sitä se tekee kun peli välillä lataa tai tökkii. Yleensä portaalissa (alueiden välinen siirtymäpiste) tai sitten levelit on pieniä ja ladataan vaan latausruudussa.
Nyt jotenkin tuntuu, että emme puhu enää samoista asioista tai yrität selittää minulle 3d-grafiikan perusteita. Sanotaan vaikka näin, että toinen ehdotus dippatyöni aiheesta oli radiositeettilaskenta polygoniskenejen varjostukseen, niin ei välttämättä tarvitse selittää ihan perusasioita uudestaan.
Käytännössä peleillä oli ainakin ennen RAGEa materiaalit ja assetit, joiden toistolla saatiin luotua pelimaailma. Ei siis kukaan taiteilija maalannut koko karttaa ja mallintanut jokaista pikseliä erikseen. Tästä on laajennettu niin, että assettien koko on kasvanut, mutta toistoon ne vieläkin perustuu. Siksi Carmackin idea oli niin mullistava: jokainen elementti olisi yksilöllinen. Tämä kaatui sitten siihen, että resoluutio jäi pieneksi ja pelikin oli korkeintaan keskinkertainen, toisin kun aikaisemmat tuotokset, joista modernit pelit ottavat vieläkin tekniikoita.
Tekstuurit on sitten määritelty näille asseteille ja koetin käyttää tuon artikkelin termistöä, niin suomensin surface=pinta. Sitten tuohon tekstiin tuli kolmiot ja skyboxit. DirectX:ssä on muuten quad-primitiivi (ja OpenGL myös), niin voi helpottaakseen tätä tapausta käyttää sitä. Se on toissijaista, pilkkooko framework sen sitten kahdeksi kolmioksi. Ja tässä olisi realistista miettiä niitä pintoja, eli joukkoa polygoneja, joista muodostuu jatkuva pinta, jossa on sama tekstuuri (voi myös melkein puhua materiaalista, jos ymmärtää sen toiston idean).
Ideani edelleen on, ettei ole tilankäytön kannalta realistista pitää tekstuureita semmoisella resoluutiolla, että siitä hyötyisi vain 8K-näytöllä. Käytännössä tuolla oli korkeintaan PCGamerin artikkelissa 2K (2048×2048) tekstuureita ja siinäkin ollaan asseteissa rajoilla.
Tässä on toinen hieno artikkeli heiltä:
data-unfurl="true" data-result-id="77411" data-url="https://www.pcgamer.com/how-game-sizes-got-so-huge-and-why-theyll-get-even-bigger/" data-host="www.pcgamer.com" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
How game sizes got so huge, and why they'll get even bigger
data-onerror="hide-parent"/>
http://www.pcgamer.com
Siinä on olennaisinta tämä kuva.
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
https://cdn.mos.cms.futurecdn.net/NUBmueSgQpDLZwM8xMacPX.png
Siellä on realistisia tekstuuripackien kokoja ja asiaa suuremmalti tutkimatta, voisi olettaa, että nuo on 2K (2048×2048).
Niin siitä pitäisi nyt ymmärtää kaksi tekemääni yleistystä:
Niin tuommoisten supertarkkojen tekstuurien peräänkuuluttaminen ei ole realistista vielä vuosikymmeneen ja kun ne saadaan peleihin, niin pelien assettien koot kasvaa radikaalisti.
—
Tässä nyt rautalangasta, mitä yritin sanoa. Jatketaan jossain muualla. Koetin etsiä tälle pelitekniikoista kertovaa threadia, mutta en löytänyt. Ainoastaan enginethreadin, eikä tämä ole sitä per se.
Suorituskykyhän tässä on ongelmana. Ajattelepa vaikka ääritapausta, jossa kappaletta katsotaan niin kaukaa, että se on näytölle piirrettynä vain yhden pikselin kokoinen. Jos pintaan on kääräisty 4096×4096-kokoinen tekstuuri, niin ilman MIP mappeja pitäisi käydä läpi yli 16 miljoonaa tekstuurin pikseliä, jotta saataisiin piirrettyä ruudulle se yksi pikseli oikean värisenä. Ehkä joku iso satunnaisotos voisi antaa yleensä riittävän approksimaation, mutta joka tapauksessa näytteitä tekstuurista tarvittaisiin suuri määrä yhtä kuvaruudun pikseliä kohti. Kun tekstuurista on käytettävissä valmiiksi pienennettyjä versioita (MIP mapping), selvitään paljon vähemmällä laskentatyöllä.
Aivan, mutta kuka jaksaisi tarkistaa, onko tuo (tämän esimerkin) yhden ainoan pikselin kokoinen kappale oikean värinen?
Riittävä approksimaatio olisi, että tuo yksi kappale väritettäisiin viereisten pikselien väriseksi, eikä kukaan huomaisi ongelmaa.
Vaikka se sun kappale olisi 100×100 pikseliä, niin 4000×4000 pikelin teksturin pitäminen muistissa sen takia on melkoista muistin tuhlausta. Siksi juuri sinne muistiin pistetään se mipmappi joka on valmiiksi ”keskiarvoistettu” eli pienennetty 256×256 kokoinen versio tekstuurista.
Tuo 4-6 pätee ainakin Battlefield 5:ssä 3440×1440 resolla, joten voisin kuvitella että 3070 jaksaisi pyörittää Ultrawidea noin 100-120FPS tienoilla.
Varaa ei ole sama kuin käyttää. Sitä muistia tuhlataan ihan vain cachena. Ja enemmän cachea ei tarkoita että sen parempi koska s peli on kuitenkin suunniteltu toimimaan myös pienemmällä määrällä, se vai vähentää tarvetta latailuun.
Tätä hieman epäilen sillä Witcher 3 ei käytä juuri lainkaan muistia. 3840 x 2160 resoluutiolla se vei muistaakseni tyyliin 4 Gt (en tosin voi nyt tarkistaa, mutta tuota luokkaa se oli). Joka tapauksessa hämmentävän vähän verrattaessa grafiikkojen laatua ja muistin käyttöä muihin peleihin.
Kun sen kappaleen väri (ja erityisesti kirkkaus) vaihtelee täysin randomilla peräkkäisten ruutujen välillä aliasoitumisefektien takia, kuka tahansa havaitsee sen hyvin helpolla ja se käy hyvin häiritseväksi.
10GB riittää melko pitkälle ,mutta voi toki jossain vaiheessa olla vähän nafti isommilla resoilla.
Tohon modatun Skyrimin 20GB vram usageen on vaikeaa uskoa ,oli kyseessä mikä Skyrim versio tahansa millä vaan modisetillä.
En niele ilman todisteita tota.
Flight Sim 2020 kortti(?)
Witcher ei myöskään käytä säteenseurantaa toisin kuin cp2077 joka on siis cdprojekt red:n lippulaiva peli.
Ei sinänsä muuta argumenttia tässä hetkessä, mutta…
data-unfurl="true" data-result-id="77941" data-url="https://www.eurogamer.net/articles/2020-09-04-the-witcher-3-next-gen-version-will-add-ray-tracing-and-more" data-host="www.eurogamer.net" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
The Witcher 3 next-gen version will add ray-tracing and more
data-onerror="hide-parent"/>
http://www.eurogamer.net
Kommentoi uutista tai artikkelia foorumilla (Kommentointi sivuston puolella toistakseksi pois käytöstä)
Lähetä palautetta / raportoi kirjoitusvirheestä