
NVIDIA julkisti eilen illlalla uudet GeForce RTX 20 -sarjan näytönohjaimet. Keynote-puheessaan yhtiön toimitusjohtaja Jensen Huang keskittyi suurimman osaa aikaa esittelemään Turing-arkkitehtuurin RT core -ydinten mahdollistamia reaaliaikaisia säteenseurantaefektejä käytännössä.
Huangin keynote-puheesta jäi kuitenkin monen mielestä uupumaan jotain: suorituskykylukemat. NVIDIA ei julkaissut yhdenkään uuden näytönohjaimen suorituskykylukemia nykyisiä näytönohjaimia vastaan, vaan Huang tyytyi toteamaan näytönohjainten olevan kymmenen kertaa Pascal-sukupolvea nopeampia – kunhan testi käyttää hyväkseen sekä RT core-yksikköä että Tensor-ytimiä.
Saksalainen PC Games & Hardware tarjoilee nyt yleisölle ensimmäistä kertaa oikeita suorituskykylukemia uuden malliston lippulaivanäytönohjaimella, GeForce RTX 2080 Ti:llä. Sivusto kuvasi Gamescom-messuilla kameralla pätkän Shadow of the Tomb Raider -pelistä, jossa oli säteenseurantaefektit käytössä. Ruudunpäivitysnopeus oli pätkän alussa 60 – 75 FPS:n välimaastossa, mutta kun valaistusefektejä oli ruudulla enemmän, oli ruudunpäivitysnopeus suuren osan testistä 30 – 40 FPS:n välimaastossa.
Testi ajettiin FullHD- eli 1920×1080-resoluutiolla, mutta tulos ei ole vertailukelpoinen minkään muiden mahdollisten Shadow of the Tomb Raider -testien kanssa säteenseurantaefektien ja keskeneräisen pelin vuoksi. Testistä ei kannata vielä vetää johtopäätöksiä lopullisen version suorituskyvystä, sillä pelin kehittäjät ovat varmistaneet säteenseurantaefektien tulevan peliin vasta ilmestymisen jälkeen tarkemmin määrittelemättömänä ajankohtana julkaistavana päivityksenä.
Lähde: PC Games & Hardware
Pitäs päästä omin silmin todistaan näitä RT efektejä, mutta jos ohjain on ilman RT kikkareita yli 40% nopeampi kuin Gtx1080Ti niin sen vois harkita hankkivansa.
Kommentit luettuani, mulla tuli sellainen kutina että valtosa ei ymmärrä kuinka laskentaintensiivinen (raskas) tehtävä tuo ray tracing on. Jos joku oletti että kovasti RT:tä hyödyntävä kama pyörisi 100fps @ 4k, niin kannattanee ehkä hitusen lukea RT:stä noita 10v vanhoja arttikelleita ja koittaa suhteuttaa tehtävän haastavuutta ja sitä todellisuutta, että tuo on ensimmäinen RThen raudalla pystyvä ohjain. Ja sen jälkeen ehkä vielä vähän suhteuttaa niitä odotuksia. 😀
Ehkäpä niitä suorituskykymittauksia pitäisi tehdä jollain muulla kuin keskeneräisestä pelistä otetuilla screenshoteilla..
Niitä oikeita vertailuja odotellessa, tuo ei nyt kyllä kertonu vielä yhtään mitään kortin tehoista verrattuna edelliseen sukupolveen, yms.
Oikeastaan tämä haiskahtaa nyt hiukan NVidian PR-mokalta. Kun kerrottiin pelkästä ray tracingista, ja karkeaakin dataa on saatavilla pelkästään yhden pelin betaversion ray tracing -suorituskyvystä, niin nyt leviää sitten se tieto.
Yllättävän nihkeä suhtautuminen siihen kun teknologiajohtaja koittaa tuoda markkinoille oikeasti jotain uutta sen sijaan että skaalaisi ja/tai uudelleennimeäisi vain samaa vanhaa tekniikkaa.
Enpä väittäisi tuommoisia asioita, paitsi jos olet pelin kehittäjätiimissä mukana? Pelin kehtiyksen tilanteesta tuskin kukaan voi täällä mitään varmaa sanoa. Voi olla, että peli on vielä niin raakile RT kanssa, että ei osaa hyödyntää kortin laskentatehoa edes puoliakaan. Tai koodissa voi olla muita bugeja jotka saa koneen kyykkäämään (esimerkiksi muistivuodot ovat tyypillisiä kehitysversioissa = saa koneen/fps kyykkäämään kortilla, kun kortilla…)
Säteenseurannasta mahdoton arvata vielä, mutta laskisiko valmiissa pelissä fps paljoakaan, jos kortilla omat ytimet tätä hommaa varten? Nähtäväksi jää.
Omat kokemukset optimoinnista on kyllä ollut päinvastaiset. Pelimoottori/peli kehitetty eteenpäin -> näytölle saatu lisää karkkia ja samalla fps myös paremmaksi. Mahdotonta mennä tietenkää sanomaan mikä on Tompan kehityksen tilanne, mutta jos ei 1080p pyöri hyvin tonnin kortilla niin epäilen, että pelimoottorissa/pelin koodissa on vielä kehitettävää.
Oma näkemys, että kortti on ylihintainen ja tehoista mitään sanottaavaa, ennen kun testattu valmiilla peleillä. Kehitys maksaa, silloin on yritettävä takoa rahaa, kun markkinatilanne siihen antaa mahdollisuuden.
Nyt puhut kyllä puuta heinää; koodin optimoinnilla on mahdollista saada peli sekä pyörimään paremmin, että näyttämään paremmalta.
Ihmiset ovat odottaneet uusia kortteja innosta soikeana, mutta räikeän hinnan takia eivät pysty/halua ostaa niitä, joten "tuhnu kortti, en ois halunnukkaan!" 😀
Ehkäpä. Mutta kuten jo aiemmin on mainittu, siinä kohtaa nämä ekat sitä tukevat laitteet todennäköisesti ovat auttamatta liian hitaita (pelaamistarkoitukseen). Varsinkin jos edes nykypelit eivät pyöri 60fps pintaan 1920×1080 resolla.
Aika moni tuntuu olettavan, että näytön resoluutio korreloi suoraan fps-lukemaan, lähes välittämättä siitä, mitä ruudulle piirretään.
Esimerkiksi Tomb Raiderissa RT:llä tehdään ymmärtääkseni varjot, ja realistisia heijastuksia pintoihin.
Väitän, että on todella helppo vähentää laskettavien säteiden määrää radikaalisti, ilman että loppukuva visuaalisesti paljoa kärsisi.
Laskettavien säteiden määrää vähennettänee valmiissa toteutuksessa automaattisesti, jos RT:n kuluttuma aika on jäämässä pullonkaulaksi kuvan renderöinnissä.
Monellakohan potentiaalisella 2080Ti ostajalla on pelinäyttönä 60hz 24" fullHD, jollaista messuilla käytettiin? Koko RTX tekniikka on täysin käyttökelvoton jos ei se kykene pyörimään vähintään 60fps 1440p resolla, joita valtaosa tämän päivän pelinäytöistä on. Ei pirukaan pelaa tuollaisella näytöllä alle sen natiiviresoluution, koska se pilaa kuvanlaadun täysin eikä sitä mikään RTX paikkaa.
:facepalm:
Joku aiemmin sanoikin, että tässä on joko nVidian PR-moka käynyt tai sitten kortin tehot normikäytössä (ilman RT) ei ole "riittävät" jolloin on haluttu esitellä vain uutta ominaisuutta. Riittävyys on toki sellainen käsite, että vaikea määritellä, mutta riittävä kuten voisi kuvitellä uusi näyttis vs 2 vuotta vanha näyttis.
Selkeästi Piiristä on iso osa varattu uusille ominaisuuksille ja uudet ominaisuudet vaikuttaa tosi hyviltä. Ongelma on oikeastaan vain se, että tällä hetkellä ei tehoista tiedetä muuta, kuin tämän 30-40fps fullHD RT-demon osalta. Kun nVidia käytti yli 2 tuntia tämän uuden ominaisuuden ja sen tehojen mainostamiseen julkaisun yhteydessä, eikä hiiskunut sanallakaan todellisista pelitehoista jää meille vain se fakta, että tämä uusin huippumalli n. 1300 € maksavana pyörittää uutta tätä demoa fullHD-tarkkuudella 30-40fps. Kaikki muu on vielä arvailuja.
Steamissa esimerkiksi 1080p resolla jauhaa ~64% jengistä, 1440p taas 3,12%. 1080p144hz on varmaan moninkertaisesti suositumpi kuin 1440p.
”Steamissa esimerkiksi 1080p resolla jauhaa ~64% jengistä, 1440p taas 3,12%. 1080p144hz on varmaan moninkertaisesti suositumpi kuin 1440p.”
Väitötkö myös että Steamissa on 64%:illa 1300€ näytönohjain sen 1080p resoluuttoin näyttönsä kaverina nimitäin jos et sitä väittänyt niin löpinäsi on täysin arvoton.
Sillä että valtaosalla PC pelaajista on vielä 1080p näyttö ei ole mitään merkityskä koska valtaosa PC pelaajista ei osta 1300€ näytönohjainta.
Tuon 1300€ Nvidia näyttönohjaimen ostaja omistaa hyvinsuurella todennäköisyydellä korkean resoluutiin ja korkean taajuden näytön (veilä todennäköisesi G-Sync ominaisuudella), eli sen 1300€ näytönohjaimen pitää pystyä 1080p tarkuudella vähintään johonkin 100+ FPS lukemaan ja 1440p+ tarkuukislla vähintään siihen 60+ FPS keskiarvoon tai kyseessä on floppi.
Tosin 800eur+ näytönohjaimen omistajissa tuo numero varmastikin hyvin erilainen.
Niin? sanoinkin 2080Ti ostajista. Valtaosalla on myös näytönohjaimena GTX1060 tilastojen mukaan.
Tässä säteenseurannassa on vähän samaa kaikua kun hair efekteissä muutama vuosi sitten. Karvat piti saada elämään ja alussa se söi koko näyttiksen tehot ja sitä ei voinut kun osittain käyttää. Nyt kukaan ei edes mieti että voiko vai ei. Kyllä se rauta ja softa kehittyy vaan niin perkeleen nopeaa että tuo TR on vuoden parin päästä midrange korttien hoidettavissa. Nämä ”kiimaset” jotka itkee että floppihan se on, kuulostaa kyllä aika idioottien pauhaamiselta. Korttia ei ole vielä julkaistu, yksi kämänen peli sillä todistettavasti pyöritetty jne. ja tehdään syväluotaavia päätelmiä kortin suorituskyvystä itku kurkussa;)
Mitä hintahaitariin tulee tämän kortin suhteen niin jos todellakin 2080 Ti alkaa olla 1300€ tienoilla niin aika harva sen tulee ostamaan. Ehkä NVidialla tarkoitus ei olekkaan myydä näitä vaan ajelle pressitestejä;) Sitä se teettää kun AMD:llä ei ole minkäänlaista vastinetta edes edelliselle NVidian sukupolvelle ja nyt kaula vaan kasvaa…Kovvoo hommoo sano savolainen…
Tekniikka on paljon vanhempi, jostain 70-luvulta ulkomuistista tämä nykyinen lähestymistapa säteenseurantaan. Noita "softaraytracing"-settejä on ollut olemassa myös pitkään, eikä kyse ollut "tehoista" sinänsä vaan siitä ettei silloin ollut erikoistuneita yksiköitä jotka olisi sitä tehoa juuri siihen hommaan tehnyt. PowerVR toi ihan rautapohjaiset setit markkinoille ~2010 ja on siitä eteenpäin demonnut niitä tasaiseen tehtiin ilman suurta haloota
Tekniikka on 1500-luvulta, tietokonesovellukset alkanee Appelin paperista vuodelta 1968.
Juu itse säteenseurannan periaate on toki 1500-luvulta, mutta viittasin "nykyisellä lähestymistavalla" juuri sitä itseään, eikä se ole Appelin vaan Whittedin ja vuodelta 79. Eli siis tämä että säteet seurataankin "väärään suuntaan" eli silmästä (kamerasta) lähtien.
Kyllä kaikesta haisee että tämä on lyhyt rahastusratkaisu tämä Turing. Kun nvidialle kävi selväksi että Vegasta ei ole voittajaksi eikä Navia ole oikeasti näköpiirissäkään he haluavat rahastaa nyt tämän säteenseurannan kehityskulut pois myös pelaajilta.
Koko Turing on vain rahastusta AMD:n heikkouden takia. Oli varmaan tarkoitus vain julkistaa uutena korttityyppinä graafisen alan ammattilaisille mutta nyt kun kilpailua ei käytännössä ole niin tehtiin muokattiin sitä myös pelaajille jolloin kehityskustannukset ja voitot saadaan paljon laajemmalta asiakaskunnalta.
Valmiina on Volta ja sen evoluutiomallit jotka voidaan polkaista markkinoille hyvinkin nopeasti. Toivottavasti AMD nyt Zen:n menestyksen kautta saisi myös Navin fixattua todelliseksi huippuluokan haastajaksi ja toivottavasti Intel haluaa/pystyy tekemään saman tasoisen ratkaisun.
Intelin vastauksia odottaessa voit joutua aika pitkään venaamaan. Luulen että Intelin ns. tehoissa kilpailukykyinen näyttis vs. AMD ja NVidia on vielä vuosien päässä. Ei noita edes Intel joka on jäänyt jo prossupuolella AMD:n jyräämäksi tehdä ihan tuosta vaan. Hienoa että Intel on ilmoittautunut mukaan kisaan mutta sillä on niin jäätävä takamatka että niiden varaan ei nyt kannata mitään laskea vuosiin.
Hyvä laite, ei edes tule 60 fps.. Ei tartte paljoa haaveilla 120hz+ näytöistä :btooth:
Toivottavasti bitcoinia tulee tuplasti nopeammin RTX on
Juu, nykymuodossaan ei ole tosiaan kauhean vanha. (toki näin ajatellen en ole ilmeisesti itsekään kauhean vanha)
Jokseenkin huvittavaa kun porukka vetää johtopäätöksiä suorituskyvystä yhden videon perusteella,missä esitellään sitä ray tracking juttua ja siinä fps droppailee. 😀
Kaipa sieltä alkaa kunnollisia testituloksiakin jossain välissä tippumaan. Vähän kumma tosin ettei mitään kunnon testiä ole vielä julkistettu.
Kehittäkä on kommentoinut suorituskykyä ja tosiaan tuo RT-päivitys tulee peliin vasta myöhemmin:
Kaikkihan viittaa siihen että Turing on Voltasta viilattu malli.
Vissiin ainoa kommentti mitä Nvidialta itseltään kuultu Turingin suorituskyvystä nykypeleissä:
"Turing is 6x Pascal performance for ray-traced graphics. For existing games, Turing will deliver 2x the performance"
GeForce RTX Propels PC Gaming’s Golden Age with Real-Time Ray Tracing | NVIDIA Blog
Tuolta vaikuttaa ja oma veikkaus nyky peleissä yli 90% todennäköisyydellä korttien teho järjestys.
Rtx 2080ti
Titan V
Titan xP ja p
Gtx 1080ti
Rtx 2080
Gtx 1080
Rtx 2070
Gtx1070ti….
Riippuen kuinka kelloja nuo uutuudet ottaa niin järjestys voi hitusen muuttua.
Jees eiköhän se juurikin näin mene.
Pait että voisi kuvitella että tuo
Rtx 2080ti
Titan V
Pari voisi vaihtaa järjestystä testistä riiipuen.
Meinaan kun eikös Volta V:ssä ole kumminkin esim. Tensori tehoa selvästi enempi ja sitten on se että kummassakin kortissa on aivan erilaiset mustit joka varmaankin aiheutta eroja sen mukaan kummanlaista muistitoteutusta testi suosii.
Titan V menee vesillä samoihin kelloihin kun Pascalit. Odotettavissa siis kovempia kelloja, kiitos isompien tehorajojen järeämpien virransyöttöjen 2080ti:llä. Mutta järjestys lienee juuri tuollainen, tosin 1080ti/Titan Xp/X(P)/2080 on niin lähellä toisiaan että ne sijoittaisin geneerisesti sijalle 3 rinnakkain.
Jees tuo 40% oliskin jo jonkunlainen päivitys…2x 2080ti nvlinkillä olisi jo mahtavuutta kun eikös tuolla nvlinkillä nuo näy tavallaan yhtenä gpuna eli muistit ja tehot x2
No ei yhtään sen enempää kuin nykyisetkään näyttikset, ihan samat esteet siinä on kuin ennenkin, ainut ero että nyt on enemmän kaistaa välissä kuin aiemmin mutta silti sitä on vain murto-osa muistikaistasta (etenkin näillä kuluttajavehkeillä)
Muistit sekä kaista on 2x
Selvästi parempi kuin esim sli tai crosfire.
Taas julistat faktana asioita jotka eivät yksinkertaisesti ole totta. NVLinkin erottaa edeltäjistään käytännössä vain tuki koherenttiudelle (löytyy myös kilpailevia toteutuksia, mutta toistaiseksi niitä ei ole näyttisten yhdistämiseen käytetty) ja korkeampi kaista. Se kaista on silti edelleen vain murto-osa muistikaistasta puhumattakaan siitä että kahden piirin keskustelussa tulee kuitenkin viiveiden vuoksi hävikkiä.
Epäselvää tuossa vain on se että oliko tuo AI kikkailulla saavutettu vai ihan raakateholla. Ammattilaisille suunnatussa tilaisuudessa nahkatakki innolla selitti heidän tekniikkaa jossa otetaan pieni resoluutioinen kuva ja sitten tensor coreilla laskeskellaan siitä korkean resoluution kuva.
Eli oliko ne 4K pätkät oikeaa 4K vai esim 1080p joka AI:n kanssa ylösskaalattiin.
Joo on se ihan kova saavutus, onhan se hirmu harppaus nykyiseen. Mutta se samalla myös osoittaa että tekniikan markkinat ei vielä ole pelipuolella vaan ammattilaispuolella. Menee joku sukupolvi vielä että tää on ihan kaikkien juttu.
Niin, mitä nyt PowerVR:llä on ollut säteenseurantarautaa tarjolla vuosikymmenen alusta lähtien ja sitä on esitelty ja siitä uutisoitu moneen otteeseen monessa mediassa.
njoo no powervr ei ole PC näyttiksiä tainnut tehdäkkään tällä vuosituhannella, lukuun ottamatta joitan ensimmäisiä intelin atom läppäreitä. Eipä taida heidän tekniikalleen olla kovinkaan paljoa kysyntää mobiili maailmassa.
Parempi kuin sli tai crosfire on ainakin fakta asiaa.
Ei silti vaikuta hyvältä. Toki optimoinnilla tuota saadaan jonkin verran nopeutettua, mutta kun se takkuaa tuolla tavalla previkassa jo full hd resolla, niin lienee turha odottaa pelattavia nopeuslukemia 4k resoilla vaikka olisi optimoitukin. Ja tuo TI malli on käsittääkseni tarkoitettu juuri 4k resoille. Laimealta vaikuttaa suoritus tässä vaiheessa vaikka messuaminen uusista ominaisuuksista onkin ollut kovaa.
Valitettavasti hyllyyn nämä taitaa jäädä kaikilta muilta paitsi uutuus kiimasilta rahamiehiltä joille hinnalla ei ole mitään väliä. 2080 maksaa miltei tonnin? Ti jo yli 1300€. Eli NVidia pitäköön tunkkinsa…
Jee mä oon kiimanen rahamies… kiva tietää.
1440p 144hz näytöllä kyykkää kyl niin pahasti toi 1080 et tarvii päivitellä.
Joo tiedän et 1080 ti auttais mut jos tuo nyt sattuu oleen nopeempi niin antaa tulla.
Eikai sitä RT ja 4K/60fps voidakkaan millään vielä hetkeen saavuttaa eikä varsinkaan kun kyseessä ensimmäiset RT ohjaimet
mutta ilman RT kikkareita tolla RTX2080Ti on varmasti pätevä pyöritellä pelejä 4K:lla.
Se onnistui kohtuullisesti jo 1080Ti mutta
2080Ti tuoma noleuslisä on omiaan tuomaan kaivattua nopeutta 4K pelaamiseen.
Niinkuin @Kaotik tuossa mainitsikin, edelleen se toimii samaan tapaan kuin SLI. Kaistaa on nyt vaan enemmän joten se mahdollistaa vähän enemmän juttuja, tai nopeammin. Oleellista on silti että se softa siihen hommaan tehdään kunnolla, joka minimois tarvetta keskusteluun GPUiden välillä.
Siis meinaat että pelifirma vaan tekee pelejä silmät kiinni ja ne vaan sattumalta useinmiten osuvat niin että markkinoiden paras rauta pyörittää niitä juuri ja juuri riittävästi? Vai jätetäänkö ne loput vaan julkaisematta: Hupsista, meidän peli pyörii 5FPS markkinoiden kalleimmalla ohjaimella kun oltiin vähän liian kunnianhimoisia efektien kanssa, oh well, sinne meni kehitysmiljoonat?
Siitä voidaan vääntää halutaanko sitä kutsua optimoinniksi, mutta tottakai noita efekteja ja muita silmäkarkkeja mitoitetaan sen mukaan mihin rauta pystyy.
Se joku NVidian kehittäjä (joku partasuu se oli, haastateltiin tuon tapahtuman jälkeen) sanoi että jos SLI oli 1 giga, se joku HD versio 2 gigaa niin tuossa nyt olevassa on 10 gigaa kaistaa.
Jos oikein muistan. Katselin tuota lähetystä junassa, kävellessä hotelille ja ityse hotellissa joten vähän saattaa olla joku sumuista.
Mutta 1, 2 ja 10 oli lukuina kuitenkin, juuri tähän asiaan liittyen.
Minulle ei vaan ole vielä selvinnyt, minkä verran muistikaistaa on millekin prosessoinnin osalle on tarjolla ja minkä verran muistikaistaa ne prosessointiinsa tarvitsevat.
Kun GPU:ssa on SM Core, RT Core ja Tensor Core, niin varmaan ne kaikki joutuvat yhteistä muistikaistaa käyttämään (tuskin ne pelkällä sisäisillä rekistereillä ja välimuistilla pärjäävät).
Jos näin on, saattaa joku osa prosessoinnista hidastua jos toinen osa kuormittaa samaa muistikaistaa liiaksi.
Ei se 2080 Ti:n "10 Gigarays/sec" kuulostakaan enää niin ihmeelliselle
NVIDIA publishes GeForce RTX 2080 vs GeForce GTX 1080 comparison – VideoCardz.com
paitsi ettei Amd:lla edes ole RT coree