Testissä suorituskykyiseen 1440p-pelaamiseen suunnattu 689 euron suositushintainen GeForce RTX 4070 -näytönohjain.
NVIDIA esitteli tänään GeForce RTX 4070 -näytönohjaimen, joka saapuu myyntiin huomenna torstaina klo 16. Hintataso Suomessa on alkaen 689 eurosta ylöspäin.
Saimme heti tuoreeltaan testiin NVIDIAn oman Founders Edition -mallin, joka saapuu Suomessa myyntiin yhtiön kotisivujen kautta suositushinnalla eli 689 eurolla. Tutustumme artikkelissa sen ominaisuuksiin ja suorituskykytestit on ajettu pääasiassa 2560×1440-resoluutiolla. Lisäksi mukana on myös tehonkulutus-, lämpötila- ja melumittaukset sekä ylikellotustestit.
Lue artikkeli: Testissä NVIDIA GeForce RTX 4070
Huonot on hinnoittelu eli tuo 90€ pois niin olisi jo kohtalainen tuote.
Ilman DLSS3:sta ja 12GB:n muistia..
Nyt on vaan kilpailemassa samasta segmentistä AMD:n kanssa ja ihmisille, jotka "ei osta 8GB:n korttia enää". No en kyllä osta 12GB:n korttiakaan tuohon hintaan!
Kaikki alta 12GB muistilla varustetut kortit tulee jäämään auttamattomasti jalkoihin consolilta pc:lle portatuissa AAA-peleissä (eli käytännössä voidaan puhua kaikista consoliporteista) from now on. Eikä tuo 12GB ei oikeastaan ole edes riittävästi DLSS ja RT käyttöön sillä kyseiset ominaisuudet varaavat oman osuutensa muistista yhtä lailla.
Tarkoittanee käytännössä sitä että Nvidian RTX 3000-sarja mätänee varastoihin.
Mitä tuon virrankulutus/hyötysuhteeseen tulee niin mielestäni aletaan palaamaan oikeaan suuntaan eli lähemmäs 200wattia. Kortin hinta on silti liian kova suhteessa esimerkiksi kilpailijoiden kortteihin jotka tarjoavat mm. ENEMMÄN MUISTIA
Tässä onkin AMD:llä markkinarako: laittaa vaan loput 7000-sarjan kortit markkinoille 16GB:n muistilla. Ei ne kauaa hyllyssä pölyttyisi, jos hintakin on oikea.
—
Lisäksi Nvidia ei voi nyt laittaa alempiin 4000-sarjan kortteihin 16GB muistia, koska se suututtaisi ihmiset. Niin sieltä tulee 8GB:n ylihinnoiteltuja ihmeitä, joita myydään DLSS3-suorituskyvyllä. Ehkä jopa 4K-kortteina
Jännä seurata miten käy käytettyjen 3080:n hinnoille tästä eteenpäin
Vahvasti tämä. Nvidian toiminta ampuu nyt itseään viimein jalkaan. RTX 4060-sarjalaiset tulee olemaan 8GB muistilla ja suoriutumaan naurettavan huonosti ensinnäkin viime sukupolven omia korttejaan vastaan saatikka sitten kilpailijoiden kortteja vastaan.
Kaikista huvittavinta tässä toki tuo DLSS jolla näitä rampautettuja kortteja yritetään kuluttajille sitten markkinoida "ihan hyvinä kortteina".
Kova homma saada ne muutama/kymmen miljoona siirtynyttä pelaajaa joskus takaisin tietokoneelle kun se vaatii muutakin kun halvan näytönohjaimen kun porukka on huomannnut kuinka smoothia on sohvalta pelailla isolta töllöltä vaikkei laatu olekkaan parasta mutta riittävää.
Enkä puhu nyt ammattipelaajista tai räiskinnöistä vaan casuaali hepuista.
Olet nyt vähän väärässä ketjussa keskustelemassa konsolipelaamisen ihanuudesta vs. PC-pelaaminen. Sille löytyy oma ketjunsa täältä: PC, PlayStation, XBOX & Nintendo – yhteinen väittelyketju
Tämä ketju on RTX 4070 testiartikkelista keskustelemiseen.
Jos tästä 4070 olisi tehty selvästi nopeampi, niin se olisi heikentänyt 4090-kannettavien markkinointia, sillä ne olisi jääneet jo 4070 pöytäkoneen jalkoihin ja ehkä jopa olleet vain 4060 pöytäkoneen veroisia. Kyllä tätä on selvästi markkinointiosasto miettinyt.
Mikäli nopeutta ei haluta nostaa vastavuoroisesti ratkaisuna on hinnan pudottaminen. Mikä sekään ei tunnu Nvidialle maistuvan.
AMD:n vastausta odotellessa, oletettavasti 78xx-sarja tarjoaa väh. 16GB muistia.
Varmaan aika kovat katteet näin leikatussa piirissä.
Muutaman kymmenen prosentin suorituskykylisän takia imho. turha päivittää. Mulle riittää 3070:a vielä hyvin.
En kyllä kykene allekirjoittamaan väitettä että DLSS varaa mitään "omaa osuutta" muistista.
RT suorituskyvyssä on ihan kilpailukykyinen, mutta tuo vähän häiritsee että ei paranna edellisen sukupolven kortteja vastaan RT suorituskyvyssä kuin FG kikkailulla.
Ehkä olisin kaivannut näin pinnalla olevan muistikeskustelun tueksi jotain taulukkoa miten paljon kortti käyttää muistia jossain Cyberpunk tms. testin aikana. Jos ei muuten niin mielenkiinnoksi, että kuinka lähellä rajoja tällä kortilla oikeasti jo mennään.
Voi kiitos tarkennuksesta captain obvious
Onneks oon jo niin vanha että voi muistella vanhoja hyviä aikoja. Olen kerran langennut ostamaan parasta mitä saa ja se oli 7800GTX olikohan muistia 512Mb muistaakseni 2006 hintaan 499€ joka oli 1/3 osa silloisesta kuukausi palkasta. Nykyään jos ostaa parasta mitä saa niin 1/3 palkasta tarkoittaisi että palkka on yli 6000€ 🙂
Tulisi jo se jäänmurtaja kortti alle 500€ mitä tästä odotin mutta ei ni ei.
"Eikä tuo 12GB ei oikeastaan ole edes riittävästi DLSS ja RT käyttöön sillä kyseiset ominaisuudet varaavat oman osuutensa muistista yhtä lailla."
Vaikka ymmärtäisit asian kuinka oikein, tai meikäläinen, joku muu voipi uskoa lukemansa ja kuvitella että tarjolla oleva muistimäärä kaventuu.
Ainoa parannus on selvästi pienempi virrankulutus.
DLSS’hän ei ole parannus vaan viritys joka auttaa vain joissain uusissa peleissä.
Joo, nämä on aina näitä näkökulma-asioita. Toisaalta 3080 hinnalla about samaa suorituskykyä pari vuotta myöhemmin, mutta saman asian voi katsoa niinpäin että 3080 suorituskyky huomattavasti tehokkaammin lisämausteilla ryyditettynä. Eipä kovin moni tainnut 3080:ta ovh hintaan saada kaksi vuotta sitten, ja jos nyt aikoisi ostaa niin 4070 on paljon parempi paketti siihen nähden.
Sitten se että ylipäätään 30-sarjaan kiinni päässyt ei kai ole mitään päivitystä nyt etsimässäkään, ei ainakaan kannattaisi. Allekirjoittaneen 2060S:ään verrattuna toisaalta 4070 on tuplasuorituskyky samaan tehoikkunaan joten maistunee syssymmällä kyllä, vähän riippuen hintakehityksestä/saatavuudesta.
Mitään parempaakaan tuskin on tulossa, ainakaan halvemmalla.
Tehoeroa ynnäilemällä ja videoltasi tätä kohtaa, valinta on selkä.
katso liitettä 1079694
Juu ei näillä hinnoilla…
Mennään GTX 1080 niin kauan kuin toimii
Kehitys kehittyy, koita pysyy mukana.
Tämähän toteutuu Suomessa, $599 on 550€ ja tähän 24% ALV päälle = 689€.
Jenkeissä hinnat ilmoitetaan ilman veroja ja siihen tulee päälle osavaltiokohtainen vero.
Asiaa toki hämää se, että peli voi latailla täyden resoluution tekstuureita muistiin myös 1440p pelatessa vaikkei niitä käytettäisi ja näennäisesti sitten muisti loppuu. Muistinmäärä on kompleksinen asia, mutta 12GB muistin kuvittelisi riittävän 1440p pelaamiseen.
Toki huonosti tehdyt pelit ovat huonosti tehtyjä. Voi joutua odottelemaan päivityksiä, jos peli julkaisussa ei tee asioita oikein muistin suhteen.
Käsittääkseni nykyisin näytönohjaimen muistia käytetään vähän muuhunkin kuin pelkästään tekstuurien varastointiin. Lisäksi pelinkehittäjät joutuu nyt jo tekemään kaiketi (videon perusteella ainakin) paljon optimointia muistinkäytössä että pelit saataisiin toimimaan tuolla mainitulla 8GB. Tilanne joka olisi rautavalmistajien puolelta (erityisesti Nvidian osalta) erittäin helposti vältettävissä jos lopetettaisiin se kitsailu ja tarjottaisiin tuotteisiin auliimmin muistia. Tämä ei toki tarkoita että optimoinnille ei olisi tarvetta tai sitä ei tulisi käyttää. Pointti on siinä että halutaanko kehittäjien aikaa ja rahaa käyttää siihen että pyritään kuristamaan alunperinkin isommille muistimäärille suunniteltujen pelimoottoreiden grafiikat puristamaan nihkeään muottiin koska yksi valmistaja ei suostu lisäämään tuotteisiinsa isompaa määrää muistia tuloksen maksimoinin takia.
Kyllä suurin osa muistista menee erilaisiin tekstuurien ja puskureiden kokoihin liittyviin asioihin, jotka skaalaavat suoraan näytön resoluution mukaan.
4070:ssa on 12GB muistia mikä riittänee ihan mainiosti 1440p pelaamiseen poislukien patologisen huonosti tehdyt pelit. 8GB on aikas paljon vähemmän kuin 12GB. 8GB alkaa menemään 1080p pelaamiseen tai 1440p pelatessa joutuu karsimaan tekstuurien tasoa.
Hinta pitäisi olla vain alle 600e:n, jotta olisi houkuttelevampi ostos. Omassa tapauksessa päivitys 3070 ti:stä ei tähän kannata, vähintään 4070 ti tilalle. Mutta senkin hinta huitelee 900 eurossa.
Onneksi ei ole tuskaa näillä omilla pelailuilla vaihtoon, voihan olla myös niin että seuraava oma kortti on Amd:ltä. Sen verran Nvidian korteilla kyllä hintaa, että sen keskisarjan hinnoittelulla saa jo nopeampaa
punaiselta leiriltä, jos dlss:stä luopuminen ei haittaa.
Watit ja fyysinen koko kortilla hyvällä mallilla, mutta esim lähipäivinä Datatronicilta ja Jimmsillä olleet 710-740€ 6950xt kuulostaa aika lyömättömiltä valinnoilla tämän sijaan
Juu, tiesin toki tämän. Haaveilin vain verollisesta 600 euron hintalapusta kotimaassa
Just katsoin tänään tuon jossa just pohdittiin muistin riittävyyttä.
En ole hirveästi ehtinyt pelaa täs hektissä perhe-elämässä, mut kyllä tolla mun RX6900XT pärjää viel ihan hyvin.
Vaikka s.t.al.k.e.r. 2 julkaisusta ei ole mitään takeita aikoihin (jossain huhuttiin että pelistä on vasta 25% valmiina) niin tuun ostamaan tän kortin kun noita 3xxx sarjan kortteja ei tunnu suomesta saava tehdasasennetulla vesiblokilla järkevään hintaan (vähintää 2k€ ja hintahan ei laske).
niin voi loppu kesästä laittaa tuon 2070S ichill frostbiten jollekkin muulle
Eli turha meidän on murehtia tämän vermeen hintaa. Nvidia se ei hetkauta….
Tuollaisenaan ok kortti. AMD:lta löytyy samaan rahaan parempaa rautaa, mutta myyntimäärissä tämä pesee AMD:n vastineet 6:1
Semmoinen vain tuli mieleen, että onkohan Nvidian 5000 sarjassa DSSL 4.0 joka toimii vain 5000 sarjan korteilla ja joilla taiotaan kaksi ruutua oikeiden väliin?
Olisi aika kova veto
Tämä kehitys huolestuttaa minua eniten. Pienemmän viivaleveyden valmistusprosessi piireille tulee vain haasteellisemmaksi tulevaisuudessa ja jos näytönohjaimissa ei tule kehitystä perinteisessä rasteroinnissa niin kehitetään näitä softapuolen maksumuureja. Jos tulevaisuuden DLSS 4.0 rajoitetaan RTX 5000 sarjalle, kun rasterointi tehoissa ei edetä mihinkään niin mielenkiintoista nähdä kauan kuluttajaan uppoaa tämä tarina.
Ehh.. mip map ei ole ruudun resoluutiosta riippuvainen, vaan se on geometrinen sarja, joka vie 1.3333x tekstuurin alkuperäisen koon viemän tilan. Ihan tyhmä väite, että 4K-tilassa olisi eri tekstuurit, kuin vaikka FullHD. Ei pelit kestäisi tällaista ja pelien viemät tilat olisi teratavuissa. Tässä tekstuurien koko ei mitenkään riipu ruudun resoluutiosta, vaan siitä valinnasta, mikä quality preset on valittu tekstuureille (low, high, ultra).
Lisäksi vaikka joku z-bufferi vie sen 8.3mpix, niin se on 8 megatavua (ehkä kertaa neljä, jos käytetään 32-bittisiä arvoja). Eli luokkaa <1% neljän gigan kortin muistista. Vaikka buffereissa tehtäisiin hauskoja efektejä ja tallennettaisiin 3 framea taaksepäin vaikka motion blurriin, niin buffereita ei saa viemään gigaa mitenkään.
Käytännössä joo, tekstuurien koko on kasvanut. Ja niillä on luotu monimutkaisempia, parempia maailmoja. Mutta se on toteutuista tekstuureista kiinni, eikä resoluutiosta. Ihan mutulla luulen, että kukaan ei tee mitään 8k-tekstuureita, koska et huomaa eroa ja ne ei mahdu sinne näytönohjaimen muistiin. Tai sitten kyseessä on Carmackin Ragessa esittelemä megatexturing, jossa tietty pinta on päällystetty "rajattomalla" tekstuurilla ja saadaan näin toisto pois ja autenttisemmat maisemat.
Lisäksi, yllätys, yllätys! Ei ne pelin kaikki tekstuurit mahdu muistiin. Siksi niitä pelitasoja on jaettu portaaleilla, eristetyillä alueilla ja joskus jopa BSP-puilla. Ja tekstuureja pakataan muistissa, esim. S3 teki tässä uraauurtavaa työtä. Siellä niitä siirrellään dynaamisesti PCI-expressiä pitkin pelin edistyessä ja siksi nuo näytönohjaimet ovat aina uusinta väyläversiota.
Olet kyllä oikeassa siinä, että lisää muistia => saadaan paremmat tekstuurit. Sitä ennen ei kuitenkaan mitkään pelit lakkaa toimimasta ja valitsemalla vähän huonommat tekstuuriasetukset, ne pelit toimivat kuin ennenkin. Mielestäni on vaan oikein, että alkaa Ultra-asetukset olla siellä 8GB:n käyttäjien ulottumattomissa. Sitten pitäisi korttia päivittämällä saada näkyvää etua.
Jos ei käytetä mipmap tasoa jossa tekstuurin 1 pikseli vastaa about yhtä näytön pikseliä niin kuvaan tulee levoton määrä aliasointia ja suorituskyky syöksyy kanaaliin. Mietit vaikka neliötä joka on 32" ruudulla samankokoinen mutta piirretään 1440p tai 4k resossa niin 4k resossa käytetään tekstuurin mip tasoa jossa on noin(riippuen heuristiikasta jolla mip taso valitaan) 2.2x isompi tekstuuri kuin 1440p resoluutiossa.
data-unfurl="true" data-result-id="451934" data-url="https://en.wikipedia.org/wiki/Mipmap#:~:text=Mipmap%20textures%20are%20used%20in,33%25%20more%20memory%20per%20texture" data-host="en.wikipedia.org" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Mipmap – Wikipedia
data-onerror="hide-parent"/>
en.wikipedia.org
.
Oletetaan kaksi samankokoista mutta eri resoluutiolla olevaa näyttöä. Valitsen numerot helpoksi. Molemmille näytöille piirretään 5cm*5cm kokoinen neliö. Toisella näytöllä neliön resoluutio on 100×100 pikseliä ja toisella näytöllä 200×200 pikseliä. 200×200 pikseliä neliö tarvii 4x enempi pikseleitä ja käyttää siten tekstuurista eri mipmap tasoa. Jos tuo alkuperäinen tekstuuri oli vaikka 8k kokoinen niin kumpikaan neliöistä ei käytä alkuperäistä tekstuuria vaan sopivan kokoista mipmap tasoa.
Mennään vaikka tänne vääntämään:
data-unfurl="true" data-result-id="451942" data-url="https://bbs.io-tech.fi/threads/pelimoottoreista-keskustelua-unreal-engine-unity-source-jne.645" data-host="bbs.io-tech.fi" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Pelimoottoreista keskustelua (Unreal Engine, Unity, Source, jne)
bbs.io-tech.fi
Kyllä ne kaikki tekstuurit on molemmissa tapauksissa muistissa, mutta nyt ymmärrän, mitä ajat takaa.. Vastailen paremmin tuonne.
Riippuu enginestä onko ne muistissa. ue5 esimerkiksi lataa dynaamisesti tarpeen mukaan eri mipmap kokoja teksuureista. Koko kenttää ei ladata kerralla muistiin. Saman asian toteutti megatexturing pelit jo vuonna 1 ja 2. Peliengine, joka lataa kaiken kerralla muistiin varmuuden vuoksi on toki mahdollista, mutta erittäin typerää.
Kommentoi uutista tai artikkelia foorumilla (Kommentointi sivuston puolella toistakseksi pois käytöstä)
Lähetä palautetta / raportoi kirjoitusvirheestä