Esittelemme artikkelissa ensimmäisenä myyntiin saapuvan NVIDIAn omaan suunnitteluun perustuvan 850 euron hintaisen Founders Edition -mallin ominaisuudet ja testaamme suorituskyvyn 4k Ultra HD- eli 3840×2160-resoluutioilla. Perinteisen keskimääräisen ruudunpäivitysnopeuden rinnalla tutkimme suorituskykyä myös 99. persentiilin näkökulmasta.
Testeissä vertailukohtina ovat mukana NVIDIAn Titan X-, GeForce GTX 1080- ja 980 Ti -näytönohjaimet sekä AMD:n leiristä Radeon R9 Fury X. Mukana on lisäksi tehonkulutus-, lämpötila- ja melumittaukset sekä ylikellotustestit.
Näytönohjainvalmistajien omiin piirilevysuunnitelmiin ja jäähdytysratkaisuihin perustuvat tehdasylikellotetut mallit saapuvat myyntiin maalis-huhtikuussa ja hintataso on alkaen 850 eurosta ylöspäin.
Lue artikkeli: NVIDIA GeForce GTX 1080 Ti Founders Edition (GP102)
Taustalla on NVIDIAn GPU Boost 2.0 -ominaisuus, joka säätelee grafiikkapiirin kellotaajuutta ja käyttöjännitettä 3D-rasituksessa nojautuen lämpötilaan.
Vakiona Temperature Target -arvo on asetettu 84 asteeseen ja NVIDIAn oma jäähdytys on sen verran heikko, että GPU:n lämpötila nousee nopeasti sille tasolle. Tämän jälkeen GPU Boost 2.0 alkaa automaattisesti säätämään GPU:n kellotaajuutta & käyttöjännitettä ja tuulettimen kierrosnopeutta, jotta lämpötila saataisiin pysymään 84 asteessa eikä nousisi sen yli.
Tästä syystä GTX 1080 Ti Founders Editionilla GPU:n kellotaajuus laskee vakiona 3D-rasituksessa 1700 -> 1480 MHz.
Ylikellottaessa olemme nostaneet Temperature Target -arvo maksimiin eli 90 asteeseen eli edellä mainittua ilmiötä ei tapahdu, vaan kellotaajuus nousee tuosta reilun 1700 MHz:n lähtökohdasta +150 MHz.
GPU Boost 2.0 Technology from NVIDIA GeForce
Se on tuon boostin "ominaisuus". Peruskelloja nostetaan se 150MHz mutta boost taajuus on sitten jotai ihan muuta.
Okei, eli toisin sanoen näytönohjainta voi kellottaa ihan vain nostamalla tuota Power Target arvoa. Nykykorteissa on kieltämättä hieman hämärää koko kellotus. Mikä vaikutus on "peruskellon" nostolla, jos GPU kuitenkin boostaa maksimiin mitä lämpö/power/voltage -rajat antaa myöten?
Ihan kohtalaisesti saa lisäpotkua tuolla riittämättömällä jäähylläkin.
Joo kyllä, tämä tosin koskee lähinnä vain siis NVIDIAn näyttiksiä sillä näytönohjainvalmistajien omissa malleissa on sen verran järeämpi jäähdytys, että lämpötila ei nouse 84 asteeseen ja kellotaajuus pysyy vakiona samalla tasolla.
Okei, eli jos ymmärsin oikein, niin monissa tilanteissa kun Power Target nostetaan ylös, näytönohjain ei välttämättä boostaa kelloja tarpeeksi korkealle jotta Power Target tulisi vastaan. Tällöin saadaan lisää tehoa nostamalla peruskelloa käsin, koska boosti toimii siten, että se aina lisää peruskellon päälle. Menikö oikein?
Sama tuli itsellä mieleen, että jostain syystä eri osa piiristä olisi disabloitu. Kai nvidia hakee jotain hyötyä / säästöä siitä että yksi muistipiiri on voitu jättää kortista pois?
Eli siis piirissa voisi olla jotain vikaa ja siitä syystä voisikin puuttua eri muistipiiri? En yhtään tiedä että onko tämä sitten edes mahdollinen juttu?
Pakko vielä ihmetellä tuota Furyä: kuluttaa ylivoimasti eniten tehoa, ja tehohan menee aina puhtaasti lämmöksi. Silti GPU käy kaikista viileimpänä. Ja kun vielä huomioidaan, että se toiseksi hiljaisin, niin tällä perusteellahan tuossa kortissa on aivan ilmiömäinen jäähdytys?!
Siinä on vesijäähdytys:
Aaaah, but ofcourse.
Olis kiva tietää fps erot ryzenilla ajettaessa. Vai oliko siitä jossain juttua?
Sent from my iPhone using Tapatalk
Nipottaja kysyy josko nuo tuulettimen nopeudet saisi RPM-muotoon?
Missä yhteydessä (jossain kohtaa olen myös RPM-lukua käyttänyt)
Pakko valittaa siittä, että miksi olette käyttäneet 4K-resoluutioilla noin overkillejä reunanpehmennyksiä? Menee vain tehot hukkaan ja huonompi kuva näyttiksen kyvyistä.
Ellei sitten oikeasti näkökenttä on suunnilleen pelkkää tietokoneen näyttöä, niin ymmärtäisin. Omassa tapauksessa kaksin kertainen MSAA riittää täysin 4K:ssa, että tulee täydellinen kuva. High FXAA:n huonouttakaan en voi oikein havaita enää.
Tästä tulee vielä hyvä vuosi tietotekniikan alalla, kunhan AMD julkaisee Vegat ja nvidia toivottavasti myös HBM-korttinsa.
Kyllähän tällaisenkin kortin voisi ostaa, mutten tuohon hintaan, täytynee odotella kesää.
Eihän noi boostit ole koskaan todellisuudessa olleet sitä miksikä ne on asetettu, vaan kortti boostaa about niin korkealle kuin menohaluja on. Omissa 670, 680 ja 780Ti korteissakin esiintynyt tuota "yliboostia", vaikka vielä vanhempi boostitekniikka kyseessä.
Miksi julkaista HBM-pelikorttia jos GDDR5X +384-bittinen kaista riittää helposti? Vaikea kuvitella, että Nvidia tarvitsisi Voltankaan kanssa HBM:ää pelikorteissa kun GDDR6 on saatavilla
Jälleen hyvä artikkeli! Kiitos tästä. Saisiko jatkossa jonkinlaista arviota juurikin tuosta melun häiritsevyydestä asteikolla 1-10 ja muutoinkin hieman siitä onko ääni korkeaa tai matalaa jne? :think:
Tuo on muuten single-link -adapteri, ei toimi 1440p. Itse ostin samoilla mielin ebaysta vuosi takaperin samannäköisen ja -hintaisen, enpä osta toista kertaa.
No Hardware Canucksien videorevikassa puhutaan kyllä dual link adapterista. Ei Kait sitä voi hyvänen aika pelkän ulkonäön perusteella sanoa, onko single vai dual… 😉
Tuolla sivulla on kyllä käyttäjien arvosteluissa että 1440p toimisi.
Voisi melkein tilata moisen…
Itse tilasin omalle 1440p dual-link dvi näytölle tämän https://www.amazon.com/gofanco-DisplayPort-Converter-UltraHD-Monitors/dp/B00OQQ2HDC
Toimii.
Olen samaa mieltä. Ehdottomasti lisää integraatiota io-techin itse testaamien tuotteiden ja hinta.fi:n välille.
Ensimmäinen yksittäinen GPU joka pystyy 4k@60fps jos vähän asetuksia pudottaa ja hintakaan ei ole aivan posketon vaikkakin ref coolerilla aika korkea.
Onhan se Titan XP ollut jo pitkään markkinoilla.:think:
Kun lämpöjen noustessa kellot tippuu, niin olisiko mahdollista saada jostakin pelistä käppyrä myös suorituskyvyn laskusta? Vai onko se suoraan verrannollinen kelloihin = kaikista tuloksista reilu 10% pois?
Tässä olisi ehdotus uudenlaiseksi kaaviomalliksi testeihin: mm. Tehcpowerupissa käytetty performance summary (kuva yllä) ja mahdollisesti myös perf/€ ja perf/W. Itse 1070 omistajana olisin myös kiinnostunut kyseisen näytönohjaimen nopeuserosta 1080ti -malliin.. Onko muuten Sampsalta tulossa jossain vaiheessa VR-testejä eri näytönohjaimilla ja prosessoreilla? Kovin monella sivustolla sellaisia ei vielä ole.
ja
Onko tuo marginaalinen ero todella juuri sen kokoinen, että Ti sopii 4k-pelaamiseen mutta X ei?
pelinäytönohjain (Toki Titan X soveltuu kanssa yhtälailla, mutta siis se nyt on hinnaltaan niin absurdi tuote..)
edit: lisäsin artikkeliin maininnan Titan X:stä.
Erinomainen artikkeli, mutta missä CUDA-testit? Olisi mielenkiintoista nähdä miten kortti suoriutuu verrattuna 1080:een ja Titaniin. DP-suorityskyvystä on turha puhua, mutta esimerkiksi koneoppimisessa DP ei ole niin tärkeässä osassa.
Niin noh jos syvemmälle absurdismiin haluaa mennä, niin quadro p6000(~6500€) on se tämän hetken tehokkain näytönohjain, jota myös pelaamiseen voisi käyttää.
Näin arvelinkin. Mutta nyt kun asia on sanottu ääneen, ei muiden tarvitse arvailla. :tup:
Tää kortti on kyllä lähinnä vaan huono vitsi. Superkalliiseen Titaniin verrattuna tätä on helppo keinotekoisesti kehua kohtuuhintaiseksi, mutta varsin kaukana on kyllä todellisesta '4k pelikortista', saatika kohtuuhintaisesta sellaisesta. Tuntuu jo nykyisillä AAA-peleilläkin kyykkäävän aivan täysin. Hexus.netin testin mukaan Founder's Edition-härpäke ei edes läpäise Time Spy-stress testiä: Review: Nvidia GeForce GTX 1080 Ti (16nm Pascal) – Graphics – HEXUS.net – Page 5
Kilpailun puute grafiikkakorttirintamalla konkretisoituu todella ikävästi tässä tuotteessa.
Joo kyllä se ainakin on speksattu SL-DVI-adapteriksi 1920×1080 @ 60 Hz mutta voin kokeilla mitä tapahtuu QHD-näytön kanssa.
Melumittauksissa voisi varmaan mainita, että mitattuna on dBA, tai dBSPL (A), ellet sitten mitannut C-painotuksella. Artikkeli on hyvä kuten yleensä 🙂
Vastaus löytyi, peli näköjään vaihtaa grafiikka-asetukset 2560×1440-resoluutiolle ja Ultra-asetuksille, kun vaihtaa näytönohjainta. Lisäksi Ultra-asetukset saattavat jäävät käyttöön, vaikka asettaisi High-asetukset.
Ajoin testi uudelleen GeForce GTX 1080 Ti:llä, 1080:llä, 980 Ti:llä ja Fury X:llä ja päivitin tuloksen artikkeliin. Kiitos huomiosta, meni ohi kaikessa kiireessä :tup: :comp:
Totta, päivitetty mukaan artikkelin tekstiin :tup:
Ajoin tänään pelitestit uusiksi GeForce GTX 1080 -näytönohjaimella ja 378.78-ajureilla verrattuna 378.48-ajureihin, mutta mitään merkittävää parannusta suorituskyvyssä ei havaittu artikkelin testipeleissä, joten alkuperäiset tulokset ovat validit.
Eli ei toimi yhtään paremmin kuin tuo $9.99 vehje. Omassa näytössä ei ole minkään sortin skaalainta, joten tuo tuskin pelittää.
Mitäs mieltä tälläisestä loppuyhteenvetoon? Selkeä? Kaipaako jotain muokkausta? :kahvi:
Helvetin selkeä. :tup:
Tässä toinen kaavio yhteenvetoon? Kaipaako viilausta, vai tarpeeksi selkeä? (Hintana käytetty normaalia Suomihintaa ja katsottu järkevä saatavuus tuotteelle)
Tässä vielä päivitetty versio tuosta suhteellisesta suorituskyvystä (poistin GTX 1080 palkin ja muutin arvot prosenteiksi):
Tässä CUDA-suorituskykyä Blenderillä GeForce GTX 1080 Ti vs 1080:
Legendaarinen BMW Benchmark: Demo Files – blender.org
ja uudempi päivitetty versio BMW Benchmarkista (2.7x Cycles benchmark): 2.7x Cycles benchmark (Updated BMW)
Titan XP:n suorituskyky taitaa olla liian huono tuossa, eihän se nyt yli tuplasti huonompi ole 1080 Ti:tä tuolla mittarilla. Lisäksi Fury X ei varmaan noin kallis ole enää?
Fury X taitaa olla markkinoilta jotakuinkin kadonnut tuote? Taitaa olla valmistuskin lakannut ja jäljellä on vain jotain haja-kappaleita.
Totta, olipa pieni bugi Excelissä, josko nyt:
Eipä tuota Fury X:ää oikein järkevästi halvemmallaakaan löydy (+ taida hirveästi edes ylipäätään saada, joten jätin sen pois)
Näytönohjaimet | Hinta.fi
Hieno se on tämäkin mutta (saattaa olla vain henk. kohtainen mieltymys) tuo alkuperäinen, jossa näkyi se GTX 1080 100% palkki, oli jotenkin "mukavempi" silmille. Käsitteleekö sitten aivot jotenkin paremmin asian, kun verrokkipalkki on raa-an %-datan rinnalla asiaa selventämässä. Ainakin tälle "putkiaivolle" tuo visuaalinen vertailukohde numerodatan ohella tuntui olevan se paras. Mutta oli kumpi hyvänsä, niin on kyllä tervetullut lisäys :tup:
No joskos tämä olisi hyvä kompromissi :vihellys:
Hyvä kuvaaja mutta onko monopoli niin paha, että Nvidia julkaisee Titan X:n taas uudestaan vuoden jälkeen vain halvemmalla hinnalla ja kosmeettisilla muutoksilla?
Tämä paras kaaviomalli, tätä selkeämmin ei asiaa voi juuri enää esittää.:tup: