Kaupallinen yhteistyö AOC:n kanssa
Sokkokokeilu tehtiin niin, että näytön virkistystaajuus arvottiin ja vaihdettiin 60, 144 ja 240 hertsin välillä. Pelissä ruudunpäivitysnopeus oli rajoitettu 400 FPS:ään ja Adaptive Sync eli näytön virkistystaajuuden tahdistus ruudunpäivitysnopeuteen oli pois päältä, koska se lisää input lagia eli sisääntuloviivettä.
Jokainen sai pelata Counter Strikeä kolme minuuttia kaikilla eri virkistystaajuuksilla, jotka arvottiin satunnaiseen järjestykseen. Kun kaikilla kolmella virkistystaajuudella oli pelattu, piti arvata, mikä sessio oli milläkin virkistystaajuudella.
Päivitys: Videon testit on toteutettu uudelleen sillä ensimmäisellä kerralla virkistystaajuus ei vaihtunut testisessioiden välillä.
Jos pidit videosta laita yläpeukku, tilaa io-techin YouTube-kanava, kiitos!
Luulisi että sokkotestissä näyttää ihan samalta
Itsellä nykyään 1440p näyttö @75hz ja mielestäni selkeä muutos oli aiemmasta 60hz näytöstä. Vaikka ei isosta erosta puhutakaan, niin paransi sitä liikkeen tuntua. Sattumoisin myös AOC:n näyttö käytössä itselläkin.
En katsonut kokonaan, joten kysynpä että mokattiinko testi nyt täysin sillä ettei tahdistettu kuvaa millään näytöllä? On aivan eri asia edes rajoittaa ruudunpäivitys tai mieluummin käyttää pystytahdistusta triplapuskuroinnin kanssa, kuin olla käyttämättä mitään rajoituksia. Ruutuajat ovat yhtä tärkeät kuin ruudunpäivitys, mikä korostuu etenkin tuossa CG:GO:ssa, joka on keponen ja hyvin optimoitu peli. Ruutuajat heittelevät holtittomasti kun FPS pumppaa ylös alas rajusti. Kyse on siis ajasta kauanko yksittäinen ruutu viipyy millisekunneissa näytöllä, minkä tulisi pysyä mahdollisimman vakiona. Sulavuutta voi verrata vasta sitten aidosti kun ruudunpäivitys saadaan pidettyä suunnilleen koko ajan samana halutussa lukemassa. Suosittelen silti käyttämään mukautuvaa tahdistusta (adaptive sync), koska tuntuu peli kuin peli aina jossain välissä tiputtavan FPS:än minkä tahansa määrittämän rajan alle, ellei sitten mittauksessa ole jotain vikaa?
Ei kyllä oikein käyttistä tällä testillä. Ymmärrän kyllä sen että pro-pelaajat haluavat niin paljon FPS:ää kuin lähtee, koska heille sulavuutta tärkeämpää on saavutettu minimaalinen viive-ero pelaajalta palvelimelle, mikä pätee tietääkseni CS:GO:hon. Pelistä riippuen kuitenkaan tämä ei aina päde, riippuu nettipuolen toteutuksesta. Selvennettäköön vielä että peli saattaa näyttää sulavammalta jos se pyörii jatkuvasti esim. 144 hz -näytöllä 90 – 100 FPS välillä, kuin jos se pyörisi vain 60 FPS millä tahansa näytöllä. Se ei ole enää niin varmaa näyttääkö peli sulavammalta jos se pyörii heittelevästi esim. 70 – 120 FPS 144 hz -näytöllä verrattuna tasainen 60 FPS. Muistakaa käyttää niitä tahdistuksia kaikki ja jos esim. tavallinen pystytahdistus aiheuttaa liikaa syöttöviivettä (input lag), niin sitten kokeilee vaikka pikatahdistusta (fast sync tai enchanced sync). Selvää kuitenkin se että mukautuva tahdistus on paras ja ilman sitä ei voi vaihtelevalla FPS-lukemalla mitata kunnolla kuvan sulavuutta.
Tuo spekulaatio siitä että tearing voi aiheuttaa tuon hämäävän vaikutuksen voi hyvin olla se syy. 3 henkilöllä tehty testi ei sitä ihan vielä voi paljastaa mutta suuremmalla ihmisjoukolla jos systemaattisesti useimmat luulee 60=240, niin siihen on väkisin joku syy.
Suosittelen kaikille 4k näyttöä varauksetta
Tearingista voi päästä eroon sillä että valitsee fps capin sellaiseen arvoon että se ei ole suoraan näytön joku monikerta virkistystaajuuden kanssa. Esim 240fps cap 60Hz monitorin kanssa (1:4) niin tearit osuu aina samoihin kohtiin näytöllä koska kuvan piirto katkeaa aina näytöllä samalla korkeudella. Sen sijaan jos olisi vaikka 223fps cap (1:371666) niin tearit tulee aina eri kohtiin näytöllä ja niitä ei näe niin helposti. Parhain tilanne on että tear on joka framessa eri paikassa. Huonoin tilannehan saadaan aikaiseksi kun ajetaan 60/90/120/240fps capilla 60Hz näyttöä. Teari(t) on koko ajan ruudulla samassa kohtaa ja sen näkee aina ja heti kun liikkuu.
Toki ei se tear mihinkään katoa näillä tempuilla mutta se ei joka näytön virkistyksessä tule samaan kohtaan joten se on vaikeampi havaita.
Testin mukaan hz ei ole juurikaan nykymonitoreissa paljoaa merkitystä kun sitä eroa ei huomaa kunnolla 🙂
Putkinäytöissä tää oli aika selkeä erottaa ja input lag niissä oli pitkälti 0
jos testin kaverit ei erota 60:tä 240:stä, niin oiskohan nuo erottanu sitä muutaman millisekunnin input lag lisääkään mitä sync ois tuonu
fps ois pitäny rajottaa, ei varmaan kyl kynäris onnistu?, parhaan tuloksen saadakseen, niin että kuva pysyy hyvänä ja input lag poissa. näytönohjainten asetuksistahan rajotukset nykyään löytyy, mutta lisäävät nekin inan input lagia.
Onhan se 144hz ihan mukava, mutta pelikokemus ei ole mitenkään oleellisesti parempi kun 60 hz.
45 fps kanssa ihan pelattava eikä se häiritse. Fps peleissä saa kyllä olla 60fps, ei se muissa peleissä niin näy.
Kyllä se 30 fps myös menee jos lukittu siihen 30:n eikä hirveästi heittele. Esim mafia kolmosta pelasin aika pitkääkin 30fps ennenkun tuli 60fps päivitys eikä se ollut mikään ongelma. Myös igpu:lla pelaillessani mielummin sitä pelas 30 fps kun ettei pelais ollenkaan. Eikä siitä nyt oo kauhean pitkä aika kun ihmiset oli tyytyväisiä siihen 30 fps:n eikä 60fps ollu yleisesti mikään minimi toisin kun nyt.
Omasta kokemuksesta voin sanoa että 60hz vs 144hz pitäisi erottaa kyllä helposti. 144 ja 240hz välillä pieni ero vähän sulavampi kuva 240hz ja omasta mielestä Awikan/scoutin scope tulee ruutuun äkimpään. ( cs:go tunteja jotain 4000h)
Joo toi on ihan viihdyttävä näkökulma, tuo ihan uutta näkökulmaa sanalle sokkotesti. Tässähän oli sokkona testattu lumevaikutusta, ja testi oli luisunut tekniikasta enemmänkin psykologiaan ja aivojen epätäsmällisyyteen absoluuttisena mittarina.
Kannattaa jokaisen katsoa tuo video uudestaan sitä taustaa vasten, että tuossa ei kai sitten oikeasti virkistystaajuus muuttunyt yhtään.
Ruutua / sekunnissa eron huomaa usein helposti näissä fps peleissä niin että ”panoroi maisemaa” tai kääntyilee pelissä eri nopeuksilla, ero 60 ja 144 välillä pitäis kyllä huomata selkeesti, kuva värisee tai on terävämpi liikkeessä (ei liian nopeilla tempaisuilla).
Tässä saattoi hämätä myös tuo repeily sotkemassa ja aika nopeilla hiirenliikkeillä yritetään kaivaa eroja esille.
Vsyncistä aiemmin sanottiin lisäävän input lagia, kun Gsync tuli korvaamaan sen niin lagin sanottiin häipyneen, onko input lag nyt tehnyt come backin siinä vaiheessä kun tuli näitä Freesync sun muita variaatioita Gsync lisäksi?
G-Sync voi myös lisätä input lagia kuten pelkkä v-sync, se on ihan asetuksista kiinni.
Parhaimmillaan päästään samalle tasolle kuin pelaaminen ilman v-synciä.
Freesync pääsee myös lähes täysin samoihin lukemiin, jälleen kerran kunhan asetukset on kunnossa.
Käytännössä paras niin g-sync kuin freesync kanssa on asettaa lisäksi FPS limit jokusen numeroa alle näytön maksimi Hz.
Ei samaan, koska fps limitterit eivät ole täydellisiä ja frametime variance voi aiheuttaa sen että fps käy yli limitin. Tässä vaiheessa g-sync menee pois päältä, ja tilalle tulee v-sync jos päällä (rutkasti lisää input lagia) tai ruutu repeilee jo v-sync ei ole päällä.
Lisäksi ainakin g-sync kohdalla on sellainen jännä juttu, että suosituksena on pitää myös v-sync päällä. Se ei lisää input lagia, kunhan fps on rajoitettu alle näytön max Hz, mutta g-sync kanssa toimiessa se myös korjaa frametime variancee.
Kumpaakin näistä kahdesta asiasta löytyy selitykset Blur Busters sivuilta. Kohdat "I still don’t get it, then why do I need an FPS limit with G-SYNC…" ja "Wait, why should I enable V-SYNC with G-SYNC…":
G-SYNC 101: Closing FAQ | Blur Busters
blurbusters.com
Tässä aika passeli graafi:
Battle(non)sense videosta poimittu.
Täytyykin kurkata nämä, aiemmin kun Gsync tuli niin muistaakseni suositus oli juurikin että se päälle ja Vsync pois. Nykyään onkin lisää näitä suosituksia ja variaatioita. Tosin esim. CoDia pelatessa ei oikein meinaa huomata eroja onko Vsync päällä Freesynckin lisäksi mutta muissa peleissä saattaa "microstutteria" saada siivottua kun pitää kaikki päällä.
Hommaa vielä mutkistaa GPU:n käyttöaste (99%-> lisää viivettä), käyttääkö pelin sisäistä fps-limitteriä vai ulkoista, Nvidian low latency mode jne… mm. BlurBusters ja Battle(non)sense ovat hyviä lähteitä.
Varsinkin ero kun on hetken käyttänyt 144hz näyttöä tai tilaa ja joutuu käyttämään 60hz näyttöä/tilaa niin kyllähän siinä menee pitkä aika tottuessa siihen miltä se 60hz näyttää kun näyttää niin nykivältä kuvalta ja en ymmärrä miten joku ei tuota huomasi samantien.
Jatkossakin tulen panostamaan enemmänkin näytön kokoon, kuin virkistystaajuuteen. Tällä hetkellä 34″ / 1440p / 60Hz .
Ingame limitereitä pitäisi käyttää, nuo ulkoiset voi lisätä huomattavasti input-lagia.
Harmillisen monessa pelissä vaan ei ole limiterejä. Onko tietoa onko siinä eroa, että kannattaako peleistä pitää vsync yms. pois päältä ja nvidian ajureista päällä vai toisinpäin vai molemmissa päällä? Jossain pelissä ainakin tuo nvidian adaptive sync aiheutti tosi pahaa stutteria niin lopetin sen käytön ja laitoin normaalin päälle.
Harvemmin tulee fps pelattua ja muutenkin nykyisin pelaan ohjaimella pääasiassa, mutta mahdollisimman sulava kuva olisi se päätavoite
Ihan nvidian ajureista se normaali vsync päälle niin tulee haluttu lopputulos. Jos tuollaista ulkoista joutuu käyttämään niin vaikka MSI afterburnerin mukana tulevalla rivatunerilla kannattaa mennä, se pysyy siinä yhdessä framen lagissa maksimissaan.
Onkohan mitään vertailua tehty rivatunerin ja nvidian ajureiden framelimitierin välillä? Jotenkin vihaan tuota rivatuneriakin kun ihan turha appi tuon yhden asian lisäksi itelle.
Battle(non)sense Youtubessa tekee ja on tehnyt.
Vanha video takaisin! Se oli hupaisa.
Silloin kun 120hz näytöt tulivat niin sanottiin että kun sen on kerran nähnyt niin pois ei vaihda. Itse ostin 144 näytön enkä huomannut mitään eroa vanhaan 60hz näyttöön.
Tämän testin perusteella voisi suositella kahdelle herralle silmälaseja
Eli joko potku ei riittänyt raudassa tai 144 Hz ei ollut käytössä… Ei tuossa oikein muuta vaihtoehtoa ole. Eron näet selvästi jo työpöydällä hiirtä liikuttamalla, liike on paljon sulavampaa ja "haamukuvaa" vähemmän.
Oli. Mutta kun tuo alkuperäinen virhe tuli ilmi niin kävin katsomassa sen uusiksi. Kyllähän selvästi jokainen testaaja oli hyvin epävarma jokaisesta valinnasta, ja aina kun asetuksia "vaihdettiin" niin jokaisella testaajalla se epävarmuus vaan jatkui kun mitään konkreettista eroa ei ollut. Että kyllä he jokainen sen tavallaan huomasivat ettei eroja ollut, eivät vaan osanneet sanoa ääneen tai epäillä että testissä on nyt jotain vikaa.
Jos tuntuu että ei huomaa eroa 60fps ja 144 fps välillä, niin voi tehdä semmoisen testin, että pelaa esim. GTA Onlineä ja valitsee autoksi RE-7B tai 811 ja ajaa semmoisen kilpailun tai radan missä on paljon suoria. Ero on tuonkaltaisessa testissä useita sekunteja tai 10 sekuntia / lap. Päähänammunta-peleissä on sitten muut edut.
Tuo on bugi pelin enginessä, eli auto kiihtyy/kulkee kovempaa korkeammalla ruudunpäivitysnopeudella pelatessa. Huonoa koodaamista, ei mikään legitti nopeammasta ruudunpäivitysnopeudesta johtuva etu.
Voi olla tietenkin että ei olekkaan kysymys mistään testistä vaan kaupallinen yhteistyövideo mikä selittää kaiken.
Kerrotko vähän tarkemmin, että selittää minkä kaiken?
Olisi mielenkiintoista nähdä 240 Hz @ 400 fps vs. 240 Hz sync. Väitän, että kukaan ei mitään repeilyä tuolla fps:llä näe. Erot 60/144/240 välillä on tuohon verrattuna helppo havaita.
Vinkkinä jos inputlatencyn haluaa minimoida niin nvidialta ultra low latency tila päälle, nvidian näytön skaalausasetuksista scaling done by: Display -> no scaling, CSGO pelistä konsoliin max_fps 0 sekä m_rawinput 0. Myös Windows 10 pitää olla joko vanhempi kuin build 1703 tai build 2004, josta saa GPU schedulinging kytkettyä, ettei Windows ole input latenssin pullonkaulana.
Näillä sitten jo huomaakin eron 144/240Hz aika selkeästi, hiiri yksinkertaisesti lagaa vähemmän 240Hz:llä. CSGO:ssa on laginen raw input joka lisää pahimmillaankin 2.2ms latenssia tietyissä tapauksissa, joka ei tietenkään isolta kuulosta mutta jos 144hz framejen välinen latenssi on vähän alle 8ms ja 240hz:llä ollaan 4ms luokassa, niin ihan pienet erot input latenssiin hukuttaa sen hertsien tuoman edun, kun yritetään päästä mahdollisimman responsiiviseen inputtiin.
Myös hiiren DPI:tä tai pelin senssiä kannattaa nostaa että input latenssin tuomat erot on herkemmin huomattavissa; Mitä isompi input latenssi, sitä vaikeampaa on tähdätä korkeammalla senssillä. CSGO on siitä paha kun porukka muutenkin pelaa sitä EDPI <800, niin hiiren lagia on hankalampi tällöin huomata, jos erot ovat pieniä.
Silloin kun tuota 120Hz hehkutettiin, niin ei sen tarkemmin selitetty mikä siitä tekee parempaa. Nyt kun tietää, niin voi kokeilla pudottaa tuota taajuutta ja tehdä vertailuja. Ehkä sen eron tosiaan huomaisi siten.
Ite ihmettelin tuolloin lähinnä että 120Hz oli sinänsä lyhytikäinen, melkein heti perään tuli nää nykuiset 144:t
Aika yleistä konsolipuolella sitoa toimintoja ruudun päivitykseen. Ainakin näin olen ymmärtänyt, kun en koodaamisesta mitään tiedä.
Nvidian low latency mode: "Ultra" kannattaa ottaa käyttöön vain skenaarioissa, joissa GPU:n käyttöaste on 99%. CS:GO:ssa tilanne ei ole tämä ja siksi kannattaakin siinä käyttää "On".
Se on käsittääkseni pelimoottorin ominaisuus, ei niinkään konsoli puolen erikoisuus. Bethesda taitaa tuota käyttää Fallouteissa. Ainakin 4 oli että jos fps on yli 60, niin alkaa peli sekoilemaan. 76 sitten tekivät jotain,niin sitä voi pelata yli 100fps ilman ongelmia. Vaikka siinä on sama pelimoottori kun 4 on.
Mutuilua vähäsen tuokin, kun en minäkään koodaamisesta mitn tiiä.
Jossain netin syövereissä oli artikkeli mikä tuota juttua selvensi, mutta eihän sitä nyt tähän hätään löydy.
Tarkoittaa käytännössä sitä, ettei toimintoja ole sidottu yhtään mihinkään ja täten kaikki muuttujat pelimoottorissa päivittyy aina, kun saadaan vaan pääsilmukka ajettua. Laiskin ja helpoin tapa on sitten vaan lukita ruudunpäivitysnopeus johonkin lukemaan ja täten kaikki asiat tapahtuu ruudunpäivitysnopeuden mukaan. Tämän sijaan olisi hyvä käyttää ohjelmakoodissa ajastimia, mutta asia tuntuu olevan jostain ihmeen syystä liian vaivalloista monelle jopa vielä tänäkin päivänä.