NVIDIAn valmistelee parhaillaan uusia GeForce GTX 1660 -sarjan näytönohjaimia uutta RTX-sarjaa edullisemmaksi vaihtoehdoksi. Huhujen mukaan näytönohjaimet perustuisivat RTX-sarjan tavoin Turing-arkkitehtuuriin, mutta niistä uupuisi täysin ainakin säteenseurantaa kiihdyttävät RT-ytimet.
Alun perin GeForce GTX 1660 -sarjan huhut vaikuttivat olevan heikoissa kantimissa. Numerointia pidettiin outona eikä se sopinut aiempien vastaavien huhujen kanssa yhteen. Viime maanantaina huhut saivat kuitenkin aimo annoksen lihaa luidensa ympärille, kun luotettavaksi vuotajaksi todettu Tum Apisak julkaisi kuvankaappauksen GTX 1660 Ti -näytönohjaimella ajetusta Ashes of the Singularity -testiajosta.
Nyt nettiin on vuotanut kuva NVIDIAn Kiinassa pitämästä tilaisuudesta, jossa ilmeisesti tiedotetaan uusista näytönohjaimista ensimmäisille lehdistön edustajille. Valitettavasti kuvan lisäksi tapahtumasta ei ole saatu ainakaan toistaiseksi mitään teknisiä yksityiskohtia tulevista näytönohjaimista. Huhujen mukaan GTX 1660 Ti -mallissa olisi kuitenkin käytössä 1536 CUDA-ydintä, kun GTX 1660:ssa niitä olisi 1280. RT-ydinten lisäksi huhut povaavat tensoriydinten jääneen NVIDIAn leikkauspöydälle.
Taiwanilaiselle Gamer-sivustolle kuvan tapahtumasta liittäneen käyttäjän CROSS-X:n mukaan GeForce GTX 1660 Ti tulisi markkinoille helmikuussa 2399 yuania eli noin 310 euroa. GTX 1660:n hinnasta ei ollut mainintaa, mutta sen kerrotaan seuraavan isoveljeään markkinoille maaliskuun puolella.
Lähde: Gamer.com.tw
Tuohon aiempaan 1660 Ti uutisketjuun oli linkattu Videocardzin joku uutinen, jossa mainittiin Ti:lle GDDR6 ja perusmallille GDDR5.
On kyllä suht tuuhea hinta kun loppupelistä RTX 2060:aan ei jää NIIN suurta hintaeroa..
Törkyhintanen vehje..
Epäilen tämä järjellisyyttä jos hinta on tosiaan yli 300€? Jos olis 200 ja rapeat niin sitten kyllä kelpaa…Vaikka tuo RTX 2080 on tehoihinsa nähden ylihintainen kun häviää joissain peleissä vanhalle 1080 Ti:lle. Jotenkin vähän kaduttaa koko 2080 osto nyt kun on huomannut että tuo ”säteenseuranta” on lähinnä kusetusta ja sillä ei saada mitään kovinkaan aidon näköistä jälkeä ainakaan BFV:ssa. Lähinnä ärsyttävän näköistä jälkeä kun ei oikeasti mitään säteitä seuraa vaan valaisee vain merkityt objektit jne…
Itse vaihdoin 1080ti:n 2080:ään lähinnä DLLS:n ja paremman DX12-tuen takia. 🙂 Kyllä se oli hyödyllinen vaihto.
Well se perus 1660 on se edullinen malli. Onhan ti versiot aina maksaneet maltaita 😀 eli 1660 saattaa olla sitten se 270 egen hintainen, tai jotain.
Mutta, jep odotin tuosta 10 egeä edullisempaa. Mutta niin pitkään, kun valmistajilla on jotain 320 euron 1060 versioita varastossa, niin ei uutta 1660ti mallia tulla myymään niiden alle.
Olettaen että kiinasta raportoitu hinta on oikea se ei automaagisesti tarkoita että kääntyy ihan 1:1 euroihin
Toki. Yleensähän Kiina hinnat ovat vähän edullisempia, mutta epäilen että kovin paljon lähemmäs 2060 korttia ei hinnan suhteen oikein pysty venymään.
Jännää, jos tuommoisena toteutuisi. Kaksi 60-sarjan korttia myynnissä samaan aikaan: kaksi eri kastin keskikastia maltillisella hintaerolla.
Kaivattaisiin lisänäyttöjä siitä, mitä ray-tracingilla voi saada aikaan. Ehkä Tomb Raiderin ray-tracing-päivitys julkaistaan samoihin aikoihin noiden 1660-korttien kanssa, toivottavasti se lyö kaikki ällikällä.
Oletko paljonkin päässyt DLSSää käyttämään? Tietääkseni aiheuttaa ainoissa tuetuissa peleissä huomattavia graffavirheitä.
Aiheeseen liittyen. Veikkaan että nvidia hinnoittelee nuo tahallaan "liian kalliiksi", jotta rtx sarja ei näyttäisi niin idioottimaiselta. Vähän myöhemmin sitten voidaan hiljaisuudessa leikata hintoja, jotta voitaisiin hieman kilpailla hinnalla. Nvidian halpiskorttien hinta saa myös nyt olla hieman kalliimpi, koska ne kortit paritetaan jatkossa freesync näyttöjen kanssa. Eli nvidia siirtää gsync veron menetykset korttien hintaan. Ei toki suoraan, mutta osittain.
Kyllä olen aika varma että nvidia panostaa RTX sarjaan enemmän kuin perus gtx malleihin, firman lippulaiva mallisto niin tuskinpa tuo teknologia heidän mielestä on "idioottimaista". Eiköhän nvidialla ole panostus siihen että pelikehittäjät alkavat käyttämään Ray tracingia ja DLSS:ää tulevaisuudessa enemmän.
Miksi muuten AMD:n huhutaan lähtevän tähän ray tracing markkinoille mukaan jos se on niin turha ominaisuus ?
Eihän DLSS ole edes vielä loppuun asti tehty teknologia. Vielä riittää hiomista.
Tuossa nyt ei mitään järkeä ole, että Nvidian kaltainen yritys, joka on yksi menestyneimmistä maailmassa niin tahalleen hinnoittelisi "liian kalliiksi". Ei mitään järkeä. Ne hinnoittelevat ne "kalliiksi", koska löytyy ihmisiä, jotka pystyvät hinnan maksamaan, maksavat sen ja AMD:lla ei ole mitään tarjota yläpään kilpailuun, joten voivat sen myös tehdä. Nvidia tekee hyvää bisnestä. Siitä ei pääse mihinkään. Jos DLSS paljastuu toimivaksi teknologiaksi niin Nvidian valta näyttis markkinoilla tulee vaan kasvamaan, vaikka se niitä jo dominoikin. Jos DLSS onnistuu niin se voi jopa olla AMD:n loppu näyttismarkkinoilla äärimmäisessä tapauksessa.
Toistaiseksi AMD:llä on vain jotain toimitusjohtajan puheita, että heilläkin jokin rajapinta on. Sitä ei maininnut, että piiri puuttuu mikä Nvidialla on DLSS:ään eli normaalien GPU laskujen lisäksi pitäisi AMD:n perus piirin vielä laskea skaalausta yms. mikä hidastaisi AMD:n kortteja entisestään.
En väitä etteikö RT tulisi olemaan tärkeä ominaisuus. Oma veikkaus on että RTX2xxx kortit on vain parin vuoden päästä aivan tuhnuja RT tehojen suhteen. Tesselaatio? Ekat Tesselointia tukevat kortit olivat aivan tuhnuja siinä vaiheessa kun sitä alettiin kunnolla käyttää.
DLSS on taas puhtaasti "arvataan puolet pikseleistä" algoritmeillä, tai siis "tekoälyllä". Ei tekoälykään pysty naruja sun muita ohuita kohteita piirtämään jos niistä ei ole lähdemateriaalissa mitään tietoa. Tuohan on käytännössä vain älykkäämpi upscaling algoritmi, ei sen kummempaa.
Miksi nvidia valmistelee sarjaa ilman RT:tä jos se kerran on niin elämän ja kuoleman kysymys? Toki uutta tullaan tukemaan, mutta nvidia itse nyt kertoo ettei se ole vielä "valmis" tai "pakollinen". Hyvin voidaan tehdä kortteja ilmankin.
AMD on ollut raytracing markkinoilla vuosikausia ja tulee myös tukemaan DXR:ää.
RTX:ien "turhuus" on tällä hetkellä saatavilla olevien esimerkkien perusteella ihan puhtaasti surkeassa suorituskyvyssä vrt saavutettu hyöty. Tulevat pelit saattavat muuttaa käsitystä, mutta sillä mennään mitä tarjolla on.
DLSS:n käytössä ei ole mitään toivottavaa, ellei lasketa ehkä suorituskyvyn parantumista kun DXR-toteutus on ensin leikannut puolet suorituskyvystä.
Se on ironista että useimmiten sama jengi hehkuttaa DXR:ää "koska rasteroinnilla feikkaaminen on perseestä" ja heti perään DLSS:ää joka nimenomaan perustuu feikkaamiseen. Eikä mikään algoritmi tuo niitä kadotettuja detaileja takaisin kun peli on renderöity matalammalla resoluutiolla.
Eipä sillä RT:llä juuri mitään vielä teekään, parin vuoden päästä voi ominaisuus sitten olla huomattavan paljon hyödyllisempi. Kun aikanaan T&L -tuki tuli Geforce 256:n myötä niin tilanne oli varsin samankaltainen kuin nyt. Kortti oli nopeampi kuin muut käytössä kuin käytössä mutta myös tehoonsa nähden suhteessa kallis joten eri Riva TNT 2 -variaatioille oli tilaa. Pelitukeakaan ei ko. ominaisuudelle kortin ilmestyessä ollut. Nämä ominaisuudet ilmestyivät kohtuuhintaisiin kortteihin sitten seuraavassa sukupolvessa Geforce 2 MX:n myötä ja ATI oli myös saanut oman näkemyksensä aiheesta pihalle. Siinä vaiheessa pelituki oli jo ottanut tuulta siipiensä alle.
Itse uskoisin, että 7 nm siirtymän yhteydessä NVidia alkaa tuomaan RT-ominaisuuksia alempiin hintaluokkiin (175-300 €) mutta sitä hitaammissa korteissa niistä ei edelleenkään ole riittävää hyötyä siinä vaiheessa.
Samanhan voisi kai sanoa yleistäen mistä tahansa karkkiasetusten laskemisesta. Eli varjojen/tekstuurien/anti-aliasingin laskemisessa ei ole mitään toivottavaa, ellei lasketa suorituskyvyn parantumista.
Kyllä, mutta heikompia asetuksia en ole nähnyt markkinoitavan mitenkään hyvänä asiana missään, toisin kuin DLSS:ää jota markkinoidaan kuvanlaatua parantavana reunojenpehmennyksenä
Jos kortien valmsiatjan pääsee päättämään niin kaikissa GTX 1660 malleissa on GDDR5/5X muistit GDDR6 muistyen sijasta minkäli nuo tiedot GDDR6 muistien hintatasosta pitää paikkansa.
Fiksua mielestäni, kunhan tämä vaan näkyy kuluttajallekin hinnassa.
Juu vaikutta nuo GDDR6 muisti tällähetkellä niin kallliilta että niilä ei aivan heti tule alle 250€ GTX 1660 mallia myyntiin.
Jokohan löytyisi jotain GTX960:n tilalle? Esimerkiksi 1060 ei tuntunut niin merkittävästi paremmalta, että olisi kannattanut päivittää ja tehokkaammat mallit ovat olleet niin kalliita ettei innosta laittaa muuten jo vähän vanhaan koneeseen.
1070ti jostain tarjouksesta vois olla kova?
Aika hyvä tarjous pitäis olla, tyyliin 350e maksimissaan.. Halvin suomessa about 450e. Ja nvidialta saa suoraan RTX 2060 385e.. Mutta tämä vain oma mielipide, itse olin ostamassa 1070 Ti mutta en noilla hinnoilla nähnyt järkeä kun uutta saa halvemmalla ja sama suorituskyky.
Jos rtx 2060 pyörii samoissa hinnoissa niin toki se on parempi. Ajattelin jotain viimesiä tyhjennystarjouksia Pascaleista.
HardOCP:n lähteiden mukaan GTX 1660 Ti tulisi ostettavaksi 15.2 hintaan 279$, GTX 1660 maaliskuun alussa hintaan 229$ ja GTX 1650 maaliskuun lopussa hintaan 179$.
[H]ardOCP: The Nvidia 1660 TI Will Launch on February 15 at $279
Hinnat
1660Ti 279$
1660 229$
1650 179$
Siinä linkkiä https://www.hardocp.com/news/2019/01/23/nvidia_1660_ti_will_launch_on_february_15_at_279/
Noihin suomi hinta päälle niin 1660Ti 310-320e. Ainakin syön pohjan kokonaan Rx580 ja 590 myynniltä sekä gtx 1070 ja 1060. Luultavasti navi vastaa sitten tuohon huutoon.
Tuolta sivulta löytyy myös taulukko, jossa on mm. kellotaajuudet. GTX 1660 Ti:n boost olisi 1770 MHz ja muistit 6000 MHz (vastaavasti RTX 2060:llä ne ovat 1680 MHz ja 7000 MHz). Joten jos suorituskyvyn olettaa olevan suoraan suhteessa ydinten määrään ja kellotaajuuteen, niin GTX 1660 Ti olisi noin 16 % hitaampi kuin RTX 2060.
Blokillehan tuo menisi itellä
Siellä Gtx1070 nurkilla heiluu
Limitit tulee vastaan, melkein sama millä jäähdyttelee kunhan on vaan hiljainen.
suorituskykyä näistä ei saa paljoakaan lisää vaikka olisi miten hyvä jäähy.
Modaus hommaksi menee.
Se taulukko ei ole ko. sivuston käsialaa vaan jonkun toisen huhusivuston (arvauksia käsittääkseni)
Joo no siksi lähinnä että muukin kone menee vedellä
Oikeat boostit on melko varmasti matalemmat kuin 2060 Fe.ssä
Ihan syystäkin haluaisin vaihtaa nykyisen korttini amd:n tehokkaampaan malliin, tämmönen touhu lähinnä vaan tuo veren maun suuhun kun hinnat on taivaissa ja siitä 500€ lippulaivakortista saa vain haaveilla..
Jotenkin tulee fiilis, että nämä ovat ihan rahat pois kuluttajilta malleja, joilla ei ole juuri muuta järkevää käyttöä. Varsinkin kun se hirveästi hehkutettu raytracing osa on poissa.
Logiikka ei ihan auennut.
Eikös noilla ole ihan yhtä paljon käyttöä kuin muillakin perus GTX:illä ja radeoneilla?
Lämmitellään vanhaa, pistetään vähän isompi numero mallimerkintää ja kutsutaan sitä uudeksi kortiksi. Ei liene kuluttajien vika, että nVidia ylihinnoitteli 2000 sarjan niin, että kauppa ei käy siellä sarjan alapään suunnassa.
On kai tuossa nyt huomattavan paljon enemmän uutta pascaleihin verrattuna kuin esim 590:ssä 580:iin verrattuna?
Mitä vanhan lämmittelyä tässä nyt on olevinaan? Ihan Turingeja nuo ovat, puuttuu vain RT-coret ja todennäköisesti tensoriytimet.
En ymmärrä edellenkään. Aivan eri arkkitehtuuri kuin edellisissä. Tilanne on aivan erilainen, kuin esim. mitä AMD on tehnyt Polariksen kanssa jo kolmeen kertaan.
Tensoreilla ei varmaan kuluttajakortissa tee juuri mitään, mutta RT:n piti olla se juttu. Jos nuo jätetään pois, niin ei se oikein kunnon uudistukselta ainakaan minusta tunnu oli alla oleva tekniikka mitä tahansa
Onhan Turingissa aika paljon muutakin uutta. Kyllä se kunnon uudistus on.
Sillä 500e saat varmasti riittävästi tehoa, vai onko se joku psyykkinen juttu että pakko olla se lippulaiva ohjain?:confused:
Vai onko 4K näyttö käytössä,sille toki maksaa ohjaimet ja karsia joutuu, mutta se varmaan on jo 4K näyttöä hankkiessa tiedossa.
Usein nähnyt 1080p näyttöjen omistajien valittaneen Highend ohjainten hinnoista vaikka sellainen kortti olisikin overkill heidän kokoonpanoonsa.
Tämän hetkisten esimerkkien perusteella RT on se vihoviimeisin uudistus kun edes kalleimmilla yli tonnin malleilla riittää puhti hädin tuskin. Tensoreilla saa sentään kuvanlaatua uhraamalla lisää suorituskykyä DLSS:ää tukevissa peleissä.
Kyllähän se hitaampi 1080p/60 taipuu, mutta RT touhu vielä niin alussa että varsinainen hyöty jää vähäiseksi, myöskin multiplayer pelissä luulisin pelaajien arvostavan enemmän suurempaa Fps lukemaa kuin heijasteita.
Mutta eiköhän se tuosta kun hieman ensin yleistyy ja tulee lisää pelejä ja toivottavasti sitä RT suorituskykyä optimoidaan ajansaatossa.
Ehkä, mutta Fixed Function raudasta ei mahdottomia ajureilla optimoida
Jos optimistisia ollaan ja markkinointipuheet niellään niin DLSS2X:llä saadaan kuvanlaatua uhraamatta harvinaisen hyvää reunanpehmennystä.
Realisteja jos ollaan niin lienee turha kuvitella tuon reunanpehmennyksen tulevan ilman tuntuvaa suorituskykypenalttia, kun perus-DLSS:kin vaikuttaa pudottavan suorituskykyä merkittävästi pelkkään lähtöresoluutioon verrattuna.
Luulisi tosin tästä näytettäneen jo jotain demoja, jos olisi oikeasti jotain todella ihmeellistä.
Tarvisin tehokkaamman kortin juuri tuossa hintaluokassa jotta viitsisin ostaa 1440p 144hz näytön ja pelien asetukset oisi high-tasolla, joku uudempi 1080ti kortin tasoinen tuossa hintaluokassa olisi mukava, mutta ei ainakaan lähitulevaisuudessa ole tulossa.
Siksi erikseen mainitsin "kuvanlaatua uhraamalla", mikä viittaa perustilaan jossa renderöidään valittua matalammalla resoluutiolla ja skaalataan ylös. ei se tietenkään tyhjästä suorituskykyä taio
Eli AMD:ltä kopsittu taktiikkaa?
Ainakin oma FE malli RTX 2060 niin todellinen boost on 1935mhz, en tiedä miksi on merkattu 1680 kun kuitenkin mennään raikkaasti yli, ja kellotusvaraahan tuossa on vielä helposti.
Muista RTX2060 boosteista paha sanoa mutta olettaisin että on niissäkin enemmän kuin 1680 mhz.
Tuosta on kummallakin varsin pitkä ja kirjava historia, tapahtui jo ennen kuin AMD:lla oli mitään tekemistä näytönohjainten kanssa 🙂
(ja kuten todettua tässä ei ole kyse siitä)
1680 MHz on se minkä verran NVIDIA on uskaltaa luvata jok'ikisen yksilön boostaavan, myös sen paskimman sirun ikinä.