
NVIDIA julkaisi GeForce RTX 40 -sarjan kolmen mallin voimin: RTX 4080 12 Gt, RTX 4080 16 Gt ja RTX 4090. RTX 4080 -mallit herättivät heti negatiivista huomiota ympäri maailman.
GeForce RTX 4080 -näytönohjaimet saivat heti julkaisussa huonon kaiun, koska kyse oli käytännössä kahdesta täysin eri tuotteesta samalla mallinumerolla. RTX 4080 12 Gt:ssä on käytössä AD104-grafiikkapiiri 7680 CUDA-ytimellä ja 192-bittisellä muistiohjaimella, kun RTX 4080 16 Gt:ssä on AD103-grafiikkapiiri 9728 CUDA-ytimellä ja 256-bittisellä muistiohjaimella.
NVIDIA perusteli nimeämistä ensin sillä, että GeForce RTX 4080 12 Gt:n suorituskyky oikeuttaa sen xx80-nimeen. Nyt yhtiö on kuitenkin tullut kaikesta päätellen järkiinsä, sillä se on ”epäjulkaissut”, kehnoa suomennosyritystä ”unlaunchista” tavaten, RTX 4080 12 Gt:n.
NVIDIA tunnustaa tiedotteessa yleisön olleen oikeassa, vaikka samalla kehuukin RTX 4080 12 Gt:tä fantastiseksi näytönohjaimeksi: Nimi on väärä. Yhtiö myöntää kahden erilaisen RTX 4080 -mallin olevan hämäävää ja sen vuoksi 16. marraskuuta saapuu myyntiin vain GeForce RTX 4080 16 Gt. Oletettavasti RTX 4080 12 Gt tullaan julkaisemaan myöhemmin eri nimellä, kuten RTX 4070:nä tai RTX 4070 Ti:nä.
Lähde: NVIDIA
Niin ovat muutkin edistäneet, myös ilman että niitä pitää tunkea poropietarina vaikka niitäkin matkan varrella toki riittää muillakin, kuten vaikka ATI:n tesselaattorit vuosikausia muita aiemmin. Jos palataan muutama vuosi ajassa taaksepäin, niin muistuuko mieleen esimerkiksi miten NVIDIA lyttäsi Direct3D 10.1:n kun oma rauta ei sitä tukenut? Se meni siihen pisteeseen, että NVIDIA pisti jopa pelinkehittäjän (Ubi) poistamaan pelissä jo olleen D3D10.1-tuen jälkikäteen. Tai miten NVIDIA pisti ihan avoimesti tiedossa olevan, kaikkien siihen aikaan suositteleman AA-toteutuksen vendor checkin taakse Batmanissa, pakotti kaikki näyttikset silti tekemään vain sen AA-toteutuksen vaatimia vaiheita renderöinnissä ja valehteli pokkana että koodi on pelinkehittäjien omaisuutta jne. No ei ollut, tarvittiin erillinen GOTY-versio että sama AA-toteutus saatiin ilman vendor checkiä kaikille. Alkuperäisen ostaneet eivät saaneet ikinä samaa päivitystä. Ja lisää samaa sarjaa löytyy kun lähdetään tulemaan nykyaikaa kohti.
Vähän yksisilmäinen perspektiivi. Jos omalla ja sijoittajiensa asialla olevalla ahneella pörssiyrityksellä ei olisi keinoja turvata immateriaalioikeuksiaan, panostaisi se kehitystyöhön merkittävästi vähemmän. Koronarokotettakaan ei ole kovin kannattavaa kehittää sadoilla miljoonilla, jos tuotot on jaettava kilpailijoiden kanssa.
En oikein tiedä miten arvioidaan onko se vaihtoehtoinen todellisuus, jossa Nvidia jättää panostamatta teknologiseen kehitykseen siinä määrin kuin se nyt siihen panostaa parempi vai huonompi kuluttajan kannalta.
Se että alalla on perinteisesti toimittu avoimin standardein, ei ole argumentti sen puolesta, että niin olisi parempi toimia jatkossakin vaan vanhojen hyvien aikojen romantisointia tms.
Mikäs pakko Ubin se oli poistaa. Ilmeisesti halusivat sen toimimaan senaikaisissa korteissa yleisesti paremmin, niin poistivat. Jos eivät olisi poistaneet, niin myynnit olisivat olleet pienemmät, eiköhän se ollut ihan ubion valinta.
Netissä luullaan paljon. Oletko 100% varma, että Batman GOTYn koodia ei muokattu tai joku ostanut lisenssiä asiaan X siinä välissä?
Öö, täh? Pelissä oli koko ajan D3D10-polku, ei se D3D10.1-polku ollut keltään pois, mutta bonusta AMD:lle. D3D9-polkukin oli. Virallisen selityksen mukaan se poistettiin koska se olisi ollut rikki, yksi parissa kohtaa peliä oleva puuttuva efekti ihan oikeasti renderöinnistä löytyikin, mutta yleensä nuo on tapana korjata, ei poistaa koko polkua (lupasivat että palaa myöhemmin takaisin, ei palannut). Tosin samoin perustein myös D3D10-polku oli buginen, hieman eri tavoin vain, ja valaistus renderöityi oikein vain D3D9 ja 10.1.
TechReportin kommentti asiaan liittyen
Lisenssiä mihin? Se oli ihan standardi toteutus mikä oli yleisessä tiedossa ja käytössä. AMD tarjosi samaa koodia ilman vendor checkiä (jo ennen kuin peliä oli edes julkaistu, myöhemmin myös uudelleen) mutta ei voitu pistää koska NVIDIAn koodi, ei ennenkuin GOTYssä mikä laskettiin "eri peliksi".
Ei hyvää päivää.
Varmasti voi esittää toivomuksia. Mutta mitäpä meinaat onko ne vain "toivomuksia" jos pelin julkaisussa meillä on D3D9, D3D10 ja D3D10.1 ja yhtäkkiä perästä tulee päivitys, joka poistaa joukosta sen ainoan mitä NVIDIA ei tue vedoten rikkinäiseen polkuun (yksi harvoin pelissä esiintyvä bugaava efekti), samaan aikaan kun samoin perustein myös D3D10-polku olisi ollut rikki ja voisi ehkä sanoa jopa pahemmin, kun rikkinäinen valaistus on läsnä koko ajan (Ubin mukaan varjoja lukuunottamatta ulkonäöllisesti eri polkujen piti olla vastaavia (AA yms lukuunottamatta), D3D10:n valaistus poikkesi D3D9:stä ja 10.1:stä).
Ei, ei tuollaista tapahdu koska joku esittää "toivomuksen". Ja ennen kuin mahdollisesti kyseenalaistaisit että mihin sitä polkua ylipäätään tarvittiin niin se tarjosi muita parempaa reunojenpehmennystä JA suorituskykyä.
Melko väsynyttä provoilua…

En tiedä oliko halvin, mutta yksi huonoimpia taisi olla. 4090 oli jytky ja se ansaitsisi jopa jytkytystä, mutta erinäisissä someissa ja keskustelupalstoilla on eniten keskusteltu kahdesta asiasta:
1. Hinnat ovat liian kalliit. Ihmisten mitta täynnä kalliita hintoja mainausboomin jälkeen, ja Nvidia nostaa entisestään. Ei hyvää PR:ää, trust me.
2. 4080 12gb -mallinimisekoilu.
Yhteenvetona: Nämä high endin julkaisut ei ole mitään ”Nvidia sai hyvää mainostusta näille” -julkaisuja, kun ei peruspelaajaa voisi vähempää kiinnostaa nämä, sen sijaan entusiastit ja harrastelijat katsoo nuo julkaisut joka tapauksessa sama mitä sieltä julkaistaan lopulta, joten ei, paska PR ei muutu tässä tapauksessa hyväksi PR:ksi.
Saatavuuspula kääntyy hyväksi valmistajien kannalta, kun se tekee ilmiön ”halutusta tuotteesta”. Kallis hinta myös uppoaa joihinkin ”premium tuotteena”. Valtaosaan ei. Valtaosa vinkujista tosin ei ostaisi muutenkaan näitä
Kyllä mä tämän tulkitsen siten, että Nvidia käytännössä myöntää virheeksi:
Tai no tarkalleen pilkkua viilaten, vähintäänkin toteaa virheeksi. Semantiikkaa joka tapauksessa. Nvidia korjaa epäkohdan. Tämä on oleellista isossa kuvassa.
Joo eihän ne ole ollut kuin noin 2v9kk korjattu 99% käyttäjistä…
Jokos se nVidia on korjannut ne ajurit mitkä käräytti kortteja
Vertasitko juuri ultrahighend-nvidiaa kuluttajatierin 5700XT korttiin?
Myyntimäärät jne, yhtä relevantti tapaus juuh.
Väärä ketju, mutta tarkoititko kenties niitä evga:n kortteja joissa oli valmistusvika? Kärähtäminen johtui evga:n mokauksesta ja kävi kalliiksi evga:lle?
EVGA Is Replacing All RTX 3090 Cards Killed By Amazon's New World
kotaku.com
Ei kyllä tässä tongittin alkuperäisen postauksen hengessä vähän vanhempia, eli G92 piiriä tappaneita ajureita. Melkein saman aikaikkunan jutuista kuitenkin puhutaan, edellinen vuosikymmen, toissavuosikymmen, mikä ero?
Board partners to be reimbursed by NVIDIA for the cost of GeForce RTX 4080 12GB packaging – VideoCardz.com
videocardz.com
Board partners to be reimbursed by NVIDIA for the cost of GeForce RTX 4080 12GB packaging – VideoCardz.com
videocardz.com
Entäs se aika varmasti isompi menoerä kun joku kaveri flashaa noita yksi kerrallaan uusiksi? Vai viedäänkö joka kortti uudelleenjuotettavaksi uudella BIOS-sirulla?
joo,oli oikea päätös nvidialta…kansa tietää, mitä ostaa,niin prossut kuin näykkärit,mutta tuossa mallissa ei ole ajatusta.
rtx 4080 12 gb voisi olla rtx 4070 12gb ja sitten sen ja rtx 4080 16gb väliin rtx 4070 ti
ja ti mallille mahtuu laittaa vähän lisää puhtia..semmonen 5-10%, edellen 12gb muistia.
tullee ehkä myös 4080 ti…sekin mahtuu.
joo,kyllä siellä maailmassa rahaa on,rtx 4090 myy hyvin,ei pidä yleistää köyhään suomeen.
nvidia tarvii rahaa jotta rtx 5090, tulee..2024? on muuten todennäköisesti 2nm kortti…
eli jos saa veikata… 60-75% nopeampi ja samat watit.. siinä 400-450 paikkeilla.
siinä sitten voisi olla jo sitten kovin itketty puute, DP 2.1 liitin.
vielä sitä ei tarvita.
Vai riittääkö tuo uutisessa mainittu nimen muutos ajuritasolla?
Teoriassa voisi riittää, mutta kyllä se kysymyksiä herättää jos BIOSia dumpatessa siellä lukeekin 4080 eikä millä nimellä se sitten tuleekin. Ainakin osalla valmistajista on mallinimi biosissa mukana
No eikö tuo ole leikiten mahdollista vaan flashata uusiksi vai tiedätkö faktana että BIOSissa on leiskattuna nyt lopullisena totuutena kortin malli?
Ainakin näitä vanhempia (Turing) voi leiskailla miten sattuu (omassa FE:ssä on EVGA:n BIOS = tuulettimet stoppaa idlessä ja RGB:tä voi säätää) kunhan jokin tarkistus menee läpi, johon varmasti kaikilla partnereilla on avaimet.
Veikkaanpa että viimeistään DP2.0 tulee (samaan tapaan kuin Maxwelleissä) BIOS-päivityksellä näihin kortteihin, sitä ei vain ole vielä validoitu kunnolla että leimat saisi painaa lootiin.
Siis tietenkin voidaan flashata, se ei vain ole ilmaista kun joka kortti pitää iskeä koneeseen sitä flashaamista varten (tai vaihtoehtoisesti vaihtaa se BIOS-piiri). Siitä siis spekuloitiin että kuka sen kustantaa kun NVIDIA lupasi korvata uusien pakettien tuottamisen.
DP2.0 tuskin kannattaa odotella millään päivityksillä. Jos rauta tukisi se olisi ilmaistu esim DP 2.0 Ready tms ja NVIDIA ei olisi varmastikaan erikseen sanonut ettei tue koska eivät nähneet vielä tarpeelliseksi
En usko, että kukaan valmistajista lähtee vaihtamaan BIOS-piiriä, siinä ei ole mitään järkeä. Rework on huomattavasti kalliimpaa ja työläämpää kuin ohjelmointi ja korjattu kortti on aina korjattu.
Voi kun HDMI-standardin aivopieru korjattaisiin vielä.
Olettaen, että piirin nimi on ainoa asia mikä muuttuu niin kai tuon flashaamisen vois tehdä ajurikin käyttäjän koneessa, kun korttia asennetaan. Uudet kortit kuitenkin ovat tuntuneet aina vaativan uuden ajurin ja eivät toimi wanhoilla ajureilla. Jos piirin konfiguraatio muuttuun niin, että pitäisi muutella sm-yksiköiden määrää tms. niin sitten menee vaikeaksi/vaaralliseksi.
Kai siellä nvidialla on joku optimoitu versio flashauksesta nimien yms. flashaamiseen, kun noitahan joka tapauksessa sisäisesti pyöritellään n-kertaa ennen kuin päädytään myyntikonfiggiin. Optimoidulla tarkoitan tässä kohtaa, että ei tarvi flashata koko biossia vaan joku pienempi palanen bios:sta missä on teksti 3070, 3080 tms. olettaen että nuo tekstit on bios:ssa eikä ajurissa.
On mielenkiintoista nähdä, että tuleeko tämän 4000-sarjan yhteydessä Titaniksi nimetty kortti ja jos tulee, niin tuleeko 48GB mallina tai kahtena erillisenä mallina, joista toisessa tuo 48GB. Se mitä ymmärrän teko-äly laskennasta, on tuollaiselle 48GB muistille paljon tarvetta. 48GB Titan olisi näin ollen todella mielenkiintoinen AI-budjettikortti.
Eikös Nvidia ole luopunut Titaneista. Ne olivat ilmeisesti liian lähellä ammattilaiskortteja, sillä niissä ei ollut softarajoitettu joitakin ominaisuuksia. Eiköhän se täysen piirin kortti ole 4090Ti…
Saa nähdä, mitä kaikkia piirejä 4xxx sarjaan tulee, joista eri kortit sitten tulevat.
Nyt on
AD102 (90 kortti)
AD103 (80 kortti)
AD104 (70 kortti)?
Miksi ihmeessä 4080ssa olisi pitänyt olla 320bit muistiväylä? Useammin xx80ssä on ollut 255bit kuin mitään muuta, 320bit tainnut olla tasan kerran.
Mielenkiinnolla noita 192bit muistiväylän omaavia odotan, että kuinka paljon yksinomaan muistien kellotus tuo suorituskykyä, koskematta GPU:n taajuuteen. Sekä meneekö homma siihen, että non-ti korteissa GDDR6 ja kalliimmissa GDDR6X. Voisin kuvitella että <4070 luokkiin voi upota mitä vaan valmistajat sattuvat sopivasti saamaan.
Hyvä että peruivat tuolla nimellä julkaisun, vaikkakin koomista ison firman tajuta näin selkeä asia vasta sen ”yleisen paheksunnan” jälkeen eikä ennen. Kaksi käytännössä ihan eri korttia saman nimen alle.
On aina parempi vaatia valmistajilta enemmän kuin vähemmän. Mitä nopeammin prosessointiteknologiaa pusketaan eteenpäin, sitä parempi se on kuluttajakäyttäjien ja ihmiskunnan tieteellisen kehityksen kannalta.
Yksisilmäinen muistiväylän tuijottelu antaa todella huonon kuvan teknologian kehittymisestä. Suorituskykyloikka Amperen ja Adan tai RDNA1:n ja RDNA2:n välillä on jotain ihan muuta kuin mitä muistiväylistä voisit päätellä.
Niin no. Tuo ei ollut minun pointti. Pointti on siinä, että tunnistaa valmistajien sniiduilun loppukäyttäjän kustannuksella. Asiakkaan hyödyn kannalta tilanne on melkein summattavissa siihen, että kuinka ison piirin / tai piiriklusterin parhaalla valmistustekniikalla saa per käytetty euro. Se piirialueen järkevä käyttö toki aina vaihtelee. Valmistaja voi seivailla kuluissa myymällä pienempiä piirejä ja ajamalla niitä isommilla kelloilla, jolloin teholisä menee asiakkaan sähkölaskusta. Toinen seivailu mitä tekevät on viivyttää muistimäärän tai ydinmäärän kehitystä. Veikkaan, että tuo muistiväylä on melko halpa tai olematon kulu transistoribudjetista (transistori määrä) ja seivailua asiakkaan haitaksi. Voi jopa olla niin, että se väylä on 4080 ja mahd. 4080ti mallissa sama 320 bit ja toisessa osa vaan confataan pois päältä valmistusvaiheessa. Tiedä häntä.
Tuossa tosiaan veikkaan, että 4080ti on 320bit 20GB muistilla ja isommalla ydinmäärällä. Voi toki olla vain 256bit ja pelkästään ydinmäärä parannus.
Jos tunnistat verrattain vähäiseltä näyttävän muistiväylän sniiduiluksi, mutta jätät täysin huomiotta valtavasti kasvaneet välimuistit sekä AMD:n että Nvidian pelinäyttiksissä, menet analyysissäsi metsään.
Luultavasti piireille on suunnittelupöydällä laitettu suht optimaalinen muistiväylä/-kaista muihin spekseihin nähden.
En ole missään vaiheessa väheksynyt arkkitehtuurisuunnittelua. Se välimuisti on siellä piirin pinta-alan valinnoissa. Sitä on kuitenkin vaikea testata, että miten minkäkin piiriratkaisun valinta antoi miten paljon tehoa. Näytönohjainta ei voi biossista säätää toimimaan esim. pienemmällä välimuistilla tai pienemmällä väylällä. Voi olla niin, että välimuisteista ei ole hyötyä kaikilla resoluutioilla kuten se vaikutti olevan RDNA 2 korttien kohdalla. Nvidian kohdalla tilanne voi olla täysin eri jos lisättyä välimuistia käytetään eri tavalla. Prosessoreissahan lisätty välimuisti on osoittautunut hyväksi tehon kannalta. Eli mitä enemmän transistoreja asiakas saa sitä enemmän tehoa pätee täysin vaikkei transistoreja siinä kohtaa käytetä lisäytimiin, joista saisi enemmän tehoa taas toisissa käyttökohteissa.
Tuosta olisi mielenkiintoista saada valmistajilta itseltään faktaa, että miten paljon prosenteissa mikäkin toiminnallisuus piirin pinta-alasta on. Eivät toki noita anna.
Siitä laskemaan. AD102 (RTX 4090), sirun pinta-ala on 608mm^2. Korostin sulle muistiohjaimet. En nopeasti löytänyt AD103:sta (4080 16 Gt) edes tollasta artistin versiota sirusta.
katso liitettä 975887
Muistiohjaimet ovat poikkeuskellisen huonosti skaalaava osa piiristä, koska siinä on ns. PHY osuus joka joutuu syöttämään ja vastaanottamaan sitä sähköistä signaalia kuparivetoja pitkin sieltä muistipiiriltä.
Riippumatta siitä, että kuinka pienellä viivaleveydellä itse piiri on tehty, sen muistipiirin johdotuksissa on aina sama määrä kapasitanssia ja induktanssia, jonka takia muistisiirron käyttämä energiamäärä ei skaalaa alaspäin viivaleveyden mukana. Ja kun se GPU lähettelee ja vastaanottaa kiinteän suuruisia signaaleita muisteille, se tarvitsee tietyn suuruiset analogiset tehotransistorit syöttämään sitä fyysistä kaapelointia.
Kun piirin ”viivaleveyttä” pienennetään, kaikki kutistuu, paitsi nuo analogiset osat, joiden osalta se fyysinen koko määrittää sen tehon / energian mitä ne voivat käsitellä.
Käytännössä homma menee niin, että mitä pienempi viivaleveys, sitä kannattavampaa on lisätä sram-cachen määrää muistiohjainten kustannuksella… Tätähän on myös käynyt viimeisissä sukupolvissa.
Kiitos mielenkiintoista tietoa sisältävästä vastauksesta.
Tuosta tulee mieleen, että voikohan muistiohjain kutistua kuitenkin sen kautta jos niiden kuparienjohdotusten kuljettama volttimäärä pienenee.
Mietin silloin kun AMD toi tuon bufferi muistinsa, että voisiko sitä bufferi muistia ajan kanssa kasvattaa esim. 1GB asti ja millaista hyötyä siitä seuraisi.
Tuollainen 1Gb muisti parin valmistustekniikka hyppäyksen jälkeen (jossain 2nm kulmilla). Lienevät testanneet jo 256MB versiota, jonka vissiin hyllyttivät.
Jos ovat, niin se olisi V-Cachella terästetty RDNA3-piiri, mutta ei noihin huhupajoihin ihan aina kannata uskoa

Me käydään toimituksen kesken noita huhuja läpi kyllä kun niitä tulee ja pistetään sitten uutista kun on syytä
Tietysti on hyötyä vain skaalautuvuus on eri resoluutiosta riippuen koska isommilla resoilla menee enemmän muistia puskureihin.
RDNA2:lla 1080p skaalautuu 64MB asti, 1440p 128MB ja 4K tarvitsisi lisää. Cache tuplaaminen ei olisi tuonut kovin paljoa lisää 4K:lle joten piiriä ei kannattanut tehdä isommaksi vain sen vuoksi.
Ei erityistä hyötyä koska tässä mennään jo tekstuurien kakuttamiseen. GDDR6 muistikaistat riittää tekstuureille hyvin. Joku kymmenesosa tekstuureista(8GB tekstuureja scenesssä) kakussa nopeuttaisi 10% tekstuurien siirtoa muistista. Kustannuksiin nähden olematon etu.