io-tech käy läpi 5. sukupolven GCN- eli Vega-arkkitehtuurin tekniset ominaisuudet ja uudistukset.

io-techin tuoreimmassa artikkelissa luodaan pikainen katsaus AMD:n Vega-arkkitehtuuriin Vega 10 -grafiikkapiirin näkökulmasta. Vega on AMD:n 5. sukupolven GCN-arkkitehtuuri ja yhtiön mukaan suurin muutos koko GCN:n historiassa.
Artikkelissa käydään läpi Vega-arkkitehtuurin teknisiä uudistuksia ja päivittyneisiin 3D-ominaisuuksiin. Tarkempi katsaus itse Vega 10 -grafiikkapiireihin perustuviin Radeon RX Vega -sarjan näytönohjaimiin on luvassa perinteisen testiartikkelin muodossa myöhemmin.
Lue artikkeli: Tekniikkakatsaus: AMD Radeon RX Vega (Vega 10)
Niin, on sitä L2 kakkuakin tuplasti verrattuna Fijiin..
Jep, lisätty erillinen maininta siitä että se on kaksinkertainen määrä vrt Fiji.
Ei ollut kyllä tarkoitus nipottaa. :geek: Vielä tulossa oleva Tiled Rendering vaan on hyvin välimuistiriippuvainen ja Nvidia on siksi pari viimeistä sukupolvea jatkuvasti lisännyt välimuistia. Ihan positiivista, että AMD on tehnyt samoin.
Ilmeisesti noista nano-korteista ei ole vielä hirveästi muuta tietoa kuin tuo 150 watin teholuokka? Ovatkohan leikattuja piirejä matalilla kelloilla vai millaisia? Tuo voisi olla ihan mielenkiintoinen tuote.
Todennäköisimmin täysiä piirejä matalammin kelloin, ihan kuten Fijinkin kohdalla.
Nanoista ei tiedetä muuta kuin tämänhetkinen ulkonäkö, 8-pin virtaliitin ainakin ES-malleissa ja tuo 150W TGP eli GPU+HBM-kulutus
Pari huomautusta:
– Mikä on ISA? Ennen lyhenteiden käyttöä olisi hyvä mainita koko nimi, kuten tekstin loppupuolella tehdään.
– Esimerkkejä, missä FP16 nopeuttaa? Nyt ei oikein saa kiinni, ellei tiedä asiasta jo etukäteen.
Muuten näin ihan 4/5 artikkeli.
Instruction Set Architecture, mut joo varmaan hyvä avata termi ekalla kerralla.
FP16 tarkoittaa 16-bittistä liukulukua. Normaalisti käytetään 32-bittisiä liukulukuja (FP32), joiden avulla lasketaan matemaattisia laskutoimituksia. Vegassa voi yhden 32-bittisen laskutoimituksen sijasta laskea kaksi 16-bittistä laskutoimitusta, jolloin käytännön laskentanopeus voidaan tuplata.
Siis kaipasin esimerkkejä, mitä tuo FP16 nopeuttaa graffakäytössä. Jos ne on tuplasti nopeampia, mutta testissä tulee 22% nopeutus, niin olisi kiva tietää miksi.
Ei sitä juuri voi avata sen paremmin kuin "kaikessa missä FP16-tarkkuus riittää". Testissä nopeutus on 22% koska ei se FP16-tarkkuus kaikkeen riitä eikä pelkkä ALU-nopeus määrittele millä nopeudella testi pyörii.
Helpoimpia esimerkkejä on useat postprocessing-tehtävät, mutta ei sekään ole yksiselitteisesti "kaikki pp:t" tai "vain pp:t"
"HBCC tukee maksimissaan 512 teratavun muistiavaruutta, mutta tällä hetkellä esimerkiksi OpenGL-puolella maksimi reaaliaikaisessa renderöinnissä on 27 gigatavua."
Onko tuo 27Gt otettu tuosta slide 12:sta? Minä luulin sen viittavan vain siihen että siinnä olevat esimerkkikuvat ovat demosta jossa käytetään tuon verran muistia, eikä se välttämättä ole mikään maksimiraja?
Tuo postprocessing riittää. Kaikkea sitä vanha oppii. :cigar2:
Missähän tuo HBCC käytännössä auttaa. Pelikäytössä merkitys lienee marginaalinen, koska pelit joka tapauksessa yritetään mahduttaa näytönohjaimen omaan muistiin, mutta ilmeisesti muita käyttökohteita suurelle muistiavaruudelle on.
Tällä hetkellä mennään näillä tiedoilla mitä on saatavilla, mutta usea muukin media on tulkinnut asian samoin. Onko muuta tietoa asiasta?
Nettihuhut väittivät, että tuossa olisi suojattu bios eli sitä ei voi muunnella. Pitääkö paikkansa?
Taitaa auttaa eniten tilanteissa, joissa muisti loppuu kesken.
Muistiinhan ladataan tai muistia varataan peleistä/pelille todella paljon, mutta siitä keskimäärin käytetään noin 50% (Vegan slideistä tieto). Tuo HBCC taas tekee sen, että näyttiksen muistiin ladataan vain se, mitä tarvitaan.
Muita käyttökohteita on ja kuuleman mukaan Uniginen jossain testissä se olisi nopeuttanut 7% vaikkei muisti ollut edes täynnä
Mites näiden testauksen suhteen käy, tuleeko testit vasta raudan saavuttua kauppaan, jos kerran hierovat noita ajureita viimeiseen asti vai onko punalaatikko jo saapunut toimitukseen?
Eiköhän medialle tule pre-release driverit testejä varten ja viralliset ajurit tulevat sitten 14 päivä jolloin on kaikki suuremmat bugit korjattu
Käyttökohteita näin mutu tuntumalla voisi olla esim. hiukset, nurmikko, ehkä jopa puunlehti efektit.
Varmaan parhaiten aukeaa tuon HBCC:n hyödyt kun katot AMD:n esitystä ja spikkaat tunnin kohdalle.
Ehkä paras showoff oli tämä
nvidian kortti ei pysty käsittelemään tuota ollenkaan kun siitä loppuu muisto kesken.
Io-techin testiin odotellaan alkuviikosta testikappaleita..
Ompas taas AMD väsännyt demon mitä ei voi edes näyttää kuin 720p- resolla (mitään tietoja ei näe). Voivat sitten naureskella…. hyi mitä toimintaa. :grumpy:
Koskahan Amd pääsisi pois tästä GCN arkkitehtuurista? Asioista yhtään paremmin tietämättä tulee kyllä todella pahat bulldozer vibat.
Melkoinen läjä ainakin "teoriassa" merkittäviä nopeuttavia uudistuksia vega täynnä, mutta alustavien vuotojen perusteella pahoin pelkään että todelliset hyödyt jäävät varsin mitättömiksi.
Ja vaikka sitä tehoa sitten parin vuoden päästä tuliskin reilusti kun softa tukee ominaisuuksia paremmin niin on jo paljon nopeamman piirit markkinoilla ja vega jälleen kerran arkkitehtuuri joka liikaa aikaansa edellä. Nvidia fiksusti sitä vastoin progressiivisesti lisää ominaisuuksia rikkomatta vanhempien pelien tukea ja tulee markkinoille pyyhkien pöydän jälleen kerran.
Jos AMD:n johdossa olis yhtään fiksumpaa kaveria niin uutta konsolidiiliä kehiin vaan ja arkkitehtuuri räätälöitäis niin että siinä olis jotain exclusive tehoja lisääviä ominaisuuksia niin siinä olis nvidian paha niitä kusettaa ja saattais jopa joskus olla vähän kusessa.
Kuinka niin?
Amd on tainnut viimeiset kymmenen vuotta tähdätä jonnekkin viiden vuoden päähän, kun taas Nvidia on koko ajan tähdännyt nykyhetkeen. Olenkin itse ajatellut että jos vaihtaa näytteistä vuoden tai kahden väliin suosittelen Nvidiaa ja jos pitää näyttistä kolmesta vuodesta eteenpäin niin AMD saattaapi olla se mikä kannattaa hankkia.
Noinhan se on.. tietotekniikan kanssa kun ei kannata kovinkaan paljon siellä yläpäässä varsinkaan katsella yli parin vuoden päähän. Lelut kun menevät kumminkin vaihtoon, jos haluaa pysyä kehityksen mukana.
Lisäksi jos nyt on HW tasolla ominaisuus X, niin menee vuosi- pari, että ominaisuus alkaa ehkä tulemaan rajapintoihin ja siitä vähintään pari vuotta, että sitä aletaan edes jonkinverran tukea jossakin pelissä (ehkä).
Eikös uudet käskyt ja FP16 ole ainuita, jotk tarvii softan puolelta tuen? Tiled rasteri, HBCC yms. tulee ajurien puolesta ja toimii lennosta.
Lisäksi eikös tulla ollut jotain yhdistettyjä yksiköitä..
Tiled render toimii juu, ajurien kautta, jos siis saavat toimimaan..
Primitive shaderit toimivat kahden vanhan shaderin sijalla, eli ei tarvitse tukea softalta, vaan ajureilta.
Viisi vuotta on sen verran pitkä aika tällä alalla, että mikäli tulevaisuus oikeasti huolestuttaa noin paljon, kannattaisi ostaa 2/3 hintainen tai vielä halvempi kortti ja toinen kolmen vuoden päästä -> varmasti järkevämpi valinta kuin heittää rahansa yleensä katteettomiin valmistajien lupauksiin paremmasta tulevaisuudesta. Ei ole mitään järkeä ostaa tarkoituksella huonompaa ja rukoilla, että siitä on joskus hyötyä.
Riippuu… itse vaihdan kuuden vuoden välein tai harvemmin. Toiset vaihtaa useammin. Eli ostaako kalliin Nvidian vai kalliin AMDn… Nvidialla saa tällä hetkellä paremmin tehoa / hinta AMD taas on tupannut pakkaamaan featureja jotka Nvidia ottaa käyttöön vasta kun niistä on hyötyä. Eli edelleen kiinni siitä kuinka usein vaihtaa. Tällä hetkellä itsellä Nvidian kortti, kun AMD:llä ei ollut kilpailukykyistä lappu sillon kun oma piti laittaa vaihtoon (6 vuoden käyttöiän jälkeen.)
Jos ostaisin tänään saattaisin hyvinkin ostaa AMDn koskapa kun featureja katsoo niin sillä pärjäisi pidempään.
Mutta tulevaisuuden ennustaminen on vaikeaa. Mutta aika tavalla Vegan kortti sisältää ihan vakio DX12 featureja joita vain eu vielä oikein hyödynnetä. Luultavasti Volta on jo taas aika lähellä Vegaa featurejen suhteen joten siinä vaiheessa on taas aika tasaista ja hinta / teho ratkaisisi koskapa eroja tulevaisuuden ominaisuuksien suhteen tuskin on. Mutta tämä on vain arvaus siitä että Volta olisi ensimmäinen Nvidia lappu joka tähtää tosissaan hyvään DX12 suorituskykyyn dx11 suorituskyvyn kustannuksella.
Ei vaan tarvitsee nimenomaan softatuen.
Jos tuosta käsitin oikein, niin primitive shader korvaa vertex ja geometry shaderit, joten miksi softan tulisi ottaa tuohon kantaa, eikä vain ajurien? :confused:
Et käsittänyt oikein. Se on uuden tyyppinen shader jolla voidaan korvata vertex ja geometry shaderit ohjelmassa, mutta se on kehittäjän homma korvata ne koodissaan noilla primitive shadereilla
Oot ihan oikeassa. Luin jotain spekulaatioita, että osaisiko shader compiler käyttää tuota automaattisesti, mutta sitten tuli aika yksiselitteisenä vastaan: "it is something that has to be coded for directly and isn’t something that AMD or Vega will be able to do behind the scenes.".
Offtopic/ Nämä uudet ominaisuudet on ihan kivoja, mutta ne pitäisi saada nopeammin moottoreihin ja aktiivikäyttöön, niin ei voisi vajaalla tuella olevia näyttiksiä julkaista ”uutena tuotteena”. Jotenkin välillä vaikuttaa, että noista Vegankin uusista ominaisuuksista on tosiaan hyötyä vasta parin vuoden päästä ja silloin se grafiikka vaatii jo muuten enempi tehoja. Toisaalta optimointi ja pakkaus tuntuu nykyään olevan PC-puolella softassa kirosana, kun pelit vievät 60 gigaa tilaa asennettaessa ja joskus silti näyttää huonolta ja lisäksi AI on yleensä täysin paskaa. /
Haluaisit siis "Nvidia only" ja "AMD only" pelejä?
Noiden käyttöönotto nyt vain vaatii järkevästi tehtynä ne tietyt mutkat ja siinä menee aikaa. Lisäksi, koska meillä on useampi valmistaja ja koska meillä on patentointiviritykset, niin eri tahot kulkevat eri teitä ja sekin hidastaa noiden käyttöönottoa. Sitten varsinkin, jos meillä on joku "open" systeemi, jossa ei ole ketään päättämässä itsevaltiaan ottein, mitä siihen tulee ja mitä ei, homma hidastuu kiistelyn ja arpomisen seurauksena vielä huomattavasti lisää.
Onhan noita nVidia only pelejä jo ollut joissa AMD:llä saa paljon huonommat efektit. Ei siksi, että raudassa olisi puutteita vaan siksi, että nVidia on heilutellut kehittäjäryhmälle rahatukkoa.
Jotka ovat seurausta juurikin tuollaisesta, ehdotetusta oikomisesta.
Toimivin ratkaisu on, että meiullä' on suosittu grafiikka rajapinta (Oltava suosittu, siksi, että ei saa vara olla tukematta). Rajapinnan ylläpitäjä sitten neuvottelee jonkinverran AMD:n, Intelin ja Nvidian ym kanssa, mitä kikkoja pinta tukee ja milloin ominaisuudet siihen tulevat. Tämän jälkeen GPU valmistajille ilmoitetaan asiat ja ne tekevät tuen piireihinsä, mutinoitta tai mutinoilla.
Se tapa, että GPU valmistaja tekee ominaisuuden X ja se integroidaan ei yleisimpään grafiikkarajapintaan Y ja sitten odotellaan, josko muutkin tukisivat ei ole millään tavalla toimiva ratkaisu. Jos taas ko grafiikkapintaan integroidaan useamman erivalmistajan ratkaisuja, joita muut eivät tue, niin kyseessä on vain lähinnä multikatastrofi…
Taitaa alkuun ja aika pitkään mennä louhinta käyttöön nämä jos huhut suorituskyvystä pitää paikkansa. Hinnat nousee sen verran korkealle koska kysyntä on alkuun suurempaa kun valmistus eli ei taida olla ihan heti järkevää ostaa peli käyttöön.
Saa nähdä miten paljon ne bundled rajoittaa louhintaan ostoa… luultavasti ei tarpeeksi jos tosiaan menee sinne 70-100 väliin. Toivottavasti se huhu on väärä, mutta Vegan hieno välimuistiratkaisi auttaa varmasti louhinnassa ja Vega on sopiva verme laskentakäyttöön jos tietää mitä tekee.
Ei. Meillä ei ole nvidia only pelejä, amd vaan toimii niissä huonommin. Matrox / voodoo / nvidia aikaan meillä oli matrox only, voodoo only ja joku kummallinen dx kikkare joka toimi vaan nvidialla. (Atista ei muistikuvaa noilta ajoilta.)
Se olikin sitä aikaa kun Nvidia vielä kinusi reilun ja tasapuolisen kilpailun perään…
Yritettyään ensin kolmioiden sijaan renderöidä nelikulmioilla Sega Saturnin tapaan tukematta D3D:ta :beye:
ATIlla oli rage / rage II -piiri joka oli oikein hyvä 2D-ohjain (melkein yhtä hyvä 2D-kuvanlaatu kuin matroxilla selvästi halvemmalla, ja sisälsi aikaansa nähden kehittyneet videonpurkuominaisuudet) ja lisäksi se osasi piirtää bilineaarisesti filtteroituja tekstuurimapattuja kolmioita. Muistan että minulla oli yksi peli(taisi olla Jedi Knight) joka sekä toimi sillä rage II:lla että pyöri sillä paremmin kuin softarendattuna. Tämä on huomattavasti parempi kuin S3:n virge, jolla käytännössä kaikki pelit vaan hidastuivat 😉
Se Jedi Knight käytti ihan D3D:tä eikä mitään ATIn omaa rajapintaa. Lisäksi OpenGL-ajuritkin tuolle Rage II:lle taisi tulla aika aikaisessa vaiheessa, mutta tuohon aikaan OpenGLää käytti vain ammattilaissoftat, ei pelit.
Matrox ja ATi oli aikoinaan OpenGL puolen harvoja tukijoita, mutta on se Doom aina ollut OpenGL/Vulkan peli ja samoin IDx enginet.
Sinänsä olen samaa mieltä siitä että olisi paljon terveempi ratkaisu tehdä OpenGL/DX/Vulkan/Metal, whatnot –conformity suite, jota vastaan sekä API:n toteutus että sitä käyttävät sovellukset voisi validoida. Vähän samaan tapaan kuin mitä GLES:lle oli.
Samasta syystä olen sitä mieltä että synteettiset testit antavat realistisemman kuvan raudan ja ajurien kyvykkyydestä kuin ns. ”tosielämän” testit. On suorastaan perverssiä että laitetoimittajat liki mukisematta optimoivat sovelluksille tuotteitaan, eikä toisin päin.
Juuh, itellä tuolta ajalta heikot muistikuvat nvidia/ati puolelta kun itellä oli Mystique ja kavereilla oli voodoita (ei en ollut yhtään kade). Saatanan Matrox ja "kuka vittu jotain läpinäkyvyyttä tarttee, ditherointi on ihan hyvä".
En ole varma mikä Rage IIc oikeasti oli, mutta se oli sellainen kasa paskaa, että olen vieläkin katkera ATi:lle siitä. Mikään ei toiminut kunnolla ja jos toimi, niin hitaammin kuin softalla. Kaikki oli slide showta.
Joko sinulla kävi tuuri tai pelivalikoimasi oli hyvin rajoittunut, hyvin on muistissa vielä miten me Voodoo-miehet nauroimme partoihimme kun TNT-tyypit vaihtoivat ajureita liki joka pelin välillä että ne toimi kunnolla, kun meillä kaikki vaan Toimi(TM)
OT: Rage II+ pyöritti pelejäkin kivasti. Ainakin Midtown Madness oli DX-peli ja toimi täydellä FPS:llä. Lisäksi jos oli telkkari, ja DVD-asema, niin se pystyi rendaamaan noita videopintoja 2d-tekstuuriin, jolloin se skaalasi kuvaa ihan kivasti. Tämä yhdistettynä 1200-1500mk DVD-asemaan , niin olin aikaani edellä..
Silloin TNT 2 Pro ei enää ollut uusinta uutta (ja Rage IIc olisi pitänyt olla kuopattu jo aikoja sitten – paskaa laittoivat pakettikoneisiin). Kaikki mitä silloin löytyi toimi täydellisesti. Voi sitä riemua kun NHL 2000 toimi vihdoin täysin sulavasti ja ilman mitään ongelmia grafiikoissa.
Nää nostalgiajutut on ihan kivoja mutta miten noi viimeiset ~15 viestiä liittyy RX Vegaan muuten kuin että AMD on siinä takana? 😡
Lukaisin Petruksen artikkelin läpi viikonloppuna mutta kommentointi jäi silloin tekemättä. Olipahan tiivis tietopaketti ja aika raskas lukukokemus sellaiselle joka ei aktiivisesti seuraa näytönohjain/GPU-puolen kehitystä.
Kun tuota tietoa tuntuu olevan, niin olisiko @Kaotik mahdollista kirjoittaa enemmänkin artikkeleita näytönohjainten tämän hetken kehityssuuntauksista ja teknologioista? Artikkeleissa näitä aiheita voisi käsitellä vaikka kolmen kohderyhmän kannalta: pelaajat, grafiikan ammattilaiset (3D-mallinnus/rendaus, videoiden käsittely) ja tieteellinen laskenta/kryptovaluutat.
Minulle itselleni tuli viime kuukausien aikana jokseenkin yllätyksenä että kryptovaluuttojen louhiminen on jo niin iso bisnes että se vaikuttaa kuluttajille tarkoitettujen näytönohjainten saatavuuteen ja epäilemättä myös piirien suunnitteluun AMD:llä ja Nvidialla. Näistä aiheista olisi mukava sivistää itseään suomeksi kirjoitetuilla artikkeleilla.
Kahtotaan ja pohditaan, mitään en lupaamaan lähde. Tämänkin piti olla alunperin vain uutis"artikkeli" mutta kun mittaa kertyi kävi selväksi että tää on pakko julkaista artikkelina