Intel valmistelee parhaillaan Xe-arkkitehtuurin alle kolmea eri mikroarkkitehtuuria. Xe:n alle kuuluvat prosessoroihin integroitava XeLP-arkkitehtuuri, erillisnäytönohjainten XeHP-arkkitehtuuri ja HPC-laskentaan suunnattu XeHPC-arkkitehtuuri.
Intelin Raja Koduri on nyt twiitannut yhtiön Intiassa sijaitsevan kehitysosaston saavuttaneen merkittävän askeleen XeHP-arkkitehtuurin tiimoilta tarkentamatta kuitenkaan mitä tarkalleen on saavutettu. Kodurin twiitin mukaan kehittäjät ovat antaneet piirille lempinimen ”The Baap of All”. Baap on hindiä ja tarkoittaa isää. Piirin kerrotaan olevan paitsi suurin ikinä Intiassa suunniteltu piiri, myös historian suurimpia piirejä ylipäätään. Toistaiseksi ei ole tiedossa viittasiko Intelin väliaikainen toimitusjohtaja Bob Swan juuri tähän piiriin, kun hän kertoi viime osavuosikatsauksessaan yhtiön käynnistäneen ensimmäisen Xe-erillisgrafiikkapiirin onnistuneesti laboratorioissaan.
Maininta piirin suuresta koosta herättää helposti useita kysymyksiä. On selvää, ettei yhdeksi maailman suurimmista siruista kuvailtu piiri voi sopia joka näytönohjainluokkaan, joten se lienee tarkoitettu lähinnä datakeskuksiin ja mahdollisesti kaikkein tehokkaimpiin kuluttaja- tai ns. ”prosumer”-malleihin. Tämä tarkoittaisi samalla sitä, että XeHP-arkkitehtuuriin perustuvia piirejä on tultava markkinoille useampia, jotta Intel pystyy kattamaan aikomansa suorituskykyluokat taloudellisesti järkevästi.
Twitter-käyttäjä nimimerkillä Shobu_ twiittasi Rajalle olleensa pettynyt ettei piirin lempinimeksi tullut Baahubali -elokuvien mukaan. Koduri vastasi twiittiin ”There’s another one round the corner” eli kulman takana olisi tulossa vielä seuraava, mutta ei tarkentanut viittasiko hän sillä uuteen Baahubali-elokuvaan vai XeHP-grafiikkapiiriin. Kuluttajahintaisten näytönohjainten kannalta on toivottavaa, että kyse on jälkimmäisestä.
Lähde: Raja Koduri @ Twitter
Ja samaan aikaan huhut kiertävät, että koko arkkitehtuuri on vaikeuksissa mm. kilpailijoihin verrattuna korkean tehonkulutuksen ja korttivalmistajien olemattoman kiinnostuksen takia
Helvetin iso piiri, eli voisi kuvitella että myös virrankulutus ja perf/w surkea? Onko tuossa nyt hirveänä juhlimista?
Jälleen kerran Koduri on selittämässä kaikkea, parasta vain odottaa että saadaan tuote edes markkinoille.
Ei kait näyttiksissä ole vaikeaa tehdä "maailman isoin" piiri. Saman toistoahan se GPU on täynnä.
Se taas on eri asia, mikä on suorituskyky /W
Jos esim suorituskykyä on 2080Ti:n verran, niin eipä se mitään auta, jos kortti vie tehoa 2 kertaisen määrän ja keittolevykin kalpenee kateudesta. Lisäksi jos piiri on mieletön jööti, niin sen valmistus on kallista ja koska valmistuskapasiteetti on hyvin rajallista nykyään, niin tuollaisen piirin myytihinta on joko "ei oo" tai todella kallis.
On siis vähän köyhä leuhkimisen aihe "teimmepä maailman isoimman GPU:n"
Onko RTX 2080 Ti:n tai Voltan perf/watt surkeita? Ne on meinaan suurimmasta päästä piirejä mitä on tehty
Ei toki, mutta Nvidia hiukan eri asia kuin markkinoille vasta tulossa oleva intel :think: Ja tuskin se nyt hirveän hyvä asia on Nvidiankaan mielestä että ne piirit on niin hemmetin isoja, ennemmin ne pienempiä piirejä möisi samalla katteella.
Vaikkei Intelillä ole samanlaista kokemusta erillisistä grafiikkapiireistä kuin NVIDIAlla niillä on paitsi yleistä kokemusta laajemmasta skaalasta erilaisia piirejä, myös intiimimpi yhteistyö ja sen kautta ymmärrys valmistusprosessista mitä käytetään (enkä tarkoita etteikö TSMC, Samsung yms kertoisi kaikkea tarvittavaa asiakkailleen, mutta on se eri asia että tuotantolaitos on samaa firmaa)
Kai se pointti tässä on että otetaan kasa heppuja intiasta ja saadaan tehtyä tuote joka varmaankaa ei ole helpoin mahdollinen koska suuria valmistajia maailmalla ei ole kuin kaksi.
Tuskin Nvidian tai AMDn ensimmäinen pc näytönohjain on ollu 2080ti tasoinen, johon nyt verrataan.
Katsotaan vaikka 5 vuotta mitä alkaa tulla.
Intelillä on yli 20 vuoden kehitys grafiikkapiirien/grafiikkaytimien arkkitehtuurien kehittämisestä.
Tämä ei oleellisesti eroa siitä, kuinka pitkä kokemus tästä nVidialla on.
Ne kalleimmat piirit on isoja koska niissä on todella suuri määrä rinnakkaisia laskentayksiköitä ja niiden throughput-nopeus on todella hyvä. Ei niistä voitaisi pyytää samanlaista hintaa jos ne olisivat pienempiä ja hitaampia.
Ei ole, mutta Kodurin hehkutukset on nähty ja tulokset eivät ole olleet sielläpäinkään hehkutukseen nähden. Eikä Intelin edellinen yritys sekään häävisti päättynyt, kun hautasivat sen kaikessa hiljaisuudessa kehnojen tulosten takia. Henkilökohtaisesti uskon nuo Kodurin jutut vasta siinä vaiheessa, kun tuote on kaupoissa ja puolueettoman tahon testaama ja hyväksi toteama. Siihen asti kaikki tiedot asiasta ovat katteetonta henkselien paukutusta.
Nyt menee aika vahvasti liioittelun puolelle.
Nuo vaikuttaisi olevat vaan yhden mr nobodyn spekulaatioita, ei mitään oikeaa insider-tietoa/vuotoa.
Mites esimerkiksi Radeon 9700?
Ei sitä mihinkään haudattu, vaan se intergroitiin emolevyn pohjoissiltapiirille. Ja myöhemmin sen jatkokehitelmät siirrettiin sieltä prosessorin kanssa samalle piirille.
Ja tämän ansiosta intelin näytönohjaimista tuli maailman eniten valmistettuja PC-näytönohjaimia.
Intel on jatkanut yhtäjaksoisesti näytönohjainten kehittämistä ja valmistamista yli 20 vuotta.
Puhdas olkiukko-trolli-kommentti jonka faktasisältö on nolla.
Eikä varsinkaan Intelin kokoinen firma mene puhumaan yhtään mitään valmistuksesta ulkopuolisille verrattuna, mitä virallisia tietoja annetaan. Eiköhän työntekijöillä ole salassapitopaperit kirjoitettuna.
Iso piiri nimenomaan mahdollistaa korkean perf/w lukeman, jos laskee kellot alemmas.
Piirin koko tosiaan ei lupaa juuri mitään pelipuolelle. Hinta tulee olemaan suolainen, jos tuosta isoimmasta tehdään pelinäyttistä ollenkaan.
Sama juttu Nvidian ja AMDn kanssa, Nvidia teki nuo isot RTX piirit ja pisti hinnat todella korkeiksi, AMD ei jaksanut kilpailla varmaankin pääosin siksi, että nykyisellä arkkitehtuurilla tuollainen RTX2080 ti tasoinen kortti on liian kallis tehdä, eikä kannata R&D kulujen takia sellaista tähän sukupolveen tehdä. katsotaan ensi kesällä, josko saisi Intelin uudesta ja AMD high end kortista jo jotain testejä ja vuotoja.
Nykyisetkin huippukortit, jotka ovat siinä 2070 Super suorituskyky tasoisia (jos ei RTX:ää ym ominaisuuksia käytetä). kuluttavat virtaa senverran reippaasti, että 2080Ti tasoisen kortin jäähdytys olisi tn ollut todella paha ongelma. Ehkä joku, tyyliin nestejäähy olisi riittänyt.
Se on tosiaankin totta että Korduri on useamman kerran hehkutellut noita ja lopputulos on lässähtänyt pahasti.
Eikä nytten edes ilmeisesti sanottu suorituskyvystä mitään vs muut, vaan ainoastaan totesivat, että ovat tehneet KOOLTAAN erittäin ison piirin.
Se ei käytännössä vaan valitettavasti pysty mitenkään takaamaan, jotta piiri on myös suorituskykyinen ja pystyy kilpailemaan AMD:n, saati sitten Nvidian vastaavan kokoisia piirejä vastaan. Tietysti olisi erittäin hyvä (Kuluttajan kannalta), jos pystyisi (tosin AMD:n kannalta ainankaan ei).
Salassapitosopimukset on varmasti allekirjoitettuna myös suomen valtion virkamiehillä, mutta se ei näytä estävän kaiken kiinnostavan tiedon päätymistä lehdistölle
Eipä ole lähimainkaan intelin ensimmäisiä yrityksiä lähteä näytönohjaimien kehitykseen.
Floppaa tämäkin, ja saadaan katsoa miten linustechtipsille tulee kahden vuoden päästä
”intel hyper Gpu prototype”
joo,ei oikein lupaavalta näytä kun tuollaista juhlitaan,se että toimii ja että isoin piiri koskaan Intiassa tehty…
nooh,toivotaan,hmm,Kodurilla ei oikein isoja näyttöjä ole…. Xe:stä on kiinni jatkaako intelillä ko. hommassa.
vuonna 2020 nähtäneen tulokset,ja on muutenkin uutuuksien vuosi inteliltä ja nvidialta.
Jahas. Taas on tämä käärmeöljymies äänessä.
Hmmm… jos mietitään Vega piirejä, niin nehän olivat ovat edelleen oivia data Center laskentapiirejä! Se on se markkina_alue jonne Intel pääasiassa tähtää. Parhaat katteet ja Intel on ”tunnette” merkki data Center / corporate tasolla.
Tuo voi olla maailman hitain pelisiirrot ja silti juuri sitä mitä Intel haluaakin savuttaa. Jos vai tuolla saadaan suoritettu älyttömiä määriä tieteellistä laskentaa!
Enkä usko, että tuo olis älyttömän huono pelipiirinäkään, mutta peli GPUta ei tuossa yritetäkään tehdä. Pelipuolella amd:lla ja Nvidialla on mahdottoman iso etumatka ajuripuolella.
Mutta kun vertailuja tehdä, niin niitä pitää tehdä Nvidian ja amd:n ammattikortteja vastaan.
Jos puhtaasti Gen 12 perusteella pitäisi tehdä veikkauksia, niin sanoisin Intelillä olevan varsin hyvät mahdollisuudet saada varsin kohtuullista kamaa ulos. Ovat kumminkin tehneet näytönohjimia kauemmin kuin mitä moni jonne täällä on maapalloa tallanut. Lisäksi Kodurilla on vaihteeksi ollut kunnolla resurseja saatavilla (väkeä että rahaa).
Mutta kaikki intelin kokemus on suht tehottomista integroiduista ohjaimista ja se ei tarkoita sitä, että samalla osaamisella tulisi kerralla huippuluokan erillisohjain. Eikä vuosikymmenien osaaminen takaa sekään onnistumista, kuten AMD:n Bulldozer osoitti.
AMD Vega-arkkitehtuuri skaalautuu oikein hyvin kolmesta ytimestä(athlon Pro 200U) 64 ytimeen (Vega 64).
Ne shader-ytimet TMUineen ovat aivan samanlaisia riippumatta siitä, minkäkokoista piiriä ollaan tekemässä; Suurimpaan osaan siitä GPUsta tarvitaan ihan samanlaista osaamista vaikka tehdään pientäkin GPuta.
Lähinnä joku korkean tason komentojen jakaminen piirin eri clusterien (nvidialla GPC, AMDllä Shader Engine, Intelillä slice) välillä pitää tehdä isolla piirillä, mutta pienellä näitä on vain yksi.
Ja intel tähtää tuota isoa piiriään nimeomaan HPC-laskentaan, ei grafiikan piirtämiseen. Tuolla korvataan Xeon Phi, joka ei oikein ottanut tuulta alleen.
Ja sillä, että kolmionpiirtokuormaa ei saada jaettua optimaalisesti eri clusterien välillä ei ole väliä, jos ei piirretä kolmioita vaan vain lasketaan geneeristä OpenCL-koodia.
AMD teki Bulldozerin puhtaalta pöydältä, ja 1) ennusti väärin, paljonko softia monisäikeistetään 2) mokasi välimuistin suunnittelun ja liukuhihnan tasapainotuksen kanssa. Näitä ongelmia ei käytännössä olisi voinut tulla jos oltaisiin vaan pohjattu vanhaan sitä parantae eikä suunniteltu kokonaan uutta arkkitehtuuria.
Intelillä on jo olemassaoleva GPU-arkkitehtuuri, se pitää ainoastaan skaalata isommaksi piiriksi. Intelin ei tarvi tehdä erillis-GPUtansa puhtaalta pöydältä.
Tää on vähän sekava tilanne. HPC hommiinhan Intel tosiaan suunnittelee sekä XeHPC:ta (Monte Vecchio) että periaatteessa XeHP:n isointa järkälettä jos kaikki "datakeskusvehkeet" lasketaan HPC-luokkaan. XeHP:n pitäisi kuitenkin kattaa myös ne pelivehkeet sun muut, joten ne todennäköisesti ovat myös isoa piiriä myöten suunniteltu pärjäämään myös grafiikkahommissa, kun taas tuo XeHPC on vain laskentaan
Muistanko väärin että BD:n tapauksessa tuli myös takkiin siitä että toteutuneet kellotaajuudet jäi todella kauas suunnitelluista valmistustekniikan vuoksi? Että prossu olisi suunniteltu pöhisemään jossain 4-5 GHz maastossa johon se ylsi vasta ihan loppupään huippumalleilla.
Mitäs jos jätetään Vegat ja muut asiaan kuulumattomat saman tien pois tästä keskustelusta? Niillä kun ei ole mitään tekemistä tuon Intelin tulevan Xe:n kanssa.
Ja sen Intelin uuden Xe:n piti olla täysin uusi arkkitehtuuri, joten tuo viimeisin kommenttisi kuulostaa kyllä todella omituiselta
Ihan mielenkiinnosta: väännätkö sinä ihan vääntämisen ilosta kun tulee tuota off-topicia noin railakkaasti vähän joka puolella? Ja perään valitusta siitä, että muut siirtelevät maalitolppia kun vastaavat sinun offtopic kommenttiisi?
Ei se ole täysin uusi arkkitehtuuri, siinä on elementtejä myös aiemmista Gen-arkkitehtuureista.
Eli jonkinlainen hybridi kuten ensimmäisen sukupolven RDNA:n väitetään olevan? Minulle on kyllä jäänyt kuva uudesta arkkitehtuurista tuon Xe:n kohdalla. Muistatko jotain linkkejä tms. joista voisi tarkistaa tuon?
AnandTech Exclusive: An Interview with Intel’s Raja Koduri about Xe
Ei se mitään "hybridiä" kuitenkaan tarkoita
edit: ja "täysin uusi arkkitehtuuri" on tietenkin nyt mitä sellaiseksi haluaa määritellä, kyllähän se on monella tapaa täysin uusi vaikka vanhojakin elementtejä on mukana
Aika paljon enemmän niillä on tämän kanssa tekemistä kuin sinun bulldozer-esimerkilläsi.
Hienoa tekopyhyyttä kyllä, heität offropic-argumentin ja kun vastaan siihen jossain määrin (mutta selvästi vähemmän) off-topicilla niin sitten siinä vaiheessa alkaa minun syyttäminen off-topcista.
Pitikö? Onko jotain lähdettä tälle väitteelle?
Sen offtopicin kyllä tässä ketjussa aloitti joku muu kuin minä. Suosittelen katsomaan peiliin.
Minä korjaan ihmisten virheellisiä väitteitä. Kun postaat paskaa, vastaan siihen.
Mitä jos jätät suoraan kommmentoimatta kun et selvästi tajunnut viittausta esimerkiksi Bulldozeriin ollenkaan? Ei ketään kiinnosta tässä ketjussa sen sielunelämä, mutta sitä on helppo käyttää esimerkkinä epäonnistuneesta tuotteesta, koska kaikki tietävät sen olevan sellainen.
Se, että heitetään pintapuolisia esimerkkejä epäonnistuneesta tuotteesta ei ole kovin hyvää argumentointia, mikäli ei haluta ymmärtää, miksi ne epäonnistuivat eikä mietitä, että päteekö se epäonnistumisen syy siinä tilanteessa, mistä nyt on kyse.
Sinulla tuntuu lähinnä olevan vaan hirveä halu uskoa, että intel ei voi millään saada mitään kelvollista graffarautaa aikaiseksi, ja mikä tahansa kuinka onnetonkin argumentti ja epämääräinenkin huhu kelpaa tämän uskomuksesi taakse.
Tuleeko nämä tukemaan OpenCL:ää? Olis kyllä hienoa jos olis edes jonkinlaista toivoa, että Cuda korvautuis tulevaisuudessa jollain avoimemmalla rajapinnalla.
Varmasti.
Intelin näyttikset ovat tukeneet OpenCLää jo vuosia, ja esim. OpenCLn versio 2.0 oli tuettu jo viitisen vuotta sitten, kun nVidialla se taisi tulla beta-ajureihini joskus pari vuotta sitten, en ole varma, onko vieläkään virallisissa nvidian ajureissa.
OpenCL Platform with Intel® Graphics
Tietenkin tukevat, ei siellä änkyröi kuin NVIDIA ja Apple vastaan
OpenCL vain taitaa olla melko hidas sekä toimimisen suteen, että kehittymisensä suhteen.
Siellä silloin jossain vaiheessa tehtiin ryhtiliike, mutta homma on tainnut mennä taas vähän niin ja näin sen jälkeen.
Mitähän nyt mahtanet tarkoittaa "toimimisella?"
Joskus muutama vuosi sitten nVidialle pystyi tekemään CUDAlla nopeampaa softaa kuin OpenCL:llä, koska nVidia ei tukenut OpenCL 2.0aa, mutta tuki CUDAssa niitä nopeuttavia ominaisuuksia, jotka OpenCL 2.0 toi, mutta nVidian tukemasta OpenCL 1.2sta puuttui.
Eli siis, CUDA toimi jossain vaiheessa nVidialla nopeammin käytännössä ihan vaan nVidian perseilyn takia.
Mutta tästä näköjään lähti myytit liikkeelle että CUDA olisi jotenkin "nopeampi rajapinta kuin OpenCL". Ei ole.
Muiden valmistajien näyttiksille taas – ei ole käytännössä koskaan ollut mitään OpenCLää nopeampia rajapintoja, muttta niille OpenCLn uudet ominaisuudet on tulleet paremmalla aikataululla kuin nVidialla.
Eikä OpenCL2.0ssä ole mitään "vikoja" tms, puuttuvia ominiasuuksia nopeuden suhteen.
Mielenkiintoista sinänsä että OCL:lää on windowspuolella tuettu todella huonosti, jos siinä ei kerran ole mitään ongelmia. Onko siinä sitten ongelmalliset lisenssointiehdot?
Ei. Sen lisenssiehdot on oikein mukavat.
Mitähän nyt tarkoitat muka huonolla tuella?
Se on tuettu oikein hyvin kaikkien muiden paitsi nVidian toimesta. nVidia vaan tarkoituksella tukee OpenCLää vähän huonosti, jotta saadaan painostettua koodarit käyttämään CUDAa.
Niin no kyseessä on intel ja johan ne julkaisi OneAPI:nsa, missä se heidän CUDAa, OpenCLää vastaava on nimeltään DPC++(Data Parallel C++). En ihmettelisi yhtään että tekisivät tuosta suljetun malliin CUDA ja tukisivat OpenCL:ää mahdollisimman vähän. Itseä kun ei pahemmin ohjelmointi ole koskaan kiinnostanut, mutta oletkos @hkultala käynyt läpi tuota OneAPIa?
Eiköhän Nvidian kortit yksinkertaisesti toimi ESIM sillä cudalla paremmin. Siinä kun ei tarvitse ottaa muita mitenkään huomioon, niin saadaan tehtyä nopeampi, helpommin vakaampi ja uusien ominaisuuksien lisääminen on todella simppeliä vs systeemi, jossa on osallisia ties mitenkä paljon.
Open CL on senverran vähän tuettu windowspuolella, että on ehdottoman järkevää panostaa ennemmin directX:ään ja CUDA:aan (Jotta korteista saadaan kaikki irti.) Open CL: tukemisesta tuleva hyöty on ollut valitettavasti Win puolella lähinnä olematonta ja muiden käyttisten osuus on siinä käytössä, jossa OGL:stä on hyötyä on erittäin pieni. Steam machinetkin taisivat kuivahtaa pois, vaikka MS tarjosi tilaisuuden kultalautasella, hyvin suurta osaa ärsyttäneen Win 8 sekoilunsa kanssa, ja niistä on puhuttu kokoajan vähemmän..
Suurin osa siitä, mitä on pellin alla on OpenCLssä ja CUDAssa aivan samaa, niitä vaan kutsutaan hiukan erilaisten rajapintojen läpi.
ja suurin syyu siihen, miksi CUDA toimii nVidalla hiukan paremminkuin OpenCLllä on se, että nVidia haluaa painostaa ihmiset käyttämään CUDAa, ei se, että CUDAn toteuttaminen olisi tekniksesti vaikeampaa.
Itse asiassa, nVidian OpenCL-toteutus toimii siten että se nimenomaan kääntää OpenCLn CUDA-koodiksi.
Jos haluaa kehittää OpenCL-koodia nVidian työkaluilla, pitää asentaa "CUDA SDK".
:facepalm:
Kun tarkastellaan asiaa muutenkin kuin hyvin kapeasti nvida-näkökulmasta, niin OpenCL on todella paljon paremmin ja laajemmin tuettu windows-puolella kuin CUDA.
En ymmärtä, että mistä ihmeestä oikein olet saanu päähäsi tuon väitteesi jostain "OpenCLK huonosta tuesta windows-puolella", koska tuo väite on yksinkertaisesti täyttä puuta heinää.
:facepalm:
OpenCL on tuettu kaikkien näyttisvalmisajien windwos-ajureissa.
Kun softan näyttiskiihdytetyt rutiinit koodaa OpenCLllä, se koodi toimii kaikilla näyttiksillä
Se on ziljoona kertaa suurempi hyöty kuin se, että joissain tilanteissa suljettua rajapintaa käyttäen saa yhden valmistajan piireillä pienehkön suorituskykyhyödyn, johon siihenkin pääasiallisesti on syynä vain sen piirivalmistajan kusipäisyys.
Joku Steam machien ei liityä tähän yhtään millään tavalla.
Jos openCL käännetään CUDAlle tehdylle alustalle, niin Cudan on oltava silloin laajempi kokonaisuus tai jos ei ole, niin nopeus on todella surkea. Jotenkin pidän todennäköisempänä, että CUDA tukee paremmin juurikin NvidianGPU:ita (kun muiden räpeltämistä ei tarvitse huomioida.)
————–
Eli siis Open CL ei juurikaan ole kehittynyt, jos kaikki toimii hyvin 10 vuotta vanhoilla näyttiksilläkin. Sitäkö vaivaa se ongelma, että kiistellään porukassa, mitä siihen tulee ja mitä ei ja siihen saadaan menemään 10 vuotta aikaa, jotta saadaan edes joku uusi ominaisuus sinne?
—————————-
Tosin tämä vääntöhän ei kuulu tähän ketjuun, joten olkoon, miten on.
—————————-
Jos Intel meinaa kortteja muuhun, kuin laskentapuolelle, niin kannattaa viritellä niihin mahdollisimman hyvät DX ajurit. Jos niitä käydään tekemään "kun keretään", niin ei niitä kortteja kukaan pelaamiseen osta. Tietysti jos nuo ei sovellu pelaamiseen (On siis suunniteltu etupäässä laskentakäyttöön), niin sitten lie DX tuen tasokin melko samantekevää..
Tuolla logiikallasi C++ ei ole myöskään voinut kehittyä paljoa 34 vuoteen, ja C++17:n täytyy olla aivan samanlainen kuin joku 80-luvun ensimmäinen C++-versio, koska C++17 toimii 34 vuotta vanhalla 80386-prosessilla.
Aivan kuten C++aankin, OpenCL:ään on tullut 10 vuoden aikana paljon sellaisia uusia ominaisuuksia, jotka eivät vaadi mitään uutta rautatukea. Erityisesti OpenCL 1.1:ssä tuli paljon lisää kirjastorutiineja kernelin kirjastoihin.
Mutta erityisesti OpenCL 2.0 toi kyllä selvästi myös sellaisia ominaisuuksia, jotka vaativat rautatukea, ja kaikki OpenCL 2.0-koodi ei toimi vanhoilla näyttiksillä.
OpenCL 2.2 taas jälleen tuo lähinnä taas sellaisia ominaisuuksia, jotka eivät vaadi mitään uutta rautatukea.
Ei. Kuka tahansa voi aina ja heti toteuttaa sen päälle omalla extensiolla haluamansa toiminnallisuuden. Mutta se, että tämä extensio joko standardoidaan osaksi standardia, tai sitten standardoidaan toinen saman asian tekevä hiukan erilainen rajapinta, voi viedä 1-2 vuotta.