Vaikka Computex-messut siirrettiin koronapandemian vuoksi syyskuulle, on messujen tiimoilta myös pienimuotoisempaa ohjelmaa verkossa näin kesäkuun alkuun. Messujen julkaisemassa avajaisvideossa omat terveisensä pääsi lähettämään Intelin toimitusjohtaja Bob Swan.
Intelin toimitusjohtajan puhe oli omiaan nostamaan useampiakin kulmakarvoja etenkin teknologiamediassa, jonka merkittävimpiä tehtäviä on tuotteiden testaus. Swanin mukaan alan pitäisi nimittäin siirtää huomionsa pois testituloksista ja keskittyä sen sijaan luodun teknologian vaikutuksiin ja hyötyihin globaalilla skaalalla.
Hän kertoo koronapandemian alleviivanneen tiettyyn käyttöön suunnattujen laitteiden tärkeyttä markkinoilla. Niiden tarpeiden täyttäminen vaatii Swanin mukaan asiakkaiden lähellä pysymistä, jotta yhtiö voi ennakoida tarpeet ja optimoida tuotteensa niiden mukaisiksi ajoissa.
Voit lukea lainauksen Swanin puheesta alta tai katsoa koko puheen ylle upotetusta videosta.
We should see this moment as an opportunity to shift our focus as an industry from benchmarks to the benefits and impacts of the technology we create. The pandemic has underscored the need for technology to be purpose-built so it can meet these evolving business and consumer needs.
And this requires a customer-obsessed mindset to stay close, anticipate those needs, and develop solutions. In this mindset, the goal is to ensure we are optimising for a stronger impact that will support and accelerate positive business and societal benefits around the globe.
Täysin uudesta teemasta ei Swanin puheessa ei kuitenkaan ole kyse. Intel on muun muassa painottanut viime aikoina oikeiden käyttöskenaarioiden merkitystä yksittäisten testiohjelmien sijasta sen prosessoreiden jäätyä pahasti alakynteen monien testiohjelmien mittaamilla osa-alueilla AMD:n Ryzen-prosessoreita vastaan. Kerro kommenteissa, mitä mieltä olet Bob Swanin ajatuksista kuluttajan näkökulmasta katsottuna?
Kun ei kisassa pärjää, niin sitten aletaan selittelemään. Tuon voi jättää omaan arvoonsa.
Onhan tuo ihan totta. Intel on itse tainnut keskittyä sähkökiukaisiin viime aikoina. Luku 14 ja perässä 20 plussaa on myös estetiikan kuumimpia trendejä markkinointimateriaaleissa.
Niin, mitäs jos optimoisivat teknologiansa niin että tuotteet pärjää vertailussa kilpailijoita vastaan. Sitähän kaikki asiakkaat haluaa. Swanin höpinä kuulostaa siltä että kun ostat Intelin prossun niin se jotenkin tekee maailmasta paremman paikan.
Tuo kommentti kuulostaa myös aika huvittavalta sen jälkeen kun Intel myi kuluttajille 10 vuoden ajan korkeintaan neliytimisiä prosessoreja, mutta kun kilpailijalta tuli 8-ytimiset kuluttajamallit niin Intelkin alkoi nostaa kuluttajaprossujen ydinmääriä kauhealla kiireellä. Väittääkö Swan että kuluttajat halusi 10 vuoden ajan sitä samaa tavaraa uudelleen pakattuna ja korkeammilla kelloilla, ja kuluttajien tarpeet muuttuivat juuri silloin kun Intel julkaisi ensimmäiset 6- ja 8-ytimiset prosessorit? Aikamoista BS:ää.
Kun ei pärjätä kilpailijalle niin sitten keksitään tällaisia naurettavia selityksiä ja koitetaan ohjata fokus suorituskyvystä johonkin maailmanparantamiseen.
Customer-obsessed mindset särähtää myös aikalailla korvaan kun miettii Intelin touhuja tässä vuosien varrella. Ovat asiakkaiden sijaan kyllä keskittyneet paljon enemmän siihen että mahdollisimman vähällä rahastetaan mahdollisimman paljon, ja että kilpailijat savustetaan ulos markkinoilta tai ainakin lykitään kapuloita rattaisiin millä keinolla hyvänsä. Ei sillä että esim. AMD olisi jokin hyväntekeväisyyslaitos, mutta ne nyt ei sentään suolla ulos noin naurettavaa lätinää.
Tuossa ei ole mitään tavalliselle kuluttajalle.
Esim en pelaa Cinebenchiä joten sen tulokset ei kiinnosta.
Kannattajat toki yleensä pureutuu usein tiettyyn testiin/testeihin mikäli se on juuri se oma suosikki merkki joka siinä hyvin pärjää, vaikka sitä ei ikinä itse käyttäisikkään.
Tätä on tapahtunut aina, kuten esim gpu puolella Ashes of singularity jne jne..
Cinebench tuntuu olevan sellainen jota moni käyttää? Tulokset ainakin tuntuu olevan erittäin tärkeitä monelle jostain kumman syystä
Cinebench on ihan oikeasti käytettyyn ohjelmaan (Cinema4D) perustuva testi, mikä tekee siitä heti ainakin kaikkia synteettisiä testejä mielenkiintoisemman.
Tää on just kuin P4 vs A64 aikanaan.
Voi intelli raukka, kyllä sillä koolla on väliä vaikka ne sanoo että ei ole.
No joo, itse kyllä vielä tänäkin päivänä suosin inteliä ja tulen käyttämäänkin. Ainut mihin itse käytän tietokonetta on puhdas pelaaminen ja musiikin kuuntelu. Näihin en tarvitse 16 ydintä pyörittämään. Ja fakta on, kun vertaat intel ja amd keskenään, intel voittaa kun kyse on pelaamisesta ja multitasking ja muu renderöinti menee kyl vahvasti amd puolelle. Elkää lähtekö hypejunan kyytiin pelkästään testitulosten varjolla jos voittaa jossain videoiden ja muun härpäkkeen käsittelyssä, mikäli pelaat vaan tietokoneellasi ota intel i7-9700k ❤️
9700K on väliinputoaja. Jos vain pelaa niin 10600K tai 3300X riippuen budjetista.
Niin siis Swanin mukaan siellä tekijäpuolella pitäisi siirtää katse puhtaasti kovemman geneerisen suorituskyvyn haalimisesta tarkemmin kohdennettuihin ratkaisuihin, näin itse tuon kohtuullisen korkealentoisen kommentin tulkitsen. En oikein usko että Intelin CEO sisällyttää teknologiamediaa sanaan "industry", kuten tuossa yllä tunnutaan rinnastettavan.
Kuluttajan näkökulmasta nämä isojen johtajien suuren siveltimen heilautukset joilla maalataan tulevaisuuden visioita lienee aika merkityksettömiä, varsinkin sillon kun kohdeyleisönä on lähinnä toiset alan toimijat.
Intel jos kuka on pyrkinyt täyttämään koko maailman samanlaisilla x86-ytimillä, joiden kilpailuvaltti on ollut nimenomaan yhteensopivuus(samanlaisuus) ja raaka teho (nimenomaan niissä benchmark-softissa, ja niissä on sitten huijattukin).
Intel jos kuka on nimenomaan tehnyt myynyt aivan samoja piirejä kaikille eikä ole juuri customoinut piirejä asiakkaiden tarpeisiin.
AMD sen sijaan on tehnyt Sonylle, Microsoftille ja sille jollekin tuntemattomalle kiinalisfirmalle konsolipiirejä, sekä kiinalaisille oman version zen-ytimestä.
ARM myy ziljoonaa eri ydinmallia kaikille, että niitä voidaan laittaa customoituihin piireihin, ja auttaa sen lopullisen piirin suunnittelussa.
Jos maailman huomio olisi aiemmin ollut siinä, mitä Swan nyt toitottaa, Intel olisi pärjännyt paljon huonommin.
Customer obsessed mindset on luultavasti Salesforce-CRM:n konsepti vuodelta 2018. Voin olla väärässä mutta nopea googlaus johti sille sylttytehtaalle. Eli Intel ei ollut keksinyt pyörää uudestaan vielä takavuosina.
Customer obsession kuulostaa myynti- ja johtamiskonsulttien inspiraatiolta, jossa joku sinällään tärkeä ajatus otetaan suurennuslasin alle ja hetken päästä kaikki toistelevat mantraa vaikuttaakseen trendikkäiltä. Lean oli muutama vuosi sitten juttu, jonka kanssa porukalla briljeerattiin kunnes taksikuskit alkoi pitää siitä esitelmää matkalla. Arvostusta silti leanille ja kuskeille, molempia tarvitaan.
Bob Swan eroaa AMD:n ja nVidian toimareista siten, että hänellä on tutkinto kauppiksesta, kun kahdella muulla on puolijohteiden tekniikasta. Kommentoin kriittisesti sitä kun nimitys tuli.
Customer obsessed mindset on voinut olla osa myyntipuhetta, jolla Swan onnistui puhumaan itselleen paikan toimarina. Termi tuli muotiin
luultavasti 2018 ja Swan valittiin tehtävään tammikuussa 2019. Customer obsession oli hänen kirjeessään työntekijöille tehtävää alkaessa.
Jos tekniikka jollain liiketoiminnan osalla tökkii, parempi myynti on tapa tehdä lisää tulosta silloinkin. Keskinkertainen tuote ja hyvä myyjä on menestyksen resepti, luultavasti enemmän kuin hyvän tuotteen ja keskinkertaisen myyjän yhdistelmä. Siksi voi olla että Swan on oikeassa ja kriitikot (minä) väärässä. Kunhan vaan valmistusprosessi lähtisi joskus pelaamaan.
9700K mahdollistaa tosin kovemmat FPS pelistä peliin.
3300X 4/8 en lähtisi kovin tosissani pelaajalle suosittelemaan varsinkin jos Budjetti on 9700K luokkaa, pieneen budjettiin 3300X toki Ok.
katso liitettä 396399
Ja ennekuin joku pääsee sanomaan että "Tää on 720p/2080Ti ei kukaan käytä tuollaista"
Niin tämä kuvastaa hyvin myös sitä jos laskee peleistä esim.asetuksia jolloin Fps nousee ja vaatii prosessorilta enemmän suorituskykyä.
Tämä tulee silloin erityisesti tarpeeseen kun haluaa hyödyntää 144/240Hz näyttöään.
Eli 720p/2080Ti combo vain siksi että todelliset prosessorin rahkeet tulevat esille.
Vähemmän yllättävä kannanotto kun on kuitenkin ”firman mies”. Se kenen leipää syöt, sen lauluja laulat vai miten se meni.
Kysymys on maailman pelastamisesta. Etlan mukaan vuonna 2030 maailman energian kulutuksesta 21 % menee ICT-alan tarvitsemaan sähköön ja syynä siihen on mikäs muu kuin striimaus ja online-pelaaminen (80-90 %). Pelaajat siis tuhoavat planeetan. Olisi ihmeellistä, jos mitään tiedonsiirtoveroa ei olisi tulossa lähivuosina.
5G:n ongelma ei ole tarve kääriytyä alumiinifolioon, vaan se tukiasemien määrä joka kytketään sähkötöpseliin.
Tässä on kyse lyhyt aikaskaala vs pitkä aikaskaala.
Hyvä myyntimies osaa myydä hiukan huohkoja tuotteita, mutta mikään myyntitaito ei pelastaa siinä vaiheessa, jos tuotteet pääsee aivan kura-tasolle asti.
Ja myyntimiehen/pavunlaskijan alaisuudessa se R&D näivettyy ja alkaa kehittämään vääriä asioita (lyhyen tähtäimen optimointia), kun puuttuu visio siitä, mitä pitäisi oikeasti pitkällä aikaskaalalla tehdä). R&Dn näivttyminen käytännössä tarkoittaa joko
1) Resurssien liiallista ohjaamista nykyisten tuotteiden viilaamiseen seuraavan arkkitehtuurin kehittämisen sijaan (paras esimerkki tästä oli ehkä Apple Sculleyn aikana, mutta tähän syyllistyi myös hyvin pahasti Nokia suhteessaan Symbianiin)
2) Liiallista säästämistä ja nipottamista, joka haittaa tuotekehitystä ja saa nimenomaan osaavimmat ihmiset ärsyyntymään ja lähtemään firmasta (eniten ehkä ärsyttää se, että aiemmin käytössä olleita työsuhde-etuja poistetaan, ja byrokratiaa lisätään)
3) Tulevaisuuden tuotekehityksen ohjaamista liian korkealentoisiin (huuhaa-)projekteihin, kun johtoportaalta puuttuu ymmärrys siitä, mitkä tulevaisuuden ideat on järkeviä ja mitkä huuhaata, ja mitkä on järkevä (yrittää) tuotteistaa massamarkkinoille vasta 10 vuoden eikä kolmen vuoden päästä. Mennään buzzwordien mukana.
Tekniikasta ymmärtävä johtoporras osaa laittaa R&Dn kehittämään oikeita asioita, että 2-6 vuoden päästä on markkinoilla oikeita, hyviä ja kilpailukykyisiä tuotteita, joilla silloin tehdään hyvää katetta.
Ja jos firmalla on oikein hyvä kassatilanne(kuten intelillä on), firman kannalta siinä lyhyen tähtäimen optimoinnissa pitkän tähtäimen kustannuksella ei pitäii iolla mitään järkeä (ellei sitten luovuteta peliä ja todeta, että ei me kuitenkaan osata kehittää mitään millä pärjätä tulevaisuudessa, rahastetaan nyt sillä mitä voidaan ja romahdetaan sitten)
Johdon kannalta siihen lyhyen tähtäimen optimointiin toki motivoi väärin rakennetut bonusjärjestelmät, joissa bonukset maksetaan firman sen hetkisen eikä tulevan tuloksen suhteen; Järkevässä bonusjärjestelmässä bonukset tulisivat sen pari vuotta myöhässä.
Näin on. Toisessa ketjussa johon viittasin kirjoittelinkin, että jos johtajalta itseltään puuttuu visio, niin 100 000 alaista ei pysty sitä hänelle tekemään.
Catch voi olla siinä, kuinka pitkään muut yhtiön hallituksessa olevat osakkeenomistajat itse tahtovat omistaa osakkeita. Jokainen toimija optimoi tekemänsä valinnat omalta osaltaan.
PK-yrityksen omistajayrittäjä katsoo asioita hyvin pitkällä tähtäimellä, kun firma tuntuu omalta. Intelillä oli ehkä semmoista ajatusmaailmaa 70-luvulla ja ehkä vielä jonkun tradition muodossa 80-luvulla.
Nykyiset megayhtiön hallituksen haikalat voisi tavoitella mahdollisimman suurta osakkeen arvoa vaikka 3-5 vuoden päähän, jolloin takaraivossa ajatus on itse tai omalla porukalla nostaa kytkintä silloin. Henkilökohtainen kiintymys firmaan puuttuu. Voi olla, että osakkeita omistaa henkilöiden sijasta yhtiöt ja päätöksiä tehdään aika paljonkin vuosineljänneksen verran taaksepäin katsomalla ja toteutumien Excel-sheetin pohjalta.
Vertailun vuoksi, nVidian ja AMD:n toimarit vaikuttaa henkilökohtaisesti sitoutuneilta omaan yhtiöön. Intelin toimarin voisi kuvitella jatkavan vaikka jossain öljy-yhtiön hallituksessa parin vuoden päästä, jos Intelin tulos on kehittynyt melko hyvin parin vuoden ajan.
Hallituksen jäsenten hurjan kalliit osakkeisiin pohjautuvat sitoutusohjelmat tietty koittaa siirtää tähtäintä eteenpäin. En ole lueskellut kirjallisuutta aiheesta.
Se "streamaus" on >80%sti youtuben ja netflixin katsomista, ei pelistreamien katsomista.
Ja todellisin turha tietotekniikkaan liittyvä "maailman tuhoaja" on leikkiraha, jonka mainaaminen ei tuota maailmalle mitään lisäarvoa, mutta johon vaan haskataan hirveästi sitä sähklöä.
ja (käytännössä) kaikki internet-palveluntarjoajat ja streamauspalvelimien pitäjät makselevat jo energiaveroja sähköstään.
Ei sen päälle tarvita mitään erillisiä bittiveroja.
Ja niin, tällä hetkellä ne intelin datakeskusprosessorit (jollaisilla esim. netflixiä ja youtubea pyöritetään) ovat nimenomaan energiatehokkuudessa pahasti AMDn EPYCejä jäljessä. Valitsemalla Intelin palvelinprosessorin ollaan tuhoamassa maailmaa, ei pelastamassa sitä.
Katsotaan sitten muuttuuko tilanne kun Icy Lake SP tulee, mutta itse vähän pelkään että ei tarpeeksi; Sunny Cove on niin iso ydin, että niitä ei järkevän kokoiselle palvelinpiirille saa tarpeeksi, niistä saadaan kyllä kova IPC ja sen kautta yhden säikeen suorituskykyä ulos, mutta kun EPYC ajaa 2.66-kertaista määrää säikeitä vain hiukan suuremmalla pii-pinta-alalla ja virrankulutuksella, niin siinä ei joku 20% IPC-ylivoima pelasta palvelinkäytössä jossa niitä säikeitä riittää ajettavaksi; Edelleen Icy Lake SPn tultuakin zen2-EPYC lienee energiatehokkaampi ja monen säikeen suorituskyvyltään parempi serveriprossu useampiin käyttötarkoituksiin.
Ei, juuri päin vastoin.
Suurempi tukiasemamäärä vähentää kokonaisvirrankulutusta siirrettyyn datamäärään nähden.
Suurempi määrä tukiasemia tarkoittaa sitä, että päätelaite ja tukiasema ovat paljon lähempänä toisiaan.
Tarvittava lähetysteho skaalautuu toiseen potenssiin etäisyyteen nähden.
Se, että yhden ison tukiaseman sijaan on vaikka 16 pientä tukiasemaa, tarkoittaa sitä, että tukiasema on keskimäärin 4 kertaa lähempänä, ja voidaan käyttää 16 kertaa pienempää lähetystehoa.
Tukiaseman tekemän prosessoinnin virrankulutus, sekin skaalautuu melko lineaarisesti siirrettyyn datamäärään nähden.
Toki uudet modulointitavat ja järeämmät virheenkorjausalgoritmit (joiden tarkoitus on lisätä verkon kapasiteettia) voivat lisätä sähkönkulutusta/bitti (mutta osa näistä voi myös vähentää sitä), mutta näillä ei ole mitään tekemistä tukiasemien määrän kanssa.
Ja Intelin kontribuutiot tällä hetkellä markkinoilla olevan 5G-teknologian tasolle on maailmanlaajuisessa mittakaavassa olleet selvästi enemmän negatiivisia kuin positiivia. Tästä en ehkä sano enempää, koska tähän liittyy ei-julkista tietoa.
OT:
Hetkinen, eikös tuossa lainaamassasi kuvaajassa tämä 10600k pärjää paremmin, kuin 9700k (Sillä on isompi palkki, sekä "Higher is Better", kävin lisäksi katsomassa pelikohtaisesti, ja lähes kaikissa tämä 10600k voitti 9700k:n fps:ssä, lukuunottamatta 1-2 peliä kymmenestä per resoluutio. Lainaamassasi viestissä kuitenkin mainittiin tämä 10600k.)? Vai oliko vastaus puhtaasti tuohon 3300X:n liittyvä, jossa tapauksessa näyttäisi olevan juuri, kuten sanoit.
Pahoittelen että menee OT puolelle, aihe sinällään kiinnostaa mutta ei taida jaksaa siirtoa ja jatkoja sopivampaan ketjuun.
Eli joo, miten sitten 2030, jää nähtäväksi yleistyykö ehkä Stadiat ja vastaavat. Etlan lainaamia lähteitä en ole lukenut.
Näin on ja samoilla linjoilla Warren Buffett. Ellei sitten nykyinen fiat-raha vaikka jossain karmeassa kriisin skenaariossa kokonaan epäonnistuisi.
Ei ole yhden totuuden asia vaan arvomaailmajuttua. ICT:n energian kasvu voi tulla muun energian kulutuksen päälle. En tiedä, onko niin mutta ihan mahdollista se varmaan on. En tiedä tuottaako internet CO2-päästönsä verran CO2-säästöjä toisaalla. Jos striimaus dominoi niin hyötykäyttö ja kaupankäynti ei kait vie netin nykyisestä tiedonsiirrosta kuin ehkä jonkun kymmenyksen verran ja loput on Salkkareita ja vastaavaa.
Jos näin on, niin 4k-videoiden katsominen kännykän ruudulta ei välttämättä tuota maailmalle sohvalla lojumista kummempaa lisäarvoa mutta voi olla CO2-ongelma jos jokainen sitä tekee.
Kysymys on siitä onko siirretyn datan määrä valtava kasvu mahdollista tuottaa kestävällä tavalla. Tällä hetkellä tietääkseni ei.
Real-World… Not Really. Sama Ryan Shroutin aloittama laulu jatkuu, jossa kyseenalaistetaan milloin mitäkin mikä sopii yhtiön kulloiseenkin markkinointistrategiaan. Intel’s Swan song, let’s hope not.
Nojuu, nuo "etäpelauspalvelut" on kyllä melkoista sähkönhukkaa (ja muutenkaan niissä ei ole paljoa järkeä)
Niissä joutuu vielä käyttämään huonompia videonpakkausmoodeja viiveen pitämiseksi pienenä, joten kuvan siirtämiseen joudutaan käytännössä käyttämään moninkertainen kaistanleveys normaaliin suoratoistopalveluun verrattuna.
Mutta, transistorit halpenee jatkuvasti (Mooren laki ei ole kuollut, van vain hidastunut) joten 2030 kaikilla on taskussa kännykkä, jossa on niin tehokas 3d-kiihdytin (myös säteenjäljitykseen) että millekään etäpelauspalveluille ei ole mitään tarvetta suorituskyvyn takia.
ICT-energian kasvulla voidaan myös korvata (ja samalla vähentää) energiankulutusta muualla; Kun Korona-aikana (melkein) kaikki tietotekniikkatyöläiset tekevät töitään kotoa etätöinä, ja työmatkat on muuttuneet etäpalavereiksi, työmatkoihin käytetty energiankulutus on romahtanut.
Korona on romahduttanut maailman CO2-päästöt, vaikka tietotekniikan energiankulutus on sen aikana lisääntynyt.
Nyt kun Korona-aikana on (pakosta) otettu käyttöön paljon uusia (matkustusta/liikkumista vähentäviä) tapoja tehdä asioita, osa näistä voi jäädä voimaan Koronan jälkeenkin kun huomataan, kuinka hyvin ne toimii ja kuinka paljon niillä säästetään.
4k-videon katsominen kännykän ruudulta kertoo lähinnä siitä, että sen katsoja on "isompi luku aina parempi"-idiootti.
Mutta mikäli se video tulee langattomasti viiden metrin päässä olevan mikrotukiaseman kautta (ja tulee siihen ethernetiä ja valokuitua pitkin 300km päässä olevasta datakeskuksesta eikä toisella puolella maapalloa olevasta datakeskuksesta), eikä 5km päässä olevan 4G-tukiaseman kautta, sen siirto ei aiheuta merkittäviä CO2-päästöjä
Ja datansiirtoverosta:
Ja jos joku maa päättäisi ottaa käyttöön datansiirtoveron, jossa sen maan runkoverkoissa olevaa dataa verotettaisiin jollain verolla, niin se maa samalla varmistaisi sen, että siihen maahan ei kukaan tule rakentamaan yhtään uutta palvelinkeskusta, vaan ne palvelinkeskukset rakennettaisiin naapurimaihin, ja olemassaolevat datakeskuksetkin pikku hiljaa siirrettäisiin muualle.
Eli tämä datansiirtovero käytännössä helposti vain lisäisi niitä kokonaispäästöjä, koska data pitäisi siirtää kaupempaa kun datakeskukset keskittyisivät enemmän maihin, joissa datansiirtoveroa ei ole
Datansiirtovero voisi siis käytännössä toimia vain, mikäli se otettaisiin käyttöö esim. koko EUn tasolla.
Mutta siinä ei silti olisi mitään järkeä. Järkeä on verottaa niitä päästöjä suoraan.
Se, että verotetaan tiettyjä käyttötarkoituksia johtaa vaan siihen että systeemi toimii epätehokkaammin ja päästöt vaan lisääntyy: Hyvä esimerkki tästä on se, että tällä hetkellä autoilua verotetaan paljon ankarammin kuin lentoliikennettä, ja lentoliikenne, joka on todellisuudessa epäympäristöystävällisempi tapa liikkua kuin autoilu, tulee pitkillä matkoilla halvemmaksi tämän (keinotekoisen) veroedun takia.
Kyllä voidaan, juuri sillä tavalla kuin sitä 5G:ssä ollaan tekemässä: rakentamassa pienempiä tukiasemia lähemmäs käyttäjiä, jolloin lähetystehojen myötä pienenee virrankulutus.
Ja teleoperaattoreilla kyllä osataan ottaa kustannuslaskelmissa huomioon tukiasemien sähkönkulutus => pyritään ostamaan sellaisia tukiasemia, joissa on mahdollisimman pieni virrankulutus => tukiasemavalmistajat pyrkivät valmistamaan tukiasemia, joilla on pieni virrankulutus.
Se, että tukiasema on hyvin lähellä ja kaistaa jää paljon "ylimääräiseksi" voisi myös mahdollistaa sen, että käytetäänkin yksinkertaisempia modulointi- ja virheenkorjausalgoritmeja, joilloin siirrettyä bittiä kohden käytettyä prosessointimäärää ja sen kautta prosessoinnin virrankulutusta voitaisin vähentää. Sitä, tehdäänkö näin, en tiedä, vaikka minun varmaan pitäisi tietää. (toisaalta, jos tietäisin, en ehkä saisi sitä sanoa).
OT. Vuoden 2030 kännykkä ei välttämättä jaksa vuoden 2030 pöytäkoneen standardin mukaisia pelejä.
Tulevaisuudesta en tiedä mutta ostin äskettäin kotiin mesh-wifin valokuidun jatkoksi.
Mesh maksoi muutaman satasen. Samoin muutama satku menee laitteen elinaikanaan kuluttamaan sähköön. Sähköä menee enemmän kuin ennen.
Niin itsekin ajattelin.
Näin on. On vaikeaa vaikuttaa yhteen asiaan ilman että sillä olisi sivuvaikutuksia.
Kaipaisin lisää tutkimusta ja laskelmia siitä, onko ICT:n energian kulutuksen kasvu kestävällä pohjalla vai ei. Kokonaisuutta ei välttämättä ymmärrä muutamien tapausesimerkkien kautta.
ICT-maailman sähkönkulutuksesta olen sataprosenttisen samaan mieltä että nuo ääliömäiset kryptovaluutta-sähkörohmuverkot pitäisi lopettaa. Nyt kun pitäisi jotain ilmastotalkoita pitää, niin on jotenkin käsittämätöntä ettei tähän ole otettu mitään kantaa.
Ilmeisesti nämä 5G-asemat syövät jo sen verran sähköä että tällaisille alkaa löytyä paikka:
data-unfurl="true" data-result-id="44016" data-url="https://mobiili.fi/2020/06/03/elisa-otti-kayttoon-maailman-ensimmaisen-nestejaahdytteisen-5g-tukiaseman-suunniteltu-ja-rakennettu-nokian-oulun-tehtaalla/" data-host="mobiili.fi" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Elisa otti käyttöön maailman ensimmäisen nestejäähdytteisen 5G-tukiaseman – ”suunniteltu ja rakennettu Nokian Oulun tehtaalla”
data-onerror="hide-parent"/>
mobiili.fi
No sanavalinta väärä, mutta idea taisia tulla selväksi ilman lillukanvarsiin takertumistakin. Pointti oli että noista tulee sen verran lämpöä että on järkevää tehdäkin tällaista. En tiedä paljonko tuollainen tukiasema sähköä vie, mutta vesijäähyn rakentelun ja lämmön hyötykäyttöön ohjaamisen kustannukset ovat kuitenkin minimissäänkin sellaisia lukuja ettei niihin aleta minkään kymmenen watin säästön takia.
Jep noi Intelin toimistusjohtajan kommentit kuullostavat huvittavalta kun katsoo mitä Intel on tehnyt viimeiset 10v lypsääkseen kuluttajia. Intel rampautti tahallaan halvemmista Intelin prosessoreista hyperthredding pois käytöstä pakottaakseen ihmisiä, jotka haluavat hyvää monen ytimen suorituskykyä kalleimpiin prossu malleihin. AMD taas antaa oman vastaavan simultaneous multithreading lähes kaikkiin malleihin. Heti kun AMD alkoi tuoda äärimmäisen hyviä monen ytimensuorityskyvyn prossuja zen 2 myötä Intelilläkin palasi mystisesti hyperthredding kaikkiin malleihin takaisin, jopa halvimpaan i3 jossa sitä ei koskaan aikaisemmin ole ollut. Intel myös on myynyt samaa 14nm prosessiaan uudelleen ja uudelleen brandäämällä saman prosessilla tehdyt tuotteet uudeksi sukupolveksi ties kuinka monta kertaa peräkkäin. Lisäksi Intel pakottaa jokaisessa prosessoripäivityksessä käyttäjät aina ostamaan uuden emolevyn voidakseen myydä enemmän piirejä emolevyinä. Mitenhän jatkuvaan emolevyn vaihtoon pakottaminen rakentaa sitä Intelin toimitusjohtajan peräänkuuluttumaa parempaa maailmaa?
Nyt sitten ei saisi tuijottaa testituloksia kun Intelin prossut jäävät suorityskyvyssä jälkeen valtavasti AMD:tä erityisesti multi-thredding suorituskyvyssä ja sitä pahentaa vielä tahallinen lypsämistarkoituksessa tehty rampauttaminen. Eikä saisi kiinnittää huomiota muihinkaan Intelin pitkään käyttämiin epäilyttäviin myyntistrategioihin.
Mutta eivät sanoneet.
Eli Inteliumin Vastaiskua saamme odottaa vielä aika pitkään.
Niin, jäähän se 3300X noin 12% kun verrataan tuota taulukkoa vs. 9700K.
Intel haluaa, että keskitytään siihen hyvään mitä heidän teknologiansa yhteiskunnalle tuottaa. Siis sama Intel, joka lahjoo valmistajia tappaakseen kilpailun, valmistaa tuotteita, joka ovat kilpailijaan nähden hitaampia, kalliimpia ja energiatehokkuudeltaan huonompia. Intel on myös pitänyt huolen, että päivitettävyys tapetaan keinotekoisilla kanta- ja piirisarjapäivityksillä = lisää romua maailmaan. Listan perään vielä läjä tietoturva-aukkoja, jotka todella tekivät hyvää kaikille… tai siis lisäsivät palvelinsalien energiankulutusta ihan huolella…
Olisivat vaikka kertoneet mitä avoimen koodin projekteja ovat tukeneet tai mitä yhteiskunnalle uusia innovaatioita ovat tuottaneet. Tuon taloustilanteen kanssa pitäisi olla varaa parempaan.
Videon kruunasi kaverin kyvyttömyys edes esitellä itseään lukematta sitä ruudulta.Koko puheen sisältö oli ihan yhtä uskottavaa BS:ää, kuin sen lopettanut tekohymy..
Ylivoimaisesti suurimmassa osassa i3ia on ollut SMT (jota intel siis kutsuu markkinointinimellä "HyperThreading) : Sukupolvet 2000-6000 oli kaikki; 2 ydintä, 4 säiettä. 7000-sarjassa sitten 7400 brandättiinkin i3ksi eikä i5ksi (6400 oli viel i5) jolloin i3-sarjaan tuli (ainakin) yksi malli ilman SMT:tä.
I3:a ilman hyperthreadingia i3ia oli vain kolmessa sukupolvessa(7000,8000.9000), ja niissäkin osassa oli myös malleja joissa oli "Hyperthreading", esim:
* i3-7300
* i3-8130u
Ainoastaan 9000-sarjassa intelillä ei ollut yhtään i3sta jossa hyperthreading.
Näin se menee useasti, eli tuotekehittelyä sykleittäin. AMD oli aluksi pitkään altavastaaja, kunnes lopulta saivat A64 prossuillaan niskalenkin Intelistä. Sitten Intel tuli hyvillä Core prossuilla ohi ja pitkän aikaa AMD oli se nuhapumppusähkökiuas. Nyt taas toisinpäin vähänaikaa.
No toimitusjohtajahan on firman myyntimies. Puheet on juuri sitä mitä myyntimieheltä voi odottaa.
Alkuperäinen lausunto voittaa kyllä vuoden puppulause palkinnon. Uskomatonta jargonia, paljon sanoja ja vähän sisältöä 😀
Loppuviimein kiinnostaa, paljonko energiaa kaiken kaikkiaan kuluu.
Yleensä kaikki resurssit, esim. sähkön siirto, on niukkoja ja pitää optimoida, eikä ole syytä miksi tiedon siirto eroaisi muista resursseista. Rajaton datapaketti ei ole niukka resurssi ja jokainen optimoi omalta osaltaan. Tiedon siirto ei ole tietyn tason jälkeen perustarve vaan sitä voi tehdä monen eri laatuisena.
Enemmän siirrettyä dataa, enemmän vastinetta rahalle.
Ilmaisilla palveluilla on ääretön kysyntä. Baarissa ei oikein voi olla ilmaista biljardipöytää, koska sitä ei käytettäisi tehokkaasti.
Tuntuu, että tiedon siirto ei maksa paljon mitään. Maksaa se kuitenkin 20 €/kk per kännykän käyttäjä, tai 4-henkisellä perheellä 80 €/kk plus valokuitu 40 €/kk, tekee 120 €/kk. Hinnasta osa muuttuu palvelujen tuottamisen ihmistyöksi ja osa muuttuu laitteissa suoraan lämmöksi. Kodin lämmityslaskuun tai yhtiövastikkeeseen verrattuna kuukausimaksu on jonkun kokoinen jo nyt. Päälle tulee kodin atk:n ja tukiasemien syömä sähkö. Ja tietysti töissä tarvittava data, joka on pieni määrä verrattuna kotikäyttöön, ja tietokoneet. Jos Etlan raporttiin on luottamista niin nykytila on vasta alkua.
Asiat voi laskea joko softalla tai raudalla. Rauta tekee tasan sen yhden asian, mutta hyvin nopeasti ja energiatehokkaasti (mutta jos pitää tehdä ziljoona siaa, sitä rautaa tarvii olla joka asiaan omansa).
Softalla voi tehdä mitä tahansa. Aiemmin softaa pystyi ajamaan PCssä vain CPUlla, joissain muissa koneissa myös jollain DSPllä, nykyään PCIssäkin on ohjelmoitava näyttis jolla voi ajaa softaa.
Intel on kautta historiansa yrittänyt ajaa tuotekehitystä siihen suuntaan, että mahdollisimman suuri osa asioista tehtäisiin (intelin) CPU:lla softalla (jolloin (turhaan) tarvitaan paljon sitä CPU-tehoa), sen sijaan että se tehtäisiin joko siihen asiaan erikoistuneella raudalla hyvin nopeasti, tai jollain siihen asiaan erikoistuneella prosessorilla CPUta tehokkaammin.
Eli intelillä on kyllä ollut selvästi visiota siinä, että se on kehittänyt CPUitaan siihen suuntaan, että niillä voitaisiin tehdä niitä "tulevaisuuden juttuja", mutta kun tyypillisesti oikea ratkaisu olisi ollut että se "tulevaisuuden juttu" saa OMAN RAUTANSA eikä sitä tehdä CPUlla.
1)
Esimerkiksi modeemeilla oli alunperin oma DSP-prosessorinsa, ja se tarjosi koneen suuntaan sarjaportirajapinnan.
1990-luvun puolivälissä alettiin ihmisille tuputtamaan "winmodem"-brändäyksellä softamodeemeita, joissa modeemi oli kortti, joka sisälsi käytännössä vain AD/DA-muuntimet ja liittimen johon puhelinpiuhan voi tökkäistä. Kaikki signaalinkäsittely tehtiin modeemin ajureissa CPUlla, mikä siis kuormitti koneen CPUta selvästi.
Vaikka nitä varsinaisesti tekivät ja myivät modeemivalmistajat (valmistuskustannuksiensa pienetämiseksi), sekä Intel että microsoft olivat hyvin innoissaan näistä, Intel koska winmodemin ajurin pyörittämiseen samaan aikaan kun koneella tehtiin muutakin tarvittiin tehokas CPU (kaikki se säästö, mikä modeemin oman DSPn puuttumisella säästettiin sen valmistuskustannuksiassa, käytännössä asiakkaan näkökulmasta katosi moninkertaisesti siihen, että tarvittiin paljon kalliimpi CPU), ja microsoft sen takia, että nämä softmodem-ajurit tyypillisesti tehtiin vain windowsille, eli nämä eivät toimineet muissa käyttöjärjestelmissä, saatiin lukittua himisiä käyttämään windowsiin (ja samalla levitettyä mainetta, että "linuxin rautatuki on huono").
Winmodemeita käytettiin lähinnä jossain merkkikoneissa, compaqeissa yms.
Intelin MMX-käskykannan yksi alkuperäisistä suunnitelluista käyttötarkoituksista oli softmodeemien koodin nopeuttaminen. Eli yritettiin nopeuttaa hommaa, joka järkevällä arkkitehtuurilla ei kuuluisi CPUlle ollenkaan.
2)
Toinen MMXn alun perin suunnitelluista käyttötarkoituksista oli (lähinnä 3d-) grafiikan piirrossa käytetyn tekstuurimappayksen (tai tarkkaan ottaen sen bilineaarisen suodatuksen) kiihdyttäminen.
3d-kiihdyttimet (joissa oli raudalla tehty bilineaarinen suodatus joka oli monta kertaa MMXlläkään tehtyä softaimplementaatiota nopeampi) kuitenkin löivät itsensä läpi ja melko harvaan peliin koskaan jaksettiin koodata MMX-optimoitua bilineaarista suodatusta softarenderöijään, softrenderöijät pysyivät point samplingissä.
3)
Kolmas MMXn alun perin suunnitltu käyttötarkoitus oli äänien miksaaminen.
Amigassa oli ollut jo äänipiiri joka kykeni miksaamaan neljää ääntä yhteen jo 1980-luvun puolella, mutta PCissä 1990-luvun alkupuolella perus-äänikortteja olivat esim.
Sound Blaster 2.0 ja Sound Blaster 16.. Niissä oli vain kaksi äänikanavaa, vasen ja oikea, ja jos haluttiin soittaa useampaa ääntä yhtä aikaa, ne piti softalla miksata.
MMXllä tätä äänten miksaamista voitaisiin nopeuttaa.
Toisaalta: Jo 1992 julkaistiin Gravis Ultrasound ja 1994 SB AWE32 joissa molemmissa oli jopa 32 äänen miksaus omalla DSPllä, ja oman DSPn/mikseripiirin sisältäviä äänikortteja tuli myös halvempiin hintaluokkiin ennen MMX-prosessoreita.
4)
Kun Intel 3d-korttien tuleminen oli jo vääjäämätöntä, Intelin piti sotkea niidenkin kehitystä siihen suuntaan, että saadaan CPUn ja emolevyn asemaa nostettua sen 3d-kortin suorituskyvyn kustannuksella; Intel päätyi yhteistyöprojektiin Real 3d:n kanssa "Auburn"-näyttispiirin kehityksessä ja lupaili yhteistyökumppaneilleen kuun taivaalta siitä että uusi tulossa oleva AGP-väylä on niin nopea ja hyvä, että näyttiskortin omaan muistiin ei tarvi säilöä ollenkaan tekstuureita vaan ne voidaan lukea suoran AGPn yli koneen keskusmuistista, ja tälllöin kortille voidaan laittaa pienempi muisti ja säästää kortin valmistuskustannuksissa, ja samalla myös koko kaista kortin muistiin jää framepuskurin käyttöön eli framepuskurille on enemmän efektiivistä kaistaa.
Intelin motivaatio tässä oli käytännössä se, että tällä saadaan siis ajettua ihmiset ostamaan emolevyjä, joista AGP-väylä löytyy, eli sellaisia, joissa on Intelin piirisarja joka sitä APGtä tukee, ja samalla pitää ostaa kallis Intelin Pentium 2-prosessori, joka on ainoa, mitä se piirisarja tukee)
Auburn-piiristä sitten käytännössä keinotekoisesti estettiin tekstuurin tallettamine kortin omaan muistiin, ja lopulta kävi ilmi, että ei se AGP-väylä olekaan niin täydellinen ja kortilla on huomattavia ongelmia teksturointinopeutensa kanssa, vaikka muuten kortti olisi kilpaillut hyvin esim. nVdian Riva 128n kanssa. Riva 128 käytti myös AGP-väylää, mutta käytti sitä vain kuin se olisi vain nopeampi PCI-väylä.
Ja samaan aikaan kun Auburnin tuli, 3dfx meni vielä julkaisemaan Voodoo2n joka ei vaatinut AGP-väylää vaan toimi nopeasti (tai siis paljon nopeammin kuin Auburn) myös vanhoilla emoilla PCI-väylässä.
Auburn siis julkaistiin nimellä "Intel 740 tai "i740", ja pian Real3d firmana lakkasi olemasta ja kaikki firman teknologia meni intelille (ja näihin juontaaa juurensa intelin integroidut näyttikset).
Ja lopulta Ali, SiS ja VIA saivat omat (AMDn prosessoreita tukevat) AGP-piirisarjansa markkinoille vain pari kuukautta intelin jälkeen, joten tämä Intelin keinotekoinen AGPn pönkittäminen P2-myyntien toivossa oli aika turhaa.
5)
Kun ensimmäiset 3d-kortit hoitivat pikselinpiirron ja tekstuurimappayksen, geometriapuoli oli vielä CPUn vastuulla. Joten Intel päätti alkaa lisäämään prosessoriin käskyjä tämän geometriapuolen nopeuttamiseksi (SSE). AMD toki teki tämän ensin (3dnow!)
Sekä 3dnow että SSE(1) olivat melko rajoittuneita ja tähtäsivät nimenoman pelien geometrialaskutoimituksiin, tosin 3dnow oli vielä selvästi rajoittuneempi ja pelkkän pelikäyttöön soveltuva.
No, GeForcessa ja Radeonissa sitten tuli myös geometrilaskenta 3d-piirillä, jälleen paljon CPUlla ajettavaa softaa tehokkaammin. Ja GF3 ja radeon 8500 tekivät näistä vielä ohjelmoitavia jolloin viimeisetkin syyt tehdä se CPUlla katosivat.
Vasta SSE2 oli "yleiskäyttöisempi" SIMD jota ei tähdätty nimenomaan hommaan, johon 3d-kiihdyttimen soveltuivat paremmin.
6)
Kun Intel lähti suunnittelemaan Pentium 4sta, sitä lähdettiin suunnitelemaan täysin lähtökohfdista
"Mitä uutta CPUlla voi tulevaisuudessa tehdä" eikä "tehdään CPU joka tekee paremmin ja nopeammin ne hommat jotka kuuluu CPUlle".
Eli keskityttiin suorituskyvyn parantamiseen signaalinkäsittely-tyyppisillä workloadeilla, vaikka niitä ei ole järkevää ajaa CPUlla.
P4 porskuttaa käskyjä ja laskee hyvin nopeaan tahtiin kun kaikki on helppoa ja kaikki tähdet on oikeassa asennossa. Mutta sitten kun koittaakin väärä kuunvaihe, se alkaa madella. Ja CPUn tehtävä on nimenomaan suorittaa sitä vaikeaa koodia jossa tulee niitä hankalia tilanteita siedettävällä nopeudella. Se signaalinkäsittelykoodi on fiksumpaa laskea jollain apuprosessorilla (näyttis, modeemin oma DSP, äänikortin oma DSP tms.)
Oikeastaan vasta core2ssa Intel vihdoin ymmärsi, että sen CPUn tehtävä on olla central processing unit eikä "all-purpose processing unit"
Hieman off topic mutta itselläni sellainen muistikuva ettei HT ole symmetrinen vaan siinä on pääsäie ja toisen luokan kansalaisena rinnalla toinen. Näissä oli jotain eroja miten säikeiden vuorontamista tapahtui tai jotain sinnepäin. Siitä en tiedä onko muiden valmistajien SMT toteutukset todella symmetrisiä nekään.
SMT ei viittaa symmetrisyyteen, se on "Simultaneous MultiThreading"
Jokohan Intelillä on käynyt noin kun katsotaan mitä oikeasti uutta Intel on saanut kauppoihin viimeisen viiden vuoden aikana ja kehityksen taantumisen sitä edeltävinäkin vuosina.
Huomioiden kuinka iso pankkitili Intelillä on, luulisi niillä resursseilla olevan mahdollista saada aikaan jotain muutakin kuin samaa vanhaa uudelleen brändättynä sekä arkkitehtuurissa että valmistustekniikassa.
Palkat nyt lienee sen verran hyvät ettei ole tainnut insinööriporukkaa vaihtua, mutta jotenkin tuntuu toiminnasta menneen täysin se terä ja eteenpäin painamisen halu.
Tuo on tosiaan outoa etteivät mitkään ympäristönsuojelijatkaan ole käyneet noiden leikkirahojen kimppuun ja vähintään vaatineet niille reiluja haittaveroja.
Jos niissä laskettaisiin edes jotain josta olisi lääketieteessä tai muulla tieteen alalla mahdollista hyötyä minulla olisi enemmän suopeutta niille, mutta nyt sitä ei voi pitää sen kummoisempana kuin myrkkyjen dumppaamista luontoon.
Ja taitaa Alder Lake myöskin vihjata siihen että Intelillä vain ei yksinkertaisesti ydinmäärä skaalaudu.
Isojen normiytimien ja mopoytimien yhteennaittaminen läppäri/mobiiliprossun sijaan desktop puolella haisee kovasti Intelin halulta saada markkinointi "16 ytiminen" vastatakseen AMD:lle.
Ensinnäkin, ei ole mitään yhtä "hyperthreading"-teknikkaa
Vaan on kolme täysin eri tekniikkaa joista kaikista kolmesta on käytetty nimeä "Hyperthreading"; Kaksi myöhemmin tullutta näistä (Itaniumin corse-grained MT ja Bonnelling fine-grained MT) on kuitenkin jo kuolleita joten voidaan keskittyä siihen ensimmäiseen( SMT = Simultaneous multithreading" ), josta on oikeastaan kolme täysin erillistä toteutusta.
Symmetrisyydellä ei siis tämän kanssa ei ole mitään tekemistä.
Ja ei, niiden virtuaaliydinten välillä ei ole mitään eroa missään prioriteeteissa, ei ole mitään "toisen luokan kansalaista".
Yhden säikeen moodissa voi olla myös kumpi tahansa ytimen virtuaaliytimistä aktiivisena, joten siitä että toinen säie nukuttaa itsensä ei koidu mitään erilaista tilannetta riippuen siitä, kummalla virtuaaliytimellä ajettu säie nukuttaa itsensä.
Ainoa missä voi olla jotain eroja virtuaaliydinten välillä on keskytysten käsittely. voi olla että interuptit tulee näistä oletuksena aina jommalle kummalle, mutta tästä en ole varma.
Ei sitä edeltävinä vuosina ollut mitään kehityksen taantumaa. joskus 2010-2015 jokainen mikroarkkitehtuuri paransi selvästi edeltäjäänsä verrattuna, ja oli paljon AMDtä edellä, ja pikemminkin vaan lisäsi Intelin etumatkaa.
Mikroarkkitehtuureissa vaan ollaan saavutettu se piste, että niitä on vaikea enää parantaa.
Vähän sama kuin se, että lentokoneiden nopeuksissa oli suuri kehitys n. 1910-1960, mutta sitten jämähdettiin paikoilleen, kun fysiikan rahat alkoi tulla vastaan (äänennopeuden lähestyminen lisää ilmanvastusta niin paljon, ettei ole taloudellista lentää kovempaa ja nopeammilla koneilla olisi onneton toimintamatka). Nykyään Jokainen 10% lisää IPCtä saattaa tarkoittaa keskimäärin esim. pinta-alaan n. 40% lisäystä niin ihan pienestä ei enää suuria IPC-lisäyksiä taiota.
Kyllä sieltä on uutta tullut, ei vaan siihen hyvin kapeaan markkinasegmenttii mitä täällä tuijotetaan:
Inteliltä on läppäreissä jo ulkona Ice Lake, jossa on sekä uusi mikroarkkitehtuuri että uusi valmistustekniikka.
Ja tabletteihin/todella pieniin läppäreihin yms. tuli esim 2016 Goldmont, 2017 Goldmont Plus ja tänä vuonna on tulossa Tremont.
Ja palvelimien jo muutama vuosi sitten tullut Skylake-X/Sylake-SP eroaa selvästi alkuperäisestä Skylakesta, sisältäen tuplasti leveämmän SIMD-datapolun ja aivan erilaiset L2-L3-välimuistit ja väylärakenteen.
Intelin tämän hetken/viime vuosien kehityksen jumitusongelma on se, että ne kehittivät kaikki tulevat piirinsä tuolle "10nm" prosessilla ja kun se prosessi ei toimi kunnolla, niitä piirejä ei voida/kannata tuoda markkinoille, vaikka ne ovat olleet valmiita jo kauan. Kaikki munat oli samassa korissa ja kori putosi ja munat hajosivat.
Alun perin markkinoilla olisi pitänyt olla Cannon Lake joskus n. 2017 ja ice Lake ehkä 2018 loppuvuodesta. Ice Lake lopulta julkaistiin vain läppäreihin 2019 ja palvelimiin se on tulossa parin kuukauden päästä, työpöydälle se skipataan ja sen sijaan tulee suoraan sen seuraaja (tai seuraajan seuraaja) joskus.
ELi siis, 2015 jälkeen on tullut 4 uutta mikroarkkitehtuuria ja tänä vuonna tulossa ainakin yksi lisää. Mutta yksikään näistä ei peruspelaajan työpöydälle.
Kyllä se ydinmäärä skaalautuisi helpolla, muttei halvalla. Kyllä intelillä on paljon kokemusta siitä, kuinka tehdään vaikka 28-ytimisiä piilastuja ja saadaan niiden väylät toimimaan hyvin.
Ongelma tässä vaan on se, että Golden Cove on selvästi zen2sta suurempi ydin, eli enemmän kuin kahdeksan Goden Cove-ydintä tekisi piiristä melko ison ja (työpöytämarkkinasegmentissä kalliin) valmistaa.
Ja kun tarkastellaan nimenomaan sitä koneen normaalikäyttöä niin ne 8 hyvin pientä gracemont-ydintä kyllä mukavasti pienentää koneen virrankulutusta silloin kun siltä ei tarvita maksimaalista suorituskykyä, ja silloinkin kun tarvitaan hyvää monen säikeen suorituskykyä, ne Gracemont-ytimet tarjoavat sitä erinomaisella energiatehokkuudella.
Gracemont on aivan eri luokan ydin kuin joku muinainen Bonnell-Arom, jo Tremont (sen edeltäjä) on järeydeltään suurinpiirtein Nehalemin ja Sandy Bridgen välistä. (ja juuri taisit haukkua, kuinka vähäistä se kehitys mielestäsi suurinpiirtein sen Sandy Bridgen jälkeen on ollut .
Työpöydälle ja erityisesti läppäreihin tuo on mielestäni oikein hyvä ratkaisu; Yhden säikeen suorituskyky on niissä kuitenkin hyvin tärkeä ja sitä tuo järeä Golden Cove tulee tarjoamaan enemmän kuin pienemmät ytimet (heti kun valmistustekniikka saadaan kuntoon), mutta toisaalta Gracemontit tarjoaa sitten kaikkea muuta kuin yhden säiken suorituskykyä melko pienessä koossa.
Kommentoi uutista tai artikkelia foorumilla (Kommentointi sivuston puolella toistakseksi pois käytöstä)
Lähetä palautetta / raportoi kirjoitusvirheestä