HBM-PIM eli High Bandwidth Memory - Processing In Memory -muisteissa jokaiseen muistipankkiin on integroitu pieni tekoälytehtäviin erikoistunut laskentayksikkö.

HBM-muistit tulivat io-techin yleisölle tutuiksi viimeistään näytönohjainten kanssa, mutta niiden suuremmat markkinat löytyvät datakeskuksista. Nyt Samsung on julkistanut uuden sukupolven HBM-teknologian, joka integroi laskentatehoa suoraan muistipinoon.

Samsungin uusi HBM-PIM eli High Bandwidth Memory – Processing In Memory -teknologia mahdollistaa ohjelmoitavien laskentayksiköiden integroinnin suoraan itse HBM-muisteihin. Tarkemmin tarkasteltaessa HBM-muistipinossa on korvattu puolet perinteisistä DRAM-kerroksista FIMDRAM- eli Function-In-Memory DRAM -muisteilla. FIMDRAM-muisteissa kussakin muistipankissa on pieni, 16 leveä FP16-tarkkuutta tukeva Programmable Computing Unit eli PCU. Niiden avulla kuhunkin HBM-pinoon voidaan tuoda peräti 1,2 TFLOPSin edestä laskentatehoa. Voit tutustua tekniseen toteutukseen tarkemmin Tom’s Hardwaren artikkelissa.

Teknologian idea perustuu vanhaan tuttuun totuuteen laskentatehtävissä: Datan prosessointi on halpaa, siirtäminen kallista. Sijoittamalla laskentatehoa suoraan muistien yhteyteen voidaan minimoida datan siirtotarpeet ja siten säästää merkittävästi energiaa. Yhtiön mukaan HBM-PIM-teknologialla varustetut HBM2 Aquabolt -muistit mahdollistavat jopa kaksinkertaisen suorituskyvyn 70 % pienemmällä tehonkulutuksella perinteisiin HBM2-muisteihin verrattuna, mutta lehdistötiedote ei valitettavasti kerro testistä tarkempia yksityiskohtia, kuten käytettyjä laskentapiirejä tai testisovelluksia.

Toistaiseksi ei ole varmuutta, milloin uudella teknologialla varustettuja tuotteita tullaan näkemään tositoimissa. Samsung kertoo, että se testaa parhaillaan HBM-PIM-teknologiaa useiden tekoälyyn erikoistuneiden partnereiden kanssa ja niiden uskotaan validoivan teknologian käyttöön vielä vuoden ensimmäisellä puoliskolla.

Lähde: Samsung

This site uses XenWord.