Tekoäly ja neuroverkot ovat markkinoiden kenties kuumin peruna tällä hetkellä, eikä yksikään iso peluri halua jäädä ilman omaa siivuaan kakusta. Intelin omistama Movidius on päättänyt lähestyä asiaa USB-tikkujen kulmasta, tarjoten helposti siirreltävän ja skaalautuvan vaihtoehdon moniin laskentatehtäviin.
Movidius Neural Compute Stick perustuu Myriad 2 -Vision Processing Unit -prosessoriin. Myriad 2 tarjoaa yhteensä 100 GFLOPSin edestä laskentavoimaa FP16 tarkkuudella vaivaisella yhden watin tehonkulutuksella. VPU:n tukena on 4 gigatavua LPDDR3-muistia. Movidius NCS sopii USB 3.0 Type A -liittimeen ja kustantaa 79 dollaria.
Intelin ja Movidiuksen mukaan laskentatikku ei sovi neuroverkkojen opettamiseen, mutta sitä voidaan hyödyntää inferenssi- eli päättelytehtävissä. Lisäksi sillä voidaan kiihdyttää tietokoneella muutoin ajettavia neuroverkkotehtäviä. Movidiuksen mukaan tällä hetkellä tikkuja voidaan liittää tietokoneeseen kerralla useampiakin ja suorituskyvyn luvataan kasvavan tällä hetkellä neljään tikkuun asti lineaarisesti. Omissa testeissään yhtiö validoi parhaillaan kuuden ja kahdeksan tikun konfiguraatioita, mutta teoriassa tikkujen määrälle ei pitäisi olla ylärajaa.
Lähteet: Intel, TechReport, AnandTech
maksaa!!!!!!!!!!!!! ei kustantaa.
Kuluttajat maksaa, yritykset kustantaa ;>)
Uutisemme eivät ole tiukasti kirjakieltä, vaan joukossa on myös arkikieltä, jonka mukaan "kustantaa" on synonyymi "maksaa":n kanssa
Pystynkö minä siviilinä hyötyä tuosta jotenkin? Saanko vaikka boincstatseihin v-pippelipisteitä enempi?
Ehkä pääsisit osaksi syntyvää skynettiä 😉
Voit tehdä vaikka automatiikan videokameran yhteyteen, portti avautuu jos kuvassa näkyy tietyt kasvot. Ehkäpä siinä riittäisi tehoa rasperryn kaverina sen verran, kotiautomaation tarpeisiin?
Ihan mielenkiintoinen tikku, jos ajattelee, että 1TLFOPS FP16-laskentatehoa 10 watilla (10 tikkua). Hintaa toki tulee ihan mukavasti tällöin.
Taitaa hinnassa voittaa silti Nvidian Tesla-kiihdyttimet. 😀
Nvidian Tesla-kiihdyttimet ovat huomattavasti monikäyttöisempiä. Suora tuki löytyy vaan Caffelle, kehittäjäyhteisö on pieni ja esim. Tensorflowta ei ole näillä näkymin tulossa.
Öö eikös tuohon inferenssiin riitä jo 8int?
osaan juu, osaan taidetaan haluta fp16.
Tjaah taitaa olla hieman softastakin kiinni. Hieman vain kummastuttaa kun tuolla anandtechin sivuilla on listattu tuo vanhempi Fathomin tikku ja siinä on suoraan sanottu natiivi int8 tuki muttei tälle uudemmalle movidiukselle. Oiskos se vain niin että se kyllä 8inttiä tukee, muttei dp4a eli mitään kaks kertaista laskentatehoa fp16:sta verrattuna sillä ei saavuta.
Njoo ja häviää tegra jetson TX2:lle, missä on fp16:sta 1,5TFlopsia ja hintaa se $599(tasoissa jetson TX1:sen kanssa, jossa fp16:sta on se 1Tflops ja hintaa $499)… Eiköhän nuo käyttökohteet moisille ole hieman erit.