NVIDIA on esitellyt ACE- ja digitaali-ihmisteknologioitaan jo useammissakin eri yhteyksissä, joista io-techin lukijoita kiinnostanee eniten pelit. Nyt odotus alkaa lähenemään loppuaan, sillä yhtiö kertoi teknologioiden löytyvän näillä näkymin ensi vuonna julkaistavasta Mecha Break -pelistä.
NVIDIAn ACE ja muut digitaali-ihmisteknologiat mahdollistavat aiempaa realistisen oloisten ihmisten luonnin peleihin, eikä vähiten niiden tekoälypohjaisten keskustelutaitojen vuoksi. Juuri nämä ovat pääosassa myös Amazing Seasun Gamen tulevassa Mecha Breakissa, jossa pelaajat voivat keskustella NPC-hahmojen kanssa puhumalla. Tekoälyä voi myös ohjastaa tekemään joitain asioita pelaajan puolesta asioita pelissä.
Pelin tekoälystä on vastuussa paikallisesti pyörivä, roolipeleille optimoitu Nemotron-4 4B SLM-kielimalli (Small Language Model). SLM-kielimallin pyörittäessä itse tekoälyä NVIDIAn Audio2Face-3D NIM -teknologia hoitaa huulien ja puheen synkronoinnin ja OpenAI:n Whisper-puheentunnistus hoitaa pelaajan käskyjen tulkinnan Nemotronille. Ainut pilvessä tapahtuva osuus on NPC-hahmojen puheen syntetisointi, josta on vastuussa Elevenlabs.
Lähde: NVIDIA
Ei välttämättä ole kaukana. Chatgpt ja Siri ymmärtää hämmästyttävän hyvin jo nyt, eikä tarvitse edes rallienglantia, voi höpöttää vaikka savoksi…
Joo, mutta tässä puhutaan paikallisesta pienestä kielimallista eli se tukenee vain muutamaa yleisintä kieltä
Tää kiinnostaa itteäni aika paljon kun aikaisemmin oli ainakin jotain tutkimusta uutisoitu, jossa heidän LLM pärjäsi yksikielisissä testeissä sitä paremmin mitä useampaa kieltä oli käytetty koulutuksessa. Tämähän on kait melkein sama ihmisten kanssa, että mitä useampaa kieltä osaa sitä helpommin oppii uutta tietoa edes yksikielisestä tekstistä? Eli onko varsinaisesti kuinka suuri tilansäästöhyöty lopullisessa mallissa jos osaa vain ihan paria kieltä?
Generatiivinen tekoäly tulee kohta npc-hahmoille, mutta milloin tulee tekoälyllä toimiva pelimoottori mikä muokkaa peliä sen edetessä. Elämme jännittäviä aikoja!
Ja tässähän ei ole kuin kaksi ongelmaa: useinmissa nVidian korteissa sitä muistia on vain 8 gigaa ja sekään ei riitä edes grafiikoille ja toisekseen jos se vaatii rtx:n niin myynti radeon käyttäjille voi olla varsin vähäista
a) Suomalainen rallienglanti on englantia. Kielimalli osaa englantia. b) Kielimalli ei hoida puheen litterointia tekstiksi vaan OpenAI:n Whisper. Käsittääkseni melko kevyt malli.
No sitten toivotaan, että se whisper osaa hommansa koska perinteiset puheentunnistukset ovat olleet varsin tarkkoja siitä miten ääntäminen menee
Onko tuossa virkkeessä joku virhe?
Esim. Udio osaa tuottaa kohtuu pätevästi suomenkielisiä biisejä, joten eipä tuo hirveän kaukana ole. Toki hallusinoi Suomeksi enemmän kuin englanniksi.
Juu tuo muistin vähyys monessa RTX kortissa on ongelma, mutta tuo toinen nostamasi aihe ei ole. Kesäkuussa raportoitiin, että Nvidia nauttii 88 % markkinaosuudesta erillisnäytönohjaimissa ja mm. Steamin tilastot heijastelevat tätä hyvin.
Nvidia's grasp of desktop GPU market balloons to 88% — AMD has just 12%, Intel negligible, says JPR
http://www.tomshardware.com
Evevenlabs syntetisoi jo täydellistä suomenkieltä. Itse jo jonkin aikaa sitten korvasin Google Assistentin omalla scriptilläni joka käyttää ainoastaan Googlen puheentunnistusta, lähettää datan ChatGPT:lle ja vastaa Elevenlabsin kautta. Aivan sujuvia keskusteluja voi käydä suomeksi
joo, sieltä puuttuu sana välistä
Jos tuollainen tulee kokeiltavaksi niin toki kokeilen.
No ainakin huumeveikot hallusinoi ihan uskottavasti!
😉
Hyvä että vihdoin otetaan ensiaskeleita. Mielummin otan peleihin välttävästi keskustelevat kuin nykyiset muutamia kovakoodattuja lauseita arpovat NPC:t.