EU:n mukaan asetuksen tarkoitus on mm. suojella kansalaisia ja demokratiaa sekä samalla tehdä EU:sta alan johtava toimija, vaikka kriitikoiden mukaan sääntely tulee vain varmistamaan EU:n jäävän muun maailman jalkoihin alalla.

Tekoäly on tämän hetken ns. kuuminta hottia mitä tietotekniikkaan tulee. Erilaiset generatiiviset tekoälybotit parantuvat hurjaa tahtia, eikä kehitystä ole ehditty vielä rajoittaa oikeastaan millään tasolla, vaikka useat tahot ovatkin varoitelleet sen vaaroista.

EU on nyt hyväksynyt maailman ensimmäiset säännöt tekoälylle ja sen kehitykselle. Keskiviikon täysistunnossa hyväksyttiin vime joulukuussa sovittu asetus äänin 534 puolesta, 46 vastaan ja 49 tyhjää. Asetuksen tarkoitus on suojella ihmisten perusoikeuksia, demokratiaa, oikeusvaltioperiaatetta ja ympäristön kestävyyttä suuririskiseltä tekoälyltä, mutta samalla edistää innovointia ja tehdä EU:sta alan johtava toimija. Kriitikot ovat kuitenkin jo todenneen muun maailman juoksevan oikealta ja vasemmalta ohi, kun EU on toistaiseksi ainut kehitystä rajoittava taho.

Uuden asetuksen mukaan kiellettyjä ovat esimerkiksi arkaluonteisiin ominaisuuksiin perustuvat biometriset luokittelujärjestelmät ja kasvokuvien kohdentamaton haravointi tunnistustietokantojen luomiseksi, sosiaalinen pisteytys, henkilön profilointiin tai ominaisuuksiin perustuva ennakoiva poliisitoiminta, käyttäytymistä muokkaava tai ihmisen haavoittuvuuksia hyödyntävät sovellukset sekä työpaikoilla ja kouluissa tunteita tunnistavat sovellukset.

Lainvalvojille on annettu kuitenkin mahdollisuus käyttää myös reaaliaikaisia biometrisiä tunnistusjärjestelmiä, kunhan se tehdään tiukkojen suojatoimien puitteissa. Käytön tulee olla rajattua esimerkiksi ajallisesti ja maantieteellisesti ja se vaatii erillisen oikeudellisen tai hallinnollisen luvan. Esimerkkeinä mahdollisista skenaarioista reaaliaikaisten biometristen tunnistusjärjestelmien käyttöön annettiin terrori-iskujen estäminen sekä kadonneiden henkilöiden kohdennettu etsintä. Jälkikäteen vastaavien järjestelmien käyttö lasketaan suuririskiseksi, jolloin sen on liityttävä rikokseen ja sille on saatava oikeudelta lupa.

Suuririskisiksi luokitellut tekoälyjärjestelmät voivat EU:n tulkinnan mukaan aiheuttaa merkittävää haittaa terveydelle, turvallisuudelle, perusoikeuksille, ympäristölle, demokratialle ja oikeusvaltioperiaatteelle. Tämän vuoksi järjestelmissä on läpinäkyvästi ja täsmällisesti arvioitava ja vähennettävä riskejä, ylläpidettävä käyttölokeja ja varmistettava ihmisen suorittama valvonta. Kansalaisilla on myös oikeus tehdä järjestelmiä koskevia valituksia ja saada selvityksiä niihin liittyvistä päätöksistä, jotka vaikuttaisivat heidän oikeuksiinsa.

Yleiskäyttöisten tekoälyjärjestelmien ja niiden perustana olevien (kieli)mallien on täytettävä erikseen määritellyt avoimuusvaatimukset. Niiden koulutuksessa on myös noudatettava EU:n tekijänoikeuslakeja. Mikäli yleiskäyttöinen tekoälyjärjestelmä koetaan liian tehokkaaksi tai järjestelmäriskejä aiheuttavaksi, niihin kohdistetaan lisävaatimuksia, joihin lukeutuvat mutta jotka eivät rajoitu vain mallien ja järjestelmäriskien arviointiin ja lieventämiseen sekä vaaratilanteiden raportoimiseen. Erilaiset ns. deep fake- eli syväväärennöskuva-, ääni- ja videomateriaalit on merkittävä selkeästi sellaisiksi väärinkäsitysten ehkäisemiseksi.

Pieniä ja keskisuuria yrityksiä tuetaan kansallisella tasolla perustettavilla sääntelyn testiympäristöillä ja niissä toteutettavilla todellisia olosuhteita vastaavilla testeillä, jotka on saatettava yritysten käytettäviksi. Tätä pidetään edellytyksenä innovatiivisten tekoälyjen kehitykselle ja koulutukselle ennen niiden tuloa markkinoille.

Lähde: EU Uutiskuva on luotu Dall-E 3 -kielimallia hyödyntävällä Copilotilla

This site uses XenWord.
;