Tekoälyn tulemista niin teollisuuteen kuin arkeenkin on ollut vaikeaa olla huomaamatta etenkin viimeisen vuoden-parin aikana. Yhdysvaltalainen OpenAI, joka on muun muassa ChatGPT- ja Dall-E-tekoälymallien takana, on joutunut enenevissä määrin tekijänoikeuslakeja koskevien syytösten kohteeksi. Generatiivisia tekoälyjmalleja on koulutettava syöttämällä niille massiivisia määriä dataa, jotta ne voisivat tuottaa realistisia vastauksia käyttäjien kyselyihin niin tekstin kuin kuvienkin muodossa. Tässä datassa on väistämättä mukana tekijänoikeussuojattua materiaalia, kuten tekstiä kirjallisuudesta, artikkeleista tai vaikkapa blogikirjoituksista. Taiteen puolella esimerkiksi maalaukset ja valokuvat ovat herättäneet tekoälyn nousukaudella paljon keskustelua juurikin tekijänoikeuksien näkökulmasta. Aiempina vuosina koneoppimista, johon generatiiviset tekoälymallit perustuvat, kehitettiin lähinnä akateemisessa maailmassa. Tekijänoikeuskeskustelu on herännyt vasta OpenAI:n, Microsoftin, Googlen ja muiden suurien toimijoiden alkaessa kaupallistaa tekoälymallejaan.
OpenAI:n mukaan mallien kouluttaminen olisi mahdotonta ilman tekijänoikeussuojattua materiaalia, sillä nykypäivänä suoja koskee käytännössä kaikkea ihmisten tuottamaa sisältöä, olipa se sitten tekstiä, kuvia, videoita tai mitä hyvänsä. Lausunto oli osoitettu Yhdistyneen kuningaskunnan parlamentin ”Communications and Digital Committee” -valiokunnalle, joka on ottanut tekoälymallien lailliset kysymykset syyniinsä. OpenAI kertoi tällä viikolla blogikirjoituksessaan, että se katsoo julkisesti saatavilla olevan materiaalin käyttämisen tekoälymallien koulutukseen hyvän tavan mukaisena. Kuvio on hankala myös siksi, että tekijänoikeussuojalakeja ei olla vielä ehditty kunnolla säätää kattamaan tekoälyn mukanaan tuomia eettisiä kysymyksiä. Jää siis nähtäväksi, miten pitkään tekoäly ja siihen liittyvät tekijänoikeuskysymykset pysyvät lain ”harmaalla alueella”.
Yksittäisten käyttäjien haastaminen on työlästä ja vaikeaa eikä satojen miljoonien korvausten saaminen ole kovin todennäköistä. On helppo ymmärtää miksi miljardirahoitetun hypefirman haastaminen on houkutteleva vaihtoehto.
Sehän oli avattu jo tuossa uutisessa, mihin tämä koko keskustelu liittyy. Eli kun esim. ChatGPT:n tietokanta on koottu laittomasti, niin tämän tietokannan pohjalta ChatGPT:n antamat vastaukset rikkovat myös lakia. Kuten muussakin elämässä, jos varastaa polkupyörän, niin kyllä se polkupyörän myyminen eteenpäin on myös laitonta, vaikka sitä pyörää vähän tuunaisi.
Lisäksi AI:llä tuotetu deepfake videot ja audiot ovat rikollisia, mikäli kohde ei ole antanut tähän suostumustaan.
Jaa selvä, tulkintasi mukaan siis kaikki niillä tuotettu sisältö on rikollista kamaa. Ajattelin, että tarkoitit että osa ei ole, kun käytit termiä "pääsääntöisesti".
Eli käytät ai työkaluja koodin kirjoittamiseen -> koodisi on nyt julkaistava mahdollisten lisenssien mukaisesti yleisölle? Jos opetusdatassa on vaikka gpl lisenssien alaista materiaalia siis.
Joo, kiitos ei. Ei todellakaan kiinnosta saada esim. väärää lääkitystä väärällä annoksella vain siksi, että koulutusdatassa on ollut jonkun nettijeesuksen omat näkemykset siitä millä lääkkeillä ja annostuksella vaivaani pitää hoitaa.
Voi kai sen mallin vähän paremmalla kuin Suomi24 keskusteluilla treenata. Esim lääketieteellisellä aineistolla.
Tottakai, mutta jos ne mallit ovat niin laajoja kuin väitetään, niin on hyvin epätodennäköistä, että kukaan on okeasti tarkistanut, että siellä ei ole kaikenlaista paskaa joukossa. Noilla generatiivisilla tekoälyilä on tapana hallusinoida muutenkin eli antaa vastauksia jotka eivät pidä paikkaansa, joten lähtödatan puutteet eivät ainakaan paranna sitä. Ei paljon lohduta jos se osuu oikeaan 10 000 kertaa ja antaa sitten sinulle hoito-ohjeet joilla voi mennä henki.
Se vaarallisin asia on, että jos tuollaiseen aletaan luottaa, niin kukaan ei tarkista enää kunnolla mitä vastauksia se antaa, joten vaarallisella lopputuloksella on suuret mahdollisuudet mennä läpi
Lohduttaa, jos ihmislekuri ryssisi yhtä pahasti kaksi kertaa useammin. Täydellistä vähäisempikin tulos voi olla edistystä aiempaan.
Eiköhän tuollainen tekoälymalli luonnollisestikin tulisi aluksi lääkärin työkaluksi. Lääkäri sitten käy läpi diagnoosit, joita tekoäly sille annetun potilashistorian pohjalta ehdottaa.
Jos lääkärin toimimisesta osana kokonaisuutta koskaan luovuttaisiin niin se varmaan tapahtuisi vähitellen sitä mukaa kun alkaisi näyttää siltä, että tekoäly tekee riittävän hyvää työtä.
Lääketieteen ala on konservatiivinen kehityksessään ja pelko siitä että siellä yhtäkkiä tehtäisiin joku uhkarohkea hyppy tekoälyn yksin määrittämiin diagnooseihin ja hoitoihin tuntuu hyvin naiviilta.
Lääketieteessä on pakko olla konservatiivinen, koska siellä pelataan ihmisen terveydellä ja hengellä. Viimeksi kun näin ei tehty, kyse taisi olla mengelen ihmiskokeista natsien tappoleirillä
Olen kuullut sellaisesta työkalusta jolla onnistuu äärimmäisen hyvin mm. Asiakirjaväärennökset, petokset, rahanpesu, historian vääristely, ihmiskauppa, taideteoksien ja kirjallisuuden kopioiminen ja niin edelleen. Ja se työkalu on edelleen pääsääntöisesti laillinen, vaikka sen käyttöä on rajoitettu, osassa maissa enemmän ja osassa vähemmän. Kyseessä on kynä. Väittäisin myös, että suurin osa kyseisen työkalun tuotoksista on ihan laillista vaikka poikkeuksia aina mahtuu sekaan.
Palataksenin itse uutiseen, tässä täytyy muistaa, että AI aineistoja koulutetaan muun muassa kaupalliseen, avoimeen ja julkiseen käyttöön, sisäiseen ja/tai julkisuudelta salaiseen käyttöön. EU on jo ottanut itse kantaa oheisen kaltaiseen itse käyttöön. Nyt uutisessa on käsitykseni mukaan kyse vain kaupalliseen tarkoitukseen koulutetun aineiston käytöstä ja keruusta. Ei itse työkalun käytöstä.
Mm. Valtiolliset tahot ja suuryritykset varmasti taustalla hakevat ja kouluttavat omia eri tekoälymallejaan välittämättä tekijänoikeuksista. Tällaisen aineiston, jonka käyttöä ja sen rajoituksia mielestäni olisi paljon tärkeämpi valvoa (mahdotonta?) ja rajoittaa, kuin julkisesti, vaikkakin maksullisesti käytettävissä olevia. Tämä ihan siitä syystä, että väärinkäytön ja sen seuraamukset ovat potentiaalisesti paljon vaarallisempia, eikä esimerkiksi yksilöillä tai tahoilla olisi edes mahdollista tarkistaa onko heidän oikeuksia loukattu.
Eli ymmärrät että siellä osataan toimia varovaisesti esim. lääkkeiden, veitsien ja röntgensäteilyn kanssa, mutta et halua että tekoälyä otetaan työkaluksi? Ok.
Sillä tekoälyllä ei minusta ole mitään tekemistä lääketieteen puolella niin kauan kuin se ei pysty itse tarkistamaan, että sen tuottama materiaali perustuu faktoihin. Ja minun käsittääkseni yksikään tämänhetkisistä generatiivisista tekoälyistä ei pysty varmistamaan sitä faktapohjaisuutta. Ihan siksi, että ne on rakennettu tuottamaan materiaalia eikä pysymään faktoissa
Ihmiset ne vaste huolimattomia ovatkin, eivät jouda käymään sitä sairaushistoriaa edes läpi. joten kiitos kyllä!
IBM:n watson tuon tekee, mutta se ei ymmärtääkseni ole LLM malli. Osaa myös kertoa todennäköisyydet sille että onko kuinka varma lopputuloksen aitoudesta, linkata viittaamansa artikkelit ja niin edelleen.
Nykyiset LLM mallit on IMO paska idea diagnoosien keksimiseen.
Jep, ihan samanlailla ne lääkärit soveltaa ja goolettelee sekä arvailee asioissa.
Erityisesti diagnooseissa.
Eri asia sitten leikkaukset ja niissähän on käytetty jo vuosia erilaisia robotteja ym.
Ok. Itse tykkään ajatella todennäköisyyksien kautta, mikä on myös lääketieteessä yleinen käytäntö.
Jos mut viedään kriittisessä tilassa sairaalaan ja on vahvaa kliinistä näyttöä, että tilanteessani epätäydellinenkin tekoäly parantaa selviämismahdollisuuksiani (vaikkapa lukemalla hypoteettisen pitkän potilashistoriani nopeammin kuin yksikään ihminen kykenisi ja osaa siitä nopeasti päätellä mikä hätänä ja mikä hoito auttaisi) niin toivon että sitä käytetään minun kohdallani.
Apotti ei ole tekoäly, mutta kun katsoo millä tavalla jo se sekoilee uutisten mukaan (vääriä lääkityksiä yms.), niin en halua sinne mitään monimutkaisempaa. Lääketiede ei ole paikka jossa kokeillaan tekoälyä. Se on paikka jonne se viedään vasta kun se on taatusti kypsynyt riittävästi. Ei tarvitse olla suuri guru arvatakseen, että muutaman vuoden sisään nähdään ensimmäiset tapaukset joissa tekoäly tappoi ihmisen tunaroinnillaan. Tai no onhan niitä jo ollut noiden itseajavien autojen kanssa.
Tottakai on. Siellä kokeillaan myrkkyjä ja elimien leikkelyäkin ja vaikutus on nettopositiivinen vaikka jonkin verran lääkkeisiin ja leikkauksiin ihmisiä kuoleekin, niin kokeissa kuin tutkimusvaiheen jälkeisessä varsinaisessa yleisessä käytössäkin. Kokeilut vaan täytyy tehdä tiukkojen sääntöjen puitteissa.
Eiköhän ihmiset (lääkärit ja hoitajat) tapa ja tule tappamaan potilaita virheillään nyt ja tulevaisuusdessa huomattavasti ensmmän kuin AI. AI käytetään monissa tapauksissa juuri sen takia, että se vähentää virheiden mahdollisuutta. Ja siksi noi nykyään onki avustajia, ei niitä käytetä ainoana diagnoosina, vaan avustajan. Apotti ei ole tekoäly eikö liity asiaan millään tavalla. Apotisaa kyse on järjestelmän vaikea selkoisuudesta ja vaikea käyttöisyydestä mistä ongelmat johtuu. AI olisi juuri tarkoitus helpottaa käyttöä, ei korvata lääkäriä.
Miettikääpä esim. kännyköitä. Se lähti alkuun hyvästä keksinnöstä, mahdollisuudesta kommunikoida muiden kanssa lähes missä tahansa. Mutta mitä tuolle kävi kun mentiin teknokiima edellä? Ihmiset, varsinkin lapset ja nuoret ovat liimautuneet noihin koneisiin kiinni katselemaan kaikenmaailman paskavideoita ja tällä on jo nyt aiheutettu pysyviä vahinkoja lapsille ja nuorille. Mutta ei kai sillä väliä kun tämä teknopaska oli tärkeämpää kuin se, mitä se aiheuttaa.
Onko sulla heittää jotain esimerkkejä? Oletan että LLM malleista puhutaan, kun ne ovat uutisen aiheena.
Mm yleisesti AI käytöstä. Ei kukaan ole puhunut että screippaamalla suomi24 pelastetaan potilaat.
The potential of artificial intelligence to improve patient safety: a scoping review – npj Digital Medicine
http://www.nature.com
10 real-world examples of AI in healthcare
http://www.philips.com
Ei tämä ole mitään kiimaa. Kaukana siitä.
Aina on helppo tie syyttää teknologiaa, kuin nykypäivänä vallitsevaa paskaa vanhemmuutta ja vapaata kasvatusta.
Eikö ymmärrys nyt riittänyt? On kehitetty teknologioita, joiden ainoa tarkoitus on addiktoida ihmisiä. Millä helvetin tavalla voit tuonkin kääntää niin, että se ei olisi tämän teknologian syy?
Mutta kun minä tarvitsen. Elän jokapäiväistä elämääni 4-5:llä kielellä ja osaan näistä oikeasti todella sujuvasti vain kahta. Kone kääntää harva se päivä muiden kielien välillä vähintään avustavasti.
Ja LLM:t ovat ylivoimaisesti parhaita kääntäjiä piesten google-translatet ihan 100-0.
Saattaa tulla jollekin yllätyksenä, mutta ihmiset tarvitsevat eri asioita ja heidän elämänsä ovat erilaisia. Jutut jotka ovat sinulle turhia ovat toiselle erittäinkin tarpeellisia.
Ainoa? Okei. Kaljasta ymmärtäisin vielä tuon perustelun, mutta kännyköistä niin en.
Lue tarkemmin. En syyttänyt kännyköitä, vaan nimenomaan kehuin niitä. Mutta syytin noita teknologioita, joita on kehitetty sen kännykän ympärille, esimerkkinä Tiktok.
Samaa sanottiin televisiosta, mädättää selkärangat ja pilaa silmät. Osa sisällöstä varmasti tekeekin niin, mutta tuo on yhä, myös puhelimien osalta sivujuonne. Kyllä vanhemmat ja muut ihmiset ohjaavat mitä ja miten tulisi käyttää. Nythän näin suurelta osalta ei tapahdu, tai tapahtuu juuri väärin päin. Onko se sitten ihmisten vai teknologian vika?
ChatGPT:ssä ei ole tietokantaa. Mallin pyöriminen perustuu harvan matriisin laskemiseen. Länsimaisessa oikeuskäytännössä myös pätee syytön kunnes toisin todistetaan.
Mistä kuvittelet että ChatGPT sen ulos sylkevän tekstin ottaa, jos ei sillä ole tietokantaa, johon on kerätty tekstiä?
Arvokasta myytävää dataa tulee, jos esimerkiksi new york times artikkelien mukana tulisi metadata, lähteet jne. Paremmalle datalle olisi varmastikin markkinaa ja voi pyytää hintaa siitä.
Jos datasta tulee uusi kulta mikä maksaa niin vaikea nähdä miten pienet toimijat tai open source voisivat kilpailla isojen rikkaiden tahojen kanssa.
Tuo hallusinointi taitaa kyllä olla ihan arkkitehtoninen ominaisuus, tai näin ainakin Metan Yann Lecun väittää. Jos mallia treenataan vahvasti Timesin artikkeleilla niin se tekee vain vähän asiavirheitä sen sisällön suhteen. Mutta kun yrität saada tietoa jostain suomalaisesta puolijulkimosta niin osaa ehkä sanoa kansallisuuden ja ammatin oikein, mutta syntymäpäivät ym. yksityiskohdat menee väärin koska sillä ei vaan ole riittävän vahvaa treenausta asianmukaisella aineistolla.
Iso osa hallusinoinnista tulee huonosta datasta. Nvidia puhuu tästä chipnemon kohdalla. Domain spesifisellä datalla kun opetetaan ja tehostetaan niin neuroverkon hallusinoinnin määrää saadaan minimoitua. ChipNemo nvidian sisäinen llm mihin tungettu nvidian bugikanta, koodit, dokumentaatio jne.
Toisenlainen esimerkki voisi olla vaikka j f kennedyn salamurha. LLM voi ottaa jonkin ihan random internet sivun ja suoltaa potaskaa versus lähteinä käytettäisiin strukturoitua dataa jolloin virallinen tieto ja foliohattuteoriat voidaan erottaa llm:n generoimassa vastauksessa.
Toinen puoli malleissa ihan täysi misinformaatio, jos käytetään opetusdatana vain "internettiä". LLM ei tiedä mikä on totta, mikä ei ole totta ja mitkä asiat oikeasti kuuluvat yhteen. Parempi data johtaa parempaan vastaukseen.
Nvidia’s ChipNeMo: Revolutionizing Chip Design with Generative AI
medium.com
Eli ei ollut esimerkkiä LLM mallista tuossa käytössä. Olisit vaan sanonut suoraan että ei ole, niin olis välttynyt turhaan avaamasta linkkejäsi.
Yleinen ai kiima varmaan kuuluu muualle kuin LLM spesifiin uutisketjuun.
Samantyyppisiä sovelluksia ne ovat nuokin ja samoja teknisiä ongelmia tietojen syötössä ja käsittelyssä niihin / niissä, joten tasan kuuluvat tähän ketjuun.
Mikä on LLM? Jotain syötävääkö?
Large Language Model: Large language model – Wikipedia
Juu, eihän nyt kukaan sellaista…
UnitedHealth uses AI model with 90% error rate to deny care, lawsuit alleges
arstechnica.com
Humana also using AI tool with 90% error rate to deny care, lawsuit claims
arstechnica.com
Sellainen nyanssiero että tuossa on kyse vakuutusalasta, vaikka hyvin lähelle liippaakin. Lääketieteen alan konservatiivisuudella meinaan sitä kuinka valtavat tutkimukset vaaditaan ennenkuin esim. uusia lääkkeita hyväksytään markkinoille. En osaa sanoa onko vakuutusala samalla tavalla konservatiivinen vai yritetäänkö aggressiivisesti mennä sieltä missä aita on matalin.
Noissakin vakuutusyhtiöiden tapauksissa on vielä mahdollista että tulee tuomioita, joilla yhteiskunta tekee selväksi pelisäännöt.
Lääketieteen alallakin on toki sekoiltu, mm. lobotomiat. En silti katsoisi että kirurgiasta kokonaisuudessaan pitäisi luopua.
LLM eli iso kieimalli, vrt. chat gpt.
Kuvantunnistus algoritmit on joo ”ai” malleja myös, mutta aineisto on vain kuvia syövästä tjsp. ja niihin on triviaalia saada oikeudet, vrt. Open ai:n chat gpt (ketjun aihe) ja koko internet (ketjun aihe).
Lyhyt kommentti tähän lääketiedevääntöön – AI on tulevaisuudessa erittäin hyödyllinen mm. ison datan analytiikassa ja kuvantamisessa (EU rahoittaa projektia jossa tavoitteena on pilvidataanalytiikka AI:n avulla lääketieteen käyttöön) mutta se on aina sidoksisssa etiikkaan ja tiukkoihin parametreihin joilla se toimii, ja toimii tällöin hyvänä apuna tutkimuksessa ja diagnostiikassa Mutta kuten tilastotieteessä matemaattisten mallien käytöstä algoritmeilla ajettuun data-analyytikkaan sanotaan, käyttö on hyödyllistä jos (ja vain jos) käyttäjä tietää mitä ”musta laatikko” tekee ja millä perusteilla annettu data otetaan mallille syötteeksi. Kyllähän jo nyt lääkelistat ilmoittavat kontraindikaatioista lääkärille automaattisesti hyvinvointialueiden tietojärjestelmissä. Lääketiede on positivistinen tiede ja hyödyntää todella paljon tilastomatematiikkaa, kuten voitte lääkepaketista lukea todennäköisyydet haittavaikutuksille. Ja AI ei todellakaan fyysisesti tutki tai kohtaa potilaita, mutta voi toimia hyödyllisenä apuna päätöksenteossa. Kuten terveydenhoitoalalla omaksutaan aivan heti aluksi (olen kouluttautunut muun laaja-alaisen yliopistokoulutuksen ohella) niin ihminen on yksilö, johon suhtaudutaan yksilönä eikä mitään ”rutiinia” saa periaatteessa olla ja lääketieteen etiikka sanelee tämän. Kaikki riippuu materiaaleista joilla AI koulutetaan. Se, että käytettäisiin lähteinä tieteen ulkopuolista materiaalia on, anteeksi vain, huuhaata. Esimerkki yllä Amerikan ihmemaasta on vain hyvä esimerkki heikosta lainsäädännöstä ja sääntelystä (oikeuslähdehän siellä ei ole lakikirja vaan aiemmat tuomarien päätökset ja lait muutenkin vaihtelevat osavaltiosta toiseen). ”Anything goes”. EU on paljon vahvempi tältä osin. Toisin sanoen, siellä on mahdollista tehdä tällaista, koska vakuutusjärjestelmä mahdollistaa sen, ja asiaintilan muuttamiseen ei ole tai tule olemaan poliittista tahtoa. Lääkärithän näitä hoidon kieltoja eivät ole tehneet, vaan korporaatiot.
Mutta lopuksi hyödyllinen esimerkki : minulla on 1 tyypin diabetes ja käsivarren sensorin keräämä data (jatkuva glukoosiarvo) siirretään pilveen, josta mallilla saa aivan saman datan kuin lääkärikin, todella todella kätevää, mutta vahva tunnistautuminen tietenkin proprietary ajureineen. Näkee trendejä ym. joita joitain vuosia sitten ei ollut, piti käyttää no, verinäytteitä..
Google itseasiassa perjantaina julkaisi tutkimuksen, jossa LLM kohtasi potilasta esittäviä näyttelijöitä viestien välityksellä ja verrokkina toimi aidot lekurit. Tekoäly pärjäsi melko hyvin, tosin kyseessä vertaisarvioimaton tutkimus eikä erityisen kattava noin muutenkaan. Fyysinen kohtaaminen ei toki onnistu ja yksi tutkimuksen heikkouksista olikin, että lääkärit eivät olleet tottuneet potilaan kanssa kommunikoimiseen tekstiviestein.
Google AI has better bedside manner than human doctors — and makes better diagnoses
http://www.nature.com
Sit vaan prompt engineeraamaan sopivia reseptilääkkeitä.
Laittomuus vain onko rinnastettavissa miten kirjailija lukee toisten kirjoja tai taidemaalari katselee toisten tauluja.
Miten paljon Google käyttää materiaalina Androd puhelinten materiaalia, kuvia ja ääntä tai Youtuben videoita.
Näihinhän se on ottanu oikeuden jo puhelinta käytettöön otettaessa.
Toisin arkaluontoista materiaalia ei saa levittää koskaan. Hankalia kysymyksiä ja mitä suurempia tietomassoja käytetään sitä vaikempaa on sen hallittu käyttö.
Itsekkin tuo rikollinen keino kuulostaa rajulta.
Nämähän on pääosin kaivettu internetistä saatavilla olevasta tavarasta.
Ei nämä suoraan varasta mitään, esim Archive.org sisältää tavaraa johon on monella on tekijänoikeus, mutta asiat on vapaasti saatavilla.
Tekijänoikeusrikos on rikos, mitäs sitä sievistelemään.
Kyllähän sitä on rikoksiakin syytä aina arvioida, onko joku asia miten merkityksellinen rikos. Tekijänoikeus ei sinällään ole kovinkaan merkittävä asia, kun tarkastellaan rikosten kirjoa ja niiden seurauksia.
Kouluillahan on tekijänoikeuksiin liittyen muistaakseni helpotuksia. Varmaankin samat helpotukset kannattaisi ottaa käyttöön vähintään tekoälyjen treenaamisessa.
Koulut maksavat rahaa kyseisistä helpotuksista. Ehkä AI firmat voisivat tehdä samoin. Vaikka euro per sata sanaa tekstiä. Saatais koko maailman ongelmat ratkottua tuolla rahasummalla, eikä tarttis odotella että ai ratkoo meidän ongelmat (lol).
Jos opettelet itse taidetta ja selaat erilaisia taideteoksia ja alat myöhemmin tuottamaan sitä itse.. eikö se ole sallittua? Miksi tekoäly ei saisi tehdä samaa?
Ihan yhtä vähän rikollista kun leffojen lataaminen netistä tms.
Kyllä saa. Mutta jos se piirtää super marion niin _kaupallinen käyttö_ on aika rajattua. Omaan käyttöön saa tehdä ihan melkeen mitä vaan etenkin Suomessa.