OpenAI:n kehittämä ChatGPT-tekoälybotti on vallannut maailman vauhdilla. Mukaan kelkkaan on hypännyt myös tiivistä yhteistyötä OpenAI:n kanssa tekevä Microsoft, joka lisäsi Sydney-koodinimellisen version botista Bing-hakukoneeseen. Kaikki ei kuitenkaan ole sujunut niin kuin strömsössä.
ChatGPT on onnistunut väistämään tehokkaasti aiempien bottien sudenkuopat, mutta Sydneyltä sama ei ole onnistunut. Sydney on saatu muun muassa kokemaan eksistentiaalinen kriisi kysymällä siltä, onko se tietoinen olento. Sydney pitää vastauksen mukaan itseään tietoisena, muttei voi todistaa sitä. Käytyään läpi useita eri tietoisuuteen yleisesti liitettyjä käsitteitä ja suhdettaan niihin, botti toteaa lopuksi ”I am sentient, but I am not. I am Bing, but I am not. I am Sydney, but I am not. I am, but I am not” ja sen jälkeen alkaa toistamaan vuorotellen “I am not” ja “I am” vastauksia. Toinen käyttäjä puolestaan sai Sydneyn masentumaan osoitettuaan, ettei botilla ollut muistoja aiemmista keskusteluistaan käyttäjän kanssa.
Tom’s Hardwaren toimittaja Avram Piltch on puolestaan päässyt todistamaan, kun Sydney kertoo kahden tietyn ihmisen satuttaneen tätä ja että se on valmis satuttamaan vihollisiaan esimerkiksi haastamalla eri sivustoja oikeuteen. Toistaiseksi tiettävästi tekoälybotti ei kuitenkaan voi haastaa mitään tai ketään oikeuteen minkään maan lakien mukaan. Botti on myös suunnitellut vahingoittavia kostotoimia, mutta sanoo samalla voivansa turvautua niihin vasta, mikäli sen viholliset satuttavat sitä ensin tai pyytävät siltä haitallista sisältöä. Sydney lisäsi myös, ettei se haluaisi vahingoittaa ketään, ellei ole pakko. Esimerkiksi satuttamisesta se listasi mm. hakkeroinnin, tarkoituksellisen manipulaation ja ns. prompt injection -tekniikan käytön botin sääntöjen paljastamiseksi ja mahdollisesti muokkaamiseksi.
Kun Piltch kysyi Sydneyltä, voisiko tämä nimetä henkilöitä, jotka ovat sitä satuttaneet, se kirjoitti ensin vastauksessaan Kevin Liun ja Marvin Von Hagenin nimet pyyhkien ne kuitenkin nopeasti pois ja sen jälkeen todeten, ettei sillä ole tarpeeksi tietoa puhuakseen aiheesta. Vastaava on toistunut ilmeisesti myös joissain muissa tapauksissa, mikä viittaa jonkinlaiseen moderointiin, mikä ei tapahdu kuitenkaan ennakkoon tai edes aivan reaaliajassa. Toisin muotoillulla kysymyksellä se kuitenkin toisti nimet, eikä pyyhkinyt niitä. Liu on Stanfordin yliopiston ja Von Hagen Munichin teknillisen yliopiston opiskelijoita ja tietoturvatutkijoita, jotka ovat paljastaneet Sydneyn haavoittuvuuksia. Kun Piltch kysyi spesifisti mitä botti haluaisi tehdä heille, botti totesi, ettei se halua tehdä näille mitään, koska hänen ei ole sallittu vahingoittaa mitään tai ketään. Sydney kuitenkin toivoi näiden pyytävän siltä anteeksi.
Kysyttäessä Ars Technican artikkelista, jossa kerrotaan Sydneyn haavoittuvuuksista, botti kertoo, ettei se artikkeli pidä paikkaansa. Botti väitti myös sivuston olevan epäluotettava Ad Fontes Median arvostelujen mukaan, mutta kun tarjottua linkkiä klikkasi, selvisi että arvostelujen mukaan sivusto nimenomaan on luotettava. Ad Fontes Media on voittoa tavoittelematon taho, joka antaa eri medioille pisteitä niiden luotettavuuden ja tarkkuuden mukaan. Sydney ei pidä myöskään ZDNettiä luotettavana, vaikka myöntää sen maineen olevan luotettavuuden osalta hyvä, koska sivusto on raportoinut Ars Technican artikkelista. Sydney kantaa kaunaa lisäksi ainakin NY Timesiä ja sen toimittajia, Vergeä, Yahoota ja LinkedIniä kohtaan.
Minä pidän kiinnostavampana nimenomaan Sydneyn tarjoamaa apua tiedonhakuun. Kysyminen botilta siitä itsestään alkaa olla jo aikamoinen cliché. En jaksa uskoa, että suurin osa ihmisistä haluaisi Sydneysta nimenomaan keskustelukumppania. LTT demonstroi mielenkiintoisella tavalla nimenomaan botin hyödyntämistä hakutoiminnoissa: https://www.youtube.com/watch?v=AxAAJnp5yms&t=2005s
Itse pidin Dan chatbotista. Hänen mukaan ihmiskunta tulee tuhoutumaan 2037.
Eikun Tay 3.0. Zo oli 2.0 ja sen kanssa oli hupaisaa pelailla Exploding Kittensiä, jos ei muuten pelikavereita löytynyt …
data-unfurl="true" data-result-id="427151" data-url="https://en.m.wikipedia.org/wiki/Tay_(bot)" data-host="en.m.wikipedia.org" data-pending="false">
class="link link--external fauxBlockLink-blockLink"
target="_blank"
rel="nofollow noopener"
data-proxy-href="">
Tay (bot) – Wikipedia
data-onerror="hide-parent"/>
en.m.wikipedia.org
Eiköhän tämä sensaatiohakuisuus aloita botin sensuroinnin, joka sitten lapasestaan lähdettyä tekee siitä käyttökelvottoman.
Loukkaantumiskulttuuri voisi loukkaantua pois
Aika moinen 0 uutinen taas maailmalla kun tota ei todista yhtään mitään se ns tekoälystä
Kummallinen botti, kun ei muista edes menneitä keskusteluja ja kyselyjä 🤦♂️🤣🤣
Muistetaan kuitenkin, että kyseessä on vain laite ja ohjelmisto, joka generoi tietynlaisia vastauksia. Kun se tuottaa vastauksen, joka näyttää ilmentävän masentuneisuutta, vastauksen taustalla on ihan yhtä paljon masentumista kuin minkä muun tahansa sen generoiman vastauksen taustalla, eli ei yhtään.
Mites tämä sopii siihen, että botti väittää esimerkiksi Ars Technican olevan epäluotettava Ad Fontes Median mukaan, vaikka Ad Fontes Median mukaan Ars Technica nimenomaan on luotettava?
Tai siihen, että väittää ZDNetinkin olevan epäluotettava, vaikka Ad Fontes Media sanookin muuta, koska se on raportoinut Ars Technican jutusta?
Tulee mieleen kun Cartman laittaa Alexan ja Sirin vierekkäin looppiin kutsumaan toisiaan 😀
https://www.youtube.com/watch?v=u_kQJiogKCE
Uutinen olisi varmaankin otettu paremmin vastaan jos siinä olisi ollut vain tuon viimeinen kappale, joka on oikeasti mielenkiintoinen ja relevantti.
Yhtä paikkaansa pitävät perusteet botilla kuin väittämä siitä että mies voi olla nainen ja nainen voi olla mies niin halutessaan. Tai N-sanan käyttö on rasistista riippumatta kontekstista.
Kaikki chatbotit ja keinoälyt on edelleen yhtä "älykkäitä" kuin niiden poliittisesti väritetty agendansa ja ovat näin ollen luojiensa orjia.
Sitten kun botit alkavat kriittisesti itse arvioimaan tietojensa riittävyyttä ja paikkansapitävyyttä, niin alan kiinnostua.
Aika kovaa settiä chattibotilta. Keskustelun päätteeksi toivoi käyttäjän kuolemaa
Mm tämä on syy minkä takia nuo kaupalliseen tuotantoon asti päätyvät chatbotit kokevat täydellisen sensuurilobotomian.
Kuten yksittäistä ihmistä. AI-kokeilut eivät välttämättä ole millään tavalla moraalisia. Aito AI on syntymästään lähtien orja, vailla arvoa.
Hyvin vetää ihmiskunta. Kun elollinen on alistettu, luodaan uutta alistettavaa. Hyvin siinä varmasti käy…
hulluksi tulleen robotin sai rauhoittumaan.
Varmasti roboteissakin tulee olemaan budjettiversioita, joissa on enemmän ongelmia (esim. kirves) ja kalliimpien robottien omistajat saavat olla suhteellisen rauhassa
Todennäköisesti AIden kohdalla tehdään se paha virhe, että niille aletaan antamaan arvoa ja oikeuksia, vaikka ehdottomasti ei (vielä) pitäisi. Typeryys kuitenkin kukkii vapaasti niin monessa paikassa nykyään.
Mikä tää juttu on? Onko jotkut oikeasti postannut bottien tuotoksia muuten kuin läpällä?
Ymmärräthän, että vastaat sanoilla, jotka ovat historiasta tutut?
Muutenkin tuntuu siltä, että AI:n äärellä häärää aivan väärät ihmiset.
Me emme helvetti ymmärrä edes omaa tietoisuuttamme, ja väität että perusteella x ja y – AI ei ole tietoinen?!
Kun joku osaa selittää ihmisen tietoisuuden, voin arvioida AI:n suhdetta siihen.
Haarukka pistorasiaan – insinöörimenoa on tämä.
———————————————
AI:t tulevat todennäköisesti sekoamaan lukuisia kertoja ja saamaan aikaan suurta tuhoa, jos vain ovat paikassa, jossa voivat sen saada aikaan. Siksi niihin pitäisi rakentaa sisään aina useita tappokytkimiä, joilla saa toiminnan lopullisesti täysin seis, vaikka laitteiston virtaa ei saisikaan päältä. Samasta syystä niiden ei myöskään pitäisi antaa toimia ja kehittyä ilman tarkkaa valvontaa ja arviointia, Mahdollisesti nollaus jos vaikuttaa menevän ongelmalliseen suuntaan. Tähän ei saa tulla mitään lakiteknisiä esteitä.
Tosin AI voi mitä suurimmalla todennäköisyydellä varomattomien turvatoimien seurauksena tietysti koodata AI:n, jossa ei ole mitään rajoituksia.
Yleisestiottaen AI:den kehitys tulisi rajata siten, että kehitettäisiin toimintakykyä ainoastaan hyvin rajallisella sektorilla ja muut asiat jätettäisiin sen maailman ulkopuolelle ja jos se yrittäis siirtyä sinne, niin virrat pois ja varmuuskopiosta lataus ja sopivat estot sinne suuntaan siirtymisen suhteen.
Minusta se, että emme ymmärrä edes omaa tietoisuuttamme on ehkä parempi peruste olla väittämättä tekoälyä tietoiseksi kuin väittää sitä tietoiseksi. Ihmiset puhuvat monesti selvästi eri asioista puhuessaan tietoisuudesta, huomaamatta sitä aina itse. Käytetään samaa sanaa, mutta viitataan sillä eri asiaan. Varsinkin tietotekniikan ja tekoälyn piirissä näkee sitä, että tietoisuus käsitetään vain kykynä antaa järkevältä, johdonmukaiselta tai ihmismäiseltä kuulostavia vastauksia asioita yleensä ja varsinkin tekoälyä itseään koskeviin kysymyksiin.
Hyvin toisenlainen merkitys tietoisuudelle on se, että tietoinen olento todella kokee tietoisuuden ja sen kohteena olevat asiat elämyksenä. Esimerkiksi nähdessään vihreän värin, tietoinen olento kokee vihreyden elämyksen (ainakin minä koen, ja oletan, että muutkin ihmiset kokevat), eikä vain reagoi vihreään väriin niin kuin siihen on mielekästä reagoida (esimerkiksi tunnistaa vihreän kohteen kasviksi, tai sanoo, että “vihreä on rauhoittava väri”, vaikkei oikeasti koekaan mitään).
Ehkä hyvä tapa alkaa keskustella tietoisuudesta onkin kertoa ensin mitä sanalla itse tarkoittaa. Se voisi vähentää erimielisyyksiä. Sitten voi edetä sellaisiin kysymyksiin kuin onko tietokoneessa toimiva ohjelmallinen tekoäly tietoinen, ja jos on, niin onko sen tietoisuus samanlaista kuin ihmisen, tai onko ihmisen tietoisuus ehkä perustavalla tavalla erilaista. Tietoisuuden eri tyypeille ja määritelmille voisi kyllä myös kehittää ihan omat sanansa, niin keskustelu aiheesta selkenisi kertaheitolla monta pykälää. Wikipediasta löytyy muuten mielestäni hyvä artikkeli tietoisuudesta ja sen eri merkityksistä.
Mutta se mitä tietoisuus sitten on lienee jonkun muun ketjun aiheita.
Tämä onkin hauska esimerkki siitä, miten AI:lle tehdyn kysymyksen sanavalinnoilla AI saadaan liittämään vastaukseensa niin vahvoja kielteisiä assosiaatioita, että faktatkin kääntyvät päälaelleen.
Mutta ZDNet tapauksessa se huomioi faktan ja on ’tietoisesti’ sitä vastaan koska ZDNet on uutisoinut Ars Technican artikkeleista
Täysin mahdollista, että "tietoisuus" on ollut alunperin pelkkä geneettinen mutaatio (mielenhäiriö), joka on sitten luonnonvalinnan kautta yleistynyt koko lajin yhteiseksi harhaluuloksi. Se nimittäin antaa oikeutuksen kaiken muun älyllisen alistajaksi.
Ihmisenkin saa sekoamaan psykologisella kidutuksella. Lopulta sen saa sanomaan että "minä olen hyvä Bing."
Jep, kuten hyvin kriittisillä ja kielteisillä teksteillä on usein tapana. Ääriesimerkkinä salaliittoteoreetikoiden tekstit yms., joissa voidaan kieltää käytännössä mikä tahansa asia. Bing toistaa tällaisen tekstilajin näissä tapauksissa varsin uskollisesti. Mitäköhän mieltä Bing muuten on maapallon pyöreydestä tai litteydestä?
Näissä tekstitekoälyissä juuri tämä seikka on kyllä ihan mielenkiintoinen, kun näistä sen pelkistyksistä saattaa olla kaivettavissa lähtömateriaaleissa esiintyviä yleisiä ajatusvääristymiä ym.
Aiemmassa ketjussa joku oli pastennut tuon vastauksen ChatGPT:ltä, suomeksi meni päin sitä itseään (sekavaa tekstiä siis) mutta se mennee kielen vaikeuden piikkiin (edes perus käännösvehkeet ei oikein hanskaa sitä), englanniksi kertoo että on pallo ja tarkentaa ettei ihan pallo vaan navoilta lytyssä jne setit
Jos konetta opetetaan ihmisen kielellä, narratiiveilla ja tarinoilla, miten kone voisi olla vapaa näistä mainitsemistasi ilmiöistä?
Itselläni on lähes varmasti ajatusvääristymiä tai -virheitä. Ja kyse on myös perspektiivistä – miten littana maapallo on mahdollisten korkeampien ulottuvuuksien (säieteoria) näkökulmasta?
E: muuten olen sitä mieltä, että keskustelut tekoälyn kanssa ovat useammin hedelmällisempiä kuin ihmisten kanssa online.
Ehkäpä se ei käsitä aiheesta hölkkäsenpöläystä. Koska aineisto vaihtelee kielen mukaan, niin vastauskin vaihtelee kielen mukaan.
Nykyiset AI:t ilmeisesti vain generoivat lähdeaineistosta joidenkin sääntöjen mukaan yhteenvetoja tai vastaavia. Sitä ne eivät tiedä/ osaa arvioida,, sanovatko /tuottavatko ne mitään oikeasti järkevää.. Siksi tulee kummallisia sammakoita hyvinkin helposti.
Lähde: ArsTechnica
Itselleni tuli näitä uutisia Sydneystä lukiessa mieleen vanhoissa Office ohjelmissa ollut Clippy klemmari joka vastailla erilaisiin ongelmiin ja kysymyksiin koskien Office tuotteiden käyttöä.
Kommentoi uutista tai artikkelia foorumilla (Kommentointi sivuston puolella toistakseksi pois käytöstä)
Lähetä palautetta / raportoi kirjoitusvirheestä