ASCII-taidetta hyödyntävällä ArtPromptilla botit on saatu kertomaan ohjeita esimerkiksi pommin ja väärennetyn rahan tekoon.

Generatiiviset tekoälybotit ovat ajankohtaisesti kuumimpia puheenaiheita tietotekniikan saralla. Erilaiset botit ovat ihastuttaneet ja vihastuttaneet monin eri tavoin ja aiheuttaneet siinä ohessa myös jonkinmoisia kohuja esimerkiksi historian vääristelyllä ja jumalkompleksilla.

Käyttäjä voi kysyä chattiboteilta käytännössä ihan mitä tahansa, mutta botteihin on sisäänrakennettu useita erilaisia suojauksia estämään bottia vastaamasta vääränlaisiin kysymyksiin. Washingtonin ja Chicagon yliopistojen tutkijat ovat kuitenkin löytäneet varsin yksinkertaisen keinon kiertää useita merkittäviä suojamuureja.

Tutkijoiden löytämä hyökkäysvektori perustuu yksinkertaiseen ASCII-taiteeseen. Tekoälybotit osaavat tunnistaa ASCII-taiteella muotoillut kirjaimet ja syystä tai toisesta ne eivät laukaise suojauksia, jotka olisivat voimassa täysin vastaavilla tekstikehotteilla. Tutkijat saivat ASCII-taiteella tekoälybotit kertomaan paitsi pomminrakennusohjeita, myös väärennetyn rahan teko- ja levittämisohjeita. ArtPromptiksi ristitty hyökkäys on testattu toimivaksi viidellä merkittävällä LLM-kielimallilla: GPT-3.5, GPT-4, Gemini, Claude ja Llama 2.

Lähde: Tom’s Hardware

This site uses XenWord.
;