Blogi

AI:n hypejunaan tarvitaan myös kyberjarrut

Kirjoittanut Admin | 06.11.2024

Viimeisen kahden vuoden aikana on kohistu tekoälyn (AI) mahdollisuuksista. Tai oikeastaan keskiössä ovat olleet laajat kielimallit (LLM), jotka ovat vain yksi osa tekoälykehitystä. Moni yritys on lähtenyt kokeilemaan, miten laajat kielimallit ja tekoäly voidaan ottaa osaksi toimintaa eikä siinä vauhdissa ole aina muistettu kyberturvaa.

AI-hypejuna nytkähti liikkeelle viimeistään siinä vaiheessa, kun OpenAI julkaisi ChatGPT:n ja avasi laajalle yleisölle helpon ja konkreettisen tavan käyttää laajaa kielimallia. Nopeasti tämän jälkeen alkoi näkymään uutisia ja julkituloja siitä, että AI tuodaan osaksi tuotteita, palveluita ja sovelluksia. Samalla alkoi putkahdella AI-etuliitteen kera erilaisia ratkaisuja, kuten AI-chatbot, AI-avustaja, AI-tietoturvatyökalu… Saatiin mukaan myös kirjava määrä ennusteita, miten AI tulee muuttamaan maailman ja monen työnkuva muuttuu.

Tekoälyä kaikkeen ja kaikkialle?

Parhaimmillaan näiden kokeilujen avulla on saatu tehostettua työtä ja innovaatioita. Alun rohkeiden testausten jälkeen, joissa käytännössä kaikki mahdollinen syötettiin esim. ChatGPT:n tulkittavaksi, on nähty myös varovaisuuden lisääntymistä. Tästä esimerkkinä on tilanne, jossa insinöörien reipas debuggaus johti generatiivisen tekoälyn työkalujen käytön rajoittamiseen Samsungilla. OpenAI:n tietovuodossa paljastui käyttäjiin liittyvää dataa ja maailmalta on esimerkkejä, joissa yritysten omat LLM-palvelimet vuotavat sensitiivistä tietoa.

Tekoälyyn liitetään usein helppous. Vainko naks, poks ja viuh, ja sitten tekoäly on osa yrityksen toimintaa? Kieltämättä esimerkiksi laajan kielimallin hankkiminen työntekijöiden käyttöön on yksinkertaista. Lisenssien hankinnan lisäksi olisi kuitenkin syytä pysähtyä suunnittelemaan itse käyttöönotto ja sen tavoitteet. Mihin työkalua on tarkoitus käyttää? Kuka sitä käyttää? Miten? Mitä rajoitteita siihen liittyy?

Samsungin tapauksessa insinöörit yrittivät parhaansa mukaan debugata koodia, paljastaen samalla työnantajansa arkaluontoisia tietoja. Toisessa tapauksessa oikeudessa esitettiin ChatGPT:n hourimaa aineistoa, joka viittasi keksittyihin oikeustapauksiin. Kaverini kertoi, että oli meinannut vahingossa lähettää asiakkaalleen laajan kielimallin tekemät hallusinointia sisältävät esitysmateriaalit. Kielimallin avulla teksti oli käännetty esitykseksi. Samalla jokaiseen kalvoon oli muodostunut muistiinpanot, joiden sisältö ei ollutkaan enää niin vakuuttavaa.

Entäs se kyberturva?

AI:n uhkia ja vääjäämätöntä kybertuhoa on ennustettu jo jonkin aikaa. Yksi osa tätä keskustelua on laajojen kielimallien ja tekoälyn aiheuttamat kyberuhat. Nostan esille kolme osa-aluetta, joita käsittelen seuraavaksi lyhyesti: tekoälyn avulla toteutetut hyökkäykset, laajoja kielimalleja kohtaan toteutetut hyökkäykset sekä tekoälyavusteinen puolustus.

1) Tekoälyn avulla toteutetuista hyökkäyksistä on povattu tulevaisuuden suurta uhkakuvaa
Tekoäly tulee varmasti luomaan uusia uhkakuvia ja mahdollistamaan uusia hyökkäystapoja. Tähän mennessä nähdyt hyökkäykset ovat kuitenkin sisältäneet lähinnä kalastelun personointia ja skaalaamista sekä hyökkäyskoodin kehittämistä laajojen kielimallien avulla. Merkittävää liikehdintää haitallisen toiminnan osalta on havaittu informaatiovaikuttamisen osalta. Tähän liittyen kielimallit ovat mahdollistaneet skaalaamisen ja sisällön tuottamisen ennen näkemättömällä tavalla. Aihetta ja siihen liittyviä kyvykkyyksiä sivuttiin myös esimerkiksi Microsoftin Digital Defence -raportissa.

2) Laajoja kielimalleja vastaan suoritettavia hyökkäyksiä on kehitetty ja kehitetään jatkuvasti
OWASP TOP 10 listaa kielimalleihin liittyviä hyökkäysvektoreita ja lähiaikoina onkin nähty yhä enemmän myös käytännön esimerkkejä. Microsoft Copilotiin liittyen kerrottiin vastikään haavoittuvuudesta, jonka avulla hyökkääjä on voinut päästä käsiksi sensitiiviseen informaatioon. Kyseisessä tapauksessa SSRF-haavoittuvuus (Server-side request forgery) on mahdollistanut HTTP-pyyntöjen avulla hyökkääjälle pääsyn sensitiiviseen tietoon. Samaan aikaan kehitetään yhä enemmän uusia tapoja, joilla esimerkiksi MS Copilotin avulla voidaan paljastaa sensitiivistä tietoa. Tähän liittyen tutustumisen arvoinen on esimerkiksi LOLCopilot-työkalu, jonka avulla voidaan demonstroida Copilotin käyttöön liittyviä riskejä.

3) Puolustuksen suhteen on otettu valtavia kehitysaskeleita
Kyberturvatuotteiden   valmistajat tuovat esille yhä uusia tekoälyyn liittyviä ominaisuuksia. Laajoja kielimalleja tuodaan asiantuntijoiden ja tutkijoiden avuksi. Automaatio ja vastatoimet ovat kehittyneet valtavasti. Tekoälyn avulla havaitaan asioita, joita aikaisemmin ei havaittu. Korvaako tekoäly kuitenkaan ihmistä? SOC-analyytikkoa tai DFIR-asiantuntijaa? En usko, että lähiaikoina. Esimerkiksi laaja kielimalli analyytikon apuna on osoittanut olevansa loistava apuri, mutta samalla sen käyttäjän ammattitaidon tarve on korostunut. Kun uskottava LLM tuottaa virheitä sisältävän vastauksen, on ammattilaisen kyettävä huomaamaan sen virheet. Tekoälystä on tullut työkalu ja apulainen edellä mainittujen tueksi. Edelleen tarvitaan kuitenkin se ammattilainen, joka lopullisen analyysin suorittaa.


Uudet teknologiat ja tulevaisuuden innovaatiot vaativat rohkeaa ja ennakkoluulotonta testaamista oikeiden käytänteiden löytämiseksi. Rohkeiden kokeiluiden rinnalle tarvitaan kuitenkin riskienhallintaa ja vastuullisuutta.

PS. Tämän tekstin luomiseen hyödynnettiin tekoälyä työkaluna, mutta se ei korvannut kirjoittajan luovuutta ja kekseliäisyyttä. ;)