Viisi näkökulmaa tekoälyn tietoturvaan

Tekoäly avaa suuria mahdollisuuksia datan hyödyntämiseen. Mukana seuraavat kuitenkin myös riskit. Samalla kun ymmärrys tekoälyn toiminnasta on kasvanut, myös tietoisuus riskeistä on lisääntynyt.

Tekoälyn tietoturvariskien havaitseminen tarjoaa kyberturvalle uudenlaisia haasteita. Ihmiset ovat suunnitelleet tähän asti laitteet ja sovellukset, joten toisten ihmisten on yleensä helppoa etsiä suunnittelusta aukkoja. Ihmiset suunnittelevat myös tekoälyn algoritmit, mutta niiden toiminta on itsenäisempää ja oppivaa (eli muuttuvaa).

Tekoälyn tietoturvan riskejä kannattaa tarkastella viidestä näkökulmasta. Nämä ovat datalla harhauttaminen, toimintatavan urkkiminen, datan urkkiminen, häirinnän sieto ja tietoturvallinen suunnittelu.

1. Tekoälyn harhauttaminen datalla

1. Tekoälyn harhauttaminen datalla

Tekoälyratkaisut oppivat datan avulla. Tekoälyä voidaankin ohjata harhaan virheellisellä datalla opetusvaiheessa tai sitten manipuloimalla sen hyödyntämää reaaliaikaista dataa.

Jos tekoälyä opetetaan huonolla datalla ja saadaan se näin tekemään vääriä päätöksiä, se tekee myös tuotantokäytössä järjestelmällisesti ja johdonmukaisesti huonoja päätöksiä.

Tietoturvan kannalta on tärkeää ymmärtää, että jokin taho voi yrittää manipuloida tekoälyä tekemään virheellisiä päätöksiä tietyissä erityistilanteissa. Opetusdataa olisi tärkeää tarkastella hyökkääjän silmin. Millaisen virheen hyökkääjä haluaisi saada aikaan? Miten hyökkääjä voi manipuloida koulutusdataa saadakseen tekoälyn oppimaan juuri tämän tietyn virheen?

Toinen keino tekoälyn manipuloimiseen on reaaliaikaisen datasyötteen häirintä. Vaikkapa anturien keräämän datan vääristäminen sotkee tällä datalla ohjattavaa päätöksentekoa. Esimerkiksi itseohjautuvat autot ovat olleet vaikeuksissa, kun liikennemerkkien numeroita tai symboleja on vaihdettu.

- sulje

2. Tekoälyn toiminnan urkkiminen

2. Tekoälyn toiminnan urkkiminen

Tekoälyn tarkka toiminta on yrityksissä yleensä liikesalaisuus, kun taas julkisten julkisten organisaatioiden mallit voivat olla avoimempia. Mahdollinen hyökkääjä voi yrittää urkkia mallin toimintaa kokeilemalla erilaisia syötteitä ja vertailemalla niiden tuloksia. Tämän vuoksi on syytä pohtia, millä tarkkuudella tekoälyn johtopäätöksiä jaetaan. Kannattaa myös seurata, käyttävätkö jotkut tahot mallia poikkeuksellisen paljon ilman selkeää ja perusteltua syytä.

- sulje

3. Datan suojaus

3. Datan suojaus

Joissakin tilanteissa tekoälyä joudutaan kouluttamaan hyvin henkilökohtaisella tiedolla, kuten terveystiedolla, jolloin data täytyy suojata erityisen tarkasti. Hyökkääjän ei pitäisi missään tilanteessa eikä minkäänlaisilla kyselyillä saada urkittua tekoälyltä sen koulutuksessa käytettyä tietoa. Yksi keino ratkoa tätä ongelmaa, on hyödyntää synteettistä dataa.

- sulje

4. Tekoälyn kyky sietää häiriöitä. Koulutusdata ei mitenkään veny kaikkeen

4. Tekoälyn kyky sietää häiriöitä. Koulutusdata ei mitenkään veny kaikkeen

Taitavat hyökkääjät tuntevat koulutukseen käytettävän datan rajoitteet ja kokeilevat järjestelmän rajoja haastavilla syötteillä. Tietoturvan kannalta mallin pitäisi olla riittävän vahva sietämään tämäntyyppistä häirintää ja mallin toiminnalle pitää voida asettaa rajoja, joita se ei missään tilanteessa itsenäisesti voi ylittää.

- sulje

5. Tietoturvan huomioiminen tekoälyn suunnittelussa alusta lähtien

5. Tietoturvan huomioiminen tekoälyn suunnittelussa alusta lähtien

Kuten minkä tahansa muunkin it-ratkaisun kohdalla, tietoturvaosaajien pitäisi olla alusta lähtien mukana ratkaisun suunnittelussa ja laatimassa mahdollisimman varhain laajaa uhkamallia ja suunnitelmaa, kuinka näiltä uhilta suojaudutaan. Hyökkääjät etsivät järjestelmistä ja niihin kytketyistä laitteista mahdollisia aukkoja. Tekoälyratkaisut ovat usein yhteydessä tietovarastoihin, joten datan suojaus ja jatkuva valvonta on erittäin tärkeää. Tekoälyjärjestelmässä ei pitäisi olla ainuttakaan komponenttia, jonka toimintatapa ei ole tiedossa ja varmistettu. Jos tekoälyä ei seurata perusteellisen hallintamallin avulla, tämäntyyppisiä tietoturvaongelmia on vaikea havaita.

- sulje

Nämä näkökulmat pätevät kaikkiin tekoälyratkaisuihin niiden käyttötavasta riippumatta. Tekoälyn uhkienhallintaa pitää kuitenkin aina tarkastella tekoälyn käytön kannalta. Mitä enemmän luottamuksellista tietoa se käsittelee tai mitä enemmän vaikutuksia tekoälyn toiminnalla on ihmisten henkeen ja terveyteen tai talouteen, sitä enemmän resursseja tietoturvan huomioimiseen pitäisi käyttää.

Tutustu Loihde Trustin kyberturvapalveluihin!