• Ei tuloksia

Tekoälyn haavoittuvuudet kybertoimintaympäristön näkökulmasta

N/A
N/A
Info
Lataa
Protected

Academic year: 2022

Jaa "Tekoälyn haavoittuvuudet kybertoimintaympäristön näkökulmasta"

Copied!
80
0
0

Kokoteksti

(1)

Juha Kilpiäinen

TEKOÄLYN HAAVOITTUVUUDET KYBERTOIMIN- TAYMPÄRISTÖN NÄKÖKULMASTA

JYVÄSKYLÄN YLIOPISTO

INFORMAATIOTEKNOLOGIAN TIEDEKUNTA

2020

(2)

TIIVISTELMÄ

Kilpiäinen, Juha

Tekoälyn haavoittuvuudet kybertoimintaympäristön näkökulmasta Jyväskylä: Jyväskylän yliopisto, 2020, 80 s.

Kyberturvallisuus, pro gradu -tutkielma Ohjaaja: Lehto, Martti

Nyky-yhteiskuntaamme on tullut olennainen lisä, tekoäly. Se koskettaa useita yhteisömme eri osia ja on tullut tukemaan erityisesti modernia palveluyhteiskun- taamme. Päivittäin modernin palveluyhteiskuntamme useat eri palvelut hyö- dyntävät tekoälyjärjestelmiä. Näitä ovat muun muassa tietoliikenne- pankki-, terveys- ja kaupanala sekä sähköinen viestintä. Sähköisessä viestinnässä erityi- sesti puhelin, televisio, radio, sosiaalinen media ja internet hyödyntävät tekoälyä.

Esillä olevien positiivisten hyötyjen lisäksi tekoälykontekstissa on alkanut näkyä myös negatiivisia vaikutuksia. Tekoäly kuten mikään muukaan ICT-järjestelmä ei ole vastustuskykyinen toimijoille, jotka haluavat hyödyntää sen haavoittu- vuuksia omien tavoitteiden saavuttamiseksi. Tekoälyn kyberturvallisuusympä- ristössä toimijan on ymmärrettävä, että tekoälyllä on haavoittuvuuksia, joita voi- daan käyttää sitä vastaan. Tämä tekoälyn kielteinen hyödyntäminen koskettaa niin julkispalveluita, suuryrityksiä kuin yksilöitä.

Tässä pro gradussa tutkitaan tekoälyn haavoittuvuuksia. Tutkimus on ra- jattu koskemaan tekoälyn haavoittuvuuksia, jotka esiintyvät sen kybertoimin- taympäristössä. Tutkimuksen kohdetta on syvennetty tarkastelemalla kybertoi- mintaympäristössä esiintyviä hyökkäyksiä tekoälyä vastaan.

Tutkimus on suuntautunut laadullisesti. Koska tutkimuskysymykseen liit- tyvästä ilmiöstä on vain vähän teoriaa ja tutkimuskirjallisuutta, aineistonkeruu- menetelmänä käytettiin erilaisiin dokumentteihin, raportteihin ja julkaistuun kir- jallisuuteen perustuvaa tietoa.

Johtopäätöksenä tekoälystä löytyy haavoittuvuuksia oppimiseen, opetta- miseen, koulutusmateriaaliin, algoritmeihin, tunnistustekniikoihin ja ymmär- rykseen liittyen. Haavoittuvuuksia on myös koodi-, ohjelmisto- ja laitetasolla sekä tietoverkoissa. Lisäksi yhä monimutkaisemmaksi muuttuvat tekoälyjärjes- telmäkokonaisuudet korostavat näistä koostuvien ratkaisujen haavoittuvuutta.

Tutkimuksessa esille tuodut tekoälyn haavoittuvuudet ovat vain haasteita, jotka ymmärrämme tekoälystä tänään. Teknologioiden kehittyessä ja uusien käyttö- tarkoitusten ilmaantuessa ei ole vaikea kuvitella tulevia uusia haavoittuvuuksia.

Ne voivat jalostua esiin näistä aiheista tai ilmaantua muualta.

Asiasanat: tekoäly, haavoittuvuus, kybertoimintaympäristö, kyberturvallisuus

(3)

ABSTRACT

Kilpiäinen, Juha

Vulnerabilities in artificial intelligence from the perspective of the cyber-environ- ment

Jyväskylä: University of Jyväskylä, 2020, 80 pp.

Cyber Security, Master’s Thesis Supervisor: Lehto, Martti

The everyday life of our modern society has changed considerably because of technological developments. In particular, artificial intelligence has become a sig- nificant factor in almost every sector of our society, including the sectors provid- ing services for needs of society. In our daily life several different sectors of soci- ety and services utilize artificial intelligence systems. In the social sectors and services, such as telecommunications, banking, health and commerce, as well as telephone, television, radio, social media and the Internet, artificial intelligence plays a key role. In addition to the great benefits of artificial intelligence to our lives, negative effects have also begun to show up. Artificial intelligence, similar to ICT system, is not resilient to malicious actors who want to exploit its vulner- abilities to achieve their own goals. When operating in the cyber security envi- ronment of artificial intelligence, the actor must understand that artificial intelli- gence has vulnerabilities that can be exploited against it. This harmful use of ar- tificial intelligence affects public services, large companies and individuals.

This Master's Thesis investigates the vulnerabilities of artificial intelligence.

The research has been limited to the vulnerabilities of artificial intelligence that occur in the cyber-environment. The subject of the study has been deepened by to look into attacks against artificial intelligence in the cyber security environ- ment.

The research is qualitatively oriented. As there is only a theory and research literature on the phenomenon available. Information was gathered from different sources such as various documents, reports and published literature.

In conclusion, there are vulnerabilities in artificial intelligence relating to learning, teaching, training materials, algorithms, recognition techniques and content understanding. There are also vulnerabilities in respect of codes, soft- ware, and hardware. as well as information networks. Moreover, the increasingly complex artificial intelligence system assemblies highlight the vulnerability of the solutions composed. The vulnerabilities of artificial intelligence discussed in the research are just challenges that we have found out about today´s artificial intelligence. As technologies evolve and new applications emerge, it is not diffi- cult to imagine future new vulnerabilities. They can be refined from these sub- jects or they can appear out of nowhere.

Keywords: artificial intelligence, vulnerability, cyber environment, cybersecurity

(4)

SISÄLLYS

TIIVISTELMÄ ... 2

ABSTRACT ... 3

SISÄLLYS ... 4

1 JOHDANTO ... 6

1.1 Tutkimuksen tausta ... 9

1.2 Tutkimuksen tavoite ... 10

1.3 Tutkimuksen rajaus ... 12

1.4 Tutkimusongelma ja tutkimuskysymykset ... 13

1.5 Keskeiset käsitteet ... 14

1.5.1 Algoritmi ... 15

1.5.2 Big data ... 16

1.5.3 Haavoittuvuus ... 16

1.5.4 Heikko/ kapea ja vahva/ yleinen tekoäly ... 16

1.5.5 Koneoppiminen ... 17

1.5.6 Kybertoimintaympäristö ... 17

1.5.7 Kyberturvallisuus ... 18

1.5.8 Loppukäyttäjä ... 19

1.5.9 Singulariteetti ... 19

1.5.10 Tekoäly ... 19

1.5.11 Tietojärjestelmä ja tietojärjestelmäkokonaisuus ... 21

1.5.12 Vääristymä ... 21

1.6 Katsaus aikaisempiin tutkimuksiin ja kirjallisuuskatsaus ... 21

2 TUTKIMUKSEN TIETEELLINEN POHJA ... 25

2.1 Tutkimusmetodi ja metodologia ... 25

2.2 Tutkimustyyppi ... 26

2.3 Tutkimussuuntaus ... 26

2.4 Tutkimuslaji ... 27

2.5 Aineistonkeruumenetelmä ... 28

2.6 Aineiston analyysimenetelmä ... 28

2.7 Tutkimuksen luotettavuus ... 30

3 TEKOÄLYN KEHITYS ... 32

3.1 Tekoäly aikaisemmin ... 32

3.2 Tekoäly nyt ... 33

3.3 Tekoälyn seuraavat askeleet ... 34

4 TEKOÄLYÄ JA KYBERTURVALLISUUTTA ... 37

5 TEKOÄLYÄ VASTAAN KOHDISTUVAT HYÖKKÄYKSET ... 41

5.1 Hyökkäysten jako ... 41

(5)

5.2 Hyökkäysluokat tekoälyä vastaan ... 43

5.2.1 Luottamuksellisuushyökkäykset ... 43

5.2.2 Eheys- tai myrkytyshyökkäys ... 44

5.2.3 Saatavuus- tai syötehyökkäys ... 45

5.2.4 Replikointihyökkäys ... 45

5.2.5 Tekoälyn korvaaminen toisella versiolla ... 45

6 TEKOÄLYN HAAVOITTUVUUDET ... 47

6.1 Tekoälyn opettamiseen ja oppimiseen liittyvä haavoittuvuudet ... 50

6.2 Tekoälyn koulutusmateriaalin haavoittuvuudet ... 52

6.3 Tekoälyn algoritmien haavoittuvuudet ... 54

6.4 Tekoälyn koodi- ja ohjelmistovirheiden haavoittuvuudet ... 57

6.5 Tekoälyn laite- ja komponenttitason haavoittuvuudet ... 58

6.6 Tekoälyn tunnistustekniikoiden haavoittuvuudet ... 59

6.7 Tekoälyn ymmärryksen haavoittuvuudet ... 60

7 YHDISTELMÄ ... 62

8 JOHTOPÄÄTÖKSET JA POHDINTA ... 67

9 JATKOTUTKIMUKSET ... 72

LÄHTEET ... 73

(6)

1 JOHDANTO

Tässä pro gradussa tutkitaan tekoälyn haavoittuvuuksia. Tutkimuksessa keski- tytään siihen, millaisia tekoälyhaavoittuvuuksia on olemassa erityisesti kybertoi- mintaympäristössä. Tutkimusta täydennetään tutkimalla hyökkäyksiä tekoälyä vastaan. Koska hyökkäyksien kautta on mahdollista tutkia laajemmin tekoälyn eri haavoittuvuuksia, ne avartavat tutkimusongelmaan perehtymistä.

Vähäkainun, Lehdon ja Kariluodon (2020) mukaan termi tekoäly on ollut pinnalla jo vuosikymmeniä. Se esitettiin aluksi ihmisen aivojen kognitiivisten toi- mintojen jäljittelemiseksi. Tekoälyn keskeinen asia on, että se voi käsitellä mer- kittävän määrän tietoa. Tätä kautta sillä on uusia sovelluksia nykyisessä ympä- ristössämme (Vähäkainu, Lehto & Kariluoto, 2020). Nykyinen digitaalinen ym- päristömme ja jokapäiväinen toimintamme on omaksunut tekoälyn yhdeksi pal- veluyhteiskuntamme osaksi. Siukosen ja Neittaanmäen (2019) mukaan moderni palveluyhteiskuntamme hyödyntää tekoälyä osana tätä digitalisaatiota. Teko- älyä hyödyntävät useat eri yhteiskunta-alat ja palvelut. Näitä ovat muun muassa tietoliikenne, pankki-, terveys- sekä kaupanala. Erityisesti tekoälyn vaikutus nä- kyy älylaiteteknologiassa, sosiaalisessa mediassa, internetissä ja televisiossa. Te- koälyä käytetään konkreettisesti esimerkiksi hakukoneissa, kasvojentunnistuk- sessa, ääniohjauksessa, kohdennetussa mainonnassa, roskapostin suodatuksessa sekä rekisteritunnistusjärjestelmissä ja niin edelleen (Siukonen & Neittaanmäki, 2019). Samaa mieltä Siukosen ja Neittaanmäen kanssa on myös Lehto. Lehdon (2019) mukaan tekoäly kehittyy huimin harppauksin. Tekoäly tulee mahdollista- maan eritoten ihmistä vaativien tehtävien automatisoinnin. Tämä kehitys tulee avaamaan uusia mahdollisuuksia uudistaa nykyisiä toimialoja. Tekoälyn kyvyk- kyys tulee painottumaan esimerkiksi analyyseissa ja havaintojen läpikäynnissä.

Tämä siksi, koska tekoäly kykenee käsittelemään nopeasti valtavat määrät dataa ja luomaan tästä uutta tietoa. Jo nykyisin valtavien datamäärien käsittelemiseen tarvitaan älykkyyttä ja koneita. Tekoälyn avulla koneet, laitteet, järjestelmät, oh- jelmat ja palvelut toimivat tilanteen mukaisesti. Samalla tekoäly tekee päätelmiä käytössään olevan tiedon perusteella ja avustaa ihmistä (Lehto, 2019). Vähäkai- nun ym. (2020) mukaan data on ensiarvoisen tärkeää toimivalle tekoälylle. Teko- älyn käyttämien tietojen pitää olla saatavilla ja oikeita (Vähäkainu, Lehto &

(7)

Kariluoto, 2020). Amodei ym. (2016) ja Fralick (2019) lisäävät, että datan määrän kasvaessa riippuvuus tekoälystä kasvaa.

Lähes kaikessa julkaistussa tekoälykirjallisuudessa ja raporteissa tekoäly nähdään mielenkiintoisena ja ajankohtaisena tutkimusalueena. Tämän allekir- joittavat muun muassa Mitchell (2018) ja Kilpatrick (2019b). Heidän raporttiensa mukaan tekoäly on yksi tärkeimmistä ja aktiivisimmista tutkimusalueista tieto- tekniikan alalla. Se on siirtynyt keskuuteemme tieteiskirjallisuuden alueelta. Ra- porttien mukaan olemme tekoälyn kanssa vuorovaikutuksessa päivittäin. Tähän vuorovaikutukseen sisältyy valitettavasti myös toinen puoli. Kuten kaikki tehok- kaat tekniikat, tekoälykin on kaksiteräinen miekka. Tekoälyllä on potentiaalia parantaa elämäämme, mutta se tarjoaa myös kyberturvallisuuden haasteita (Mit- chell, 2018 ja Kilpatrick, 2019b).

Băjenescun (2018) mukaan tekoälyn vallankumous on nopein kaikista tun- netuista vallankumouksista. Sen esitetään pystyvän parantamaan ja hienosäätä- mään jo olemassa olevia prosesseja. Sen sanotaan olevan paljon enemmän kuin tekniikka. Usein todetaankin, että tekoäly edustaa uutta tapaa olla vuorovaiku- tuksessa ympäristön ja liiketoiminnan kanssa. Useat suhtautuvat myönteisesti tekoälyinnovaatioon. Toiset vaativat hypetykseen taukoa, arvioidakseen kulut- tajille mahdollisesti aiheutuvia riskejä tai haitallista toimintaa (Băjenescu, 2018).

Stephensonin (2018), Mitchellin (2018) ja Kilpatrickin (2019b) mukaan on väistä- mätöntä, että riskejä esiintyy. Ennemmin tai myöhemmin tehokasta tekniikkaa käytetään haitallisiin tarkoituksiin. Useat tutkijat ja verkkoturvallisuuden am- mattilaiset ovat antaneet hälytyksen tekoälyn käytöstä esimerkiksi perinteisten verkkoturvajärjestelmien heikentämiseksi (Stephenson, 2018; Mitchell, 2018 ja Kilpatrick, 2019b).

Mitchellin ja Kilpatrickin kanssa samaa mieltä ovat Amodei ym. (2016) ja Fralick (2019). Heidän mukaansa tekoälyn nopea kehitys on nostanut esiin teko- älytekniikoiden negatiiviset yhteiskunnalliset vaikutukset. Nämä voivat olla ta- hattomia tai tahallisia. Tekoälyn käytön kehittyessä ja lisääntyessä pahantahtoi- set toimijat lisäävät tietämystään ja kykyjään hyödyntää tekoälyä (Amodei ym., 2016 ja Fralick, 2019). Jos tekoälyn taustalla olevan tekniikan tehostuminen jatkuu, lisätään haitalliseen käyttöön vain uusia keinoja täydentävät Shevlane ja Dafoe (2020).

Amodein ym. (2016) ja Fralickin (2019) mukaan kyberturvallisuuden alalla pitäisi hyväksyä se käsitys, että pöydän toisella puolella olevat ovat yhtä älyk- käitä kuin mekin. He ymmärtävät, jos otamme riskejä. Tämän takia on noussut esille laaja ja monipuolinen keskustelu tekoälyyn liittyvistä kysymyksistä. Kes- kustelu pitää sisällään muun muassa onnettomuudet, etiikan, riskiherkkyyden ja turvallisuuden. Koska tekoälyjärjestelmiä käytetään yhä suuremmassa mittakaa- vassa, erilaisissa tilanteissa on syytä pohtia negatiivisten asioiden skaalautu- vuutta. Skaalautuvuuden lisäksi on pohdittava sitä, mitkä haasteet on kohdat- tava onnettomuuksien riskien vähentämisessä (Amodei ym., 2016 ja Fralick, 2019). Amodei ym. (2016), Fralickin (2019) sekä Vähäkainun ym. (2020) mukaan, jos löydämme uuden uhan tai keksimme miten suojautua siltä, toiset suunnitte- levat tapoja kiertää tai häiritä näitä. Amodein ym. (2016) ja Fralickin (2019) mu- kaan voimme olla varmoja siitä, että vastustajat hyödyntävät haavoittuvuuksia.

Tekoäly ei ole poikkeus (Amodei ym., 2016 ja Fralick, 2019).

(8)

Suomessakin on tehty tekoälyyn liittyvää raportointia. Tekoälyohjelman loppuraportin (2019) mukaan tekoälystä on puhuttu viimeisten vuosien aikana laajasti. Laskentakapasiteetin tehostuminen, tekniikan halventuminen, datamää- rän kasvu ja tekoälyalgoritmien kehittyminen, ovat johtaneet tekoälyn lisäänty- neeseen hyödyntämiseen. Tekoälyyn on viitattu, kun on puhuttu tämän vuosisa- dan tärkeimmistä teknologioista. Tähän liittyen tekoälyohjelman loppuraportti korostaa tekoälyn olevan enemmän kuin vain yksi teknologia. Tekoäly on joukko erilaisia menetelmiä, teknologioita, sovelluksia ja jopa tutkimussuuntia. Nämä tekoälyn menetelmät, teknologiat ja sovellukset ovat osa digitalisaation laajem- paa ilmiötä ja kehitystä (Tekoälyohjelman loppuraportti, 2019). Tätä tekoälyoh- jelman loppuraporttia täydentää Ailiston, Heikkilän, Helaakosken, Neuvosen ja Seppälän (2018) raportti: Tekoälyn kokonaiskuva ja osaamiskartoitus. Heidän mukaansa tekoälykenttää voi kuvata ja jäsentää esimerkiksi seuraavan jaottelun mukaisesti: data-analyysi, havainnointi, tilannetietoisuus, luonnollinen kieli, kognitio, vuorovaikutus ihmisen kanssa, digitaidot työelämässä, ongelmanrat- kaisu, laskennallinen luovuus, koneoppiminen, järjestelmätaso, systeemivaiku- tukset, tekoälyn laskentaympäristöt, alustat, palvelut, robotiikka ja koneauto- maatio (Ailisto, Heikkilä, Helaakoski, Neuvonen & Seppälä, 2018). Tekoäly on siis kokonaisuus ja luonnollinen jatkumo, ei vain yksittäinen digitalisaation osa.

Tekoäly tuo paljon positiivista kehitystä, mutta sillä on myös varjopuolensa.

Castelluccion (2018a) ja Kilpatrickin (2019) mukaan digitaalisessa tilassa ideoita käytetään sekä positiivisiin, että negatiivisiin tarkoituksiin. Tekoäly ei ole im- muuni käyttäjille, jotka haluavat vahingoittaa sillä muita tai hyödyntää sen haa- voittuvuuksia (Castelluccio, 2018a ja Kilpatrick, 2019). Kilpatrickin (2019) mu- kaan kyberturvallisuuden on käännettävä painopiste tekoälyn sisäisiin ominai- suuksiin. On kehitettävä ymmärrystä siitä, kuinka tekoälyjärjestelmiä voidaan suojata kielteiseltä käytöltä. Tämä tarkastelu on tehtävä aina suurista yrityksistä kahviloissa istuviin yksilöihin. He kaikki ovat alttiita tekoälyyn kohdistuville hyökkäyksille (Kilpatrick, 2019). Tekoälyn varjopuolien kanssa samoilla linjoilla on myös Lehto. Lehto (2019) nostaa esille tekoälymahdollisuuksien lisäksi myös kehitykseen liittyvät turvallisuuskysymykset. Kun päätöksenteko siirtyy ihmi- seltä koneelle, mitä meidän on huomioitava? Avointen turvallisuuskysymysten määrää tulee vähentää tekemällä tutkimusta ja antamalla koulutusta (Lehto, 2019). Tämän pro gradun motivaation lähteenä on edellä mainitun varjopuolen tuominen osaksi keskustelua. Tarkoitus on tutkia yhtä tekoälyn turvallisuusky- symyksen osa-aluetta, sen haavoittuvuuksia.

Tekoälyohjelman loppuraportin (2019) ja Tarkoman (2017) mukaan teko- älyn turvallisuuteen liittyvät riskit voidaan luokitella kolmeen eri ryhmään: hai- tallinen tekoäly, erehtyvä tekoäly sekä tekoälyjärjestelmään kohdistuva haitalli- nen vaikuttaminen. Haitallinen vaikuttaminen on esimerkiksi hyökkäyksiä teko- älyjärjestelmiä vastaan. Haitallinen tekoäly vaikuttaa ihmisiin tai toisiin järjestel- miin edistääkseen annettua päämäärää. Tekoäly voi myös erehtyä, jos sen kehit- tämiseen tai päivittämiseen käytetty data on vinoutunutta (Tekoälyohjelman lop- puraportti, 2019 ja Tarkoma, 2017).

(9)

1.1 Tutkimuksen tausta

“Artificial intelligence is the future, not only for Russia, but for all humankind. It comes with colossal opportunities, but also threats that are difficult to predict. Who- ever becomes the leader in this sphere will become the ruler of the world.” Venäjän presidentti Vladimir Putin.

Tämän pro gradu tutkimuksen taustalla on tekoälyn maailmanvalloituksen haas- teet. Tekoäly on tekniikka, jossa on potentiaalia niin hyvään kuin pahaan. Brad- leyn (2019) mukaan monet merkittävät tieteen ja tekniikan henkilöt kuten Stephen Hawking ja Elon Musk ovat sitä mieltä, että kaikista nykyisistä uhista huipputiede on suurin riski ihmiskunnalle. Se on uhka, joka ylittää huomatta- vasti ilmastonmuutoksen, ylikansoituksen ja ydinsodan riskit (Bradley, 2019).

Myös Floridin ym. (2018) mukaan koko maailma on kohtaamassa tekniikan, joka pitää hallussaan positiivisia lupauksia ihmiskunnan monille osa-alueille. Lisäpe- rusteluja tähän antaa Amodei ym. Amodein ym. (2016) tekemän raportin mu- kaan järjestelmät, jotka tyypillisesti antavat vain suosituksia ihmisille omaavat suhteellisen rajallisen potentiaalin haitan aiheuttamisessa. Sitä vastoin järjestel- mät, jotka hallitsevat isoja kokonaisuuksia voivat aiheuttaa ihmisille rajattomasti haittoja. Näitä haittoja ei välttämättä voi korjata (Amodei ym., 2016). Floridin ym.

(2018) ja Amodein ym. (2016) kanssa samaa mieltä on Patel, Hatzakis, Macnish, Ryan ja Kirichenko (2019). Heidän kirjoittamansa raportin mukaan tekoälyä käy- tetään automatisoitujen päätösten tekemiseen yhä useammissa ympäristöissä.

Tämän seurauksena ihmisen osallistuminen päätöksentekoprosesseihin vähenee.

Tällöin on luonnollista olettaa, että pahantahtoiset toimijat kiinnostuvat lopulta tekoälyn haavoittuvuuksista. Heidän raporttinsa mukaan tähän löytyy jo esi- merkkejä. Muun muassa sosiaalisten verkostojen suositusjärjestelmiä ohjaavat algoritmit ovat joutuneet hyökkäyksen kohteeksi jo vuosien ajan (Patel, Hatzakis, Macnish, Ryan & Kirichenko, 2019). Comiterin (2019) mukaan tämä tarkoittaa sitä, että tekoälyjärjestelmien haavoittuvuudet ovat jo nyt konkreettisia.

Ailiston ym. (2018) mukaan tekoäly on väline, jonka avulla koneet, laitteet, ohjelmat, järjestelmät sekä palvelut voivat toimia tehtävän tai tilanteen mukai- sesti järkevällä tavalla. Toiminnan järkevä taso edellyttää, että tekoäly osaa tun- nistaa erilaisia tilanteita ja ympäristöjä. Sen on osattava toimia muuttuvien tilan- teiden mukaan. Nämä ominaisuudet vaativat tekoälyltä autonomisuutta, oppi- vuutta ja suorituskykyä. Koska tekoälyn on tunnistettava jatkossa yhä erilaisim- pia tilanteita, sen on tavoitetilassa osattava toimia ilman jokaiseen tilanteeseen ennalta tehtyä ohjelmointia. Sen on suoriuduttava sille määritetyistä tehtävistä mielekkäällä tavalla (Ailisto ym., 2018). Ailiston ym. kanssa samaa mieltä on Fra- lick (2019), jonka mukaan tekoäly on erityisen kyvykäs uhkien metsästyksessä ja havaitsemisessa. On kuitenkin tunnistettava, että tätä se ei voi tehdä ilman omia puutteitaan. Puutteiden takia tekoälyn tietoja tai algoritmeja voidaan manipu- loida. Lopputulemana vääristynyt tekoälyjärjestelmä joutuu vaikeuksiin. Teko- älyn toimintaa hankaloittavat myös haittaohjelmat. Haittaohjelmat voivat levitä huomaamatta, mikä vaarantaa tärkeät tiedot, järjestelmät, käyttäjät sekä itse te- koälyjärjestelmät. Tämän takia on kyettävä jatkuvasti seuraamaan

(10)

tekoälypohjaisia järjestelmiä. Seuraamalla varmistetaan, että ne tekevät sen mitä niiden on tarkoituskin tehdä. Samalla kyetään jäljittämään niiden kehittymistä ja mukautumista muuttuvaan kontekstiin (Fralick, 2019).

Tekoälyä kohtaan kohdistuvat uhat, eivät poikkea muiden potentiaalisten suorituskykyjen kokemista vaaroista. Brundagen ym. (2018) ja Patelin ym. (2019) mukaan tekoälyn käytön lisääntyessä voimme olettaa, että sen haavoittuvuuk- sien kautta tapahtuu väärinkäyttöä. Tähän väärinkäyttöön liittyy jo olemassa ole- vien uhkien laajentaminen, uusien uhkien esittely, uhkien vaihtuminen tai koh- dentuminen. Kuten tavanomaisessa kyberuhkassa tai monimutkaisten hyök- käysmenetelmien käytössä, laajat resurssit omaavien toimijoiden kehittämät työ- kalut päätyvät lopulta rikollisjärjestöjen tai tietoverkkorikollisten käsiin. Sama suuntaus odottaa hyökkäyksiä, jotka on kehitetty tekoälyä vastaan. Väärinkäyttö liittyy suoraan tekoälyn kasvavaan käyttöön ja todennäköisesti niissä kaikissa hyödynnetään tekoälyjärjestelmien haavoittuvuuksia (Brundage ym., 2018 ja Pa- tel ym., 2019).

Myös Suomessa ollaan hereillä uusien teknologioiden haavoittuvuuksien kanssa. Ollilan (2019) mukaan nykyisen teknologiakeskustelun ytimessä on te- koäly, joka on yksi neljännen teollisen vallankumouksen osa-alueista ja keskei- nen osa digitalisoituvaa maailmaa. Tekoälyyn liittyvistä uusista keksinnöistä ja aluevaltauksista uutisoidaan päivittäin (Ollila, 2019). Siukosen ja Neittaanmäen kirja tukee myös Ollilan kirjoittamia havaintoja. Siukosen ja Neittaanmäen (2019) mukaan digitalisoituva maailma tuo mukanaan rikollisten mahdollisuuden puuttua tavallisten ihmisten elämään. Tämä voi tapahtua esimerkiksi hakkeroi- malla laitteiden toimintaa etäyhteyden kautta. Uusina uhkakuvina on tekoälyjär- jestelmien toimintojen sabotointi tai sieppaaminen. Näitä ovat esimerkiksi robot- tiautot tai droonit (Siukonen & Neittaanmäki, 2019).

Tekoälyn haavoittuvuudet voivat aiheuttaa harmia tai pahimmillaan johtaa onnettomuuksiin. Amodei ym. (2016) mukaan hyvin usein tekoälyonnetto- muutta voidaan kuvata tilanteeksi, joka johtui inhimillisen suunnittelijan tavoit- teesta tai tehtävästä. Suunnittelijan yllättää se, että järjestelmä tuottikin haitallisia ja täysin odottamattomia tuloksia. Tämä tilanne nousee esimerkiksi suunnittelu- vaiheessa (Amodei ym., 2016). Comiter antaa esimerkin suunnitteluvaiheen vir- heeseen. Comiterin (2019) mukaan itse ajava auto osui kuolettavasti jalankulki- jaan Arizonassa. Syyksi paljastui auton sisäinen tekoälyjärjestelmä. Se ei onnis- tunut havaitsemaan ihmistä. Tämä syy olisi voinut johtua muustakin, kuin suun- nitteluvirheestä. Johtopäätöksenä voidaan todeta, että ei ole merkitystä onko on- nettomuuden takana inhimillinen virhe vai ilkeä toimija. Suunnitteluvirheet on paikattava ja viat korjattava. Tämä reaalimaailman esimerkki on konkreettinen huomio siihen, että tekoälyn toimintaa tulee tutkia (Comiter, 2019).

1.2 Tutkimuksen tavoite

Tekoälyn on sanottu olevan osa tulevaisuuden jokapäiväisiä ratkaisuja. Sillä on suorituskykyä ja näkyvyyttä, mutta myös uhkakuvia. Patelin ym. (2019) mukaan tekoälypohjaiset järjestelmät yleistyvät, jonka takia myös pahantahtoiset toimijat

(11)

haluavat oppivat hyödyntämään niitä. Joitakin reaalimaailman tekoälyjärjestel- miä vastaan on jo hyökätty. Toimet näiden hyökkäysten estämiseksi ovat vielä lapsenkengissä. Tämä on herättänyt tutkijoiden huomion ja todennäköisesti mie- lenkiinto asiaa kohtaan kasvaa edelleen (Patel ym., 2019).

Patelin ym. kirjoittaman raportin henki näkyy myös tekoälyohjelman lop- puraportissa. Tekoälyohjelman loppuraportin (2019) ja Euroopan komission (2019) julkaiseman raportin mukaan tekoälyyn sisältyy valtavasti potentiaalia ja muutosvoimaa. Se voi auttaa meitä ratkaisemaan globaaleja ongelmia, mutta sa- malla tekoäly luo uusia haasteita yhteiskunnalle. On meistä kiinni, toteutuuko tekoälyn hyötypotentiaali ja vai sen riskit. Luotettava tekoäly edellyttää, että maksimoidaan tekoälyjärjestelmien hyödyt ja ennaltaehkäistään sen tuomat ris- kit (Tekoälyohjelman loppuraportti, 2019 ja European Comission, 2019). Greima- nin (2020) mukaan yksi suurimmista haasteista tutkijoille, päättäjille, hallituksille ja yksityiselle teollisuudelle on se, miten luoda vähemmän keinotekoisia, puolu- eettomia, älykkäämpiä ja inhimillisempiä tekoälysysteemejä. Jos aiomme edistää tekoälyn järjestelmien maailmanlaajuista kehitystä, on vielä paljon työtä puittei- den kehittämiseksi. Vastuu on jaettava kaikille niille, jotka suunnittelevat, omis- tavat tai käyttävät älykkäitä järjestelmiä (Greiman, 2020).

Tekoälyn erilaiset vaikutustavat ovat moninaisia. Ollilan (2019) mukaan te- koälyn vaikutus välineenä on poikkeuksellinen. Se muuttaa käyttäjänsä toimin- tatapaa ja tulee jatkossa olemaan osa käyttäjäänsä. Loppukäyttäjät tulevat mo- nessa yhteydessä samankaltaistumaan tekoälyn kanssa. Oma muuttumisemme tulee olemaan konkreettista. Kun suunnittelemme tekoälyä, suunnittelemme sa- malla millaisia loppukäyttäjät ja yhteiskunta ovat tulevaisuudessa (Ollila, 2019).

Samaa kirjoittaa myös Tarkoma. Tarkoman (2017) mukaan tekoäly on järjestelmä, joka laajamittaisen data-analyysin ja mallintamisen kautta voi vaikuttamaan ih- misiin tai tietojärjestelmiin. Tekoäly voi muuttaa esimerkiksi äänestyskäyttäyty- mistä kohdentamalla ihmisiin informaatiota (Tarkoma, 2017). Tällöin tekoälyn vaikutus voi kääntyä positiivisesta negatiiviseksi, vaikka toteutetun toimenpi- teen takana tätä ei tavoiteltu.

Tähän pohjustukseen liittyen, tässä pro gradu tutkimuksessa tavoitteena on tutkia tekoälyn haavoittuvuuksia. Tarkoitus on tutkia erityisesti niitä haavoittu- vuuksia, jotka vaarantavat nykyisten ja tulevien digitaalisten järjestelmien luot- tamuksellisuuden, eheyden ja saatavuuden kybertoimintaympäristössä. Fyysi- sessä maailmassa tapahtuvat hyökkäykset voivat olla suunnattu ihmisiin tai inf- rastruktuuriin. Myös tekoälyn hakkerointi voi olla suunnattu kybertoimintaym- päristössä fyysisiin järjestelmiin. Tämä voi aiheuttaa aineellisia vaurioita ja seu- rauksia. Tekoälyn tietoturvallisuuteen liittyvistä uhkakuvista huolimatta, on muistettava kriittisyys ja puolueeton suhtautuminen erilaisiin väitteisiin. Teko- älymaailmassakaan kaikki ei ole aina niin mustavalkoista mitä kirjoitetaan. Esi- merkiksi Ollilan (2019) mukaan tekoälyn uhkien ja mahdollisuuksien liioittelua on meneillään juuri nyt. Osa toiveista ja peloista on selvästi tekoälystä kirjoitta- vien mielikuvitusta. Ne ovat ennemmin hahmotelmia, kuin olemassa olevaa rea- lismia. Tämä on ymmärrettävää, koska tekoälyn hahmotelmille on saatu ja saa- daan jatkossakin lisävirtaa esimerkiksi scifistä. Toisaalta tekoälyn tuomaa au- tuutta käsittelevät artikkelit ovat usein tuote-esittelyjä, joilla tarjotaan

(12)

suurenmoisia mahdollisuuksia myynninedistämistarkoituksessa. Kriitikot taas maalaavat perusuhkia jo virkansa puolesta (Ollila, 2019).

1.3 Tutkimuksen rajaus

Tieteellinen tutkimus tarvitsee rajauksia. Kanasen (2014) mukaan tutkimusaihe on usein liian laaja kokonaisuus. Jotta kokonaisuus saadaan maaliin, tutkimusai- hetta pitää rajata. Ilman rajauksia tutkimuksesta tulee pinnallinen, eikä sitä kyetä hallitsemaan perinteisin menetelmin. Tutkimuksen rajaaminen tarkoittaa Kana- sen mielestä polun valitsemista. Tällä helpotetaan tutkittavan ilmiön hallintaa.

Polun valinta tehdään niin, että tietyt ilmiön osa-alueet otetaan huomioon ja muut jätetään ulkopuolelle. Näin on mahdollista saavuttaa ilmiön hallinta, jol- loin tutkimuksella on mahdollisuus päästä kunnialla loppuun saakka. Rajaami- nen alkaa usein tutkittavan ilmiön hahmottuessa tutkijalle ja jatkuu tutkimuksen edetessä (Kananen, 2014).

Tässä tutkimuksessa keskitytään tekoälyn haavoittuvuuksiin kybertoimin- taympäristössä. Tämän takia tutkimuksesta rajataan pois tekoälyjärjestelmän vir- heellisestä käytöstä johtuvat haavoittuvuudet. Yleensä virheelliseen käyttöön liittyy inhimillinen tekijä eli loppukäyttäjä. Muun muassa Jääskeläisen (2019) mukaan tekoälyn ongelmat voivat syntyä käyttäjien kautta. Tekoäly oppii esi- merkiksi käyttäjien tekemistä valinnoista. Käyttäjien on usein vaikea ymmärtää tätä. Lisäksi liian korkeat odotukset saattavat aiheuttaa loppukäyttäjältä järjestel- män virheellistä käyttöä (Jääskeläinen, 2019). Inhimillisen loppukäyttäjän te- kemä virheellinen käyttö on tekoälyn yksi laaja-alaisimmista haavoittuvuuksista.

Koska kyseisestä haavoittuvuudesta voisi tehdä oman pro gradunsa useasta eri näkökulmasta, se rajataan pois.

Haavoittuvuuksien tarkastelukulmia ja lähestymistapoja on useita. Tämä pro gradu keskittyy tutkimaan tekoälyn haavoittuvuuksia kybertoimintaympä- ristön näkökulmasta. Tutkimuksessa ei tarkastella tekoälyn haavoittuvuuksia muusta toimintaympäristönäkökulmasta. Fyysinen, sosiaalinen, henkinen, psy- kologinen, poliittinen ja sotilaallinen aspekti rajataan pois.

Tekoälyn käyttöön liittyy monia ihmiselämän tunnepohjaisia haavoittu- vuuksia. Ollilan (2019) mukaan esimerkiksi tekoälyn hyötydata sisältää ongelmia, ennakkoluuloja, vääristymiä ja syrjintää. Näitä voi kuvata ihmisen elämän mo- raalisina ongelmina tai haavoittuvuuksina. Nämä ovat asioita, joita emme halua päätyvän tekoälyyn. Usein ihmiset edellyttävät koneiden täydellistä toimintaa, vaikka jollain tavalla niiden mukana on aina erehtyviä ihmisiä (Ollila, 2019). Leh- don (2019) mukaan moni teknologiatutkija näkee nämä tekoälyn eettiset- ja vas- tuukysymykset isona haasteena. Pohdintaan nousee se, kenellä on eettinen vas- tuu tekoälyn päätöksenteosta ja kuka vastaa tekoälyn vastuullisesta toiminnasta (Lehto, 2019). Tästä pro gradusta rajataan pois tekoälyn tunnepohjaiset, moraali- set ja eettiset pohdinnat. Tutkimuksen ulkopuolelle jää myös etiikkakysymykset, tekoälyn oikeudenmukaisuuteen sekä ihmisoikeuksiin liittyvät asiat. Vaikka eet- tistä pohdintaa ei itse tutkimusraportissa ole referoitu, on siihen kiinnitetty

(13)

huomiota lähdeainestoa tutkittaessa. Muun muassa Euroopan komission (2019) raporttia: Ethics guidelines for trustworthy AI, on käytetty lähdeaineistona.

Vahvasen (2018) mukaan ihmisen kehittämät koneet voivat nousta tulevai- suudessa ihmisen haastajiksi ja hallitsijoiksi, eli kaikkivaltiaiksi maailman her- roiksi. Ne nimetään tieteiskirjallisuudessa supertekoälyksi. Supertekoäly voi olla ristiriidassa ihmisten tahdon kanssa, sekä kehittää oman tahtonsa ja kopioida it- seään (Vahvanen, 2018). Tässä pro gradussa ei tarkastella supertekoälyn tai sin- gulariteetin haavoittuvuutta.

Lisäksi tästä pro gradusta rajataan pois tekoälyn yksityisyyden riskit, ih- mismäisen hyveen, hyväntahtoisuuden, vastuullisuuden ja valintatilanteiden ai- heuttamat tekoälyn haavoittuvuudet. Ollilan (2019) mukaan näitä edellä mainit- tuja asioita käsitellään usein esimerkillä, jossa tekoälyn valittavana on aikuisen tai lapsen henki. Toinen esimerkki on itseohjautuvien autojen autonominen pää- töksenteko vakavaan liikenneonnettomuuteen johtavassa tilanteessa, jossa täy- tyy tehdä päätös niin sanotusti ”oman” tai ”vastapuolen” välillä. Kolmas esi- merkki on irronnut junanvaunu, joka voitaisiin ohjata kahdelle eri raiteelle. Mo- lemmissa vaihtoehdoissa ihmishenkiä tullaan menettämään, mutta mahdollisten uhrien lukumäärä on eri valitusta vaihtoehdosta riippuen (Ollila, 2019).

1.4 Tutkimusongelma ja tutkimuskysymykset

Tieteellinen tutkimus saa inspiraationsa ongelmasta tai ongelmista. Kanasen (2014 ja 2015) mukaan tieteellisessä työssä pitää aina olla ongelma. Tieteellistä tutkimusta ei voida tehdä ilman ratkaistavana olevaa pulmaa eli tutkimusongel- maa. Kun tutkimusongelma on saatu prosessiin, kirjoitetaan se tutkimuskysy- myksiksi. Tutkimuskysymyksiin vastaamalla tutkimusongelma tulee ratkais- tuksi. Kananen (2014 ja 2015) jatkaa korostamalla tutkimusongelman määrittelyn tärkeyttä. Tutkimusongelma ohjaa koko tutkimusprosessia. Jos tutkimuson- gelma asetetaan väärin, tutkimuskysymyksetkin ovat vääriä. Tämä johtaa siihen, että menetelmä ja aineisto eivät tuo oikeaa tulosta. Tutkimusongelman ja -kysy- mysten muotoiluun kannattaa käyttää aikaa, jotta tutkimustyö onnistuu (Kana- nen, 2014 ja 2015).

Tutkijan oma motivaatio on tärkeä tekijä. Motivaatiota lisää usein tutkimus- ongelmaa kohtaan oleva mielenkiinto. Laineen, Bambergin ja Jokisen (2007) mu- kaan tutkijalla on usein hieman aiempaa tietoa tai tietämystä tutkimuksensa koh- teena olevasta ilmiöstä. Esimerkiksi tämän aiemman tiedon tai tietämyksen poh- jalta saadaan muodostettua tutkimusongelma. Ongelmasta muodostetaan tutki- muskysymyksiä. Prosessi jatkuu, kun kysymys tai kysymykset ohjaavat tutkijan tarvittavan tutkimusaineiston perään (Laine, Bamberg & Jokinen, 2007). Kananen (2014) täydentää, että usein yksi tutkimuskysymys ei riitä. Tällöin tarvitaan tu- eksi yksi tai useampia apukysymyksiä (Kananen 2014).

Tämän pro gradun tutkimusongelmana on tekoälyn haavoittuvuudet. On- gelmaa on haluttu rajata tarkastelemalla haavoittuvuuksia vain selkeästi määri- tetyltä alueelta eli kybertoimintaympäristöstä. Tutkimusongelmaksi on haluttu nostaa ajankohtainen ja nyky-yhteiskunnan digitalisoitumiseen liittyvä aihe.

(14)

Tekoäly ja sen haavoittuvuudet ovat jo täällä. Muun muassa Halusen raporttien mukaan tekoäly elää nyt keskeistä ajanjaksoa. Halusen (2018b) mukaan nyt ja tulevaisuudessa tekoälyä pyritään hyödyntämään yhä enemmän ja enemmän.

Tekoälyä on nykyisin lähes jokaisella elämän- ja elinkeinoalalla. Koska tekoäly tuo uusia mahdollisuuksia monille aloille, luo se myös mahdollisuuksia väärin- käytöksille. Erilaiset pahantahtoiset toimijat voivat pyrkiä toimimaan tekoälyä vastaan, tavoitteena saada se menettelemään omien tarkoitusperiensä mukaisesti (Halunen, 2018b). Yksi vaihtoehto tämän toteuttamiseksi on hyökätä tekoälyä vastaan sen haavoittuvuuksien kautta.

Tässä pro gradussa on määritetty tutkimusongelma ja lähestytty sitä muun- tamalla se tutkimuskysymyksiksi. Tutkimuksen päätutkimuskysymys on:

• Mitkä ovat tekoälyn haavoittuvuudet kybertoimintaympäristön näkökul- masta?

Päätutkimuskysymystä tukevat apututkimuskysymykset ovat:

• Minkälaisia hyökkäyksiä tekoälyä vastaan on?

• Miten tekoälyn haavoittuvuudet ja kyberturvallisuus linkittyvät toisiinsa?

1.5 Keskeiset käsitteet

Kanasen (2013) mukaan käsitteiden merkitys tieteessä on erittäin tärkeää. Ne muodostavat tieteellisen toiminnan perustan. Käsitteiden merkitys unohtuu usein, sillä niitä pidetään itsestäänselvyytenä tai sitten niihin ei kiinnitetä huo- miota. Keskeiset käsitteet on määriteltävä. Ne kertovat raportin lukijalle, miten kirjoittaja on ymmärtänyt työn keskeisen terminologian. Käsitteiden avulla hal- litaan tutkimuksessa esiintyviä ilmiöitä (Kananen, 2013).

Tämän pro gradu tutkimuksen keskeiset käsitteet tekoälystä eivät ole kai- kilta osin vakiintuneet. Toisaalta määritelmiä hienosäädetään koko ajan, mikä näkyy määritelmätulvana. Määritelmätulvaan on tässä pro gradussa reagoitu niin, että tietyissä käsitteissä on pitäydytty koko pro gradu tutkimuksen ajan.

Määritelmiä on tekoäly-ympäristössä useita ja osa niistä poikkeaa vain hieman toisistaan. Myös kotimaisten ja ulkomaisten terminologioiden, sekä niiden väli- nen määrittely on keskeistä ymmärtää. Esimerkiksi käsitteiden kääntäminen muun kielisistä teoksista suomen kielelle on selkeästi vaikuttanut Suomessa käy- tettyyn termiin. Tällöin tulee esille ristiriitaisia tilanteita, joissa sama niin kut- suttu ”suora suomennos” tarkoittaa useampaa eri kontekstia tekoäly-ympäris- tössä. Käsitteiden kirjavuuteen ovat kiinnittäneet huomiota myös muut. Muun muassa Ollilan (2019) mukaan tekoälykeskustelua vaivaa epämääräinen termi- nologia, jonka johdosta tekoälyn käsite elää omaa elämäänsä eri käyttöyhteyk- sissä. Esimerkiksi Kerns (2017) sanoo, että tekoälyä ei ole määritelty konkreetti- sesti.

Tässä pro gradussa käytetään ensisijaisesti tieto- ja järjestelmäteknisissä lähdeaineistoissa, sekä julkisissa raporteissa käytettyjä yleiskäsitteitä.

(15)

Käsitteiden määrittelyyn on päätetty käyttää tuoreiden julkaisujen ammattisa- nastoa niiden fyysiseen teokseen kirjoitetun arvon ja tuoreuden takia. Tässä tut- kimustyössä käytetyt keskeiset käsitteet on avattu lyhyesti ja selkeästi. Tärkeim- mät käsitteet tekoäly ja kybertoimintaympäristö on avattu laajemmin. Tekoäly- käsitteen määrittelyyn on tietoisesti haettu laaja-alaista näkemystä useilta teko- älytutkijoilta.

Keskeiset käsitteet ovat linkittyneet vahvasti toisiinsa. Tämä tulee ymmär- tää myös tekoälyn maailmaan perehdyttäessä. Ailisto ym. (2018) antaa tähän tii- vistettyjä esimerkkejä. Heidän kirjoittaman raporttinsa mukaan tekoälyn lasken- taympäristöt, alustat ja palvelut liittyvät esimerkiksi pilvipalveluihin. Hahmon- tunnistus liittyy konenäköön, kuva-analyysiin ja paikannukseen. Luonnollinen kieli ja kognitio liittyy konekääntämiseen, puheentunnistukseen sekä älykkää- seen tekstinsyöttöön. Vuorovaikutukseen liittyy esimerkiksi suosittelujärjestel- mät, palvelurobotit, chat-botit ja niin sanotut henkilökohtaiset avustajat. Nämä henkilökohtaiset avustajat on rakennettu palvelemaan ihmistä ja toimimaan in- teraktiossa hänen kanssaan. Ailisto ym. (2018) jatkavat, että järjestelmätasoon ja systeemivaikutuksiin liittyy datapohjaisten ja symbolisten tekoälymenetelmien yhdistäminen. Robotiikka ja koneautomaatio liittyy laitteisiin, jotka kykenevät vaikuttamaan fyysiseen ympäristöönsä esimerkiksi tarttujan, käsivarren, pyö- rien tai jalkojen avulla. Robotit toimivat usein tietokoneohjelman ohjaamina ja niillä voi olla aisteja esimerkiksi konenäkö sekä tuntoaisti (Ailisto ym., 2018).

1.5.1 Algoritmi

Fryn (2018) sekä Siukosen ja Neittaanmäen (2019) mukaan algoritmi on sarja loo- gisia ohjeita. Ne kertovat alusta loppuun, miten jokin tehtävä on suoritettava.

Algoritmi on yksityiskohtainen kuvaus tai ohje, miten tehtävä tai prosessi suori- tetaan. Tarkemmin se koostuu järjestyksessä olevista yksiselitteisistä toimin- noista, jotka voidaan suorittaa ja jotka määrittelevät lopputulokseen johtavan prosessin. Algoritmeille syötetään todellista maailmaa koskevia tietoja eli dataa ja ne ovat melkein aina jonkinlaisia laskutoimituksia. Lopuksi algoritmeille an- netaan tavoite ja ne laitetaan töihin toteuttamaan laskutoimituksia annetun ta- voitteen saavuttamiseksi. Algoritmeja on lukemattomasti ja useita erilaisia. Jo- kaisella niistä on oma tavoitteensa, erityispiirteensä sekä hyvät ja huonot puo- lensa (Fry, 2018 ja Siukonen & Neittaanmäki, 2019).

Kernsin (2017) mukaan tekoäly sisältää edistyneitä algoritmeja, jotka seu- raavat matemaattista toimintoa. Siukonen ja Neittaanmäki (2019) jatkavat algo- ritmin olevan täsmällinen matemaattinen kuvaus tietokonejärjestelmän tai -lait- teiston ongelmanratkaisuun tai tehtävän tekemiseksi vaadittavasta toteutuksesta.

Se pitää sisällään sääntöjä, käskyjä ja toimintaohjeita. Algoritmi on esimerkiksi valitulla ohjelmointikielellä kirjoitettu tietokoneohjelma. Kun tuhansia algorit- meja yhdistetään järjestelmiksi, saadaan tietokoneista irti erilaisia toimintoja. Täl- löin tosin myös epävarmuus lisääntyy (Siukonen & Neittaanmäki, 2019).

(16)

1.5.2 Big data

Siukosen ja Neittaanmäen (2019) mukaan big datalla tarkoitetaan massiivisia, jat- kuvasti kasvavia, strukturoituja ja ei-strukturoituja tietoja. Big data on tekstiä, äänitteitä, kuvia tai videoita sisältävien tietojoukkojen säilyttämistä, keräämistä ja tiedon käyttämistä. Näiden massiivisten datamäärien hallitseminen ja tietojen analysoiminen on perinteisillä työkaluilla vaikeaa. Tekoäly on yksi ratkaisu big datan koneelliseen käsittelyyn. Big datan avulla ihmiskunta on päässyt käsittele- mään, tutkimaan ja ratkomaan ongelmia suurten datamassojen tukemana. Big dataan ei tulisi uskoa sokeasti, sillä informaation omistajilla on valtaa. Valta syn- tyy tiedon myymisestä, ostamisesta, keräämisestä, tallentamisesta ja jakamisesta.

On hyvä ymmärtää, että tietoa voidaan käyttää uudelleen, kopioida ja muuttaa (Siukonen & Neittaanmäki, 2019).

1.5.3 Haavoittuvuus

Laarin toim. (2019) mukaan haavoittuvuus on alttius uhkille. ”Haavoittuvuus voi olla mikä tahansa heikkous, joka mahdollistaa vahingon toteutumisen tai jota voidaan käyttää vahingon aiheuttamisessa. Haavoittuvuuksia voi olla tietojärjes- telmissä, prosesseissa ja ihmisen toiminnassa.” Laari toim., 2019, s.29. Laari toim.

(2019) jatkaa, että haavoittuvuuksilla tarkoitetaan usein tietojärjestelmien ja oh- jelmistojen ei-toivottuja ominaisuuksia. Näiden ei-toivottujen ominaisuuksien vuoksi järjestelmiä voidaan käyttää suunnittelemattomalla tavalla tai väärinkäy- tön kohteena. Esimerkiksi kybertoimintaympäristössä käytettävät uhkamenetel- mät perustuvat järjestelmissä oleviin haavoittuvuuksiin ja niiden hyödyntämi- seen. Järjestelmäkokonaisuuksiin voi liittyä myös inhimillisiä haavoittuvuuksia.

Inhimillisiä haavoittuvuuksia ovat esimerkiksi puutteelliset tietoturvaohjeistuk- set, koulutustaso tai virheet prosesseissa (Laari toim., 2019).

1.5.4 Heikko/ kapea ja vahva/ yleinen tekoäly

Jääskeläisen (2019) mukaan tekoäly voidaan jakaa kapeaan ja yleiseen tekoälyyn.

Kapea tekoäly on tehty ratkaisemaan jotain tiettyä tai jotain ennalta tarkasti mää- riteltyä ongelmaa. Yleinen tekoäly pystyy tekemään päätöksiä itsenäisesti ja sillä on ihmisen kaltainen ymmärrys ja tietoisuus. Yleinen tekoäly kykenisi hahmot- tamaan suuria kokonaisuuksia ja pystyisi tekemään suunnitelmia sekä päätöksiä itsenäisesti. Vuonna 2020 kaikki käytössä oleva tekoäly on kapeaa (Jääskeläinen, 2019).

Siukosen ja Neittaanmäen (2019) mukaan tekoäly voidaan jakaa heikkoon ja vahvaan tekoälyyn. Heikolla tekoälyllä tarkoitetaan yksitäisiin tehtäviin kyke- neviä algoritmeja ja koneoppimiseen perustuvia tietokoneohjelmistoja. Ne suo- riutuvat tehtävistään algoritmien ansiosta (Siukonen & Neittaanmäki, 2019).

Kernsin (2017) mukaan jopa edistyneitä shakkiohjelmia pidetään heikkoina teko- älyinä. Tämä saattaa johtua eroista valvotun ja valvomattoman ohjelmoinnin vä- lillä.

(17)

Kernsin (2017) mukaan monissa elokuvissa esillä oleva vahva tekoäly toimii kuten ihmisaivot. Kun kysyt avainsanoilla terästettyjä kysymyksiä, niihin ei ole määritettyjä vastauksia. Vastaus voi jäljitellä avainsanoja, mutta siitä ei voi olla varma. Voit vain olettaa mitä vahva tekoäly vastaa kysymykseesi. Siukosen ja Neittaanmäen (2019) mukaan vahva tekoäly on ihmisviisauden kaltaista tietoi- suutta. Se on täysin ihmisestä irrallaan toimivaa älyä. Siinä koneet tai laitteistot oppivat ensin matkimalla ihmisen aivotoimintaa. Tämän jälkeen ne muodostavat sähköistä tietoisuutta. Tällöin kone on osa reaalimaailmaa ja pystyy määrittä- mään omat pyrkimyksensä ja tavoitteensa (Siukonen & Neittaanmäki, 2019).

Edellä avattujen määritelmien voidaan todeta olevan hyvin lähellä toisiaan.

Tässä tutkimuksessa heikko tekoäly on niin lähellä kapeaa tekoälyä, että niitä pi- detään yhdenvertaisina. Vahvan tekoälyn määritelmä on niin lähellä yleistä te- koälyä, että niitä pidetään yhdenvertaisina.

1.5.5 Koneoppiminen

Vahvasen (2018) mukaan koneoppimisessa ihmisen ei tarvitse ohjelmoida kaik- kia koneen ominaisuuksia tai tietoja. Koneoppimisessa kone oppii itse ympäris- töstään ja saavuttaa autonomisesti sille asetettuja päämääriä (Vahvanen, 2018).

Siukosen ja Neittaanmäen (2019) mukaan koneoppiminen on tekoälyn osa-alue, jonka tarkoituksena on saada ohjelmisto toimimaan paremmin pohjatiedon ja käyttäjän toiminnan perusteella. Koneoppimistilanteessa kone oppii toistoilla il- man, että sitä erikseen opetetaan. Koneoppimisella pyritään automatisoimaan tiedon tulkintaa ja laajentamaan koneen havainnointikykyä. Tämä tiedon tul- kinta ja koneen havainnointi tapahtuu monimutkaisten algoritmien avulla (Siu- konen & Neittaanmäki, 2019). Ailiston, ym. (2018) mukaan koneoppimisen me- netelmät liittyvät vahvistettuun oppimiseen, ohjattuun ja ohjaamattomaan oppi- miseen. Nämä liittyvät esimerkiksi kasvojentunnistukseen, kuvahakuihin, ja au- tonomisiin ajoneuvoihin, jossa on erityisesti konenäköön perustuvaa ohjausta.

1.5.6 Kybertoimintaympäristö

”Kybertoimintaympäristö on digitaalisen informaation käsittelyyn tarkoitettu, toisiinsa yhteydessä olevista tietokoneista ja muista laitteista sekä tietoverkoista muodostunut ympäristö.” Lönnqvist & Moilanen, 2017, s.7.

Laarin toim. (2019) mukaan kybertoimintaympäristö on digitaalisista tieto- järjestelmistä muodostuva toimintaympäristö. Siihen kuuluvat fyysiset rakenteet, sekä kaikki toimintaympäristön toimijat. Kybertoimintaympäristölle on tunnus- omaista elektroniikan ja sähkömagneettisen spektrin käyttö. Lisäksi siihen kuu- luu datan sekä informaation varastointi, muokkaaminen ja siirto viestintäverk- kojen avulla. Kybertoimintaympäristö ei ole maantieteellisesti rajoitettu ja sen etäisyyttä tarkastellaan eri tavoin kuin perinteistä toimintaympäristöä. Asia tulee parhaiten esille siinä, että kybertoimintaympäristön komponentti saattaa sijaita fyysisesti toisella puolella maailmaa kuin sen loppukäyttäjä. Sijaintiriippumatto- muus aiheuttaa sen, että maailmanlaajuinen ympäristö on haavoittuva useista eri kohdista. Tämä johtuu siitä, että kybertoimintaympäristökokonaisuus on

(18)

rakennettu laajan verkon ympärille, johon on pääsy lähes kaikkialta. Kybertoi- mintaympäristöä ei omista kukaan tai toisaalta sen omistavat kaikki sitä käyttä- vät. Sitä käyttää liike-elämä, valtiot ja yksilöt (Laari toim., 2019).

Laarin toim. (2019) mukaan internetillä on keskeinen asema kybertoimin- taympäristössä. Internet on kybertoimintaympäristön yhdistävä tekijä, mutta ei ainut toimija. Kybertoimintaympäristö sisältää esimerkiksi teollisuusautomaa- tiota, ohjausjärjestelmiä, toiminnanohjausjärjestelmiä, esineiden internetin sekä internettiin liitettyjä tai täysin irrallisia tietoverkkoja. Kybertoimintaympäristöä hahmotettaessa on keskeistä tunnistaa mitä päivittäisessä käytössä ei huomaa.

Esimerkiksi laaja osa yhteiskunnan elintärkeistä toiminnoista ja kriittisestä infra- struktuurista on verkottunut, vaikka sitä ei tunnista jokapäiväisessä elämässä (Laari toim., 2019).

Laarin toim. (2019) mukaan kybertoimintaympäristö on lähes kaikkien ulottuvilla. Yleensä kybertoimintaympäristöön liitytään tabletilla, pöytätietoko- neella, kannettavalla tietokoneella tai matkapuhelimella. Yhteys saavutetaan lan- gattomien yhteyksien tai fyysisten kuparikaapeleiden tai valokuitujen avulla.

Kybertoimintaympäristö on riippuvainen aina fyysisistä ympäristötekijöistä ku- ten virtalähteistä, kaapeleista, kuiduista, verkoista ja datakeskuksista. Nämä fyy- siset tekijät ja kybertoimintaympäristön muodostavat tekniikat ja järjestelmät ovat kehittyneet nykyaikaisen elämäntavan peruspilareiksi. Nyky-yhteiskunnan perustoiminnot ovat riippuvaisia tietovirroista, joten kybertoimintaympäristö on olennainen osa nykypäivän globaalia toimintaympäristöä (Laari toim., 2019).

Keskeisessä asemassa on kuitenkin kybertoimintaympäristön järjestelmien, lait- teiden ja fyysisten tekijöiden loppukäyttäjä eli ihminen.

1.5.7 Kyberturvallisuus

Järvisen (2018) mukaan kreikkalaiset keksivät kyberin. Kreikan sana cybernetice (tai kubernetes) tarkoittaa ohjausta ja hallintaa. Nykyään kyber-alkuisia sanoja tavataan monissa eri yhteyksissä antamassa termeille lisää dramaattisuutta ja ajankohtaisuutta. Kyberturvallisuus kuulostaa tekniseltä, mutta se on maanlä- heistä yhteiskunnan arkipäiväisten järjestelmien suojaamista ja niiden toiminnan turvaamista (Järvinen, 2018).

Järvisen (2018) mukaan kyberturvallisuus itsessään sisältää tietoturvan. Sa- malla kun huolehdimme tietoturvasta, huolehdimme kyberturvallisuudesta. Tie- toturvaan liittyy uhkakuvia tiedostojen tai salasanojen katoamisesta aina laittei- den varastamiseen tai verkkomurtoihin. Kyberuhkakuviin liittyy laajempia ja vaikutukseltaan suurempia kokonaisuuksia (Järvinen, 2018).

Laarin toim. (2019) mukaan kyberturvallisuus on tavoitetila. Tavoitetilassa kybertoimintaympäristöön voidaan luottaa ja jossa toiminta turvataan. Kyber- turvallisuudella turvataan tiedon, laitteistojen, verkostojen, ohjelmistojen ja käyt- täjien luottamuksellisuus, eheys sekä saatavuus koko elinjakson ajan. Kybertur- vallisuus muodostuu ylläpitäjien ja käyttäjien välisestä yhteistoiminnasta. Ky- berturvallisuudessa huomioidaan kybertoimintaympäristön vaikutukset fyysi- seen maailmaan. Fyysisessä maailmassa pelkkä vahinko tai huolimattomuus voi

(19)

vaarantaa esimerkiksi koko verkkopankin, veden- tai sähkönjakelun. Tällöin kär- siviä asiakkaita on paljon enemmän (Laari toim., 2019).

1.5.8 Loppukäyttäjä

Tähtisen (2005) mukaan loppukäyttäjä on henkilö, jonka työkaluna jokin sovellus toimii ja jonka työtehtäviä sovelluksen tulisi helpottaa. Sovelluksilla on usein yksi tai useampi loppukäyttäjä. Loppukäyttäjä palvelee organisaation tavoitteita yhtä tai useampaa sovellusta käyttäen (Tähtinen, 2005).

1.5.9 Singulariteetti

Jääskeläisen (2019) ja Järvisen (2018) mukaan singulariteetti tarkoittaa ihmistä älykkäämmän supertekoälyn syntyä. Nyt käytössä oleva tekoäly on kapeaa teko- älyä. Kapea tekoäly on tehty ratkaisemaan ennalta määriteltyä ongelmaa, mutta siitä edetään kohti yleistä tekoälyä. Yleinen tekoäly pystyy tekemään päätöksiä ihmisen kaltaisesti, hahmottamaan suuria kokonaisuuksia ja tekemään suunni- telmia itsenäisesti. Yleinen tekoäly ei tule jäämään tekoälyalan viimeiseksi vai- heeksi. Tulevaisuudessa riittävän edistynyt yleinen tekoäly voi kehittää itseään supertekoälyksi. Lopulta ihmiset eivät pysy tämän kehityksen mukana. Itseään kehittävä tekoäly johtaa exponentiaaliseen kierteeseen, jossa tekoäly syrjäyttää ihmisen. Tekniikka karkaa tasolle, jota kutsutaan singulariteetiksi tai superteko- älyksi (Jääskeläinen, 2019 ja Järvinen, 2018).

1.5.10 Tekoäly

Tekoäly tarkoittaa laitteita, ohjelmistoja ja järjestelmiä, jotka kykenevät oppimaan ja tekemään päätöksiä lähes samalla tavalla kuin ihmiset. Tekoälyn avulla koneet, laitteet, ohjelmat, järjestelmät ja palvelut voivat toimia tehtävän ja tilanteen mukaisesti järke- vällä tavalla. Tekoälyohjelman loppuraportti, 2019, s. 16.

Hurleyn ja Potterin (2020) mukaan tekoäly on termi, jonka määritelmästä on vai- kea rakentaa konsensusta. Tästä huolimatta sitä yritetään määritellä useissa läh- teissä. Esimerkiksi Townsendin määritelmän konsensusta on haastava ymmärtää yksiselitteisesti. Townsendin (2018) mukaan tekoäly on tietokoneiden käyttöä sellaisten analyyttisten toimintojen suorittamiseen, jotka ovat normaalisti käytet- tävissä vain ihmisille mutta koneen nopeudella.

Tekoälyn kokonaiskuva ja osaamiskartoitus -raportissa tekoäly ymmärre- tään seuraavasti: ”Tekoälyn avulla koneet, laitteet, ohjelmat, järjestelmät ja pal- velut voivat toimia tehtävän ja tilanteen mukaisesti järkevällä tavalla.” (Ailisto ym., 2018, s. 1).

Honkelan (2017) mukaan tekoälyssä on kyse siitä, että koneen avulla mal- linnetaan tai matkitaan ihmisen älykkääksi katsomiaan toimintoja. Esimerkiksi liikkuminen, vaikuttaminen liikkumiseen, kielenkäyttö, ongelmanratkaisu ja ais- tijärjestelmien käyttö. Tekoäly ei ole pelkkää tietotekniikkaa tai tietojenkäsittelyä vaan monialainen kokonaisuus (Honkela, 2017).

(20)

Jääskeläisen (2019) mukaan tekoälyssä tietokoneet pystyvät toimintaan ti- lanteissa, joissa on perinteisesti ajateltu vaadittavan ihmisälyä. Tekoälyssä tieto- koneet kykenevät itsenäisesti mukauttamaan toimintaansa niille annetun datan perusteella. Tekoälyn keskeisiä sovelluksia on ennustaminen datan perusteella, datan luokittelu, kääntäminen, puheen tunnistaminen, robotiikka ja autonomia (Jääskeläinen, 2019).

Järvisen (2018) mukaan tämän päivän tekoälyllä tarkoitetaan esimerkiksi tietokoneohjelmaa, joka pystyy suorittamaan tehtäviä, joihin aiemmin tarvittiin suorittajaksi ihminen. Tällaisia ovat esimerkiksi tekstin kääntäminen kielestä toi- seen, puheen ymmärtäminen, lautapelin pelaaminen ja kuvien tulkinta (Järvinen, 2018). Brundage ym. (2018) täydentää edellistä tiivistäen tekoälyn tarkoittavan digitaalisia ja teknisiä järjestelmiä, jotka kykenevät suorittamaan yleisesti tehtä- viä, joihin vaaditaan älykkyyttä.

Siukosen ja Neittaanmäen (2019) mukaan tekoäly tarkoittaa laitteita, ohjel- mistoja, palveluita ja järjestelmiä, jotka kykenevät oppimaan sekä tekemään pää- töksiä lähes samalla tavalla kuin ihmiset. Tekoälyn avulla laitteet, ohjelmistot, palvelut ja järjestelmät voivat toimia tehtävän sekä tilanteen edellyttämällä jär- kevällä tavalla. Tekoäly oppii, jonka jälkeen sitä voidaan käyttää muualla hyö- dyksi reagoimaan erilaisiin ärsykkeisiin sopivalla tavalla. Siukonen ja Neittaan- mäki (2019) jatkavat tekoälyn olevan tietokoneen toimintojen jatkeena toimiva ohjelma, ohjelmisto tai järjestelmä, joka kykenee mittaviin laskentoihin. Tekoäly viittaa siis tietokoneen toimintoihin, joihin normaalisti tarvitaan ihmisälyä. Toi- saalta tekoäly ilmentyy prosesseissa, joihin ihmistä ei kannata käyttää. Näitä ovat esimerkiksi robotiikka ja automaatio. Mittavien laskentakykyjen takia tekoäly on tietotekniikan, tietojenkäsittelytieteen ja informaatioteknologian osa-alue. Nyt tätä osa-aluetta tutkitaan, jalostetaan, kaupallistetaan, kehutaan ja pelätään. Te- koälyn englanninkielinen nimi artificial intelligence (AI) tarkoittaa tietokoneen tuottamaa keinotekoista älykkyyttä luonnollisen älykkyyden ja oppimisen yh- teydessä (Siukonen & Neittaanmäki, 2019).

Ailiston ym. (2018) ja Siukosen ja Neittaanmäen (2019) mukaan tekoäly syn- tyy useita tietotekniikan osa-alueita yhdistämällä ihmisen ja koneen vuorovaiku- tuksessa. Tekoälyteknologian alle kuuluu joukko erilaisia menetelmiä, teknolo- gioita ja sovelluksia. Tekoäly on menetelmien, teknologioiden ja sovellusten yksi kehitysaskel digitalisaation laajemmassa viitekehyksessä. Tekoälyjärjestelmän on siis osattava käyttää koneoppimista, syväoppimista, algoritmeja, neuroverk- koja, suuria datamassoja, perinteistä logiikkaa ja sumeata logiikkaa, simulointia, optimointia, mallinnusta, signaalin ja datan käsittelyä, tiedonlouhintaa, ko- nenäköä, konetietoisuutta, puheentunnistusta ja -tuottamista, automaatiota, ro- botiikkaa sekä monimutkaisten järjestelmien hallintaa ja päätöksentekoa. Teko- äly hyödyntää näitä osa-alueita ja valjastaa ne käyttöönsä. Tekoälyn kehittäjien tahto on saada tietokoneen ohjelmistot oppimaan ihmismäisesti toistojen, ereh- dyksen ja opetuksen kautta. Tällä hetkellä tekoälylaitteet oppivat ihmisen anta- mien syötteiden tai ”eväiden” ja ohjelmoijien kirjoittamien algoritmien mukaan (Ailiston ym., 2018 ja Siukonen & Neittaanmäki, 2019). Näitä syötteitä ja ”eväitä”

on nykyisin valtavasti. Ne painottuvat tekoälyn eri osa-alueiden mukaan. Esi- merkiksi Castelluccion (2018b) mukaan suuria ponnisteluita liittyy neuroverkoi- hin, jotka laskevat massiivisia tietovarastoja ja oppivat näistä tiedoista. Tämän

(21)

takia tekoälyn kehittyminen on sanottu johtuvan tietokoneiden laskentatehon kasvusta. Vahvasen (2018) mukaan kyse ei ole vain laskentatehosta, vaan myös siitä miten sitä käytetään.

1.5.11 Tietojärjestelmä ja tietojärjestelmäkokonaisuus

Tähtisen (2005) mukaan tietojärjestelmä on looginen kokonaisuus, joka ottaa vas- taan tietoa, käsittelee sen ja tuottaa jatkotietoa. Tällainen kokonaisuus on esimer- kiksi ohjelmistotuote, joka voi olla paketoitu tai räätälöity ohjelmistokokonaisuus.

Tietojärjestelmä on yleensä yrityksen sisäisessä käytössä ja hallinnassa. Siitä voi- daan lukea informaatiota ja siihen voidaan kirjoittaa informaatiota useilla eri ta- voilla (Tähtinen, 2005). Mikkonen (2003) täydentää, että tietojärjestelmistä koos- tuvaan tietojärjestelmäkokonaisuuteen kuuluvat erilaiset tietoa tuottavat senso- rit, anturit, mittarit ja tietoja välittävät tiedonsiirtoverkot. Siihen kuuluu myös alustapalvelut, tietoja kokoavat ja käsittelevät tietojärjestelmät sekä ohjelmat tai palvelut (Mikkonen, 2003).

1.5.12 Vääristymä

Euroopan komission (2019) raportin mukaan vääristymä on puolueellisuutta jo- takin kohdetta, henkilöä tai kantaa vastaan. Se voi olla myös sen puolesta. Vää- ristymiä voi syntyä tekoälyjärjestelmissä monin tavoin. Datavetoisissa tekoäly- järjestelmissä vääristymä saattaa johtaa siihen, että järjestelmä toimii puolueelli- sesti. Logiikkaan perustuvissa tekoälyjärjestelmissä vääristymä voi tulla siitä, mi- ten tekijä suhtautuu tietyssä tilanteessa sovellettaviin sääntöihin. Vääristymä voi syntyä esimerkiksi oppimisen ja vuorovaikutuksen avulla tapahtuvan mukautu- misen seurauksena. Se voi olla yksilöllistä, jos esimerkiksi tekoälyjärjestelmä on räätälöity käyttäjän mukaan. Vääristymä voi olla myönteinen, kielteinen, tahalli- nen tai tahaton ja voi johtaa syrjiviin ja/tai epäoikeudenmukaisin tuloksiin (Eu- ropean Comission, 2019).

1.6 Katsaus aikaisempiin tutkimuksiin ja kirjallisuuskatsaus

Tarkoman (2017) mukaan tekoäly on monitieteinen tieteenala, joka analysoi älyk- kääksi katsottua toimintaa ja tutkii älykkäiden järjestelmien tuottamista. Tekoäly pitää sisällään tietojenkäsittelytieteen, matematiikan, tilastotieteen sekä kognitio- tieteen menetelmiä. Nämä yhdessä muodostavat älykkään järjestelmän (Tar- koma, 2017). Tarkoman kanssa samoilla linjoilla on Honkela. Honkelan (2017) mukaan tekoälytutkimus on kokonaisuutena hyvin läheinen kognitiotieteiden kanssa. Kognitiotiede on ihmisen ajattelun ja älykkäiden toimintojen tutkimusta.

Kognitiotieteen tavoitteet ovat samankaltaisia, kuin tekoälyn kehittämisessä (Honkela, 2017).

Monitieteellisenä tieteenalana tekoäly pitää sisällään positiivisia asioita sekä paljon mahdollisuuksia. Tekoälygenren piirissä on pitkän linjan tutkijoita ja

(22)

tieteenalana se kiinnostaa myös tulevaisuuden tutkijoita. Konttisen (2018) mu- kaan tekoälytutkijat ovat kaikki samaa mieltä siitä, että tekoäly mahdollistaa pal- jon myönteistä. Samaan hengenvetoon tutkijat toteavat, että tekoälyn väärinkäy- töstä on ollut tieteellistä tutkimusta vain nimeksi. Tekoälyn väärinkäytön tutki- misessa ei ole mistään kaukaiseen tulevaisuuteen ulottuvasta näkymästä. Vää- rinkäyttö on totta jo 2020-luvun alussa. Pahantahtoiset toimijat voivat hyödyntää iskuissaan tekoälyä laajalla rintamalla, täsmällisesti, tehokkaasti ja edullisesti.

Tämän ovat ymmärtäneet myös tekoälytutkijat. He ovat huolissaan tekoälyn an- tamista mahdollisuuksista rikollisille. Tutkijat varoittavat, että tekoälyteknolo- gian haavoittuvuudet voivat mahdollistaa tulevaisuudessa esimerkiksi terrori- iskuja. Iskuja voisi toteuttaa esimerkiksi hakkeroimalla tai kaappaamalla teko- älyjärjestelmiä. Käyttäjät luottavat liikaa tekoälyteknologiaan huolimatta siitä, että sekin on murrettavissa ja manipuloitavissa (Konttinen, 2018).

Tämän tekoälytutkimuksen kirjallisuuskatsauksen aikana tuli nopeasti esille, että tutkijoiden mukaan tekoälyllä on useita erilaisia haavoittuvuuksia.

Bradleyn (2019) mukaan tekoälyn aiheuttamista riskeistä on olemassa kirjoja, ar- tikkeleita, blogeja, analyyseja ja mielipiteitä. Julkaistua tutkimusta riskien hallit- semisesta on kuitenkin vähän. Vielä vähemmän on käytännön ohjeita työkalujen tai standardien muodossa (Bradley, 2019). Tekoälyn kybertoimintaympäristön haavoittuvuuksista ei ole saatavilla tutkimukseen perustuvaa kirjallisuutta.

Brundage ym. (2018) mukaan tekoälyllä on haavoittuvuuksia, heikkouksia ja väärinkäytön mahdollisuuksia useassa eri kontekstissa ja ympäristössä. Koska tekoälyn haavoittuvuuksien konteksti on laaja ja ympäristöjä useita, tässä pro gradu tutkimuksessa keskitytään tekoälyn haavoittuvuuksiin kybertoimintaym- päristön näkökulmasta. Kybertoimintaympäristön näkökulmaan liittyy erityi- sesti teknologinen ja digitaalinen turvallisuusympäristö. Brundagen ym. (2018) mukaan tekoälyn käyttö automatisoiduissa tehtävissä nostaa siihen kohdistu- vien kybertoimintaympäristössä toteutettavien hyökkäysten uhkaa.

Tekoälyn väärinkäytöstä on löydettävissä vain vähän tieteellistä tutkimusta, toteaa Konttinen (2018). Tämä sama haaste koskee tekoälyn haavoittuvuuksia.

Erityisesti tekoälyn haavoittuvuuksien tutkimusta tai siihen keskittyvää kirjalli- suutta ei ole kirjallisuuskatsauksen mukaan saatavilla. Kirjallisuuskatsauksen perusteella haavoittuvuuksien tutkimustulokset tai ilmiöt nousevat esille mui- den havaintojen lomassa. Tekoälyn haavoittuvuuksien tutkimus on jäänyt teko- älyn mahdollisuuksien, tekoälypohjaisen puolustuksen ja innovaatiotutkimuk- sen varjoon. Tekoälyn käyttöä kyberturvallisuudessa on myös tutkittu ja toi- minta siinä on melko aktiivista. Edellä mainituissa tutkimuksissa löytyy myös mainintoja tekoälyn haavoittuvuuksista. Tekoälyn haavoittuvuuksien tutkimus on siis jäänyt tekoälyn kokonaisuuden tutkimuksessa vain yhdeksi pieneksi osa- alueeksi. Tämä osa-alue ei ole ilmiselvästi painopisteenä.

Usean kiven kääntämisen jälkeen tutkimusaiheeseen liittyvää aineistoa kui- tenkin löytyi. Tosin sitä löytyi niukasti. Lähimpänä tämän pro gradun tutkimus- aihetta on EU: n rahoittama Horizon 2020 -hankkeen (koodinimi SHERPA) ra- portti vuodelta 2019. Horizon 2020 -hankkeen tavoitteena oli lisätä ymmärrystä siitä, miten tekoälyä ja siihen liittyviä osa-alueita käytetään tulevaisuudessa yh- teiskunnassa. Tehtävän tulos oli raportti: Security Issues, Dangers and Implica- tions of Smart Information Systems. Raportin kirjoittajina ovat toimineet Patel,

(23)

Hatzakis, Macnish, Ryan ja Kirichenko. Tämä lähde on keskeinen tekoälyn haa- voittuvuuksien ymmärtämisessä.

Toinen tätä tutkimusta lähellä on useamman instituution ja yliopiston 26 asiantuntijan laatima raportti vuodelta 2018: The Malicious Use of Artificial In- telligence: Forecasting, Prevention, and Mitigation. Tässä raportissa painopiste on tarkastella tilanteita, joissa henkilö tai organisaatio käyttää tekoälyä. Rapor- tissa pohditaan vaarantaako tekoälyä käyttävä yksilö toisen henkilön tai organi- saation turvallisuutta. Raportissa käsitellään monenlaisia turvallisuusuhkia, ku- ten digitaalista, fyysistä ja poliittista turvallisuutta. Julkaisun keskeinen teema on välitön ja kriittinen tarve kehittää vastuullisuuskulttuuria tekoälytutkimuksessa.

Raportti sopii laajempaan tekoälykokonaisuuteen muun muassa tekoälyn sosi- aalisista vaikutuksista aina poliittisiin vastauksiin saakka. Tätä raporttia on sitee- rattu monessa lehtiartikkelissa ja julkaisussa. Muun muassa Castelluccio (2018a) kirjoittaa siitä Strategic Finance -julkaisussa, Roberts (2018) Cambridgen yliopis- ton julkaisussa ja Bradley (2019) AI & Society -tutkimuslehdessä.

Kolmas tätä pro gradua lähellä oleva raportti on Comiterin kirjoittama ja Harvard Kennedy Schoolin vuonna 2019 julkaisema raportti: Attacking Artificial Intelligence. AI’s Security Vulnerability and What Policymakers Can Do About It. Kyseinen raportti painottuu tekoälyä vastaan kohdistuviin hyökkäyksiin ja vain vähän sen haavoittuvuuksiin. Tämä lähde on keskeinen tekoälyä kohtaan tehtävien hyökkäyksien ymmärtämisessä.

Ulkomaisesta kirjallisuudesta tekoälyn haavoittuvuuksista löytyy julkais- tua tietoa Fryn (2018): Hello world ja Sautoyn (2019): The creativity code. How AI is learning to write, paint and think. Tekoälyn haavoittuvuuksiin liittyvien ulkomaalaisten kirjojen saatavuudessa on haasteita. Usein ongelmana on julkais- tujen kirjojen saatavuus kirjastoissa tai muissa instituutioissa. Asia on toki hie- man parantunut e-kirjojen tulon myötä, mutta maksuttomien julkaisujen saata- vuudessa näkyy aina kysynnän ja tarjonnan laki.

Julkaistusta suomalaisesta kirjallisuudesta lähimpänä tätä pro gradu tutki- muksen aihetta on Lehdon (2019) kirjoitus: Onko tekoäly turvallinen? Kirjotus on osa Siukosen ja Neittaanmäen (2019) kirjaa: Mitä tulisi tietää tekoälystä, vuodelta 2019. Lisäksi Järvisen: Kyberuhkia ja somesotaa (2018) ja Honkelan: Rauhankone.

Tekoälytutkijan testamentti (2017) -kirjat sisältävät tietoa tekoälyn haavoittu- vuuksista.

Ulkomaankielisen verkkomateriaalin osalta tekoälyn haavoittuvuuksia on käsitellyt Zheng (2017) tekstissään: The Cybersecurity Vulnerabilities to Artificial Intelligence. Toinen mainitsemisen arvoinen lähde MC.AI kautta löytyvä artik- keli (2019): 9 Critical AI Weaknesses to Consider. Suomenkielisen verkkomateri- aalin osalta tämän pro gradun aihetta on käsitellyt VTT:n tutkija Kimmo Halunen.

Julkaistuja kirjoituksia tutkimusaiheen osalta on käyty läpi eri näkökulmista VTT:n blogissa. VTT:n blogista nousee keskeisesti esille seuraavat kolme julkai- sua: Tekoälykin voi haavoittua eikä täydellistä tekoälysovellusta ole (2018), Mi- ten tekoälyjä harhautetaan? (2019) ja Lohkoketjusta tekoälyn luottamuksen ra- kentaja? (2018). Erityisesti kaksi ensimmäiseksi mainittua julkaisua tuovat esille tekoälyn haavoittuvuudet ja hyökkäysvektorit. Julkaisut tuovat esille, että teko- älyä voidaan hämätä ja sitä vastaan voidaan hyökätä sen haavoittuvuuksien

(24)

kautta. Saadun tiedon mukaan aihealueen syvempi tutkimus ei ole jatkunut VTT:ssä rahoituksellisista syistä.

(25)

2 TUTKIMUKSEN TIETEELLINEN POHJA

Tämän pro gradu tutkimuksen tieteellisenä pohjana toimivat tutkimustyyppi, tutkimussuuntaus, tutkimuslaji, aineiston keruumenetelmä, aineiston analyysi- menetelmä sekä tutkimuksen luotettavuus.

Tutkimukset jakautuvat pääsääntöisesti laadulliseen, määrälliseen tai näi- den yhdistelmää käyttäviin tutkimuksiin. Kanasen (2013) mukaan laadullinen tutkimus on kaiken tutkimustoiminnan perusta. Laadullista tutkimusta voidaan pitää ”tutkimuksen äitinä”, koska myös määrällinen tutkimus perustuu laadul- liseen tutkimukseen. Laadullinen tutkimus pyrkii ymmärtämään ilmiötä. Lisäksi se pyrkii selittämään ilmiön koostumusta, tekijöitä ja niiden välisiä suhteita. Laa- dullinen tutkimus tuottaa selityksen käytännöstä ja vastaa kysymykseen: ”Mistä tässä on kyse?” (Kananen, 2013).

Hirsijärven, Remeksen ja Sajavaaran (2000 ja 2004) sekä Tuomen ja Sarajär- ven (2000) mukaan tarvitsemme kvalitatiivista eli laadullista tutkimussuuntausta, kun olemme kiinnostuneita asioista, joita ei voi yksinkertaisella tavalla mitata määrällisesti. Tuomen ja Sarajärven (2009) mukaan laadullinen tutkimus on ter- minä eräänlainen sateenvarjo, jonka alla on useita hyvin erilaatuisia laadullisia tutkimuksia. Laadullisesta tutkimuksesta voidaan puhua sekä laajassa merkityk- sessä, että kapeassa merkityksessä (Tuomi & Sarajärvi, 2009).

2.1 Tutkimusmetodi ja metodologia

Metodologian ja metodin ero on välillä haastava tunnistaa. Tuomen ja Sarajärven (2009) ja Tuomen (2007) mukaan tutkimuksen aineiston keruu- ja analyysimeto- dit ovat tutkimustulosten ja sitä kautta syntyneen tiedon perustelu sekä oikeutus.

Metodi on selitys sille, miksi tuollaisia tai tällaisia tietoja on tutkimuksessa saatu selville. Metodi perustelee tutkimuksessa syntyneen tiedon ja metodologia kysyy, onko käytetty metodi järkevä. Metodologia on sääntöjä siitä, miten välineitä eli metodeja käytetään (Tuomi & Sarajärvi, 2009 ja Tuomi, 2007). Tuomi (2007) tar- kentaa vielä, että laajassa merkityksessä metodologia käsittelee todellisuutta kos- kevan tiedon peruslähtökohtaa, perusnäkemystä ja maailmankatsomusta. Sup- peassa merkityksessä metodologialla tarkoitetaan metodien käyttöä, eli sitä mi- ten tutkimuskäytössä hankitaan uutta tietoa todellisuudesta (Tuomi, 2007). Ka- nanen (2019) kirjoittaa, että metodologia tarkoittaa samaa kuin tutkimusote tai lähestymistapa. Laineen ym. (2007) mukaan tutkijan on mietittävä, millä keinoin lähdeaineisto auttaa vastaamaan tutkimuskysymykseen. Metodologien käyttö on mietittävä suhteessa aineistoon ja aineisto on kerättävä tutkimuskysymys mielessä pitäen (Laine ym. 2007).

Hirsijärven ym. (2000) mukaan metodin eli tutkimusmenetelmän/ tutki- musotteen käsite on moniselitteinen. Metodi koostuu niistä tavoista ja käytän- nöistä, joilla tutkimuksen havaintoja kerätään. Metodi on sääntöjen ohjaama me- nettelytapa, jonka avulla tieteessä tavoitellaan ja etsitään tietoa tai pyritään rat- kaisemaan käytännön elämän haasteita (Hirsijärvi ym., 2000).

Viittaukset

LIITTYVÄT TIEDOSTOT

Viestinnällisissä tehtävissä vaaditut reaktiot yllättivät: yksittäisiä sanoja ja lausekkeita käytettiin paljon englannin kielessä (n. 44 %, n = 27) kun taas

Monissa Afrikan, Aasian, Australian ja Amerikan alkuperäisväestöjen kielissä esiintyy vastaavaa sanastoa. Tutkimustradi- tiossa niistä vain käytetään eri termiä: ideo-

Silloin kun opiskelija omia lauseita ra- kentaessaan kääntyy sanakirjan puoleen, hän tarvitsisi tietoa paitsi sanan rektiosta myös siitä, onko kyseessä jaoton vai jaolli- nen

Vaikka Jussilan sanakirjassa on runsaas- ti tarkasteluaikana _ yli 270 vuoden mit- taan _ syntyneitä tai sepitettyjä sanoja, siinä on tietysti viljalti sellaisia suomen sanoja, joita

Tuo välivokaali olisi kuitenkin voinut alkuaan olla myös e, kuten edellä perustelen: germ.. *ı/“oiv-e-n

ja näytteenä sen käytöstä vastaavien UK :n säkeiden lisäksi katkelma Eino Leinon runosta. Muodot ailus ja ailut ovat kansankielessä tuntemattomia, niiden asemesta

daan todistettavasti osoittaa jopa kantasuomalaisiksi. 'Luhistaa, särkeä ' -merkityk- sestä irronneet käyttötavat ovat taas nuorempia, eikä ainoatakaan voida palauttaa

Sana tai käsite Selitys Omalla äidinkielellä tai vieraalla kielellä osakas henkilö tai yhteisö, joka. omistaa osakeyhtiön osak- keita Osakkaalla on oikeus yrityksen voittoon ja