• Ei tuloksia

Selitettävä tekoäly AutoML-kehityksessä

N/A
N/A
Info
Lataa
Protected

Academic year: 2022

Jaa "Selitettävä tekoäly AutoML-kehityksessä"

Copied!
96
0
0

Kokoteksti

(1)

Selitettävä tekoäly AutoML-kehityksessä

Oskari Nenonen

Pro gradu -tutkielma

Tietojenkäsittelytieteen laitos Tietojenkäsittelytiede

Kesäkuu 2021

(2)

itä-suomen yliopisto

, Luonnontieteiden ja metsätieteiden tiedekunta, Joensuu Tietojenkäsittelytieteen laitos

Tietojenkäsittelytiede

Nenonen, Oskari: Selitettävä tekoäly AutoML-kehityksessä Pro gradu -tutkielma, 90 s.

Ohjaaja: FT Virpi Hotti Kesäkuu 2021

Tiivistelmä: Koneoppimismenetelmien kasvava suorituskyky tekee niistä hyödyllisiä työkaluja lukuisilla eri aloilla. Automatisoitu koneoppiminen (AutoML) mahdollis- taa edistyneiden tekniikoiden hyödyntämisen vähäisemmällä ohjelmointiosaamisella.

Erilaiset käytössä olevat tekoälyjärjestelmät ovat aiheuttaneet myös ongelmia, jotka usein liittyvät tekoälyn avulla tuotettujen lopputulosten selittämisen haastavuuteen.

Monimutkaiset tekoälyjärjestelmät näyttäytyvät usein mustina laatikoina, joiden sisäistä logiikkaa ei tunneta. Vastineeksi tähän haasteeseen on muodostunut selitettävän tekoälyn (Explainable Artificial Intellegence, xAI) tutkimusala. Tässä tutkielmassa tekoälyn selitettävyyttä lähestytään kirjallisuuskatsauksen ja tapaustutkimuksen kautta. Monitie- teisen kirjallisuuskatsauksen tavoitteena on selvittää millaisia merkityksiä, tavoitteita ja haasteita tutkielman keskeisiin käsitteisiin, tekoälyn läpinäkyvyyteen ja selitettävyyteen, liitetään aiemmassa kirjallisuudessa. Lisäksi tarkastellaan, miten koneoppimismalleille voidaan tuottaa selityksiä. Helsingin kaupungin AI-HOKS-hankkeen kanssa yhteistyössä toteutetussa tapaustutkimuksessa tarkastellaan valittujen AutoML-työkalujen (Azure Machine Learning ja PyCaret) tuottamaan selitettävyyttä. Tarkastelulla luodaan kuva selittävyyden tarjoamista hyödyistä AutoML-kehittäjille ja käyttäjille. Tutkimuskirjal- lisuudesta havaittiin läpinäkyvyyden olevan usein peräänkuulutettu ratkaisu tekoälyn hyödyntämisen ongelmiin. Läpinäkyvyys ei kuitenkaan synny itsestään vaan on aina rakennettua, eikä se välttämättä tarjoa mahdollisuutta epäkohtien korjaamiseen. Yksi tapa luoda läpinäkyvyyttä on selityksien muodostaminen. Kirjallisuudessa esiteltiin selityksille useita tavoiteltavia hyötyjä sekä menetelmiä niiden muodostamiseksi. Se- lityksien keskeinen haaste on monimutkaisten mallien kokonaiskuvan välittäminen selitysten ollessa usein paikallisia. Kokeellisessa osuudessa AutoML-ratkaisujen selitet- tävyyden havaittiin tuottavan lisäarvoa erityisesti kehittäjille. Selitysten avulla pystyttiin arvioimaan mallien suorituskykyä, puutteita ja soveltuvuutta käyttötarkoitukseen. Selit- tävyyden kautta datasta pystyttiin oppimaan uutta ja muodostamaan suosituksia liittyen sen keräämiseen ja käyttöön. Selitysten havaittiin vastaavan huonosti kirjallisuudesta esiin nousseita ihmisten muodostamien ja ymmärtämien selitysten piirteitä.

Avainsanat: Selitettävä tekoäly; XAI; Automatisoitu koneoppiminen; AutoML

ACM CCS (2012)

Computing methodologiesMachine learning;Feature selection;Mathematics of computingExploratory data analysis;

(3)

university of eastern finland

, Faculty of Science and Forestry, Joensuu School of Computing

Computer Science

Nenonen, Oskari: Selitettävä tekoäly AutoML-kehityksessä Master’s thesis, 90 p.

Supervisor: FT Virpi Hotti Kesäkuu 2021

Abstract: The increasing performance of machine learning techniques makes them attractive tools for a multitude of fields. Automated Machine Learning (AutoML) makes the use of advanced techniques possible with less programming expertise. Various AI systems put to practice have also caused issues which often stem from the hard to explain nature of the outputs of AI. Complex AI systems are often viewed as black boxes, the inner logic of which remains unknown. The field of Explainable Artificial Intelligence (XAI) has formed to provide answers to this challenge. In this study explainable AI is approached with both a literature review and a case study. Goal of the interdisciplinary literature review is to piece together what kinds of meanings, goals, and challenges are associated with the key terms of transparency and explainability of AI. In addition, methods to provide explanations for machine learning models are reviewed. The case study was conducted in co-operation with the City of Helsinki’s AI-HOKS project. The case study considers the explainability provided by the chosen AutoML tools (Azure Machine Learning and PyCaret). This analysis provides an understanding of the benefits that explainablity can provided for AutoML developers and users. Based on the literature review transparency is often invoked as a solution for issues of AI usage. However, transparency is always constructed, and it does not always provide the means to solve the issues it is meant to. One way to create transparency is to create explanations. In the literature review multiple methods for creating explanations were identified in addition to multiple benefits associated with explanations. Key challenge for explanations is to provide a general view of the explained model most explanations being local. In the empirical part of the study the explainability provided by the AutoML solutions were found to be especially useful to developers. Explanations enabled the evaluation of the performance, problems, and suitability of the different models. Trough explainability it became possible to learn new things about the data and to form recommendations about the collection and use of the data. The formed explanations were found to differ from the features of explanations formed by humans that were identified in the literature.

Keywords: Explainable Artificial Intelligence; XAI; Automated Machine Learning;

AutoML

ACM CCS (2012)

Computing methodologiesMachine learning;Feature selection;Mathematics of computingExploratory data analysis;

(4)

Esipuhe

Tämä tutkielma on tehty Itä-Suomen yliopiston Tietojenkäsittelytieteen laitokselle lukuvuoden 2020-2021 aikana.

Tutkielman aihe muodostui useiden tekijöiden summana. Tekoälyn selitettävyys ja ylei- semmin tekoälyn etiikka ovat kiinnostaneet minua jo pidempään. Halusin tutkielmaan mukaan dataa elävästä elämästä ja tähän aukesikin useiden mutkien jälkeen mahdolli- suus AI-HOKS-hankkeen kautta. Näiden yhdistäminen AutoML-kehitykseen muodosti tutkielmasta monipuolisen kokonaisuuden, jonka parissa oli mielekästä työskennellä.

Erityisesti tahdon kiittää ohjaajaani Virpi Hottia. Lisäksi tahdon osoittaa kiitokseni seuraaville henkilöille, jotka ovat tavalla tai toisella auttaneet tutkielman valmistumisessa:

Meeri Haataja, Anni Hacklin, Antti Maunu, Pauli Miettinen, Mohammed Saqr, Pasi Silander ja Matti Tedre.

Mitä itse et tiedä, sitä et tiedä

Bertolt Brecht suom. Hannu-Pekka Lappalainen

(5)

Sisällys

1 Johdanto 1

1.1 Tutkimuskysymykset . . . 1

1.2 Tutkielman rakenne . . . 2

1.3 Mitä on tekoäly? . . . 3

2 Tekoälyn läpinäkyvyys ja selitettävyys 7 2.1 Läpinäkyvyys (transparency) . . . 7

2.1.1 Mitä tarkoitamme läpinäkyvyydellä . . . 8

2.1.2 Läpinäkyvyyden ongelmat . . . 10

2.2 Selitettävyys (explainability) ja XAI . . . 13

2.2.1 Monitieteellinen näkökulma selittämiseen . . . 16

2.2.2 Selitysten muodostaminen . . . 23

2.3 Data ja läpinäkyvyys . . . 31

3 Selitettävyys osana AutoML-kehitystä - esimerkkinä AI-HOKS 36 3.1 AI-HOKS . . . 36

3.2 Mobiilikyselydata ja opintoihin kiinnittyminen . . . 38

3.3 Azure AutoML ja PyCaret . . . 45

3.4 AutoML-mallien muodostaminen ja vertailu . . . 47

3.5 Parempia tuloksia selitettävyydellä . . . 63

3.6 AutoML-mallien hyödyntäminen . . . 67

3.7 Vertailevien selitysten muodostaminen . . . 70

(6)

4 Johtopäätökset ja pohdinta 73 4.1 Etiikka . . . 76 4.2 Selitettävyys ja GDPR . . . 78 4.3 Jatkotutkimus . . . 81

Viitteet 83

(7)

1. Johdanto

Tekoälyn selitettävyyttä käsittelevä kirjallisuus alkaa usein joko esimerkeillä tekoä- lyjärjestelmien tuottamista epäoikeudenmukaisista tuloksista tai maalaamalla kuvaa koneoppimismalleista mustina laatikkoina (esimerkiksi Mittelstadt ym., 2019; Yam- polskiy, 2020; Brkan, 2019). Erilaisten tekoälyjärjestelmien on havaittu tuottavan epäoikeudenmukaisia tuloksia useilla yhteiskunnallisesti merkittävillä aloilla, kuten terveydenhuollon (Obermeyer ym., 2019), oikeuslaitoksen (Angwin ym., 2016) ja koulutuksen (O’Neil, 2016) palveluksessa. Ongelmien havaitsemista vaikeuttaa koneop- pimisen monimutkainen ja vaikeasti tulkittava luonne. Yksittäinen koneoppimismalli voi koostua miljoonista yksittäisistä arvoista. Tämä algoritmisesti mallille opetettu logiikka, jolla syötetystä datasta tuotetaan lopputuloksia on usein sellaisenaan liian monimutkainen ymmärrettäväksi (Mittelstadt ym., 2019). Mustan laatikon (black box) käsitteellä viitataan juuri tähän ongelmaan.

Tekoälyn avulla tuotettujen lopputulosten taustalla vaikuttavan logiikan ymmärtämisen vaikeus ja epäoikeudenmukaisten tulosten vaikutukset ovat luoneet tarpeen tuottaa läpinäkyvyyttä, jonka avulla mustan laatikon piilottama logiikka on ymmärrettävissä (Barredo Arrieta ym., 2020). Selitettävän tekoälyn (eXplainable Artificial Intelligence, XAI) tutkimusala pyrkii vastaamaan tähän tarpeeseen menetelmillä, joilla pystytään selittämään ja tuomaan ymmärrettäväksi erilaisia malleja ja niiden tuloksia (Barredo Arrieta ym., 2020).

1.1 Tutkimuskysymykset

Tässä tutkielmassa tarkastellaan tekoälyn läpinäkyvyyden ja selitettävyyden mahdolli- suuksia ja rajoituksia kirjallisuuskatsauksen ja tapaustutkimuksen avulla. Tapaustutkimus toteutetaan yhteistyössä Helsingin kaupungin AI-HOKS-hankkeen kanssa. Tutkielmassa tarkastellaan tekoälyn selitettävyyttä erityisesti AutoML-kehityksen kontekstissa. Auto- matisoidulla koneoppimisella (AutoML) viitataan erilaisiin menetelmiin, jotka pyrkivät

(8)

automatisoimaan merkittävän osan koneoppimismallien kehittämisen vaatimasta työstä.

AutoML mahdollistaa koneoppimisen hyödyntämisen aiempaa matalammalla kynnyk- sellä esimerkiksi muiden alojen asiantuntijoille (He ym., 2021). AutoML-kehityksen erityispiirteet voidaan yhdistää Barredo Arrieta ym. (2020) ajatukseen eri kohderyhmistä, joille tekoälyn selitettävyyttä voidaan tuottaa. Tässä tutkielmassa tarkastellaan selitet- tävyyttä AutoML-kehittäjien ja mallien tuottamia tuloksia vastaanottavien käyttäjien näkökulmasta.

Tämän tutkielman tavoitteena on selvittää kuinka tekoälyn läpinäkyvyyttä ja selitet- tävyyttä voidaan hyödyntää osana AutoML-mallien kehitystä ja hyödyntämistä. Tut- kielmassa perehdytään monitieteisesti läpinäkyvyyttä ja selitettävyyttä käsittelevään aiempaan kirjallisuuteen. Lisäksi tarkastellaan ehdotettuja menetelmiä, joilla voidaan pyrkiä selittämään tekoälymalleja keskittyen erityisesti avoimen lähdekoodin Python- kirjastoihin. Näiden pohjalta arvioidaan kahden AutoML-ratkaisun (Azure AutoML ja PyCaret) tarjoamaa selitettävyyttä ja selitettävyyden tuomia mahdollisuuksia ke- hittäjälle ja loppukäyttäjälle. Tutkielma toteutetaan yhteistyössä Helsingin kaupungin AI-HOKS-hankkeen kanssa. AI-HOKS-hankkeen tavoitteena on tuottaa tekoälyavustei- nen, samaa nimeä kantava työkalu Stadin ammatti- ja aikuisopiston käyttöön. Hankkeen tuottaman kyselydatan pohjalta muodostetaan luokittelijamalleja. Mallien kehittämisen tavoitteena on saada uutta tietoa kyselydatasta sekä tutustua selitettävyyteen osana itera- tiivista AutoML-kehitysprosessia. Tutkielman tutkimuskysymykset voidaan muotoilla seuraavasti:

1. Millaisia merkityksiä läpinäkyvyyteen ja selitettävyyteen tekoälyn kontekstissa liitetään?

2. Miten koneoppimismalleille ja niiden tuloksille voidaan muodostaa selityksiä?

3. Millaista läpinäkyvyyttä ja selitettävyyttä käsiteltävät AutoML-ratkaisut tarjoavat?

4. Millaista lisäarvoa tekoälyn selitettävyys tuottaa kehittäjille ja käyttäjille?

1.2 Tutkielman rakenne

Johdantoluvun lopuksi käsitellään tarkemmin tekoälyn eri määritelmiä. Tavoitteena on määritellä, miten tekoälyä ja läheisiä käsitteitä, kuten koneoppimista, hyödynne- tään tutkielmassa. Tutkielman toinen luku sisältää kirjallisuuskatsauksen tekoälyn läpinäkyvyyteen ja selityksien muodostamiseen. Luvun tavoitteena on vastata kah- teen ensimmäiseen tutkimuskysymykseen ja luoda yleiskatsaus selitettävän tekoälyn

(9)

(XAI) tutkimuskentälle. Monitieteisen kirjallisuuskatsauksen kautta pyritään hahmot- tamaan millaisia tavoitteita ja haasteita tekoälyn läpinäkyvyyteen ja selitettävyyteen liitetään. Lisäksi tarkastellaan tekoälyn kehityksessä hyödynnettävän datan suhdetta läpinäkyvyyteen.

Tutkielman kolmas luku kuvaa tutkielman kokeellisen osuuden lähtökohdat ja toteutuk- sen. Tapaustutkimus on toteutettu yhteistyössä Helsingin kaupungin AI-HOKS-hankkeen kanssa. AI-HOKS on ammatillisen koulutuksen opiskelijoille, opettajille ja johdolle tuo- tettava palvelu, joka tarjoaa aiempia työkaluja tarkempaa tietoa opiskelijoiden opintojen etenemisestä. Palvelun tavoitteena on dataa ja tekoälyä hyödyntäen helpottaa opiskeli- joiden omien opintojen seuraamista ja tarjota opettajille työkaluja tukea tarvitsevien opiskelijoiden auttamiseen. Lisäksi kuvataan tarkemmin hankkeen yhteydessä kerät- ty mobiilikyselydata, jota hyödynnetään AutoML-mallien muodostamisessa. Tämän jälkeen tarkastellaan AutoML-ratkaisuiden tarjoamaa läpinäkyvyyttä ja selitettävyyttä kuvaamalla tapaustutkimuksen kokeellinen osuus. Tämä toteutetaan muodostamalla luokittelijoita valituilla AutoML-työkaluilla. Tavoitteena on kuvata työkalujen tarjoa- mien selityksien hyödyntämistä iteratiivisessa kehitysprosessissa. Luvun tavoitteena on vastata kahteen viimeiseen tutkimuskysymykseen tapaustutkimuksen käytännön esimerkkien avulla.

Tutkielman neljäs ja viimeinen luku esittelee muodostetut johtopäätökset. Lisäksi tässä luvussa käsitellään tutkielman aikana muodostettuja havaintoja selitettävän tekoälyn etii- kasta sekä mahdollisista jatkotutkimuskohteista. Lisäksi eritellään tarkemmin selityksien suhdetta eurooppalaiseen lainsäädäntöön.

1.3 Mitä on tekoäly?

Tekoälyn määrittelyn vaikeutta kuvaa sanonta "tekoäly on mitä vain, mitä ei ole vielä tehty"(Haenlein & Kaplan, 2019). Kun jokin tekoälynä pidetty järjestelmä pystytään to- teuttamaan, taika katoaa ja järjestelmä näyttäytyy tietokone-ohjelmana, matematiikkana (Haenlein & Kaplan, 2019). Ilmiötä kutsutaan englanniksi nimelläAI effect, AI-ilmiö (Haenlein & Kaplan, 2019). Voimme toisaalta havaita, että tekoäly-termin, tai varsinkin AI-lyhenteen, käyttö on tällä hetkellä hyvin yleistä eri yhteyksissä. Suomen julkisen sektorin tekoälyhanke on nimeltään AuroraAI, ja esimerkiksi tekoälyn läpinäkyvyyttä edistävä Helsingin kaupungin tekoälyrekisteri on nimeltään juuri tekoälyrekisteri (Hel- singin kaupunki, 2021b). Toisaalta samassa hankkeessa mukana oleva Amsterdamin kaupunki puhuu algoritmirekisteristä (City of Amsterdam, 2020).

(10)

Krafft ym. (2020) erittelevät tekoälytutkijoiden ja päätöksentekijöiden näkemyseroja siitä, millaiset teknologiat edustavat tekoälyä. Tältä pohjalta tutkimus suosittelee esimerkiksi Taloudellisen yhteistyön ja kehityksen järjestö OECD:n laajaa tekoälyn määritelmää:

"An AI system is a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. AI systems are designed to operate with varying levels of autonomy."(OECD, 2021)

Esimerkiksi Tieteen termipankki (2021) määrittelee tekoälyn yksinkertaisesti ihmisen teknisillä menetelmillä valmistamaksi älykkääseen toimintaan kykeneväksi olioksi.

Tällaiset määritelmät jättävät avoimeksi sen, mitä tarkoitamme älykkäällä toiminnalla.

Bryson (2019) erotteleekin älykkyyden (intelligence) käsitteen kognitiosta (cognition) ja määrittelee biologiasta lainaten älykkyyden kyvyksi tehdä oikea asia oikeaan ai- kaan tilanteessa, jossa tekemättä jättäminen olisi huonompi vaihtoehto. Tämä laaja älykkyyden käsite kattaa esimerkiksi valoa kohti kääntyvät kasvit ja lämpötilaan rea- goivan mekaanisen termostaatin. Kognitiivinen järjestelmä kykenee muokkaamaan älykkyyttään oppimalla uusia konteksteja, toimintoja ja yhteyksiä näiden välillä. Tämä vastaa tarkemmin arkipäiväistä käsitystä älykkyyden määritelmästä. Tällainen älykkyys kuuluu komputaation (suomeksi usein myös laskenta) eli tiedon käsittelyn alle. Kyseessä ei ole siis matematiikka vaan fyysinen, energiaa ja aikaa vaativa prosessi. Älykkyys voidaan näillä määritelmillä nähdä komputaation alaluokkana, joka muuttaa kontekstin toiminnaksi.

Tekoälynä pidetään Brysonin (2019) mukaan yleensä erilaisia useimmiten digitaalisia artefakteja, jotka ilmentävät luonnollisen älykkyyden ominaisuuksia. Tällaisia ovat esimerkiksi konenäkö sekä hahmon- ja äänentunnistus. Toisaalta myös staattisia tuotan- tojärjestelmiä pidetään esimerkkeinä tekoälystä, vaikka niissä ei tapahdukaan oppimista.

Bryson ehdottaa jopa minkä tahansa omia kykyjämme parantavan artefaktin ajattelemista tekoälynä. Tällainen määritelmä mahdollistaisi tekoälyn tuomien muutosten tarkas- telun osana pidempää teknologisten interventioiden aikajanaa, vaikka se ei muutoin vastaakaan yleistä käsitystä tekoälystä.

Tekoäly tieteenalana voidaan määritellään älykkäiden agenttien tutkimukseksi (Russell

& Norvig, 2016). Älykäs agentti tarkoittaa toimijaa, joka pystyy ympäristöä (digi- taalista tai fyysistä) tarkkailemalla muokkaamaan toimintaansa tiettyjen päämäärien saavuttamiseksi (Russell & Norvig, 2016). Tämä määritelmä vastaa hyvin Brysonin (2019) määritelmää älykkyydestä. Älykäs agentti voi käyttää aiempaa tietoa päätöksien tekemiseen ja oppia toiminnastaan (Russell & Norvig, 2016).

(11)

Usein tekoälyn määritelmään sisällytetään oppimisen käsite, joka esimerkiksi OECD:n määritelmästä puuttuu. Koneoppiminen (Machine Learning, ML) on tekoälyn alaluokka, jolla tarkoitetaan järjestelmiä, jotka pystyvät oppimaan aiemmista kokemuksista ilman, että uutta tietoa ohjelmoidaan käsin järjestelmään (Erickson ym., 2017). Russell ja Norvig (2016) liittävät tähän koneoppimisen määritelmään kyvyn tunnistaa datasta erilaisia hahmoja (pattern) ja ekstrapoloida niiden pohjalta. Esimerkiksi koneoppimista hyödyntävää kuvantunnistusalgoritmia voidaan opettaa datalla, joka sisältää kuvia ja niihin liittyvää tietoja (Erickson ym., 2017). Järjestelmä oppii tunnistamaan kuvista piirteitä, jotka viittaavat tiettyyn tietoon (Erickson ym., 2017). Näin koneoppimismalli voi oppia tunnistamaan, onko magneettikuvasta havaittavissa kasvaimia (Erickson ym., 2017). Näin muodostetun mallin pohjalta voidaan tunnistaa uusista kuvista samoja piirteitä ja muodostaa ennusteita ja luokitteluja.

Bryson (2019) korostaa, että vaikka koneoppimisessa datasta opittuja piirteitä ja niihin liittyviä luokitteluja ja ennusteita ei ohjelmoida käsin, edes koneoppimissovellukset eivät ilmesty tyhjästä. Ne ovat muiden tekoälyratkaisujen tavoin artefakteja, jotka joku on tietoisesti tuottanut. Tämä tulee ottaa huomioon arvioidessamme tällaisten järjestelmien turvallisuutta ja eettisyyttä.

Lisäksi tulee huomioida algoritmisuuden käsitteen yleinen käyttö puhuttaessa tekoälystä.

Larsson ja Heintz (2020) käsittävät tekoälyn, ja varsinkin sen läpinäkyvyyden, algorit- misuutta laajempana järjestelmänä. Se käsittää algoritmien lisäksi hyödynnetyn datan ja päätökset, joita niiden pohjalta muodostetaan. Lisäksi algoritmisen tai automaattisen päätöksenteon käsitettä käytetään puhuttaessa erilaisista tekoälyä hyödyntävistä koko- naan tai osin automaattisista päätöksentekoprosesseista, joihin usein kohdistuu tarve selitettävyydelle (Lepri ym., 2018). Esimerkiksi Euroopan unionin yleinen tietosuoja- asetus, GDPR ((Euroopan parlamentti ja Euroopan unionin neuvosto, 2018), tarkemmin alaluvussa 4.2), käyttää juuri automaattisen päätöksenteon käsitettä.

Näistä lähestymistavoista voimme huomata tekoälyn määritelmän olevan luonteeltaan eläväinen ja se tulee varmasti muuttumaan myös jatkossa. Tämän tutkielman kannalta kovin täsmällinen määritelmä ei ole tarpeellinen, ja esimerkiksi OECD:n erilaisille järjestelmille tilaa jättävä määritelmä vastaa tutkielman tarpeita. Seuraavassa luvussa käsiteltävien läpinäkyvyyden ja selitettävyyden kannalta on kuitenkin hyvä hahmottaa tekoälykentän moninaisuutta. Läpinäkyvyyttä ja selitettävyyttä arvioitaessa huomio kiin- nittyy useimmiten kone- ja syväoppimiseen seurauksena näiden laajasta potentiaalista erilaisissa käyttötarkoituksissa, sekä niiden usein vaikeasti ymmärrettävästä ja selitettä- västä luonteesta (Yampolskiy, 2020). Esimerkiksi de Fine Licht ja de Fine Licht (2020) rajaavat tekoälyn tarkoittamaan juuri näitä tarkempia alaluokkia (sekä tilastollisia en-

(12)

nusteita) tutkiessaan läpinäkyvyyttä suhteessa julkiseen päätöksentekoon. Käytännössä myös tässä tutkielmassa keskitytään kone- ja syväoppimismallien tarkasteluun.

(13)

2. Tekoälyn läpinäkyvyys ja selitettävyys

Tämän luvun tavoitteena on muodostaa tutkielman teoriapohja, jonka avulla tapaustutki- muksen käytännön esimerkkejä lähestytään. Lisäksi tavoitteena on pyrkiä aiemman tut- kimuskirjallisuuden pohjalta vastaamaan kahteen ensimmäiseen tutkimuskysymykseen.

Aluksi avataan läpinäkyvyyden (transparency) merkitystä ja rajoituksia. Tämän jälkeen tutustutaan selitettävyyteen (explainability). Selitettävyyttä käsitellään ensin monitie- teellisestä näkökulmasta, jonka jälkeen tutustutaan joihinkin ehdotettuihin käytännön menetelmiin. Lopuksi alaluvussa 2.3 käsitellään datan suhdetta läpinäkyvyyteen.

2.1 Läpinäkyvyys (transparency)

Kasvanut kiinnostus tekoälyn läpinäkyvyyttä kohtaan selittyy tekoälyn, koneoppimi- sen ja algoritmisesti tehtyjen päätösten yleistymisellä ja tästä seuranneilla ongelmilla.

Algoritmisesti tehdyt päätökset, suositukset ja ennusteet ovat aiheuttaneet erilaisia vakaviakin seuraamuksia, joita on eritelty useissa tutkimuksissa. Useiden eri järjes- telmien on todettu kohtelevan eri väestönosia eriarvoisesti muun muassa arvioitaessa terveysriskejä (Obermeyer ym., 2019) ja tutkintavankeuden tarpeellisuutta (Angwin ym., 2016). Edelliset esimerkit tuottivat rasistisia tuloksia. Eubanks (2018) puolestaan erittelee, kuinka erilaiset Yhdysvalloissa käytössä olevat järjestelmät uudelleentuottavat yhteiskunnallista eriarvoisuutta. Tämän tutkielman kannalta osuvasti negatiivisia seu- rauksia on havaittu myös kouluympäristössä. O’Neil (2016) kuvaa opettajien menestystä arvioinutta järjestelmää, jonka pohjalta päädyttiin erottamaan hyvin menestyneitä ja päteviä opettajia.

Koneoppimista hyödyntävien tekoälyjärjestelmien tuottamien tuloksien avaamiseen on kasvava tarve, joka johtuu tekoälyn yhteiskunnallisen roolin kasvusta ja koneoppimisen

(14)

luonteesta, jota ihmisen on vaikea ymmärtää. (Yampolskiy, 2020). Syväoppimisessa hyö- dynnettävät syvät neuroverkot (Deep Neural Network, DNN) voivat sisältää miljoonia neuroneita, joita yhdistää moninkertainen määrä numeerisia painotuksia, jotka lasketaan neuroverkon opetusvaiheessa algoritmisesti hyödyntäen miljoonien yksikköjen kokoisia datajoukkoja (Yampolskiy, 2020). Ilman erillistä pyrkimystä läpinäkyvyyden parantami- seen lopputulosten ymmärtäminen muuttuu mahdottomaksi jo paljon maltillisempien esimerkkien kohdalla (Yampolskiy, 2020). Tällaista järjestelmää, josta tunnetaan vain syöte ja lopputulos, nimitetään yleisesti mustaksi laatikoksi (black box) (Mittelstadt ym., 2019).

Datta ym. (2015) valaisevat algoritmisesti muodostettujen päätösten vaikeasti hallittavaa ja emergenttiä luonnetta. Tutkimuksessa havaittiin Googlen kohdentavan mainoksia niin, että miespuoliset käyttäjät saivat mainoksia selkeästi parempaa palkkaa maksavista työpaikoista. Tällainen tulos ei Datta ym. (2015) mukaan mitä todennäköisimmin johdu tietoisesta syrjinnästä, vaan on seurausta mainosten klikkausmäärien ja sitä kautta mainosten taloudellisen tuottavuuden optimoinnista. Algoritmin amoraalinen luonne ei kuitenkaan vähennä sen yhteiskunnallisia vaikutuksia.

Kasvava ymmärrys tekoälyn mukanaan tuomista riskeistä on kasvattanut kysyntää teko- älyn avulla muodostettujen päätösten valvonnalle ja läpinäkyvyydelle myös julkisten toimijoiden ja järjestöjen taholta, kuten Jobin ym. (2019) esittävät. Tämä erilaisia tekoä- lyn hyödyntämisen eettisiä periaatteita ja ohjenuoria käsitteleviä julkaisuja tarkastellut laaja tutkimus (n=84) tunnisti läpinäkyvyyden yleisimmäksi periaatteeksi, jolla tekoälyn eettisyyttä voidaan edistää. Temaattinen analyysi paljasti merkittäviä eroja siinä, mihin läpinäkyvyydellä viitataan, miten läpinäkyvyys saavutetaan ja mihin tällainen pyrkimys kohdistetaan. Alaluvussa 2.1.1 avataan tarkemmin läpinäkyvyyteen kirjallisuudessa liitettyjä merkityksiä. Alaluku 2.1.2 keskittyy läpinäkyvyyden rajoitteiden ja ongelmien käsittelyyn.

2.1.1 Mitä tarkoitamme läpinäkyvyydellä

Tekoälyn läpinäkyvyyttä pyritään edistämään monista syistä. Jobin ym. (2019) esitte- levät lukuisia asiayhteyksiä ja ongelmia, joihin yritykset, järjestöt ja julkiset toimijat peräänkuuluttavat ratkaisuksi läpinäkyvyyttä. Läpinäkyvyyttä tulisi lisätä niin datan hyödyntämisessä, ihmisen ja tekoälyn vuorovaikutuksessa kuin automaattisessa päätök- senteossakin. Näin voidaan eriteltyjen linjausten mukaan minimoida haittoja ja riskejä sekä parantaa tekoälyn suorituskykyä. Osa tutkimuksen lähteistä painottaa myös läpinä- kyvyyden merkitystä laillisten velvoitteiden täyttämisessä ja käyttäjien luottamuksen lisäämisessä.

(15)

Läpinäkyvyyden lisäämiseksi ehdotetaan Jobin ym. (2019) esittelemissä julkaisuissa myös useita toisistaan eriäviä toimenpiteitä. Useat lähteet ehdottavat, että tekoälyä kehittävien tahojen tulisi julkaista enemmän tietoa järjestelmiensä toiminnasta, mut- ta tämänkin tarkemmat määrittelyt vaihtelevat. Tietoa vaaditaan julkaistavaksi muun muassa tekoälyn käyttökohteista, käytetystä datasta ja järjestelmän rajoituksista. Myös tekoälyjärjestelmien lähdekoodin julkaisemista, ihmisystävällisten selitysten muodosta- mista ja perusteluja tekoälyn hyödyntämiselle ehdotetaan eri julkaisuissa. Erityisesti tietosuojaan erikoistuneet tahot suosittavat auditointeja läpinäkyvyyden edistämiseksi, yritysten painottaessa teknisiä ratkaisuja. Kahdessa dokumentissa ehdotettiin myös ns.

whistleblowing-paljastusten fasilitointia sisäisesti havaittujen ongelmien esiintuomiseksi.

Läpinäkyvyyteen, tai ainakin sen lisäämiseen, voidaan siis selvästi pyrkiä lukuisin eri tavoin. Larsson ja Heintz (2020) erittelevät tekoälyn läpinäkyvyyden määrittelyn haasteita tuoden mukaan monitieteellistä näkökulmaa läpinäkyvyyteen. Läpinäkyvyyttä on käytetty 1990-luvulta lähtien laajasti erilaisissa ekonomispoliittisissa keskusteluissa reaktiona talouskriiseille ja korruptioskandaaleille (Larsson & Heintz, 2020). Koivisto (2016) liittää läpinäkyvyyden tavoiteltavuuden sen tuomaan lupaukseen siitä, että vallan näkyväksi tekeminen tekee siitä myös hallittavaa. Larsson ja Heintz (2020) ja Koivisto (2016) analysoivat kumpikin käsitteen metaforista ulottuvuutta. Läpinäkyvyys linkittyy erottamattomasti näkemiseen, jolla varsinkin englanniksi tarkoitetaan usein myös ymmärtämistä,to see. On vaikea olla yhdistämättä läpinäkyvyyttä tällaisten yhteyksien (kirkkaus, selkeys) kautta laajempaan ajatukseen ymmärryksestä. Larsson ja Heintz (2020) kontrastoivat näitä yhteyksiä aiemmin mainittuun ajatukseen tekoälystä mustana laatikkona. Koiviston (2016) mukaan nämä läpinäkyvyyden käsitteen ominaisuudet ovat tehneet siitä normatiivisen konseptin, jonka negatiivisia konnotaatioita ei ole juurikaan tutkittu.

Larsson ja Heintz (2020) listaavat erilaisia hyödyllisiä tekoälyn läpinäkyvyyden aspekteja, jotka tulisi ottaa huomioon hyödynnettäessä läpinäkyvyyden käsitettä ratkottaessa tekoälyn hyödyntämisen ongelmakohtia. Listaus tiivistetysti (listauksen viitteet Larsson ja Heintz (2020) mukaan poislukien kirjoittajan lisäykset, joihin viitataan ks. myös -lyhenteellä):

1. Omistajuuden laillinen näkökulma. Ohjelmistoja ja dataa hyödynnetään vapailla markkinoilla ja ne voivat kuulua liikesalaisuuden piiriin (ks. myös Wachter ym., 2018).

2. Tarve estää väärinkäytökset. Läpinäkyvyys voi mahdollistaa erilaisten järjestel- mien hyväksikäytön. Esimerkiksi veronkiertoa estävän järjestelmän täydellinen

(16)

läpinäkyvyys voisi mahdollistaa järjestelmän harhauttamisen ja näin heikentää myös järjestelmän toimivuutta (De Laat, 2018).

3. Käyttäjien ymmärrys datasta ja algoritmeista. Tekoälyn läpinäkyvyyteen vaikuttaa myös se, millä tasolla tavallisen käyttäjän ymmärrys käytetyistä menetelmistä on (Burrell, 2016).

4. Kommunikaatiossa käytetyt symbolit ja metaforat. Tekoälyn matemaattiset mallit voivat vaatia kääntämistyötä, jotta ne saadaan ihmisten ymmärtämään muotoon (Larsson, 2019). Mittelstadt ym. (2019) havainnoivat lisäksi eron erilaisten tekoälyn selitettävyyteen liittyvien mallien ja jokapäiväisten selitysten välillä (T. Miller (2019), ks. myös alaluku 2.2.4).

5. Dataekosysteemien monimutkaisuus. Kuluttajadatan myynnillä on selkeä vaiku- tus läpinäkyvyyteen, varsinkin jos emme tiedä mistä data on lähtöisin, minne henkilökohtainen datamme päätyy ja mihin sitä voidaan käyttää (Larsson (2018), ks. myös Crain, 2018; Zuboff, 2018).

6. Hajautetut personalisoidut lopputulokset. Liittyen edelliseen kohtaan: epäoikeu- denmukaisten lopputulosten tunnistamista ja valvomista vaikeuttaa järjestelmien hajauttaminen. Useista eri lähteistä kerättyjä personalisoituja tietoja voidaan käyttää, ja käytetään, useissa eri järjestelmissä (Larsson, 2018).

Larsson ja Heintz (2020) mukaan tällaisessa laajassa käsityksessä tekoälyn läpinäky- vyydestä korostuvat erilaiset ristiriitaiset intressit. Varsinkin hallinnollisesta ja val- vonnallisesta näkökulmasta on haastavaa sovittaa yhteen useita erilaisia perusteltuja, mutta heikosti yhteensopivia intressejä (Larsson & Heintz, 2020). Esimerkkinä mainittu ristiriita läpinäkyvyyden ja epärehellisen toiminnan estämisen välillä (Larsson & Heintz, 2020). Samoin epäoikeudenmukaisuuksien tunnistaminen ja korjaaminen voi rikkoa yk- sityisyyteen liittyviä rajoituksia (Larsson & Heintz, 2020). Nämä ongelmat on tunnistettu myös EU:n luotettavaa tekoälyä koskevissa eettisissä ohjeissa (AI HLEG, 2021). Lisäksi on huomioitava yritysten taloudellisten intressien ja yksilöiden yksityisyydensuojan välinen konflikti (Zuboff, 2018; Larsson, 2018).

2.1.2 Läpinäkyvyyden ongelmat

Vaikka läpinäkyvyyden lisääminen on usein peräänkuulutettu tapa ehkäistä tekoälyn hyödyntämiseen liitettyjä ongelmia, se ei työkaluna ole yksinkertainen tai ongelmaton (Larsson & Heintz, 2020). Ida Koivisto on tarkastellut läpinäkyvyyttä kriittisellä otteella

(17)

niin yleisestä yhteiskunnallisesta (Koivisto, 2016) kuin automaattisen päätöksenteon (Koivisto, 2020) näkökulmasta.

Koivisto (2016) esittää, että läpinäkyvyys on noussut varsinkin hallinnollisissa yhteyk- sissä itseisarvoiseen asemaan. Läpinäkyvyydestä on tullut itsestään selvä lähestymistapa yhteiskunnan ja sen organisaatioiden toimintaan ilman riittävää kritiikkiä ja tarkastelua.

Toisaalta läpinäkyvyys lupaa paljastaa hallinnon paljaan ytimen, jos vain esteet poiste- taan läpinäkyvyyden tieltä. Toisaalta läpinäkyvyys nojaa tietoisesti konstruktoituihin viestinnän välineisiin, kuten kuviin, tilastoihin, raportteihin ja visualisointeihin. Koivisto (2016) argumentoi täydellisen läpinäkyvyyden olevan mahdotonta, eikä oikeastaan edes toivottavaa.

Läpinäkyvyys kielellisenä metaforana kiinnittyy Koiviston (2016) mukaan läpinäkyvyy- teen fyysisenä ominaisuutena. Osin läpinäkyvyys onkin sekä suoraa ja kirjaimellista näkyvillä olemista (lasiseinä, verkkoon striimattu kokous) että näkyväksi tekemistä (pää- tösten perustelu, dokumenttien julkaisu). Näkeminen ei kuitenkaan Koiviston mukaan tarkoita ymmärrystä, vaikka ajattelussamme nämä kaksi linkittyvätkin yhteen. Lisäksi myös kirjaimellinen näkyvyys, ikkuna tarkasteltavaan asiaan, on tehtävä mahdolliseksi eli konstruktoitava kuten muukin läpinäkyvyys. Koivisto (2016) kuvaa läpinäkyvyyttä Baudrillardin hyperreality-käsitteen kautta. Media, jolla läpinäkyvyyttä luodaan paitsi esittää, myös luo osan esitettävästä objektista. Emme siis näe ainoastaan näkyviksi tehtyjä asioita, vaan myös läpinäkyvyyden itsensä. Baudrillardia (1994) mukaillen todellisuus ja sen simulaatio kietoutuvat yhteen ja niiden erottaminen toisistaan muuttuu mahdottomaksi.

Sosiologi Ervinn Goffman (1978) kuvaa sosiaalista elämäämme performanssina, johon kuuluu ajatus lavasta, jolla ikään kuin esitämme itseämme ja valitsemme millaiset kasvot paljastamme muille. Vastaavasti tähän teatterivertaukseen kuuluu ajatus takahuoneesta, jota yleisö ei näe. Tällaisessa tilanteessa läpinäkyvyys voi olla myös tahatonta, jos taka- huoneeseen kuuluvat tapahtuvat asiat päätyvätkin yleisön eteen. Tällainen hallitsematon läpinäkyvyys näyttäytyy kontrollin menettämisenä ja häpeänä.

Koivisto (2020) katsoo Goffmanin (1978) kuvaamien mekanismien pätevän myös yksilöä laajempien instituutioiden kohdalla. Myös niillä on tarve ylläpitää tietynlaista imagoa ja kontrolloida sitä, millaista tietoa ne julkaisevat. Kuten aiemmin todettiin, on läpinäkyvyys aina tietoisesti tuotettua. Läpinäkyvyyttä tuottavalla taholla on myös aina pyrkimys näyttäytyä itselleen edullisessa valossa. Lisäksi läpinäkyvyydellä itsellään on vaikutus siihen, miltä paljastettu objekti näyttää. Koivisto (2020) esittää esimerkiksi tilanteen, jossa luottoja myöntävä automaattisesti päätöksiä tekevä algoritmi paljastetaan tietoisesti läpinäkyvyyden nimissä. Reaktio on erilainen kuin tilanteessa, jossa sama

(18)

algoritmi vuodettaisiin tietomurron seurauksena. Vuoto luo mielikuvan siitä, että vuodon kohteena olevalla taholla on jotain salattavaa.

Tekoälyn tapauksessa läpinäkyvyyteen liittyy lisäksi tarkempia kysymyksiä, joita Koivisto (2020) käsittelee: Esimerkiksi miten tämä ihmiskeskeinen läpinäkyvyyden logiikka toimii, jos ihminen ei kaikissa tapauksissa olekaan hallitsemassa informaatiota?

Onko läpinäkyvyys myös automaattisen päätöksenteon kohdalla ihmisen välittämää?

Miten tämä suhteutuu lain vaatimuksiin? Voimmeko katsoa mustan laatikon sisälle, onko se mahdollista, toivottavaa tai riittävää (Ananny ja Crawford, 2018; Mittelstadt ym., 2019)?

Koivisto (2020) lähestyy läpinäkyvyyden ja automaattisen päätöksenteon suhdetta GDPR:n kautta (lainsäädäntöön palataan tarkemmin alaluvussa 4.2). Automaattisen päätöksenteon tapauksessa GDPR velvoittaa rekisterinpitäjän (käytetyistä tiedoista vastaava taho) luovuttamaan rekisteröidylle ne merkitykselliset tiedot, jotka liittyvät henkilötietojen keräämiseen ja henkilötietojen käsittelyyn liittyvään logiikkaan (Koi- visto, 2020). Tämä voi olla tekoälyn käytännön sovellusten yhteydessä ongelmallista (Koivisto, 2020). Koivisto (2020) vertaa ongelmaa ihmisen päätöksentekoon, jossa se, miten lopputulokseen on päädytty (logic of discovery), ei ole selvää. Kuitenkin päätös on mahdollista perustella (logic of justification). Koivisto (2020) tarjoaa esimerkin:

Tuomareiden päätöksiin vaikuttaa tutkitusti se, onko päätös tehty ennen vai jälkeen lounastauon. Vaikka päätökseen johtava logiikka on epäselvä, oletamme tuomareiden osaavan perustella päätöksensä.

Ajatus siitä, että mustan laatikon avaaminen olisi helppo ratkaisu automaattisen päätök- senteon läpinäkyvyyden saavuttamiseksi, voidaan siis Koiviston (2020) mukaan katsoa yksinkertaistukseksi: Läpinäkyvyys tarjoaa "lupauksen"siitä, että voimme nähdä miten asiat ovat ja muuttaa niitä tämän tiedon pohjalta. Tämän lupauksen saavuttaminen vaatii, että päätöksenteon kohde voi saamansa tiedon pohjalta arvioida, onko hän tyytyväinen lopputulokseen, ja tahtooko hän mahdollisesti ihmisen puuttuvan päätökseen. Pelkkä mustan laatikon avaaminen tai läpivalaisu ei välttämättä johda tällaiseen ymmärrykseen.

Tekoälydiskurssissa onkin noussut esiin sellaisia tarkempia käsitteitä kuin selitettävyys, tulkittavuus ja ymmärrettävyys, jotka ilmentävät läpinäkyvyyden puutteita ymmärryksen tuottajana (Koivisto, 2020).

Ananny ja Crawford (2018) erittelevät kymmenen tekoälyn läpinäkyvyyden edistämi- seen liittyvää rajoitetta. Lista sisältää jo käsiteltyjä rajoitteita, kuten läpinäkyvyyden konstruktoidun ja rajoitetun luonteen. Lisäksi Ananny ja Crawford (2018) esittävät, että läpinäkyvyys siirtää uusliberaalin eetoksen mukaisesti toimijuuden ja vastuun

(19)

erilaisten järjestelmien toiminnasta ja päätöksen niiden käytöstä yksilön harteille. Yksi- löillä ei kuitenkaan käytännössä ole mahdollisuuksia tutustua, vertailla ja keskustella eri järjestelmien paremmuudesta. Tämä vaatisi muun muassa eri järjestelmien tarjoa- man informaation symmetriaa, täysin vapaaehtoista osallistumista ja ihmisten täysin rationaalisia valintoja.

Läpinäkyvyydellä on Anannyn ja Crawfordin (2018) mukaan myös temporaalisia rajoitteita. Se, miten ymmärrämme tarkastelun kohteen, riippuu valituista työkaluista ja tarkastelun ajankohdasta. Erityisen selvästi tämä tulee ilmi koneoppimisen yhteydessä, jossa oppimista voi tapahtua jatkuvasti järjestelmän ollessa käytössä. Jos tarkastelemme järjestelmän luotettavuutta ennen sen käyttöä, käytön aikana ja käytön jälkeen, tulokset voivat olla erilaisia. Ananny ja Crawford (2018) lainaavat Minskya (2007): "Jos ymmärrät jotain yhdellä tavalla, niin tuskin ymmärrät sitä laisinkaan"(käännös tutkielman kirjoittajan). Järjestelmän valvominen vaatii sen ymmärtämistä mahdollisimman monesta näkökulmasta.

Ananny ja Crawford (2018) esittävätkin, että huolehdimme järjestelmien vastuullisuu- desta tarkastelemalla niitä sosioteknisinä kokonaisuuksina, joiden monimutkaisuus rakentuu yhdistelemällä ihmisiä ja ei-ihmisiä. Sen sijaan, että keskitymme katsomaan järjestelmän sisälle, meidän tulisi katsoa sen poikki. Esimerkiksi aiemmin mainitut tekoälyrekisterit (City of Amsterdam, 2020; Helsingin kaupunki, 2021b) ilmentävät tällaista lähestymistapaa, jossa tarkastellaan mistä käytetty tieto tulee, ketä päätökset koskevat, miten järjestelmä toimii, mitä riskejä siihen liittyy ja kuka sitä valvoo.

Koivisto (2020) toteaa kuitenkin mustien laatikoiden olevan läsnä kaikessa päätöksen- teossa ja päätöksenteon monimutkaista luonnetta olevan mahdotonta purkaa yksinker- taisiksi askeleiksi, oli kyseessä sitten ihminen tai kone. Pystymme parhaimmillaankin tuottamaan vain kuvauksia päätöksien perustelujen logiikasta, tekoälyn suhteen tämä pätee enenevissä määrin järjestelmien monimutkaistuessa. Tosin Koivisto (2020) myös varoittaa mytologisoimasta tekoälyn toimintaa: tekoäly ei ole sen mustempi laatikko kuin ihmismielikään. Tehtävänä on selvittää sen toiminnasta niin paljon kuin mahdollista (Bucher, 2018). Tässä tutkielmassa tätä haastetta lähestytään seuraavassa alaluvussa esiteltävän selitettävyyden kautta.

2.2 Selitettävyys (explainability) ja XAI

Tekoälyn avulla saavutettuja lopputuloksia voidaan pyrkiä selittämään useilla eri tavoilla.

Wachter ym. (2017) erittelevät näitä lähestymistapoja: Selityksellä ja selitettävyydellä

(20)

voidaan viitata koko järjestelmän toiminnan selittämiseen. Voimme avata millaisia malleja järjestelmä hyödyntää, mitä dataa se hyödyntää, muodostaa päätöspuita tai muita helpommin ymmärrettäviä esitystapoja mallin toiminnasta tai esitellä mahdollisia seurauksia. Toisaalta voimme viitata yksittäisten tulosten selittämiseen eli pyrimme vastaamaan kysymykseen siitä, miksi tietyssä tilanteessa saatiin tietty tulos. Tällaisten selitysten muodostamiseen palataan alaluvussa 2.2.2.

Wachter ym. (2017) esittävät myös tavan jakaa selitykset kahteen ryhmään niiden muodostamisen ajankohdan perusteella. Niin sanottu ex ante -selitys muodostetaan ennen kuin selitettävä päätös tehdään ja näin ollen pystyy selittämään vain järjestelmän yleistä funktionaalisuutta, ei yksittäiseen päätökseen liittyviä tekijöitä. Niin sanottuex post-selitys, joita ehkä yleisemmin tarkoitamme selityksistä puhuttaessa, muodostetaan vasta päätöksen muodostamisen jälkeen. Ex post -selitys voi sisältää sekä tietoja järjestelmän toiminnasta että tietoja yksittäisen päätöksen perusteista. Esimerkiksi aiemmin mainitut Helsingin ja Amsterdamin kaupunkien tekoälyrekisterit edustavaten ante-selitettävyyttä, jossa eritellään järjestelmän toimintalogiikkaa ja muita ennalta määriteltyjä tekijöitä, kuten riskejä ja valvontaa.

Esimerkkinä yksinkertaisestaex post-selityksestä kuvassa 2.1 nähdään YouTuben hyö- dyntämä selitys, joka avaa tekstimuodossa hyödynnetyn suosittelujärjestelmän toimintaa.

YouTube vaikuttaa hyödyntävän tällaisia selityksiä tilanteissa, joissa sen järjestelmä suosittelee käyttäjälle ennestään vieraita kanavia. Selityksellä pyritään todennäköisesti lisäämään ehdotetun sisällön kiinnostavuutta selittämällä käyttäjälle, miksi hänelle suositellaan kyseistä sisältöä. Tässä luvussa esiteltävä tekoälyn selitettävyyttä käsittelevä kirjallisuus keskittyy pääasiassa erilaisten ongelmatilanteiden välttämiseen ja ratkaisuun, mutta esimerkin tavoin selitettävyydestä voi olla myös kaupallista hyötyä.

Kuva 2.1:Esimerkki selityksestä kaupallisessa käytössä

(21)

Tarvetta tekoälyn selitettävyydelle lisäävät usein ihmisille vaikeasti ymmärrettävät lopputulokset, joihin tekoälyn avulla voidaan päästä. Samek ym. (2017) siteeraa Go- asiantuntija Fan Huita tämän todistettua ratkaisevan siirron, jolla AlphaGo otti historial- lisen voiton Go-mestari Lee Sedolista:

"It’s not a human move. I’ve never seen a human play this move."

Go-peliä oli pitkään pidetty monimutkaisuutensa takia suurena haasteena tekoälylle.

Siteerattu reaktio kuvaa hyvin tekoälyn vaikeasti tulkittavaa luonnetta. Pelin aikana asiantuntijoillekin oli epäselvää, miksi AlphaGo päätyi kyseiseen siirtoon, mutta lopulta kyseinen siirto ratkaisi ottelun. Peliesimerkissä ihmiselle vieras strategia ei aiheuta varsinaista haittaa, mutta muissa yhteyksissä ymmärrys voi olla välttämätöntä. Kilpailul- lisessa lautapelissä emme odotakaan vastustajan selittävän siirtojaan, mutta lääkäriltä ei hyväksytä perusteetonta diagnoosia. Samek ym. (2017) listaavat neljä syytä selitettävän tekoälyn tarpeellisuudelle:

1. Järjestelmän toiminnan varmistaminen. Jos järjestelmän käytöllä voi olla merkit- täviä vaikutuksia yksilöiden hyvinvoinnille tai laillisille oikeuksille, emme voi sokeasti luottaa mustan laatikon tarjoamiin tuloksiin. Caruana ym. (2015) esittä- vät tilanteen, jossa järjestelmän käyttöönotto olisi lisännyt kuolemantapauksia:

Järjestelmän tehtävä oli ennakoida sairaalaan saapuvien potilaiden riskiä sairastua keuhkokuumeeseen. Käytetty malli oppi kuitenkin sille syötetystä datasta, että astmaatikoilla ja sydänsairailla potilailla on keskimäärin matalampi riski kuolla keuhkokuumeeseen verrokkeihin nähden. Tosiasiassa tämä tilasto johtuu näiden potilaiden lisätystä seurannasta, sillä he ovat erityisen suuressa riskissä menehtyä keuhkokuumeeseen sairastuessaan. Käytetty malli siis havaitsi korrelaation, mutta ei siihen vaikuttavia tekijöitä. Hyvästä selityksestä tällainen ongelma on kuitenkin havaittavissa asiantuntijan toimesta.

2. Järjestelmän toiminnan parantaminen. Selitysten tarjoama informaatio mahdollis- taa järjestelmien kehittämisen entistä tehokkaammiksi. Lisäksi ne mahdollistavat eri mallien ja arkkitehtuurien vertailun. Usein esimerkiksi eri luokittelijoiden tarkkuudet voivat olla lähes samat, mutta ne voivat antaa eriäviä painotuksia eri muuttujille. Selitysten avulla tällaisessa tilanteessa voidaan valita tilanteeseen sopivin malli.

3. Järjestelmältä oppiminen. Tekoälyjärjestelmät hyödyntävät valtavia datamääriä ja voivat niistä havaita säännönmukaisuuksia, joita ihminen ei pysty hahmottamaan.

(22)

Tällaisten järjestelmien selitettävyys voi mahdollistaa uusien asioiden oppimi- sen, kuten aiemmassa Go-esimerkissä opittu uusi strategia. Myös tieteelliseen tutkimukseen selitettävä tekoäly voi tarjota uusia työkaluja.

4. Lainsäädännön noudattaminen. Tekoälyjärjestelmien yleistyessä tarve niiden sää- telylle on lisääntynyt. Esimerkiksi vastuun määrittäminen virheiden sattuessa on noussut keskustelunaiheeksi. Yksilön oikeuksien takaaminen voi myös vaatia pää- tösten selittämistä päätöksen vastaanottajalle. (Eurooppalaisesta lainsäädännöstä lisää alaluvussa 4.2).

Esitellyistä syistä tekoälyn selitettävyydestä on muodostunut oma tutkimusalansa, josta käytetään usein lyhennettä XAI (eXplainable Artificial Intelligence, usein myös kirjoi- tusasussa XAI). Esimerkiksi Yhdysvaltain asevoimien tutkimusorganisaatio DARPA on rahoittanut runsaasti aiheeseen liittyvää tutkimusta (Gunning & Aha, 2019). Mah- dollisesti kattavimman kuvauksen tutkimusalasta ovat esittäneet Barredo Arrieta ym.

(2020), jotka esittelevät laajasti eri menetelmiä ja käsitteitä, pyrkimyksenään kattava XAI-taksonomia.

Seuraavissa alaluvuissa käsitellään selitettävyyttä ensin monitieteellisestä ja ihmis- läheisestä näkökulmasta, jonka jälkeen esitellään käytännön menetelmiä selityksien muodostamiseen. Sijoitamme selitettävän tekoälyn suhteessa muihin tutkimusaloihin sekä tutustumme tarkemmin siihen, miksi ihmiset vaativat selityksiä ja kuinka niitä sosiaalisessa kanssakäymisessä muodostetaan. Tämän jälkeen esitellään joitakin ehdotet- tuja tapoja tuottaa selityksiä algoritmisesti keskittyen pääasiassa avoimen lähdekoodin Python-kirjastoihin.

2.2.1 Monitieteellinen näkökulma selittämiseen

Selityksiä voidaan muodostaa monella tapaa ja niillä voidaan saavuttaa merkittävää hyötyä niin kehittäjien, tekoälyä valvovien tahojen, kuin käyttäjienkin näkökulmasta.

T. Miller ym. (2017) esittävät, että useimmiten tekoälyn selitettävyyttä kehitettäessä ei hyödynnetä nykyaikaista tieteellistä ymmärrystä siitä, kuinka ihmiset muodostavat ja ymmärtävät selityksiä muissa tilanteissa. Ongelmana on paitsi kehittäjien mahdollisesti todellisuudesta eriävät ajatukset hyvästä selityksestä. Lisäksi kehittäjät ovat luonnolli- sesti tekoälyn asiantuntijoita, mikä voi vaikeuttaa toimivien selitysten muodostamista tiedoiltaan vaihtelevalle käyttäjäkunnalle (T. Miller ym., 2017). T. Miller (2019) jatkaa esittelemällä tätä monitieteellistä lähestymistapaa tekoälyn selitettävyyteen. T. Miller

(23)

(2019) esittelee tärkeimmät selityksiin liittyvät teoriat filosofisen, psykologisen ja kogni- tiotieteellisen kirjallisuuden pohjalta ja yhdistää tätä tietoa tekoälyn tekemien päätösten selittämiseen. Tämä alaluvun tavoitteena on avata tätä näkökulmaa selitettävyyteen.

Kuva 2.2 esittää, kuinka selitettävä tekoäly (XAI) voidaan T. Millerin (2019) mukaan sijoittaa usean tieteenalan risteyskohtaan. Se sisältää elementtejä tekoälyn sekä ihmisen ja tietokoneen vuorovaikutuksen tutkimuksesta ja ihmistieteistä. T. Miller (2019) tiivistää havaintonsa neljään pääkohtaan:

1. Selitykset ovat vertailevia. Selitys muodostetaan usein suhteessa johonkin vastak- kaiseen esimerkkiin (englanniksi käytetään termiäcounterfactual). Ihmiset eivät siis yleensä kysy miksi asia P tapahtui, vaan miksi asia P tapahtui sen sijaan, että olisi tapahtunut asia Q.

2. Selitykset valitaan useiden mahdollisten selitysten joukosta. Valintaan vaikuttavat selittäjän kognitiiviset painotukset ja vinoumat (bias). Ihmiset ovat taipuvaisia valitsemaan tapahtumalle yhdestä kahteen selitystä riippumatta siitä, montako mahdollista syytä asialle on. Selityksen vastaanottaja ei myöskään odota selityksen sisältävän kaikkia mahdollisia syitä tapahtuneelle.

3. Todennäköisyyksillä ei todennäköisesti ole merkitystä (sanaleikki Millerin). Se- litettäessä asiaa ihmiselle, tilastollisten todennäköisyyksien hyödyntäminen on usein epätyydyttävää, ellei siihen liitetä kausaalista selitystä, joka avaa tilastollista yleistystä.

4. Selitykset muodostuvat sosiaalisesti. Tiedon siirtäminen selittämällä tapahtunutta tapahtuu vuorovaikutuksessa. Selityksen muodostamiseen vaikuttavat selittäjän oletukset siitä, mitä selityksen kohde ajattelee tilanteesta tai asioista yleisesti.

Tällaisia oletuksia käytetään valitsemaan selitys, joka todennäköisemmin on selityksen kohteesta ymmärrettävä ja hyväksyttävä.

(24)

Kuva 2.2:XAI:n suhde muihin tutkimus- ja tieteenaloihin (T. Miller, 2019).

Ihmisillä on myös T. Millerin (2019) mukaan monia eri syitä pyytää selitystä jollekin asialle tai tapahtumalle. Ehkä yksinkertaisin on silkka uteliaisuus, mutta selityksiä voidaan kysyä esimerkiksi toisen ymmärryksen testaamiseksi kouluympäristössä. Yksi selitysten keskeinen funktio on mahdollistaa asioiden oppiminen. Selitysten avulla pa- rannamme ymmärrystämme asioista ja ihmisistä ja pystymme muodostamaan asioiden ennakointia helpottavia malleja (Heider, 1982). Wilkenfeld ja Lombrozo (2015) esittävät selittämisen itsessään olevan merkittävässä roolissa oppimisessa. Selitysten muodosta- minen muuttaa käsitystämme väitteen todennäköisyydestä. Myös epäonnistunut yritys selittää jotakin asiaa parantaa Wilkenfeldin ja Lombrozon (2015) mukaan ymmärrystä selityksen kohteesta.

Malle (2006) esittää kaksi pääsyytä ihmisten arkipäiväisille selityksille (tarkoittaen tiettyjen tapahtumien selittämistä sosiaalisessa kanssakäymisessä erotuksena tieteellisten ilmiöiden selittämisestä):

1. Merkitysten löytämiseksi. Selityksien avulla yhteensovitetaan ristiriitaisia tai epäjohdonmukaisia tietomalleja.

(25)

2. Sosiaalisen kanssakäymisen hallitsemiseksi. Selityksillä luodaan jaettua ymmär- rystä selitettävästä asiasta. Lisäksi selityksillä voidaan pyrkiä muuttamaan toisten ihmisten uskomuksia ja vaikutelmia asioista sekä pyrkiä vaikuttamaan toisten tunteisiin ja käytökseen.

Tekoälyn selittämisen kannalta olennaista on usein juuri jaetun ymmärryksen luominen.

Pyrimme luomaan ainakin jollain tasolla yhteisen ymmärryksen järjestelemän tuot- tamasta tuloksesta järjestelmän ja selitystä vastaanottavan ihmisen välille (T. Miller, 2019). Wilkenfeld ja Lombrozo (2015) huomauttavat selityksillä olevan myös muita funktioita, kuten suostuttelu ja syyllisyyden määrittäminen. Lisäksi joissain tilanteissa selittäjän ja selityksen vastaanottajan tavoitteet eriävät. Näin käy esimerkiksi tilan- teessa, jossa selittäjä yrittää taivutella vastaanottavan osapuolen tekemään jotain tai pyörtämään mielipiteensä. T. Miller (2019) liittää tämän ajatuksen tekoälyn päätösten selittämiseen: Voimme nähdä tekoälyn selityksen tavoitteena luottamuksen tuottami- sen. Tällöin suostutteluprosessi tuloksen oikeudellisuudesta voi muodostua selityksen kannalta olennaisemmaksi kuin todellisten syiden välittäminen. Tällaisessa tilantees- sa selittäjän tavoite (luottamuksen muodostaminen) eroaa selityksen vastaanottajan tavoitteesta (päätöksen ymmärtäminen) (T. Miller, 2019). Tässä voidaan nähdä myös mahdollisia ongelmia, joihin palataan tutkielman etiikkaa käsittelevässä alaluvussa 4.1.

T. Millerin (2019) mukaan tiettyyn lopputulokseen johtaneen kausaliteettiketjun esittä- minen ei välttämättä muodosta selitystä, ja Miller esittääkin kausaliteetin ymmärtämisen vain osana tekoälyn selittämistä. Tämä perustuu aiemmin todettuun tekoälyjärjestelmien vaikeaan ymmärrettävyyteen. Johonkin päätökseen johtanut tapahtumien ketju voi olla periaatteessa selvä, mutta se ei tarkoita, että tämän ketjun esittäminen olisi käyttäjälle ymmärrettävä selitys.

T. Miller (2019) esittää selitysten vertailevan luonteen monitieteellisen lähestymistavan keskeisenä antina tekoälyn selitettävyydelle. Ihmisten muodostamia selityksiä käsittele- vän kirjallisuuden mukaan ihmiset pyytävät ainoastaan kontrastiivisia selityksiä, koska täydelliset selitykset olisivat kognitiivisesti liian raskaita käsiteltäväksi. Toisaalta voi- daan myös väittää, että tekoälyn selittämisessä kausaliteettiketjut voivat olla arkielämää hallittavampia tekoälyn toimiessa korkeammalla abstraktion tasolla. Tämä ei kuitenkaan T. Millerin (2019) mukaan poista ihmisten näennäisen luontaista tarvetta vertaileville selityksille, jotka koetaan yleensä paremmiksi ja intuitiivisemmiksi. Tämä selittämisen piirre tuo sekä haasteita että mahdollisuuksia tekoälyn tekemien päätösten selittämiseen.

Haastavaa on haetun kontrastin määrittäminen. Ihmisten hakiessa tällaista selitystä, kont- rasti jätetään usein implisiittiseksi kysymällä vain miksi asia X tapahtui. Lipton (1990) esittää, että tällainen kysymyksenasettelu voidaan ymmärtää tarkoittamaan "Miksi X,

(26)

sen sijaan että ei-X?". Lipton (1990) lisää tosin tällaisen negaation tarkoittavan samaa kuin kaikkien mahdollisten syiden selittäminen, joka edellä todettiin epätoivottavaksi.

Lipton (1990) korostaa, että vertailevan selityksen muodostaminen on lähtökohtaisesti helpompaa kuin täyden kausaliteettiketjun selittäminen, sillä vertailu vaatii vain kahden tapauksen erojen tunnistamisen. Kaikkia syitä ei ole edes tarpeellista tietää, oli kyseessä sitten laskennallinen tai ihmisen tuottama selitys. Haasteen vertailevaan selittämiseen tuo halutun (tai toimivan) vastakkaisen tilanteen määritys. Yksi tapa päätellä mahdollisesti sopiva kontrasti on tunnistaa epänormaalit tapaukset yleisemmistä, "Miksi X, eikä normaali tapaus Y?". T. Miller (2019) käyttää esimerkkinä tilannetta, jossa positiivisen syöpädiagnoosin kohdalla ei kysytäkään miksi diagnoosi ei ollut negatiivinen, vaan tilannetta verrataan yhteen tai useampaan "stereotyyppiseen"negatiiviseen tapaukseen.

Epänormaalien tulosten määrittämisen haastavuus vaihtelee riippuen selitettävästä mallista (T. Miller, 2019). Jos haluttu kontrasti voidaan saada selityksen vastaanottajalta, se toisaalta myös osoittaa mitä kohtaa vastaanottaja ei ymmärtänyt (T. Miller, 2019).

Selitystä muodostettaessa selityksen valintaan vaikuttavat monet tekijät, kuten jo maini- tut kontrastit ja selityksen poikkeaminen normaalista. Hilton ym. (2005) esittävät kaksi akselia, joilla selityksiä voidaan vertailla niitä valittaessa: normaali vs. epänormaali ja tahallinen vs. tahaton. T. Miller (2019) esittää esimerkiksi tilanteen, jossa valitsemme selitystä Challenger-sukkulan räjähdykselle vuonna 1986. Valitsemme todennäköisem- min selitykseksi "sukkulassa oli käytetty viallisia tiivisteitä", kuin "ilmakehässä oli happea"(T. Miller, 2019). Kumpikin kyllä selittää osaltaan räjähdystä, mutta epänormaali tilanne selittää tapahtuman paremmin. Toisaalta merkitystä on myös sillä, oliko kyseessä tietoinen, tahaton vai luonnollinen tapahtuma. Hilton ym. (2005) tutkimuksessa koehen- kilöt valitsivat selityksiä jäisestä tiestä johtuneelle auto-onnettomuudelle. Tahallinen veden levittäminen tielle nähtiin tahatonta tien kastelemista parempana selityksenä, joka puolestaan nähtiin parempana kuin luonnollinen syy eli sateen kastelema tie.

Eri syiden vastuu tietystä tapahtumasta voidaan määrittää myös formaalimmin, mitä voidaan hyödyntää parempien selityksien muodostamisessa (T. Miller, 2019). Chockler ja Halpern (2004) esittävät mallin, jossa syyn C vastuu tapahtumasta E voidaan määrittää muutosten määrällä, jonka tilanne vaatisi, jotta tapahtuma E ei tapahtuisi. Jos N on muutosten minimimäärä, C:n vastuu E:n tapahtumisesta on 1/N+1. Jos N=0, C on täysin vastuussa E:stä. Enemmän tapahtuneesta vastaava syy vaatisi siis vähemmän muutoksia tapahtuman E välttämiseksi. Vaikka kyseinen malli arvioikin lähtökohtaisesti eri syiden vastuuta, sitä voidaan hyödyntää myös arvioitaessa yksilöiden vastuuta ryhmän sisällä.

Gerstenberg ja Lagnado (2010) toteuttivat kokeen, jossa koehenkilöt laskivat ryhmissä kuvan sisältämien kolmioiden määrää. Joukkueiden paremmuus määräytyi kollektiivisen tuloksen perusteella, jonka jälkeen osallistujat arvioivat toisten osallistujien vastuun

(27)

joukkueen tuloksesta. Tutkimuksessa Chocklerin ja Halpernin (2004) esittämä malli oli vertailluista paras ennakoimaan koehenkilöiden arvioita vastuista. Malli ennakoi kilpailijoiden arviot tarkemmin kuin kilpaileva malli, joka ennakoi kilpaijoiden arvioita hyödyntäen tietoa siitä, kuinka tarkasti kilpailijat olivat tosiasiassa vastanneet.

Lipton (1990) esittää selityksen välttämättömyyden olevan selityksen riittävyyttä tär- keämpi: Hyönteislajin siivet kasvavat tietyssä lämpötilassa normaalia pidemmiksi johtuen joko mutaatiosta X tai mutaatiosta Y. Kumpikin mutaatioista on riittävä selitys hyönteisyksilön pidemmille siiville. Tietty lämpötila on kuitenkin välttämätön tämän tapahtuman kannalta, kun taas mutaatioista kumpi vain voi olla vastuussa pidemmistä siivistä. Ihmiset hyväksyvät lämpötilan selitykseksi helpommin tämän välttämättömyy- den takia. Tämä pätee, vaikka tietäisimme kumpi mutaatiosta on tässä tapauksessa aiheuttanut muutoksen fenotyypissä. Woodward (2006) esittää toisaalta ihmisten suo- sivan selityksiä, jotka aikaansaavat selitettävän ilmiön ilman muita syitä. Jos otamme edelliseen esimerkkiin mukaan mutaation Z, joka aiheuttaa pidempien siipien kasvun riippumatta lämpötilasta, ajaisi se selityksenä lämpötilan ja jommankumman muun mutaation yhdistelmän ohi (T. Miller, 2019). Tämän voidaan yhdistää myös ajatukseen yksinkertaisempien selityksien tehokkuudesta (T. Miller, 2019).

Arvioitaessa selityksiä vastaanottajan näkökulmasta voidaan hyödyntää Thagardin (1989) esittämää teoriaa selitysten koherenssista (T. Miller, 2019). Teoria sisältää seitsemän periaatetta siitä, kuinka selitykset liittyvät aiempiin käsityksiin selitettävästä asiasta. Esimerkkinä näistä periaatteista: jos jokin ryhmä ominaisuuksia P selittää ominaisuuden Q on kaikkien ominaisuuksien P oltava koherentteja ominaisuuden Q kanssa. Tarkoittaen, että ihmiset hyväksyvät selityksen helpommin, jos se myötäilee heidän aiempia käsityksiään asiasta. Lisäksi Thagard (1989) esittää yksinkertaisempien eli vähemmän syitä sisältävien selitysten olevan helpommin hyväksyttäviä. Samoin yleispätevämmät (general) eli useampia tapauksia tapahtumia selittävät selitykset hyväksytään helpommin (Thagard, 1989).

Read ja Marcus-Newhall (1993) testasivat Thagardin (1989) esittämiä periaatteita yksin- kertaisista ja yleispätevämmistä selityksistä (T. Miller, 2019). Koeasetelmassa osallistujat arvioivat erilaisille tarinoille muodostettujen erilaisten selityksien todennäköisyyttä ja laatua. Esimerkkitarinassa esiintyi hahmo, jolla oli kolme lääketieteellistä ongelmaa (painonnousu, väsymys, pahoinvointi). Näille tarjottiin kapeita selityksiä (liikunnan lopettaminen painonnousulle, mononukleoosi väsymykselle, vatsatauti pahoinvoinnille), kattavia selityksiä (esimerkissä henkilön raskaus selittäisi kaikki kolme vaivaa) sekä yhdistettyjä selityksiä (kolme yksittäistä syytä yhdistettynä). Periaatteiden mukaisesti osallistujat pitivät yksinkertaisia, vähemmän eri syitä sisältäviä perusteluja parempina (tässä tapauksessa raskaus) kuin monimutkaisempia (kolmen selityksen yhdistelmä).

(28)

Todennäköisyydellä voidaan T. Millerin (2019) mukaan tarkoittaa selitysten kohdalla kahta asiaa: Todennäköisyys voi tarkoittaa sitä todennäköisyyttä, jolla selitys on tosi tai todennäköisyyden hyödyntämisestä selityksen muodostamisessa. Kuten aiemmin todet- tiin, kummallakin on vähemmän merkitystä kuin saattaisimme kuvitella. Tilastollisten todennäköisyyksien käyttäminen itsessään selityksien muodostamisessa ei ole kovin tehokasta, sillä ihmiset haluavat tietää syitä tapahtumille. Esimerkkinä ilmiöstä T. Miller (2019) käyttää opiskelijaa, joka on saanut tentistä vain 50 prosenttia pisteistä ja haluaa tälle selityksen. Se tosiasia, että suurin osa opiskelijoista saavutti saman pistemäärän ei ole erityisen tyydyttävä selitys. Selitys paranee jos siihen voidaan liittää syy sille, miksi suurin osa opiskelijoista sai vain puolet pisteistä. Selitystä vaativan opiskelijan kannalta olisi kuitenkin vielä hyödyllisempää selittää miksi juuri hän sai tämän pistemäärän. Jos tilastollisia yleistyksiä halutaan hyödyntää selityksien muodostamisessa, on tarpeen selittää myös näihin yleistyksiin johtavat syyt (T. Miller, 2019).

Selityksen laatuun vaikuttaa myös se todennäköisyys, jolla annettu selitys on totta (T.

Miller, 2019). Hilton ym. (2005) kuitenkin osoittavat, ettei kaikkein todennäköisin tai

"tosin"selitys ole välttämättä paras. Kaikista todennäköisintä, varmimmin totta, selitystä ei siis kannata esittää parhaana selityksenä (T. Miller, 2019). Esimerkiksi aiemmassa Challenger-esimerkissä hapen läsnäolo ilmakehässä on Hilton ym. (2005) mukaan oletettu (presupposed) eli selittäjä olettaa vastaanottajan jo tietävän asian.

Todennäköisyyksillä on kuitenkin merkitystä, joskin muita esiteltyjä tekijöitä vähemmän (T. Miller, 2019). Lombrozo (2007) testasi todennäköisyyksien merkitystä toistamalla vastaavan kokeen kuin Read ja Marcus-Newhall (1993). Lombrozo (2007) argumentoi koehenkilöiden valinneen yksinkertaisempia syitä useiden syiden yhdistelmien sijaan, koska heillä ei Read ja Marcus-Newhall (1993) kokeessa ollut tietoa eri syiden esiinty- vyyksistä tai todennäköisyyksistä. Lombrozo (2007) testasi tilannetta, jossa erillisille syille (Read ja Marcus-Newhall (1993) esimerkissä mononukleoosi, vatsatauti ja liikun- nan lopettaminen) ilmoitettiin korkeammat todennäköisyydet kuin yksinkertaisemmalle vaihtoehdolle (Read ja Marcus-Newhall (1993) esimerkissä raskaus, joka selittäisi useita oireita). Tämä lisäsi monimutkaisemman selityksen houkuttavuutta koehenkilöi- den silmissä, mutta vain jos nämä todennäköisyydet olivat huomattavasti korkeampia.

Lombrozo (2007) testasi myös vastaavaa tilannetta, jossa erillisten syiden yhdistet- ty todennäköisyys oli laskettu valmiiksi. Tämä kavensi entisestään houkuttavuuseroa yksinkertaisemman ja monimutkaisemman, mutta todennäköisemmän, selityksen välillä.

Lähestyessämme tekoälyn selitettävyyttä ihmisten toisilleen muodostamien selitysten kautta emme voi jättää huomioimatta selittämisen sosiaalista aspektia (T. Miller, 2019). Hilton ym. (2005) kuvaavat kausaalisen selittämisen ennen kaikkea sosiaalisen vuorovaikutuksen muotona, jossa joku selittää jotain jollekulle. Koska selittäminen

(29)

tapahtuu keskustelun muodossa seuraa se myös keskustelun sääntöjä (Hilton ym., 2005). Hilton ym. (2005) jakavat selityksen kahteen vaiheeseen: ensimmäisessä selittäjä diagnosoi syyn selitettävälle tapahtumalle ja toisessa esittää diagnoosinsa tulokset selityksen vastaanottajalle. Jälkimmäinen osa seuraa Hilton ym. (2005) mukaan niin sanottuja Gricen maksiimeja (Grice, 1975) onnistuneelle keskustelulle: laatu, määrä, relevanssi ja tavat. Gricen maksiimit mallintavat ihmisten toimintaa keskustelussa, jolla on yhteinen päämäärä (cooperative conversation). Päämäärä voi olla esimerkiksi tiedon vaihtaminen tai viihtyminen. T. Miller (2019) tiivistää maksiimit karkeasti näin: sano vain mitä uskot, sano vain niin paljon tarpeellista, sano vain se, mikä on relevanttia ja sano nämä asiat miellyttävällä tavalla.

Keskusteluun pohjautuva malli tekoälyn selittämiselle on houkutteleva vaihtoehto useista syistä (T. Miller, 2019). Keskustelu voi T. Millerin (2019) mukaan toimia esitystapana hyvin erilaisille selitettäville asioille, oli kyse sitten ihmisten tai älykkäiden agenttien toiminnoista, tunteista, tapahtumista tai algoritmisista päätöksistä. Vaikka puhummekin keskusteluista, niitä kuvaavat mallit eivät ole riippuvaisia vuorovaikutuksen muodosta (T. Miller, 2019): Tekoälyn tuloksia voi olla helpompi selittää visuaalisessa muodossa ja erilaisten visuaalisten objektien kanssa voi myös vuorovaikuttaa lisätiedon saamiseksi.

Esimerkiksi Gricen maksiimit pätevät myös visualisointien kohdalla. Vuorovaikutteinen selittäminen ratkaisee myös tiettyjä ongelmia, joita pelkkä ilmoitettu selitys voi aiheuttaa.

Esimerkiksi mitä tapahtuu, jos vastaanottaja ei ymmärrä tai hyväksy annettua selitystä?

Kysymysten vastaanottaminen auttaa myös selvittämään mitä vastaanottaja ei ymmärtänyt tai mitä tämä haluaa tietää. Ajatus keskustelupohjaisesta tekoälyn selittämisestä ei ole mitenkään uusi. Esimerkiksi Cawsey (1991) kuvailee järjestelmää, joka selittää dialogin muodossa monimutkaisia asioita. Järjestelmä vastaa kysymyksiin ja muodostaa mallia siitä, mitä asioita vastaanottaja on jo ymmärtänyt.

Monitieteellisellä lähestymistavalla voidaan siis löytää useita eri näkökulmia selitysten muodostamiseen ja arviointiin. Tutkielman analyysiosiossa tarkastellaan AutoML- ratkaisujen muodostamia selityksiä tämän linssin läpi. Seuraavassa alaluvussa esitellään lisäksi joitain toteutettuja tapoja muodostaa selityksiä, jotka pyrkivät vastaamaan ainakin osaan näistä havainnoista.

2.2.2 Selitysten muodostaminen

Tämän alaluvun tavoitteena on luoda katsaus erilaisiin tieteellisissä kirjallisuudessa esiteltyihin tapoihin muodostaa selityksiä tekoälymalleille. Yksittäisten menetelmien lisäksi luodaan yleiskuva eri tavoista muodostaa selityksiä. Esiteltäväksi on valikoitunut tunnetuimpia menetelmiä (LIME, SHAP), sekä kaksi pyrkimystä edellisellä alaluvussa

(30)

esiteltyjen kontrastipohjaisten selitysten muodostamiseen ((van der Waa ym., 2018), (Lakkaraju ym., 2019). Painotus on niin sanotuissa malliagnostisissa menetelmissä, jotka kykenevät selittämään erilaisia koneoppimismalleja. Erilaisia menetelmiä on julkaistu runsaasti (esimerkiksi The Institute for Ethical AI & Machine Learning (2021) tarjoaa päivittyvän kokoelman avoimen lähdekoodin ratkaisuja) ja tähän alalukuun on pyritty valikoimaan niistä myöhemmän analyysin kannalta olennaisimmat.

Mittelstadt ym. (2019) vertaavat suurinta osaa nykyisin kehitetyistä menetelmistä selityksien muodostamiseen tieteelliseen mallintamiseen. Tieteellinen malli kuvaa järjestelmän toimintaa approksimaalisesti ja on hyödyllinen arvioitaessa järjestelmän toimintaa rajatussa tilanteessa tai selitettäessä sen toimintaa opetusmielessä (Mittelstadt ym., 2019). Mittelstadt ym. (2019) antavat esimerkiksi newtonilaisen fysiikan, joka kuvaa fysiikan ilmiöitä riittävällä tarkkuudella normaaliin insinöörityöhön ja on riittävän yksinkertainen opetettavaksi lapsille. Se kuitenkin hajoaa mittakaavan kasvaessa tai pienentyessä liikaa. Tällöin avuksi tarvitaan suhteellisuusteoriaa ja kvanttifysiikkaa, jotka myös itsessään ovat samanlaisia tieteellisiä malleja. Esimerkiksi GPS-järjestelmien tarkka toiminta vaatii yleisen suhteellisuusteorian kuvaamien vaikutusten huomioimista.

Mittelstadt ym. (2019) viittaavat tässä yhteydessä Box:in maksiimiin: "Kaikki mallit ovat väärin, mutta jotkut niistä ovat hyödyllisiä."(Box (1979), käännös kirjoittajan).

Vaikka mallit eivät kuvaa koko järjestelmää, voi niistä olla paljonkin hyötyä. Esimer- kiksi fysiikan tapauksessa yksinkertaistaminen on tarpeellista, eikä yhtenäistä teoriaa ole edes saatavilla. Mittelstadt ym. (2019) katsovat tämän lähestymistavan kuvaavan hyvin myös selityksinä tarjottujen mallien haasteita: Paikallinen approksimoitu malli tekoälyjärjestelmän toiminnasta voi olla hyödyllinen, mutta myös rajallinen. Tällaisen mallin ymmärtäminen ja siihen luottaminen vaatii selityksen vastaanottajalta ymmärrys- tä siitä, missä yhteydessä malli on luotettava, milloin se hajoaa ja milloin sen toiminta on epävarmaa. Jos vastaanottaja ei ymmärrä tällaisen mallin rajoitteita voi koko selitys olla käsittämätön tai pahimmillaan harhaanjohtava.

Mittelstadt ym. (2019) toteavat kuitenkin myös paikallisten selitysten merkittävät hyödyt. Niiden avulla voidaan vastata esimerkiksi sellaisiin kysymyksiin kuin "millainen lopputulos olisi jos data näyttäisikin tältä?"tai muodostaa edellisessä alaluvussa kuvattuja kontrastipohjaisia selityksiä vastaamaan kysymyksiin kuten "Miten voisin muuttaa dataa saadakseni lopputuloksen X?". Mittelstadt ym. (2019) mukaan kehitettäessä tekoälyn selitettävyyttä jätetään yleisesti selvittämättä edellä mainitut rajoitteet, joiden määrittely mahdollistaa selitysten luotettavan hyödyntämisen. Muutoin Mittelstadt ym. (2019) esittävät paikallisten selitysmallien luovan valheellista turvallisuudentunnetta, sillä ne eivät yleensä käyttäydy odotetusti tietyn alueen (domain) ulkopuolella. Ne muodostavat mahdollisesti tarkkojakin paikallisia selityksiä yksittäiselle päätökselle, mutta eivät

(31)

tuota itsessään todisteita selitettävän mallin luotettavuudesta (Mittelstadt ym., 2019).

Seuraavaksi havainnollistetaan paikallisten selitysten hyötyjä ja rajoitteita avaamalla joitain tunnetuimpia menetelmiä niiden muodostamiseen.

Monet esitetyt tavat selityksien muodostamiseen, kuten tunnetut SHAP (Lundberg &

Lee, 2017) ja LIME (Ribeiro ym., 2016), perustuvat selitettävän mallin paikalliseen aproksimointiin hyödyntäen lineaarisia malleja. Lineearinen malli kykenee ilmaisemaan jokaiselle mallin muuttujalle painoarvon (Mittelstadt ym., 2019). Esimerkiksi LIME ja SHAP tuottavat tällaisia lineaarisia malleja, joiden laskemat painoarvot ilmaisevat suoraan miten luokittelijan antama tulos muuttuu tietyn muuttujan arvon vaihdellessa (Mittelstadt ym., 2019). Tarkemmin esiteltävät LIME ja SHAP ovat paitsi esimerkkejä lineaarisiin malleihin perustuvasta selittämisestä, myös suosituimpia menetelmiä esi- merkiksi GitHub-tähtien perusteella (The Institute for Ethical AI & Machine Learning, 2021).

Mittelstadt ym. (2019) esittelevät kahta lineaaristen mallien ongelmaa T. Miller ym.

(2017) esittämällä esimerkillä: Kuvitellaan tilanne, jossa henkilö uskoo niveljalkaisen olevan mehiläinen. Uskomus perustuu siihen, että sillä on kuusi jalkaa ja neljä siipeä.

Jos eläimellä kerrotaan olevan vain kolme siipeä, hänen mielipiteensä tuskin muuttuu (todennäköisesti mehiläinen on menettänyt yhden neljästä siivestään). Jos siipiä onkin vain kaksi hän on voi yhtä hyvin uskoa sen olevan kärpänen. Tämä kuvaa lineearisten mallien ensimmäistä ongelmaa: mallin herkkyys suhteessa muuttujaan voi vaihdella riippuen siitä, kuinka paljon muuttujan arvo muuttuu. Toinen ongelma on muuttujien väliset riippuvuudet, joita lineaarinen malli ei ota huomioon. Niveljalkaisesimerkkiä jatkaen: henkilö uskoo eläimen olevan hämähäkki vain, jos sillä on kahdeksan jalkaa ja ei siipiä. Voidaanko siis sanoa uskomuksen perustuvan jalkojen määrään tai siipien puutteeseen, vai heikosti kumpaankin? Koska lineaarinen malli ei mallinna tällaisia suhteita, riippuu paikallisen mallin toimivuus muuttujien arvoista ja määrittelyalueen (domain) valinnasta.

Yksi tapa vastata ensimmäiseen ongelmaan on esimerkiksi LIME:n (Ribeiro ym., 2016) esittämä lähestymistapa, jossa ongelma binärisoidaan (Mittelstadt ym., 2019).

Tämä lähestymistapa välttää lineaarisen mallin sovittamisen suurelle määrälle arvoja ja sen sijaan muuntaa ongelman binääriseksi kytkemällä muuttujat yksi kerrallaan pois käytöstä (Mittelstadt ym., 2019). Tämä antaa mahdollisuuden vastata kysymykseen, jonka Mittelstadt ym. (2019) muotoilevat näin: "Mikä on piirteenf vaikutus luokittelijan antamaan tulokseen datalla, joka on luokittelijan saatavilla päätöksenteon hetkellä?".

Kuva 2.3 (Ribeiro ym., 2016) havainnollistaa lineaarisen mallin muodostamaa paikallista selitystä. Kuvan sinipunainen tausta kuvaa päätösfunktiota f, joka voidaan ajatella

Viittaukset

LIITTYVÄT TIEDOSTOT

Anna sellainen esimerkki makromuuttujan käyttämisestä 1-suuntaisen varianssianalyysin yhteydessä, jossa makromuuttujan arvoksi annetaan selitettävä muuttuja (datamatriisissasi on

”Mittaa” yksikköaskel näytejonoa käyttämällä mustan laatikon kaskadikytkennän vaste (eli kun ajat yksikköaskel input signaalin järjestelmään, joka koostuu

Kieltolain loppuvuosien ja väkijuomalainsäädännön vakiintumista edeltäneen ajan voidaan siis katsoa olleen hetkiä, jolloin kontrolloivaan alkoholipolitiikkaan

Tämän takia mustan laatikon käyttöjärjestelmä pitäisi oh- jelmoida niin, että se tallentaa tarvittavat tiedot jo ennen moottorin käynnistystä.. Musta

Yksinkertaistettuna kaava (1) siis sanoo, että mustan aukon lämpötila on kääntäen verrannollinen sen massaan, kun taas kaavan (2) mukaan mustan aukon entropia on

Vaikka Suomen laki ei siis ota kantaa siihen, missä lasten paikka ko- din ja koulun ulkopuolella on, voidaan säädösten tulkinnoissa tämä tilapoliittinen ratkaisu

Tekoälykatsastaja: ”Jos tekoäly tekee ihmiseen liittyviä päätöksiä, niin jonkun täytyy katsoa, että se tekee niitä järkiperäisellä tavalla.” (Ait- tokoski 2018.)..

Perusvirityksiltään ohjelman siis voidaan katsoa heijastelevan pitkälti sekä EU:ssa että OECD:ssä omaksuttuja näkemyksiä nykytilanteeseen sopivan talouspolitiikan luon- teesta..