• Ei tuloksia

Läpinäkyvyyden ongelmat

1.3 Mitä on tekoäly?

2.1.2 Läpinäkyvyyden ongelmat

Vaikka läpinäkyvyyden lisääminen on usein peräänkuulutettu tapa ehkäistä tekoälyn hyödyntämiseen liitettyjä ongelmia, se ei työkaluna ole yksinkertainen tai ongelmaton (Larsson & Heintz, 2020). Ida Koivisto on tarkastellut läpinäkyvyyttä kriittisellä otteella

niin yleisestä yhteiskunnallisesta (Koivisto, 2016) kuin automaattisen päätöksenteon (Koivisto, 2020) näkökulmasta.

Koivisto (2016) esittää, että läpinäkyvyys on noussut varsinkin hallinnollisissa yhteyk-sissä itseisarvoiseen asemaan. Läpinäkyvyydestä on tullut itsestään selvä lähestymistapa yhteiskunnan ja sen organisaatioiden toimintaan ilman riittävää kritiikkiä ja tarkastelua.

Toisaalta läpinäkyvyys lupaa paljastaa hallinnon paljaan ytimen, jos vain esteet poiste-taan läpinäkyvyyden tieltä. Toisaalta läpinäkyvyys nojaa tietoisesti konstruktoituihin viestinnän välineisiin, kuten kuviin, tilastoihin, raportteihin ja visualisointeihin. Koivisto (2016) argumentoi täydellisen läpinäkyvyyden olevan mahdotonta, eikä oikeastaan edes toivottavaa.

Läpinäkyvyys kielellisenä metaforana kiinnittyy Koiviston (2016) mukaan läpinäkyvyy-teen fyysisenä ominaisuutena. Osin läpinäkyvyys onkin sekä suoraa ja kirjaimellista näkyvillä olemista (lasiseinä, verkkoon striimattu kokous) että näkyväksi tekemistä (pää-tösten perustelu, dokumenttien julkaisu). Näkeminen ei kuitenkaan Koiviston mukaan tarkoita ymmärrystä, vaikka ajattelussamme nämä kaksi linkittyvätkin yhteen. Lisäksi myös kirjaimellinen näkyvyys, ikkuna tarkasteltavaan asiaan, on tehtävä mahdolliseksi eli konstruktoitava kuten muukin läpinäkyvyys. Koivisto (2016) kuvaa läpinäkyvyyttä Baudrillardin hyperreality-käsitteen kautta. Media, jolla läpinäkyvyyttä luodaan paitsi esittää, myös luo osan esitettävästä objektista. Emme siis näe ainoastaan näkyviksi tehtyjä asioita, vaan myös läpinäkyvyyden itsensä. Baudrillardia (1994) mukaillen todellisuus ja sen simulaatio kietoutuvat yhteen ja niiden erottaminen toisistaan muuttuu mahdottomaksi.

Sosiologi Ervinn Goffman (1978) kuvaa sosiaalista elämäämme performanssina, johon kuuluu ajatus lavasta, jolla ikään kuin esitämme itseämme ja valitsemme millaiset kasvot paljastamme muille. Vastaavasti tähän teatterivertaukseen kuuluu ajatus takahuoneesta, jota yleisö ei näe. Tällaisessa tilanteessa läpinäkyvyys voi olla myös tahatonta, jos taka-huoneeseen kuuluvat tapahtuvat asiat päätyvätkin yleisön eteen. Tällainen hallitsematon läpinäkyvyys näyttäytyy kontrollin menettämisenä ja häpeänä.

Koivisto (2020) katsoo Goffmanin (1978) kuvaamien mekanismien pätevän myös yksilöä laajempien instituutioiden kohdalla. Myös niillä on tarve ylläpitää tietynlaista imagoa ja kontrolloida sitä, millaista tietoa ne julkaisevat. Kuten aiemmin todettiin, on läpinäkyvyys aina tietoisesti tuotettua. Läpinäkyvyyttä tuottavalla taholla on myös aina pyrkimys näyttäytyä itselleen edullisessa valossa. Lisäksi läpinäkyvyydellä itsellään on vaikutus siihen, miltä paljastettu objekti näyttää. Koivisto (2020) esittää esimerkiksi tilanteen, jossa luottoja myöntävä automaattisesti päätöksiä tekevä algoritmi paljastetaan tietoisesti läpinäkyvyyden nimissä. Reaktio on erilainen kuin tilanteessa, jossa sama

algoritmi vuodettaisiin tietomurron seurauksena. Vuoto luo mielikuvan siitä, että vuodon kohteena olevalla taholla on jotain salattavaa.

Tekoälyn tapauksessa läpinäkyvyyteen liittyy lisäksi tarkempia kysymyksiä, joita Koivisto (2020) käsittelee: Esimerkiksi miten tämä ihmiskeskeinen läpinäkyvyyden logiikka toimii, jos ihminen ei kaikissa tapauksissa olekaan hallitsemassa informaatiota?

Onko läpinäkyvyys myös automaattisen päätöksenteon kohdalla ihmisen välittämää?

Miten tämä suhteutuu lain vaatimuksiin? Voimmeko katsoa mustan laatikon sisälle, onko se mahdollista, toivottavaa tai riittävää (Ananny ja Crawford, 2018; Mittelstadt ym., 2019)?

Koivisto (2020) lähestyy läpinäkyvyyden ja automaattisen päätöksenteon suhdetta GDPR:n kautta (lainsäädäntöön palataan tarkemmin alaluvussa 4.2). Automaattisen päätöksenteon tapauksessa GDPR velvoittaa rekisterinpitäjän (käytetyistä tiedoista vastaava taho) luovuttamaan rekisteröidylle ne merkitykselliset tiedot, jotka liittyvät henkilötietojen keräämiseen ja henkilötietojen käsittelyyn liittyvään logiikkaan (Koi-visto, 2020). Tämä voi olla tekoälyn käytännön sovellusten yhteydessä ongelmallista (Koivisto, 2020). Koivisto (2020) vertaa ongelmaa ihmisen päätöksentekoon, jossa se, miten lopputulokseen on päädytty (logic of discovery), ei ole selvää. Kuitenkin päätös on mahdollista perustella (logic of justification). Koivisto (2020) tarjoaa esimerkin:

Tuomareiden päätöksiin vaikuttaa tutkitusti se, onko päätös tehty ennen vai jälkeen lounastauon. Vaikka päätökseen johtava logiikka on epäselvä, oletamme tuomareiden osaavan perustella päätöksensä.

Ajatus siitä, että mustan laatikon avaaminen olisi helppo ratkaisu automaattisen päätök-senteon läpinäkyvyyden saavuttamiseksi, voidaan siis Koiviston (2020) mukaan katsoa yksinkertaistukseksi: Läpinäkyvyys tarjoaa "lupauksen"siitä, että voimme nähdä miten asiat ovat ja muuttaa niitä tämän tiedon pohjalta. Tämän lupauksen saavuttaminen vaatii, että päätöksenteon kohde voi saamansa tiedon pohjalta arvioida, onko hän tyytyväinen lopputulokseen, ja tahtooko hän mahdollisesti ihmisen puuttuvan päätökseen. Pelkkä mustan laatikon avaaminen tai läpivalaisu ei välttämättä johda tällaiseen ymmärrykseen.

Tekoälydiskurssissa onkin noussut esiin sellaisia tarkempia käsitteitä kuin selitettävyys, tulkittavuus ja ymmärrettävyys, jotka ilmentävät läpinäkyvyyden puutteita ymmärryksen tuottajana (Koivisto, 2020).

Ananny ja Crawford (2018) erittelevät kymmenen tekoälyn läpinäkyvyyden edistämi-seen liittyvää rajoitetta. Lista sisältää jo käsiteltyjä rajoitteita, kuten läpinäkyvyyden konstruktoidun ja rajoitetun luonteen. Lisäksi Ananny ja Crawford (2018) esittävät, että läpinäkyvyys siirtää uusliberaalin eetoksen mukaisesti toimijuuden ja vastuun

erilaisten järjestelmien toiminnasta ja päätöksen niiden käytöstä yksilön harteille. Yksi-löillä ei kuitenkaan käytännössä ole mahdollisuuksia tutustua, vertailla ja keskustella eri järjestelmien paremmuudesta. Tämä vaatisi muun muassa eri järjestelmien tarjoa-man informaation symmetriaa, täysin vapaaehtoista osallistumista ja ihmisten täysin rationaalisia valintoja.

Läpinäkyvyydellä on Anannyn ja Crawfordin (2018) mukaan myös temporaalisia rajoitteita. Se, miten ymmärrämme tarkastelun kohteen, riippuu valituista työkaluista ja tarkastelun ajankohdasta. Erityisen selvästi tämä tulee ilmi koneoppimisen yhteydessä, jossa oppimista voi tapahtua jatkuvasti järjestelmän ollessa käytössä. Jos tarkastelemme järjestelmän luotettavuutta ennen sen käyttöä, käytön aikana ja käytön jälkeen, tulokset voivat olla erilaisia. Ananny ja Crawford (2018) lainaavat Minskya (2007): "Jos ymmärrät jotain yhdellä tavalla, niin tuskin ymmärrät sitä laisinkaan"(käännös tutkielman kirjoittajan). Järjestelmän valvominen vaatii sen ymmärtämistä mahdollisimman monesta näkökulmasta.

Ananny ja Crawford (2018) esittävätkin, että huolehdimme järjestelmien vastuullisuu-desta tarkastelemalla niitä sosioteknisinä kokonaisuuksina, joiden monimutkaisuus rakentuu yhdistelemällä ihmisiä ja ei-ihmisiä. Sen sijaan, että keskitymme katsomaan järjestelmän sisälle, meidän tulisi katsoa sen poikki. Esimerkiksi aiemmin mainitut tekoälyrekisterit (City of Amsterdam, 2020; Helsingin kaupunki, 2021b) ilmentävät tällaista lähestymistapaa, jossa tarkastellaan mistä käytetty tieto tulee, ketä päätökset koskevat, miten järjestelmä toimii, mitä riskejä siihen liittyy ja kuka sitä valvoo.

Koivisto (2020) toteaa kuitenkin mustien laatikoiden olevan läsnä kaikessa päätöksen-teossa ja päätöksenteon monimutkaista luonnetta olevan mahdotonta purkaa yksinker-taisiksi askeleiksi, oli kyseessä sitten ihminen tai kone. Pystymme parhaimmillaankin tuottamaan vain kuvauksia päätöksien perustelujen logiikasta, tekoälyn suhteen tämä pätee enenevissä määrin järjestelmien monimutkaistuessa. Tosin Koivisto (2020) myös varoittaa mytologisoimasta tekoälyn toimintaa: tekoäly ei ole sen mustempi laatikko kuin ihmismielikään. Tehtävänä on selvittää sen toiminnasta niin paljon kuin mahdollista (Bucher, 2018). Tässä tutkielmassa tätä haastetta lähestytään seuraavassa alaluvussa esiteltävän selitettävyyden kautta.