Oikeuskone: Voiko oikeutta laskea? Osa 1

Siina Raskulla
Kirjoittaja on HM ja jatko-opiskelija Tampereen yliopiston Johtamiskorkeakoulussa.

"Inhimillisten rajoitteiden eliminoiminen ajattelusta ja päätöksenteosta onkin tuottanut monia käytännön sovelluksia. Ajattelevat koneet ovat kasvavassa määrin mukana liikenteen ohjaamisessa ja ihmisten kuljettamisessa. Tavoitteena on, että tekoälyn ohjaama liikenne olisi sekä kustannustehokkaampaa että turvallisempaa. Tekoäly kykenee laskemaan liikeratoja, bensiininkulutusta, sekä tunnistamaan ja havaitsemaan liikkuvia kohteita ilman inhimillisiä rajoituksia. Mitkä ovat tekoälyn potentiaalit viranomaisessa ja oikeuslaitoksessa, kuten Kansaneläkelaitoksessa tai tuomioistuimessa?"

Alustus! Kesällä 2017 Kansaneläkelaitos lanseerasi verkossa toimivan tekoälypohjaisen asumistukineuvonnan opiskelijoille. Tekoäly on saapunut julkiseen hallintoon!

Tekoäly, artifical intelligence, AI… Itseohjautuvat, itseajattelevat, ja itsensä tiedostavat koneet ovat vuosikymmeniä olleet scifi-elokuvien ja –kirjojen tuttuja hahmoja.

Tekoälyä edustavista persoonista unohtumattomin lienee HAL 9000, joka esiintyi Stanley Kubrickin ohjaamasta Avaruusseikkailu 2001:ssä. HAL 9000 on tekoäly, jolla on pehmeä ääni sekä vakaa aikomus tappaa avaruusaluksen miehistö.

Tekoäly tarkoittaa yleensä tietotekniikkaa, joka pyrkii imitoimaan ihmisten älyllistä toimintaa. Älyllisessä toiminnassa ovat mukana ovat myös tunteet sekä jonkinasteinen tietoisuus. Koneajattelu on toinen tekoälyn sovellus. Se pyrkii olemaan jollain tavalla parempaa kuin inhimillinen ajattelu.

Inhimillisten rajoitteiden eliminoiminen ajattelusta ja päätöksenteosta onkin tuottanut monia käytännön sovelluksia. Ajattelevat koneet ovat kasvavassa määrin mukana liikenteen ohjaamisessa ja ihmisten kuljettamisessa. Tavoitteena on, että tekoälyn ohjaama liikenne olisi sekä kustannustehokkaampaa että turvallisempaa. Tekoäly kykenee laskemaan liikeratoja, bensiininkulutusta, sekä tunnistamaan ja havaitsemaan liikkuvia kohteita ilman inhimillisiä rajoituksia. (Kunhan ohjelmoimme ne ensin tunnustamaan hyppien kulkevat kengurutkin liikkuviksi kohteiksi…) Tässä apuna ovat jossain määrin itseoppivat koneet, joiden kapasiteetti ei rajoitu siihen, mitä ihminen on koneen toimintamalleihin koodannut.

Tekoälyn tuottamat uhkakuvat liittyvät toisaalta juuri tähän rajattomaan itsekehitykseen, jossa ihmiset menettävät kyvyn ymmärtää ja kontrolloida koneiden tekemiä päätöksiä. Erityisen suurena riskinä nähdään koneiden saavuttama tietoisuus, josta muun muassa kuuluisa professori Stephen Hawking on kollegoidensa kanssa ihmisiä varoittanut (Hawking et al. 2014).

Sivuutetaan hetkeksi nämä tekoälyyn liittyvät apokalyptiset uhkakuvat, jotka povaavat ihmiskunnan tuhoa, ja ihmisruumiiden lämmöntuotannon valjastamista koneiden energiantarpeisiin (kaikki muistanevat Matrixin). Mitkä ovat tekoälyn potentiaalit viranomaisessa ja oikeuslaitoksessa, kuten Kansaneläkelaitoksessa tai tuomioistuimessa?

Millainen olisi oikeuskone?

Tuomioistuimet ja viranomaiset tekevät ratkaisuja, jotka koskevat yksilön oikeuksia. Tällaisia ratkaisuja ovat esimerkiksi päätös asumistuen saamisesta, vahingon korvaamisesta tai rikoksen johdosta annettavan rangaistuksen suorittamisesta.

Oli kysymyksessä sitten rikosoikeuden, sosiaaliturvaa koskevan lainsäädännön tai vahingonkorvausoikeuden soveltaminen, varsinainen päätöksentekoprosessi ei ole kovin monimutkainen: Oikeudellinen päätöksenteko on nimittäin luonteeltaan formaalis-deduktiivista.

Oikeusratkaisujen tekemiseen liittyviä sääntöjä on kahdenlaisia, jotka heijastavat Aulis Aarnion mukaan kahdenlaista rationaalisuutta, L-rationaalisuutta sekä D-rationaalisuutta, jotka on liitetty oikeudellisten ratkaisujen tekemiseen (Aarnio 1987, 189-191). L-rationaalisuus viittaa ”loogiseen (deduktiiviseen) päättelyyn”, joka ”on aina rationaalista”. Päätöksenteko pyrkii lineaarisuuteen ja johdonmukaisuuteen, ja kyetään esittämään symbolien ja operaattorien kautta, esim.

jos y ja x -------> z,

jossa y ja x voivat viitata tosiasioihin ja lainsäädännössä säädettyihin tunnusmerkkeihin, ja z siitä määrättyyn hyvitykseen tai sanktioon.

Esimerkiksi jos voidaan osoittaa, että olen varastanut kaupasta suklaapatukan, Suomen rikoslain (39/1889) 1 §:n mukaan olen syyllistynyt varkauteen ja minut on tuomittava sakkoon tai vankeuteen enintään yhdeksi vuodeksi kuudeksi kuukaudeksi. D-rationaalisuus viittaa ”ei ainoastaan perustelun muotoon, vaan diskursiiviseen prosessiin, johon pätevät muut kuin logiikan säännöt”. D-rationaalisuus viittaa oikeuden ulkopuolisiin oikeutuslähteisiin, joiksi Aarnio tunnistaa päätöksenteon johdonmukaisuuden, tehokkuuden, yhdenmukaisuuden, yleistettävyyden, sekä vilpittömyyden (Aarnio 1987, 195).

Esimerkiksi tuomioistuimen päätös siitä, kuinka paljon tarkalleen juuri minä saisin, ja nimenomaan suklaapatukan varastamisesta sakkoa tai vankeutta, kun sitä ei laissa ole määritelty, olisi oltava johdonmukaisesti pääteltävissä aiemman oikeuskäytännön kautta, ja yleistettävissä muihin vastaaviin tapauksiin.

Pärstäkertoimen ei sovi ratkaista sitä, paljonko minun on lain rikkomisesta kärsittävä. Edelleen oikeuden ratkaisun hyväksyttävyys nojaa päätöksenteon prosessiin ja sen heijastamaan rationaalisuuteen, eikä niinkään sen sisällölliseen hyväksyttävyyteen. Oikeus- tai viranomaisprosessin kautta syntynyt oikeusratkaisu saattaa vaikuttaa järjenvastaiselta tai epäoikeudenmukaiselta tavallisen kansalaisen näkökulmasta. Syy on tällöin kuitenkin ”premisseissä”, eli oikeusnormeissa, ei itse päätöksentekoprosessia ohjaavissa säännöissä. Tyytymättömyys ratkaisuun kanavoituu oikeusnormien sisältöä muovaavan päätöksenteon kautta myöhempiin ratkaisuihin. Sen sijaan oikeudellisten ratkaisujen logiikka ja oikeusratkaisujen laatimisprosessi säilyvät koskemattomina. Tämä näyttää ideaalilta toimintaympäristöltä tekoälypohjaiselle päätöksenteolle L-rationaalisuuden ja D-rationaalisuuden näkökulmasta.

Oikeus- ja viranomaisratkaisujen tekemisessä ei lähtökohtaisesti ole kysymys varsinaisesti ongelmien ratkaisemisesta, joka edellyttäisi jonkinlaista luovuutta, vaan ainoastaan tapausten ratkaisemisesta olemassa olevien oikeusnormien tai viranomaissääntöjen mukaan sen mukaan mitkä ovat esitetyt tosiasiat ja todistusaineisto.

Todistusaineisto voitaisiin syöttää koneeseen sopivassa muodossa: tekstinä, äänitiedostoina, kuvina ja videoina, jotka tämä ”oikeuskone” sitten analysoi ja tulkitsee. Tai jos kone on Skynet-tyyppisesti linkitetty muihin datalähteisiin, kuten satelliitteihin, valvontakameroihin, pankkitileihin, ja puhelimiin, se saa tarvitsemansa tiedot automaattisesti. Päätöksenteko perustuu voimassaoleviin normeihin ja relevantteihin, varmistettuihin tosiasioihin. Oikeustapausten ratkaisua koskevien sääntöjen avulla voi laatia algoritmin oikeuskoneelle, joka laskee oikeusratkaisut, kuten asumistuen määrän, tai vahingonkorvauksen suuruuden. Mutta mitä lisäarvoa tällainen ”oikeuskone” tuottaisi?

Yhdenmukaisuuden ideaali ja koneajattelun hyödyt

Pääasiallisesti oikeudellisten ratkaisujen tekeminen tapahtuu niin sanotun tavallisen lainsäädännön tasolla (Raitio 2006, 31-25). Suomen perustuslakiin (731/1999) on kuitenkin sisällytetty eräitä koherenssia, eli sisäistä johdonmukaisuutta vahvistavia tai ylläpitäviä periaatteita, kuten 106 §, ”Jos tuomioistuimen käsiteltävänä olevassa asiassa lain säännöksen soveltaminen olisi ilmeisessä ristiriidassa perustuslain kanssa, tuomioistuimen on annettava etusija perustuslain säännökselle”. sekä 1 §:n 2 momentti, ja 22 §, jotka yleisesti linjaavat, että oikeuskäytännössä on noudatettava kansainvälisiä ja eurooppalaisia ihmisoikeuksia.

Eri- ja saman tasoisten normien välisten ristiriitojen ratkaisemiseksi ja aukkojen täyttämiseksi on kehitetty erilaisia tulkintaperiaatteita, joiden mukaan ylempiasteinen normi, erityisnormi ja myöhemmin toimeenpantu normi saavat etusijan muihin normeihin nähden. Lisäksi on olemassa oikeusperiaatteita oikeudellisiin lähteisiin viittaamisessa, mukaan lukien aiemmat ratkaisut. Nämä periaatteet määrittelevät lainsäätäjälle eräänlaiset ”vakaat preferenssit”. Samanlainen tuomio samanlaisessa tapauksessa –sääntö ilmaisee yhdenmukaisuuden periaatteen, joka nähdään keskeisenä oikeusturvan toteutumisen näkökulmasta. Suuren sääntely- ja oikeusmassan, sekä ennakkotapausten ja todistusaineiston parissa yhdenmukainen lainsoveltaminen on kuitenkin vaikeaa.

Erityisesti tapauksissa, joissa tosiasioiden tunnistaminen, todistusaineiston läpikäyminen, sekä relevanttien lainkohtien ja oikeustapausten löytäminen vaatii merkittävän datamäärän läpikäyntiä, koneet pystyisivät tuottamaan ihmisiä johdonmukaisempaa ratkaisukäytäntöä. Ja jos ajatus konemaisesta tuomarista ei kuulosta ensi alkuun hyvältä, mietitäänpä hetki esimerkiksi sitä, miten käsiteltävää lainsäädäntöä sekä relevanttia todistusaineistoa saattaa olla tuhansia sivuja: lainsäädäntöä, aiemmat ratkaisut, sekä todistusaineisto, erityisesti erilainen numeerinen materiaali, kuten kirjanpito, tiliotteet, tositteet, ja niin edelleen... Miten inhimillinen tuomari käsittelee tämän kaiken aineiston? Eikö kone tekisi sen paremmin?

Tekoälyä voitaisiin hyödyntää tosiasioiden tunnistamisessa ja vaikkapa markkinoiden valvonnassa. Esimerkiksi kilpailuoikeudessa Euroopan unionin oikeuden mukaan määräävän markkina-aseman omaaminen ei ole kilpailuoikeuden vastaista per se. Ainoastaan tällaisen aseman väärinkäyttö on. Järjestelmä voitaisiin automatisoida, aivan kuten nykyinen nopeusvalvonta. Tekoäly tarkkailee markkinoita ja häiriöt huomatessaan lähettää kieltomääräyksen, jossa vaaditaan markkinoiden toimintaa vääristävän toiminnan lopettaminen. Tällaisen algoritmin laatiminen olisi jo hieman monimutkaisempaa johtuen siitä, että lainsäädännöllä ja oikeusratkaisuilla haetaan vaikuttavuutta jossain määrin ennustettavuuden kustannuksella. Mutta sitä paremmalla syyllä inhimillisistä puutteista johtuvat epäoikeudenmukaisuudet olisi syytä ehkäistä.

D-rationaalisuus ja tekoälyn prosessuaalinen lisäarvo: Ei enää ”nälkäisiä tuomareita”?

Ongelma nimenomaan D-rationaalisuuden näkökulmasta on, että kaikesta koulutuksesta ja prosessisäännöistä huolimatta tuomareiden ja viranomaisten oikeuskäytäntö ei ole välttämättä edes yksilötasolla johdonmukaista.

Ihanteellinen tuomari tai viranomainen on kuin kone: hän ei anna väsymyksen, eikä omien tunteidensa, mieltymystensä, ja näkemystensä vaikuttaa laintulkintaan suhteessa tosiasioihin. Ihminen ei kuitenkaan ole kone. Kuten Aarniokin on huomauttanut, ihmiset ovat monin tavoin inhimillisiä olentoja, jotka on varustettu monilla irrationaalisilla piirteillä (Aarnio 1987, 193). Tutkimuksissakin on todettu, miten tuomarit antavat ruokatauon jälkeen lievempiä rangaistuksia (ks. Danzier et al. 2011). Ja vaikka ”nälkäisen tuomarin” ilmiön laajuudesta on kiistaa, selvää on, ettei tuomarien päätöksenteko ole täysin rationaalista (ks. Glöckner 2016). Tämä irrationaalisuus heikentää oikeusjärjestelmän integriteettiä.

Kenenkään ei tietenkään voi olettaa olevan tyytyväinen itselleen epäedulliseen oikeusratkaisuun. Mutta jos inhimillisen virheen tai mielivallan mahdollisuus, ainakin yksittäisten ratkaisujen tasolla, pyyhitään pois, tuntisivatko he jotka ovat hävinneet oikeustapauksen, vähemmän vihaa? Silloinkin, jos virhe ohjelmoinnissa tuottaa virheellisiä tuloksia, virhe on ensinnäkin korjattavissa oleva, ja samalla tavoin korvattavissa kuin nykyisetkin virheet. Mutta erona nykytilanteeseen on, että ainakin ohjelmointivirhe olisi systemaattinen, eikä siten kohdistettu yksittäisiin henkilöihin ”pärstäkertoimen” tai muiden satunnaisten tekijöiden perusteella.

Niin oikeusturvan kuin yhdenmukaisuuden näkökulmasta oikeuskone apuvälineenä yksinkertaisten viranomaisratkaisujen, kuten asumistukipäätösten, ripeässä tuottamisessa näyttäytyy suurimpana potentiaalina tekoälyn soveltamisessa oikeusratkaisujen tekemisessä. Nämä ovat myös sellaisia ratkaisuja joilla on yksilöiden itsensä kannalta suurin merkitys, mutta yhteiskunnan näkökulmasta niihin liittyy hyvin vähän riskejä. Nimenomaan tähän suuntaan suomalainen julkinen hallinto näyttää ottaneen ensimmäisiä askeleitaan.

Suomen ensi askeleet kohti kyberhallintoa?

Työ- ja elinkeinoministeriön tiedotteen mukaan elinkeinoministeri Mika Lintilä on 18.5.2017 asettanut ohjausryhmän valmistelemaan ehdotusta Suomen tekoälyohjelmaksi. Ministeri toteaa, että tekoäly on noussut digitalisaation keskiöön ja Suomi aikoo hallitusohjelman mukaisesti olla tämän kehityksen kärjessä.

Tavoitteena on elinkeinoministeri Lintilän mukaan ”olla maailman kärkimaita tekoälyn soveltamisessa ja työnteon uudistamisessa”. Elinkeinoministeriö lupaa, että tekoäly tuo uusia ja parempia palveluita kansalaisille. (Työ- ja elinkeinoministeriö 2017.) Jutun alussa mainittu KELA:n asumistukiasioissa neuvova chatrobotti on askel kohti yhdenmukaista neuvontaa viranomaisasioissa, ja siten kohti vahvempaa oikeusvarmuutta ja yhdenvertaista kohtelua. Ehkä oikeuskonekaan ei yksinkertaisimmassa muodossaan ole niin kaukana.

Käytännön toteutukseen liittyy kuitenkin edelleen paljon kysymyksiä. Tekoälyohjelmalla voidaan hakea palveluiden parantamisen lisäksi innovaatioita, ja sitä kautta säästöjä ja talouskasvua. Tähän viittaa erityisesti työ- ja elinkeinoministerin linjaus, jonka mukaan ”Suomen tulee hyödyntää tehokkaasti rajallisia resurssejaan tekoälyn soveltamisessa mm. terveyteen ja hyvinvointiin, liikenteeseen, energiaan ja valmistavaan teollisuuteen liittyvillä sovellusalueilla”.

On syytä miettiä, riittääkö tahtotilan lisäksi ministeriön tietotaito tähän urakkaan, kun esimerkiksi integroidun potilastietojärjestelmän kehittämisessä on kohdattu merkittäviä haasteita. Ostopalveluina ulkopuolisilta liiketoiminnan periaatteiden mukaan toimivalta tuottajilta ostetut koodinpätkät saattavat osoittautua yllättävän kalliiksi, ja suurista hankkeista on toistaiseksi vielä vähän osoitettavissa kansalaisille syntyneitä hyötyjä. Käytännön haasteet ja digitalisaation tavoitteet ja vaikutukset saattavat koetella kansalaisten uskoa julkisen hallinnon legitimiteettiin.

Lähteet

Aarnio, Aulis (1987). The Rational as Reasonable. A Treatise on Legal Justification. Dordrecht.

Danziger, Shai, Jonathan Levav & Liora Avnaim-Pesso (2011). ’Extraneous factors in judicial decisions.’ Proceedings of the National Academy of Sciences of the United States of America Vol. 108 No. 17, 6889-6892. April 26, 2011.

EU (2014). Directive 2014/57/EU of the European Parliament and of the Council of 16 April 2014 on criminal sanctions for market abuse (market abuse directive). Official Journal of the European Union 173, 12.6.2014, 179–189.

Hawking, Stephen, Stuart Russell, Max Tegmark & Frank Wilczek (2014). Stephen Hawking: ‘Transcendence looks at the implications of artificial intelligence: Are we taking AI seriously enough?’. Independent 1.5.2014. (6.7.2017)

Junninen, Mika (2004). Oikeusviranomaisia uhkaillaan ja painotetaan. Haaste 4/2005.

Lindberg, Rainer (2015). Onko taloudellisilla vaikutuksilla merkitystä kilpailuoikeudessa – missä mennään juuri nyt? Defencor Legis N.o 6/2015, 985-1003.

Raitio, Juha (2006). Eurooppaoikeus ja sisämarkkinat. Talentum: Helsinki.

Työ- ja elinkeinoministeriö (2017). Ministeri Lintilä: Suomesta tekoälyn soveltamisen kärkimaa. Työ- ja elinkeinoministeriön tiedote 18.5.2017.

Glöckner, Andreas (2016). The irrational hungry judge effect revisited: Simulations reveal that the magnitude of the effect is overestimated. Judgment and Decision Making, Vol. 11, No. 6, November 2016, 601-610.