Voinko luottaa tekoälyyn?

Kirjoittaja Kirsi Louhelainen 12.10.2017

two_sides.jpgIso kysymys tekoälyn yleistyessä on “voinko luottaa koneeseen”? 

Mitä monimutkaisemmiksi algoritmit käyvät, sen vähemmän niiden toiminnasta ymmärrämme. Koneella ei ole sosiaalista painetta tai empatiakykyä, ja kun sen reaktioita ei voi nähdä, luottamuksen ansaitseminen voi olla hankalaa.

Luotamme jo nyt päätöksiin, joita monet ihmiset tekevät. Luotamme ihmisiin, jotka ovat toistuvasti osoittaneet kykenevänsä tekemään fiksuja päätöksiä. Toisiin luotamme sosiaalisen koheesion ansiosta -  muutkin luottavat häneen -  tai koska heillä on asema tai koulutus, joka herättää luottamusta.

Kun arvioimme luottamustamme päätökseen, meille on tärkeää, että voimme kysyä sen tekijältä, miksi näin? Miksi päädyit tähän ratkaisuun? Aina ihminen ei itsekään tiedä, mikä lopulta sai tekemään tietyn valinnan; moni meistä keksii loogisen kuuloisia syitä päätöksilleen tavallaan jälkikäteen. Päätöksiä saatetaan tehdä täysin alitajuisiin vinoumiin perustuen.

Voiko robottiin luottaa?

Kun kone tekee päätöksiä, luottamusongelmat kasvavat. Joihinkin algoritmeihin luotamme, toisiin emme. Googlen hakuun useimmat meistä luottavat, jopa sokeasti. Silti Googlellakin on ongelmansa, ja hakujätin puolueettomuutta esimerkiksi hakutulosten listauksessa on epäilty. Joistakin algoritmien ongelmista, kuten somekuplasta alamme vasta vihdoin olla tietoisia. Joihinkin algoritmeihin meidän on vain pakko luottaa eikä vaihtoehtoja ole, esimerkkinä luottokelpoisuuslaskenta.

Yksinkertaisissa algoritmeissa on onneksi se hyvä puoli, että tiedämme täsmällisesti miten ne toimivat. Credit score -esimerkissä luottokelpoisuuteen vaikuttavat asiat on julkisesti dokumentoitu ja sitä voi myös “pelata” näiden sääntöjen puitteissa. Ko. algoritmissa on paljon ongelmia ja se on monissa tapauksissa hyvin yksinkertainen, mekaaninen ja joskus myös epäreilu. Toisaalta algoritmin toiminta on yksiselitteistä ja perustelut sen toimintaan on vapaasti saatavilla.

faces.jpg

Luottamuksen ansaitseminen

Kun tekoäly otetaan käyttöön, sillä on paljon enemmän todistettavaa kuin ihmisellä. Luotamme herkemmin tutun ihmisen päätöksiin: tekoäly, joka kätkeytyy kokonaan koneen sisälle tai ohjelman taakse eikä voi edes ilmein vakuuttaa olevansa hyvällä asialla, on paljon epäilyttävämpi kumppani kuin uusikaan ihmistuttavuus. Ja silti kyseisen tekoälyn tehtävä olisi nimenomaan toimia kumppanina ja auttaa päätöksissä. Missä vaiheessa ja miten voit luottaa aineettomaan neuvonantajaasi?

Jos käytät jotain paljon ja se antaa toistuvasti mielestäsi hyviä tuloksia, luottamuksesi kasvaa. Näin on käynyt vaikkapa Googlen hakualgoritmilla. Ei tietysti lainkaan haittaa, että algoritmi myös oppii klikkauksistasi ja muusta käytöstäsi, mitä hakutuloksia todennäköisimmin arvostat.

“Missä vaiheessa ja miten voit luottaa
aineettomaan neuvonantajaasi?”

Mutta miten saada käyttäjä luottamaan tekoälyyn? Voimme tietysti vain käskeä käyttämään ja antaa tekoälyn “todistaa” itsensä. Vaikkapa laskutusjärjestelmien automatisoinnissa tämä on tietyssä mielessä helppoa: oikea ja väärä ovat yksiselitteisiä ja jo alkuvaiheen analysoinnissa. Jo melko matala, algoritmin koulutuksen alkuvaiheen osumatarkkuus - vaikkapa 65-70% - helpottaa työtä. Vielä tässä vaiheessa, kun algoritmin tuloksiin ei täysin luoteta, ihminen saa myös tarkistaa kaikki itse. Näin algoritmi todella toimii kuin “pikku apuri”, suodattaen tietoa, tarjoten mielestään parhaita vaihtoehtoja ja antaen ihmisen tehdä lopullisen päätöksen.

Miten tämä muuttuu siinä vaiheessa, kun luotettavasti - 100% - tunnistetut laskut siirtyvätkin automaattisesti laskukierrossa eteenpäin? Millaisia varmistuksia käyttäjä tarvitsee? Riittääkö hänelle katsella jatkuvasti päivittyvää tilastoa siitä, mitä algoritmi on tehnyt? Laskutusjärjestelmässä onneksi kuka tahansa voi tarkistaa asiat ja viimeistään hyväksyjä tarkistaa lopputuloksen.

robodog.jpg

Tekoälyn opettaminen

Rekrytoinnin tekoälyssä kohtaamme vielä askelta vaikeamman ongelman. Mitään yhtä ainoaa oikeaa vastausta ei välttämättä ole. On vain fiilis siitä, tarjosiko kone hyviä vaihtoehtoja vai ei. Tätä tietoa analysoimaan olemme Jelppissä lisänneet yksinkertaistetun ja visuaalisen keinon: näytämme peukulla, missä yleisemmissä kategorioissa (koulutus/työhistoria/jne) työnhakijalla on löytynyt erityisen paljon vastaavuuksia jotka ovat nostaneet hänen pisteitään. Näytämme myös jos joillain osa-alueilla oli heikompi korrelaatio - näin rekrytoija voi myös käydä tarkistamassa tietyn “heikomman” osa-alueen ja päättää oliko sen sisältö haun kannalta relevanttia vai ei.

“Tekoäly tekee ehdotuksia ja perustelee ne
– lopullisen päätöksen tekee aina rekrytoija.”

Tekoäly ei missään tilanteessa tee päätöksiä. Tekoäly tekee ehdotuksia ja perustelee ne – lopullisen päätöksen tekee aina rekrytoija.

Brain_gears.jpg

Tekoälyn aivokäyrä

Toistaiseksi tekoälyalgoritmit ovat nimestään huolimatta varsin rajoittuneita. Silti edistyneimmät alkavat käydä jo kryptisiksi ymmärtää. Tilastollisia malleja rakennettaessa saamme tietoa löydetyistä korrelaatioista. Kun otamme käyttöön deep learning -algoritmeja, tämä ei enää käykään yhtä helposti.

Parhaillaan tehdään runsaasti tutkimusta siitä, miten neuroverkkojen ajattelua voisi avata. Tässä tehtävässä edistytään jatkuvasti, ja jotakin tietoa tästä olemme jo saaneetkin. Jotkin tutkijat ovat kuitenkin vakuuttuneita, että tässä tehtävässä tulee pian raja vastaan – että neuroverkon tapaisen algoritmin ajattelu on yhtä peittävän verhon takana kuin meidän ihmistenkin. Ihmiseltä voi kysyä, mitkä olivat perustelut hänen päätöksissään, mutta tiedämme, että ihmisillä on taipumus keksiä selityksiä jälkikäteen. Näin voi käydä myös neuroverkkojen kanssa. On mahdollista, että tämänkaltaisissa algoritmeissa itse algoritmin rakenne on luonteeltaan sellainen että tarkkaa vastausta ei voi saada. Tässä tapauksessa joudumme etsimään keinoja muilla tavoin. Näitä voidaan edistää esimerkiksi laskemalla tilastollisia malleja jotka jälkikäteen etsivät korrelaatiota "black box"-algoritmin tuottamasta datasta: vaikkapa rekrytointikontekstissa kertomalla, että näyttää siltä, että algoritmi on painottanut arvioinnissa erityisesti koulutusta sekä edellisen työnantajan arviota.

Voiko tekoäly diskriminoida?

Toinen asia jota meidän tulee seurata on se, miten algoritmi on ottanut huomioon vaikkapa demografisia seikkoja. Tiedämme, että nykyään yli 50-vuotiailla on vaikeampaa työllistyä. Puhtaasti olemassaolevan datan perusteella koulutettu algoritmi oppii tämänkaltaisen korrelaation. Vaikka iän suodattaisi pois hakumateriaaleista, algoritmi voi oppia vaikkapa sen, että riittävän pitkä ansioluettelo alkaa vaikuttaa työllistymiseen negatiivisesti tai että ansioluettelosta löytyvät tietyt, jo vanhentuneet teknologiat korreloivat negatiivisesti työllistymisen kanssa.

“Parhaimmillaan algoritmit voivat auttaa myös ihmisiä irti ennakkoluuloista samaan tapaan kuin vaikkapa anonyymi haku on tehnyt.”

Potentiaalisiin ongelmakohtiin tulee kiinnittää huomiota jo suunnitteluvaiheessa ja merkittävistä potentiaalisista “sokeista pisteistä” tulee kerätä tietoa ja käyttää sitä algoritmin parantamiseen. Parhaimmillaan algoritmit voivat auttaa myös ihmisiä irti ennakkoluuloista samaan tapaan kuin vaikkapa anonyymi haku on tehnyt.

Hyvä renki, huono isäntä

Riippumatta siitä mitä työtä algoritmi tekee, me emme voi luottaa niihin sokeasti. Tekoäly on erinomainen renki, jossa on aikanaan potentiaalia myös itsenäiseen työskentelyyn. Se tarkoittaa, että sille on osoitettava sopiva “leikkipaikka” ja selkeä tehtävä, sekä varmistettava että sen toiminnasta annetaan riittävä tieto niin algoritmin käyttäjälle kuin sen kehittäjällekin. Vain näin voimme varmistaa sekä sen, että algoritmista on meille paras mahdollinen hyöty - ja takaamme sen, että algoritmin käyttäjä voi turvallisin mielin luottaa uuteen työtä helpottavaan “robottiassistenttiinsa”.

 

Aiheet: Johtaminen, Tekoäly