(Huomioithan, että tämä artikkeli on kuusi vuotta vanha. Artikkelissa esitellyt asiat, tilanteet ja analyysit eivät välttämättä päde enää nykypäivään.)

Tekoäly on turvallisuusriski, mutta juuri kukaan ei ymmärrä miten se toimii

Christopher Rowley | 07.02.2018

 

Tekoälyä hypetetään paljon, mutta sitä ymmärretään huonosti. Moni näkee tekoälyssä pelastuksen ja potentiaalisen ratkaisun maailman kiperimpiin ongelmiin, jotkut taas tuomiopäivän teknologian ja ainekset maailmanloppuun. Kuten millä tahansa teknologialla, tekoälyllä on vaikutuksia yhteiskunnalliseen turvallisuuteen – ja ennen kaikkea demokratian tulevaisuuteen.

Tekoälyn ympärillä on tällä hetkellä todella iso hype. Samaan aikaan ilmiöön liittyy paljon pelkoja – vaarallisesta supervaltojen kilpavarustelusta aina erilaisiin tuomionpäivän skenaarioihin.

Tekoälyä ymmärretään tosin kehnosti, koska se on teknologisesti ja käsitteellisesti monimutkainen ilmiö. Ihmisillä on voimakkaita ennakkokäsityksiä ja paljon vääriä uskomuksia. Koneiden mahdollisuus älykkääseen toimintaan on kiehtonut, ihastuttanut ja pelottanut ihmisiä pitkään. Tieteiskirjallisuudessa ja Hollywood-elokuvissa on esitetty mielikuvituksellisia ja kuumottavia kuvauksia tulevaisuuden tekoälystä. Samalla tekoälyä pidetään mahdollisena globaalina ratkaisuna esimerkiksi terveydenhuollon järjestämiseen ja liikennekuolemiin tai jopa ilmastonmuutokseen ja ruokaturvallisuuteen.  

Utopististen tai dystooppisten tulevaisuuskuvien sijaan kannattaa kysyä: mitä tekoäly todella tarkoittaa turvallisuuden kannalta?

Tekoälyllä ja sen sovelluksilla – niin kuin kaikella tekniikalla – on omanlaisensa vaikutukset yhteiskunnalliseen turvallisuuteen. Tekoälyn sovellukset voivat väärin käytettyinä murentaa demokratiaa, rapauttaa ihmisten välistä luottamusta ja heikentää siten yhteiskunnan resilienssiä eli sopeutumiskykyä sekä turvallisuuden tunnetta.

Mitä on tekoäly?

Tekoäly on koneiden älykästä toimintaa. Tähän loppuvat yksinkertaiset määritelmät, koska tekoälyyn liittyy useita käsitteellisiä haasteita. “Älykkyydelle” ei ole olemassa yleisesti hyväksyttyä määritelmää, koska yritykset määritellä älykkyyttä ovat väistämättä kulttuurisidonnaisia. Tietyssä kulttuurissa älykkäänä pidettyä toimintaa ei välttämättä nähdä samalla tavalla muualla. Lisäksi älykkyys ei ole vain ihmisten ominaisuus, koska myös koneet, eläimet ja jopa mikrobit käyttäytyvät älykkäästi.

Älykkyyden määrittelyongelman lisäksi tekoäly mielletään helposti joksikin sellaiseksi, jota ei ole vielä tehty. Tekoäly on siis liikkuva maali: kun jokin ongelma ratkaistaan, ratkaisua ei enää nähdä osoituksena “älykkyydestä” vaan ratkaisu tuntuu yksinkertaiselta ja mekaaniselta. Tämä “AI effectiksi” nimetty ilmiö on tuttu meille kaikille. Ihmiset tottuvat Siri-virtuaaliavustajan, Spotifyn musiikkisuositusten sekä Googlen karttapalveluiden ja roskapostisuodattimien kaltaisiin tekoälyratkaisuihin nopeasti. Ihmeelliset innovaatiot muuttuvat nopeasti tavanomaisiksi, ja niistä tulee osa jokapäiväistä elämää.

Käsityksiin tekoälystä vaikuttaa myös vääristynyt näkemys ihmisen älykkyyden ainutlaatuisuudesta. Ei ole mitään ylitsepääsemätöntä syytä, miksi muut eläimet tai koneet eivät voisi myös osoittaa älykkyyttä. Ihmisen osoittama älykkyys ei ole perustavanlaatuisesti ainutlaatuista; ihmiset ja koneet vain oppivat keskenään hyvin erilaisilla tavoilla. Siinä missä ihminen ei halua tai kykene käsittelemään suuria määriä dataa, koneet tarvitsevat sitä oppiakseen suorittamaan tehtäviä. Osa näistä tehtävistä, kuten kissojen ja koirien eroavuuksien tunnistaminen, on ihmiselle helppoa mutta koneelle vaikeaa. Sen sijaan esimerkiksi monimutkaisten laskutoimitusten ratkaiseminen tai massiivisten datasarjojen käsitteleminen on koneelle helppoa mutta ihmiselle mahdotonta. Ihmisälykkyys ei siis aina ole hyvä verrokki tekoälyn ymmärtämiseen.

Voimme selventää tekoälyyn liittyvää käsitteellistä soppaa yksinkertaisella jaottelulla: tekoälyn voi ymmärtää toisaalta joukkona tietojenkäsittelyyn liittyviä teknologioita ja toisaalta ilmiönä, jossa tekoälyn sovellukset ja erilaiset teknologiat vaikuttavat ihmisten elämään.

Tekoälyn käyttö päätöksenteossa

Yhteiskunnalliset päättäjät, yritysjohtajat ja yksilöt tarvitsevat päätöksenteon tueksi monipuolista tietoa. Tekoälyn avulla on mahdollista käsitellä valtavia datamääriä ja tuottaa niiden pohjalta analyysejä päätöksenteon tueksi. Tekoäly ja erilaiset tukijärjestelmät voivat siten vähentää yksittäisten ihmisten ennakkoluulojen ja kognitiivisten vinoumien osuutta ja tuoda päätöksentekoon eri näkökulmia. Tekoälysovellukset voivat myös helpottaa erilaisten ennusteiden tekemistä ja vähentää yritysten kustannuksia. Maailma on täynnä heikosti hyödynnettyä dataa, ja tekoälyn avulla sitä voidaan ottaa entistä monipuolisemmin käyttöön.

Toisaalta tekoälyn hyödyntäminen päätöksenteossa on monella tapaa ongelmallista. Koska koneoppimisessa käytetään olemassa olevaa dataa, heijastuvat tekoälyn tuottamissa analyyseissä myös yhteiskunnan sortavat rakenteet, syrjintä ja kollektiiviset ennakkoluulot – kuten seksismi tai rasismi. Tutkiessaan uutisista maailmankuvansa saaneen tekoälyn sukupuolikäsityksiä Bostonin yliopiston tutkijat saivat selville, että tekoälyn mielestä virkkeen “mies on ohjelmoija” vastinpari on “nainen on kotiäiti”.  

Turvallisuusnäkökulmasta tekoälyn käyttö päätöksenteossa voi myös olla vaarallista. Neuroverkkojen ja syväoppimisen kautta saatuja analyysejä vaivaa usein niin sanottu “black box problem” eli mustan laatikon ongelma: kukaan ei tiedä, miksi tai miten kone on ratkaisuun päätynyt. Tämä johtuu neuroverkkojen monimutkaisuudesta, sillä syväoppimiseen käytetyt verkot ovat tolkuttoman isoja. Tekoälyn musta laatikko -ongelma on todella kiusallinen, koska tekoälyn hyödyllisyys pohjaa nimenomaan sen monimutkaisuuteen. Jos tekoäly yksinkertaistetaan ihmiselle ymmärrettävään muotoon, se ei enää kykene ratkomaan ongelmia samalla tavalla.

Musta laatikko -ongelma voi olla erityisen haastava, kun tehdään väkivaltaan ja konflikteihin liittyviä päätöksiä. On mahdollista kuvitella tilanne, jossa tekoälyn tuottama analyysi kehottaa poliittisia päättäjiä käyttämään väkivaltaa mielenosoittajia kohtaan tai antaa hyvät todennäköisyydet miehityksen onnistumiselle. Sinänsä näissä tilanteissa ei ole mitään uutta: lopulta päätöksen tekee kuitenkin ihminen, jolla on käytössään päätöksentekoa tukevaa teknologiaa. Vaarallinen tilanteesta tulee vain jos päätöksentekijä luottaa tekoälyyn liikaa eikä suostu ajattelemaan esimerkiksi mielenosoittajien ampumisen tai miehityksen moraalisia ulottuvuuksia.

Erityisen hankalia moraalisia kysymyksiä on tilanteissa, joissa väkivaltaan liittyvän päätöksen tekee ihmisen sijasta kone. Eri maiden asevoimat panostavat valtavia summia autonomisten asejärjestelmien kehittämiseen. Esimerkiksi Etelä-Korean armeijalla on käytössään järjestelmä, joka kykenee tuhoamaan kohteita itsenäisesti. On toki muistettava, että robotit ja tekoäly ovat eri asioita: robotti on automaattinen tai puoliautomaattinen kone, kun taas tekoäly on älykäs ohjelmisto tai teknologia. Joka tapauksessa on todella huolestuttavaa, jos aseistetut robotit kykenevät tekoälyn ansiosta tulevaisuudessa monimutkaiseen itsenäiseen toimintaan. Autonomiset asejärjestelmät voivat toimia odotettua paljon nopeammin ja arvaamattomammin, ja siksi tekoälyasiantuntijat ovat vaatineet järjestelmien täyskieltoa.  

Tekoäly ja informaatiovaikuttaminen  

Tekoälyllä voi olla suuri rooli kybersodassa ja informaatiovaikuttamisessa. PatternEx-yritys käyttää tekoälyä esimerkiksi tuottamaan virtuaalisia “turvallisuusanalyytikkoja”, jotka auttavat ihmisiä tunnistamaan kyberhyökkäyksiä. Tekoälyn sovelluksia käytetään myös hyökkäyksissä tietoverkkoja ja infrastruktuuria vastaan. Automaattiset “tekoälyvirukset” voivat sopeutua niitä vastaan käytettyihin vastatoimiiin ja jatkaa hyökkäystä erilaisia järjestelmiä lamauttaen.

Yhteiskunnallisen turvallisuuden näkökulmasta huolestuttavin trendi on tekoälyn käyttö valtioiden pyrkimyksissä vaikuttaa informaatioon ja demokratian toimivuuteen. Yhdysvaltain presidentinvaaleissa vuonna 2016 Cambridge Analytican kaltaiset yksityiset toimijat ja Venäjä käyttivät valtavan määrän resursseja ja todennäköisesti hyödynsivät tekoälyn sovelluksia saadakseen Donald Trumpin presidentiksi. Tekoälyn käyttö aseellistettuna propagandakoneena on demokratian tulevaisuuden kannalta todella huolestuttavaa. Väärennettyjen ääninauhojen ja videoiden luominen on tekoälyn avulla helpompaa kuin koskaan. Venäjän kaltaiset toimijat voivat kohdentaa valtavan määrän resursseja totuuden tarkoitukselliseen sumentamiseen, ja yleisesti puhutaan demokratian kriisistä. Miten tulevaisuudessa voidaan varmistaa, että informaatiovaikuttaminen ei vääristä demokraattisia vaaleja?

Tekoäly ja demokratian tulevaisuus

Tekoälyllä ja sen sovelluksilla voi olla valtavia, kauaskantoisia vaikutuksia turvallisuuteen ja demokratiaan. Demokratian kriisi on ilmastonmuutoksen ohella kenties suurin yksittäinen tulevaisuuden uhka. Jos poliittiset yhteisöt eivät toimi, murenee myös kyky ylikansalliseen päätöksentekoon. Tämä on todella pelottava näkymä esimerkiksi tulevan ilmastokriisin ja kasvavan pakolaisuuden kannalta.

Teknologia voi kuitenkin olla myös yhteistyötä ja turvallisuutta edistävä ja mahdollistava voima: demokratiaa ja luottamusta voi tekoälyn avulla myös rakentaa, ei pelkästään rapauttaa. Jotta tämä toteutuisi, tarvitaan kaksi keskeistä ajattelutavan muutosta. Ensimmäinen on ymmärrys teknologiasta työkaluna. Teknologia itsessään ei ole hyvä tai paha – sitä voi käyttää erilaisten asioiden ajamiseen siinä missä muitakin työkaluja. Toinen on tasa-arvoisemman ja monimuotoisemman äänen saaminen kuuluviin teknologia-alalla. Teknologiateollisuus länsimaissa on todella miesvaltainen, joskus räikeän seksistinen ja toistaiseksi kovin valkoihoinen.

Jotta voisimme käyttää teknologiaa tämän hetken kriittisimpien haasteiden ratkaisemiseen, tarvitaan demokraattista osallistumista ja teknologian mahdollisuuksien ymmärtämistä. Digitaalisen maailman ymmärtäminen ja yhdenvertainen hyödyntäminen on ratkaisevaa tulevaisuuden yhteiskunnan ja sen turvallisuuden kannalta.

Kaikkihan tietävät miten käy, kun päädymme käyttämään teknologioita, joita emme aivan ymmärrä.

 


Kommentit

Kiitos tekstistä. Nostat esiin olennaisia pointteja keskustelun ympärillä, joista olen suurimmaksi osaksi samaa mieltä. Pari huomiota kuitenkin: kirjoitat, että teknologian potentiaali makaa siinä, miten ihmiset sitä käyttävät työkaluna. Luulen kuitenkin, että puhuttaessa autonomisesti oppivasta tekoälykteknologiasta, voimme löytää itsemme myös tilanteista, joissa kysymys ei ole siitä, miten ihmiset valjastavat sen käyttöönsä milläkin hetkellä. Pikemminkin tekoälyteknologia on potentiaalisesti kyennyt luomaan itselleen tapoja tietynlaisten asioiden ajamiseen ja kehittää niitä yhä edelleen. Tässä kohtaa perinteinen ymmärrys ihmisen käyttämästä työkalusta ei mielestäni päde. Toiseksi, nostat esiin ettei "teknologia itsessään ole hyvä tai paha" ja että sillä voi olla "myös yhteistyötä ja turvallisuutta edistävä ja mahdollistava voima". Tämä on tietysti selvää. Näissä kohdissa tulkitsen, että teknologialla on potentiaali luoda syvempää yhteistyötä, joka taas johtaisi turvallisempaan yhteiskuntaan. Jäin kuitenkin kaipaamaan artikkelin analyysin kannalta syvempää turvallisuusulottuvuuden pohdintaa: olennainen kysymys tässä yhteydessä olisi, että onko turvallisuus itsessään pelkästään hyvä tai huono asia ja mikä on sen suhde uusiin teknologioihin? Turvallisuus kun ulottuu ja leikkaa yhteiskunnan läpi ja sillä on vaikutuksia niin vapauteen kuin demokratiaan, niin tulisi huomioida myös se, ettei turvallisuus tai turvattomuus itsessään tarkoita hyvää tai pahaa. Turvallisuus voi olla myös työkalu.


Kiitos Lauri! Minäpä kuuntelen! Voi olla, että törmäsit tähän jo: mutta teimme oman podcastin tekoälystä (löytyy myös itunesista!) http://ulkopolitist-wp.azurewebsites.net/2018/02/03/podcast-tekoalyn-turvallisuusvaikutukset/


Kiitos hienosta tekstistä Chris! Tässä aiheeseen liittyvä mainio podcasti YLEn Juuso Pekkiseltä viime toukokuulta: https://areena.yle.fi/1-4141256


Lisättävää?

Ylläpito tarkistaa kommentit ennen julkaisua. Sähköpostiosoitettasi ei julkaista.