Suomen Campaign to Stop Killer Robots verkosto järjesti 9.2.2021 webinaarin, jossa pohdittiin tekoälyä päätöksentekijänä ja tekoälyn aseellisen käytön etiikkaa. Keskustelu vastuun, moraalin ja inhimillisyyden teemoista oli eläväistä läpi koko webinaarin niin yleisön kuin puhujienkin kesken.
Arvaamattomat ja amoraaliset tappajarobotit – uudenlainen eettinen dilemma
Tekoälykehityksen herättämä innostus kasvaa ja laskee tyypillisesti parinkymmenen vuoden sykleissä. Teknologisia edistysaskelia otetaan kuitenkin jatkuvasti, ja nyt, ensimmäistä kertaa historian aikana, olemme tilanteessa, jossa tekoälyä voidaan pitää itseoppivana. Teknologian pikainen kehitys velvoittaa meidät tarkastelemaan, miltä tulevaisuus tulee mahdollisesti näyttämään, toteaa dosentti ja yliopistotutkija Kai K.Kimppa Turun kauppakorkeakoulusta.
– Muussa tapauksessa on vaarana, että syntyy politiikkatyhjiöitä. Toisin sanoen ajaudumme tilanteeseen, johon emme ole varautuneet, ja jota emme osaa ratkaista. Digitaalinen kuvaaminen oli tästä malliesimerkki.
Tappajarobottien tapauksessa kyse ei ole vain tietosuoja-asetuksista ja digiturvallisuudesta, vaan ihmishengistä ja maailmanrauhasta. Koska poliittisen tyhjiön syntyminen voisi johtaa vakaviin seurauksiin, eettisistä ongelmakohdista on keskusteltava ennen niiden käyttöönottoa ja leviämistä. Voidaksemme ottaa osaa autonomisia asejärjestelmiä koskevaan eettiseen debattiin, meidän on ensin ymmärrettävä, miten tekoäly toimii tappajaroboteissa.
Kimpan mukaan tekoälyn ja perinteisen ohjelmiston ero näkyy erityisesti sisään syötettävän datan ja lopputuloksen suhteessa. Jopa kaikista monimutkaisimmat perinteiset ohjelmistot toimivat ennalta-arvattavasti sen mukaan, miten ne on ohjelmoitu toimimaan. Jos ohjelmisto tekee jotain poikkeavaa, virheet ovat periaatteessa löydettävissä ja ymmärrettävissä. Oppivien algoritmien kohdalla tämä ei enää pidä paikkaansa, Kimppa muistuttaa.
– Tekoäly jatkaa oppimista ja ikään kuin kouluttaa itse itseään ihmisestä riippumatta. Oppimistulos ei ole aina onnistunut, mikä voi johtaa odottamattomiinkin lopputuloksiin.
Autonomisten asejärjestelmien tapauksessa eettisiä haasteita aiheuttavat erityisesti kehittyvän tekoälyn ominaisuudet, kuten nopeus ja ennakoimattomuus, sekä muut koneoppimisen haasteet, kuten kehittäjien ennakkoluulot. Nämä ongelmakohdat tekevät tekoälyn valjastamisesta sotilaallisiin tarkoituksiin erityisen riskialtista.
– Koneoppimisen prosessit ovat niin nopeita, että ihmiset jäävät jälkeen. Emme pysty reaaliajassa seuraamaan, ennakoimaan tai kontrolloimaan, mitä ja miten tekoäly oppii, Kimppa muistuttaa.
– Yksi vaihtoehto on jämäyttää koneoppiminen tiettyyn kohtaan, mutta tämä ei olisi kentällä yhtä tehokasta kuin jatkuva oppiminen.
Kimppa muistuttaa, että koneoppimisen haasteeksi muodostuisi todennäköisesti myös läpinäkyvyyden puute. Tekijänoikeussuojatut ohjelmistot ja algoritmit pidetään tiukasti salassa. Jos emme tiedä, ymmärrä tai osaa selittää, miten tekoäly toimii, emme myöskään voi ottaa kantaa sen vastuullisuuteen.
– Ja vaikka ohjelmistot olisivatkin avoimia, emme siltikään tietäisi, miksi ne toimivat, miten toimivat. Näkisimme vain tietyt lopputulokset: Näin tässä sitten kävi, toteaa Kimppa.
Mitä käyttäjän vastuuseen tulee, tappajarobotit eivät autonomisuudestaan huolimatta poikkea muusta sotakalustosta: Vaikka liipaisimesta vetänyt henkilö ei voikaan pysäyttää kiväärin piipusta lähtenyttä luotia, hän on silti vastuussa aiheuttamastaan tuhosta. Samalla tavalla tappajarobotin kentälle lähettänyt henkilö ei voi pakoilla vastuutaan, olivat seuraukset kuinka ennalta-arvaamattomia tahansa. Robottiaseita ei voi syyttää tappokäskyn noudattamisesta, sillä niiltä puuttuu sisäsyntyinen kyky moraaliseen ajatteluun.
– Ikävä kyllä etiikkaa on hirvittävän vaikea ohjelmoida, sillä me eetikot emme ole vielä täysin varmoja siitä, mikä on hyvää ja mikä pahaa, Kimppa tiivistää.
Catch-22: Tekoälyn erityiset ominaisuudet = Tekoälyn eettiset ongelmakohdat
Turun yliopiston tohtorikoulutettava Mireille Isaro kehittää sotilasetiikkaa tekoälyn aseelliselle käytölle. Hänen mukaansa tappajarobottien eettiset ongelmakohdat ovat monessa suhteessa samoja kuin jo käytössä olevien aseiden eettiset haasteet: Esimerkiksi voimankäytön inhimillisyyteen ja suhteellisuuteen liittyvät kysymykset ovat yleismaallisia ja koskevat itse asiassa kaikkia sota- ja konfliktitilanteita aseista riippumatta: Milloin väkivaltaa voi pitää ”liian raakana”? Mikä lasketaan ”tarpeettomaksi vahingoksi”? Onko etäältä tappaminen eettistä toimintaa?
Kysymys onkin, miksi robottiaseita tulisi tarkastella eettisenä erityistapauksena. Isaron mukaan tappajarobotit eroavat jo käytössä olevista aseista muutamalla perustavanlaatuisella tavalla: Autonomisuus ja kyky itsenäiseen oppimiseen mahdollistavat niin kutsutun black box -ilmiön. Tämä tarkoittaa, että tappajarobotit saattavat kehittää itselleen uusia toimintoja, joista kehittäjät ja käyttäjät eivät ole tietoisia. Koska ihminen ei pysty selvittämään, mitä kaikkea autonominen ase on oppinut, on täysin mahdotonta ennustaa, mitä päätöksiä se tulee tulevaisuudessa tekemään.
– Robottiaseiden tapauksessa korostuu valvonnan ja kontrollin tärkeys. Jonkun pitäisi pystyä arvioimaan, miten nämä laitteet toimivat ja mitä kaikkea ne saattavat tehdä, sekä tarvittaessa estämään niitä toimimasta ei-toivotuilla tavoilla, sanoo Isaro.
Kysymys onkin, jos autonomisten asejärjestelmien erityispiirteet otetaan huomioon, miten – jos mitenkään – niitä voidaan käyttää eettisesti? Sotilasetiikan näkökulmasta autonomisten asejärjestelmien tapauksessa korostuvat jo aiemmin esille nostetut vastuukysymykset, sekä roolijaon kulttuuri. Tehdessään läheistä yhteistyötä autonomisten tekoälyohjelmien kanssa ihminen altistuu helposti ilmiölle nimeltä automation bias: Ohjelman käyttäjä ei enää ota huomioon vaihtoehtoja, joita laite ei hänelle ehdota, tai toimii laitteen ehdotusten mukaan, vaikka ne olisivatkin ristiriidassa aiemmin opitun kanssa. Liika luottamus tekoälyyn voi siis hämärtää ihmisen omaa arvostelukykyä.
– Tutkimuksissa on käynyt ilmi, että kynnys toimia tekoälylaitteiston ehdotuksia vastaan on erityisesti paineen alla korkea. Tällaiset asiat tulisi ottaa huomioon sotilashenkilöstön koulutuksessa. Ihmisen tulisi muistaa oma roolinsa suhteessa autonomiseen aseeseen, Isaro muistuttaa.
Parhaimmillaan ihmisen ja tekoälyn yhteistyöstä voi seurata myös hyvää, jos keinoälyn annetaan tukea ihmiskäyttäjien toimintaa tuhoamisen sijasta. Itseoppivat laitteet voivat olla suureksi avuksi esimerkiksi valvonta- ja pelastustehtävissä pimeissä olosuhteissa. Näissä tilanteissa ihminen kuitenkin säilyttää aktiivisen roolinsa. Ihminen on tarpeen vaatiessa valmis tarkastelemaan kokonaiskuvaa, tulkitsemaan uudelleen tilannetta, reagoimaan huolestuttaviin muutoksiin, strategisoimaan ja asettamaan uusia päämääriä.
– Ihmisen tärkeä taito, jota ei ole pystytty opettamaan koneelle, on merkityssisällön tuottaminen. Eli jos tilanne on monitulkintainen, huomaako kone tilanteessa olevia muita mahdollisia tulkintoja tai merkityksiä ja jos huomaa, tietääkö se, mikä tulkinta tai merkitys on tärkein ja mihin kannattaa reagoida ensin, Isaro pohtii.
Moraalisesti haastavissa tilanteissa tarvitaan nimenomaan sellainen toimija, joka kykenee antamaan asioille uusia merkityksiä, arvioimaan ympäristöään kriittisesti ja harkitsemaan, milloin annettuja sääntöjä ei kannata noudattaa.
– Sota on tunnetusti täynnä monitulkintaisia tilanteita: sotilas on oikeutettu voimankäytön kohde, mutta ei aina, esimerkiksi loukkaantuneena, antautuneena tai vangittuna. Siviili taas ei aina ole siviili, esimerkiksi aseistettu lapsi saattaa olla lapsisotilas, aseella leikkivä lapsi tai jotain muuta. Ihmisetkin epäonnistuvat näissä tulkintatilanteissa valitettavan monesti, mutta ihminen sentään tajuaa, että saman tilanteen eri merkitykset vaikuttavat siihen, mitä sääntöjä kannattaa seurata tai soveltaa ja millä tavalla.
Isaron näkemys on, että tappajarobottien eettinen käyttö on teoriassa mahdollista, mutta vaatii käytännössä paljon: Tekoälyn käyttäjien on kyettävä vastustamaan houkutusta hyödyntää tekoälyn ylivoimaista nopeutta ja tuhovoimaa riskeistä huolimatta. Tämä edellyttää paitsi yksilön luonteenlujuutta, myös poliittista tahtoa. On sovittava tappajarobottien käyttöön pätevä kansainvälinen moraalikoodisto ja tämän moraalikoodiston rikkomista seuraavat sanktiot.
– Autonomisten asejärjestelmien tapauksessa eettinen käyttö tarkoittaa, että näitä laitteita on hidastettava ja tehtävä ikään kuin tyhmemmiksi. Jos mielekäs valvonta ei ole mahdollista, järjestelmää on yksinkertaistettava ihmisille, sanoo Isaro.
Robottiaseiden tekoäly noudattaakin eräänlaista kieroutunutta logiikkaa: ne ominaisuudet, joiden vuoksi tappajarobotteja halutaan kehittää, ovat samoja ominaisuuksia, joiden vuoksi niitä ei pitäisi käyttää. Tämä perustavanlaatuinen ristiriita tekee autonomisista asejärjestelmistä eettisesti ja moraalisesti arveluttavia. Näin ollen on äärimmäisen tärkeää, että ihminen pidetään vastaisuudessakin osallisena elämän ja kuoleman kysymyksiä koskevassa kriittisessä päätöksenteossa. Tämä varmistetaan parhaiten kansainvälisellä oikeudellisesti sitovalla sopimuksella, jota Campaign to Stop Killer Robots -kampanja pyrkii edistämään. Vain aika näyttää, löytyykö ihmiskunnalta eettistä motivaatiota tehdä tulevaisuuden kannalta kestäviä ratkaisuja.
Tärpit: Kai K. Kimppa
1) Kimppa muistuttaa, ettei kaikilla valtioilla ole mahdollisuutta kehittää tehokkaita tappajarobotteja. Tämä tarkoittaisi, että nämä maat olisivat lähtökohtaisesti altavastaajan asemassa kaikissa sota- ja konfliktitilanteissa. Ylivoima voi johtaa suuruudenhulluuteen, ihmisoikeusrikkomuksiin ja kohtuuttomaan voimankäyttöön: kun sotilashenkilöstön ei tarvitse pelätä oman elämänsä puolesta, kynnys käyttää tappavaa tuhovoimaa muita vastaan voi madaltua.
– Voimankäyttöön turvaudutaan helpommin, jos oma puoli voi käydä sen robotisoidusti.
2) Robottiaseiden käyttöönotto mahdollistaa eräänlaisen etäisyysilluusion muodostumisen: Tappajarobottien hyödyntäminen saa aidotkin sotatilanteet muistuttamaan tietokonepeliä. Tällöin on helppo unohtaa, että vastapuolella ihmiset todella menettävät henkensä.
– Jotkut saattavat täysin upota tähän pelimaailmaan, koska etäisyys potentiaalisiin uhreihin on suuri, Kimppa pohtii.
Tärpit: Mireille Isaro
1) Isaron mukaan on mahdollista, että tekoälyaseita ohjelmoitaisiin toimimaan epäeettisesti. Tämä ei kuitenkaan ole huolenaiheista vakavin.
– Suurin vaara on, että tappajarobotti itse oppii käyttäytymään ei-toivotuilla tavoilla, eikä kukaan pysty estämään tai kontrolloimaan tähän liittyviä ongelmia.
2) Isaro kiistää väitteen siitä, että tulevaisuudessa tappajarobotit taistelisivat toisiaan vastaan ihmisten vain seuratessa sivusta:
– Ei tulevaisuus ole sitä, että robottiarmeija taistelee robotteja vastaan jossain tuolla kentällä. Se on nimenomaan sitä, että käytössä on muutama robotti, ja ihmiset taistelevat siinä vieressä.
Kirjoittaja on kampanjan aktiivi Riikka Aarnos, joka toimi myös webinaarin juontajana.
Turun kauppakorkeakoulun dosentti ja tutkija Kai K. Kimppa pohti esityksessään, pitäisikö tekoälyjä käyttää sodankäynnin tarkoituksiin, ja jos kyllä, miten ja missä tilanteissa tekoälyjen käyttöä voitaisiin pitää vastuullisena ja eettisenä.
Autonomisiin asejärjestelmiin liittyvistä eettisistä kysymyksistä ja tekoälyn aseellisen käytön ehdoista puhui VTM Mireille Isaro, tohtorikoulutettava Turun yliopiston filosofian oppiaineessa.
Webinaarin loppukeskusteluun osallistui myös Sadankomitean puheenjohtaja ja Campaign to Stop Killer Robots Suomen verkoston koordinaattori Kaisu Kinnunen.
Tilaisuus oli toinen yliopistoille suunnatussa webinaarisarjassamme. Ensimmäisessä webinaarissa pohdimme: Voiko olla eettistä tappajarobottia? Jos haluat mukaan toimintaan tai sinulla on idea webinaarin seuraaville osioille, voit olla suoraan yhteydessä Kaisuun: kaisu.kinnunen@sadankomitea.fi.
Tiedotamme Suomen verkoston toiminnasta ja tulevista tapahtumista myös Facebookissa @stopkillerrobotFI ja Twitterissä @KillerRobotsFI.