Laura Nolan jätti työnsä Googlella vastalaueena keinoälyjä Pentagonille kehittävälle Project Mavenille. Nyt hän kampanjoi autonomisia asejärjestelmiä vastaan. Ne etsivät, valitsevat ja tuhoavat kohteensa ilman ihmisen väliintuloa.
Laura Nolanin vierailu Helsingissä on lyhyt ja hektinen: haastattelut ja tapaamiset seuraavat toinen toistaan kampanjamatkoilla. Kokeneen ohjelmistosuunnittelijan asiantuntemus on kovaa valuuttaa. Kuultuaan työskennelleensä Googlella projektissa, joka tuottaisi keinoälysovelluksia USA:n puolustusministeriölle, Nolan nousi jättiyhtiötä vastaan ja sai aikaan mediamylläkän. Hän päätyi yhdeksi robottiaseiden vastaisen kampanjan keulakuvista.
”Työntekijöillä on oikeus tietää vähintään kategorisella tasolla, mitä heidän työnantajansa valmistaa”.
Tänään Nolan puhuu Aalto-yliopiston opiskelijoille. Niin pienet kuin suuretkin yritykset houkuttelevat vastavalmistuneita hyvällä tulotasolla ja mielenkiintoisilla työtehtävillä. Mutta tietävätkö osana pitkää valmistusketjua työskentelevät ihmiset aina, mitä heidän työnsä tuloksilla tehdään? Suuret teknologiayritykset vetoavat usein liikesalaisuuksiin, kun vaatimuksia toiminnan läpinäkyvyydestä esitetään.
– Onko moraalisesti perusteltua, etteivät ne paljasta projektiensa sisältöjä? Mielestäni ei. Työntekijöillä on oikeus tietää vähintään kategorisella
tasolla, mitä heidän työnantajansa valmistaa, oli se sitten turva-alan laitteistoa tai puolustusvoimien tarpeisiin tehtäviä ohjelmistoja, Nolan sanoo.
– Yhtiöillä on usein pitkä lista periaatteita ja eettisiä ohjeistuksia, mutta ne voivat silti sanoa yhtä ja tehdä toista. Meillä on eettinen vastuu
viedä tieto epäkohdista eteenpäin johtavalle taholle, tai tarvittaessa yhtiön ulkopuolelle.
Kuinka teknologiayritykset sitten saadaan kieltäytymään asevalmistajien tarjoamista rahakkaista, mutta eettisesti arveluttavista yhteistyösopimuksista, joissa kehitetään esimerkiksi autonomisia asejärjestelmiä?
– Kieltosopimus on varmasti yksi parhaita tapoja. Niin kauan kuin on laillista kehittää ja rakentaa autonomisia aseita, joku tulee sitä myös tekemään. Sopimus myös selventäisi ja tukisi niin maiden kuin kansalaistenkin välistä yhteistä moraalikäsitystä siitä, ettei autonomisia aseita voida hyväksyä.
Eettisten kysymysten lisäksi robottiaseiden problematiikkaan liittyy vastuu. Kenelle se virheen sattuessa lankeaa?
– Hyvä kysymys. Kuinka suuressa vastuussa on esimerkiksi droonin matkaan lähettänyt kenraali? Onko koneen tai ohjelmiston suunnitellut insinööri syyllinen sen tekemiin virheisiin? On vaikeaa osoittaa selkeää vastuun ketjua, jos lopulliset päätökset tekee kone, Nolan sanoo.
– Systeemisellä tasolla asevoimat toki ovat vastuussa, jos ne ovat hyväksyneet kyseisten aseiden käytön, mutta kuinka systeemiä voi rangaista?
Nolan muistuttaa, että algoritmien testaaminen sotatilanteessa on käytännössä mahdotonta: Koneet osaavat reagoida totutulla tavalla vain siihen, mitä niille on opetettu, eivätkä ne ymmärrä kontekstia. Jatkuvasti muuttuvat ja vaikeasti ennustettavat ympäristöt aiheuttavat enemmän riskejä. Hän käyttää usein vertausta itseohjautuviin autoihin.
– Itseään ajavan auton tehtävä on päästä paikasta A paikkaan B. Tehtävää ohjaavat liikennesäännöt, joita myös muut tiellä liikkujat pyrkivät noudattamaan, ja toimintaympäristö on täynnä ohjeistavia elementtejä, kuten teiden viivoja ja liikennemerkkejä. Lisäksi autoja voidaan testata autenttisessa ympäristössä.
”Ongelmana on vallitseva yhteisymmärrys
siitä, että näitä aseita ei tulla käyttämään lännessä, vaan globaalissa etelässä”
Sotatilanne on aivan toisenlainen, kuten myös koneen saama tehtävä. Nykyajan konflikteissa on jopa usein epäselvää, kuka on vihollinen ja kuka ei. On käytännössä mahdotonta ennustaa algoritmien kaikkia potentiaalisia toimintamahdollisuuksia, kun ne joutuvat vuorovaikutukseen kaoottisen ulkomaailman kanssa, ja kaikista pieninkin autonominen osa voi käyttäytyä odottamattomalla tavalla.
– Suunnittelemattomia hyökkäyksiä tulee tapahtumaan vaillinaisen teknologian seurauksena, Nolan arvioi.
Neuvottelut autonomisia aseita koskevasta sopimuksesta YK:ssa ovat kestäneet jo vuosia, eikä loppua näy. Onko jonkin mittakaavan katastrofi välttämätön, jotta ymmärrettäisiin, kuinka vakava uhka autonomiset asejärjestelmät ovat?
– Ongelmana on vallitseva yhteisymmärrys siitä, että näitä aseita ei tulla käyttämään lännessä, vaan globaalissa etelässä. Tämä selittää osin myös vallitsevan apatian ja toimimattomuuden asian suhteen täällä Euroopassa. Me tiedämme, että ongelmat eivät tule koputtelemaan kotiovellemme.
Monet eteläisemmät valtiot kannattavat sopimusta, mutta toistaiseksi yksikään länsimaa ei ole puolustanut sitä yhtä voimakkaasti. Euroopan mailta puuttuu täysin moraalinen johtajuus tässä asiassa. Nolan muistuttaa Walesin prinsessa Dianan maineesta maamiinakiellon puolestapuhujana.
– Tarvitsemme esikuvan, esitaistelijan. Nyt olisi tarjolla ainutkertainen mahdollisuus jäädä historiankirjoihin tämän sopimuksen maaliin saattajana, hän naurahtaa.
Vasta-argumenttina kuulee usein, että on mahdotonta tarkoin määritellä ”riittävä ihmiskontrolli”, ja että pelkkä yleinen ohjeistus olisi siksi parempi kuin tiukka kieltosopimus.
– Käsitteiden määrittely ei tietenkään ole mahdotonta, sitä on tehty aina. En sano, että se olisi helppoa, mutta riittävän ihmiskontrollin määreellekin voidaan ehdottomasti antaa rajat: ihminen tarvitsee muun muassa tarpeeksi aikaa ja tarpeeksi laajan kontekstin vastuulliseen päätöksentekoon.
Autonominen asejärjestelmä tekisi samat päätökset täysin kontekstia huomioimatta – silmänräpäyksessä.
– Jos poliittista tahtoa löytyy, määritelmistä pystytään kyllä päättämään. Kampanjamme on jo tarjonnut alustavaa tekstiä sopimuksen pohjaksi, josta keskustelu voitaisiin aloittaa.
Nolan ei ole jättänyt päivätyötään, vaan kampanjoi vapaa-ajallaan. Millaista on olla yksi suuren kampanjan keulakuvista?
– Kampanjointi on ollut palkitsevaa, ja haluan rohkaista ihmisiä liittymään. Minulle on tärkeää, että voin vaikuttaa ja tuoda oman henkilökohtaisen näkökulmani ihmisten tietoon. Monet muutkin teknologia-alan työntekijät haluavat käyttää osaamistaan koko ihmiskunnan hyväksi, Nolan sanoo.
– Kampanjassamme on monia tekoälyyn erikoistuneita eksperttejä, mutta meitä ohjelmistojen luotettavuuteen perehtyneitä on huomattavasti vähemmän. Kukaan meistä ei silti ole huolissaan superälykkäistä roboteista. Joudumme muistuttamaan ihmisiä yhä uudestaan, että vastassamme ei ole elokuvan terminaattori. Siksi pohdimme joskus, olisiko kampanja pitänyt nimetä toisin, mutta ”killer robots” oli tarttuva termi.
– Emme halua ihmisten elävän näitä koneita peläten. Haluamme levittää yhteisymmärrystä siitä, että niitä ei voi hyväksyä.
Teksti on julkaistu alunperin Ydin-lehden numerossa 1/2020