Tekoälyn kehitys on johtanut siihen, että rutiinitöiden ohella siirrämme koneille jo päätösvaltaa ihmisiä koskevissa asioissa. Jos luotamme liikaa tekoälyyn saatamme pian siirtää sille elintärkeitä päätöksiä, joissa ihmistä ei tulisi syrjäyttää – pahimmillaan jopa päätöksen tappavan voiman käytöstä.
Tekoäly nähdään mahdollisuutena parantaa ihmisten elinolosuhteita, tehostaa tuotantoa ja edistää tiedettä. Sitä hyödynnetään terveydenhuollossa. Tekoälyä puolustetaan kuitenkin harvoin täysin ihmisistä itsenäisinä toimijoina, koska niihin liittyy lukuisia ongelmia erityisesti päätöksenteon näkökulmasta. Tunnistamme riskit, mutta luotammeko koneeseen silti liikaa?
Tekoäly voi tehdä epäoikeudenmukaisia tai virheellisiä päätöksiä vinoutuneen tai epäedustavan datan perusteella. Koneen virheellisen päätöksen seuraus voi olla esimerkiksi tukipäätöksen epääminen tai aiheeton pidätys.
Kasvojentunnistuksessa syrjintä on todellinen huolenaihe, sillä käytetty data on usein puutteellista. Epäedustavan datan käyttö muun muassa poliisitoiminnassa voi johtaa syrjivien rakenteiden toistamiseen: Floridassa rikoksen uusijoita ennustava ohjelmisto kohdisti virheellisen epäilynsä kaksinkertaisesti useammin tummaihoiseen kuin valkoihoisiin.
Melko tunnettu tekoälyn ongelma on myös, että se valehtelee, keksii asioita tai levittää harhaanjohtavaa tietoa. Tätä voi kokeilla pyytämällä ChatGPT-kielimallilta lähdettä, jolloin se vain imitoi lähdeviitettä kuitenkaan viittaamatta mihinkään. Tämä on nähty esimerkiksi toisessa ChatGPT:n tapauksessa, kun se tarjosi asianajajille keksittyjä oikeustapauksia todistuksen tueksi.
Suomessa on niin ikään tunnistettu huolestuttavina vinoumien vahvistuminen, polarisoitumisen kiihtyminen, valvonnan lisääntyminen ja tekoälyn huolimaton käyttö kriittisissä järjestelmissä. Meillä on esimerkkejä kyberhyökkäyksistä, jotka ovat kaataneet terveydenhuollon järjestelmiä pysäyttäen niiden toiminnan.
Rekrytoinnin automatisointiin liittyvät ongelmat tunnistettiin jo esimerkiksi Amazonin surullisenkuuluisan rekrytointiautomaatin kanssa. Kyseinen järjestelmä syrji naisia, koska koneen opettamiseen käytetyssä datassa miespuoliset hakijat olivat enemmistönä.
On ymmärrettävää, että tekoälyä käytetään apuna, kun resurssit ovat vähissä. Tekoäly on ihmistä tehokkaampi ja se voi käsitellä valtavia määriä tietoa. Mutta jos alamme nojaamaan liikaa tekoälyyn, saattaa vaarana olla se, ettemme osaa enää arvioida tekoälyn päätöksiä tarpeeksi kriittisesti.
Ennustavat kielimallit ovat jo nyt vakuuttavan oloisia huijareita ja nykyisenkaltainen tekoälyn hehkutus voi johtaa siihen, että sivuutamme siihen mahdollisesti liittyviä riskejä.
Tämä on sinänsä hyvin inhimillistä. Jos meillä on positiivinen kokemus jostakin asiasta, saatamme vähätellä siihen liittyviä riskejä. Jos olemme hyvin tietoisia riskeistä, hyödyt eivät näytä enää niiden arvoisilta. Sama näkyy tekoälykeskustelussa: uuden teknologian ylistys saattaa johtaa hyvin perusteltujen huolenaiheiden vähättelyyn.
On positiivista, että tekoälyn vaikutuksista yhteiskuntaan keskustellaan. Harvemmassa on kuitenkin keskustelu autonomisista asejärjestelmistä eli tappajaroboteista, jotka voisivat päättää itsenäisestä ihmiselämästä.
Tekoälyä valjastetaan sodankäyntiin
Sodankäynnissä hyödynnetään yhä enemmän tekoälyä ja itseohjautuvia järjestelmiä. Kilpavarustelu tulee todennäköisesti kasvamaan tekoälyn kehityksen myötä, koska aseteollisuus pyrkii tunnetusti hyödyntämään uusinta teknologiaa. Puolustusvoimat myös investoivat vahvasti autonomisten aseiden kehittämiseen.
Kansainvälisen turvallisuuden näkökulmasta on huolestuttavaa, jos koneille annetaan valta päättää elämästä ja kuolemasta. Halukkuus ratkaista konflikteja rauhanomaisesti voi kärsiä, kun ihmissotilaita ei tarvitsisi lähettää sotaan. On kuitenkin kyseenalaista säästäisikö ihmisten korvaaminen koneilla ihmishenkiä – sotia kun tuskin käytäisi umpiossa robottien välisenä mittelönä, vaan asutusten ja siviilien lähellä.
Myös vastuun rajat hämärtyvät. Kuka kantaa vastuun sotilaallisissa päätöksissä? Entä jos robottiase tekee sotarikoksen? Järjestelmää saatettaisi myös väärinkäyttää ja kääntää omistajaansa vastaan. Asejärjestelmään jäisi muiden järjestelmien tavoin haavoittuvuuksia, jotka tekevät siitä alttiin hakkeroinnille.
Jos mietimme vinoutuneen datan aiheuttamia ongelmia automatisoidussa päätöksenteossa, tappajarobottien tapauksessa lopputulos olisi peruuttamaton. Puhumme digitaalisen dehumanisaation äärimmäisestä muodosta. Antaessamme koneen käsitellä meitä datajoukkona luovumme ihmisyydestämme. Kone tekisi sensoreiden avulla kerätyn tiedon pohjalta itsenäisesti päätöksen hyväksyttävästä hyökkäyskohteesta – ilman käsitystä ihmisyydestä.
Lukuisat teknologian ja tekoälyn asiantuntijat ja tutkijat ovatkin vedonneet autonomisten aseiden kieltämiseksi. Jo vuonna 2015 tuhannet tekoälyn asiantuntijat allekirjoittivat autonomisia aseita koskevan avoimen kirjeen, joka varoittaa tekoälyn sotilaallisesta käytöstä. Vuonna 2022 kuusi robotiikan alan yritystä julkaisi avoimen kirjeen, jossa ne lupaavat olla aseistamatta yleiskäyttöisiä robotteja. Kirjeessä tunnistetaan autonomisten asejärjestelmien herättämät vakavat eettiset huolenaiheet sekä vaarat teknologian positiiviselle kehitykselle.
Euroopan unioni on edelläkävijänä säätelemässä tekoälyä. Nurinkurista on kuitenkin se, että sotilaallisiin tarkoituksiin kehitetyt tekoälyjärjestelmät uhkaavat jäädä säädöksen ulkopuolelle. Voiko haluttomuus säädellä tekoälyn sotilaallista käyttöä johtua hypestä?
Teknologia ei itsessään ole ongelma, vaan sen käyttötarkoitus. Robottiauto on tehty liikkumiseen, robottiase tappamiseen. Jotta voimme hyödyntää tekoälyä ihmiskunnan hyväksi, meidän on varmistettava sen turvallinen käyttö.
Tappajaroboteista puhutaan YK:ssa, mutta sopimusta ei tule
Autonomisista asejärjestelmistä on keskusteltu Yhdistyneissä kansakunnissa yli 10 vuotta tavanomaisia aseita koskevan CCW-sopimuksen puitteissa. Sopimusneuvotteluja ei niiden suuresta kannatuksesta huolimatta ole saatu aikaiseksi, koska muutama militarisoitunut valtio on voinut määrittää tahdin ja pysäyttää edistyksen konsensusperiaatteen nojalla.
Suomi on osallistunut kaikkiin näihin keskusteluihin. Suomi on ollut mukana yhteislausunnoissa, joissa peräänkuulutetaan kieltoja ja rajoituksia tällaisille asejärjestelmille.
Vuonna 2022 Suomi allekirjoitti YK:n yleiskokouksessa 70 valtion yhteisen julkilausuman, jossa nostettiin esille muun muassa autonomisiin asejärjestelmiin liittyviä humanitaarisia, oikeudellisia, teknologisia, eettisiä ja turvallisuutta koskevia huolenaiheita. Myös YK:n ihmisoikeusneuvostossa hyväksyttiin yksimielisesti päätöslauselma, jossa tunnistetaan muun muassa se, että ihmisen on pysyttävä keskeisessä roolissa voimankäytössä.
Näissä lausunnoissa ei kuitenkaan oteta kantaa, tulisiko rajoitukset tehdä oikeudellisesti sitovalla sopimuksella. Myöskään Suomi ei ole vielä ilmoittanut tukevansa neuvotteluja oikeudellisesti sitovasta välineestä. Tämä on huolestuttavaa kansainvälisen sopimuksen ollessa paras tapa välttää tulevaisuus, jossa tappaminen on automatisoitu.
Autonomisten asejärjestelmien vaikutuksia ei ole vielä nähty toisin kuin esimerkiksi ydinaseiden tai miinojen tapauksessa. Näemme kuitenkin automatisoitua harmia kaikkialla – tappajarobotit vain kärjistäisivät näitä ongelmia.
Meidän on toimittava nyt, jotta voimme välttää ongelmat tulevaisuudessa. Vetoa sinäkin päättäjiin, jotta koneelle ei anneta päätösvaltaa elämästä ja kuolemasta.
—
Kirjoittaja on Sadankomitean hallituksen varajäsen. Hän koordinoi kansallisen Stop Killer Robots kampanjan toimintaa Suomessa tavoitteena täysin autonomisten asejärjestelmien kielto ja ihmiskontrollin säilyttäminen voimankäytössä.