Teksti: Branka Marijan ja Cesar Jaramillo
Käännös: Kaisu Kinnunen
Useiden vuosien aikana YK:n tavanomaisia aseita koskevan yleissopimuksen (CCW) puitteissa käydyissä keskusteluissa autonomisista aseista on noussut muutamia argumentteja niiden sääntelyä vastaan. Osa näyttää tarkoituksellisen harhaanjohtavilta, kun taas toiset eivät ole pysyneet perässä uusien teknologioiden kehityksessä ja akateemisen tutkimuksen ja analyysin trendeissä.
Tässä on 5 yleistä – ja virheellistä – oletusta:
1. Huolet liittyvät monimutkaisiin järjestelmiin kaukana tulevaisuudessa.
Konkreettisia toimia, joilla estetään ihmisen hallinnan menettäminen asejärjestelmissä, ei tarvita vain pikaisesti vaan niissä ollaan jo myöhässä. Tekoälyn ja tietotekniikan kehitys muiden teknisten innovaatioiden ohella on jo tunkeutunut useiden maiden nopeasti kehittyviin sotilaallisiin strategioihin jättäen päättäjät pimentoon.
Epäluotettavat järjestelmät, jotka voivat olla todellisuutta jo tänään ja lähitulevaisuudessa, ovat autonomisten asejärjestelmien huolenaiheiden ytimessä. Joissakin armeijoissa on nyt selvästi havaittavissa suuntaus sellaisten asejärjestelmien kehittämiseen ja käyttöönottoon, jotka toimivat ilman merkittävää ihmisen kontrollia kohteen valintaan ja hyökkäyspäätökseen liittyvissä kriittisissä toiminnoissa.
Ihmisen taipumus luottaa liikaa teknologiaan (automation bias) on laajasti dokumentoitu ongelma, joka vain kasvaa, kun päätökset liikkuvat yhä kauemmaksi meistä. Lisääntyvä riippuvuus teknologioista, kuten tekoälystä, joka on vielä hauras ja kykenemätön ymmärtämään kontekstia, edellyttää sääntelyä riittävän ihmiskontrollin säilyttämiseksi kohteen valinnassa ja hyökkäyspäätöksen tekemisessä. Uusia säännöksiä tarvitaan kansainvälisen humanitaarisen oikeuden soveltamisen tukemiseksi nykyisissä ja tulevissa konflikteissa.
2. Toimivaa määritelmää täysin autonomisille asejärjestelmille ei voida saavuttaa.
Päinvastoin, useat valtiot ovat jo määritelleet selvästi autonomisten asejärjestelmien keskeiset elementit. Kansainvälinen Punaisen Risti (ICRC) on ehdottanut yleistä määritelmää: autonomiset aseet ovat ”aseita, jotka ilman ihmisen vuorovaikutusta etsivät, identifioivat ja hyökkäävät kohteisiin”. ICRC ja muut organisaatiot sekä asiantuntijat ovat myös antaneet neuvoja valtioille riittävän kontrollin tyypin ja laajuuden määrittämiseksi asejärjestelmien kontekstissa.
CCW-keskusteluihin osallistuvat valtiot voivat edelleen kehittää näitä lupaavia ehdotuksia ja neuvotella lopullisen määritelmän diplomaattisen prosessin kautta. Teknologian kehittyessä jatkuvasti valtioiden on varmistettava, että autonomisiin asejärjestelmiin liittyvät määritelmät ovat ajantasaisia myös tulevaisuudessa.
3. Autonomisia asejärjestelmiä käytettäisiin vain sodissa.
Historia ja viimeaikaiset tapahtumat pikemminkin osoittavat meille, ettei teknologian käyttöä ole helppo rajata vain yhteen alueeseen. Jos muut toimijat haluavat näitä järjestelmiä, he löytävät tavan hankkia niitä.
Lisäksi autonomisten aseiden teknisiä komponentteja, kuten kasvojentunnistusta, kehitetään ja käytetään jo poliisin ja kansallisten viranomaisen toimesta omiin kansalaisiin.
Ei ole epäilystäkään siitä, että valtiosta riippumattomat toimijat ja autoritaariset hallinnot haluavat täysin autonomisia aseita. Myös kansalliset lainvalvontaviranomaiset ja rajavartiolaitokset pääsevät todennäköisesti käsiksi joihinkin järjestelmiin, mikä herättää huolta siviilien suojelusta konfliktien ulkopuolella.
Teknisten komponenttien hajanaisuuden vuoksi on välttämätöntä varmistaa, että kehittyneempiä sotilaallisia järjestelmiä ei kehitetä niiden lisääntyessä. Tällaisen teknologian leviämisen estämiseksi parhaita käytäntöjä ja mekanismeja sääntelyyn voidaan etsiä voimassa olevista kaksikäyttötuotteita (vientivalvonnan alainen tuote, jota voidaan käyttää siviilikäytön ohella sotilaallisiin tarkoituksiin tai joukkotuhoaseiden kehittämiseen) koskevista kansainvälisistä säännöksistä.
4. Autonomiset asejärjestelmät olisivat ihmistä eettisempiä.
Koneet eivät ole sen ”eettisempiä” kuin niiden tekijät. Koneen toiminta on niihin ohjelmoidun algoritmin ja muun datan kokonaisuus – ja tekoälyn opettamiseen käytetty data on vinoutunutta. Se on erottamattomasti sidoksissa sosiaaliseen ja poliittiseen todellisuuteen. Esimerkiksi kasvojentunnistus tunnistaa vähemmistöjä edustavat yhteisöt usein väärin. Toistaiseksi ei ole todisteita siitä, että kehittyneempi teknologia poistaisi puolueellisuuteen liittyviä huolia tai koneiden kyvyttömyyttä ymmärtää kontekstia.
Älykkäät koneet saattavat todellakin osua kohteisiin tarkemmin, mutta kohteen valinta voi silti olla väärä. Kontekstiin liittyvien tietojen, kuten kulttuuristen ja uskonnollisten käytäntöjen, puute voi johtaa kohteen epäasianmukaiseen valintaan, kuten on tapahtunut drone-iskujen yhteydessä.
Sotilaita ja komentajia voidaan pitää moraalisesti ja oikeudellisesti vastuussa, jos he tekevät rikoksia jopa käskyjen nojalla. Koneella ei ole moraalia, eikä se ota laillista vastuuta. Jos koneet laitetaan tekemään julmuuksia, ne suorittavat tehtävän. Tästä herää kysymys: kuka on vastuussa? Autonomisten aseiden käyttö näyttäisi ennemminkin herättävän vain uusia eettisiä huolenaiheita.
5. Autonomisten asejärjestelmien edut menevät riskien yli.
Jotkut valtiot väittävät, että autonomiset asejärjestelmät hyödyttävät siviilejä. Hallituksilla on varmasti mahdollisuus käyttää uutta teknologiaa tarkempien järjestelmien luomiseen, jotka pelastavat ihmishenkiä ja vähentävät infrastruktuuriin liittyviä riskejä. Nämä edistysaskeleet voivat kuitenkin tapahtua ilman että meidän tarvitsee luopua ihmisen kontrollista asejärjestelmien kriittisissä toiminnoissa.
Siviilit ja siviiliasutukset ovat jo nyt liian usein hallitusten ja valtiosta riippumattomien toimijoiden käyttämien tavanomaisten aseiden tarkoituksellinen kohde. Tämä ei muutu kehittyneempien aseiden myötä. Päinvastoin, haittojen laajuus voi lisääntyä, kun teknologioita kehitetään ja useita järjestelmiä otetaan käyttöön samanaikaisesti.
Autonomisia aseita voidaan hakkeroida. Ne ovat epätäydellisiä ja voivat tehdä virheitä. Kun ne ovat toiminnassa, niitä on vaikea pysäyttää. Onnettomuusriskit ja alttius autonomisen järjestelmän huijaamiseen tähtääville hyökkäyksille (adversarial attack) lisäävät turvallisuusriskejä siviileille ja asettavat uusia haasteita globaalille turvallisuudelle.
Konfliktit voivat kärjistyä, jos autonomiset järjestelmät joutuvat onnettomuuteen tai kone tekee virheen. Sotilaiden olisi vaikea todistaa, että kyseessä oli koneellinen virhe eikä tarkoituksellinen sotilaallinen toiminta.
Riskien minimoinnin sijasta nämä järjestelmät voivat aiheuttaa enemmän harmia siviileille ja johtaa konfliktien kärjistymiseen, jos virheen katsotaan olevan tahallinen. Edut eivät todellakaan ole suurempia kuin riskit.
—
Teksti on käännetty Project Ploughsharesin julkaisusta “5 Misconceptions about Autonomous Weapons Systems”, 11/2020.
Project Ploughshares on kanadalainen rauhantutkimusinstituutti, joka keskittyy aseidenriisuntaan ja kansainväliseen turvallisuuteen. Tutkimuksen painopisteitä ovat asekauppa, uudet sotilaalliset ja turvallisuuteen liittyvät teknologiat, ydinaseet ja avaruus. Project Ploughshares on kansainvälisen Campaign to Stop Killer Robots verkoston jäsen.