Sodankäynnin kolmas vallankumous
Autonomiset asejärjestelmät muuttaisivat perustavanlaatuisesti sodankäynnin tapaa, minkä vuoksi niitä sanottu kolmanneksi sodankäynnin vallankumoukseksi ruudin ja atomipommin keksimisen jälkeen.
Ruudin keksiminen nähdään sodankäynnin ensimmäisenä vallankumouksena. Ydinaseiden kehittämistä voi pitää vallankumouksista toisena. Ruudin ja ydinaseiden käyttöönotto muutti perustavanlaatuisesti sodankäynnin tapaa sekä konfliktitilanteisiin liittyviä kokemuksia niin sotilaiden kuin siviilien keskuudessa. Nyt tekoäly ja koneoppiminen vievät meitä kohti sodankäynnin kolmatta vallankumousta: autonomisten asejärjestelmien käyttöönottoa.
Robottiaseet tai tappajarobotit ovat asejärjestelmiä, jotka valitsevat ja tuhoavat hyökkäyskohteensa itsenäisesti pelkkää algoritmista päätöksentekoprosessia ja sensoriteknologiaa hyödyntäen. Ihmisellä ei toisin sanoen ole mielekästä kontrollia näiden asejärjestelmien tekemiin päätöksiin. Sotilashenkilöstö ei pysty hallitsemaan niitä koneoppimisen prosesseja, joiden perusteella robottiase toimii ja tekee päätöksiä. Seurauksia ei tule aliarvioida: aivan kuten ruuti ja ydinaseet, tappajarobotit voivat muuttaa maailmaa peruuttamattomalla tavalla.
Autonomisilla asejärjestelmillä ei ole inhimillistä arvostelukykyä, jota tarvitaan esimerkiksi taistelutilanteen arvioimisessa, voimankäytön säätelyssä ja siviilien erottamisessa taistelijoista. Ne eivät myöskään osaa tulkita tai soveltaa muita sodankäynnin sääntöjä.
On mahdotonta määrittää, kuka – jos kukaan – kantaa vastuun tappajarobottien tekemistä virheistä, sotarikoksista ja ihmisoikeusloukkauksista. Olisiko vastuunkantaja ohjelmoija, valmistaja, komentaja vai kenties itse asejärjestelmä? Tällaisen tyhjiön muodostuminen vastuukysymysten ympärille olisi vastaan oikeutetun sodan periaatteita. Tästä huolimatta useat valtiot Ranskasta ja Iso-Britanniasta Yhdysvaltoihin ja Kiinaan upottavat suuria rahasummia tappajarobottien kehitystyöhön.
Robottiaseet kykenevät käsittelemään dataa, tekemään päätöksiä ja toimimaan niiden perusteella ihmistä huomattavasti nopeammin. Itsenäisesti toimivat asejärjestelmät ovat paitsi monimutkaisia myös arvaamattomia. Niiden nopeus muuttaisi sota- ja konfliktitilanteet hetkessä hallitsemattomiksi, mikä horjuttaisi kansainvälistä turvallisuutta ja lisäisi alueellisia levottomuuksia, poliittista epävakautta sekä sodan uhkaa kaikkialla maailmassa.
Robottiaseiden toiminta on mekaanista – algoritmisen päätöksenteon ja koneoppimisen summa. Näin ollen niiltä puuttuu kyky tuntea empatiaa, tehdä moraalisia valintoja, tunnistaa poikkeustilanteita, sekä ymmärtää kontekstin merkitystä ja tilannekohtaisia vivahteita.
Historia osoittaa, ettei robottiaseiden käyttö tulisi rajoittumaan pelkkiin sota- ja konfliktitilanteisiin, vaan leviäisi todennäköisesti myös osaksi poliisitoimintaa ja rajavalvontaa. Autonomisia aseita voitaisiin käyttää esimerkiksi protestien ja mielenosoitusten tukahduttamiseksi, laillisten hallintojen kaatamiseksi tai valtaapitävien syrjäyttämiseksi.
Campaign to Stop Killer Robots -kampanja tekee yhteistyötä sotaveteraanien, tekniikan alan asiantuntijoiden, tutkijoiden ja voittoa tavoittelemattomien järjestöjen kanssa edistääkseen autonomisten asejärjestelmien kehittämisen ja käyttöönoton kieltoa.
Kampanjan tavoite
Kansainvälinen kampanjaverkosto edistää täysin autonomisten asejärjestelmien kieltoa, ja siten riittävän ihmiskontrollin säilyttämistä voimankäytössä. Tätä varten tarvitaan kansainvälinen sopimus, joka velvoittaa maailman maat säilyttämään voimankäytön ihmisten hallinnassa. Jos asejärjestelmien sallitaan itsenäisesti tunnistaa, valita ja tuhota hyökkäyskohteensa, ylitämme rajan hallittavan ja hallitsemattoman voimankäytön välillä.
Sotilashenkilöstön on kyettävä ymmärtämään, millä perusteella asejärjestelmä on hyökkäyskohteensa valinnut, sekä säilytettävä aktiivinen rooli päätöksenteossa. Kampanjan tavoitteena on kieltää sellaiset asejärjestelmät, joita ihminen ei kykene riittävästi hallitsemaan tai ymmärtämään. Tämä ei koske aseita, joiden keskeisiin toimintoihin tarvitaan vielä ihmisen osallistumista.
Kampanja ei vastusta tekoälyä, robotiikkaa, tai edes näiden hyödyntämistä armeijan toiminnassa. Tarkoituksena ei ole kieltää sellaisia autonomisia järjestelmiä, jotka on suunniteltu ihmishenkien pelastamiseksi, kuten autonomiset räjähteiden havaitsemis- ja hävittämisjärjestelmät, jotka voivat toimia ihmisten tukena tai täysin ihmisestä riippumatta. Kampanja uskoo, että on olemassa selkeä rajaviiva, jota ei tulisi koskaan ylittää: vastuuta elämän ja kuoleman kysymyksistä ei tulisi milloinkaan siirtää koneelle.
Yksi autonomisten asejärjestelmien kehittämiseen liittyvistä huolenaiheista on, että niiden käyttöönotto saattaisi alentaa sodan aloittamisen kynnystä. On myös olemassa riski, että käyttöönotettuja asejärjestelmiä hakkeroitaisiin, niiden toimintaa häirittäisiin, tai että ennalta-arvaamattomat toimintahäiriöt saisivat ne toimimaan ohjelmointinsa vastaisesti. Kaikki nämä mahdolliset skenaariot vaarantaisivat niin sotilashenkilöiden, strategisten tukijoukkojen kuin siviiliväestön turvallisuuden. Käsityksemme on, ettei yksikään sotilaskomentaja halua luovuttaa päätösvaltaansa – ja sen myötä konfliktitilanteen hallintaa – täysin autonomiselle aseelle.
Kylmän sodan vuosina venäläinen upseeri pelasti maailman pelkän inhimillisen harkintakykynsä ansiosta. Kylmähermoinen everstiluutnantti Stanislav Petrov sai 26. syyskuuta 1983 tietokoneiltaan ilmoituksen, että Yhdysvallat oli juuri laukaissut viisi mannertenvälistä ydinohjusta kohti Neuvostoliittoa. Petrov päätti raportoida seurantasatelliittien lähettämän tiedon eteenpäin vääränä hälytyksenä. Mitä olisi tapahtunut, jos Petrov ei olisi käyttänyt kriittistä arviointikykyään, vaan olisi kyseenalaistamatta uskonut hälytyksen pitävän paikkansa?
Tämä tositarina on erinomainen esimerkki siitä, miten tärkeää on, että koneiden ei anneta tehdä elämää ja kuolemaa koskevia päätöksiä itsenäisesti, ilman ihmisen hallintaa tai mielekästä kontrollia. Inhimillisen arvostelu- ja harkintakyvyn merkitys sota- ja konfliktitilanteissa on aivan yhtä tärkeää nyt kuin Kylmän sodan aikana.
Mitä sotilashenkilöt voivat tehdä?
Britannian armeijasta eläköitynyt everstiluutnantti John MacBride on kirjoittanut avoimen kirjeen tarkoituksenaan todistaa, että veteraanit, sotilashenkilöt ja muut armeijassa palvelevat työntekijät vastustavat autonomisten asejärjestelmien kehittämistä, käyttöönottoa ja leviämistä.
Allekirjoita avoin kirje, jos olet huolissasi lähestyvästä sodankäynnin kolmannesta vallankumouksesta, sekä niistä vaikutuksista, joita tällä peruuttamattomalla muutoksella olisi komentoketjulle, järjestykselle, vastuuvelvollisuudelle sekä armeijan jäsenten kuin siviilien turvallisuudelle. Sinun avullasi voimme päästä askeleen lähemmäs autonomisten asejärjestelmien kieltämistä.
Kirjeen suomennos on luettavissa täällä.
Teksti on mukaillen käännetty kansainvälisen Campaign to Stop Killer Robots -verkoston verkkosivuilta. Suomen verkoston toimintaa voit seurata @stopkillerrobotsFI tai @KillerRobotsFI.