Suomen Stop Killer Robots -verkoston lausunto Ulko- ja turvallisuuspoliittisesta selonteosta

Suomen Stop Killer Robots -verkosto on huolissaan autonomisten asejärjestelmien säätelyä koskevien selkeiden linjausten puuttumisesta ja edellyttää Suomelta sitoutumista sellaisen sopimuksen neuvottelujen aloittamiseen, joka ehkäisee tappamisen automatisoinnin ja takaa ihmisen hallinnan voimankäytössä. 

Suomen Stop Killer Robots -verkoston* lausunto valtioneuvoston Ulko- ja turvallisuuspoliittisesta selonteosta keskittyy linjauksiin autonomisista asejärjestelmistä, esittelee näihin asejärjestelmiin liittyviä humanitaarisia, eettisiä, oikeudellisia ja turvallisuusriskejä ja suosittelee tapoja käsitellä näitä huolenaiheita oikeudellisesti sitovan sopimuksen avulla. 

Autonomiset asejärjestelmät heikentävät ihmisoikeuksien ja oikeusvaltioperiaatteen toteutumista

Selonteon mukaan Suomi pitää kiinni “meille tärkeistä ja keskeisistä arvoista, kuten demokratiasta, oikeusvaltioperiaatteesta, kansainvälisestä oikeudesta ja ihmisoikeuksista, rauhasta, tasa-arvosta ja yhdenvertaisuudesta.” (4) Autonomisten asejärjestelmien kehittäminen ja käyttö vaarantaa näiden keskeisten arvojen toteutumisen.

Autonomiset asejärjestelmät tunnistavat kohteensa sensoritiedon perusteella ja käyttävät tuhovoimaa itsenäisesti. Autonomian lisääntyminen asejärjestelmissä tarkoittaa, että koneet alkavat korvata ihmisten päätöksentekoa voimankäytössä. Koneet eivät pysty tekemään monimutkaisia ​​eettisiä arvioita tai ymmärtämään ihmiselämän arvoa. Autonomisten asejärjestelmien käyttöönotto vaarantaisi ihmisoikeuksien toteutumisen, loukkaisi ihmisarvoa ja sallisi yksilöiden epäinhimillisen kohtelun. Kone ei ymmärrä tappavansa, ja siksi elämän ja kuoleman päätöksiä ei saa koskaan antaa koneelle. 

Uudet teknologiat saattavat toimia epäedustavan datan perusteella pahentaen rakenteellista syrjintää, ennakkoluuloja ja sosiaalista eriarvoisuutta. Yhä tehokkaampi tarkkailu ja tietojen kerääminen taas heikentää oikeutta yksityisyyteen.

Valtioiden pyrkimys pysyä sotilasteknologian kehityksen kärjessä johtaa kiihtyvään kilpavarusteluun, mikä lisää konfliktien todennäköisyyttä ja vaarantaa kansainvälisen turvallisuuden. Pahimmassa tapauksessa autonominen asejärjestelmä varustetaan ydinkärjillä, jolloin kone saisi päättää joukkotuhoaseen käytöstä.

Automatisoidun päätöksenteon virheet, tekoälyn tuottaman mahdollisesti haitallisen tiedon ja hakkeroinnin seuraukset voivat olla arvaamattomia ja tuhoisia. Jos autonomiset asejärjestelmät ovat toiminnassa, niitä voi olla mahdotonta pysäyttää.

Autonomisia asejärjestelmiä ei voi käyttää vastuullisesti

Selonteon mukaan “Suomelle on tärkeää aikaansaada kansainvälistä sääntelyä, sopimuksia tai periaatteita uusien teknologioiden, erityisesti tekoälyn sekä autonomisten asejärjestelmien, vastuulliselle kehittämiselle ja käytölle.” (53)

Pidämme myönteisenä, että selonteossa mainitaan sääntelyn tärkeys. Näemme kuitenkin ongelmallisena, että selonteossa ei tavoitella suoraan kieltoa, rajoituksia tai ehtoja autonomisten asejärjestelmien käytölle tai kehittämiselle. Kansainvälistä sääntelyä kannustetaan tekemään näiden asejärjestelmien “vastuulliseen” kehittämiseen ja käyttöön. Autonomisia asejärjestelmiä ei kuitenkaan ole mahdollista käyttää vastuullisesti: esimerkiksi alttius hakkeroinnille voi kääntää asejärjestelmän käyttäjäänsä vastaan tai saada sen toimimaan muuten odottamattomalla tavalla.

Tekoälyn kehittyessä järjestelmiä on myös yhä vaikeampi ymmärtää tai ennustaa. Ihminen ei voi vaikuttaa koneen tekemiin nopeisiin päätöksiin. Ihmisen käsitys hänen roolistaan päätöksenteossa voi hämärtyä, mikä heikentäisi vastuuvelvollisuutta.

Selonteon kirjaus “Samalla tulee mahdollistaa uusien teknologioiden hyödyntäminen puolustuskyvyn kehittämisessä sekä luoda toimintamallit ja vastatoimintakyky uusien teknologioiden muodostamiin uhkiin” (53) on mahdollista ymmärtää niin, että autonomisia asejärjestelmiä halutaan kehittää ja ottaa käyttöön. Sopimuksiin ollaan valmiita, mutta vain sellaisiin, joilla asetetaan jonkin asteisia rajoja asejärjestelmien kehittämiselle – ei niiden kieltämiselle. Näyttäisi myös, että linja on muuttunut kansainvälisen säätelyn aloitteellisesta edistämisestä enemmän aseiden kehittämisen ja käyttöönoton puolelle vastuullisuus ja kansainvälinen oikeus huomioiden. Pidämme selonteosta luettavissa olevaa linjamuutosta huolestuttavana.**

Sääntelyn aloitteellinen edistäminen ja perus- ja ihmisoikeuksia polkevien autonomisten asejärjestelmien kehityksen estäminen on ensisijaista, jos Suomi*** haluaa uskottavasti profiloitua teknologian kärkivaltiona ja sitoutua osallistumaan “aktiivisesti teknologian globaalista hallinnasta ja sääntelystä käytävään keskusteluun” tukien “perus- ja ihmisoikeuksien ja näihin liittyvien riskien vahvaa huomioimista tekoälyn kehittämisessä ja soveltamisessa sekä sitä koskevassa sääntelyssä”. (30, 42)

Päätös voiman käytöstä tulee säilyä aina ihmisellä

Selonteossa linjataan, että “Tekoälyn sotilaallisessa kehityksessä ja käytössä keskeistä on kansainvälisen oikeuden noudattaminen, etenkin humanitaarisen oikeuden kunnioittaminen. Päätöksen tappavan voiman käytöstä tulee säilyä aina ihmisellä eikä kokonaan ihmisen ohjauksen ulottumattomissa olevia asejärjestelmiä tule kehittää jatkossakaan.” (53–54)

Kansainvälinen humanitaarinen oikeus pyrkii estämään sodan aiheuttamaa liiallista kärsimystä ja helpottamaan rauhan rakentamista. Autonomisten asejärjestelmien käyttöönoton myötä sodankäynnin kynnys voisi madaltua, mikä vaarantaa kansainvälisen turvallisuuden, siviilien suojelun ja kansainvälisen humanitaarisen oikeuden toteutumisen. 

Uudet teknologiat ja tekoälypohjaiset asejärjestelmät voivat tietyissä olosuhteissa aiheuttaa, edistää tai helpottaa ihmisoikeusloukkauksia ja horjuttaa kansainvälisiä ihmisoikeussopimuksia. Autonomian lisääntyminen asejärjestelmissä tarkoittaa, että annamme koneille luvan tehdä oikeudellisia päätöksiä. Kone ei kuitenkaan kykene ymmärtämään kontekstia, kantamaan vastuuta tai tekemään monimutkaisia inhimillisiä arvioita, jotka ovat välttämättömiä elämää ja kuolemaa koskevassa päätöksenteossa.

Tekoälyä hyödyntävät asejärjestelmät ovat jo taistelukäytössä ja etenkin siviiliuhrien osuus kohteista on kasvanut voimakkaasti.

Sotilasteknologian kehitys ja konfliktit eri puolilla maailmaa osoittavat, että tekoälypohjaiset aseet ja asejärjestelmien autonomian lisääntyminen muuttavat sodankäyntiä. Israelin on esimerkiksi raportoitu hyödyntävän Gazassa tekoälyä kohteiden tunnistamiseen ja hyökkäyspäätöksen tekemiseen. Raportin mukaan kohteen varmistamiseksi käytettiin joissakin tapauksissa vain 20 sekuntia ennen iskun hyväksymistä, vaikka järjestelmän virhemarginaali tiedettiin suureksi. Gazassa käytettyihin järjestelmiin liittyy samanlaisia oikeudellisia, eettisiä ja humanitaarisia riskejä kuin autonomisiin asejärjestelmiin, koska ihminen on vain nimellisesti mukana päätöksenteossa.

Murroksellisten teknologioiden ja tekoälyn kehityksen tuomat turvallisuusuhkat sekä sodankäynnin mullistuminen teknologian kehityksen myötä tunnistetaan myös selonteossa. Lisäksi huomataan teknologian kehityksen esille nostamat uudet kansainvälisen oikeuden kysymykset liittyen muun muassa tekoälyn käyttöön ja uusiin aseteknologioihin. (17, 20)

Autonomisten asejärjestelmien kehitykseen liittyvien turvallisuusuhkien ymmärtäminen ei kuitenkaan yksin riitä, vaan turvallisuuspoliittisiin vaikutuksiin tulee vastata lainsäädännöllä. Nykyinen lainsäädäntö ei riitä ratkaisemaan autonomisten asejärjestelmien aiheuttamia huolenaiheita. Ihmiskunnan suojelemiseksi tarvitaan selkeät linjaukset siitä, mikä on hyväksyttävää. Oikeudellisesti sitovalla kansainvälisellä sopimuksella voidaan varmistaa, että päätös voiman käytöstä säilyy aina ihmisellä.

Autonomiset asejärjestelmät tulee kieltää kansainvälisellä sopimuksella

Autonomisia asejärjestelmiä koskevalle kansainväliselle sopimukselle on vahva tuki.  YK:n pääsihteeri ja Punaisen Ristin kansainvälinen komitea on vedonnut valtioihin, jotta uudesta autonomisia asejärjestelmiä koskevasta sopimuksesta neuvoteltaisi vuoteen 2026 mennessä. Yli 120 valtiota tukee neuvotteluja oikeudellisesti sitovasta sopimuksesta.

Suomen Punaisen Ristin kyselytutkimuksen (2024) mukaan 40 % suomalaisista arvioi siviiliuhrien lisääntyvän, “jos täysin autonomiset robotit ja droonit, joita ihmiset eivät hallitse, korvaavat ihmistaistelijat tulevaisuudessa”. Vain 14 % oli sitä mieltä, että autonomiset aseet vähentävät siviiliuhreja. Valtaosa vastanneista (66 %) ei pidä koskaan hyväksyttävänä sitä, että sodissa ja aseellisissa selkkauksissa koneilla olisi valta riistää ihmishenkiä ilman ihmisen väliintuloa. 

Murroksellisten teknologioiden tuomat mahdollisuudet liittyen puolustuskyvyn kehittämiseen tai tekoälyn sotilaallisen hyödyntämisen ja autonomisten asejärjestelmien kehityksen taustalla olevat kilpailukykytekijät ja väitetyt edut eivät ylitä niihin liittyviä riskejä. Valtioilla on mahdollisuus hyödyntää uutta teknologiaa sellaisten järjestelmien luomiseen, jotka pelastavat ihmishenkiä ja vähentävät infrastruktuuriin liittyviä riskejä. Tämä kehitys voi tapahtua ilman että meidän tarvitsee luopua ihmisen kontrollista asejärjestelmien kriittisissä toiminnoissa, kuten kohteen valinnassa ja hyökkäyspäätöksen tekemisessä.

Suomen Stop Killer Robots -verkosto pitää huolestuttavana selkeiden linjausten puuttumista ja edellyttää, että: 

  • Autonomisten asejärjestelmien kehittäminen, valmistaminen ja käyttäminen kielletään kansainvälisellä sopimuksella. Päätösvalta voimankäytöstä on säilytettävä ihmisellä.
    • Kielletään järjestelmät, jotka kohdistavat hyökkäyksensä ihmisiin, ja joita ihminen ei voi merkittävissä määrin hallita. 
    • Laaditaan positiivisia velvoitteita ja määräyksiä muille järjestelmille, jotta varmistetaan riittävä ihmisen valvonta, mukaan lukien järjestelmien riittävä ymmärtäminen ja niiden käyttöalueen ja keston rajoittaminen.
  • Suomi on aloitteellinen sopimusneuvotteluissa, tekee yhteistyötä ja sitoutuu solminaan oikeudellisesti sitovan sopimuksen autonomian säätelemiseksi asejärjestelmissä.

Tehokkain keino varmistaa voiman käytön säilyttäminen ihmisellä, ratkaista autonomisiin asejärjestelmiin liittyviä riskejä, huolehtia kansainvälisen oikeuden mukaisen vastuun toteutumisesta ja puolustaa kansainvälistä oikeutta ja sääntöpohjaista kansainvälistä järjestelmää on luoda oikeudellisesti sitova sopimus, joka kieltää ja säätelee autonomisten asejärjestelmien kehittämistä ja käyttöä.


*Stop Killer Robots -verkoston jäseninä olemme sitoutuneet tukemaan valtioita uuden autonomisia asejärjestelmiä koskevan kansainvälisen sopimuksen neuvottelemisessa. Stop Killer Robots on yli 250 kansalaisjärjestön ja akateemisen kumppanin verkosto, joka työskentelee 70 maassa varmistaakseen ihmisen hallinnan voimankäytössä ja torjuakseen tappamisen automatisoinnin. Verkoston suomalaisia jäsenjärjestöjä ovat Suomen Rauhanliitto ry, Suomen Sadankomitea ry, Suomen Rauhanpuolustajat ry, Naiset rauhan puolesta, Tekniikka elämää palvelemaan ry ja Aseistakieltäytyjäliitto ry.

**Suomen linjaukset mukailevat vuoden 2023 lopussa julkaistua tekoälyn ja autonomian vastuullista sotilaallista käyttöä koskevaa poliittista julistusta. Yhdysvaltojen laatima julistus ei ole oikeudellisesti sitova eikä se pyri selkeästi rajoittamaan autonomisten aseiden kehitystä.

***Suomi on osallistunut autonomisia asejärjestelmiä koskeviin asiantuntijakeskusteluihin (GGE) eräitä tavanomaisia aseita koskevan sopimuksen (CCW) yhteydessä. Yli kymmenen vuotta kestäneiden keskustelujen tuloksena on määritelty ohjaavia periaatteita mutta konsensusperiaatteen nojalla toimiminen on estänyt todellisen edistyksen. Suomen tulisi liittyä valtioiden joukkoon, jotka tukevat autonomisia asejärjestelmiä koskevan oikeudellisesti sitovan sopimuksen solmimista.