Autonomiset aseet ja ihmisyyden kokemus

Heinäkuun alussa tapahtunut joukkoampuminen Dallasissa nosti robottiteknologian eettiset ongelmat jälleen julkisuuteen. Dallasissa poliisi käytti robottia ampujan tappamiseen räjähteellä. Tapaus on ensimmäinen kerta Yhdysvalloissa, kun poliisi on käyttänyt robottia tappamistarkoituksessa. Käyttöä perusteltiin turvallisuustekijöillä; muut toimet olisivat asettaneet poliisit liian suureen vaaraan.

Dallasissa käytetty robotti ei ollut autonominen, vaan päätöksen voimankäytöstä teki ihminen. Vaikka tässä tapauksessa robotti nähtäisiin vain poliisin käden jatkeena, robottien käyttöön tappamistarkoituksessa liittyy eettisiä ongelmia, erityisesti jos niitä kehitetään entistä autonomisempaan suuntaan. Keskustelu siitä, tulisiko robotit sallia esimerkiksi sodankäynnissä, on kiihkeää, sillä jos robotteja alettaisiin käyttää laajamittaisesti, herää kysymys, täyttävätkö niin kutsutut tappajarobotit oikeutetun sodan periaatteet. Tällä hetkellä ei ole yksiselitteisiä vastauksia muun muassa siihen, kuka olisi vastuussa robotin päätöksistä ja toimista ja kykenisikö robotti aina tekemään eron siviilin ja sotilaan välillä.

Juuri erotteluperiaatteen toteutuminen on aiheellinen huolenaihe autonomisten aseiden kohdalla. Sodissa siviilit ovat suojelunkohde ja vain taisteluun osallistuvan tappaminen on sodan sääntöjen mukaan oikeutettua. Jos tappamispäätöksen tekee robotti, vaarana on, että kohteen tunnistamisessa sattuu virheitä ja siviiliuhrit lisääntyisivät. Toisaalta voidaan vedota siihen, että robotit eivät tekisi inhimillisiä virheitä, sillä toisin kuin ihmiset, ne eivät ole koskaan väsyneitä tai stressaantuneita, eivätkä niiden päätöksin vaikuta tunteet, kuten halu kostaa.

Tunteiden ja inhimillisen kokemuksen puuttuminen ei ole silti pelkästään hyvä asia, ainakaan jos asiaa tarkastellaan ihmisyyden kokemuksen näkökulmasta. Jos robotti kohtaa sodassa ihmisen, niiden välillä on epäsymmetria, sillä toinen on ihminen ja toinen kone. Robotti ei ole osa ihmisyhteisöä eikä sillä ole kokemusta ihmisyydestä. Se ei kykene tuntemaan empatiaa. Sotilas sen sijaan voi taistelutilanteessa valita toisin ja tehdä päätöksen, ettei halua tappaa toista ihmistä. Robotti ei kykene asettumaan ihmisen asemaan, koska sillä ei ole kokemusta siitä, millaista on olla ihminen ja millaisia vaikutuksia ihmisen kuolemalla on ympäröivään yhteisöön.

Toisaalta voidaanko sodissa vaatia samanlaisia empatiaa ja inhimillisyyttä kuin siviilielämässä? Jos tappaminen sodissa on sodan sääntöjen rajoissa sallittua, ei sotilaita voi silloin syyttää tunteettomuudesta ja ihmisarvon unohtamisesta, vaikka heidän voimankäyttönsä kohdistuu muihin ihmisyhteisön jäseniin ja heillä on henkilökohtainen kokemus ihmiselämästä. Sotilaan valintaa jättää tappamatta voidaan pitää poikkeuksellisena tekona, mutta sotatilanteessa se ei ole moraalisesti vaadittua.

On kuitenkin syytä pohtia, voisiko tappamisen ulkoistaminen autonomisille aseille etäännyttää ihmisen tappamisesta ja sen seurauksista niin, että sotiin lähdettäisiin nykyistä helpommin. Tämä taas olisi yksi peruste autonomisten aseiden kieltämiselle. Jos sodista tulisi yhä yleisempiä ja tuhoisampia teknologisen kilpavarustelun myötä, autonomisista aseista saatavat hyödyt jäisivät haittoja pienemmiksi. Ja jotta sota voisi olla oikeutettu, sen tulee täyttää suhteellisuusperiaate.

Ei ole helppo nähdä, mitä tekemistä sodassa tappamisella on ihmisarvon kanssa. Kuitenkin niin kauan kuin päätöksen sotaan lähtemisestä tekee ihminen, tulee myös päätös elämästä ja kuolemasta olla ihmisen tekemä. On ihmisarvon mukaista kantaa vastuu toisen elämän päättämisestä ja tätä ei robotti kykene tekemään.

Hanna Lehto

Lähteet:
Jean-Baptiste Jeangène Vilmer: ”Terminator Ethics: Should We Ban “Killer Robots”?”
Adam Saxton: ”(Un)Dignified Killer Robots? The Problem with the Human Dignity Argument”
Human Rights Watch: ”Losing Humanity. The Case against Killer Robots”