Arnold Schwarzenegger vandrer målrettet gjennom politistasjonens snevre ganger, iført solbriller og skinnjakke. De forsvarsløse politibetjentene blir sablet ned av bly når de kommer mellom ham og hans mål, Sarah Connor. Uten samvittighet og uten måtehold. Kun kald kalkyle: Finn. Drep.

Da filmen Terminator kom i 1984 var tanker om en dødbringende robot som den Schwarzenegger spilte kun ren science fiction. Og selv om menneskelignende maskiner på to ben med moteriktige skinnjakker og drapsinstinkter fortsatt er et stykke inn i fremtiden er det ikke lenger tvil om at drapsrobotene er på vei.

USA, Kina, Russland, Israel og England fører an i utviklingen av mer eller mindre selvstyrende krigsmaskiner. Droner, jagerfly, tanks og ubåter med potensial til å ødelegge og drepe uten å bli beordret om det av deres menneskelige oppfinnere.

Utviklingen vekker stor bekymring verden over, og derfor skal representanter fra mer enn 80 land og adskillige interesseorganisasjoner denne uka møtes i sveitsiske Genève, hvor FN skal diskutere dødelige, selvstyrende våpen – de såkalte drapsrobotene.

Debatten om drapsroboter har skutt fart i løpet av de siste årene. Flere ganger har forskere, eksperter og teknologi-ikoner, anført av prominente navn som Elon Musk og den nå avdøde Stephen Hawking, offentlig etterspurt et forbud mot utvikling og bruk av autonome våpen.

Nylig oppfordret mer enn 50 forskere på feltet kunstig intelligens til boikott av det sørkoreanske universitetet Kaist, fordi universitetet samarbeider med en sørkoreansk virksomhet som utvikler våpensystemer med kunstig intelligens.

Onsdag i forrige uke kunne den amerikanske avisa New York Times presentere et internt brev sendt av flere enn 3.000 Google-ansatte til Googles øverste sjef, Sundar Pichai. I brevet tryglet de ansatte direktøren om å annullere Googles avtale om utvikling av intelligente overvåknings- og målutvelgelsessystemer for det amerikanske forsvaret.

– Å skape denne teknologien for å hjelpe den amerikanske regjeringen med militær overvåkning – med potensielle dødelige følger – er ikke akseptabelt, skrev de Google-ansatte i brevet.

Moral og sikkerhet

En av deltakerne ved FN-møtet denne uka er robotekspert Noel Sharkey. Utover å være professor emeritus i robotteknologi ved University of Sheffield har han i årevis kjempet for et FN-forbud mot autonome våpen, som talsperson for kampanjen «Stop Killer Robots».

– Vi blir nødt til å få i stand et internasjonalt forbud mot utvikling og bruk av autonome krigsroboter før det kommer så langt at de blir tatt i bruk, sier Noel Sharkey.

Det er særlig to ting som bekymrer kritikerne som omtaler utviklingen av intelligente drapsmaskiner for «den tredje store våpenrevolusjonen». Den første var bruk av krutt, den andre oppfinnelsen av atomvåpen.

Det første kritikkpunktet er det moralske. At roboter skal kunne ta selvstendige beslutninger om hvorvidt et menneske skal leve eller dø er helt grunnleggende moralsk feil, mener Noel Sharkey. Roboter hverken kan eller skal vurdere om et mål helliger midlet i komplekse og uforutsigbare militære situasjoner.

– Det finnes ingen algoritme som kan regne ut om det for eksempel er verdt å drepe Bin Laden om det også koster livene til 25 gamle damer eller ti små barn. Det er scenarioer som ikke kan forutsies, og som krever et man har et erfarent befal på stedet for å ta slike beslutninger, sier Noel Sharkey.

Den andre store bekymringen handler om global sikkerhet. Kritikerne frykter at utviklingen av autonome våpen risikerer å ende opp i et selvdestruktivt våpenkappløp hvor store nasjoner konkurrerer om å utvikle nye og enda mer destruktive autonome våpen. Samtidig risikerer man at teknologien ender i hendene på skruppelløse diktatorer og terrorister som kan volde store skader.

Det verst tenkelige scenarioet er imidlertid at autonome våpensystemer starter en uønsket konflikt fordi det tar et valg basert på en programmert instruks som ikke har et menneskes evne til å gjøre nyanserte vurderinger.

– Det finnes mange eksempler på at man har unngått at konflikter har brutt ut eller eskalert fordi mennesker med fingeren på avtrekkeren har nektet å følge ordre og utvist måtehold. Det kan man ikke forvente at programmet til en robot vil gjøre, advarer Noel Sharkey.

«Drapsroboter» eller «krigsmaskiner»

Med slike argumenter skulle man tro det var enkelt å bli enige om regulering av utvikling og bruk av autonome våpen. Slik er det nemlig ikke. Det første hinderet er å bli enige om definisjonen av hva en «drapsrobot» er.

– Alle de viktigste robotutviklende nasjonene sier at de heller ikke ønsker selvstyrte krigsroboter. Men om man kikker på hvordan de enkelte landene definerer som «selvstyrt» blir bildet fort litt uklart, sier Robin May Schott, forsker ved Dansk institutt for internasjonale studier (DIIS).

– Før vi kan få en robust internasjonal lovgivning om hvordan disse våpnene kan utvikles og brukes må vi bli enige om definisjonen.

De fleste nasjoner, med USA i tet, argumenterer for at en krigsmaskin ikke er selvstyrt så lenge et menneske har betydelig kontroll over den, også selv om den har mulighet til å identifisere og angripe mål.

Men hva er egentlig «betydelig menneskelig kontroll»? Krever det veldig snevre parametere for hva som kan angripes og under hvilke forhold? Eller er det nok med brede oppdragsbeskrivelser, som «drep alle menn som bærer tørkle og våpen», eller «skyt på alt som forsøker å krysse grensen»?

– Vi foreslår derfor i stedet at et dødelig, selvstyrt våpen defineres som en maskin som på egen hånd kan foreta de to avgjørende krigsfunksjonene: identifisering av mål og angrep mot mål, sier Robin May Schott, som har forsket på nettopp dette definisjonsspørsmålet sammen med kollegaene Johannes Lang og Rens Van Munster.

Med andre ord: om et våpen ikke har bruk for et menneskes øye på siktekornet og et menneskes finger på avtrekkeren, så er det snakk om en «drapsrobot».

Ut av de mer enn 80 nasjonene som deltar på møtene i Genève denne uka er det 22 som har tatt til orde for et totalt forbud mot selvstyrte våpen ut ifra denne definisjonen. De fleste av disse er utviklingsland, som antakelig vil være de siste som vil ha mulighet til å anskaffe slik teknologi.

Det vil ikke bli foretatt noen endelige beslutninger om regulering denne uka, men planen er at det skal formuleres forslag til tiltak som vil være gjenstand for forhandling når nasjonene møtes igjen senere i 2018.