Kunstig intelligens er et verdifullt verktøy på mange områder. Men i feil hender er teknologien lett å misbruke. Det har vi nettopp sett et nytt eksempel på.

Ifølge magasinet +972, som blir drevet av ei gruppe israelske og palestinske journalister, har Israel brukt kunstig intelligens (KI) til å drive masseovervåkning i Gaza.

Teknologien fant 37 000 militante Hamas-sympatisører og fortalte hvor de bodde. Systemet regnet også ut hvor mange sivile som kunne bli drept hvis Israel skulle bombe et hus for å ta livet av én av Hamas-sympatisørene. KI fant ut at 15 til 20 sivile kunne bli drept for å ta én.

Ifølge +972, som har samarbeidet med The Guardian, sier israelske etterretningsoffiserer at å drepe så mange sivile var en pris Israel var villig til å betale. KI-systemet har navnet Lavender og skal ikke være helt ferdig. Israel tok det likevel i bruk.

Avsløringen er et skremmende eksempel på farene KI fører med seg. Teknologien åpner for en overvåkning på et helt annet nivå enn hva som var mulig tidligere. Ved hjelp av ansiktsgjenkjenning og effektivt søk i enorme datamengder kan de fleste mennesker bli kartlagt. Kina har for eksempel brukt KI og ansiktsgjenkjenning for å overvåke minoritetsgruppa uigurene.

Mange, også blant dem som har vært pådrivere bak teknologien, er bekymret for at KI kan være en alvorlig trussel. Elon Musk, som var med på å grunnlegge KI-selskapet OpenAI, er blant dem som mener utviklingen må ta en pause.

Alt dette viser hvor avgjørende det er at teknologien ikke blir misbrukt. EU har nettopp vedtatt en KI-lov som blant annet skal hindre masseovervåkning. Regjeringen i Norge er innstilt på raskt å inkludere det samme direktivet i norsk lovverk. Vi håper det arbeidet går fort, for teknologiutviklingen har så høy fart at det er lett å miste kontroll over den.

KI vil uansett utgjøre en trussel fordi den kan brukes som et farlig våpen når personer eller myndigheter med onde hensikter tar teknologien i bruk.