Stuart Russell er professor i kunstig intelligens ved Universitetet i California, Berkeley.

Se videoen som viser en tenkt situasjon der kunstig intelligens blir brukt som våpen litt lenger ned i saken.

Kaldt ned ryggen

Onsdag åpnet han teknologikonferansen Technoport i Trondheim med et foredrag som var egnet til å gi frysninger på ryggen, selv på hardbarkede teknologioptimister. Russell er nemlig en robotekspert som advarer mot å gi dem, altså robotene, for mye intelligens og for stort spillerom. Berkeley-professoren er grunnleggende positiv til kunstig intelligens, men advarer mot å satse ukritisk på roboter.

- De kan overliste oss, hvis vi ikke passer på, sier Russell.

Vil forby robotvåpen

Han er særlig bekymret for selvstyrte våpen, det vil si roboter som finner mål, velger dem og angriper på egen hånd, uten menneskelig medvirkning. Russell deltar i en kampanje som ønsker et internasjonalt forbud mot selvstyrte våpen. På Youtube ligger en filmsnutt som beskriver hvordan slike våpen kan brukes.

Filmsnutten beskriver hvordan svermer av små, flyvende droner finner og dreper sine ofre. Et slikt scenario er skrekken for de fleste, men drapsroboter kan bli nyttige redskap for terrorister, kriminelle og gale statsledere.

Masseødeleggelsesvåpen

- Siden dette er maskiner som ikke trenger menneskelig oppsyn, kan de mangedobles. Det innebærer igjen at én person kan angripe med en million, ti millioner eller hundre millioner våpen. Da har du laget et masseødeleggelsesvåpen. Det er en ekstremt dårlig idé å tillate at slike kan lages, sier Stuart Russel.

Technoport: Stuart Russel (til venstre) deltok på Technoport onsdag. Her er Berkeley-professoren sammen med en av de mange frivillige som jobber med teknologikonferansen, Kristian Elset Bø.

Berkeley-professoren peker på at selvstyrte våpenroboter vil være billige å produsere og anskaffe og enkle å transportere.

- I motsetning til atomvåpen som krever store ressurser. Det er nokså sannsynlig at verden blir mindre trygg med selvstyrte våpen, både for samfunnet generelt og for enkeltmennesker.

- Robotvåpen kan forbys

- Vil det være mulig å forby slike våpen?

- Verdens regjeringer må forstå disse spørsmålene. Det har ikke alltid vært enkelt. Vi har laget en enkel video for å klargjøre hva dette handler om, sier Russell.

Han minner om at verden også tidligere har greid å enes om forbud mot masseødeleggelsesvåpen.

- Ta biologiske våpen, det er sammenlignbart med selvstyrte våpen. Biologer overbeviste USAs regjering om at biologiske våpen ville være en fare for USAs befolkning. Derfor ble de forbudt. Det ble også vedtatt en internasjonal avtale om biologiske våpen. Regjeringer kan derfor påvirkes, hvis vi får dem til å forstå at selvstyrte våpen vil redusere sikkerheten, sier Russell.

Kan danke oss ut

- Hvorfor er du bekymret for at roboter kan komme til å danke oss ut?

- Vi bruker enorme ressurser for å utvikle kunstig intelligens som er overlegen menneskelig evne til å ta beslutninger. Det i seg selv øker risikoen, når vi prøver å lage systemer som er overlegne vår intelligens og som er sterkere enn oss. Hvordan skal vi sikre oss at roboter ikke får slik makt? Det er spørsmålet vi må stille, sier Russell.

- Er vi i ferd med å miste kontrollen?

- Det er ingen overhengende fare. Det er flere ting som må skje før vi er i en slik situasjon. Det er vanskelig å vite når det kan skje, men det skjer ikke i morgen.

- Hva må gjøres for å hindre at roboter overtar makten?

- Det er vanskelig å stoppe utviklingen av kunstig intelligens. Det bør heller ikke være et mål. Men vi må tilpasse hvordan det skjer. Vi må sikre at selv om systemer med kunstig intelligens er gode og svært intelligente, må de fortsatt være trygge og under vår kontroll, sier Stuart Russell.

Stuart Russell er fra England, bor for tiden i Frankrike og har et professorat i kunstig intelligens ved Berkeley, California.