Hvis du måtte velge, ville du heller kjørt ihjel tre gamle kjerringer enn to lekende barn? I de førerløse bilene må slike valg programmeres på forhånd.

Følgende scene er ikke mer science fiction enn at den kan inntreffe allerede i neste stortingsperiode: En førerløs bil cruiser i 80 kilometer i timen, nøyaktig på fartsgrensen. Bilen, enten det er en Tesla, en av Volvos selvkjørende modeller eller en Google Chrysler, klarer seg helt uten menneskelig hjelp. Den enslige passasjeren er opptatt av å formulere en vittig Facebook-oppdatering og har uansett ikke noe ratt å holde i.

Plutselig løper to barn ut i veien, så nær at det er umulig å stoppe. Det foreligger tre valg: Bilen kan fortsette rett fram og treffe barna, den kan vri til høyre og inn i murveggen, med stor sannsynlighet for at bilens passasjer dør, eller den kan vri til venstre og treffe to slitne menn, muligens av utenlandsk opprinnelse, som intetanende rusler i veikanten.

En menneskelig fører vil reagere på refleks og med stor sannsynlighet unngå den opsjonen som setter eget liv i fare. Slik er vår hjerne innrettet, at dens første reaksjon er selv-oppholdelse. En selvkjørende bil vil derimot reagere i tråd med algoritmene den er programmert med. Noen har på forhånd, under kontrollerte forhold og etter lange diskusjoner, bestemt om det er barna, de to fremmede mennene eller bilens eier som har minst verdi, og derfor må ofres.

I den førerløse trafikken vil også etikken være styrt av roboter. Men de etiske valgene vil være forutbestemt av mennesker, og det er på høy tid å diskutere hvem disse skal være.

«Er vi klare for utilitaristiske biler?» spurte en internasjonal forskergruppe, ledet av Jean-Francois Bonnefon ved Toulouse School of Economics, i en studie som ble publisert i fjor høst. Utilitarismen definerer det gode som det som gir lykke til flest mulig, eventuelt minst skade for flest mulig. Forskerne undersøkte om vi vil akseptere at morgendagens biler tar dramatiske moralske valg på våre vegne. Det vil vi, med ett viktig forbehold: De færreste vil ha en bil som ofrer eierens liv for å redde andres. Vi er og blir oss selv nærmest.

Hvis den selvkjørende bilen i eksemplet ovenfor var programmert av rene utilitarister ville den kjøre i fjellveggen og ofre førerens liv for å redde barna og de to eldre, utenlandske mennene. Hvis bilen derimot var programmert til alltid å verne eieren, noe som utvilsomt vil kunne være et salgsargument for et visst segment (her kunne vi fordomsfullt nevnt dagens eiere av store, svarte audier, men lar det være), ville den fortsatt måtte velge mellom barna og de to mennene, etter utseendet å dømme to samfunnsøkonomisk kostbare innvandrere. I flere land, blant annet det bilproduserende Tyskland, er det forbudt å sette liv opp mot hverandre. I den algoritmestyrte etikken er det umulig å la være.

Det er ikke engang nok å sette liv mot liv. Forsikringsselskapene vil argumentere med at et barn i rullestol resten av livet er mye dyrere enn utbetalingen til de etterlatte etter en 70-åring. Altså gir det større økonomisk innsparing å drepe en eldre person enn å skade en ung.

Produsentene vil på sin side hevde at ingen vil kjøpe biler som ikke tar maksimalt hensyn til sin eier. Skal det da være lov å programmere bilene egoistisk, uansett konsekvensene for andre trafikanter, eller vil vi få internasjonale regler som setter en etisk standard for hvilke kalkulasjoner bilenes styringssystem får lov til å gjøre? Er det med andre ord politikerne, produsentene, forsikringsselskapene eller bilkjøperne selv som skal bestemme hvilket nivå av selvoppofrelse som skal legges inn i styringssystemet? Går det an å tenke seg ulike nivåer, der altruistene kan velge annen programvare enn egoistene?

«De etiske spørsmålene som den automatiserte transporten utløser er svært viktige og djevelsk kompliserte», sier professor Chris Gerdes ved Stanford University til Financial Times. Han er en av flere akademikere som brukes av bilbransjen til å utforske etikken i den nye trafikken. Nissan har ansatt sin egen antropolog ved utviklingssenteret i Silicon Valley for å kartlegge det nye maktforholdet mellom autonome biler og mennesker, andre samarbeider med akademia. Plutselig er etikk og filosofi blitt ettertraktet kompetanse.

Søren Riis, førsteamanuensis i filosofi ved Roskilde universitet mener at algoritmene bør ta stilling til hvor mange det er inne i bilen og hvor mange utenfor som vil bli rammet i en kollisjon. Han vil også legge inn lovlydighet som et parameter. «Hvis det er én person inne i bilen og én utenfor, og personen utenfor ikke overholder loven, vil det være absurd å ta livet av bilisten», sier han til videnskab.dk.

Men hva om den som bryter loven er et lite barn som ikke vet bedre, og den som er inne i bilen er 80 år og har kreft, noe en analyse av passasjerens mange digitale spor raskt vil avsløre? Vil det ikke da være den beste løsningen for samfunnet å redde barnet?

Volvo lover selvkjørende biler på veien allerede neste år. I fjor høst var svenskene blant flere andre selskap som lovet å ta på seg ansvaret for ulykker forårsaket av deres førerløse biler. Det er ingenting som tyder på at den etiske refleksjonen har holdt tritt med den teknologiske utviklingen. Volvo og de andre produsentene vil antakelig bygge inn erfaringsprogram og finne et nivå som holder deres egne kostnader lavest mulig og samtidig ikke skaper for store politiske problem. Etikken vil bli fininnstilt etter hvert, som gammeldagse tennplugger. Det lønner seg ikke å selge biler som heller meier ned et skolekorps enn å utsette eieren for en hjernerystelse.

Men denne diskusjonen er altfor viktig til at vi kan overlate den til Nissan, Tesla eller Volkswagen (som jo vet hvordan man manipulerer algoritmer). Hvilket parti blir det første til å arrangere seminar om den førerløse trafikkens moralfilosofi?