Hvordan skal selvkørende biler vælge, hvem man ikke skal dræbe?

En populær MIT-quiz bad almindelige mennesker om at træffe etiske vurderinger for maskiner

Kredit: skalerbart samarbejde / MIT Media Lab

Hvis en automatiseret bil skulle vælge mellem at gå ned i en barriere, dræbe sine tre kvindelige passagerer eller løbe over et barn på gaden - hvilket opkald skal den foretage?

Da tre amerikanske baserede forskere begyndte at tænke på fremtiden for selvkørende biler, spekulerede de på, hvordan disse køretøjer skulle tage de hårde etiske beslutninger, som mennesker normalt træffer instinktivt. Idéen fik Jean-François Bonnefon, Azim Shariff og Iyad Rahwan til at designe en online quiz kaldet The Moral Machine. Ville du løbe over en mand eller en kvinde? En voksen eller et barn? En hund eller et menneske? En gruppe eller et individ?

I 2069 kunne autonome køretøjer være den største forstyrrelse i transporten siden Model T Ford blev lanceret i Detroit i 1908. Selvom 62 virksomheder har tilladelser til at teste selvkørende biler i Californien, er industrien stadig etisk uforberedt. Moral Machine var designet til at give almindelige mennesker en vis indsigt i maskineetik - tilføjelse af deres stemme til debatten ofte begrænset til beslutningstagere, bilproducenter og filosoffer. Medium talte med Bonnefon og Shariff om, hvad deres resultater fortæller os om en af ​​fremtidens største moralske dilemmaer.

Dette interview er redigeret og kondenseret for klarhed.

Medium: Hvad er forskellen mellem den måde, mennesker og maskiner træffer moralske beslutninger på?

Jean-François Bonnefon: Moralske beslutninger truffet af mennesker er påvirket af så mange ting. Folk reagerer på baggrund af hormoner, men de gør det ikke på en begrundet måde, ikke når de træffer beslutninger virkelig hurtigt. Du og jeg kunne sidde og bruge en time på at diskutere, hvordan vi gerne vil reagere. Men der er ingen mening, vi kan ikke programmere os selv til at gøre, hvad vi gerne vil gøre, fordi vi handler på instinkt. Men med maskiner kan vi fortælle dem, hvad vi vil have dem til at gøre.

Azim Shariff: Maskiner har den luksus at overveje, som mennesker ikke har. Med denne luksus kommer også ansvaret for overvejelser.

Hvad fortalte Moral Machine dig om, hvordan vi ønsker, at maskiner skal handle?

Azim Shariff: Alle lande havde en præference for at redde unge mennesker frem for gamle mennesker og næsten overalt havde en præference for at redde kvinder frem for mænd. Mens præferencerne alle gik i en retning, var der forskelle i, hvor stærkt lande følte sig om disse valg. I østlige lande som Japan var der mindre præference for at ofre den gamle for at redde de unge. Men denne præference blev vist i Vesten.

Jean-François Bonnefon: Det er måske mere interessant at se på makroøkonomiske faktorer. Alle lande viste en foruroligende præference for at redde mennesker med højere status [for eksempel ledere frem for hjemløse]. Vi fandt, at dette er ret stærkt knyttet til niveauet for økonomisk ulighed i et land. Hvor der var større ulighed, var der større præference for at ofre hjemløse.

Hvor meget opmærksomhed bør selvkørende bilproducenter være opmærksomme på dine resultater?

Azim Shariff: Det er det kritiske spørgsmål - hvor meget skal vi følge, hvad demoerne siger her? Hvis offentligheden ønsker, at vi skal gøre en ting, er det sådan, at biler skal være etisk organiseret? Fra et rent demografisk synspunkt bør vi give offentligheden, hvad de ønsker. Men der er mennesker, der er trænet til at tænke gennem etiske beslutninger, og måske bør vi lytte til dem i stedet. Jeg mener ikke, at vi blot skal standardere, hvad flertallet siger, men jeg synes, det er nyttigt at vide, hvad offentligheden foretrækker. Det antyder, hvilken slags pushback vi kommer til at få for moralske koder, der er sat i bilerne.

I en tidligere undersøgelse fandt du, at folk mente, at et autonomt køretøj skulle beskytte det større antal mennesker, selvom det betød at ofre dets passagerer. Men de sagde også, at de ikke ville købe en autonom bil, der er programmeret til at handle på denne måde. Hvad fortæller dette os?

Azim Shariff: Folk erkender, at det er mere etisk ansvarligt at redde flere liv. Men folk er selvinteresserede, og det kan være en hård sælger at gøre det, der er etisk. Da Mercedes-Benz sagde, at hvis de kun kunne redde en person, ville de redde chaufføren og ikke fodgængeren, gjorde offentlig skandaløsitet dem tilbagetrækning af denne erklæring. Dette demonstrerer et interessant dilemma for bilfirmaer. Hvis du siger, at din bil foretrækker passageren, vil der være offentlighedsforurening. Hvis du beslutter dig for at behandle alt liv lige, men ødelægge livet for den person, der har købt bilen, kan du faktisk tage et hit til din bundlinje, måske køber folk ikke den bil. Fra de producenter, vi har talt med, de ønsker, at beslutningen tages ud af deres hænder, og de ønsker regulering.

Bør den amerikanske regering følge Tysklands eksempel og udstede etiske retningslinjer for selvkørende biler?

Azim Shariff: Jeg synes, det er en god ide. Fordelen ved regeringsinddragelse er, at du ikke overlader etiske beslutninger op til markedet. Jeg stoler ikke på, at markedet finder den mest etiske diskussion. At have hver producent oprette deres egne retningslinjer, så forbrugerne kan vælge mellem algoritmer, ville være meget kaotisk.

Er menneskers værdier tæt nok tilpasset til at nå universelle retningslinjer?

Azim Shariff: Jeg tror, ​​det ville være muligt. Folk var enige om de generelle punkter, såsom at redde flere mennesker snarere end færre. Men der er en vis variation, for eksempel hvordan du skal behandle folk, der går i kaj. Det skyldes sandsynligvis uoverensstemmelser i, hvordan disse normer håndhæves inden for forskellige kulturer. I Japan er jaywalking ikke en normal ting at gøre, men i Delhi eller New York, jaywalking hele tiden. Det kan være en vanskelig en, og biler skal muligvis være lydhøre over for dette på en eller anden måde.

Selvom det ville være muligt at opnå universel etik, synes jeg ikke, det er nødvendigt. Da jeg bragte en bil fra Canada til USA, måtte jeg ændre forlygterne. Det er sværere med hardware, end det er med software. Med den selvkørende bilsoftware ville det være muligt at skifte algoritme til lokale skikke. Jeg tror ikke, det ville være et enormt problem at have nogle kulturelle variationer.

En ingeniør, der arbejder på Googles eget selvkørende bilprojekt, sagde, at dine resultater ikke var så betydningsfulde, fordi det rigtige svar i disse scenarier næsten altid ville være "smække på bremserne." Er Moral Machine's scenarier faktisk relevante for det virkelige liv?

Azim Shariff: Disse situationer bliver utroligt sjældne. Det, der bestemt er mere umiddelbart relevant, er, hvordan enhver lille beslutning, som bilen træffer, skifter risiko. Hvis bilen giver mere plads til børn, sætter denne beslutning føreren i højere risiko. Denne lille beslutning ender muligvis ikke med dødsfald, men det spørgsmål, vi bliver nødt til at stille, er, hvordan skal bilen fordele risiko mellem mennesker. Dette spørgsmål bliver meget mere kompliceret, men også meget mere presserende.