Læsetid: 1 min.

Hvordan skal selvkørende biler reagere, når alt går galt?

De moralske dilemmaer selvkørende biler i fremtiden vil blive stillet i trafikken, er nærmest uløselige, og ikke en opgave vi bør efterlade alene til bilproducenterne. Det mener den franske psykolog og forsker Jean Francois Bonnefon. Vi inviterer jer til at deltage i et etisk eksperiment for at finde svar
I februar forårsagede en af Googles selvkørende testbiler for første gang en mindre ulykke, da den kolliderede med en bus. Ingen kom til skade, og Google har efterfølgende justeret deres software for at undgå lignende ulykker. Men hvor meget kan vi forlange, at Google og andre fabrikanter af selvkørende kan tage højde for, før de sender de selvkørende biler ud på egen hånd?

I februar forårsagede en af Googles selvkørende testbiler for første gang en mindre ulykke, da den kolliderede med en bus. Ingen kom til skade, og Google har efterfølgende justeret deres software for at undgå lignende ulykker. Men hvor meget kan vi forlange, at Google og andre fabrikanter af selvkørende kan tage højde for, før de sender de selvkørende biler ud på egen hånd?

13. april 2016

Når man ser Googles selvkørende biler manøvrere rundt i Californien, så er det nemt at tænke, at de selvkørende biler er lige om hjørnet. Men selv om teknologien er i rivende udvikling, er det kun et skridt på vejen.

Det er svært ikke at se potentialet. I de mest optimistiske scenarier, spår eksperter at selvkørende biler kan eliminere 90 pct af alle ulykker. Vi har dog stadig en moralsk forpligtelse over for de resterende 10 pct, og i de tilfælde hvor alt går galt, er det vigtigt at bilerne træffer et valg, der hverken skaber offentlig forargelse eller afskrækker folk fra at købe bilerne.

Den balance er ikke nem at sikre, så det kræver en bredere debat for at skabe den offentlige accept, der kan være afgørende for, hvordan vi modtager selvkørende biler.

Sådan lyder det i et forskningsartikel fra den franske forsker Jean Francois Bonnefon fra Toulouse School of Economics.

Med inspiration herfra og med hjælp fra en række danske forskere og praktikere har vi opstillet et lille udsnit af de dilemmaer, bilproducenterne skal løse, når de skal programmere de selvkørende biler til at klare sig selv i trafikken.

Hjælp os med at kaste lys over og debattere de moralske dilemmaer. Klik dig igennem skemaet herunder – det tager kun godt 5 minutter. Vi analyserer og offentliggører resultaterne i uge 16 og inviterer til debat om selvkørende biler mandag d. 25. april på Information – læs mere og tilmeld dig her.

Tilmeld dig vores arrangement om selvkørende biler til Forskningens Døgn i uge 17, hvor bl.a. diskuterer de selvkørende bilers moralske dilemmaer, hvem der bærer skylden når det går galt, hvordan vi lærer at blive dræbt af selvkørende biler, og hvem der egentligt har tænkt sig at købe en selvkørende Porsche? Arrangementet afholdes på Information mandag d. 25. april kl. 16-18.30.

Henrik Føhns, vært på P1's Harddisken, er moderator, og det bliver forrygende og forunderligt. Læs mere og tilmeld dig her (gratis)

Bliv opdateret med nyt om disse emner på mail

Vores abonnenter kalder os kritisk, seriøs og troværdig.
Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Anbefalinger

anbefalede denne artikel

Kommentarer

Johnny Christiansen

jeg synes spørgsmålene er ret lette at svare på da de på nær et har et entydigt skylds spørgsmål.

grundlaget for mine svar er at det aldrig er være i orden at nogen betaler prisen for en fejl begået af andre.

Det svære er i grå zoner hvor der er ikke er nogen der begår fejl eller der er fejl på begge sider, eller i situationer hvor der er forskel på konsekvensen af beslutningen - altså valg mellem at slå folk der er gået ud foran en bil ihjel eller at chaufføren blive mere eller mindre skadet/invalideret af at køre ind i en mur.

Eller hvad hvis det er statsministeren der tumler ud foran en bil der føres korrekt, men af en for samfundet uvæsentlig borger?

Lars Bo Jensen

I moderne biler dør man ikke af at køre ind i en mur, ved de hastigheder man kører når der er fodgængere så tæt på.

Trond Meiring

Hvis det ikke er muligt at dreje af i en anden retning, end hvor bilen vil køre ind i en fodgænger, i (eventuel/potensiel) dødelig hastighed - var det mulig at udstyre bilene med en slags ydre airbag, som kunne beskytte fodgængere eller dyr?

Anne-Marie Krogsbøll

Hvordan behandler Information de personlige oplysninger, man indsamler i ovenstående spørgeskemaundersøgelse? Jeg går ud fra, at besvarelsen logges sammen med besvarerens navn, når man er logget ind som bruger?

Hvorfor skriver Information ikke noget om dette - sælger man de meget brugbare og ret personlige oplysninger videre efterfølgende? Hvem administrerer besvarelserne? Et analysebureau? Hvilket?

Lars Højholt

@Trond: God idé:)

@Anne-Marie: Spørgeskemaet er oprettet i Survey Gizmo, og det taler på ingen måde sammen med vores system, så vi kan ikke se hvem der svarer hvad. Vi er nu også kun interessede i, hvordan svarene er fordelt procentvis og ikke hvad den enkelte har svaret, og hvem det er. Og det er mig og mine kollegaer Niels Christian og Sebastian Gjerding, der analyserer på tallene efterfølgende. Så ingen bureauer. 

Lars Højholt

@Lars Bo: Jeg forstår godt dit spørgsmål og her får du forklaringen. Spørgsmålene går som du måske ved under betegnelsen "trolley"-spørgsmål - en klassisk kategori af spørgsmål inden for moralfilosofien. Når man laver den slags spørgsmål, der har til hensigt, at debattere eller finde den rette moralske balance, er det vigtigt, at man sikrer sig at spørgsmålet entydigt tester det moralske dilemma. Det må så at sige ikke ‘besmittes‘ med andre overvejelser, der kan undtage os fra at forholde os til dilemmaet. Når vi (og andre) alligevel afviger en anelse fra dette princip, så skyldes det den kritik, du selv leverer her, at de kan blive for exceptionelle eller svære at relatere til. Det er ikke en helt nem balance at finde, kan jeg afsløre.

I det konkrete tilfælde ved algoritmen ganske vist ikke, om ulykken vil dræbe, men det er til muligt at registrere mennesker i trafikken - på veje og på fortov. Så den vil vide, at det er en risiko, og når forsøget allerede forudsætter, at man kører så hurtigt at man ikke kan nå at bremse, så kan den godt udregne en statistisk sandsynlighed for omfanget af den skade, den forvolder. Og man bliver ganske enkelt nødt til at opstille forudsætninger, som at den ikke kan bremse, for ellers kan du aldrig diskutere essensen i spørgsmålet. 

Når vi skriver dræber, så er det for at fjerne sandsynligheder som en del af beregningen, der kan besmitte det rene moralske valg som i det første tilfælde består i om en selvkørende bil skal beskytte chaufføren for enhver pris, eller om folk er mere utilitaristiske. Det kan variere med antallet af personer og om man selv er chauffør (og selv har passagerer med). Der er mange mulige variationer her. 

Det er den slags dilemmaer, der illustrerer, at det ikke er helt nemt at programmere de selvkørende biler. Hvem skal programmere dem? Skal Google have lov at have en anden moralfilosofi end Ford? Skal det statsreguleres? Skal man selv kunne konfigurere sin bil eller købe sig til en anden og mere chaufførvenlig konfiguration. Den slags spørgsmål står endnu ubesvaret, mens den teknologiske udvikling allerede gør det muligt at se delvist selvkørende biler på vejene. Historien har masser af eksempler på teknologier, der er forsvundet hurtigt igen, fordi fokus har været på teknologien og ikke nær så meget på det samfund der skal modtage teknologien og dens mulige konsekvenser. Derfor er en af vejene til at hjælpe teknologien på vej, at tage de øvrige problemstillinger alvorligt. Og debattere dem i den brede offentlighed - ikke kun hos producenterne! Så jeg håber ikke, at du vil lade dig afskrække af de enkelte spørgsmål, men i stedet forsøge at forstå intentionen i eksperimentet.

Anne-Marie Krogsbøll

Lars Højholt:

Tak for afklaring :-) Man kan desværre efterhånden ikke være FOR paranoid, når det gælder persondata :-(

De tænkte scenarier her tager jo ikke rigtig højte for at sådan en biler med dens mange sensor kan reagerer langt hurtigter og samler meget mere data sammen til at træffe sine afgørelse ud fra end et menneske kan, så spørgsmålet er om den slahgs situationer i hele taget vil opstå.
Hvis alle bilerne er styre af den slags er det jo intet problem at lave en hård opbremsning, robot bilen bag vil sagtens kunne nå at reagerer, problemet derimod bliver at de bagstræberiske som stadigvæk køre selv pludslige bliver det usikkerheds momentet, jeg kan ikke bare katastrofe opbremse da den ældre herrer som selv køre ikke kan nå at reagere også smadre op i mig, og aligeveler skubber mig henover de to fodgænger.

Finder det utrolig ubegavet at eksperimenter med selvkørende biler, hvad skal man bruge busser, jernbane og andre transportmidler til?
Køre mellem alm. biler?
Fint at eksperimentere med indtil den dag, hvor ingen gider lære færdselsreglerne eller tage noget ansvar overhovedet :)

Lars Højholt

@Jacob: Din kommentar viser meget fint vores tillid til teknologien, hvilket både er godt og dårligt. Teknologien er fantastisk, når den virker, men indtil man knækker koden for machine learning, er den jo ikke bedre end det, vi programmerer den til.

Nogle estimater går på at selvkørende biler kan fjerne 90% af alle ulykker, men det er under den forudsætning at alle biler er selvkørende. Der går lang tid, før vi når så langt, og vi har stadig et moralsk ansvar for de sidste 10%.

Billedet øverst i artiklen viser en af Googles selvkørende biler, der kolliderer med en bus. Det er den første ulykke, de selv er delvist skyldige i, og det er jo fantastisk. Men når Google siger, at den nu har lært af det, og at det ikke vil ske igen, så er det også med til at gøre det synligt for os, at der er programmører, der et eller andet sted har taget fejl eller at der er noget, de ikke har taget højde for. Sådan vil det vel uundgåeligt være, men jo mere vi har mulighed for at debattere denne slags dilemmaer, jo bedre bliver Google også til at undgå dem.

Rikke Nielsen og Anne-Marie Krogsbøll anbefalede denne kommentar
Henrik L Nielsen

Det største problem for denne teknologi er at menneskelige billister ikke kører efter reglerne. Vi bremser for sent, kører for stærkt, giver ikke plads ved sammenfletninger osv. For at gøre de selvkørende biler gode nok til at blive almindeligt tilgængelige skal de lære at tage højde for menneskets mangler. For eksempel, den selvkørende har grønt lys. En bil kommer hurtigt kørende fra siden og giver ikke tegn til at ville stoppe på den måde reglerne foreskriver. Skal den selvkørende bil køre og håbe at den anden bil blot gør som flertallet og bremset for hårdt og for sent, eller skal den stoppe og forsinke de andre biler bag den fordi den anden bil måske ikke har set at der er rødt? Normale bilister har erfaringen til oftest at kunne vurdere denne situation, men den selvkørende bil har kun reglerne at forholde sig til.
Indtil også den situation er løst rent programeringsmæssigt kan de selvkørende biler ikke blive en mulighed, med mindre vi forbyder menneskeførte køretøjer.

Jens H. C. Andersen, Bastian Barx og Lars Højholt anbefalede denne kommentar
Herman Hansen

Bilen kunne også programeres til hurtigt at slå de mulige ofres bankkonti op for at undersøge hvem der bedst har råd til at betale for de personskader den skades forvoldte udsættes for i tider som disse, hvor egen betaling vinder frem og etik og moral sejles agter ud. Ohøj do.

...Ja, mulighederne er mange.

Herman Hansen

...Køretøjet kunne også programeres til at pløje målrettet efter syge og ledige. De står jo alligevel til måls for så meget andet i tider som disse. Så lidt fra eller til, skidt pyt.

Anne-Marie Krogsbøll

Mht. algoritmer:

Deres beslutninger kan jo ikke blive bedre, end de data, der puttes i dem. Jeg orker ikke lige at læse igennem, om andre har fået samme tanke, men kan de selvkørende biler afgøre, hvem/hvor mange passagerer, der er i de øvrige biler, hvis man skal vælge, hvem man vil køre ind i? Kan den vide, om der er en, to eller fem passagerer? Om de er 90 år eller 8 år? Om der ligger tre spædbørn i babylift på bagsædet?

Det kan en menneskelig chauffør selvfølgelig heller ikke altid vide, men der er vel trods alt NOGEN ting, man kan se med sine egne øjne, som en robot ikke kan se.

Herman Hansen,
Ja, dem til højre er nok de "blødere" af slagsen - cyklister og forgængere :)

Herman Hansen og Anne-Marie Krogsbøll anbefalede denne kommentar
Lars Højholt

@Anne-Marie: Det er en selvstændig problemstilling, som jeg godt gad at høre et svar på. Man kan jo lave et uendeligt antal variationer over disse dilemmaer. Nogle kan de sikkert ikke svare på, fordi teknologien ikke er så sofistikeret endnu og andre fordi de ikke vil og nok heller ikke bør tage stilling til dem. Jeg har tidligere hørt Volvo sige, at deres biler under alle omstændigheder vil holde sig til loven, og det læser jeg som om, at de vil holde sig på vejen.

Det forstår jeg egentligt godt, for så undgår man at skulle forsøge at forstå alle mulige og umulige situationer, men det er ikke sikkert, at det er det "rigtige" eller det menneskelige valg i alle situationer. Det må være utroligt komplekst at skulle tage højde for, så uanset hvad ville det være godt at høre mere fra producenterne, hvordan de programmerer deres algoritmer. Hvilke variable tager de højde for, og hvilke undlader de bevidst?

Ingen af dem har onde intentioner er jeg sikker på. Men det er interessant fordi teknologien giver os mulighed for at svare på ting, som vi sjældent stiller spørgsmålstegn ved.

Niels P Sønderskov

Jeg er gået med på legen, men spørgsmålene har ikke meget med virkeligheden at gøre. Fem fodgængere dukker ikke 'pludselig' op. En menneskelig chauffør kan godt opfatte det sådan, fordi hun har været uopmærksom, men en computer vil aldrig blive overrasket på den måde. En lastbil, der bremser, vil altid have en meget længere bremselængde end personbilen, der med hjælp fra en computer altid kan standse, selv om den kører lige bag ved.

Herman Hansen

I disse dage kan man læse, at det store amerikanske teleselskab AT&T vil tilbyde sine kunder en "privat" pakke til 200 kr. pr. måned for ikke at få sine data logget - Ja, den er god nok. Hvad vi i dag anser for at være en moralsk og demokratisk ret vil for fremtiden kunne tilkøbes af de velhavende. Jamen sikke da en overraskelse hva?

Men det i tankerne og med grænser for moral og etik, som bevæger sig mere og mere i en kommerciel retning kan man så forestille sig, at de velhavende fremover kan tilkøbe sig en "sikkerhedspakke", som gør de ikke rammes af en vildfaren selvkørende bil som de første?

...Ja, mulighederne er mange. Dette her er bare en.

Herman Hansen

Og måske en udvidet pakke, som prioritere over dem med den almindelige billige standart "sikkerhedspakke" :-(

...Snart kan man se vildfarende selvkørende biler køre slalom for at ramme de "rigtige" Ha ha ha

Herman Hansen

En interessant vinkel er Tesla, som vel har nogle hundrede tusinde køretøjer på vejene verden over. Foruden at have en hvis mulighed for at være selvkørende, indsamles køre data fra alle biler og samles og analyseres på Tesla's servere. Der vil gennem årene være tale om ernorme mængder af data på, hvordan en Tesla kunde reagere i mangeartede situationer. Måske det kan bidrage til programmering af fremtidens selvkørende biler.

Omend, for at være repræsentativ vil det kræve en udvidelse af data indsamling til ikke kun at omhandle Tesla købere, da de tilhøre et udvalgt snævert segment - Vi har ikke samme reaktionsmønster, samt etik og moral og Tesla data alene vil ikke give valide data samlet set.

Måske kunne man anvende sin tid på at diskutere, hvordan man kan fremme offentlig transport, eller hvordan man kan bearbejde bilindustrien til at producere køretøjer, der forurener mindre.
Denne debat og undersøgelse løber jo blindt den konventionelle bilindustris ærinde....
Jeg tænker, man kunne lige så godt diskutere, hvordan vi kan opfinde en ny form for penicillin, sådan at vi fortsat kan øge medicineringen af industrisvinene....
Ach, meine Güte...