Kommentar

Dræberrobotter bør forbydes

Autonome dræbermaskiner bliver ikke trætte, ikke lammede af angst, og det betyder ikke det store, hvis man mister dem – de gør det med andre ord alt for let at føre krig
Debat
20. april 2015

Dræberrobotter er et rædsomt ord, ikke sandt? Man kommer uvilkårligt til at tænke på dræbermaskinerne i Terminator-filmene eller kampdroiderne fra Star Wars. Dødbringende autonome våbensystemer – Lethal Autonomous Weapon Systems – er en mere stilig betegnelse, og forkortelsen er endnu bedre: LAWS. Nuvel, i denne uge afholder FN en konference om LAWS.

Vi taler ikke droner her. Droner hvisler stille rundt, højt oppe i luften over din frokost, indtil deres operatør ovre i Las Vegas eventuelt konkluderer, at du er i gang med at planlægge et terrorangreb, og beordrer sin drone til at dræbe dig og din familie. Men i det mindste er der en operatør til stede, et rigtigt menneske et eller andet sted i beslutningskæden.

Det er der ikke, når vi taler om LAWS. Maskinen søger gennem sine algoritmer og beslutter på egen hånd, om den vil dræbe dig eller ej. Så derfor vil det sikkert komme som en lettelse for dig at høre, at der ikke findes sådanne maskiner i drift – endnu. Men militærteknologer i diverse lande arbejder intenst på at udvikle dem, og de vil formentlig blive en realitet inden for 10 eller 20 år.

Robotter gør en forskel

Medmindre altså, at vi forbyder dem. Og det er det, som konferencen i Genève handler om. Den er et møde mellem diplomater, eksperter i våbenkontrol og menneskeretsspecialister. Og bliver de enige om, at dræberrobotter er en reel trussel, vil de kunne sætte spørgsmålet på dagsordenen til november, når der afholdes møde blandt de lande, som har underskrevet Konventionen om Visse Konventionelle Våben (Certain Conventional Weapons – CCW). Vi er med andre ord endnu i den tidlige fase, og der er en chance for, at vi kan få skrinlagt denne teknologi allerede i opløbet.

Det er et uskønt navn – Konventionen om Visse Konventionelle Våben – men ikke så klodset som det fulde navn: Konvention om Forbud eller Restriktioner for Brug af Visse Konventionelle Våben, som kan skønnes at være Uforholdsmæssigt Skadelige eller Ramme i Flæng. Og konventionen har faktisk allerede tjent et formål. Dens Protokol 1 forbyder således »brugen af våben, hvis primære effekt er at såre ved fragmenter, som ikke kan opdages af røntgenstråler i det menneskelige legeme«. Protokol 2 pålægger lande, der bruger landminer, at deaktivere dem efter en bestemt periode. Protokol 5, tilføjet i 1995, forbyder brug af blindende laservåben.

Verden ville være et værre sted, hvis disse bestemmelser ikke eksisterede. Men det gør de, og de bliver i vidt omfang holdt efterretteligt. Men ingen af de her nævnte våben ville gøre en afgørende forskel i et reelt slag, hvorimod de oplagt ville forårsage store menneskelige lidelser. Derfor var det en relativt let sag at få dem forbudt. Problemet med dræberrobotter er, at de netop vil kunne gøre en afgørende forskel i et slag. De bliver ikke trætte, de bliver ikke lammede af frygt, og hvis man mister dem – hvad så? Det er jo bare en maskine. Der er ikke noget menneske til stede her.

Men kan vi overlade det til en maskine at træffe beslutninger om at dræbe mennesker – og skelne soldater og legitime mål fra uskyldige civile – helt på egen hånd?

Etisk korrekte beslutninger

Vi må se i øjnene, at menneskelige soldater på slagmarken ikke altid træffer fornuftige og etisk korrekte beslutninger om, hvem der skal dræbes, og hvem der skal lades i live. Et eksempel: Der kommer snigskyttebeskydning fra huset derovre, men du ved, at der også er civile derinde. Du er nødt til at få elimineret snigskytterne, ellers kan du ikke fortsætte fremrykningen.

Du har to muligheder:

Du kan beordre en gruppe af dine soldater til at rydde huset. De vil dræbe snigskytterne og skåne de fleste af de civile. Men du vil højest sandsynligt miste en eller to af dine egne soldater i processen – mennesker, du kender, og for hvis liv du er direkte ansvarlig. Men du kan også bare anmode om artilleri- eller flystøtte og få hele huset bombet væk.

Dræberrobotten, derimod, vil bare gå ind og skyde snigskytterne. Uden tøven. Og er den rigtigt programmeret, vil den ikke dræbe de civile.

Internationale retningslinjer

Krige indebærer, at mennesker bliver slået ihjel, og uanset om du gør det med levende soldater eller LAWS-enheder, vil der være moralske dilemmaer. Den virkelige bekymring her er, hvor meget lettere det vil være for et teknologisk avanceret land at beslutte sig for krig, når det ikke skal frygte for at se en mængde af dets egne soldater blive dræbt.

Så lad os derfor sætte vores lid til, at det ender med et forbud mod dræberrobotter. Alligevel må vi belave os på, at autonome maskiner før eller siden vil se dagens lys, og at nogle af dem vil være i stand til at slå ihjel. Derfor må der udarbejdes internationale retningslinjer for deres adfærd. Her vil et godt udgangspunkt være Isaac Asimovs berømte tre love, som han formulerede i 1942: 1) En robot må ikke gøre et menneske fortræd eller ved ikke at gøre noget lade et menneske komme til skade. 2) En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov. 3) En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov.

© Gwynne Dyer og Information. Oversat af Niels Ivar Larsen

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Jens Christian Wulff

Lad os holde fast i det angivne, rørende eksempel med snigskytterne, det civile menneskeskjold og dræberrobotterne (DR)!!
Der er vist en række scenarier, man kan forestille sig som realistiske ud over de to angivne! Her er eet: snigskytterne ved, at der kan sendes DR mod dem og har - bare for en sikkerheds skyld :) - taget lidt tungere skyts med end bare en snigskyttegun af enelleranden slags, så de kan pulverisere DR, måske endda før de trænger ind i bygningen. HVis DR er en realitet, er de en del af en planlægning og dermed en risiko, der skal kunne elimineres. Snigskytter er jo ikke - per def - intelligensmæssigt laverestående, så skal vi ikke give dem den kredit, at de kan planlægge og reducere risici, hvor det er nødvendigt??
Når det så er sagt, er vi tilbage ved det menneskelige skjold, som DR med stor etisk respekt kun vil ramme ved et regulært uheld. Kan dræberrobotterne elimineres, før de trænger ind i bygningen, er skjoldet intakt, men trænger DR ind i bygningen, må de selvsagt elimineres der, og hvordan går det så med den fine DR etik?
Fortalere for DR kan så bringe spørgsmålet om SKYLD på banen. Det vil være er billigt kneb, men de gælder allesammen, som vi ved, men ikke rigtigt for de enkelte mennesker i skjoldet og deres kære. De er døde - ligegyldigt hvad, hvem og hvordan.
DR kommer selvfølgelig, på samme måde som al magtperversion i alle andre sammenhænge kommer, fordi det kan give en illusion om magtdominans, så længe de andre ikke har dem. I toppen af magtpyramiden worldwide er der ingen fine fornemmelser, så DR kommer - lige så sikkert som Amen i kirken. Al retfærdiggørelse af DR ved påberåbelse af respekt for individet - det etiske syn - er SPIN og fordrejning.
Ha' en god dag alligevel!!

Ingen tvivl om at DR kommer ...og at de kan skydes i smadder. Problemerne opstår for alvor når sværmintelligens kan implementeres i nanorobotter.

peter fonnesbech

Baren er sat altfor lavt.

Den skal højere op, jeg ved at det er svært og komplext,
men væbnede konflikter bør afvikles for fremtiden.

Flemming Berger, Niels Duus Nielsen, Jakob Johannsen og Benjamin Bach anbefalede denne kommentar
Jakob Johannsen

@Peter, enig, man skal gå efter bolden.

Land- og søminer er jo - i deres grundform - simple dræberrobotter.
Der er allerede udført arbejde på at fremstille søminer, som kan identificere bestemte skibstyper ud fra deres støjprofil.
Så autonome dræberrobotter indgår - efter alt at dømme - allerede i de militære arsenaler.
Den slags robotter kan i øvrigt aktiveres og deaktiveres ved simpel fjernstyring.

Endnu har vi til gode at se en krigsopfindelse, der ikke er blevet brugt - lige fra køllen og sværdet.
Pengene der investeres i dette materiel lader heller ikke håbet overleve.
Når mennesker finder ud af, at det ikke hjælper at slå andre mennesker ihjel - tja?

There are mines activated by a ship’s magnetic field, by the sound of its propellers, by pressure differentials in the water as a ship passes overhead. There are mines that detect all of the above, then cross-check between different types of sensors to make sure they’re not fooled by a decoy. There are mines smart enough to distinguish different kinds of ships and only wait for a chosen target — only oil tankers, for example, or only aircraft carriers. There are even rumors of Chinese and North Korean mines with nuclear warheads.

“A recent [Chinese] article claims that China has over 50,000 mines [in] over 30 varieties of contact, magnetic, acoustic, water pressure and mixed reaction sea mines, remote control sea mines, rocket-rising and mobile mines,” Naval War College professors Andrew Erickson, Lyle Goldstein, and William Murray say in a 2009 study. But mine warfare expert Scott Truver thinks that estimate is way too low: He says the Chinese may have 100,000 mines (more on Truver’s numbers in a moment).

from Breaking Defense on March 23, 2015