Kommentar

Vi er faretruende tæt på den totale udslettelse – initieret af dræberrobotter

En dronepilot kan slå ihjel på stor og tryg afstand, men det, som virkelig revolutionerer morgendagens krige, er automatiseret krigsførsel – en potentiel opskrift på katastrofer
En dronepilot kan slå ihjel på stor og tryg afstand, men det, som virkelig revolutionerer morgendagens krige, er automatiseret krigsførsel – en potentiel opskrift på katastrofer

Aris Messinis

Debat
4. oktober 2018

Når mennesker slår ihjel, kan graden af nærhed til offeret variere.

I den ene ende af skalaen finder vi Freddie Oversteegen, en hollandsk modstandsheltinde, der som 14-årig lokkede tyske soldater og kollaboratører, hun mødte på værtshuse, ud til afsides steder i skoven og likviderede dem. Årtier efter krigen fortalte hun, at når hun så mændene falde til jorden, efter at hun havde skudt dem, fik hun helt lyst til at hjælpe dem på benene igen.

I den anden ende af skalaen finder vi mandskabet på B-29-flyet Enola Gay, der tog livet af 80.000 civile med én enkelt bombe, nedkastet over Hiroshima fra ni kilometers højde.

Dronepiloter kan operere på endnu større og sikrere afstand. De tager på arbejde på deres base. Efter fyraften tager de velsagtens pendlertoget hjem til familien – endnu en rutinedag på kontoret dedikeret til aflivning af ukendte i fjerne afkroge af verden.

Hvordan bliver mennesker psykisk påvirket af en sådan drabshåndtering?

Hverken Enola Gays piloter eller Oversteegen mente selv, de handlede forkert. Med stort mod udkæmpede de en krig, de anså for retfærdig. Hvad tænker nutidens dronepiloter om vor tids krige? Også de må adlyde ordrer fra overordnede længere oppe i kommandokæden.

Automatiseret krigsførsel

Men dronepiloter er ikke bare kommet på afstand af krigsførelsens blodige virkelighed. I stadig flere tilfælde træffes de beslutninger, de skal effektuere, ikke af mennesker, men af computere.

Det kan der være gode grunde til. Et antimissilforsvar ville ikke reagere hurtigt nok på indkommende missiler, hvis menneskelige overvejelser fik lov at sinke beslutningsprocessen.

Formelt står mennesker stadig i langt de fleste tilfælde for at træffe militære beslutninger om at dræbe, men måske kan de menneskelige kommandanter med tiden blive reduceret til vinduespynt.

Et automatiseret våbensystem er kun farligt for dets fjender, men er der to af dem, er de farlige for hinanden og kan komme helt ud af kontrol.

Vi har set, hvad der kan ske, når automatiserede trading-programmer på aktiemarkedet sporer hinanden ud i destruktive og krakfremkaldende mønstre. I oktober 2016, da pund sterling pludselig tabte seks procent af sin værdi, blev kursdykket til dels forklaret ud fra algoritmebaseret trading.

Hvis to højteknologiske hære skal konfrontere hinanden på slagmarken, styret af deres respektive fintfølende algoritmer, bliver potentialet for katastrofe skræmmende stort.

Atomkrig er mindst én gang blevet afværget af en heroisk russisk officer, Stanislav Petrov, der tilsidesatte computermeldinger om et igangværende amerikansk missilangreb. Det var i 1983, og han havde 25 minutter til at tænke sig om. I dag ville beslutningen skulle tages inden for sekunder.

Uudholdelige syn

Udviklingen mod krigsførelse ved algoritmer og kunstig intelligens forløber ikke selv automatiseret. Der skal mennesker til at beslutte sig for at tage sådanne systemer i brug, og dermed måske gøre mennesker utidssvarende og endda dømme os til udryddelse. Men ikke meget tyder på, at vi har gjort os faren ved dræberrobotter klart, selv om computerforskere advarer om, at den igangværende automatisering kan revolutionere krigsførelse lige så meget som opfindelsen af krudt og atomvåben.

Så nej, dronepiloterne er ikke den største fare ved den nye militærteknologi.

Og de tilhører heller ikke den profession, der kan påregne sig de største traumer over, hvad de ser på skærme. Tænk i stedet på de underbetalte og fortravlede moderatorer, som Facebook og Google har ansat til at gennemse uendelige timers videooptagelser med alskens grusomheder fra børnemishandling til tortur og mord, filmet i en langt større detaljeringsgrad, end droner er i stand til.

Hvad de må udholde at se på, kan ikke retfærdiggøres gennem appeller til patriotisme. Og de kan hverken række ud imod gerningsmændene, eller få dem straffet.

Hvis jeg skulle sende nogen min følelsesmæssige og etiske støtte, ville den gå til disse ubevæbnede moderatorer, snarere end til vores væbnede styrker.

© The Guardian og Information. Oversat af Niels Ivar Larsen.

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

henrik poulsen

Jeg har læst et sted,at piloten fra Enola Gray fik så store samvittighedskvaler efter nadkastningen af atombomben,at han meldte sig selv for mord og krævede en rettergang.Det blev nægtet.

Poul Kristensen, Hanne Ribens og Eva Schwanenflügel anbefalede denne kommentar

Og fransk militær forsker i brug af kongeørne og vandrefalke mod droner. På hollandsk initiativ. På optagelser virker det. Dog nok ikke brugbart mod dronesværme, men det indgik vist ikke i de stratetiske overvejelser. Må danske rovfugle fortsat være frie fugle og vi med dem.

Poul Kristensen

@henrik poulsen: Det er ikke korrekt. Så en udsendelse med interview med ham og han mente stadigvæk at han bidrog til at forkorte krigen og dermed reddede mange menneskeliv. Sikkert korrekt, i og med at man skulle kaste to bomber + russisk invasion i de japansk besatte områder i Kina, inden japanerne gav sig.
Mht. den totale tilintetgørelse, så tror jeg først det kan komme på tale, når vi får selvreplikerende robotter, altså robotter der kan bygge flere af sig selv. Når det sker, behøver de ikke megen virtuel intelligens, så kan man udrydde hele menneskeheden med selvkørende plæneklippere.