Læserbrev

Det vil altid være farligt at lade robotter overtage vigtige menneskelige beslutninger

Ligegyldigt hvordan vi programmerer vores robotter, vil de aldrig komme til at føle menneskelige følelser som forelskelse og ondt i maven. Derfor må vi ikke overlade vigtige beslutninger om for eksempel våben til dem. Det er simpelthen for farligt, skriver datamatiker og forfatter Tom Allan Olsen i dette debatindlæg
Ligegyldigt hvordan vi programmerer vores robotter, vil de aldrig komme til at føle menneskelige følelser som forelskelse og ondt i maven. Derfor må vi ikke overlade vigtige beslutninger om for eksempel våben til dem. Det er simpelthen for farligt, skriver datamatiker og forfatter Tom Allan Olsen i dette debatindlæg

Mia Mottelson

Debat
27. september 2021

Jan Krogh går den 21. september i rette med Nicolas Nyrup Vinter, som i et indlæg forsøger at problematisere den manglende menneskelighed i AI.

Jeg mener ikke, at man kan bruge menneskelige begreber som ’sundhed’ eller ’forståelse’, når man taler om AI, fordi AI ikke har en menneskelig krop eller sjæl og aldrig vil kunne forstå, hvad det vil sige at være forelsket eller have ondt i maven. Ser man bort fra det, er det min oplevelse, at de to går fejl af hinanden.

Krogh mener, at tesen om at alle levende væsener er forbundet i et netværk af bevidstheder, forudsætter et metafysisk verdenssyn. Men sådan er det ikke. Mange fysikere er i dag enige om, at universet gennemstrømmes af superstrengs- og kvantefænomener, som netop forbinder universet.

Her opstår konflikten. Krogh pointerer derefter, at denne ’metafysiske’ virkelighed er noget, de mange buddhistiske retninger ikke kan enes om. Det er rigtigt, at buddhistiske retninger ikke er enige om alt, men er deres fælles grundsubstans af den grund metafysisk? Og hvad mener Krogh egentlig med ’metafysisk’?

Der er snarere en vigtig pointe i konflikterne i buddhistisk sammenhæng. Nogle af dem har formentlig også sproglige årsager, andre religiøse eller sociale årsager snarere end, at der er tale om et uetisk menneskesyn. Der kan ske fejl i kommunikationen. Det kan skabe konflikter, at modtageren hører forkert, at afsenderen siger forkert, eller at det sagte er flertydigt.

Derefter følger andre fejl hos Krogh. For eksempel tesen om at ’man’ er et individuelt begreb. ’Man’ er snarere et generaliseret individbegreb. På den (fejl)slutning hviler Kroghs hårde dom: at buddhismen har et uetisk menneskesyn. Et begreb som ’man’ giver nærmere både mulighed for forståelsen af hele mængden og delmængder af individer.

Lige så vigtigt er det, at fejlslutningen i konklusionen hviler på antagelsen om, at der ikke findes individer og argumenter for en bestemt etik i buddhismen. Det er forkert. Men det betyder ikke, at Nicolas Nyrup Vinter i den modsatte ende har ret i alle sine antagelser, ligesom jeg formentlig heller ikke har i alle mine.

For til sidst at komme tilbage på sporet, tror jeg personligt aldrig, at AI vil kunne forstå, hvad det vil sige at være et menneske. AI kan hjælpe med at løse nogle praktiske problemer, men det er ikke bare uansvarligt og umenneskeligt at overlade vigtige beslutninger, som for eksempel betjening af våbensystemer, til en autonom og automatiseret teknologi. Det er faktisk direkte farligt.

Tom Allan Olsen er datamatiker og forfatter

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Bio-chauvinist.

Intelligens og følelser kan ikke være substrat afhængigt, da begge dele er information processering.
"Special pleading" er en ubegrundet fejlslutning.

Jeg vil anbefale Max Tegmarks "Life 3.0" for at få et bare lidt kvalificeret grundlag at diskutere AI ud fra.

... og efter Trump og Bolsanaro er argumentet om at AI i sig selv skulle være værre faldet bort :-P