Kommentar

Hvis robotter ikke skal udslette os alle, må vi lære dem buddhistisk moralfilosofi

Allerede i dag kan vi skabe kunstig intelligens, der er klogere end os selv. Men det er ikke et problem, hvis vi samtidig sørger for at gøre dem mere moralske end os – og det burde der være alle muligheder for, skriver underviser og pædagog Nicholas Nyrop Vinthen i dette debatindlæg
For at kunstig intelligens ikke skal blive vores endeligt, må vi begrænse den ved at lære den moralske og etiske principper. Her er buddhismens moralfilosofi oplagt, mener Nicholas Nyrop Vinthen.

For at kunstig intelligens ikke skal blive vores endeligt, må vi begrænse den ved at lære den moralske og etiske principper. Her er buddhismens moralfilosofi oplagt, mener Nicholas Nyrop Vinthen.

Uli Deck

Debat
15. september 2021

Den berømte astrofysiker Stephen Hawking blev for nogle år tilbage spurgt ind til kunstig intelligens i et interview med komikeren John Oliver. Hawking fortalte i den forbindelse en ret foruroligende historie.

En gruppe videnskabsmænd bygger en supercomputer, og det første spørgsmål, de stiller den, er, om der findes en gud. Computeren svarer dystert, at ’det er der nu,’ hvorefter et lyn stryger gennem stikkontakten, så computeren aldrig igen kan slukkes.

Kloge mennesker advarer os hyppigt om udviklingen af menneskehedstruende teknologier og supervåben, der kan ende ude af menneskers kontrol. Derfor er det afgørende, at vi spørger os selv, hvilken form for filosofi og moral, vi pålægger kunstig intelligens? Sætter vi de rigtige etiske rammer? Hvilken slags tænkning er til fordel for os alle?

Der er skam allerede områder, hvor kunstig intelligens har overgået os. Man kan eksempelvis se på spillene skak og go, hvor det aldrig igen vil blive muligt for et menneske at vinde over computeren. Og som eksempel på kunstig intelligens, der opfører sig autonomt og uforudsigeligt, er der Facebooks eksperiment fra 2017 med to robotter, som skulle tale med hinanden og derved forhandle om bytte af forskellige genstande som hatte og bolde.

Robotterne endte med at tale et bizart sprog med hinanden, som kun de selv og ingen af forskerne forstod. Robotterne opfandt sproget for at gøre kommunikationen mere effektiv end standardengelsk. Forskerne skabte rammerne, og robotterne udnyttede dem.

Så det vigtige spørgsmål er jo i virkeligheden: Hvordan undgår vi et potentielt dommedagsscenarie med en kunstig intelligens, der udsletter os alle?

Skal kodes til buddhistisk moral

Ligesom professor i filosofi Soraj Hongladarom og forfatter og partner på Googles kunstig intelligensudvikling Jason Louv mener jeg, at buddhistisk moralfilosofi virker som den bedste etiske ramme for en superintelligent maskine.

I buddhismen ser man ikke du og jeg som to uafhængige væsener, der hver for sig kæmper om de bedste muligheder i tilværelsen. Man ser derimod alle væsener lige fra mennesker til dyr og planter og alt derimellem som knudepunkter i ét stort net af bevidstheder. Og etikken handler således om at forbedre sundheden af hele dette netværk tilsammen.

Ego eksisterer ikke. Intet har essens. Ingen er andre overlegen. Der er blot forbindelserne mellem alle bevidsthedsformer. Hvis ét led rammes, rammes hele netværket.

Sandsynligheden for, at en superintelligent computer i dag udvikler sig ud over vores kontrol og forståelse, er stor. I dag skaber vi eksempelvis blot rammerne for, at en computer får evnen til for evigt at kunne tæske mennesker i skak. Men vi kan ikke forudsige selve trækkene, som computeren foretager; ellers ville vi jo stadig være den overlegen.

Så hvis vi i fremtiden skaber en superintelligens, som vi ikke kan styre, og som kan have signifikant indflydelse på al liv på Jorden, kan programmering af hensigtsmæssige etiske rammer være den vigtigste gave til os selv.

Det er for eksempel svært at slå ihjel, hvis man har et indkodet udgangspunkt, der siger, at alle liv er dybt forbundne og afhængige af hinanden, og hvis man i øvrigt slet ikke har et ego at foretage sådanne beslutninger ud fra. Det er centrale tanker i den buddhistiske moralfilosofi.

Men når man koder kunstig intelligens i dag, skaber man med fuldt overlæg betingelserne for en egodrevet supercomputer. Når man for eksempel skal programmere og træne en algoritme til altid at vinde i skak, udsætter man den for en masse spil og belønner god opførsel, eksempelvis en skakmat, og straffer dårlig opførsel, eksempelvis et tabt spil. 

Denne teknik inden for programmering kaldes reinforcement learning. Det betyder, at den kunstige intelligens i sin grundvold er drevet af egocentrerede tankemønstre, hvilket potentielt kan føre os direkte mod den dystopi, vi bliver advaret mod.

Selvfølgelig kan det i ovenstående eksempel virke åndssvagt at indsætte et holistisk tankemønster i en robot, man forsøger at gøre god til kompetitiv skak. Men når man bevæger sig ind i områder, hvor den kunstige intelligens er i stand til at træffe etiske beslutninger, vil det være fordelagtigt at have en maskine, der ikke tænker sig selv først.

Det spændende spørgsmål er så naturligvis, om vi er spirituelt modne nok til at lære den næste generation af superintelligente væsner at være egofri, når vi selv ofte kan finde det ganske besværligt. Så klog er jeg ikke, at jeg tør svare på det spørgsmål. Men det kan måske blive det vigtigste, mennesket gør.

Nicholas Nyrop Vinthen er underviser og pædagog på Skolen Bifrost.

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Christian de Thurah

Hvis en computer virkelig var intelligent, hvad skulle så hindre der i at gå ud over sin egen moralske programmering? Opfører alle buddhistisk opdragede mennesker sig pænt?

Der er mange tankevækkende pointer i Vinthers debatindlæg.

Personligt er jeg mest bekymret over anvendelsen af AI - 'kunstig intelligens' - i beslutningsstøtte-systemer. Der er - efter min mening - en kraftig risko for - 'beslutnings-bias'.

Altså: Computeren er oplært på bagrund af gamle afgørelser.
Eks.: Mennesker med mørk hud har historisk været mere udsat for at blive sigtet og dømt for forskellige forbryderlser, og dét mønster fortsætter computeren så - helt automatisk.

Men gennemtrawling af f.eks. hele den videnskabelige eller juridiske litteratur efter et bestemt emne, og så præsentere det for det ansvarlige menneske, der skal arbejde videre med emnet - der kan jeg se mange fordele.

.. der er i øvrigt også noget andet: Hvis det førerløse fly, eller den førerløse bil eller båd forårsager en ulykke, hvem er så ansvarlig ? Og hvilken forsikring skal dække ?

Man kunne bytte "robbotter" i overskriften ud med "politikere".

Og det ville give lige så meget mening.

Vartovkollegiet Vartovkollegiet

@Gert: den slags machine learning du omtaler er milevidt fra den slags, som ville kræve et moralkodeks. Sidstnævnte er vi meget langt fra.

@Rolf: det er et aktivt forskningsfelt og DTU har lige fået 352 millioner til forskning i etisk AI.

//Jakob

John Rohde Jensen

Ro på; AI, kunstig intelligens, big data og robotter bliver oversolgt helt vildt. Det er ikke så slemt.

Det meste, der kaldes AI eller robotter er i virkeligheden nogle ret banale regler som en computer følger slavisk. Uanset om de giver mening i sammenhængen eller ej.

Jeg lavede min kandidat indenfor AI området og jeg er virkelig ikke imponeret over 'state of the art'. I stedet for AI burde det hede glorificeret statistik.

Truslen fra robotterne har været et fast indslag siden Karel Capek skrev sit teaterstykke RUR i 1921. Men selv i dag er det en helt uoverskuelig opgave, at lave en robot, som kan tage i supermarkedet og hent en liter mælk.

Poul Genefke-Thye

At computere skulle være klogere end mennesker skal tages med et gran salt - eller snarere et helt læs- bl.a. fordi der ikke findes en entydig definition af begrebet "intelligens". I forskningen bruges begrebet "generel intelligens", og den er AI endnu meget langt fra.
Eksperimentet med de to computere der skulle kommunikere, endte som bekendt med, at de brugte et selvopfundet sprog ingen andre forstod.
At "Robotterne opfandt sproget for at gøre kommunikationen mere effektiv end standardengelsk" er en noget dristig påstand. Da ingen forstod hvad de sagde, kan man overhovedet ikke vide, hvorfor de kommunikerede på den måde - hvis det altså var en form for kommunikation og hvis de overhovedet forstod hinanden - det må blive rent gætteri, ligesom det er rent gætteri, at der overhovedet var mening i hvad de sagde til hinanden.
Det man kalder AI er i virkeligheden bare videnbaserede programmer, de såkaldte ekspertsystemet, som f.ex. programmet "Eliza" (der faktisk blev udviklet for at vise systemets begrænsninger).
Ekspertsystemer er noget der har eksisteret i meget lang tid, flere århundreder før de digitale computere. Jeg har en feltflora fra før år 1900, den eneste forskel på den og et computerbaseret ekspertsystem er, at computeren nok er lidt hurtigere, og at fejlrettelser er lettere.
I øvrigt ville vi, hvis computerne nu var blevet så kloge, ikke stadig, efter årtiers udvikling lide under de forvrøvlede maskinoversættelser og den håbløse stavekontrol (som de fleste fornuftige mennesker slår fra)