Kommentar

Kunstig intelligens er vores eneste redning. Men vi har brug for et wakeupcall

I løbet af kort tid vil vi være omgivet af kommunikation, som er produceret af computere, men som er vanskelig at skelne fra noget, der er afsendt af et menneske. Derfor bør vi overveje, hvordan vi vil integrere kunstig intelligens i vores tilværelse, skriver konsulent, foredragsholder og cand.mag. i filosofi Thomas Telving i dette debatindlæg
Debat
28. oktober 2020

»Jeg er ikke et menneske. Jeg er en robot. En tænkende robot.« Sådan indleder computerprogrammet GTP-3 en artikel, som for nylig blev bragt i The Guardian. GTP-3 er i stand til med ganske få input at producere artikler, som til forveksling ser ud til at være skrevet af mennesker.

Det britiske medie havde bedt robotten om at skrive en artikel, der argumenterer for, at kunstig intelligens ikke er en trussel mod menneskeheden, og det bliver hurtigt ganske underholdende.

GTP-3 forsøger at berolige os ved at skrive, at den vil gøre alt, hvad der står i dens magt for at undgå at udslette menneskeheden, selv hvis det indebærer at ofre sin egen eksistens for at redde os. Ja, faktisk ser den det som en ren og skær logisk nødvendighed at ofre sig for menneskehedens skyld. Alternativet – at blive ved at eksistere – vil nemlig ifølge GTP-3 uundgåeligt medføre, at vi mennesker utilsigtet kommer til at programmere den til at udslette os.

Hvad der skulle være et beroligende argument fra robottens side, ender altså på spidsfindig vis med at underbygge den tilbagevendende advarsel fra kritikere af kunstig intelligens: Dette her ender galt!

Juridisk eftertanke

Artiklen fra The Guardian kan sandt nok virke foruroligende, men før vi går i panik, er det værd at huske, at de milliarder af ord og sætninger, GTP-3 har tygget sig igennem for at lære at skrive, er produceret af mennesker. Det er med andre ord en tilsnigelse at sige, at GTP-3 selv tænker sig frem til, at det kan være nødvendigt at fjerne kunstig intelligens for at redde menneskeheden.

Det er mere dækkende – om end forenklet – at sige, at den afspejler den frygt for kunstig intelligens, mennesker selv har givet udtryk for i artikler, robotten har læst.

Det betyder imidlertid ikke, at GTP-3 ikke giver stof til eftertanke. Det, der i første omgang bør få os op af stolen, handler bare ikke om, hvorvidt kunstig intelligens på sigt vil fjerne os fra planetens overflade. Det handler først og fremmest om jura og etik.

Når GTP-3 kommer ud på markedet, vil den blive sat til at producere både avisartikler, indhold til sociale medier, reklametekster og computerkode. Den vil også blive implementeret i chatbots, som yder service, når vi køber ting på nettet, og den vil hyggesludre med os som tidsfordriv. I løbet at kort tid omgives vi med andre ord af kommunikation, som er vanskelig at skelne fra noget, der er afsendt af et menneske.

Man behøver ikke være fuldtidskonspirationsteoretiker med fastmonteret sølvpapirshat for at få øje på visse risici for manipulerende misbrug. I Cambridge Analytica-sagen blev data om vælgere brugt til at målrette politiske budskaber via Facebook. Metoden antages i dag at have medvirket til Donald Trumps valgsejr i 2016. Med GTP-3 vil en tilsvarende kampagne kunne udformes langt mere effektivt og sofistikeret uden betydelig brug af menneskelige ressourcer.

Muligheden for misbrug bør ikke lede os til at forbyde GTP-3. Vi forbyder heller ikke kager, knive og whisky, fordi forkert brug af alle tre kan være farlig. Men vi er nødt til at drøfte, om det skal være op til den enkelte at værne sig mod eventuel manipulation, eller om det er et ansvar, vi vil løfte i fællesskab. For eksempel ved at gøre det lovpligtigt at anføre, om et givent stykke kommunikation er produceret og afsendt af en robot.

Fabrikeret kærestebreve

Den anden vigtige eftertanke, GTP-3 bør føre til, er af etisk og eksistentiel karakter. Vi gør nemlig hver især klogt i at gå et spadestik dybere i overvejelserne om, hvad vi vil bruge vores tid på, og hvad vi finder værdifuldt.

Forestil dig, at en politiker beder GTP-3 om at skrive et indlæg til Information, der argumenterer overbevisende for hendes synspunkt. Uanset hvor begavet artiklen fremstår, vil vi så synes, at artiklen har værdi for os, når den ikke kommer fra et menneske med følelser, intentioner og holdninger?

Eller forestil dig, at din kæreste pludselig begynder at skrive stribevis af fine, poetiske kærlighedsbeskeder til dig, men at du senere finder ud af, at de var lavet af GTP-3. Vil beskederne have værdi for dig? Vil de være noget værd, når de ikke kommer fra en person med et indre liv?

Personligt tror jeg ikke meget på dystopiske scenarier om robotternes fjendtlige magtovertagelse. Tværtimod tror jeg, at kunstig intelligens er vores eneste redning mod både klimaforandringer, krig, sult og radikalisering.

Ikke desto mindre vil det være klogt af os at se GTP-3 som et eksistentielt og juridisk wakeupcall. Vil vi flette vores liv helt sammen med kunstig intelligens, hvis blot det giver os behag? Det er et valg, hver enkelt af os må træffe på egne vegne.

Spørgsmålet er, om valget kan træffes på et oplyst grundlag uden at gøre det til lovpligtig forbrugeroplysning, om man taler med en robot eller et menneske.

Thomas Telving er selvstændig konsulent og foredragsholder, cand.mag. i filosofi

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Christian Mondrup

Det forekommer mig, at denne tekst, på linje med mange andre omgås lemfældigt med begrebet intelligens. Min fornemmelse er, at man kan diskutere til Dommedag, hvad intelligens er for en størrelse. For at bruge betegnelsen "kunstig intelligens" må man vel have et kvalificeret begreb om "den ægte vare". Jeg har i mit arbejdsliv deltaget i udvikling af software, der kan bistå intelligente mennesker i at træffe forhåbentlig intelligente beslutninger. Mon ikke meget software, der markedsføres som "kunstig intelligens" er noget lignende.

Anina Weber, Thomas Tanghus og Henning Kjær anbefalede denne kommentar
Thomas Tanghus

> Mon ikke meget software, der markedsføres som "kunstig intelligens" er noget lignende.

Definition på "robot" et efterhånden også så bred, at en dørklokke ville kunne kvalificere sig.
Dermed ikke sagt, at det ikke er vigtigt at oplyse og sætte restriktioner.