Baggrund
Læsetid: 8 min.

Algoritmer påvirker vores verdensbillede. EU vil konkurrere på etisk kunstig intelligens

Mens USA og Kina kæmper om at blive førende på kunstig intelligens, vil EU være områdets etiske vogter. Det kan få store konsekvenser for de sociale medier. Men implementeringen bliver svær: for meget kontrol kan skade ytringsfriheden, for lidt kan bidrage til spredning af løgne
Sociale medier har som udgangspunkt ét mål med deres algoritmer: at fastholde folks opmærksomhed så længe som muligt.

Sociale medier har som udgangspunkt ét mål med deres algoritmer: at fastholde folks opmærksomhed så længe som muligt.

Sofie Mathiassen

Udland
28. august 2020

Mens Kina og USA ligger i overhalingsbanen inden for udviklingen af kunstig intelligens, befinder EU sig i krybesporet. Men det skal være slut. EU-kommissionens formand, Ursula von der Leyen, nedsatte sidste år en ekspertgruppe, der har udarbejdet en række etiske retningslinjer for kunstig intelligens. Det skal bringe EU ind i kampen om at definere udviklingen, der ellers primært er drevet af techgiganternes kommercielle interesser.

Ekspertgruppen har opstillet syv trin, der skal skabe etisk og pålidelig kunstig intelligens, hvor menneskerettigheder og ytringsfrihed er pejlemærker. De blev offentliggjort i april sidste år. En af ekspertgruppens væsentlige anbefalinger er, at algoritmer skal være mere gennemsigtige. Det betyder for eksempel, at vi skal have større indblik i, hvordan sociale medier som YouTube og Facebooks kunstigt intelligente algoritmer udvælger indhold til sine individuelle brugere.

Høringen i juli, hvor Google, Amazon, Facebook og Apple stod skoleret i den amerikanske kongres og skulle svare på spørgsmål om deres monopollignende dominans, aktualiserede spørgsmålet om, hvordan vores data kan håndteres på en etisk forsvarlig måde. Og hvordan man kan regulere det hidtil stort set uregulerede marked, som de sociale medier udgør.

De sociale medier har som udgangspunkt ét mål med deres algoritmer: at fastholde folks opmærksomhed så længe som muligt, for opmærksomhed er grundlaget for de store virksomheders indtjening. Det har haft den effekt, at YouTube for eksempel gradvist viser mere ekstremt indhold for sine brugere. Hvis du starter med at se en simpel løbevideo, er du få klik fra at se en video om maraton. Den samme dynamik gælder, hvis du ser videoer om politik, hvilket har radikaliseret mange YouTube-brugere.

Misogyni og racisme

The New York Times’ podcastserie Rabbit Hole beskriver, hvordan det foregår, når man som bruger bliver opslugt i YouTubes ormehul. Serien handler om Caleb Cain, der oplevede af blive radikaliseret på YouTube. Han har givet The New York Times adgang til hele sin YouTube-historik, og den viser, hvordan han blev hevet ind i et ekstremt højreorienteret univers, hvor han så tusindvis af videoer med konspirationsteorier, misogyni og racisme.

Der havnede han, fordi han fulgte de videoer, som YouTube anbefalede, og som starter automatisk, når man har set en video til ende. Den algoritme, der anbefaler videoer, er motoren bag 70 procent af alle visninger på YouTube, og det er derfor et kæmpe problem, at der er så lidt kendskab til, hvordan den virker.

Podcastserien var med til at sætte fokus på problemerne ved algoritmerne, men der er ikke sket meget siden, konstaterer eksperter.

Hvordan techgiganternes algoritmer skal reguleres, har længe været et omdrejningspunkt i debatten. For hvem skal vurdere, hvornår indhold er for ekstremt? Problemstillingen handler grundlæggende om, at mere kontrol af indhold på de sociale medier kan begrænse ytringsfriheden, mens mindre kontrol fremmer spredningen af løgne.

»Det handler om, hvordan man finder balancen mellem at give en god service og nudge folk, og samtidig undgå, at man tager deres ytringsfrihed fra dem og sender dem i en retning, hvor de ikke har lyst til at være,« siger Christiane Vejlø, der sidder i Dataetisk Råd og er tidligere formand for regeringens ekspertgruppe om dataetik.

EU’s målsætning om at regulere techgiganternes algoritmer placerer dermed unionen i et minefelt af etiske problemstillinger.

Den sorte boks

Vi ved meget lidt om, hvordan techgiganternes algoritmer fungerer. Algoritmerne er virksomhedernes hemmelige colaopskrift, grundlaget for deres forretningsmodel, så deres største frygt er at skulle oplyse, hvordan de fungerer, siger Gry Hasselbalch, der er medlem af EU’s ekspertgruppe i kunstig intelligens, medstifter af dataethics.eu og snart færdig med en ph.d. om dataetik og magt i Europa.

Den manglende indsigt i, hvordan algoritmerne fungerer, kaldes black box-problematikken. Det er kun udviklerne, der ved, præcis hvordan algoritmerne indrettes for at fastholde brugeres opmærksomhed. Og når algoritmerne bliver holdt hemmelige, kan lovgiverne ikke regulere dem.

Dels bliver algoritmerne så komplekse, at selv ikke dem, der har designet dem, kan følge med i, hvordan de udvikler sig. Humlen i en kunstigt intelligent algoritme er, at den udvikler sig af sig selv ved at analysere og lære af store mængder af data, som den menneskelige hjerne ikke kan kapere. Det eneste, udvikleren af algoritmen styrer, er, hvilke data algoritmen præsenteres for, og hvad algoritmen skal kunne.

På YouTube vil algoritmen blive præsenteret for alle videoer og data om videoerne og brugerne. Algoritmens mål er at fænge så mange personers opmærksomhed så længe som muligt. Opmærksomhed er algoritmens succeskriterium. Algoritmen optimerer hele tiden sig selv for at fastholde brugernes opmærksomhed i længere tid og bliver dermed mere kompleks. Black box-problematikken ligger i algoritmens autonome udvikling. Det er ikke muligt for mennesket at følge med.

»Når man ikke ved, hvordan en algoritme fungerer, kan man heller ikke stille kritiske spørgsmål til den,« siger Hasselbalch.

Derfor er gennemsigtighed et vigtigt mål for EU-ekspertgruppen, så lovgiverne får mulighed for at regulere techgiganterne.

Gry Hasselbalch slår fast, at selv om EU’s etiske indgangsvinkel gør, at udviklingen af kunstig intelligens i Europa går lidt langsommere end i USA og Kina, er det den eneste vej frem.

»Vi skal ikke konkurrere på hurtighed, men derimod på at få mennesket og de etiske overvejelser med i udviklingen,« siger hun.

EU’s bedste værktøj er lovgivning, investering i etisk design, forskning og udvikling og at skabe konkurrence om at leve op til EU’s ekspertgruppes syv punkter, der danner grundlaget for ekspertgruppens definition af pålidelig kunstig intelligens.

»I offentlige indkøb for eksempel kan man investere i produkter, der lever op til etiske standarder,« forklarer Gry Hasselbalch.

Truslen om at skulle afsløre sin forretningshemmelighed kan dog også påvirke de sociale medier til selv at skabe etiske guidelines. I maj oprettede Facebook et uafhængigt tilsynsråd, som skal træffe afgørelser om ytringsfrihed, injurier og misinformation på Facebook. Tilsynsrådet, hvor tidligere statsminister Helle Thorning-Schmidt er medformand, skal træffe bindende beslutninger om, hvilket indhold på Facebook og Instagram, der skal fjernes eller tillades.

Opmærksomhedens købmænd

Algoritmerne er indrettet, som de er, fordi techgiganter tjener deres penge på opmærksomhed.

»I stedet for at sælge information til folk for penge udbyder opmærksomhedskøbmanden noget indhold, som tiltrækker folks opmærksomhed. Forbrugerne skal ikke betale noget for informationer, for det er ikke os, der er kunderne. Forbrugeren er tværtimod selv produktet. Når de sociale medier har tiltrukket en masse opmærksomhed, videresælger man det til reklamebranchen og marketingfolk,« forklarer Mads Vestergaard, der netop har færdiggjort sin ph.d. om opmærksomhedsøkonomi ved Institut for Kommunikation, Københavns Universitet.

Således er al kultur og medieindhold i yderste konsekvens skabt for reklamernes skyld. Det er derfor, at virksomheder som Facebook og Google, der ejer YouTube, grundlæggende er store reklamedistributører.

Opmærksomhedsøkonomien er en betingelse for både kommercielle og politiske aktører, hvis de skal sælge produkter eller vinde stemmer.

»I yderste konsekvens kan resultatet af opmærksomhedsøkonomien blive, at hvad noget er værd, hvor godt et politisk program, en politiker kommer med, udelukkende afhænger af, hvor meget opmærksomhed den tiltrækker,« siger Vestergaard.

Det etiske design

Algoritmerne og teknologien bag YouTube og de sociale medier skal derfor bygges på en helt ny måde, mener Gry Hasselbalch.

»Mennesker skal kunne tjekke algoritmerne og sørge for, at de udvikler sig på en måde, så de er til gavn for mennesker generelt, fremfor at algoritmens mål er at få brugerne til at se så meget YouTube som muligt,« siger Hasselbalch. Hun forklarer, at den indgangsvinkel i fagtermer kaldes human in the loop.

Med et human in the loop-design kan man tidligere i forløbet fange, om en algoritme er havnet i en spiral, hvor den potentielt radikaliserer sine brugere.

Det er et teknisk design, som også er et eksempel på den tilgang til teknologiudvikling med at sætte mennesket i centrum, som EU har slået sig op på i deres strategi for kunstig intelligens.

»Her handler det om, at menneskets interesser prioriteres over andre interesser som for eksempel de kommercielle, når man udvikler kunstig intelligens,« siger Hasselbalch.

Men algoritmerne kan også misbruges af brugerne. Det er tidligere set, at YouTubes algoritme er brugt af pædofile til at finde videoer af letpåklædte børn. Algoritmen begyndte automatisk at linke mellem videoer med børn, og så skrev de pædofile tidskoder i kommentarsporet, så andre pædofile let kunne finde frem til, hvor børnene havde blottet sig.

Det kunne et menneske have forhindret. Det kan algoritmerne ikke, som det ser ud i dag.

»Algoritmer er ret dumme, så hvis der ikke er programmeret en nuance ind, kommer nuancen ikke. Det er blandt andet derfor, pædofile kan misbruge algoritmen,« siger Vejlø.

Når algoritmerne ikke har blik for ’nuancerne’ og primært har som mål at fastholde vores opmærksomhed, gør de vores verdensbillede smallere.

»Den kunstige intelligens propper os ned i små ekkokamre og sidestiller os med folk, der ligner os selv,« siger Kim Escherich, der er innovationsarkitekt, etisk rådgiver hos IBM og tilknyttet Singularity University – en tænketank med udspring i Silicon Valley.

Han er imidlertid usikker på, om human in the loop-tilgangen er den rette vej at gå.

»Der er enorme mængder af data, der skal analyseres, og alt det indhold kommer mennesker ikke til at kunne forholde sig til. Det vigtige er, at man tør diskutere en række grundlæggende etiske principper, man så kan indrette algoritmerne efter,« siger Kim Escherich.

Lakridspiben

Kim Escherich anerkender, at der er mange problemstillinger og grænsetilfælde, kunstig intelligens ikke kan forholde sig til:

»Jeg har arbejdet med kunstig intelligens i mange år, og der er meget langt fra indretningen af kunstig intelligens og algoritmer til den måde, vores hjerner fungerer på,« siger han og fortsætter: »Det kan være svært, hvis ikke umuligt, at få algoritmer til at tage stilling til, hvornår noget er hadtale eller sarkasme.«

Der kan også være kulturelle forskelle, så det, der er kulturelt accepteret i Danmark, er uacceptabelt i USA. »Seneste eksempel på det var, da Google fjernede DR’s Ramasjang-app, fordi der optrådte lakridspiber. Sådanne nationale forskelle kan være meget svære at få indarbejdet i algoritmer,« siger Vejlø.

Kim Escherich pointerer, at det primære mål må være at indrette teknologien på en måde, så den ikke manipulerer med vores verdensopfattelse: »Det kræver et samarbejde med techgiganterne, hvor man diskuterer grænsetilfældene.«

Det handler også om dannelse, mener Kim Escherich.

»Der er et metaniveau og et personligt niveau. På metaniveauet kan vi lovgive og sætte regler op for, hvad man må og ikke må. Men noget må også komme fra græsrødderne i form af digital dannelse. Man kan uddanne mennesker til at navigere i de sociale medier,« siger han.

Derfor bekymrer det Escherich, når der er diskussion om, at computere i skolen er kontraproduktivt, og børn ikke må udsættes for skærme.

»Det uhyggelige ville være, hvis vi skaber generationer, der ikke er i stand til at navigere i den verden, vi er på vej ind i,« siger han.

Algoritmerne er dog ikke det eneste problem i forhold til radikalisering og polarisering på nettet, slår Escherich fast. For ud over det tekniske spørgsmål om, hvordan algoritmer skal prioritere indhold, ligger der også et væsentligt adfærdspsykologisk aspekt. Mennesket er også selv tilbøjeligt til at søge sammen med ligesindede, og dermed er vi også selv med til at skabe de ekkokamre, vi havner i.

Derudover forklarer Escherich, at når vi som mennesker mentalt skal prioritere indhold, har vi i langt højere grad en tilbøjelighed til at prioritere negative historier end positive historier:

»Det er ikke nødvendigvis uetisk, men mere et psykologisk adfærdsmønster, som også er svært at håndtere.«

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Det er meget fint med ytringsfrihed, men jeg har også et meget stort behov for forureningsfri informationsret.

Christian Lyngbye

Ytringsfrihed på kommercielle platforme er en illusion, fordi indholdet skal først og fremmest tiltrække andre (uden at bryde copyright og amerikansk blufærdighed). Jeg gætter dog på, at folk der påberåber sig absolut ytringsfrihed også forkaster Geneve konventionen som en besværlig jungle af regler. IT-firmaer har selv ansvar for den data, som de fodrer deres selv-trænede "filtre", og der er det en ledelsesbeslutning, om man prioriterer kvantitet af indhold over firmaets renome. Youtube sætter desuden automatisk flag ved melodier som har copyright, så det skulle ikke undre mig om deres ordgenkendelse ikke er god nok til at fange skældsord og newspeak.
Dele af mediestøtten burde tildeles digital infrastruktur til (modererede) offentlige høringer og debat for at styrke demokratiet, så der ikke kræves et login hos Facebook, Twitter eller Information for den sags skyld for at deltage.
https://www.votewatch.eu og http://www.hvemstemmerhvad.dk er gode eksempler på digitale værktøjer til bedre gennemsigtighed, men den sidste bliver desværre ikke længere opdateret, da det var privat initiativ.

Jens Mose Pedersen

Vi mangler at bygge Asimov robotlove ind i den kunstige intelligens.
Og regel 0 : Du må ikke skade menneskeheden!

Digital etik er mere kunstig end intelligent. Moral er hverken objektiv eller absolut. Alene problematikken i at løfte sig selv op på piedestalen er et stærkt problematisk udgangspunkt.