Baggrund
Læsetid: 3 min.

I kampen mod misinformation har techgiganterne sat deres lid til algoritmer ...

Men så kom YouTubes automatiserede værktøjer til at sammenkæde Notre Dame-branden og terrorangrebet 11. september 2001. Fadæsen er blot seneste eksempel på, at der mangler åbenhed om faktatjek på sociale medier
I sidste uge fandt YouTubes nye værktøj til at faktatjekke nyheder en sammenhæng mellem kollapset af det brændende spir i Paris og kollapset af de brændende tvillingetårne i New York. YouTube kom fejlagtigt til at markere branden i Notre Dame som muligvis forbundet til terrorangrebet den 11. september 2001.

I sidste uge fandt YouTubes nye værktøj til at faktatjekke nyheder en sammenhæng mellem kollapset af det brændende spir i Paris og kollapset af de brændende tvillingetårne i New York. YouTube kom fejlagtigt til at markere branden i Notre Dame som muligvis forbundet til terrorangrebet den 11. september 2001.

CHRISTOPHE ARCHAMBAULT

Moderne Tider
27. april 2019

I sidste uge fandt YouTubes nye værktøj til at faktatjekke nyheder en sammenhæng mellem kollapset af det brændende spir i Paris og kollapset af de brændende tvillingetårne i New York. YouTube kom fejlagtigt til at markere branden i Notre Dame som muligvis forbundet til terrorangrebet den 11. september 2001.

Under de livestreamede nyheder tilføjede YouTube en faktaboks med links til tredjepartskilder såsom Encyclopedia Britannica og Wikipedia. Faktaboksen beskrev terrorangrebet i New York, hvor mange tusinde mennesker mistede livet.

Techbranchen har generelt en indgroet optimisme over for algoritmer, som altid prioriteres højt i forsøget på at bekæmpe misinformation. Med de svimlende mængder indhold ses de automatiske algoritmer som den hurtigste og mest effektive løsning til at opdage og bekæmpe problematisk indhold.

Men YouTubes seneste fejl markerer de nuværende grænser for de automatiserede værktøjer. Selv de bedste algoritmer er foreløbig ikke i stand til at handle over for nye typer indhold uden menneskelig monitorering. Algoritmerne mangler tilstrækkelig forståelse for nye begivenheder og kontekst, fordi de kun kan genkende billeder og tekst, som er analogt til de træningseksempler, programmerne er oplært med. Det gør dem særligt uforberedte på livestreamede nyheder.

Fejlen viser også, at algoritmerne utilsigtet kan komme til at kaste mere benzin på internettets konspiratoriske bål. YouTubes sammenblanding af de to begivenheder satte en bølge af spekulation om terrorisme i gang på de sociale medier. Flere twitterbrugere påstod, at branden var påsat af muslimske terrorister.

Om YouTubes fadæse udtaler techkritikeren David Carroll, at »på nuværende tidspunkt er der intet, der slår mennesker. I det her tilfælde er der ingen, der ville fejlkategorisere dette eksempel, men alligevel kan klodens bedste maskiner ikke finde ud af det«.

Et PR-stunt

I kampen mod misinformation samarbejder flere techgiganter også med faktatjekkende organisationer, hvor uddannede journalister sættes til at vurdere det problematiske indhold. Facebook har siden 2016 arbejdet med faktatjekkere såsom Snopes, PolitiFact og FactCheck.

Initiativet kunne ligne en slags indrømmelse af, at de udskældte algoritmer og tidspressede indholdsmoderatorer ikke er i stand til at sortere troværdigt mellem sande og falske nyheder i informationsstrømmen. Men trods det prisværdige initiativ er problemet, at der ikke er nogen åbenhed om detaljerne for procedurerne bag faktatjek. Efter to års samarbejde er flere journalister trådt frem med kritik af Facebooks fremgangsmåder.

Tidligere Snopes-redaktør Brooke Binkowski udtaler, at Facebook »hovedsageligt har brugt os til PR-kriser. De tager ikke noget alvorligt. De er mere interesseret i at få sig selv til at se godt ud«.

Binkowski kritiserer, at Facebook ignorerer journalisternes bekymringer om misbrug af platformen. For eksempel forsøgte hun at gøre virksomheden opmærksom på den eksplosive stigning i misinformation under Rohingya-krisen i Myanmar – men uden held.

Facebook har også undladt at bruge journalisternes ekspertise. Ifølge Binkowski kunne de spilde tid på at faktatjekke satiriske artikler, og Facebook kunne sågar finde på at presse dem til at prioritere misinformation, som ramte virksomhedens egne annoncører. Når annoncører kan påvirke proceduren for faktatjek, bliver det ifølge Binkowski svært at se forskel på journalistik og propaganda.

Journalisterne mistede gradvist tilliden til Facebook, som gentagne gange nægtede at give dem adgang til data, som viser effekterne af deres arbejde. Facebook hævder selv, at et faktatjek, der fører til indgreb i en nyhed, resulterer i 80 procent mindre trafik for den pågældende nyhed – men uden åbenhed om data er denne påstand i sig selv ikke åben for faktatjek.

Producerer selv propaganda

Mistilliden steg yderligere, efter The New York Times afslørede, at Facebook havde ansat PR-firmaet Definers, som skulle miskreditere politiske fjender som rigmanden George Soros. Facebook stod bag flere smædekampagner med antisemitiske undertoner, som skulle dække over virksomhedens egne problemer med datasikkerhed og misinformation. Det vil sige, at Facebook producerede samme form for propaganda, som faktatjekkerne var ansat til at bekæmpe. I begyndelsen af 2019 opsagde Snopes sit samarbejde med Facebook.

Det ser ud til, at faktatjekinitiativerne ikke virker så godt. De virksomheder, som kæmper mod spredningen af konspirationsteorier og propaganda, ender i flere tilfælde med at producere det selv. De automatiserede algoritmer og faktatjekorganisationerne står over for meget komplekse problemer, som de på nuværende tidspunkt ikke er i stand til at løse.

Det er derfor bekymrende, at der ikke er mere åbenhed om procedurerne, for i mangel på offentlighed har vi ikke meget viden om, hvad techgiganterne reelt bruger faktatjekkene til – og heller ikke hvilken effekt de har.

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Henrik Hansen

Ja for Encyclopedia Britannica og Wikipedia kender jo sandheden.

http://money.com/money/3994949/wikipedia-paid-editors/