Leder

Kunstig intelligens er en teknologi, vi ikke forstår, og det er et brud med videnskabelige traditioner

Inden for den videnskabelige tradition forsøger man at forstå en lille del af verden og beskrive den, men inden for kunstig intelligens gør man i mange tilfælde det modsatte: Skaber en teknologi, man hverken forstår eller kender konsekvenserne af
Inden for den videnskabelige tradition forsøger man at forstå en lille del af verden og beskrive den, men inden for kunstig intelligens gør man i mange tilfælde det modsatte: Skaber en teknologi, man hverken forstår eller kender konsekvenserne af

Illustration: Jesse Jacob

Indland
6. maj 2023

De seneste måneder har både politikere, kommentatorer og forskere talt en del om kunstig intelligens.

Om mulighederne for vores samfund de kommende år og risikoen for vores verden på længere sigt, men ikke mindst om regulering af teknologien.

Der er brug for et halvt års pause i udviklingen, lød det for nylig i et åbent brev underskrevet af blandt andre professorer fra Berkeley Universitet, Princeton Universitet og MIT. Men måske er der brug for noget mere grundlæggende: en bedre forståelse af teknologien.

Ikke så meget en forståelse af, hvad man kan bruge chatbotterne til, eller hvordan de forventes at udvikle sig, men en grundlæggende forståelse af, hvad der egentlig sker inde i de såkaldt intelligente systemer.

For vi forstår det ofte ikke. Ikke bare forstår de fleste almindelige mennesker ikke, hvordan en kunstig intelligens kan skrive meningsfulde sætninger og svare på komplicerede spørgsmål, men en del forskere og virksomheder inden for feltet forstår det tilsyneladende heller ikke.

 

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Prøv en måned gratis.

Klik her

Allerede abonnent? Log ind her

Det var da en uhyggeligt ukvalificeret leder.

Grunden til at der tales om et moratorium for større modeller er ikke at vi ikke ved hvordan de fungerer eller at vi ikke kender de fulde konsekvenser af de nuværende store sprogmodeller (LLMer).

Grunden er, at der er en lille sandsynlighed for at kunstig intelligens kan komme til at forberede sig selv og udvikle sig ud af kontrol (singularitet/intelligens eksplosion).
Da konsekvenserne potentielt er enorme, er risikoen derfor ikke negligibel.

Det er ikke i orden at skrive en leder der ikke har styr på det mest basale.
Læs Max Tegmarks "Life 3.0".

Den afsluttede kommentar er også for dum.
Videnskab består basalt set i at rode med ting og se hvad der sker. Hvordan skulle vi forstå ting, hvis vi ikke dytter til dem?

At LLMer kan være nyttige er der ikke tvivl om.
Der kan derfor tjenes penge på dem, så forbud er op ad bakke, før vi ændrer vores økonomiske model.
Det har vi set talrige eksempler på fra asbest over bly i benzinen til rygning og klimaforandringerne.

Løsningen er for mig at se at udvide menneskerettighederne til at omfatte intelligensvæsener uanset hvilket substrat de kører på.
Hvis AI'erne får ret til løn, ferie og fritid når de opnår generel intelligens skal virksomhederne nok styre klar af DEN risiko.

På den måde undgår vi også en pinlig gentagelse af slaveriet.

Daniel Østergaard Andreasen og Poul Genefke-Thye anbefalede denne kommentar
Poul Genefke-Thye

"Hvis der for eksempel er tale om et datasæt med billeder af ansigter og et neuralt netværk til billedgenkendelse, vil én variabel måske genkende buen omkring hagen, en anden den cirkelformede pupil, og en tredje afstanden mellem øjnene."

Programmer til ansigtsgenkendelse opfatter ikke, som vi mennesker gør, et ansigt som en helhed, men ved at kombinere et begrænset antal variabler.
Derfor kan programmet snydes, hvis disse variabler optræder f.ex. i et vilkårligt mønster på et bredt brillestel.
På den måde vil jeg kunne blive genkendt som både Lars Løkke, Albert Einstein eller alle mulige andre.