De seneste måneder har både politikere, kommentatorer og forskere talt en del om kunstig intelligens.
Om mulighederne for vores samfund de kommende år og risikoen for vores verden på længere sigt, men ikke mindst om regulering af teknologien.
Der er brug for et halvt års pause i udviklingen, lød det for nylig i et åbent brev underskrevet af blandt andre professorer fra Berkeley Universitet, Princeton Universitet og MIT. Men måske er der brug for noget mere grundlæggende: en bedre forståelse af teknologien.
Ikke så meget en forståelse af, hvad man kan bruge chatbotterne til, eller hvordan de forventes at udvikle sig, men en grundlæggende forståelse af, hvad der egentlig sker inde i de såkaldt intelligente systemer.
For vi forstår det ofte ikke. Ikke bare forstår de fleste almindelige mennesker ikke, hvordan en kunstig intelligens kan skrive meningsfulde sætninger og svare på komplicerede spørgsmål, men en del forskere og virksomheder inden for feltet forstår det tilsyneladende heller ikke.
Det var da en uhyggeligt ukvalificeret leder.
Grunden til at der tales om et moratorium for større modeller er ikke at vi ikke ved hvordan de fungerer eller at vi ikke kender de fulde konsekvenser af de nuværende store sprogmodeller (LLMer).
Grunden er, at der er en lille sandsynlighed for at kunstig intelligens kan komme til at forberede sig selv og udvikle sig ud af kontrol (singularitet/intelligens eksplosion).
Da konsekvenserne potentielt er enorme, er risikoen derfor ikke negligibel.
Det er ikke i orden at skrive en leder der ikke har styr på det mest basale.
Læs Max Tegmarks "Life 3.0".
Den afsluttede kommentar er også for dum.
Videnskab består basalt set i at rode med ting og se hvad der sker. Hvordan skulle vi forstå ting, hvis vi ikke dytter til dem?
At LLMer kan være nyttige er der ikke tvivl om.
Der kan derfor tjenes penge på dem, så forbud er op ad bakke, før vi ændrer vores økonomiske model.
Det har vi set talrige eksempler på fra asbest over bly i benzinen til rygning og klimaforandringerne.
Løsningen er for mig at se at udvide menneskerettighederne til at omfatte intelligensvæsener uanset hvilket substrat de kører på.
Hvis AI'erne får ret til løn, ferie og fritid når de opnår generel intelligens skal virksomhederne nok styre klar af DEN risiko.
På den måde undgår vi også en pinlig gentagelse af slaveriet.
"Hvis der for eksempel er tale om et datasæt med billeder af ansigter og et neuralt netværk til billedgenkendelse, vil én variabel måske genkende buen omkring hagen, en anden den cirkelformede pupil, og en tredje afstanden mellem øjnene."
Programmer til ansigtsgenkendelse opfatter ikke, som vi mennesker gør, et ansigt som en helhed, men ved at kombinere et begrænset antal variabler.
Derfor kan programmet snydes, hvis disse variabler optræder f.ex. i et vilkårligt mønster på et bredt brillestel.
På den måde vil jeg kunne blive genkendt som både Lars Løkke, Albert Einstein eller alle mulige andre.