Essay
Læsetid: 20 min.

Hvis kunstig intelligens skal give mening i fremtiden, er det afgørende, at den får sociale evner

Vi kommer til at interagere mere med kunstig intelligens i fremtiden – både i vores hjem, på arbejdspladserne og på hospitalerne. Og det stiller høje krav til robotternes situationsfornemmelse og sociale intelligens, skriver DTU-professor Thomas Bolander i dette uddrag fra hans nye bog ’Hvordan ser fremtiden ud med kunstig intelligens?’
Kunstig intelligens griber mere og mere ind i vores hverdag. Derfor er det nødvendigt, at vi udvikler robotterne til også at have sociale evner og ikke bare gøre, hvad de bliver eksplicit programmeret til. For vi skal helst ikke ende i en fremtid, hvor husholdningsrobotten steger familiens kat til middag, fordi der ikke var noget mad i køleskabet, og ingen havde fortalt robotten, at kæledyr ikke er aftensmad.

Kunstig intelligens griber mere og mere ind i vores hverdag. Derfor er det nødvendigt, at vi udvikler robotterne til også at have sociale evner og ikke bare gøre, hvad de bliver eksplicit programmeret til. For vi skal helst ikke ende i en fremtid, hvor husholdningsrobotten steger familiens kat til middag, fordi der ikke var noget mad i køleskabet, og ingen havde fortalt robotten, at kæledyr ikke er aftensmad.

Jesse Jacob

iBureauet
5. november 2019

Der er ingen tvivl om, at kunstig intelligens kommer til at spille en større og større rolle i fremtiden. Kunstig intelligens kommer ikke længere blot til at styre lagerrobotter eller planlægge ruter. Den flytter også ind på hospitalerne og i vores hjem.

Og jo mere og tættere robotter omgås mennesker, des højere krav stilles der til dem og deres sociale evner. Men hvordan giver man egentlig kunstig intelligens sociale evner? Bør robotter overhovedet have dem? Og hvad betyder det for fremtiden for kunstig intelligens og vores interaktion med disse systemer?

Det er nogle af de spørgsmål, Thomas Bolander, ph.d. og professor i logik og kunstig intelligens på DTU, stiller i sin nye bog Hvordan ser fremtiden ud med kunstig intelligens? Følgende er et uddrag fra bogen.

Sociale mennesker og asociale robotter

Vi får større og større forventninger til de opgaver, som kan automatiseres af kunstig intelligens og robotter – samtidig med at mange også er bekymrede for, om kunstig intelligens og robotter ender med at overtage vores job – eller verdensherredømmet. Derfor er dækningen af kunstig intelligens i medierne i kraftig vækst: I 2014 havde Danmarks Radio 16 artikler om kunstig intelligens på deres hjemmeside, i 2016 86, og i 2018 144.

Vores daglige interaktion med systemer, som har en eller anden grad af kunstig intelligens i sig, er også i kraftig vækst. De billeder, vi forsøger at uploade til Facebook eller Instagram, bliver automatisk accepteret eller bortfiltreret af kunstig intelligens, som er trænet til at genkende upassende indhold som vold eller porno.

De reklamer, vi ser på nettet, er udvalgt af kunstig intelligens-algoritmer baseret på vores hidtidige søgemønstre, personlige data og øvrige digitale adfærd. Det samme er de film, vi får anbefalet på Netflix, de bøger, vi får anbefalet på Amazon, og den musik, vi får anbefalet på Spotify.

Vores fotoprogram kan genkende alle familiemedlemmer og gruppere billederne efter det, og samme teknologi benyttes af Brøndby IF til automatisk at se, om karantæneramte fans forsøger at komme ind på stadion. Når vi indberetter vores selvangivelse, er der en algoritme, som forsøger at finde ud af, om det hele “ser fornuftigt ud”, eller om der kunne være mistanke om snyd.

Mange af os har en robotstøvsuger eller en robotplæneklipper, og de første forsigtige førerløse busser begynder at køre rundt i afgrænsede trafikale områder i Danmark. Og endelig: I den Nationale Strategi for Kunstig Intelligens, udformet af den daværende regering i marts 2019, beskrives et signaturprojekt, som går ud på at bruge kunstig intelligens til at analysere mønstre i historiske data om succesfulde indsatser over for ledige.

Formålet er at bruge teknologien til at kunne målrette beskæftigelsesindsatsen og dermed reducere ledighedsperioden.

Den kunstige intelligens er med andre ord over os, og med al sandsynlighed har vi kun set begyndelsen. Det er noget, vi alle mere eller mindre uundgåeligt allerede interagerer med og lader os påvirke af, og den interaktion og påvirkning vil kun stige. Derfor er det helt afgørende, at kunstig intelligens bliver videreudviklet efter de rette principper, så det får positive frem for negative konsekvenser for vores liv.

Når vi lader andre mennesker træffe beslutninger på vores vegne eller beder dem komme med anbefalinger til os, har vi typisk nogle krav eller i det mindste forhåbninger til disse andre: Vi ønsker at kunne have tillid til, at beslutningerne og anbefalingerne er retfærdige og velovervejede; vi vil gerne have mulighed for at få forklaret grundlaget for dem; og de, der former beslutningerne og anbefalingerne, har et ansvar for, at disse respekterer love, menneskerettigheder og kulturelle normer.

Vores forventninger bør ikke ændre sig, bare fordi det er kunstig intelligens, der skal træffe beslutninger og komme med anbefalinger, i stedet for vores medmennesker. En langtidsledig bør eksempelvis ikke være dårligere stillet, fordi det er kunstig intelligens, der beslutter – eller hjælper med at beslutte – hvad vedkommende tilbydes.

Det er dog ikke helt ligetil for kunstig intelligens at levere på disse parametre. Det er ikke let for den at forklare sig; forstå, hvad der er retfærdigt, og hvad vi ønsker; forstå vores love og kulturelle normer. For at kunne realisere dette er en af de afgørende udfordringer at give kunstig intelligens-systemer social intelligens.

Social intelligens er nødvendig, for at man kan forklare sig på en måde, som modtageren forstår, for at man kan forstå andres hensigter og normer for acceptabel adfærd. Det handler ikke om, at kunstig intelligens skal være så menneskelignende som muligt, det er ikke sikkert, at det hverken er muligt eller ønskværdigt. Men det er nødvendigt med en minimal grad af social intelligens og social situationsfornemmelse for på acceptabel vis at kunne løfte de opgaver, vi i højere og højere grad lægger over på den kunstige intelligens’ skuldre. Hvis ikke, vil den automatisering og beslutningstagen, som vi lægger ud til kunstig intelligens, lede til dårligere beslutninger, ringere tillid til de trufne beslutninger og manglende forståelse for baggrunden for beslutningerne.

I det følgende vil jeg underbygge behovet for social kunstig intelligens samt udfordringerne med at nå dertil.

Jeg har ovenfor brugt ordet ’algoritme’. Det er et kernebegreb i moderne datalogi og matematik, som de senere år efterhånden også har vundet indpas i gængse medier og hverdagssproget.

Dybest set er en algoritme det samme som et computerprogram, og det er sjældent nødvendigt at skelne mellem de to ting. Der er dog følgende forskel: Et computerprogram er et specifikt stykke kode, altså en række linjer af instruktioner til computeren. En algoritme er den mere overordnede forskrift for, hvordan koden skal skrives, altså en slags skabelon for mange forskellige computerprogrammer, som essentielt gør det samme, eventuelt med små forskelle.

Algoritmen er manuskriptet, computerprogrammet er den konkrete opsætning af teaterstykket.

Hospitalsrobotter: Social navigation fra A til B

En overraskende stor procentdel af de opgaver, der skal varetages på et hospital, er logistiske opgaver – at få flyttet noget fra A til B. Det kan være medicinsk udstyr, blodprøver, mad, intern post, hospitalssenge, sengetøj osv. Hvis man kunne lade robotter overtage disse opgaver og i stedet få flere varme hænder til pleje og samvær med patienter, ville de fleste nok synes, at det var godt givet ud.

Mennesker har brug for socialt samvær, og varme hænder i sundheds- og plejesektoren er i forvejen en mangelvare. Om mit sengetøj bliver leveret af et menneske eller en robot, er ikke så afgørende, medmindre der opstår noget socialt samvær, når et menneske udfører opgaven, eksempelvis en givende samtale, mens sengetøjet bliver lagt på.

Umiddelbart lader det til at være en relativt nem opgave at sætte robotter til at flytte ting fra A til B. Først og fremmest skal robotten kunne finde vej, men det er i forvejen noget, vi mennesker i højere og højere grad overlader til computere via Google Maps og lignende systemer, så den del af udfordringen har vi allerede en god løsning på. En anden udfordring er, at robotterne skal vide, hvor de er, altså lokalisere sig selv ud fra omgivelserne (indendørs, hvor man ikke har GPS-signal).

Det har været en betydelig udfordring i robotik, men den er også efterhånden løst; det samme er den rent mekaniske udfordring med at bygge en mobil fysisk robot, som kan bevæge sig robust og fleksibelt i sine omgivelser.

En af de mest imponerende nuværende løsninger inden for dette område er lagerrobotterne hos Amazon, som oprindelig blev udviklet af firmaet Kiva Systems, senere opkøbt af Amazon. Amazon har i dag lige så mange af disse robotter som antallet af indbyggere i Odense, 200.000. Hver lagerhal kan have op til 500 robotter kørende rundt imellem hinanden på kryds og tværs i fuld fart for at samle varer op, som skal pakkes til kunderne.

Det er altså i dag ikke et problem for robotter at finde vej fra A til B, at finde ud af, hvor de selv er, og ikke et problem at lave dem, så de er fysisk robuste og kan interagere med hundredvis af andre robotter. Ergo må det også være en smal sag at lave robotter, som kan køre rundt med medicinsk udstyr og blodprøver på hospitaler.

Det skulle man i hvert fald tro, men erfaringen viser, at det måske alligevel ikke er så simpelt. Mange hospitaler har allerede den slags robotter, og den helt store udfordring er, at robotterne ikke bare lever i deres egen isolerede robotverden, men skal omgås patienter og personale.

De skal altså navigere i et miljø, hvor de også skal interagere med mennesker, eksempelvis når de skal hente eller aflevere en pakke til en ansat, men også når de passerer patienter og personale på hospitalsgangene.

Interaktionen med mennesker har vist sig at være den største udfordring af dem alle, for her opstår den naturlige forventning om, at robotterne har tilstrækkelig meget social situationsfornemmelse til at agere på en – for os mennesker – acceptabel måde. Men det har de bare ikke, i hvert fald ikke altid.

En af de mest udbredte hospitalsrobotter til transportopgaver er TUG-robotten, som bruges på mere end 100 hospitaler i USA. I Danmark har man på Sygehus Sønderjylland i Aabenraa også haft TUG-robotter de seneste fire år, bl.a. til at hente opvask og klare tunge løft for køkkenpersonalet. Uden at forklejne den positive betydning, som robotten kan have i den forbindelse, vil jeg forsøge at pege på dens begrænsninger.

Lektor i datalogi, psykologi og industrielt design Bilge Mutlu fra universitetet i Wisconsin, Madison, har interviewet hospitalspersonale i USA for at finde ud af, hvordan de opfattede interaktionen med TUG-robotten.

Det første, han konstaterer, er, at fordi robotten kan navigere selvstændigt og bruge en menneskelignende stemme, begynder personalet automatisk at forvente, at den har en generel adfærd, som matcher disse kvaliteter, altså at den er mere generelt menneskelignende, forstående og opmærksom, end den er.

Der foregår formodentlig en form for underbevidst antropomorfisering, hvor vi mennesker begynder at tilskrive robotter menneskelige træk, når blot de deler tilstrækkeligt mange egenskaber med os mennesker. Det kan f.eks. ske, hvis en robot kan tage imod ordre, forstå sprog, og bevæge sig rundt uafhængigt af os – og det bliver endnu mere udtalt, hvis robotten endda har menneskelignende fysiske træk som arme, øjne og mund.

Fordi TUG-robotten er en hospitalsarbejder, forventer dens menneskelige kolleger, at den har sociale evner. Når den ikke for alvor viser sig at have det, leder det til frustration, f.eks. når den altid taler på samme måde i både stille og travle situationer.

En lægesekretær giver følgende eksempel: På et tidspunkt ankommer en TUG-robot med et brev til hende. Den siger:

»TUG er ankommet.«

Hun reagerer ikke, da hun er i gang med at tale i telefon. Det forstår robotten ikke, så den gentager:

»TUG er ankommet,« og det bliver den ved med hvert 30. sekund, indtil hun til slut siger:

»Jeg taler i telefon. Hvis du siger ’TUG er ankommet’ én gang til, så sparker jeg dig i kameraet!«

En anden reaktion på TUG-robotten er fra en overlæge, som bemærker, at »robotten ikke har de manerer, vi lærer vores børn. Jeg træder til side for patienterne, mens den bare buldrer af sted«.

Disse studier er næsten ti år gamle, og firmaet, som udvikler TUG-robotten, har forsøgt at løse nogen af problemerne, eksempelvis ved at give mulighed for, at robotten kan tale med forskellig lydstyrke på forskellige tidspunkter af døgnet.

Problemet med lægesekretæren, som taler i telefon, ville man også kunne løse uden de store problemer ved at tilføje et par linjer kode til robottens computerprogram, som siger noget i stil med:

»Hvis modtager af varen taler i telefon ved ankomsten, så forlad modtageren, og prøv igen fem minutter senere.«

Problemet er dog, at der vil være en uendelig mængde af sådanne sociale scenarier, hvor man så skal programmere robotten specifikt til, hvordan den skal opføre sig. Hvad hvis lægesekretæren i stedet var i gang med et vigtigt møde med en kollega eller en patient? Eller hvis hun med et fortravlet udtryk løb hen imod døråbningen, som robotten stod og blokerede? Eller hvis robotten var på vej ind i en elevator, og der samtidig kom to ambulancereddere løbende med en alvorligt tilskadekommen patient på en båre? I alle disse tilfælde forventer vi en særlig social adfærd, som bygger på en forståelse af den sociale situation.

Vi kan for hver enkelt mulig social situation forsøge at programmere robotten til at gøre det rigtige i den situation, men der er simpelthen for mange forskellige sociale situationer til, at det er en realistisk fremgangsmåde.

I virkeligheden bør robotten snarere have en generel evne til at sætte sig i andres sted, en Theory of Mind – evnen til social perspektivtagning: den generelle evne til at afkode sociale situationer for at finde ud af, hvad der forventes af os, eller hvad der er det mest betænksomme at gøre. Problemet er ikke, at robotter ikke er programmeret til at være betænksomme, men at de ikke forstår verden godt nok til, at de kan finde ud af, hvordan man er betænksom.

I novellen Rundt i Ring, skrevet af science fiction-forfatteren Isaac Asimov i 1941 (udgivet på dansk i 1973 i novellesamlingen Robot), beskrives tre robotlove, hvoraf den første lyder:

»En robot må ikke skade et menneske eller ved uvirksomhed lade et menneske komme til skade.« Det er i princippet let nok at programmere en robot til aldrig at have som mål at skade et menneske. Hvis den imidlertid ikke kan sætte sig i andres sted og forstå andres mål, kan dens handlinger stadig ende med at være skadelige, f.eks. hvis robotten tager elevatoren for næsen af ambulanceredderne med den alvorligt tilskadekomne patient.

Vi mennesker har dog heller ikke en perfekt social situationsfornemmelse og kommer også ofte til at forårsage skade på andre gennem vores handlinger eller uvirksomhed, fordi vi ikke fuldt ud gennemskuer andres behov eller de konsekvenser, vores handlinger har for dem. Situationen er dog langt bedre, end hvis vi slet ikke havde nogen social situationsfornemmelse overhovedet.

Eksemplet med robotten, der tager elevatoren for næsen af ambulanceredderne, er faktisk et virkeligt eksempel netop fra Sygehus Sønderjylland. Ambulanceredderne lærte heldigvis hurtigt, at de simpelthen kunne gribe fat i robotten og skubbe den ud, så de kunne komme først ind i elevatoren. Det er bare ikke den ideelle løsning.

Robotten burde udelukkende gøre livet mindre besværligt for personale og patienter, aldrig mere besværligt ved at stå i vejen, ikke at vige for andre og ved at forstyrre nogen, som er i gang med noget vigtigt. Min påstand er, at der næppe findes andre robuste og fleksible løsninger på dette problem end at forsøge at give robotterne en generel social intelligens, altså en generel evne til at sætte sig i andres sted og afkode sociale situationer.

Det kræver dog et højere niveau af kunstig intelligens, end vi har i dag, og mest af alt kræver det en dybere forståelse for, hvad der skaber menneskets sociale intelligens og evne til social hensyntagen.

Fra sociale robotter til sociale mennesker

Man kunne have flere indvendinger mod ovenstående. For det første: Kan robotter ikke lære af erfaringen fremfor at blive programmeret til alt?

I så fald kan de måske lære den korrekte adfærd ud fra erfaring med tilsvarende situationer og behøver ikke have en generel evne til at afkode kendte og ukendte sociale situationer. For det andet – hvis svaret på det første spørgsmål er ja: Er det virkelig rigtigt, at vi mennesker har en generel evne til at afkode sociale situationer, har vi ikke også bare lært af erfaringen, hvad der er det bedste at gøre?

Kunstig intelligens handler jo heldigvis ikke kun om, at mennesker manuelt skal programmere computere og robotter til, hvad de præcist skal gøre i hver eneste lille situation, de kan komme ud for. Avancerede kunstig intelligens-systemer kan selv lægge planer og lære af erfaringen, så kan de ikke bare lære at agere socialt acceptabelt? Svaret på det spørgsmål er: Jo, ideelt set, vi ved bare endnu ikke helt hvordan.

Et af de vigtige områder i kunstig intelligens er reinforcement learning. Reinforcement learning af inspireret af behavioristiske studier af gnaveres adfærd, eksempelvis deres evne til at finde mad eller finde vej gennem en labyrint. Zoologen J.W.S. Pringle skrev i 1951:

»Essentielt foretager dyret mere eller mindre tilfældige bevægelser og udvælger, i den forstand at den efterfølgende gentager, de bevægelser, som leder til det ’ønskede resultat’.« Reinforcement learning er baseret på samme idé om, at man til at starte med blot agerer tilfældigt, men at nogle af ens tilfældige handlinger leder til bedre resultat end andre, og man vil så efterfølgende opprioritere netop de handlinger.

Når jeg er til konference i en by, jeg ikke har været i før, vil jeg altid forsøge at finde ud af, hvor man kan få den ultimative kop espresso (som mange andre forskere drikker jeg en hel del kaffe). Jeg kan bedst lide at gøre mig mine egne erfaringer frem for blindt at stole på vurderinger på nettet, så først går jeg lidt rundt på må og få og ser, hvad jeg kan finde i nærheden.

Hvis jeg finder et godt sted, kan jeg enten vælge at blive ved med at gå samme sted hen hver gang, eller jeg kan prøve at lede videre efter noget bedre. Måske er der et endnu bedre sted lige rundt om det næste hjørne, eller hvis jeg går lidt i den anden retning?

I reinforcement learning vil man for det meste gentage det, som indtil videre har givet den højeste belønning, men man vil også indimellem foretage nye tilfældige valg for at se, om man kan få en endnu større belønning.

I jagten på den ultimative kop espresso er kvaliteten af kaffen naturligvis belønningen, og et nyt tilfældigt valg svarer til at gå i en ny retning for at finde en ny café. Den ultimative kaffe er imidlertid ikke nødvendigvis så ultimativ, hvis man skal gå 5 km gennem et kedeligt industrikvarter for at nå til den. Man modregner derfor omkostningerne (forbrug af tid, energi eller penge), når man beregner sin belønning.

I trafikken prøver jeg også af og til at vælge en ny vej for at se, om den skulle være hurtigere. Jeg bander og svovler, hvis det viser sig, at jeg har taget grundigt fejl, eksempelvis på grund af vejarbejde eller ekstra meget trafik. Men i virkeligheden burde jeg give mig selv en positiv belønning i sådanne situationer.

Jeg lavede en forkert forudsigelse af, hvor lang tid det ville tage, så jeg har lært noget af forsøget. Det er bedre at lære noget end altid at gøre præcis det samme og få præcis den belønning, man forventer. Man lærer i kraft af sine fejl, ikke når tingene går som forventet. Og læring gør jo, at vi på længere sigt bliver bedre til at træffe de optimale valg for os selv, så vi bør belønne vores egne fejl!

Det er præcis samme læringsmekanisme som i reinforcement learning, der er på spil, når man bruger godbidder i træning af hunde, hvor godbidden er belønningen. En robot spiser ikke godbidder, men man vil kunne programmere den til at opfatte ’fyh’ og ’god robot’ som henholdsvis negativ og positiv belønning, og den vil så kunne programmeres med reinforcement learning til altid at forsøge at få den højest mulige belønning.

Hvis lægesekretæren siger »fyh«, når robotten forstyrrer hende, og »god robot«, når den ikke gør, er ideen, at den efterhånden vil lære ikke at forstyrre hende. Det forudsætter dog, at den forstår, hvad der karakteriserer forskellen på de situationer, hvor den forstyrrer, og hvor den ikke gør. Hvis jeg ikke kan kende forskel på venstre og højre, og nogle dage får dårlig kaffe, fordi jeg er gået til venstre, og andre dage god kaffe, fordi jeg er gået til højre, så hjælper det mig ikke til at blive bedre til at få god kaffe.

Robotten vil måske kunne lære at kende forskel på situationer, hvor lægesekretæren taler i telefon, og hvor hun ikke gør, og hvis den altid får straf for at forstyrre, mens hun taler i telefon, vil den sandsynligvis kunne lære det. Men hvis hun i stedet sidder i møde, vil det være en hel ny situation, som robotten ikke har nogen anelse om, hvordan den skal reagere på. Hvis hun bærer på en stak papirer og ikke har en fri hånd til at tage imod brevet, vil det også være en ny situation for robotten, som den først skal lære at håndtere.

Det lader til, at vi mennesker også kan finde ud af at agere fornuftigt i situationer, som ikke præcis ligner nogen, vi har set før, og som vi derfor ikke har fået trænet vores ’belønning og straf’-system på. Det er ikke helt tilfældigt, at man i psykologi har forladt ideen om behaviorisme som en fuld forklaringsmodel af menneskelig adfærd.

Hvad præcis det er, vi mennesker kan i den slags situationer, er der stadig diskussioner om, men der er ingen tvivl om, at vi ikke kun navigerer efter straf og belønning, men faktisk prøver at lave komplicerede modeller af de situationer, vi bliver udsat for. Disse modeller er ikke kun modeller af, hvordan vores fysiske omgivelser ser ud, men også af, hvad der foregår inde i hovedet på andre mennesker.

Vi tolker næsten al adfærd hos andre som intentionel, altså som rettet mod at nå et bestemt mål. Hvis nogen løber, må de have travlt med at nå et eller andet. Hvis nogen taler i telefon, må der være et problem, de gerne vil løse, eller personen i den anden ende af røret har et problem, som de hjælper med at løse. Hvis nogen bærer på en stak papirer, er det, fordi de papirer skal et eller andet sted hen, måske ind i skabet for at få bedre plads på skrivebordet.

Vores evne til at tolke andres intentioner kaldes i kunstig intelligens for plan recognition eller intention recognition. Vi kan ikke tolke andres intentioner uden at have evnen til social perspektivtagning, uden at have en Theory of Mind.

En Theory of Mind handler netop om, at vi kan skabe modeller af andres mentale tilstande, herunder deres intentioner. Hvis jeg har en generel evne til at afkode andres intentioner, har jeg også en meget mere generel evne til at gøre ’det rigtige’ i en given social situation, end hvis jeg blot behavioristisk navigerer efter belønning og straf.

Hvis nogen taler i telefon, er de i gang med at udføre en opgave – det kan jeg forstå, fordi jeg sætter mig i deres sted. Naturligvis skal de så ikke forstyrres i den opgave, medmindre jeg vil dem noget, som er vigtigere eller haster mere end telefonsamtalen.

Hvis en person efter et cykelstyrt bløder kraftigt og spørger om vej til apoteket, vil jeg måske i stedet for at svare direkte på spørgsmålet hellere tilbyde at køre vedkommende på skadestuen. Det er, fordi jeg forstår situationen og hensigten og lægger planer for, hvad der er det bedste at gøre givet denne forståelse.

Psykologen Felix Warneken og kognitionsforskeren Michael Tomasello har inden for de sidste 15 år lavet en række spektakulære studier af børns adfærd for både at påvise, at de er altruistiske, og at de har en ret robust evne til at sætte sig i andres sted og forstå andres mål, altså har en Theory of Mind.

For at være proaktivt og uselvisk hjælpsom skal man netop have begge evner. For at gide at tilbyde sin hjælp til andre skal man være tilstrækkeligt uselvisk (eller forvente en eller anden form for indre eller ydre belønning), men måske endnu vigtigere skal man kunne forstå, hvad det er, man kan hjælpe med, altså forstå, hvad der kan være hjælpsomt i situationen.

Warneken og Tomasello har f.eks. lavet et studie, hvor 24 børn, alle 18 måneder gamle, på skift sidder og observerer følgende scenarie: En voksen har begge hænder fulde af en stak papirer og går hen imod et lukket skab. Han banker ind i skabsdørene, siger “ups” og træder til side. Halvdelen af børnene rejser sig derefter op, går hen til skabet, åbner dørene og træder til side, så den voksne kan komme ind i skabet med papirerne.

Fra et kunstig intelligens-perspektiv er det ret fantastisk at se. Det er i modsatte ende af det sociale spektrum i forhold til eksemplerne med TUG-robotten. Børnene må på en eller anden måde formå at sætte sig i den voksnes sted og gætte rigtigt på, hvad målet er med hans handling, nemlig at få papirerne ind i skabet. Derefter kan børnene lægge en plan, som både involverer dem selv og den voksne:

»Hvis jeg nu går hen og åbner skabsdørene, så kan den voksne få papirerne ind uden at skulle lægge dem fra sig først.«

Selvfølgelig ved vi ikke præcis, hvad der foregår i hovedet på disse 18 måneder gamle børn, og det er stadig noget, der diskuteres meget i kognitiv psykologi. Men i hvert fald er det næppe baseret udelukkende på simpel læring gennem belønning og straf som i reinforcement learning.

Børnene har næppe været i en tilstrækkeligt lignende situation før til, at det er rimeligt at påstå, at de ved, hvad de skal gøre, fordi de har prøvet det før og fik en belønning for det. Der foregår noget på et højere abstraktionsniveau, hvor den voksnes intention bliver fortolket af barnet, og barnet lægger en altruistisk plan for, hvordan de to tilsammen kan sørge for, at den voksne når sit mål.

Selv hvis det, der foregår i barnets hjerne, ikke svarer til denne beskrivelsesmodel, er det for nuværende det bedste bud, vi har på, hvordan vi kan skabe tilsvarende adfærd i robotter. Hvis robotter skal blive lige så gode til at afkode sociale situationer og være proaktivt hjælpsomme som mennesker, skal de også have evnen til at tolke andres intentioner, forstå, hvad andre kan og ikke kan (den voksne kan ikke åbne skabsdørene med hænderne fulde), og forstå, hvordan ens handlinger påvirker verden og andres handlinger (hvis jeg åbner skabsdørene, kan den voksne bagefter godt lægge papirerne ind).

Det handler igen om den generelle sociale intelligens.

Lad mig vende tilbage til de to indvendinger, som dette afsnit åbnede med: Kan robotter ikke lære af erfaringen frem for at blive programmeret til alt? Svaret på det spørgsmål er så ja – eksempelvis via reinforcement learning. Og dernæst: Er det virkelig rigtigt, at vi mennesker har en generel evne til at afkode sociale situationer – har vi ikke bare lært af erfaringen, hvad der er det bedste at gøre?

Her har jeg forsøgt at argumentere for, at vi faktisk netop har en sådan generel evne, og at denne evne går langt ud over, hvad vi i dag kan opnå med reinforcement learning og andre eksisterende læringsmekanismer inden for kunstig intelligens. Mit hovedargument er så, at hvis robotter også skal kunne agere fleksibelt og fornuftigt i generelle sociale situationer, skal vi finde en måde at give dem den samme generelle evne til social perspektivtagning.

Thomas Bolander: ’Hvordan ser fremtiden ud med kunstig intelligens?’. 82 sider. 49,95 kroner. Informations Forlag.

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Anne-Marie Krogsbøll

Interessant artikel med forkert præmis. Vi skal simpelthen ikke acceptere, at robotter og algoritmer overtager disse områder - det kan kun gå galt. Cathy O´Neil gør i bogen "Weapons of Math Destruction " rede for, HVOR let det kommer til at gå galt, så disse algoritmer ender med at være selvforstærkende fordomsfulde og vendt mod verdens fattigste.

At argumentere for, at algoritmerne og robotterne skal udvikle social intelligens, betyder sandsynligvis (Bolander skriver det ikke direkte), at næste kridt er at argumentere for, at forskere og firmaer skal have ubegrænset adgange til vore private data - for hvor skulle algoritmerne ellers lære det fra?

Jeg ved ikke, om Bolander er medlem af eller tilknyttet Singularity University, men jeg kunne have en fornemmelse af det - men det er også muligt, at hans ærinde faktisk er at advare mod den udvikling. Det håber jeg, for udviklingen er en fare for vores frihed og demokrati - læs bare den advarende rapport fra FN's rapportør for nylig:
https://www.theguardian.com/technology/2019/oct/16/digital-welfare-state...

Om Singularity University og Siri-kommisionen, som Bolander var med i:
http://www.thomasaastruproemer.dk/siri-kommissionens-opgoer-demokrati-pa...

Om Singularity University og Siri:
http://www.thomasaastruproemer.dk/siri-kommissionens-opgoer-demokrati-pa...

Ingen algoritmer og social intelligens uden enorme mængder data. Lyt også til Snowden: https://www.cnet.com/news/edward-snowden-says-facebook-amazon-and-google...

Og læs Shoshana Zuboffs "Oveervågningskapitalismens tidsalder."

Og Markus Bernsens "Danmark Disrupted".
Og Mads Vestergaards "Digital Totalitarisme".

Og hele den digitale udvikling er ved at undergrave klimaindsatsen, for den digitale udvikling er helt enormt energislugende.
https://politiken.dk/debat/debatindlaeg/art7465612/Digitalisering-kan-to...

Det er på tide med en modstandsbevægelse, hvis vi vil beholde vores menneskevenlige samfund og demokrati, for vi er på vej mod totalitære tilstande. Vi bliver kuppet af hele denne udvikling. Den fører til ekstremt ekspert/algoritme-vælde, og afslutter demokrati, frihed og menneskerettigheder såsom retten til privatliv.

Thomas Tanghus, Karsten Aaen, Lillian Larsen, Lise Lotte Rahbek, Allan Madsen og Bjarne Andersen anbefalede denne kommentar