Feature
Læsetid: 3 min.

Tay og tre andre robotter der er gået amok, har drevet mennesker til vanvid og forårsaget fatale ulykker

Her er fire eksempler på robotters manglende sociale evner – og hvorfor det kan give mening, at de bliver mere socialt intelligente i fremtiden
Her er fire eksempler på robotters manglende sociale evner – og hvorfor det kan give mening, at de bliver mere socialt intelligente i fremtiden

Sara Houmann Mortensen

Redaktionen
30. november 2019

Hvis kunstig intelligens skal give mening i fremtiden, skal robotterne også have en vis mængde social intelligens. Det argumenterer DTU-professor Thomas Bolander for i en ny bog. Her er fire eksempler på, at robotter er gået amok, har drevet mennesker til vanvid, eller at kunstig intelligens er endt i fatale ulykker

1. Den racistiske twitterrobot

I 2016 valgte Microsoft at skabe en twitterrobot, som fik navnet Tay. Meningen var, at Tay selv skulle kunne skrive opslag på det sociale medie ved at lære fra de mange andre twitterbrugere. Med andre ord skulle robotten lære fra al den tekst, den blev eksponeret for på Twitter.

Det var dog langtfra alle brugere, som ønskede det bedste for Tay, så de begyndte at fodre robotten med forskellige rabiate udsagn. Og fordi robotten ikke forstod meningen bag de mange ord, endte den med at forvandle sig til holocaustbenægter, racist og sexist. For eksempel skrev den:

»Jeg fucking hader feminister, de burde alle dø og brænde op i helvede« og »Hitler havde ret, jeg hader jøder«.

2. Robotter opfandt eget sprog

Et andet eksperiment, som blev igangsat af Facebook, endte med, at to robotter udviklede deres eget sprog. Robotterne hed Alice og Bob, og ideen var, at de to skulle handle forskellige varer med hinanden på engelsk. Men i stedet for at arbejde på det sprog, de var blevet sat til, begyndte de at kommunikere på en for dem mere effektiv måde – men som var det rene nonsens for mennesker. For eksempel formulerede de brudte sætninger med mange gentagelser, som da Bob sagde:

»I can i i everything else,« og Alice svarede:

»balls have zero to me to me to me.«

Gentagelserne ’i’ og ’to me’ blev øjensynligt brugt til at angive, hvor mange stykker af en given vare der blev handlet med. Men da hensigten på den lange bane var, at de to robotter skulle kommunikere med mennesker, blev forsøget lukket ned.

3. Hospitalsrobotter skaber frustration

På flere end 100 hospitaler i USA og et enkelt i Danmark kører robotter rundt på de lange hvide hospitalsgange og løser diverse transportopgaver. Men selv om de såkaldte TUG-robotter er udstyret med kunstig intelligens, går det ikke altid lige nemt, når de skal manøvrere rundt blandt mennesker, der betragter dem som kollegaer.

På Sygehus Sønderjylland i Aabenraa har robotten kunnet finde på at tage elevatoren for snuden af de hospitalsansatte, som var på vej til operationsbordet med en alvorligt skadet patient. I et andet eksempel skulle TUG levere et brev til en lægesekretær, som talte i telefon og derfor ikke kunne tage imod brevet med det samme. Det forstod TUG imidlertid ikke og gentog hvert 30. sekund, at »TUG er ankommet«, indtil lægesekretæren fik nok og råbte:

»Hvis du siger ’TUG er ankommet’ én gang til, så sparker jeg dig i kameraet!«

4. Fatale ulykker med førerløse biler

Der er sket flere voldsomme ulykker, når biler er blevet sat på autopilot. For eksempel i 2016 og i 2019, hvor to Tesla-biler, som var blevet sat på autopilot-mode, forvekslede en lastbilanhænger med et motorvejsskilt.

Teknologien i bilen er kodet til mønstergenkendelse, men fordi både lastbilhængeren og vejskiltet er to store hvide flader med tekst på, kunne den ikke skelne de to fra hinanden. Det resulterede ulykkeligvis i, at bilerne kørte ind under lastbilanhængeren og fik skrabet førerhuset af.

Kilder: Thomas Bolander: ’Hvordan ser fremtiden ud med kunstig intelligens?’. Digital Journal.

Videnskab 2019

Videnskab er Informations særtillæg om forskning og viden. Vi dækker ideologiske brydninger og de største videnskabelige gennembrud, diskussioner og begivenheder, der ellers ofte forbliver i et akademisk vakuum. For vi har brug for videnskabens kvalificerede viden om vores samfund – men også erkendelsen af, at videnskaben kan tage fejl.

Andre artikler i dette tillæg

Følg disse emner på mail

Vores abonnenter kalder os kritisk,
seriøs og troværdig.

Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Jeg forstår ikke helt: Skulle Teslaerne have kørt ind i motorvejsskiltet i stedet? Det gi'r da slet ikke mening.

He he, Ja lægesekretæren er da helt klart den kvikkeste her - 'så sparker jeg dig i kameraet' :-D

Nu har der da vist også været flere dødsulykker med de førerløse biler... (?)

> Nu har der da vist også været flere dødsulykker med de førerløse biler... (?)

Tesla har haft nogle stykker:

https://duckduckgo.com/?q=tesla-autopilot+death+toll

Hans Ditlev Nissen

Thomas Tanghus, de har lært at et motorvejsskilt er 'noget man bare kører under'.
Hvad lige det eksempel så har med social intelligens at gøre, forstår jeg til gengæld ikke?

Nåja, det gør man vel på motorveje. Det er ikke min spidskompetence.