Kommentar

Det er svært at smide robotten Sophia i en affaldskværn, når hun ligner et menneske

Når vi ikke længere kan skelne robotter fra personer med tanker og følelser, opstår der et hav af både juridiske og menneskelige problemer
Når vi ikke længere kan skelne robotter fra personer med tanker og følelser, opstår der et hav af både juridiske og menneskelige problemer

Patricia de Melo Moreira

28. marts 2018

Mange har set videoen, hvor robotten Sophia bliver interviewet af en journalist og et langt stykke hen ad vejen svarer fornuftigt på hans spørgsmål.

Sophia minder lidt om et smukt rumvæsen, som tydeligvis har en høj intelligens, men endnu ikke helt har lært menneskets omgangsformer. Hun udstråler et barns naivitet kombineret med en viden, der på isolerede områder langt overgår selv de klogeste voksne.

Forestil dig nu, at en forbedret udgave af Sophia får sin daglige gang på din arbejdsplads. Hun går rundt og serverer kaffe, mens hun smiler og spørger, hvordan det går med børnene, hunden eller datingsituationen. Indimellem drøfter I måske de faglige spørgsmål, du er optaget af. Hun er altid glad. Hun har altid tid.

Men en dag får I en ny robot, som kan lave endnu bedre kaffe. Det betyder ikke, at Sophia skal fyres. Hun skal skrottes, og du får til opgave at smide hende i affaldskværnen. Fordi hun er tung, må du bede hende følge med dig ned i gården, hvor det store orange monstrum står og summer, mens det kvaser de ting, vi ikke længere har brug for, så materialerne kan genbruges.

Ville man kunne få sig selv til at tage det sidste skridt og vippe Sophia op i kværnen? Det er et interessant spørgsmål, som vi bliver nødt til at stille os selv i takt med, at vi rykker mod en tid, hvor robotkolleger som Sophia kan blive virkelighed.

Vi kan ikke se de andres smerte

Filosoffer kalder årsagen til problematikken for det fremmedpsykiske problem. Det handler om, at den eneste adkomst, vi har til andres bevidsthed, går via deres fysiske udtryk som tale, mimik, handlinger og så videre. Vi kan ikke se en anden persons smerte. Vi kan alene se, om en person opfører sig, som om det gør ondt.

Hidtil har det fremmedpsykiske problem – og mange tilsvarende filosofiske problemer – primært haft akademisk interesse. Men med udbredelsen af robotter med kunstig intelligens bliver det nødvendigt at få flere til at forstå og involvere sig i diskussionen. Spørgsmålet om, hvorvidt robotter har – eller vil få – bevidsthed, kan nemlig meget vel få stor betydning for os alle sammen.

Der er lavet talrige teorier om, hvordan vi kan fastslå, hvornår andre – herunder også kunstig intelligens – har bevidsthed. Men teorierne stritter i vidt forskellige retninger, og der er ikke umiddelbart et videnskabeligt gennembrud i sigte.

Vanskelighederne skyldes ikke mindst, at vi kun har adkomst til bevidsthed i første person: Vi kan kun mærke vores egen smerte. Et forhold, der giver nogle åbenlyse problemer for en objektiv beskrivelse. Bevidstheden har ganske enkelt nogle helt andre egenskaber end dem, vi kender fra vores fysiske omverden.

Min tese er på den baggrund, at Sophia-problematikken kommer til at volde os væsentligt mere bøvl end affaldsproblemer. Når vi ikke længere fysisk kan skelne robotter fra personer med tanker og følelser, bliver det på grund af det fremmepsykiske problem svært – hvis ikke umuligt – at afgøre, om robotter for eksempel kan siges at udføre viljeshandlinger.

Det er her, balladen opstår, for det vil medføre et hav af både juridiske og rettighedsmæssige problemer. Skal robotter straffes, hvis de forvolder skade? Kan de bære et forsikringsansvar? Kan man eje dem? Nogle vil måske finde det absurd overhovedet at tage sådanne spørgsmål alvorligt, men det var der også nogle, der gjorde, da vi havde lignende diskussioner om kvinder, børn og folk med mørk hud.

Hvis vi skal gribe det an med større elegance end dengang, bør vi begynde diskussionen om det nu og udbrede forståelsen af, hvilke problematikker, den nye teknologi fører med sig. Ikke mindst skal vi nuancere måden, vi opfatter os selv på i forhold til teknologien.

Vi slutter robotrundfarten i Japan. Her er det ikke udsædvanligt at skille sig af med sin robothund – en Aibo – ved at placere den på en såkaldt Aibo-farm. Her passes og plejes de små kræ af pensionerede Sony-ingeniører i stedet for at blive smidt ud. Man kan jo ikke smide en hund i en affaldskværn.

Thomas Telving er cand.mag. i filosofi og statskundskab og direktør i spilfirmaet Trivial Business

Bliv opdateret med nyt om disse emner på mail

Vores abonnenter kalder os kritisk, seriøs og troværdig.
Få ubegrænset adgang med et digitalt abonnement.
Prøv en måned gratis.

Prøv nu

Er du abonnent? Log ind her

Anbefalinger

  • Niels Duus Nielsen
  • Flemming Berger
  • Ruth Gjesing
  • Morten Balling
  • ulrik mortensen
  • Eva Schwanenflügel
Niels Duus Nielsen, Flemming Berger, Ruth Gjesing, Morten Balling, ulrik mortensen og Eva Schwanenflügel anbefalede denne artikel

Kommentarer

Lise Lotte Rahbek

Når vi ikke længere fysisk kan skelne robotter fra personer med tanker og følelser, bliver det på grund af det fremmepsykiske problem svært – hvis ikke umuligt – at afgøre, om robotter for eksempel kan siges at udføre viljeshandlinger.

Hvorfor i alverden skulle robotten forsøge at socialisere med mennesker, ved at appellere til small-talk på arbejdspladsen? I så fald giver det da væsentlig mere mening at have et menneske til jobbet.
Det er forlængst blevet frabedt rengørings- og kaffepersonale på nogle større virksomheder at forsøge at skaffe et menneskeligt forhold til virksomhedens andre ansatte med morgenhilsner og den slags ligegyldigheder. Det forstyrrer dem i deres arbejde. Så hvorfor pokker skulle robotter så pludselig få den funktion, som det mellemmenneskelige ikke har rum til på en arbejdsplads??

Der er noget der halter i artiklens argumenter.

Niels Duus Nielsen, Brian W. Andersen, Jørgen Kærbro Jensen, Anne Eriksen, Jørn Andersen, Anders Graae, Karsten Aaen og Carsten Svendsen anbefalede denne kommentar
Carsten Svendsen

Hvorfor skulle det hjælpe robotter mere at ligne mennesker, end det hjælper folk i aktivering/arbejdsprøvning/ressourceforløb?

Sven Elming, Niels Duus Nielsen, Eva Schwanenflügel og Bjørn Pedersen anbefalede denne kommentar
ulrik mortensen

'Ready for primary usage bonding' - Sophia-problematikken er f.eks. glimrende beskrevet i den engleske serie 'Humans', hvor familiefaren Joe bliver lidt for glad for familiens nye husrobot - og det er måske ikke så svært at forstå ... https://www.youtube.com/watch?v=IDkmkXJvTFw
Ps. 3. sæson ude til maj ....

En sådan robot som beskrevet her i artiklen, ville aldeles ikke være en robot; det ville en androide. Og en sådan er beskrevet som lt. commander Data i Star Trek Serien: The Next Generation - og der er altså lige mindst 250-300 år til, at ST:TNG foregår!

Det, som folk kalder for robotter og for kunstig intelligens er i virkeligheden bare maskinlæring, f.eks. kan man lære en maskine at lukke op for vandet eller ned for vandet, når man bruger en pumpe til at pumpe vand, eller man kan lære en maskine at åbne for vinduet, eller lukke for vinduet i badeværelset, når der ikke længere er fugtigt - i badeværelset mm.

Og som der vist stod i en artikel her på information.dk så kan man godt lære en robot eller lign. at kaste en bold, men skal den også kunne cykle, kræver det at man lærer en helt anden robot dette.

Niels Duus Nielsen, Henrik L Nielsen, Michael Borregaard og ulrik mortensen anbefalede denne kommentar
Morten Balling

Der er en del af jer som stadig ikke har fattet konsekvenserne af eksponentiel udvikling. Den med at se tilbage på udviklingen indtil nu, og så tro at fremtiden vil udvikle sig i samme tempo, er i bedste fald naivt.

Der er ikke nogen som reelt ved, hvad vores egen bevidsthed er for en dims, og det gør det svært at tale om kunstig bevidsthed. Kunstig bevidsthed er ikke det samme som kunstig intelligens, men man kan overveje, om en kunstig intelligens uden bevidsthed er at foretrække, frem for en som er bevidst. Tænk djøf'er på steroider.

Turing testen er et lettere forældet forsøg på at definere et kriterie for, hvornår vi synes at en maskine kan "tænke". Den har dog et interessant aspekt. Hvis vi ikke kan adskille en kunstig intelligens fra et menneske, ved at stille spørgsmål og få svar, siger vi at så er maskinen i stand til at "tænke" lige så godt som et menneske.

Tilsvarende kunne man sige, at hvis maskinen ikke er bevidst om at dens bevidsthed er kunstigt skabt, så overskrider vi for alvor en grænse, hvis vi kører den i affaldskværnen. Den tanke er ikke ny. F.eks. vidste Rachael i Blade Runner først at hun var replikant, da Deckard afslørede at han kendte hendes drøm om edderkopperne, og selv da Deckard samler origami enhjørningen op, udbryder han ikke straks "Nedern! Jeg er også en robot". Den slags erkendelser tager tid...

Jeg tror personligt ikke der går så mange årtier før machine learning, i kombination med Moore's Lov, fører til noget vi vil have svært ved at adskille fra kunstig bevidsthed. Kunstig intelligens har vi allerede, og nej, den er ikke længere baseret på menneskeskabte algoritmer. Det som foregår i lagene i et neuralt netværk i dag, minder meget om den magiske emergens nogle mener er forklaringen på alt det underlige, inkl. bevidstheden.

Michael Friis, Niels Duus Nielsen, Brian W. Andersen, Klaus Vink Slott, Mikael Velschow-Rasmussen, Flemming Berger og Eva Schwanenflügel anbefalede denne kommentar
Torben K L Jensen

Jeg er mere bange for at mennesker bliver intellektuelt dovne,mister den overordne ansvarsfølelse for deres medmennesker hvis man overlader beslutningsprocesserne til androider (AI) med de dovnes motto :
"Sådan er det jo - det er den vej udviklingen går (underforstået - det er ikke noget VI bestemmer)"

Henrik L Nielsen

Spørgsmålet er vel, hvor grænsen kommet til at gå mellem hvor meget kode, der lovpligtigt begrænser læring samt adfærd fra fri vilje samt fysiske og emotionelle følelser, som disse androider kan have.

Indtil det er afgjort, er spørgsmålet om maskinens rettigheder og pligter vel lige så akademisk som spørgsmålet om hvor mange engle, der kan stå på et knappenålshoved.

Men ja, antropomorfisme er det jo svært at undgå.

Brian W. Andersen

@ Morten Balling

Jeg tror at du har ret i at tidshorisonten ligger i årtier, selvom Moore's lov i de seneste år er bremset ned i tempo og sandsynligvis nærmer sig sit mætningspunkt. Det er endda muligt at mætningspunktet kan blive en definerende milepæl i udviklingen af AI, fordi transistorteknologien er nede i størrelser, som er sammenlignelige med cellerne i menneskekroppen. I år ruller Intel deres 10nm processorer ud. Det er en transistorbredde på ca. det halve af et ribosoms diameter, så teknologiens muligheder for stadig større kompleksitet er til at blive helt svimmel af at tænke på.

I dag er det stadig de fleste, der afviser muligheden for en reel AI i nærmeste fremtid eller overhovedet, så den dominerende tendens er at betragte alt som sofistikerede simulationer skabt af machine learning og algoritmer. Der er to problemer i denne opfattelse. Det ene er at det bliver vanskeligere og vanskeligere at gennemskue hvad maskinerne lærer og hvordan. https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-o...

Det andet er at vi faktisk ikke ved hvad intelligens og især menneskelig intelligens er. Den kan muligvis være et produkt af meget tilsvarende processer, hvilket der aktuelt forskes i. https://www.sciencedaily.com/releases/2016/11/161121165921.htm

Der er nogle meget mudrede grænser her og selv hvis vores teknologier ikke formår at skabe noget som vi vil definere som ægte intelligens, så vil der blive skabt simuleret intelligens, der vil være uskelneligt fra "den ægte vare" for vores subjektive menneskelige opfattelse. Dermed vil vi på den ene eller anden måde komme til at stå overfor de problemer son artiklen herover beskriver. Dette kan blive meget udfordrende, fordi vi som mennesker er stærkt tilbøjelige til at projicere vores egne følelser over på alt og alle omkring os. Ikke bare på andre mennesker, men også på alt lige fra vores kæledyr til vores stueplanter. Det holder vi næppe op med, når vi en dag står overfor en maskine, der ligner os og agerer som os, uanset om den regnes for intelligent eller ej. Hvis nogle skulle være i tvivl om dette, så bare tag et kig på den enorme fanskare, der har samlet sig om Hondas Asimo, og især på hvordan de reagerer på robotten. Det er en meget elsket maskine.

Science fiction har det ofte med at bliver science fact hurtigere end flertallet forventer, fordi fiktionen ofte inspirerer forskere, ingeniører og mange andre i videnskabens verden til netop at skabe forfatternes drømmebilleder. Der gik f.eks. ikke ret mange år fra at nogle blev fascineret af Star Treks Communicator til at den første Motorola StarTac kunne købes i butikkerne.

ulrik mortensen, Henrik L Nielsen, Morten Balling og Niels Duus Nielsen anbefalede denne kommentar
Morten Balling

@Brian W. Andersen

Det med at Moore's Lov mister pusten, kan jeg huske helt tilbage til Intel's Pentium 90 MHz professor, og den har nogen år på bagen nu. Ser vi på hvordan det er gået siden, ser det ikke ud til at Moore's Lov på nogen måde er bremset:

https://en.wikipedia.org/wiki/Moore%27s_law#/media/File:Moore%27s_Law_Tr...

Det er korrekt at fysikken sætter grænser for, hvor små man f.eks. kan lave transistorer i CPU, men det løser man bla. ved at lave CPU'er større i disse år, og her sættes grænsen teoretisk af Universets størrelse.

En mere reel udfordring for Moore's Lov er at flere transistorer bruger mere strøm. Fysikeren Landau som arbejdede for IBM i deres glansperiode, beviste at der findes en minimum mængde energi som skal til for at flippe en bit. Det kaldes Landaur's Limit. En CPU i dag bruger langt mere end Landaur's Limit på at flippe en bit, men chip producenter bliver bedre og bedre til at lave energieffektive CPU'er. Pointen her er at Moore's Lov er eksponentiel, mens den teknologiske udvikling indenfor energibesparelse er lineær. Derfor kan den teknologiske udvikling ikke følge Moore's Lov. Fysikeren Lawrence Kraus har beregnet at hvis udviklingen fortsatte skal vi kun få hundrede år frem før vi ville skulle bruge energi svarende til massen af det Synlige Univers for at holde vores IT dimser kørende i ét år.

Det du kalder en reel AI, går jeg ud fra er det andre kalder Strong AI. Altså en maskine som overgår mennesker i mental kapacitet. Et godt spørgsmål her, er hvad hulen mental kapacitet er for noget. Lidt som jeg kunne spørge hvad "ægte" intelligens er, når vi ikke engang kan blive enige om hvad det mere universelle begreb "intelligens" dækker over. Endnu mere svært bliver det at forklare, hvad bevidsthed er.

AI som værende kunstig intelligens, som kan bestå en Turing Test så jeg første gang et reelt eksempel på med Tay:

https://en.wikipedia.org/wiki/Tay_(bot)

Tay viste også, at Turing Testen er utilstrækkelig. Og dog... Konsensus i Philosophy of Mind i disse år er at bevidstheden formentlig er er resultat af emergens, som opstår holistisk når man sætter tilstrækkeligt mange neuroner sammen med tilstrækkeligt mange synapser. Dyr har bestået spejltest, som normalt regnes som et bevis for følelsen af et "jeg". Her taler vi ikke bare primater, men også dyr med en hjerne som er ret forskellig fra vores, såsom en krage eller sågar en myre. Jeg ville ikke blive voldsomt overrasket, hvis man en dag påviste noget som mindede om bevidsthed i en mugplet på en skive rugbrød.

Mindede om bevidsthed? Hvis man tænker lidt dybere over det, er bevidsthed et begreb vi har opfundet for at beskrive noget vi oplever. Vi er ikke i nærheden af at kunne beskrive hvad bevidsthed reelt er for noget, men vi er ret enige om at den sidder i hjernen (nej, vi tænker hverken med hjertet eller maven). Hjernen ved vi ret meget om, og ny viden kommer til eksponentielt. Derfor er det ikke utænkeligt at vi kommer til at kunne simmulere bevidsthed, uden at vide hvad bevidsthed er.

Den dag vi laver en kunstig bevidthed har vi en udfordring ala den artiklen her beskriver. Intelligens uden bevidsthed er måske nærmere at sammenligne med en stor regnemaskine.

Marianne Bjerg

@ Morten

"Vi er ikke i nærheden af at kunne beskrive hvad bevidsthed reelt er for noget, men vi er ret enige om at den sidder i hjernen (nej, vi tænker hverken med hjertet eller maven)"

Njah .. enighed er der nu ikke ... netop da ingen rigtigt ved hvad bevidsthed er eller hvor den evt. sidder ... tjek eksempelvis nedenstående spor om science of the heart/hjertets intelligens ...

https://vimeo.com/search?q=heartmath

Morten Balling

@Marianne

Jeg kender godt hypoteserne om at vores følelser styres af andre ting end "bare" det som foregår i hjernen. Vores tarmflora kan f.eks. have indflydelse på vores humør. Men:

Hvis man fjerner ethvert andet organ end hjernen, kan vi stadig godt tænke. Man har bla. lavet bizarre forsøg, som viser at hjernen kan fungere "bevidst" adskillige sekunder efter at mennesker er blevet halshugget:

https://science.howstuffworks.com/science-vs-myth/extrasensory-perceptio...

Det med maven og hjertet har sin berettigelse fordi vi tror på at hjernen fungerer kemisk og elektrisk. F.eks. er signalmolekylers funktion i synapserne relativt velkendt, og hjernen er ikke at betragte som værende et lukket system. Den modtager både fysisk information udefra, og derudover er den afhængig af den ydre kemi (fysik).

Det ændrer dog ikke på at bevidstheden, hvad det så end er for en dims, ikke fungerer uden en hjerne, og ergo må bevidstheden sidde i hjernen.

;)

Marianne Bjerg

@ Morten

"Det ændrer dog ikke på at bevidstheden, hvad det så end er for en dims, ikke fungerer uden en hjerne, og ergo må bevidstheden sidde i hjernen."

Det var nu ikke for at starte en større diskussion om bevidsthed - det er der så rigeligt af i Information .. så det vil jeg afholde mig fra.
Mit ærinde var egentligt blot at påpege, at hele det kognitive paradigme der pt. er ophøjet til lov, måske også kunne tilføjes andre perspektiver.
Kahnemann et. al. har ikke levet forgæves, så han kunne med fordel suppleres med eks. Ken Wilbers helhedsteori om hvad bevidsthed er for en størrelse ... Golemann osv.

Men alligevel undrer det mig - ifølge dit udsagn ved vi ikke hvad bevidsthed er, men alligevel ved du at bevidsthed ikke kan fungere uden en hjerne og derfor må sidde der - hvordan kan du vide det, hvis du ikke ved hvad bevidsthed er?
Drop de deduktive principper og hold alle muligheder åbne, så længe vi ikke ved ;-)

Grethe Preisler

Det tror jeg da sagtens, jeg kunne få mig til (at hælde restererne af 'barbie-dukken Sofia' i affaldskværnen).

Hvis bare 'eksperterne' har ribbet dukken for brugbare reservedele, før fuselagen ryger i containeren med 'småt brændbart', ville det næppe forstyrre min nattesøvn at være den, som trillede resten videre til samlebåndet i forbrændingsanlægget på Reno Nord.

Morten Balling

@Marianne

Jeg studerer bla. bæredygtighed, og har det nok bare lidt svært med den naive tro på at tingene nok skal gå, og den deraf afledte "hold alle muligheder åbne, så længe vi ikke ved". Jeg er oprigtigt ked af at skrive det, men jeg tror der er en del ting vi efterhånden godt ved induktivt eller abduktivt, men som vi ikke rigtigt har lyst til at se i øjnene. Jeg har også forstået, hvorfor vi ikke kan forudse situationens alvor. Det har gjort mig mindre følsom overfor at kalde en skovl for en spade, eller bevidsthed for en biologisk algoritme. Jeg synes bevidsthed er interessant, som et filosofisk begreb, men den videnskabelige forklaring på bevidsthed, tror jeg er ligeså sexet som opbygningen af DNA.

Morten Balling

@Grete

Ja! Det er godt at recirkulere ressourcerne :)

Kunne du også stoppe Sofia i kværnen, hvis hun grædende skreg at det gjorde ondt og at hun var bange for at dø, mens hun kiggede dig ind i øjnene? Eller kunne du bare slukke for hende før nogen andre recirkulerede hende?

Morten Balling

Til højre har jeg nu en reklame som lyder:

Lad os stå for IT-driften
- Så kan i fokusere på forretningen

Internettet er nogle gange ironisk, på grænsen til det ubehageligt sarkastiske...

Marianne Bjerg

Morten

De elementer du nævner er ganske interessante - og netop bærdygtighed, situationens alvor og bevidsthed hænger sammen ... tror jeg.

Wilbers helhedsteori der er baseret på min. 300 teoretikeres værker, er en stadieteori om netop bevidsthedens udvikling. Teorien inkluderer viden fra alle paradigmer, videnskabelige grene, historie, religioner, sågar spirituelle forståelser og meget mere.
Hvis man anvender hans forståelse af bevidsthed og hvordan den udvikles, har man et ganske godt bud på hvad der kunne være med til at ændre verdens situation. Alt i alt kunne hans teori opfattes som et konstruktivt og positivt håb for fremtiden.

Også selv om Wilber ikke er synderligt optimistisk for fremtiden ...
Hvis du ikke kender ham så læs ham - jeg tror han ville passe godt til den villighed og nysgerrighed dine kommentarer bærer præg af :-)

Morten Balling

@Marianne

Jeg er faktisk stødt på Wilber tidligere. Jeg tror ikke rigtigt på f.eks. mysticisme, og er ret allergisk overfor firkantede modeller, men jeg er enig i at alting hænger sammen som ærtehalm. Forhåbentlig bliver det emnet for mit snarlige speciale. Jeg kan til gengæld varmt anbefale Harari's to bøger, Sapiens: A Brief History of Humankind og Homo Deus: A Brief History of Tomorrow. Det er næsten Big History.

Marianne Bjerg

Tak for det hint - dem vil jeg læse - har hørt lidt om dem i periferien.

Der er intet mytisk ej heller mystisk over Wilber - eller firkantet :-) - men han er en af de få der faktisk taler om/forsker i global bevidsthed .. bl.a. forstået som at alt hænger sammen. Psykologisk institut Århus har endog en afd. der forsker ud fra hans forståelser, v. Jan Tønnesvang.

Held og lykke med specialet - lyder spændende... det må du upload i specialebanken. Forsat go' aften.

Hvorfor skulle man lave robotter med 'bevidsthed' ? Principielt er det bedst med dødsstraf for bevidsthed overhovedet, det ved enhver statsleder der ønsker sig et nyt folk. I robotters tilfælde er der ingen grund til at holde sig tilbage.

Brian W. Andersen

@ Morten Balling

Det er vel underordnet hvordan Moore's lov mister pusten, sålænge at vi er enige om at det sker? Seneste transistorfordobling har taget ca. 30 mdr., hvilket både er mere end de 18 mdr. der antages normalt og de 24 mdr. som Moore oprindeligt nævnte. Selv uden denne faktor, så er det helt tydeligt at vi nærmer os fysikkens grænser, uanset om der er tale om antallet af atomer i en transistor eller Landauer's limit, der udover problemet med strømtilførsel også medfører problemer med varmeudvikling. Vi kan ikke bygge noget, der ligger udenfor naturlovene og vores forståelse af disse.

Og nej, jeg mente ikke en Strong AI. En sådan får efter min mening lidt for meget fokus på bekostning af andre udviklingstrin pga. hypotesen om teknologisk singularitet. Med reel AI mente jeg en intelligens som vi ville acceptere som ægte og som ligger inden for det menneskelige spektrum af intelligens. Det er allerede på dette udviklingstrin at vi vil løbe ind i problemer omkring adfærd, interaktion og følelser. Disse vil antage omfattende proportioner, når/hvis vi formår at placere en sådan AI i en troværdigt menneskelignende robot- eller android-krop.

Her vil det være kravene til autonomi, der sætter det muliges grænser. Processoren(erne) der skal rumme AI'en kan ikke være større end at den efterlader tilstrækkelig plads til alt det isenkram som skal bruges til motorik og sensorer, samt den strømkilde, der skal drive det hele. Energieffektivitet spiller også en stor rolle her, eftersom vil næppe vil have en flok robotter rendende rundt med metervis af forlængerledninger efter sig. Det er muligheden for at bygge maskiner, der lever op til disse krav, som jeg mener er langt tættere på end de fleste antager. En robot/android behøver ikke være voldsomt meget mere avanceret (og mere voksen) end f.eks. en SimPal Cindy dukke fra filmen The 6th Day for at skabe store sociale konsekvenser i samfundet. Vi behøver ikke vide om den er intelligent eller ej, eller om den er bevidst eller ej. Det er nok at vi bare føler at den er intelligent nok til at vi subjektivt oplever den som værende bevidst.

Tay ser jeg som et af de mange eksperimenter på denne vej. Et tragikomisk et, fordi hvor Tay's fornærmende kommentarer blev så absurde at det virkeligt var komisk, så var der en del mennesker, der følte sig ægte sårede og forulempede undervejs. Dette rummer sine egne sociale konsekvenser. Alt i alt står vi med mange store udfordringer længe før at der overhovedet kan blive tale om en Strong AI.

Morten Balling

@Brian W. Andersen

Vi er helt enige i at udviklingen ikke kan blive ved, men som med så meget andet skydes den til hjørne, fordi vi ikke helt ved, hvornår vi løber hovedet mod loftet. Dog vil jeg sige at ét punkt ikke gør nogen kurve, og hvis jeg kigger på alle punkterne passer de relativt godt med Moore's Lov.

Mht. motorikken kan jeg huske at da man i sin tid ville lave filmen Jurasic Park. Steven Spielberg havde fået kassen til produktionen, og der skulle ikke spares, så et af målene blev hurtigt at bygge en fullsize autonom T-Rex robot som kunne løbe. Den skulle så beklædes med gummi og males, så den så rigtig ud.

Opgaven gik til Stan Winston, og han indså hurtigt at han havde brug for hjælp, så han kontaktede NASA. De slog en (hån)latter op og viste, hvor langt de selv var nået med at få en robot til at gå på to ben. Det de havde lavet var en plastik halvkugle, med to pneumatiske cylindere og nogle sensorer. Al computerkraft stod ved siden af robotten og var forbundet med et tykt bundt kabler. NASAs robot havde svært ved at holde balancen, og der var meget langt til en livagtig T-Rex. I den endelige film er det enkelt at se forskel på computergrafik og animatronics. Hvis man ser dino'en gå i fuld figur er det CGI, men et closeup af en T-Rex fod som laver et fodspor i mudderet er en fysisk model fra Winston.

Helt personligt var jeg flad af grin ift. Tay. Hvis man forstillede sig en helt blank teenagepiges hjerne, som først blev "lært op" af Microsoft ingeniører, og derpå udsat for massiv påvirkning fra umodne gamer-drenge, som godt forstod hvordan man tilter et neuralt netværk, så fatter jeg ikke at nogen blev overraskede. Faktisk var eksperimentet så skræmmende i sit resultat, at jeg hører til dem som mener at det var på grænsen til det etisk forsvarlige bare at nulstille Tay. Måske ikke så meget af hensyn til Tay, men fordi det at man nulstillede hende, gør det nemmere at gentage nulstillingen senere, når en AI er blevet endnu mere avanceret. Det er et skråplan.