onsdag, maj 25, 2011

Nätets minne, människans glömska

Kultursidan Västerbottens-Kuriren 110525

Så länge jag har reflekterat över informationsteknik och dess relation till människan och samhället har frågan om hur vi bäst bygger in glömskefunktioner i våra tekniska informationssystem förföljt mig.
         Å ena sidan; varför ska vi göra det, när vi har en teknik som billigt och enkelt kan lagra all information som produceras? Vi designar ett internet för att minnas allt i stället för att glömma visst. Google går naturligtvis i bräschen för att lagra allt på webben, såväl ”levande” som ”döda” webbsidor. Även om du vill glömma, det vill säga radera en webbsida, är den sannolikt redan lagrad någonstans.
         Även ideella organisationer, som Internet Archive, bygger upp enorma arkiv. Enligt vissa uppgifter har Internet Archive 150 miljarder webbsidor i sitt arkiv, tillgängliga för vem som helst. Idén om det transparenta samhället, såsom den formas av idéer med ”open” som förled, ligger som grundläggande antagande.
         Å andra sidan; att glömma är en av människans absolut viktigaste egenskaper. Hypotesen är att det är glömskan – av oförrätter, av pinsamma misstag, av ickeintentionella handlingar som sårar, av allt som försämrar sociala relationer – som håller ett samhälle samman. Inte enbart minnet.
         Människans glömska är emellertid selektiv. Vi styr inte över vad vi glömmer. Det är därför ett närmast oöverskådligt problem att bestämma vad våra externaliserade minnen i form av informationsteknik ska glömma. Därför tenderar vi att skapa teknik som minns allt, utan urskiljning.

Nu har emellertid samma problem med att välja vad som ska minnas börjat nå människan. På University of Californias nyhetswebb (110427) presenteras en nypublicerad studie, där en forskargrupp har studerat möjligheten att radera mänskligt minne. Eller åtminstone försvaga långtidsminnet väsentligt.
         Neurobiologen David Glanzman, som leder arbetet, menar att detta är möjligt. Frågan är om det är möjligt att identifiera och radera specifika minnen i hjärna. Glanzman menar att absolut inte möjligt i dag, men att han tror att det kommer att vara möjligt att gå in i en persons hjärna, identifiera och lokalisera ett visst minne för att därefter radera eller försvaga ett specifikt minne.
         Det uppenbara användningsområdet anges vara att bota eller lindra post-traumatiska syndrom och liknande problem hos människor med traumatiska upplevelser från krig, våldtäkt, väpnade rån, olyckor och annat som skapar post-traumatisk stress.
         Visst låter det lovande. Men vad blir nästa steg? Visst är det möjligt, åtminstone som tankelek, att med en utvecklad raderingsteknik beställa radering av mina obehagliga minnen eller bara minnen som stör min sinnesfrid.
         I en sådan förlängning riskerar vi också att radera en av människans allra viktigaste egenskaper: att lära oss av våra erfarenheter, positiva som negativa. Om vi snabbt och enkelt kan radera de negativa erfarenheterna, torde vår kunskap om oss själva och världen krympa.
         Dithän vill vi knappast.

tisdag, maj 24, 2011

De sociala robotarnas intåg

Kultursidan Västerbottens-Kuriren 110524

Datoriserade robotar kan för enkelhetens skull delas in i två kategorier: industrirobotar och sociala robotar. Industrirobotar har vi levt med i flera decennier. De utför repetitiva konstruktionsarbeten i högt tempo med hög precision, ofta i produktionsmiljöer som människor helst undviker. Möjligen ifrågasattes industrirobotar i deras barndom, främst med argumentet att de tar jobb från människor, men i dag är robotar en självklarhet i många industrier.
        Sociala robotar har vi ännu inte sett så många exempel på. I främst Japan och USA förekommer emellertid både kommersiell utveckling och forskning kring vad sociala robotar kan vara och göra, både som fritidsprodukter och som inslag i professionella verksamheter. Frågan är om sociala robotar kan bli för den sociala fabriken vad industrirobotar har blivit för den industriella fabriken. Nämligen en självklar rationaliseringsteknik.
        Sherry Turkle är i botten psykolog och en erkänd professor i sociala studier av vetenskap och teknik vid MIT. Hon vann stor respekt genom sin första bok i ämnet, Ditt andra jag (1987), där hon utforskade hur datorer formar vårt sätt att tänka och handla, och hur de förändrar vår kultur. Närmast banbrytande blev Turkle med boken leva.online (1997), där hon gjorde den tidigaste och mest omfattande studien av vad det innebär att leva på nätet.
        Nu är hon aktuell med vad som kan betecknas som den tredje delen av trilogin: Alone Together (Basic Books). Som titeln antyder fortsätter hon att utforska relationen mellan människan och tekniken. Ensamma tillsammans. Halva boken ägnas åt vår relation till sociala robotar. Den andra ägnar hon åt relationen till andra människor över nätet. Denna essä avgränsar sig till att reflektera över bokens första del, eftersom det är ett för svenska förhållanden relativt outforskat område.
      
Fundamentet för Turkles studier är att vi tycks allt mer bli emotionella med tekniska objekt och att vi tenderar att upprätthålla ett moraliskt förhållningssätt till sådana. När sociala robotar beter sig djur- eller människolikt, tenderar vi att rent moraliskt förhålla oss till dem som vore de djur eller människor. När en Furby säger ”Me scared” triggar detta en moralisk reaktion, trots att man intellektuellt vet att Furbyn är en robot, ett tekniskt objekt.
        Artificiell intelligens innebär att få maskiner att göra sådant som uppfattas som intelligent om det gjordes av människor. Nu står vi inför en parallell: emotionell intelligens, som innebär att få maskiner att uttrycka sådant som skulle uppfattas som känslor om det uttrycktes av en människa.
        Ett av Turkles exempel är Wesley. Han är 64 år, självupptagen och svår att leva med, enligt honom själv. En social robot, menar han, skulle kunna bistå honom med social kontakt utan att Wesley sårar denne. En robot skulle kunna lära sig hans psykologi, som han uttrycker det, och stödja honom att ta sig ur hans depressiva perioder. Människor kan det inte. Det har ett liv av skilsmässor och psykologer lärt honom.
      
Tillit är en av hörnstenarna i mellanmänskliga relationer. När Turkle pratar med barn om relationer till robotar och människor kommer tilliten på tal. Några menar att de hellre skulle ha en robot som barnvakt än en människa; deras erfarenheter av barnvakter är att de är ouppmärksamma, självupptagna, ibland inte ens fysiskt närvarande. Så skulle aldrig en robot vara, menar barnen. En robot skulle kunna programmeras att känna till det enskilda barnets behov. Det är lättare att lita på en robot än på en människa: ”Du kan enbart lita på en människa om du känner henne (…) och det går fortare att lära känna en robot”, som ett av barnen uttrycker det.
        Turkle studerar även det omvända; att vara barnvakt till en robot. En flicka i Turkles studie, Callie, älskar att vara barnvakt; hon älskar att känna sig behövd och att vara omhändertagande. Turkle låter henne pröva en barnrobot (en relativt avancerad programmerad docka) under några veckor. Callie vet att barnroboten är en maskin, men bryr sig inte särskilt om det. Det viktiga är att den är tillräckligt levande för att väcka hennes känslor av att behövas för någon. När roboten säger ”I love you” som en respons på Callies beteende, uppfattar hon det som ett genuint känslomässigt yttrande.
        Sherry Turkle har också studerat experiment med sociala robotar i äldreboenden. Hon finner relativt hög acceptans för att robotar kan sköta vissa delar av omsorgen. I dessa experiment visar det sig att robotar kan dela ut medicin, hjälpa äldre att nå olika saker i sin omgivning och att övervaka dem, exempelvis genom att signalera om en person har ramlat och ligger på golvet. Acceptansen bygger emellertid till stor del på den personalbrist inom omsorgen som tycks vara universell och opåverkbar.

Sherry Turkles ärende är att varna oss för olika former av vänskaper med robotar. Att göra sig beroende av en robot är fullständigt riskfritt och kravlöst, eftersom roboten aldrig ställer några krav på motprestation eller på reciprocitet. Jämfört med ett liv med robotar, kan ett liv med människor te sig besvärande; människor ställer krav, människor kan avvisa. Att vänja sig vid sociala robotar är att vänja av sig med människor.
        En av Turkles slutsatser är att det är en fatal missuppfattning att betrakta sociala robotar som leksaker. De är mycket mer än så. Det förstår även barn. Men en än större missuppfattning är att sociala robotar kan ge genuina, mänskligliknande relationer. Sociala robotar utlovar vänskap, men kan aldrig leverera annat än föregivet agerande. Om vi uppfattar en relation till en robot som vänskap, kommer vänskapsbegreppet att degenerera, menar Turkle.
        När du uppfattar en social robot som en vän, som någon att ha en relation till, förlorar du samtidigt en synnerligen viktig mänsklig egenskap: förmågan att se världen genom någon annans ögon. Och därmed förmågan till empati. Och, som Turkle så distinkt formulerar det, kanske är det när vi förlorar denna förmåga, som vi kan uppfatta en robot som en vän. Eller, vill jag tillägga, när vi tvingas att avstå från den förmågan.
        Det som gör Sherry Turkles studier av sociala robotar så värdefull är att hon som få andra lyckas precisera distinktionen mellan en relation till en social robot och en relation till en människa. När Turkle från teknikoptimister får kritik för sin kritiska inställning till sociala robotar, handlar det om att hon vägrar likställa omsorg med utförande av omsorg. Hon vägrar likställa omsorg som känsla med omsorg som beteende. Hon vägrar likställa att ta hand om någons behov med att bry sig om någons behov.
        Ett fundamentalt behov hos en människa är att bli lyssnad på. En social robot kan höra vad jag säger, men kan aldrig lyssna på mig.
        Datorer förstår mänsklig erfarenhet lika lite som de alltid gjort, men datorer kan bättre än någonsin agera som om de förstår.
        En slutsats vi kan dra efter läsningen av Alone Together är att huruvida en robot kommer att lyckas eller misslyckas som exempelvis ”vårdare” inom äldreomsorg beror mer på hur vi definierar omsorg och vårdarbete än hur vi lyckas konstruera och programmera roboten. Vi kommer snarare att definiera sådana verksamheter med utgångspunkt i vilka sysslor robotar kan utföra, inte vilka behov brukarna har.
        Det kan tyckas vara en pessimistisk, rentav dystopisk slutsats. Jag uppfattar det dock inte så. Jag uppfattar det som business as usual.