fredag, december 07, 2018

Hälsodystopin blir verklighet

Kultursidan Västerbottens-Kuriren 181207

I sin framtidsdystopi från 2010, Corpus Delicti, gestaltar den tyska författaren Juli Zeh ett framtida samhälle som bäst beskrivs som en hälsodiktatur. Eller en utopi i form av ett samhällsparadis. Allt beror på hur personlig integritet värderas och vägs mot övervakning och statsreglerad paternalism.
      Staten ålägger medborgarna att motionera, rapportera sin sömn och sitt hälsointag medelst i kroppen inopererade chip som kontinuerligt skickar data om hälsotillstånd och hälsoaktiviteter.
       Corpus Delicti är nutida arvtagare till Aldous Huxleys Du sköna nya värld och självfallet George Orwells 1984. Liksom tidigare klassiska dystopier eller utopier har Corpus Delicti bäring på samtiden. Samtidigt som detaljer kan kännas igen, är dess centrala tes otänkbar. Men är den det?

       Läs nedanstående citat från statsvetarprofessorn Göran Sundströms granskning av Arbetsförmedlingens tidrapporteringsystem på DN Debatt (26/11). Utöver att de anställda ska redovisa hur de fördelar arbetstiden på olika arbetsuppgifter (som inte är helt ovanligt), ska de även registrera andra uppgifter.
      ”De uppmanas också fylla i ’Medarbetarpulsen’, där man redan vid registreringen av sitt konto ska ange hur många koppar kaffe man dricker om dagen och om man är gift, sambo, särbo eller har ett registrerat partnerskap. Varje vecka ska man sedan ange bland annat hur man sov den senaste natten, hur stressad man är, hur stor kontroll man har över sitt liv, hur nöjd man är med sitt sociala liv, hur stämningen är på arbetet och hur stor kontroll man har över sin arbetssituation.”
       Detta sker alltså inte med en anonym medarbetarenkät, utan med autentiska personuppgifter.

       Denna registrering av anställdas privata förhållanden ska alltså följas upp av arbetsgivaren. Hur är oklart, men syftet torde vara korrigeringar där så behövs för att uppnå högre arbetseffektivitet.
       Detta är Corpus Delicti. Men året är inte 2058, som i romanen, utan 2018 i Sverige. Vare sig arbetsgivaren är stat eller privat bör vi som samhälle snarast skapa skydd mot denna form av integritetsintrång.

fredag, november 30, 2018

Farliga förfalskningar

Kultursidan Västerbottens-Kuriren 181130

Att digitala bilder med olika datorprogram kan manipuleras är sedan gammalt. Allt från retuschering av människor och objekt till att byta ut människor och objekt mellan olika miljöer. Men att retuschera en fotomodells ansikte eller att placera en bil i en viss miljö i marknadsföringssyfte får inte nödvändigtvis så stora konsekvenser.
        Andra typer av ytliga förfalskningar kan emellertid få långtgående konsekvenser. I dag meddelar sig politiker sig allt mer via egna digitala kanaler, i stället för traditionella mediekanaler. Tänk bara på Donald Trump och hans envetna twittrande.
        Men inte enbart Trump. Allt fler svenska politiker meddelar sig via sociala medier, inte enbart i form av allmänna inlägg i debatten, utan även betydelsefulla beslut. Detta utgör en måltavla för de som vill skapa och sprida falska nyheter om politiker.

        När Göran Hägglund 2015 skulle avisera att han lämnade posten som partiledare för kristdemokraterna, meddelade han det på Twitter innan han meddelade det på en presskonferens.
        När riksdagen hade röstat om Ulf Kristersson som ny statsminister den 13 november, skrev han ett inlägg på Facebook och beklagade att två allianspartier hade röstat emot. Nästan samtidigt skrev Annie Lööf ett inlägg på Facebook där hon förklarade varför centern röstade emot den regeringskonstellation som Kristersson föreslagit riksdagen.
        Att skapa falska Twitter- och Facebookinlägg är dock busenkelt. Det tar några minuter. Titta på nedanstående autentiska respektive falska inlägg och se den likheten på ytan. Smärre olikheter kan alltid förklaras med att olika appar och programvaror för att läsa Twitter- och Facebookinlägg genererar olika utseenden i viss utsträckning.







Övre bilden: en skärmdump av ett autentiskt Facebookinlägg. Nedre bilden: ett av artikelförfattaren förfalskat Facebookinlägg.

Hur avslöjar vi ytliga förfalskningar? Den källkritiska metoden är naturligtvis att undersöka varje inläg som sprids i form av skärmdumpar, för att se om inlägget går att finna hos upphovspersonen. Å andra sidan; om ett falskt inlägg ser autentiskt ut och samtidigt bekräftar någons förutfattade mening, minskar benägenheten att kolla källan.
        När det gäller djupa förfalskningar blir det ännu svårare. Det finns självlärande AI-teknik som i ett filmklipp kan visa en person som säger det en annan person säger med mimik och kroppsspråk som skapar en hög grad av autenticitet. Det ser helt enkelt trovärdigt ut att den person som syns i videon också uttrycker vad en annan personen säger. 
        AI-programmet behöver i storleksordningen 1 000 bilder av den person vars uttalande ska förfalskas. Tillsammans med det inspelade uttalandet formar AI-programmet ett nytt videoklipp med en autentisk person som uttrycker ett falskt innehåll.
        Det bästa exemplet jag hittills sett är när Jordan Peele låter Barack Obama hålla ett anförande under någon minut, där det är Peeles ord som Obama uttalar. Ju bättre dessa AI-program kommer att bli, desto svårare blir det att ens misstänka att ett videoklipp är en djup förfalskning.




Bild från en video där Barack Obama säger vad Jordan Peele har instruerat ett AI-program att Obama ska säga så autentiskt som möjligt.

Hur avslöjar vi djupa förfalskningar? Frågan är om en människa ens är kapabel till det i framtiden. I USA har man myntat begreppet och forskningsområdet Media Forensics (ungefär medial kriminalteknik). 
        Det innebär att försöka skapa AI-program som undersöker videoklipp med avseende på digitala fingeravtryck (digitala spår hos videoklippet), fysisk överensstämmelse i videon (om personer och objekt och miljöer stämmer överens) och semantisk rimlighet (är det rimligt att personen på videon säger det den säger).
        Ett exempel är en forskargrupp som har noterat att djupa förfalskningar ofta saknar ögonrörelser och blinkningar, eftersom vi sällan publicerar bilder av människor med slutna ögon. Att identifiera frånvaro av blinkningar kan vara ett sätt att avslöja falska videoklipp. Å andra sidan kommer sannolikt motdraget blixtsnabbt: man låter AI-tekniken forma rimliga ögonrörelser och blinkningar.
        Om vi inte lyckas avslöja djupa förfalskningar kan det få stora konsekvenser i framtiden. Ett exempel: Säg att du vill ha en falsk video som visar att P O Ågren rånar en bensinmack. Då instruerar du en AI-maskin genom att mata den med bilder på P O Ågren och en bensinmack i olika vinklar så att en till synes övervakningsvideo framträder. Därefter ser du till att rättsväsendet nås av videon.
        I dag kan en åklagare visa en övervakningsvideo som bevis för ett rån. I morgon kommer den tilltalade att hävda att övervakningsvideon är en djup förfalskning. Kommer övervakningsvideos att ha något bevisvärde i framtiden?
        Kommer vi överhuvudtaget att kunna ha tillit till bilder, stilla eller rörliga, i framtiden? Om inte, vad betyder den förlusten?

måndag, oktober 29, 2018

69 teknikfilosofiska fragment

Jag har likt många andra universitetslärare publicerat monografier, antologikapitel, tidskriftsartiklar, konferensbidrag, essäer, essäsamlingar, kulturkritik – men inte aforismer eller fragment. Akademiska aforismer? Boken "69 teknikfilosfiska fragment" är ett försök att närma mig denna genre från akademiskt håll. Boken finns självfallet för fri nedladdning. Boken finns även att köpa på Adlibris, Bokus, CDON och Amazon.


69 teknikfilosofiska fragment är en samling kortfattade, rent av fragmentariska utsagor som alla uttrycker något teknikfilosofiskt som Per-Olof Ågren finner väsentligt att reflektera över.

I denna samling av teknikfilosofiska fragment söker Per-Olof Ågren ett format där aforismer formas dels med utgångspunkt i klassiska teknikfilosofer som exempelvis Martin Heidegger och Paul Virilio, mediefilosofer som exempelvis Jean Baudrillard och Vilém Flusser liksom andra tänkare som på olika sätt har berört teknikfilosofi, dels med utgångspunkt i Per-Olof Ågrens egna teknikfilosofiska tänkande.

fredag, augusti 17, 2018

Valkampanjers effekt: Noll!

Kultursidan Västerbottens-Kuriren 180817

Så har valrörelsen startat på riktigt, med plakat längs vägar, affischer på bussar, valstugor på torgen, valtal och debatter. Sannolikt är det främsta syftet med dessa aktiviteter är att övertyga väljare att rösta på det egna partiet, särskilt de väljare som inte tidigare röstat på det partiet.
       Då blir det intressant att fråga sig i vilken utsträckning det är möjligt att övertyga människor att ändra uppfattning och byta parti genom politiska kampanjer och annonser genom affischering och plakat.
        Två amerikanska forskare har i tidskriften American Political Science Review (nr 1, 2018) publicerat en stor studie, där de undersöker hur mottagliga amerikanska väljare är inför politiska kampanjer och politisk annonsering. De har gjort en metaanalys, det vill säga sammanställt forskningsresultat av tidigare studier, samt genomfört fältexperiment, i syfte att utröna i vilken effekt kampanjer och annonsering har på väljare.
        Sällan har jag sett forskningsresultat så tydligt presenterat: Effekten är noll, hävdar forskarna. Varken politiska kampanjer eller politisk annonsering påverkar väljarna att byta politisk uppfattning och därmed rösta på någon annan kandidat eller parti än det väljaren sedan länge har för avsikt att rösta på.
        En lite märklig del av resultatet är att det går att uppfatta övertalningseffekter på väljare om den politiska kampanjen sker relativt långt innan valdagen, men att denna effekt avtar ju närmare valdagen man kommer. Valkampanjer långt innan valdagen kan alltså generera nya överväganden hos väljare, men att dessa överväganden försvagas närmare valdagen.

Dessa forskare är emellertid noga med att hävda att de har enbart studerat politiska kampanjers övertalningseffekt hos väljare, inte om politiska kampanjer kan ha andra positiva effekter. Politiska kampanjer kan ha andra syften än att ändra väljares övertygelse. De kan exempelvis väcka röstviljan hos soffliggare.
        För att motivera kostnaden för all politisk annonsering och kampanjer, borde politiker med denna studie i ryggen, formulera andra syften än att ändra väljares politiska uppfattning.
        Vad jag inte lyckas utläsa ur studien är påverkanseffekter på de som vi i Sverige kallar osäkra väljare; de som inte bestämmer sig förrän strax innan – eller på – valdagen. Vore inte ändå denna väljargrupp, som inte har någon tydlig preferens, mottagliga för politiska kampanjer?
        Och om det inte är politiska kampanjer och annonsering som förändrar människors politiska preferenser, vilka metoder fungerar i så fall?

lördag, augusti 11, 2018

Vad kontrolleras i smarta hem?

Kultursidan Västerbottens-Kuriren 180811

Allt fler tekniska apparater i hemmen blir allt smartare, i betydelsen att de förses med datorkraft och uppkoppling till internet. Smarta termostater som kan regleras med en app i mobiltelefonen, kameror såväl inne som ute, sensorer som mäter olika saker, kylskåp, kaffemaskiner, belysning, eluttag, musikspelare, tvättmaskiner, torktumlare – allt kan övervakas, regleras och kontrolleras på distans via mobiltelefon och dator.
        Frågan är om det enbart är dessa smarta apparater som kontrolleras. 
        New York Times publicerade i sommar ett reportage där 30 personer intervjuades. Dessa har antingen själva utsatts för våld i hemmet eller i olika sammanhang mött utsatta människor i sin profession. 
        Under senare år finns allt fler vittnesmål om att de män som utövar våld i hemmen har fått nya och effektiva verktyg för att kunna utöva kontroll, skrämma och demonstrera sin makt – även när våldsutövaren inte är hemma. Och ja, i detta reportage är de utsatta kvinnor och utövarna män.
        
Vittnesmålen handlar om högtalare som plötsligt spelar hög musik, dörrklockor som ringer utan att någon står utanför dörren, termostater som ändrar temperatur, ljus som tänds, släcks och varieras – och med kameror kan våldsverkaren på distans övervaka sitt offer i hemmet. 
        Även om inte fysiskt våld utövas, blir detta en form av obehaglig maktassymmetri. Det är rimligt att föreställa sig att en majoritet av de som installerar denna form av teknik i hemmen är män och således behåller män kontroll över apparaterna. Och med kontroll över tekniken kan mycket mer kontrolleras – partnern. 
        Men är det inte bara för den utsatta att avinstallera eller koppla från dessa apparater? Nej, det finns åtminstone två problem. Det ena är att den utsatta partnern kan ofta inte hantera tekniken. Det andra problemet är att om partnern kan och faktiskt stänger av apparaterna, märker den kontrollerande partnern det och därmed kan konflikten och eventuellt våld eskalera.
        Tanken med all denna smarta teknik är ju att underlätta och effektivisera vardagssysslorna. Med detta reportage får i varje fall jag en ny insikt i hur Internet of Things kan användas för övervakning och kontroll i hemmen.
        Betydelsen av en jämlik tillgång till hemmets tekniska funktioner kan inte nog understrykas.

tisdag, maj 29, 2018

När AI-tekniken knackar på demokratins dörr

Kultursidan Västerbottens-Kuriren 180529

Demokrati är ett tillstånd vi aldrig når, utan något vi ständigt strävar mot. Det är därför så många uttrycker att demokratin ständigt måste erövras. ”Det har sagts att demokrati är den sämsta styrelseformen som har prövats, bortsett från alla de övriga formerna som prövats genom tiderna”, är ett klassiskt citat från Winston Churchill i ett tal i underhuset 1947.
       Vad citatet säger är att i takt med samhällets ständiga förändring och människans kunskapsutveckling, måste också våra demokratiska former ständigt diskuteras och utvecklas.
        I internets barndom ställde sig många libertanianer på barrikaderna och ropade på direktdemokrati. Om varje medborgare har tillgång till internet, kan alla politiska spörsmål bli föremål för medborgares omröstningar. Politiker skulle blir förvaltare av medborgares beslut.
        I ett något mognare stadium i internets utveckling började man diskutera deliberativ demokrati; en uppfattning om demokrati som utgår från att medborgare deltar i diskussioner kring politiska frågor. Här betonades samtalets och argumentens betydelse för demokratiska beslut, där internets mångfald av platser för samtal skulle kunna realisera denna demokratimodell.
        Bägge demokratimodellerna söker förbättringar till den rådande representativa demokratin, som ofta beskylls för att bli allt mer expertstyrd och för att ge medborgarna alltför litet inflytande: endast en röst var fjärde år.
        Problemen med direktdemokrati är emellertid att många frågor som medborgarna ska rösta om är alltför komplexa för att en genomsnittlig medborgare ska hinna sätta sig in i vid sidan av heltidsarbete och familjeliv. Dessutom försvåras ansvarstagandet; medborgarna kan inte ställas till ansvar för sina beslut, vilket politiker i en representativ demokrati kan.
        Problemen med den deliberativa demokratimodellen är att samtalen i de sociala medier som har växt fram inte har de kvaliteter som denna demokratimodell förutsätter. Det är ständigt medvetna missförstånd och yrkestroll på Twitter. Det är homogena intressegrupper på Facebook som inte tillåter meningsutbyten. Och på de mer anonyma forumen som Flashback och Reddit frodas rasism och konspirationsteorier.
        Det är lätt att landa i slutsatsen att informationsteknik inte kan bidra till demokratisk utveckling. Men samtidigt som tekniken förnyas, förnyas även idéer om hur tekniken kan bidra till demokrati.

Cesar Hidalgo leder en forskargrupp som arbetar med kollektivt lärande och komplexitet vid MIT Media Lab. Han vill finna former för att använda IT för att utveckla demokratin bortom den representativa demokratin. I tidskriften Fast Company sammanfattas hans idé. ”Demokrati har ett uselt användargränssnitt”, hävdar Hidalgo. Hans utgångspunkt är de demokratiska församlingarnas låga valdeltagande.
        För presidentval i USA brukar valdeltagande vara runt 60 procent. Valdeltagandet i det senaste EU-valet var drygt 42 procent. Vid det senaste presidentvalet i Frankrike var valdeltagandet 48 procent. Sverige sticker ut, där närmare 86 procent av de röstberättigade röstade i senaste riksdagsvalet.
        Ett lågt valdeltagande är ett problem för den representativa demokratin i det att politiker representerar allt färre människor. I förlängningen riskerar vi att förtroendet för demokratin eroderar.
        Den erosionen har redan börjat. En undersökning som svenska studieförbunds branschorganisation gjorde 2017 visar att nästan varannan person i Sverige mellan 18 och 29 år förederar att landet styrs av experter än av folkvalda politiker. 

Liksom många andra IT-forskare fokuserar Hidalgo på AI-teknikens snabba utveckling. Självlärande, adaptiva algoritmer har under de senaste åren blivit allt mer kapabla att känna igen människors beteenden och identifiera våra preferenser. Tekniken blir dessutom allt bättre på prediktion, det vill säga att förutse händelser och handlingar.

        Därför, menar Hidalgo, borde varje medborgare ha en egen digital agent som samlar all data om medborgaren utifrån dennes förehavandet på sociala medier, sökmotorer, webben, eposten, ja, all internetanvändning.
        Denna digitala agent skulle med tiden bli utomordentligt skicklig på att förutse vad den enskilde medborgaren har för åsikt eller preferens när det gäller ett visst politiskt förslag, utan att medborgaren själv tvingas komma underfund om sin uppfattning. Medborgaren behöver enbart förmedla agentens uppfattning dit den efterfrågas.
        Sådana digitala agenter kan användas dels för direktdemokratiska syften, i form av röster i beslut, dels för politiska representanter för att förstå folkviljan i olika frågor.
        Kvaliteten hos dylika digitala agenter som känner medborgaren bättre än medborgaren själv, är att dessa agenter inte reagerar känslomässigt, lynnigt eller impulsivt, såsom människor ofta kan göra.

Hidalgos idé om digitala agenter skulle även motverka några av dagens demokratiska problem. Det skulle inte vara meningsfullt för trollbotar att invadera Twitter med falska nyheter i syfte att påverka ett lands medborgare inför ett val. De digitala agenterna skulle inte på kort sikt påverkas av dylika aktiviteter.

        Inte heller skulle företag som Cambridge Analytica finna det rimligt att samla in en mängd persondata från Facebook och andra sociala medier för att rikta politisk information eller desinformation till medborgarna. De digitala agenterna motstår sådant.
        Problem finns förstås. Det största stavas säkerhet. Kan sådana virtuella agenter hackas och planteras med falsk persondata som förändrar medborgarens politiska preferenser?
        Ett annat problem handlar om ansvar. Även om agenterna inte levererar direktdemokratiska beslutsröster, kommer det att upplevas lätt för medborgare att inte känna sig ansvariga eller delaktiga i samhällsutvecklingen. Det var ju den virtuella agenten som röstade eller uttryckte en politisk uppfattning, inte medborgaren, även om det var medborgarens egen agent.
        Dessa och andra fördelar och nackdelar torde vi behöva överväga när AI-tekniken på allvar knackar på den demokratiska dörren.

tisdag, april 10, 2018

Karaktären gör AI-tekniken genomskinlig


Kultursidan Västerbottens-Kuriren 180410

Det har skrivits spaltmil om vad som hände i relationen mellan Facebook och Cambridge Analytica. Denna essä ska inte öka dessa textmassor, utan lyfta en generell fråga ur dessa spaltmil och försöka förstå hur vi bör hantera den i en nära framtid.
         Redan på 1990-talet började vi ställa frågan hur vi bör utvidga vår förståelse för datorn som teknisk artefakt. Det räckte inte att inte enbart förstå datorns generella tekniska funktionalitet, det vill säga hur datorn löser sina problem. Inte heller att enbart förstå hur olika programvaror fungerar, det vill säga hur datorn kan lösa mina problem.
         Man frågade sig bland annat hur olika datorsimuleringar fungerade; hur olika manipulerbara modeller byggdes för att simulera olika planeringsprocesser, designprocesser, ekonomiska processer och liknande.
         Det talades om en simuleringskultur, där det var av största vikt att kunna ”läsa” simuleringar. Med det avsågs att förstå vilka antaganden och värderingar som fanns inbyggda i olika manipulerbara modeller, som användes som beslutsunderlag i olika verksamheter.
                     
På en generell nivå lyfts samma fråga i affären Facebook vs Cambridge Analytica. Inte enbart Facebook, utan alla sociala och andra medieaktörer som agerar på internet måste öka sin transparens; visa med större genomskinlighet vilka personuppgifter som samlas in, lagras och används av dem själva eller av någon annan aktör.
         Det är lätt att skapa transparens för ett statiskt innehåll eller för statiska processer. Inom en snar framtid kommer emellertid allt fler tekniska system att vara självlärande och adaptiva. Vi har sett dessa tendenser en tid; Google, Facebook, Netflix med flera går i bräschen för att deras algoritmer hela tiden ska anpassa sig efter den enskilde användarens beteende.
         Googles sökresultat anpassas efter användarens sökbeteende, Facebooks annonser utformas utifrån användarens intressen, Netflix filmtips utgår från tittarens tidigare konsumtion. Allt fler tekniska system bygger in adaptiva förmågor.
         Om det vi vill kunna se i transparenta tekniska system är statt i ständig förändring, i det att systemens omgivning förändrar systemens beteende, måste vi skapa en ny föreställning om hur vi uppnår transparens.
         Frågan för denna essä är hur vi ska designa transparens i AI-baserad, självlärande teknik när tekniken hela tiden anpassar sina algoritmer och därmed sitt beteende utifrån den omgivning tekniken verkar inom.

Varför är transparens viktig? Det främsta syftet med transparens är att skapa förutsebarhet; att uppfatta både hur teknik kommer att agera i olika situationer och vilka konsekvenser våra interaktioner med teknik får.
         Jag föreslår att använda begreppen roll och karaktär för att förstå transparens. Tidigare har vi uppnått transparens genom att ge tydliga roller till olika programvaror. Vi vet vad vi kan förvänta oss av ordbehandlingsprogram, kalkylprogram, mejlprogram, webbläsare och liknande. Om vi vill uppnå transparens till adaptiva, självlärande tekniska system, kan vi överväga att utveckla dessa systems karaktär, eftersom rollerna är stadda i förändring.
         Socialpsykologen Johan Asplund har rett ut begreppen roll och karaktär för oss människor i boken Det sociala livets elementära former (Korpen). Med begreppet roll avses att krav, riktlinjer och förutsättningarna för en människas agerande är givna; skrivna av någon annan med syftet att vara stabila över tid. Den som agerar i en viss roll är därmed förutsebar.
         Med karaktär avses att människan själv utformar och bestämmer restriktionerna för sitt handlande utifrån såväl sitt omdöme, som de situationer människan kastas ut i.
                     
Vad vi ser med framtidens självlärande AI-system är att de ges utrymme att inte enbart agera utifrån det manus som någon har skrivit (läs: programkod), utan att dessa AI-system också i högre grad får bestämma sina egna restriktioner för sitt handlande (läs: skapa ny programkod).
         Det innebär, med Johan Asplunds begrepp, att AI-system successivt går från att vara en abstrakt teknik som agerar helt instrumentellt, till att bli en konkret aktör som själv ges utrymme att forma sitt agerande.
         Vi kan reflektera över hur vi förutser en människas handlingar. Ta läraryrket som exempel. Alla lärare har självfallet en roll som de måste agera inom; de regler och restriktioner som är föreskrivna av skollagar, läroplaner och lokala föreskrifter.
         Om alla lärare enbart skulle agera som rollinnehavare, skulle alla lärare vara lika varandra. Så är inte fallet. Lärare vi haft och lärare vi känner, är alla olika, trots att de agerar inom likartade roller. Olikheter består i att de har utvecklat sina karaktärer på olika sätt.
         Studenter som läser en kurs med en viss lärare kan med största sannolikhet förutse olika handlingar som inte beror på de regelverk läraren är skyldig att efterleva, utan som beror på de karaktärsdrag läraren har utvecklat. Det är i högre grad lärarens karaktär som gör denne transparent än den rollbeskrivning läraren har att följa.
         Vill vi ha förutsebara AI-system i framtiden, kan karaktärsutveckling vara en fruktbar designinriktning. Det är i karaktärsdragen adaptiva AI-system blir förutsebara.

Alan Turing framlade de idémässiga grunderna för artificiell intelligens. Med det så kallade Turingtestet skulle man kunna avgöra om man lyckats skapa artificiell intelligens.
         Om man interagerar med en maskin och inte kan uppfatta om det är en maskin eller en människa har maskinen mänsklig, artificiell intelligens. Artificiell intelligens har alltid uppfattats som mänskligt efterliknad intelligens.
         Ett helt annat tankespår skulle vara att skapa maskinintelligens som inte har mänsklig intelligens eller mänskligt beteende som förebild. Men då måste vi skapa ett helt annat sätt att se igenom maskinerna.
         En fördel med att efterlikna mänsklig intelligens och beteende är igenkänning; vi vet mycket om människans intelligens och beteende. Om maskinintelligens utan mänsklig förlaga vet vi inte mycket. 

tisdag, februari 27, 2018

Djupa förfalskningar större hot än falska nyheter

Kultursidan Västerbottens-Kuriren 180227

Valåret 2018 har inletts. Det märks inte främst på en ökad mängd politiska utspel än så länge, utan på att samhället försöker förbereda sig på olika hotbilder mot valet. På SVT:s nyhetssajt listas de fyra främsta hoten mot valet 2018. 
       Ett hot är påverkan från främmande makt. Med erfarenheter från val i andra länder kan det inte uteslutas att någon främmande makt försöker påverka valet i något avseende.
        Ett annat är hot mot politiker. Ju mer polariserad den politiska debatten blir, desto mer ökar risken för hot och våld mot politiker.
        Ett tredje är extrema politiska rörelser, såväl till höger som till vänster, som i sina extremaste uttryck kan utgöra brottslighet.
        Det fjärde är falska nyheter i sociala medier, där en väsentlig anledning till att skapa och sprida falska nyheter är att förstärka politiska motsättningar som i sin tur försvagar demokratin.
        För att motverka det fjärde hotet – spridning av falska nyheter – har fyra stora medieaktörer gått samman för ett samarbete mot spridning av falska nyheter. Det är initialt Dagens Nyheter Svenska Dagbladet, Sveriges Radio och Sveriges Television som kommer att arbeta enligt gemensamma principer för att faktagranska påståenden i sociala medier och presentera materialet på en gemensam webbplats.
        Fler medieaktörer är välkomna under förutsättning att de arbetar efter samma riktlinjer. Projektet understöds ekonomiskt till viss del av Vinnova, Sveriges innovationsmyndighet, som ger ekonomiska bidrag till innovations- och forskningsprojekt.

Denna essä berör detta fjärde hot. I vilken utsträckning förekommer falska nyheter? Vilken spridning får de? Vilken påverkan har falska nyheter på människor? Alldeles nyligen har studier publicerats kring förekomsten av falska nyheter dels i anslutning till presidentvalet i USA 2016, dels i några europeiska länder.
        Tre amerikanska statsvetare publicerade i januari 2018 en studie som ger en första bild av konsumtionen av falska nyheter i samband med presidentvalet i USA 2016. De analyserade ett representativt urval om 2 525 anonyma amerikaners trafikdata på webben.
        Forskarna uppskattar att ungefär 25 procent av amerikanerna besökte någon gång en webbplats som publicerar falska nyheter. Dock var en majoritet av dessa webbplatser förespråkare för Donald Trump och följaktligen var webbplatsernas besökare främst Trumpanhängare. 60 procent av alla besök på webbplatser med falska nyheter gjordes av de 10 procent amerikaner med den ”mest konservativa informationsdieten”, som forskarna uttrycker det. Räckvidden är således inte särskilt stor för falska nyheter.
        Studien visar också att äldre amerikaner, över 60 år, var betydligt mer benägna att besöka webbplatser med falska nyheter, än yngre amerikaner. I rapporten slås också fast den stora betydelse Facebook har för att rikta amerikaners uppmärksamhet till falska nyheter.
        Forskarna har enbart studerat falska nyheter som publiceras på webbplatser. Ytterligare studier kommer med största sannolikhet även att göras på andra sociala medier. Där tänker jag främst på Twitter, där möjligheten att skapa så kallade botar som automatiskt kan sprida desinformation är stor.

En liknande studie som den ovanstående har gjorts i Europa, av fyra medieforskare vid Oxford universitet. I denna studie mäts vilken räckvidd falska nyheter har i Frankrike och Italien. 300 webbplatser som publicerar falska nyheter har jämförts med stora nyhetswebbar såsom Le Figaro i Frankrike och La Repubblica i Italien.
        Under 2017 besöktes ingen av webbplatserna med falska nyheter i genomsnitt av mer än en procent per månad av den uppkopplade befolkningen i såväl Frankrike som Italien. Det ska jämföras med Le Figaro, som i genomsnitt per månad når 22,3 procent, respektive La Repubblica, som når 50,9 procent av den uppkopplade befolkningen.
        Forskarna mätte även hur lång tid besökare uppehöll sig på de olika webbplatserna. De mest populära webbplatserna för falska nyheter i Italien besöktes i genomsnitt under 7,5 miljoner minuter per månad och i Frankrike var motsvarande siffra 10 miljoner minuter.
        Även här jämför forskarna dessa mått med den tid besökare uppehåller sig vid etablerade nyhetswebbar. På Le Mondes webbplats spenderade användare i genomsnitt 178 miljoner minuter per månad och motsvarande siffra för La Repubblica var 443 miljoner minuter.

Vad dessa två studier sammantaget visar är att det finns många webbplatser som sprider falska nyheter i USA och i Europa, men att falska nyheter har låg spridning och dessutom till en liten del av befolkningen.
        Det är naturligtvis intressanta resultat. Vad studierna inte säger något om, däremot, är utvecklingen över tid. Minskar eller ökar falska nyheter i omfattning? Minskar eller ökar andelen människor som tar del av falska nyheter? Och framför allt: Övertygas de människor som tar del av falska nyheter om att de är korrekta?
        Vi bör inte låta dessa studier invagga oss falsk säkerhet. De som formulerar och sprider falska nyheter utvecklar med största sannolikhet sin kompetens att göra detta.

Ett hot mot demokratin som hittills inte talats så mycket om, förrän Computer Sweden nyligen skrev om det, är deep fake. Det kan översättas med djupa förfalskningar. Någon har lyckats skapa ett självlärande AI-program som kan byta ut en person mot en annan i ett filmklipp med bra resultat.
        Programmet behöver 500-1 000 olika bilder på en person i olika vinklar för att programmet ska kunna byta ut denne person mot en annan person i ett filmklipp, så att det ser ut som den falske personen uttrycker det den utbytte personen säger.
        Snart kan vi alltså se en politiker göra falska påståenden utan att vi enkelt kan se att politikern ersatt en annan person och dennes uttalanden.
        Kombinationen av deep fake och falska nyheter ter sig mer skrämmande än enbart falska nyheter, eftersom här läggs till en retorisk styrka i form av en till synes autentisk person som hävdar osanningar.
        Deep fake utmanar de medieaktörer som arbetar för att motverka falska nyheter ytterligare.

tisdag, januari 23, 2018

Flytande intelligens och intelligenta maskiner

Kultursidan Västerbottens-Kuriren 180123

Nyligen publicerades en studie av James Flynn och Michael Shayer i tidskriften Intelligence, där de visar att intelligenskvoten (IQ) sjunker i de nordiska länderna. Det är ett trendbrott. Några orsaker till denna nedgång formuleras inte, även om debattörer gärna pekar på problem i skolans undervisning och på ökad migration som tänkbara förklaringar till nedgången.

         Samtidigt har idén om IQ som det allenarådande måttet på intelligens ifrågasatts från många håll. Daniel Goleman skrev redan 1995 boken Känslans intelligens, och banade med den vägen mot en diskussion om begreppet EQ: emotionell intelligens. I dess kölvatten har andra intelligensbegrepp formulerats: Holistisk intelligens (HQ), social intelligens (SQ).
         Psykologen Howard Gardner blev känd för att formulera nio olika intelligenstyper: Logisk-matematisk, lingvistisk, spatial/visuell, musikalisk, kroppslig, social, självkännedom, existensiell samt naturintelligens.
         Kvaliteten med det traditionella IQ-begreppet är att det under lång tid har utvecklats mätmetoder. Och omvänt, kritiken mot de andra intelligenstyperna är att de är svårare att mäta. Och i en kultur där mätning och jämförelse är det högsta, befäster naturligtvis det som lättast låter sig mätas sin ställning.
         Trots detta vill jag försöka diskutera ytterligare former av intelligens. Tesen för denna essä är att vi behöver inleda en diskussion kring vilken slags intelligens, vilka kunskaper och förmågor, vi behöver för att kunna skapa ett kvalificerat samarbete mellan människor och intelligenta maskiner i framtiden.

I deras nya bok Machine, Platform, Cr0wd (2017) argumenterar Andrew McAfee och Erik Brynjolfsson för att människor och maskiner måste bli bättre på att arbeta tillsammans.

         I takt med att datorer kan hantera allt större datamängder, att datorers artificiella intelligens ökar med allt mer kvalificerade algoritmer och att datorer i allt högre grad blir självlärande, måste människors kapaciteter anpassas till denna tekniska förändring.
         Det optimala är inte intelligenta maskiner som gör vårt jobb, eller att vi fortsätter utföra uppgifter som maskiner kan utföra bättre – det optimala är att skapa det goda samarbetet mellan människa och maskin.
         Brynjolfsson och McAfee menar att människans främsta förmågor fortfarande överträffar datorers: intuition, kreativitet, omdömesförmåga och, vill jag tillägga, förmågan att formulera värdebaserade mål för olika verksamheter.

I boken Liv 3.0 närmast postulerar den svenske fysikern Max Tegmark att maskiner inte kan ha några mål med vad helst de gör. Vi kan däremot alltid implementera mål i maskiner som de ska uppnå, men maskiner kan inte själva avgöra vilka mål som är goda eller lämpliga.

         I sin framtidsdiskussion skiljer emellertid Tegmark mellan ”vänlig AI” och ”superintelligent AI”. Med ”vänlig AI” menar han att vi konstruerar maskiner vars målinriktade handlande är helt anpassat till människors mål. Med ”superintelligent AI” avses maskiner med potentiell kapacitet att formulera egna mål och därmed kontrollera människan.
         Från att under lång tid uppfattat vår relation till datorer som fast, där datorer är kontrollerbara verktyg, är det inte otänkbart att vår relation till datorer blir allt mer flytande.

Begreppet flytande är helt i sociologen Zygmunt Baumans anda. Bauman var en synnerligen produktiv sociolog som gick bort 2017. Under slutet av 1900-talet utforskade han samhället genom postmodernismens glasögon. Under 2000-talet kastade han ut det postmoderna och ersatte det med begreppet flytande, för att förstå det nya milleniets samhällsutveckling.

         Han inledde med boken Liquid Modernity, där han menar att ett flytande samhälle karakteriseras av avregleringar och privatiseringar, av att allt som tidigare föreföll fast i givna strukturer nu flyter i en värld av kommersiella aktörer på en konkurrensutsatt marknad.
         Därmed, menade han i boken Liquid Life, blir ett flytande liv i ett flytande samhälle allt mer osäkert och oförutsägbart. Förmågor i dag kan vara oförmågor i morgon. Erfarenheter har ett bäst-före-datum, även om det inte går att förutsäga detta datum.
         Privatlivet smittas, skriver han i Liquid Love, av den ständiga rörelsen, genom att kärleksförhållanden får allt svagare band; svagare förpliktelser, svagare löften. Kärleken flyter så lätt i väg, när dess båtshakar inte har något fast att kroka i.
         Med ett sista exempel har Bauman även tagit den flytande metaforen till människans inre psykologi. I boken Liquid Fear pekar han på de rädslor som människor upplever i ett flytande samhälle, där trygghetsskapande element försvinner eller luckras upp. Organisering, rutinmässighet och förutsägbarhet är sådana element. Flytande rädsla är rädslan för de faror som inte kan förutses eller kalkyleras eller ens uppfattas.

För att bli skicklig på att utföra uppgifter i samarbete med intelligenta maskiner föreslår jag att vi tar upp tråden kring flytande intelligens. Redan på 1960-talet formulerade Raymond Cattell två intelligenstyper: kristalliserad och flytande intelligens.

         Med kristalliserad intelligens avsågs förmågan att använda tidigare förvärvad kunskap och erfarenhet för att lösa problem. Med flytande intelligens avsåg Cattell förmågan att förstå uppkomna situationer oberoende av tidigare kunskap och erfarenhet samt att kunna lösa problem i sådana situationer.
         I ett samhälle där allt mer flyter, och där maskiners intelligens utvecklas i högt tempo, skulle en flytande intelligens kunna bli mer önskvärd. I en tillvaro där vi allt mer kan lämna informationslagring och -bearbetning samt logisk slutledning till maskiner, bör vårt bidrag vara något annat.
         Kan vårt bidrag vara förmågan att skapa nya former av samarbeten med intelligenta maskiner, med samarbetsformer som vi inte tidigare har känt till?
         Bör vi i så fall försöka utveckla människors flytande intelligens?

fredag, januari 05, 2018

Vilka är människorna bakom vidrigheterna på nätet?

Kultursidan Västerbottens-Kuriren 180105

Så här i nyårstider publiceras årskrönikor och listor över bästa och sämsta händelser från året som gått. Det brukar vara traditionella teman som politiska händelser, film, musik, litteratur och sporthändelser. I år har vi emellertid fått se en något annorlunda årslista.
        Utöver att vara handbollsproffs och juriststudent, står Linnéa Claeson bakom instagramkontot Assholesonline, där hon visar exempel på det näthat, sexuella trakasserier och kränkningar hon ständigt utsätts för. Och hon gör det med humor.
        På nyårsaftonen postade Linnéa Claeson en lista över de förolämpningar, trakasserande uttryck och grova sexuella hot som hon har fått via mejl, sociala medier eller annan elektronisk kommunikation.
        Det går naturligtvis inte att räkna upp alla dessa här, av två skäl. Dels är de för många för att få plats, dels är de för grova för att tryckas. Några exempel är de vanliga misogyna uttrycken: hora, slampa, spermaluder, liksom de vanliga attributen för feministiska kvinnor: feminazi, manshatare, batikhäxa.
        Till dessa kommer alla de sexuella hot som hon får ta emot; vad män tycker att de själva, eller andra män, bör göra med hennes kropp. Det är så vidrigt att det inte går att skriva.

Vad är detta för slags människor som skriver detta till Linnéa Claeson och andra kvinnor på nätet? En färsk vetenskaplig studie av Natalie Sest och Evita March i tidskriften Personality and Individual Differenses försöker ge svar på den komplexa frågan.

        Med olika psykologiska metoder har de studerat vilka psykologiska egenskaper så kallade cybertroll har. Underlaget är 415 personer som har besvarat ett antal frågor som med olika metoder mäter former av psykopati, sadism och empati.
        Studiens resultat är i korthet att det typiska cybertrollet karakteriseras av att vara man, att ha en läggning för psykopati och sadism samt ha en svagt utvecklad affektiv empati, vilket innebär att man har svårt att erfara, internalisera och respondera på andra människors känslor.
        Däremot uppvisar cybertrollet en hög grad av kognitiv empati, vilket innebär att man har god förmåga att uppfatta och förstå andra människors känslor. Det gör cybertrollet till en skicklig manipulatör som förstår vilka negativa emotionella effekter cybertrollets handlingar får.

Vad kan kunskap från denna och andra studier av kränkande människors beteende på nätet leda till? Sest och March menar att desto bättre vi kan profilera dessa förövare, ju bättre bör vi kunna skapa både utbildningsinsatser och särskilda åtgärdsprogram för människor som begår denna typ av brott.

        Då måste vi först identifiera dem. I Sverige har vi den nystartade organisationen Näthatsgranskaren, som anmäler hat och hot i sociala medier. Enbart under 2017 gjordes cirka 600 polisanmälningar, där förövarna är möjliga att identifiera och lagföra. På lång sikt bör organisationer som denna få effekt.
        På kort sikt bör vi på bästa möjliga sätt solidarisera oss med Linnéa Claeson och andra som utsätts för cybertroll.