Annons
X
Annons
X

Sam Sundberg: Filterbubblan sluter sig allt tätare om oss

(uppdaterad)
Digital kultur: Analys

Algoritmer som skräddarsyr vår nättillvaro väver in oss i en allt tätare bekräftelsekokong. Nu vill Google utveckla nya algoritmer som ska förhindra att nätet förvandlas till en ekokammare.

[object Object]
Har man en gång hamnat i en filterbubbla är det inte lätt att peta hål på den. Foto: AOP

Internet har slagit massmediernas informationsmonopol sönder och samman. Alla med nättillgång kan i dag ta del av miljontals olika röster, från traditionella massmedier till nischade alternativa medier, enskilda bloggare och Twittertyckare.

Men? Jo, det finns några men här. Inte minst har det vuxit fram en oro hos forskare och mediedebattörer kring att vi stängs in i slutna informationsekosystem eller, med Eli Parisers begrepp, filterbubblor.

I boken ”The filter bubble” (2011) beskrev Pariser effekten av att webbsökningar personanpassas. I ett nyckelexempel bad han, i samband med oljeläckan från plattformen Deepwater Horizon i Mexikanska gulfen 2010, två vänner att googla ”BP”. Den ena fann en massa information om miljökatastrofen från olika nyhetsförmedlare. Den andra fann information om investeringsmöjligheter i BP:s aktie. Googles algoritmer tolkade de identiska söktermerna som vitt skilda förfrågningar.

Annons
X

Sedan december 2009 är alla Googlesökningar personanpassade, om man inte aktivt undviker det. Sökresultaten serveras efter att Google vägt in en stor mängd faktorer som ringar in användaren: webbläsare, sökhistorik, vilka sajter man besökt på sistone, geografisk position och så vidare.

”The filter bubble” blev en omdebatterad varningsklocka som illustrerade de oönskade effekter som kan uppstå när algoritmer manipulerar våra sökresultat. Exakt hur stor effekt Googles personanpassning har på sökresultaten är omtvistat och föränderligt över tid då Google ständigt justerar sina sökalgoritmer, men sedan Parisers bok först publicerades har konceptet filterbubbla aktualiserats i en rad sammanhang.

Greg Marra, en 26-åring bosatt i Kalifornien, lyfts ofta fram som en av journalistikens främsta makthavare i dag. Marra arbetar inte på någon stor tidning, tv-kanal eller nyhetsbyrå, utan på Facebook. Han ansvarar för algoritmerna som styr Facebooks nyhetsflöde, med andra ord vilka uppdateringar som användarna ser och inte ser, däribland alla länkar till artiklar runt om på webben.

Artikellänkar på Facebook står i dag för en betydande andel av trafiken till tidningssajter, enligt flera undersökningar över 20 procent. Den siffran gör Marra och hans medarbetare till tunga makthavare i dagens medielandskap. När de justerar algoritmen för nyhetsflödet så att en viss typ av innehåll prioriteras högre eller lägre kan det innebära stora förändringar i trafiken till tidningars webbplatser, särskilt för dem som byggt upp sin verksamhet kring spridning i sociala medier.

Som Facebookanvändare ser du framför allt uppdateringar från dina vänner, människor som tenderar att likna dig själv i etniskt, kulturellt och socioekonomiskt hänseende. Marras algoritmer förstärker bubbeleffekten genom att iaktta vilka länkar du ”gillar”, kommenterar och klickar på, och serverar dig sedan mer sådant, eftersom algoritmen antar att du uppskattar sådant innehåll.

Många tidningar har inspirerats (och skrämts) av Facebooks framgångar och sneglar nu på att själva personanpassa nyhetsvärderingen på sina sajter, så att exempelvis den som bara läser lokalnyheter och sport får färre puffar för utrikes och kultur på förstasidan. På så sätt hoppas man åter göra sina förstasidor attraktiva nu när allt fler hittar sina nyheter via sociala medier.

Läser du den här texten på nätet så har du säkert vid det här laget reflekterat över hur du hittade hit, vilken roll redaktörer, sociala medier-bekanta och eventuellt algoritmer hos Facebook eller Google spelade. Du ska också veta att du i så fall är iakttagen av de så kallade trackers som kartlägger dina rörelser på webben, allt för att kunna visa dig mer svåremotståndliga annonser.

Härom veckan skrev Svenska Dagbladets Malin Ekman om mediehuset Schibsteds (Svenska Dagbladets ägare) långt gångna planer på personanpassade nyheter. Med en gemensam inloggning till Schibstedsajter som Svenska Dagbladet, Aftonbladet och Blocket samlas data om användarna. Ett team med erfarenheter från bland annat Facebook, Google och Twitter jobbar nu på en strategi för att personanpassa såväl annonser som nyheter.

Personanpassade nyheter är inte utan risker. Fördjupningen i ämnen som redan intresserar oss kan komma på bekostnad av den breda nyhetsorientering vi behöver som medborgare i en demokrati. Det är mediehusen medvetna om, men det är en öppen fråga hur de i framtiden balanserar presentationen av det vi gillar att läsa och det vi behöver veta.

I internationell debatt har man länge talat om ”ekokammare”, slutna informationsbubblor där deltagarna förstärker varandras åsikter. I boken ”Echo chamber” (2008) beskriver exempelvis forskarna Kathleen Hall Jamieson och Joseph N Capella hur den konservativa mediebubblan i USA, från Rush Limbaugh till Wall Street Journal och Fox News stärker de konservativa väljarna i deras politiska övertygelser.

Ekokammare förekommer både på nätet och utanför. Främlingsfientliga ”sverigevänner” skapar forum där likasinnade bekräftar varandras världsbild, militanta islamister gör detsamma, liksom vaccinationsmotståndare och förnekare av växthuseffekten.

För några år sedan var Jenny McCarthy gäst i Oprah Winfreys tv-program. McCarthy är känd som modell och programledare men även som framträdande vaccinationsmotståndare. I programmet frågade Oprah henne hur hon kunde vara så säker på att vaccinationer verkligen var skadliga för barn. Svaret blev ”modersinstinkt”. Och information som McCarthy hittat på nätet.

McCarthys replik ”Jag fick min examen från Google-universitetet” blev snabbt en symbol för den inskränkta, vetenskapsföraktande attityden hos grupper som finner stöd hos varandra och i pseudovetenskap som stöds av annan pseudovetenskap. Personanpassade sökresultat riskerar att befästa en vaccinationsmotståndares världsbild genom att servera sökresultat från vaccinationsfientliga källor, baserat på insikten i vilka sidor personen ifråga besökt tidigare.

I värsta fall blir informationsbubblorna kuvöser för hat och okunnighet. För de flesta nätanvändare blir effekterna emellertid mer subtila. För den medvetne mediekonsumenten krävs det bara några knapptryckningar för att få tillgång till oöverskådliga mängder information från massor av olika källor, och det finns även tekniska hjälpmedel för att bryta sig ur sin filterbubbla. Nyhetsläsaren Random puffar till exempel för nyheter man inte skulle ha hittat i sitt eget sociala medier-flöde, och webbläsartillägget Bobbles syfte är att sätta Googles personanpassning av sökresultat ur spel. Men ett större, mer djupt rotat problem är vår mänskliga benägenhet till konfirmeringsbias. När vi översköljs av ohanterliga informationsmängder söker vi oss till det bekanta och begripliga. En del av oss är också i grunden ointresserade av att ifrågasätta våra egna föreställningar.

I en Aftonbladetartikel om Utøya-dådet talade ­Katrine Marçal med Jamie Bartlett, chef för forsknings­programmet om våld och extremism vid den brittiska tankesmedjan ­Demos. Bartlett sade att Anders Behring Breivik uppehöll sig i en online­bubbla som gjorde honom övertygad om att han hade brett stöd för sina handlingar: ”När du spenderar tid på internet, läser samma dokument och bara pratar med samma människor, då kommer du aldrig i kontakt med någon eller något som säger emot dig. Allting tycks överensstämma med din världsbild och du hamnar i en ekokammare som kan bli väldigt farlig.”

Breivik är ett exempel på när informationsbubblor blir direkt farliga. Även islamistisk extremism kan gro under liknande förutsättningar. Underrättelsetjänster lägger därför avsevärda resurser på att identifiera och övervaka slutna miljöer där fanatiker radikaliserar varandra.

Nyligen släppte The Quilliam Foundation, en brittisk tankesmedja fokuserad på radikalisering och terrorism, en rapport där de föreslår att sociala medier-företag ska hjälpa myndigheter med ”counterspeech”, att leverera motargument mot extremismen i nätforum där radikalisering pågår.

En naturlig följdfråga är om algoritmerna hos Facebook, Google och andra nättjänster – just de som anklagats för att skapa filterbubblor – skulle kunna användas för att identifiera problematiska bubblor och dessutom aktivt föra in avvikande åsikter i de hermetiska gemenskaper där våldsideologier och samhällsfarlig pseudovetenskap frodas.

Somliga menar i alla fall att det är möjligt. I veckan rapporterade tidningen New Scientist att ett av Googles forskningsteam jobbar på ett system som kan komma att förändra företagets sökalgoritm i grunden. För att avgöra en webbsidas relevans ska algoritmen, förutom att räkna antalet länkar till sidan, bedöma dess sanningshalt. Algoritmen jämför påståendena på webbsidan med informationen i Googles Knowledge Vault, en samling av fakta som företagets algoritmer samlat in från internet. På så sätt ska exempelvis villfarelser om vaccins skadlighet och judiska konspirationer skuffas undan till förmån för alllmänt vedertagna sanningar.

**Det är ett ambitiöst projekt. **Lyckas det kan algoritmerna förvandlas till verktyg för att spräcka bubblorna av desinformation som växer på nätet och kanske rent av motverka radikalisering.

Men? Jo, det förutsätter förstås att vi anförtror Google, informationsålderns mäktigaste företag, den samhällskritiska uppgiften att avgöra inte bara vad som är relevant i det globala informationsflödet, utan också vad som är sant.

Något säger mig att Eli Pariser redan har börjat skissa på en uppföljare till ”The filter bubble”. Det kan bli en lång serie om hur välmenande algoritmer allt mer begränsar vår världsbild.

Annons
Annons
X

Har man en gång hamnat i en filterbubbla är det inte lätt att peta hål på den.

Foto: AOP Bild 1 av 1
Annons
X
Annons
X