Bryd ud af Facebook-boblen: Sådan får du nyheder, der udfordrer dig
Ved at lufte politiske holdninger på Facebook bliver de synliggjort for diverse virksomheder. Samtidig eksponerer Facebook kun brugerne for indhold, som de er enige i. Facebook er nemlig ikke underlagt presseetiske og -juridiske regler.
facebook demokrati

På facebook er, hvad du deler og synes om, bestemmende for, hvilke nyheder du i fremtiden vil få præsenteret på din væg. (Foto: Shutterstock)

Skal man tro en meningsundersøgelse, som bureauet Wilke foretog under det amerikanske præsidentvalg, ville kun 2,3 procent af danskerne have stemt på Trump som præsident.

Det betyder, at hvis danskerne ikke har ændret holdning til Trump, så vil mange opleve, at deres Facebook nyhedsstrøm stadig er fyldt med negative og hadefulde Trump-historier, efter at han er kommet til magten. 

Historien kort
  • Facebook gemmer viden om, hvilke artikler vi læser, sider vi 'liker', og links vi deler på mediet.
  • Facebook har også adgang til sider vi besøger, som ikke har noget med Facebook at gøre. Dertil benytter den forskellige Facebook-'trackers'.
  • Selvom Facebook ikke er underlagt presseetiske og -juridiske regler, er de forpligtet til at følge eksempelvis generiske menneskerettigheds-, konkurrence-, privatlivs- og copyprightlovgivning.

Brugere læser i stigende grad nyheder på sociale medier, men hvad er ræsonnementet bag det, der dukker op i nyhedsflowet, og hvordan (med)agerer man som sin egen nyhedsredaktør, når der ikke længere er en redaktør bag, der sikrer, at nyheder (også) har publicistisk værdi og tjener det demokratiske samfund?

Skal man undgå at omtale politik på Facebook?

Den pensionerede Berkeley-professor i kognitiv lingvistik George P. Lakoff skriver en blog, hvori han kommer med guidelines til, hvordan modstandere af Trump skal agere på sociale medier for ikke indirekte at støtte hans dagsorden.

Her spiller Lakoffs teori om framing en afgørende rolle. Hvis man taler om Trump – selv i negative vendinger – vil man støtte hans gennemslagskraft, fordi han bliver nævnt.

I stedet for skal man fokusere på at ændre framingen og tale om en anden politisk dagsorden i positive vendinger.

Det vil med andre ord sige, at man heller ikke skal dele indhold på sociale medier, der ikke opfylder dette.

Disse råd er politisk neutrale i den forstand, at de omvendt kan bruges til at fremme Trump ved at gøre det modsatte af det foreskrevne.

En dimension, som Lakoff ikke nævner, men som øger vigtigheden af hans råd, er, at ved at dele Trump-nyheder med enten positive eller negative udtalelser om ham, gør man sig selv til mål for en profilering af ens standpunkt for Facebooks algoritmer og de firmaer, der køber eller trækker data ud af Facebook (herunder også kampagnefirmaer som Cambridge Analytica, der siges at være involveret i Trumps kampagner).

Det betyder to ting:

  1. Facebook giver dig mere af det samme, også kaldet 'amplification' i deres personaliseringsalgoritme.
  2. Via computermodeller (maskinlæring) kan firmaer bestemme dit ideologiske standpunkt ud fra dine posts.

Facebook sporer dine bevægelser online

For at fortolke de massive mængder af ustrukturerede data brugere efterlader, anvender sociale medier og firmaer nemlig maskinlæring.

Formålet med at anvende maskinlæring er at lede efter klare signaler i ellers ofte støjfyldte og tvetydige data. Sådanne signaler kan omdannes til en beslutning om at præsentere brugeren for bestemte historier, der har størst sandsynlighed for at falde i god jord hos den pågældende bruger.

Facebook er i en unik position, fordi vores brug af Facebook i Danmark ofte er tidsintensivt og strækker sig over mange år.

Det giver Facebook mulighed for at træne den matematiske model over en lang periode, og det gør den også sensitiv overfor, om der er ændringer i vores holdninger eller følelser, som bliver udtrykt gennem vores digitale fodspor.

Desuden har Facebook adgang til alle de sider, vi har besøgt udenfor Facebook ved hjælp af forskellige Facebook trackers. Det giver Facebook en forskelligartet datastrøm, der både består af adfærds-, selvrapporterede, netværks-, kommunikations- og interaktionsdata.

For at få et klart signal i vores data kan Facebook lede efter nøgleord, som er utvetydige. Det kan for eksempel være navne som Trump. Hvis det fremkommer tilstrækkeligt mange gange i vores 'likede' og delte indhold, er der stor sandsynlighed for, at brugeren gerne vil se indhold med Trump.

Hvis Facebook eller kampagnefirmaer så kobler disse signaler med en gennemgang af teksten, der står sammen med Trump med henblik på at bedømme, om Trump associeres med positive eller negative ord, har Facebook ofte et klart signal om, hvorvidt servicen skal servere nyheder, der er for eller imod Trump.

Det samme gør sig gældende med typen af indhold (for eksempel video eller dybdegående tekst), der dels kan bestemmes ved link- og emneanalyse. For at øge sikkerheden i forudsigelsen kan Facebook også lede efter signal i brugerens page-likes eller Facebook gruppemedlemskaber for eksempel. 

Vil vi kun læse om holdninger, vi er enige i?

På baggrund af ovenstående er spørgsmålet ikke så meget, om Facebook eller associerede virksomheder og organisationer kan forudsige brugerens ideologiske præferencer. Det kan de sandsynligvis med nok data. 

Spørgsmålet er i stedet, hvordan Facebook som medievirksomhed (selvom de ikke vil være ved, at de er medievirksomhed, men mere herom senere) forvalter den viden. 

trump facebook

Modstandere af Trump, som kommenterer på Trumps politik på de sociale medier, støtter indirekte hans politik. Ved at nævne ham, skaber man nemlig øget opmærksom om hans politik. (Foto: Shutterstock)

De kan vælge kun at lade brugeren blive eksponeret for det indhold, vedkommende finder appellerende, og som understøtter den pågældendes følelser over for et givent emne. Hvis brugeren er vred og magtesløs over Donald Trumps beslutninger som præsident, bliver brugeren fastholdt i denne vrede og magtesløshed.

Facebook kunne som medie også bevidst vælge at eksponere brugeren for det indhold, brugeren er uenige i ved at finde og prioritere visning af sådant indhold, som er delt af brugerens venner.

Et studie  viser dog, at brugerens selvselektering er en stærk indikator i forhold til at mindske eksponering af ideologisk modsat indhold. Ifølge dette studie, vil vi kun eksponeres for de ting, vi er enige i.

Da Facebook bygger på brugerens selvsammensatte netværk af venner og sortering i det indhold, der findes heri, kan man sige, at brugeren i den grad er med til at forme det indhold, de selv bliver eksponeret for.

Teorien om filterbobler foreskriver, at vi i stigende grad hver især lever i vores egen lille indholdssegment-lomme. Men ofte glemmer samfundskritikere, at vi skal bruge et sammenligningsgrundlag for den diskussion: Har vi ikke altid historisk levet i vores eget lille indholdssegment?

Tag for eksempel partipressen. Omnibus-pressen har været en undtagelse. Et andet dugfriskt studie fra Stanford peger også på, at man kan finde større polarisering blandt folk, der ikke er på sociale medier end blandt brugere af sociale medier.

Vi kan derfor ikke entydigt klandre sociale mediers 'amplification' (mere af det samme) for at skabe større polarisering, men kan vi effektivt kæmpe imod?

Diversitet i feedet vs. egen selvfremstilling

De sociale medier er skabt til at ændres med brugeren, som at stille et spejl op foran sig selv, se og afprøve sig selv igennem og i relation til sit netværk som et socialt individ.

Det mest effektive værktøj mod online og sociale mediers filterbobler gennem personaliseringsalgoritmer, er at ændre på sit netværk og tilføje venner, sider og grupper, der indeholder anderledes politiske syn og anderledes temaer end dem, man er interesseret i.

Man kan også ændre feedet ved at anmelde indhold, så indholdstypen fjernes fra nyhedsfeedet, og man kan bevidst 'like' indhold, som man ikke associerer sig selv med.

Men vi ved også fra digital sociologi-studier, at det vil man aldrig gøre, fordi det vil fremstille brugeren 'forkert' overfor sit netværk af venner og kollegaer, hvor det at tilhøre gruppen betyder en bestemt social adfærd, hvilke interesser man har og regler for, hvilke holdninger og følelser man har overfor bestemte problemstillinger og samfundsemner.

Det efterlader igen spørgsmålet om, hvordan Facebook skal agere med deres viden om individet.

Hvem bestemmer, hvad der er godt?

I 1920’erne havde journalisten Walter Lippmann og filosoffen John Dewey en diskussion omkring populisme, politik og demokrati, der er vedkommende læsning for dem, der interesserer sig for 'fake' nyheder.

Groft skitseret troede Lippmann, at eksperter og videnskab kunne fastsætte, hvad der var godt for samfundet, og hvad der var sandt eller falsk.

Dewey troede derimod på borgernes evne til at justere hinanden i sociale fællesskaber i et aktivt deltagende borgerskab. Demokrati var for ham skabt og forhandlet gennem borgerdeltagelse, som bemyndiger både individet og den sociale gruppe.

Det frisætter medlemmers potentiale i grupper med fælles interesser, og da individer er medlemmer af mange sociale grupper, kan det demokratiske deltagelsesideal kun gøre sig gældende, hvis forskellige grupper interagerer fleksibelt og fuldt ud i forbindelse med andre grupper gennem fri kommunikation. 

debat demokrati kommunikation facebook

I et demokrati er det vigtigt, at borgere fra forskellige sociale baggrunde med forskellige holdninger mødes og kommunikerer i en fri debat. (Foto: DR2 / Screendump fra Youtube) 

Overfører vi begges fortolkninger af demokrati på Facebook newsfeedet, som et af vor tids største fora for den demokratiske debat, opstår der en række åbenlyse problemer.

Deweys definition af demokrati beror på et sammenstød mellem forskellige grupper i en fuld og fleksibel interaktion, der beror på fri kommunikation.

Facebook ikke underlagt retningslinjer

Vores demokratiske debat er i dag ejet af en privat virksomhed, der ikke ønsker at registrere sig som medievirksomhed og derfor ikke har forpligtet sig på nogle presseetiske eller pressejuridiske retningslinjer.

Facebook er forpligtet til at følge eksempelvis generiske menneskerettigheds-, konkurrence-, privatlivs- og copyprightlovgivning, men ikke retningslinjer for eksempelvis korrekt indhold.

Vi kan derfor ikke sikre, at kommunikationen er fri, og vi kan ikke sikre os som samfund, at der sker en tilstrækkelig grad af sammenstød mellem forskellige grupper til at sikre den demokratiske debat.

Facebook har endvidere ikke udråbt sig selv som publicist, og derved kan vi ikke vide, hvilke samfundsmæssige værdier, de styrer deres nyhedsstrøm efter.

Samtidig har politiske og juridiske instanser været tilbageholdende med at kræve transparens omkring Facebooks retningsgivende værdier for indholdsredigering samt en dokumentation for, hvordan disse er forsøgt fremskyndet.

I stedet ønsker Google såvel som Facebook at påberåbe sig ytringsfrihed i ethvert henseende som et udtryk for den umiddelbart 'frie debat' på bekostning af andre samfundsmæssige værdier såsom privatliv.

Samfundsdebatten er blevet international

Lippmanns løsning er udpræget inspireret af en mere positivistisk forestilling om viden og ender i vores socialkonstruktivistisk prægede nutid hurtigt i en endeløs diskussion om sandt eller falsk for hvem, når der ikke direkte er tale om misinformation.

Vi har derfor en tendens til at se Lippmann som den uoplyste i Lippmann-Dewey debatten, men samtidig genindskriver hans tilgang et øje for en filosofisk nytteetisk og værdipolitisk diskussion: Nemlig når/hvis vi ikke har fri og transparent kommunikation med garanti for sammenstød mellem forskellige grupper, hvilke nytteetiske retningslinjer støtter vi os så op ad som samfund?

Som internationalt samfund – vel at mærke – da vores demokratiske debat ikke længere er bundet til nationalstaten, men styres af internationale virksomheder uden hensyntagen til kulturelle, politiske og kontinentale forskelle.

ForskerZonen

Denne artikel er en del af ForskerZonen, som er stedet, hvor forskerne selv kommer direkte til orde. Her skriver de om deres forskning og forskningsfelt, bringer relevant viden ind i den offentlige debat og formidler til et bredt publikum.

ForskerZonen er støttet af Lundbeckfonden.

Her kan ytringsfrihed, beskyttede samfundsklasser og nøgenhed ikke slå til som de eneste styrende principper for indholdsredigering, der i høj grad er styret af et amerikansk Silicon Valley-perspektiv på verden.

Vi må som samfund, dansk såvel som internationalt, kræve en større grad af dialog om disse principper, hvorvidt de skal tilpasses kulturforskelle på forskellige markeder samt dokumentation for, hvordan principperne er søgt implementeret.

Artiklen bygger på arbejdet i forskningsprojekterne 'Digital Society' finansieret af Forsknings- og innovationsstyrelsen (Brandbase), 'Digital Footprints' og 'AI in digital sociology' finansieret af AUFF (Aarhus Universitets ForskningsFond). Publicerede forskningsartikler kan findes på AU Datalab.  

Seneste ForskerZonen