17 juni 2020 758 woorden, 4 min. gelezen Laatste update : 15 maart 2022

Cultiveer de “zwakke schakels” in uw netwerk om filterbubbels tegen te gaan

Door Pierre-Nicolas Schwab Gepromoveerd in marketing, directeur van IntoTheMinds
De theorie rond filterbubbels staat wederom ter discussie. Deze keer is het een Amerikaanse studie waarin wordt aangetoond dat het de samenstelling van ons netwerk is dat bepaalt of we al dan niet in een informatieluchtbel gevangen zitten. Vooral de […]

De theorie rond filterbubbels staat wederom ter discussie. Deze keer is het een Amerikaanse studie waarin wordt aangetoond dat het de samenstelling van ons netwerk is dat bepaalt of we al dan niet in een informatieluchtbel gevangen zitten. Vooral de “zwakke verbindingen” zijn van groot belang om aan gediversifieerde inhoud te worden blootgesteld. We leggen het u uit in dit artikel.

Als u maar 30 seconden hebt

  • een Amerikaanse studie (alweer één) stelt de theorie rond filterbubbels in vraag. Ze werd uitgevoerd op gebruikers van Facebook
  • de studie toont aan dat blootstelling aan verschillende meningen veel vaker voorkomt (87,1%) dan de filterbubbeltheorie zou suggereren
  • zwakke” verbindingen zijn essentieel om te worden blootgesteld aan meningen die afwijken van de onze. Zwakke verbindingen zijn de mensen in onze netwerken met wie we alleen maar verre relaties hebben.
  • Vooral één factor is cruciaal: de diversiteit van het netwerk in termen van etniciteit en religie.

Samenvatting


Inleiding

De theorie over filterbubbels, gepopulariseerd in 2011 door Eli Pariser, stelt dat algoritmen alleen datgene aanbevelen wat we gewend zijn te consumeren en ons daardoor opsluiten. Dit probleem zou vooral voorkomen op sites die we opzoeken om ons te informeren, in de eerste plaats de sociale netwerken. Onze initiële overtuigingen worden versterkt door algoritmen die ons alleen maar blootstellen aan wat we al leuk vinden. Daardoor sluiten we ons meer en meer op binnen deze overtuigingen.
Tot zover de theorie. Behalve dat er sinds 2015 meer en meer wetenschappelijk bewijs is dat deze theorie ondermijnt. Een nieuwe studie, gepubliceerd in het Journal of Social Media in Society, versterkt de al bestaande twijfels over het bestaan van algoritmische filterbubbels. Daarin wordt ook uitgelegd hoe ons netwerk bijdraagt aan het compenseren van de mogelijk negatieve effecten van algoritmen.

“Algoritmen hebben geen controle over de opbouw van uw netwerk. En het is precies dit netwerk dat bepalend is voor de mate van blootstelling aan uiteenlopende informatie.


Algoritmen hebben geen controle over de opbouw van uw netwerk. En het is precies dit netwerk dat bepalend is voor de mate van blootstelling aan uiteenlopende informatie.


Resultaten in het kort

Het merendeel van de respondenten (87,1%) wordt geconfronteerd met standpunten die afwijken van hun eigen standpunten. Een minderheid wordt zelden (11,1%) of nooit (1,8%) geconfronteerd met informatie die afwijkt van hun overtuigingen.
De blootstelling aan deze verschillende overtuigingen is vooral het gevolg van “zwakke” verbindingen, dat zijn mensen in het netwerk waarmee de respondenten alleen verre relaties hebben. Sterke” connecties (familie, goede vrienden) dragen beduidend minder bij aan de blootstelling aan onderwerpen die afwijken van de meningen van de respondenten.

Een van de verklaringen is de vermenigvuldiging van online-identiteiten van individuen. Het concept van “ideologische silo’s” (cf. Sunstein 2003, 2017) heeft enkel zin als een individu een enkele identiteit heeft. Vandaag de dag leidt onze online aanwezigheid er echter toe dat we verschillende naast elkaar liggende identiteiten hebben, die elkaar soms overlappen. Mijn identiteit op LinkedIn is niet dezelfde als die op Facebook, noch op een forum over een van mijn hobby’s. Deze verschillende locaties van expressie, gecentreerd rond mijn behoeften en de daaruit voortvloeiende identiteiten, omvatten ook verschillende netwerken. Deze netwerken overlappen elkaar vaak en “vriendschappen” worden in de loop van de tijd vaak over meerdere netwerken gedeeld.


Methode

Het onderzoek is gebaseerd op een online enquête onder Facebook-gebruikers (N=271). De methode verschilt van die van Bakshy et al (2015), die eveneens werd uitgevoerd op Facebook, maar dan op een veel grotere steekproef.
Bovendien zijn de gegevens van declaratieve aard, waarbij Bakshy et al. gebruik maakten van waargenomen gegevens.
Toch heeft het onderzoek de verdienste dat het een onderscheid maakt tussen sterke en zwakke schakels. Ook het gebruik van percepties die de respondenten rapporteren komt is veelgebruikt. Er worden verschillende andere studies aangehaald die deze methodologische benadering gebruiken.
Eén interessant methodologisch punt is zeker het vermelden waard. De auteurs gebruiken de Herfindahl-Hirschman-index om de diversiteit in het netwerk van respondenten te meten. De resultaten tonen aan dat de factoren “etniciteit” en “religie” sterk samenhangen met de diversiteit aan meningen waarmee de respondenten te maken hebben. Met andere woorden, de aanwezigheid van mensen met een andere etniciteit en/of religie in uw netwerk verhoogt de kans om blootgesteld te worden aan meningen die afwijken van uw eigen mening.


Bronnen

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130-1132.

Min, S. J., & Wohn, D. Y. (2020). Underneath the Filter Bubble: The Role of Weak Ties and Network Cultural Diversity in Cross-Cutting Exposure to Disagreements on Social Media. The Journal of Social Media in Society, 9(1), 22-38.



Posted in Diverse.

Plaats uw mening

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *