Leuk stuk van Lubach, maar als filterbubbelontkenner en iemand die een flink deel van z’n boterham verdient aan het bouwen aan soortgelijke “algoritmen” voel ik me wel geroepen wat nuance in te brengen.

Aanbod of algoritme?

Allereerst Lubachs gekozen neutrale zoekopdracht: “pcr test betrouwbaar”. Hoeveel filmpjes zullen er gaan over de betrouwbaarheid van pcr tests in vergelijking met het aantal complotfilmpjes die de betrouwbaarheid ervan in twijfel trekken? Met een groter aanbod van zulke complotfilmpjes, zul je die simpelweg meer tegenkomen in je resultaten. Overigens zat in mijn top 10 ook een fragment van Op1 met Bert Slagter (#3), en een Nieuwsuur fragment over coronatesten (#6).

Een soortgelijk probleem deed zich een tijdje terug voor, toen bol.com ervan werd beticht anti-vaccinatieboeken te promoten: men publiceert nu eenmaal niet zoveel boeken die expliciet over de effectiviteit van vaccinatie gaan. Het is een probleem van aanbod, niet algoritme.

Dat vervolgens na slechts een handjevol clicks de gepersonaliseerde YouTube voorpagina een complot rabbithole is, is ook weinig verrassend; met weinig data (en bovendien in een specifieke hoek) kan zo’n systeem moeilijk ‘diversificeren.’ Zoals Cathy O’Neil in The Social Dilemma zegt, weten algoritmen niet hoe “echt” van “complot” te onderscheiden, maar kunnen ze slechts ‘soortgelijke’ content aanbieden.

De oplossing aan de kant van YouTube is simpel: combineer gepersonaliseerde aanbevelingen met andere bronnen, zoals populaire of trending content, content uit een gecureerde feed van experts, of uit je eigen sociale bubbel.

De vraag is hoe representatief het problematische gedrag van weinig data in een heel specifieke hoek is: complotdenkers die systematisch zoeken naar fringe content en pluriform aanbod uit de weg gaan zullen met of zonder algoritme hun obscure content vinden.

Aan de kant van de gebruiker is dus ook een hoop te halen: het blijft belangrijk te hameren op de waarde van het raadplegen van meerdere perspectieven: een meer toekomstbestendige oplossing dan de technologie de verantwoordelijkheid van eenzijdige informatieconsumptie op te leggen.

Verdienmodel als probleem; algoritme als oplossing

Ik ben het eens met Lubach dat de verdienmodellen (advertenties) in combinatie met daaraan gekoppelde “doelstellingen” (langer kijken, meer bezoek) problematisch kunnen zijn, maar dat die combinatie los staat van de technologie op zich. Naast dat we ook enige verantwoordelijkheid bij de consument en hun ‘consumptiegedrag’ zouden moeten leggen, is de keuze van hoe YouTube haar gepersonaliseerde pagina inricht eentje uit velen, en juist die technologie biedt hier mooie mogelijkheden om verschillende keuzes te maken.

Met diezelfde algoritmen kun je juist diversiteit van consumptie verhogen. Zo toont de paper Exploring the Filter Bubble: The Effect of Using Recommender Systems on Content Diversity aan dat gebruikers die aanbevelingen (van films) van een algoritme opvolgen juist minder snel in een filterbubbel terechtkomen, in vergelijking met mensen die hun eigen films opzoeken en kijken. Daarnaast kregen de algoritmisch aanbevolen films een hogere waardering van de gebruikers dan films die ze zelf kozen.

Wanneer je zelf achter de knoppen zit, en zulke algoritmen ontwerpt, heb je veel mogelijkheden om ze te sturen. Zo zorgden we bij het FD ervoor dat ons aanbevelingssysteem meer nieuwswaardige en diverse content aanbood, zonder dat die doelen de nauwkeurigheid (o.b.v. klikgedrag) van de aanbevelingen negatief beïnvloedde.

Meer lezen?

--

--

David Graus

AI practitioner. Lead Data Scientist at Randstad Groep Nederland. I’m into RecSys, Natural Language Processing, and Information Retrieval.