17 oktober 2016 421 woorden, 2 min. gelezen

Big Data en ethiek: hoe zien de Meetup.com algoritmes eruit

Door Pierre-Nicolas Schwab Gepromoveerd in marketing, directeur van IntoTheMinds
Van de vele interessante voorstellingen tijdens de RecSys conferentie 2016 in Boston, sprong die van Evan Estola (Meetup, New York (Engels)) er voor mij toch wel uit. De voorstelling was zeker niet zo technisch als we doorgaans gewoon zijn bij […]

Van de vele interessante voorstellingen tijdens de RecSys conferentie 2016 in Boston, sprong die van Evan Estola (Meetup, New York (Engels)) er voor mij toch wel uit.
De voorstelling was zeker niet zo technisch als we doorgaans gewoon zijn bij dergelijke conferenties (ook al heeft Evan een eerder technisch profiel (Engels)); ze gaf het aanwezige publiek een ongewone kijk op de ethische problemen betreffende de Big Data.
Evan begon met enkele voorbeelden van aanbevelingssystemen (Frans)die ontspoord waren. Er was de polemiek waarvoor Orbitz opdraaide ten gevolge van een verschil in verwerking tussen de bezitters van een pc en een Mac; dan de onderzoeksresultaten met racistische hints ; en ten laatste aanbeveling van Amazon voor een kleine kit voor de perfecte drugsdealer. Voorbeelden genoeg die aantonen dat de ontwerpers van de algoritmes zich bewust moeten zijn van de grenzen van hun systeem.

Evan vertelde vervolgens hoe ook met ethiek wordt rekening gehouden bij de aanbevelingen op Meetup. En dat was het meest inspirerende deel. Evan nam het voorbeeld van groepen (Meetup) gericht op technologie, die in New-York plaatsvinden. Een klassiek algoritme « zou dadelijk zien » dat de meerderheid van de deelnemers mannen zijn en zou de aanbevelingen dus bij voorkeur sturen naar een mannelijke doelgroep om het aantal inschrijvingen te maximaliseren. Toch liet Evan het geslacht geen rol spelen in het aanbevelingsmodel met het risico de al te vaak aanwezig man/vrouwverschillen in onze maatschappij te versterken. Wat een moed ! Ik zal me nog lang herinnern wat Evan zei :

 «U moet beslissen welke variabelen niet worden opgenomen in uw algoritme ».
Evan Estola, RecSys 2016

De bewuste keuze om een variabele te verwijderen en daardoor, per definitie, de aanbevelingsresultaten te beïnvloeden is een keuze die van nature ethisch kan zijn. Beïnvloeding is niet noodzakelijk slecht. Ik denk dat ze zelfs noodzakelijk is omdat ze positieve discriminatie mogelijk maakt. Een machine is niet ethisch. Een machine heeft geen gevoelens. Een machine begrijpt geen culturele verschillen. We mogen absoluut niet in de val trappen van het optimaliseren van aanbevelingssystemen vanuit financieel oogpunt. We moeten de situatie van de klant voor ogen houden en ons buigen over het concept « waarde ». Betere aanbevelingen betekenen niet noodzakelijk meer waarde voor de klant. Wordt uw leven rijker door 10 uur per dag naar films kijken die worden aanbevolen door Netflix? Ik betwijfel het. Ik besluit met een ander citaat van Even :

« Het meest optimale algoritme is misschien niet het meest geschikt om te toe te passen. »

Afbeelding: Shutterstock



Posted in big data, Innovation, Marketing.

Plaats uw mening

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *