16 november 2016 768 woorden, 4 min. gelezen

Artificiële intelligentie : we hebben nood aan meer respectvolle algoritmes

Door Pierre-Nicolas Schwab Gepromoveerd in marketing, directeur van IntoTheMinds
De ontwikkelingen van de artificiële intelligentie (AI) zijn wegens meer redenen een bron van zorg. Ten eerste bedreigt AI onze jobs, ons privéleven en onze waargenomen vrijheid. Ten tweede is 99,99% van de mensen er niet van op de hoogte […]

De ontwikkelingen van de artificiële intelligentie (AI) zijn wegens meer redenen een bron van zorg. Ten eerste bedreigt AI onze jobs, ons privéleven en onze waargenomen vrijheid. Ten tweede is 99,99% van de mensen er niet van op de hoogte wat AI inhoudt en vanwaar het komt.
In het artikel van vandaag wil ik het hebben over respectvolle artificiële intelligentie en uitleggen waarom we nood hebben aan een bepaalde wijze waarop we onze « intelligente » algoritmes ontwerpen.

Waarom hebben we respectvolle wetten nodig over artificiële intelligentie en privéleven ?

Technologie moet ten dienste staan van de mensheid. Niet andersom. Dat is het basisidee van het boek van Cathy O’Neil, «Weapons of Math Destruction». Zoals elke andere uitvinding van de mens moeten Big Data, artificiële intelligentie en het algoritmische gevolg daarvan, worden gebruikt opdat de mens er het volledige potentieel uit kan halen. Toch heeft, zoals O’Neil in haar boek uitleg, AI de neiging om vooral gebruikt te worden om andere mensen onderdanig te maken en de ongelijkheid te vergroten. De reden is duidelijk? Met AI valt een fortuin te verdienen en dat is waarom 6 softwarereuzen samenwerken om hun opinie te verdedigen en een algemene consensus te krijgen over hun visie over de gegevensverzameling en over AI die van die gegevens gebruikt maakt.

We hebben nood aan respectvolle algoritmes

Terwijl er inspanningen worden gedaan om transparanter te zijn tegenover de gebruikers inzake hun privéleven, lijkt het ontwerpen van respectvolle algoritmes volgens mij een veel moeilijkere taak. Om het ontwerp van schadelijke algoritmes (“Weapons of Math Destruction”) te vermijden, moeten de ontwerpers ervan niet alleen de belangen van het bedrijf verdedigen, maar ook die van de gebruiker. Niet alleen het bedrijf moet een meerwaarde kunnen halen uit de algoritmes, ook de gebruiker heeft dat recht.

En een nóg moeilijkere uitdaging voor een Data Scientist is de goedkeuring krijgen om dat te mogen doen. Met andere woorden, een bedrijf moet ervan overtuigd worden dat respect tegenover de gebruiker – door zich te concentreren op de meerwaarde van algoritmes voor de gebruiker – op de langere termijn belangrijker is dat de waarde op korte termijn die het bedrijf eruit haalt.  Lijkt het niet zo dat het basisprincipe « tevredenheid leidt tot loyauteit » steeds meer naar de achtergrond dreigt te verdwijnen?

Loyauteit door ontwerp, niet door eigen keuze

Artificiële intelligentie is een revolutie voor de marketing. De droom van een gepersonaliseerde marketing 1 tegen 1 staat op het punt uit te komen.

Algoritmes kunnen zich aanpassen aan onze voorspelde gedragingen. Loyauteit versterken is een machinaal mechanisme geworden, een eigenschap die de consument ertoe verplicht om herhaalde aankopen te doen. Maar is dat wel echte loyauteit? Wellicht niet. Echte loyauteit komt vanuit de wens om een merk trouw te blijven. Ik kan een merk trouw blijven, er heel positief tegenover staan, zonder echter gedwongen te zijn om te moeten kopen.

Daartegenover kan ik een merk kopen zonder trouw eraan te zijn. Neem bijvoorbeeld Uber. Ik kies gewoonlijk voor dat merk, maar voel er eigenlijk weinig voor. Als er een alternatief was, zou ik daarvoor kiezen, op voorwaarde dat de chauffeurs correct behandeld worden en er geen taksen zouden vermeden worden ten gunste van een fiscaal paradijs.

Hoe respectvolle algoritmes maken?

In een eerder artikel benadrukte ik dat we de « modellen moeten opengooien », ze transparanter maken. Onzichtbare algoritmes, de “black boxes” zijn gevaarlijk omdat  er weinig, zelfs geen controle mogelijk is over de manier waarop ze functioneren. Zo ontstaan de schadelijke algoritmes: doordat  er onvoldoende controles zijn.
Niet alleen moeten toekomstige algoritmes transparanter zijn, ze moeten ook het product zijn van gedeelde kennis tussen ontwerpers en diegenen die ze gaan gebruiken. Dat is wat men co-creatie noemt.  Zoals BNP Paribas haar vertrouwelijkheidsbeleid heeft ‘ge-cocreëerd’, moeten de leiders van gegevenswetenschappen zich in de toekomst meer en meer tot de klant richten om samen algoritmes te maken. Als de toestemming van de gebruiker nodig is om zijn of haar gegevens te verzamelen en te gebruiken, waarom is dat dan niet zo bij algoritmes?

Om te eindigen

De tijd is gekomen om het concept van unilaterale besluitvorming te verbreken. Het is in zekere zin waar dat de consument niet alles weet wat hij moet weten. Iedereen kent de beroemde uitspraak van Henry Ford (Engels).

Maar toch, als de consument niet kan meegaan in de wereld van innovaties, dan betekent dit dat die innovaties gemaakt kunnen worden door mensen die geen kennis hebben over hoe hun innovaties uiteindelijk het leven zal beïnvloeden van diegenen die ze gebruiken.

 



Posted in Marketing.

Plaats uw mening

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *