Edison heeft ooit eens gezegd: 'Whatever the mind of man creates, should be controlled by man's character'.
Dat was al moeilijk genoeg in de tijd waarin hij leefde, maar hoe moet je dat doen als je de dingen niet langer zelf maakt, maar alles door robots en computers wordt gemaakt? Sterker nog: als je de dingen niet meer zelf bedenkt, maar ze het resultaat zijn van complexe, zelflerende algoritmen?
Welkom in de wondere wereld van de kunstmatige intelligentie.
Je kunt algoritmen zo ontwerpen dat ze aangeven hoe ze tot een beslissing zijn gekomen. Dat zou eigenlijk wettelijk verplicht moeten zijn
Slimme, zelflerende algoritmen leren beslissingen nemen of patronen herkennen door een grote hoeveelheid bestaande beslissingen of patronen te analyseren. Ze vormen een essentieel onderdeel van big data. Zonder grote hoeveelheden data leren dergelijke algoritmen niet (goed) genoeg. En zonder die algoritmen kan niemand wijs worden uit die grote berg aan data.
De voordelen van slimme algoritmen zijn overduidelijk. Ze maken het mogelijk om patronen te vinden in grote hoeveelheden data die we zelf nooit zouden zien: bijvoorbeeld omdat de hoeveelheid data simpelweg overweldigend is, of omdat het verband zo onwaarschijnlijk is dat niemand het verband zou (durven) leggen, of omdat het patroon van een grote hoeveelheid factoren afhangt.
Slimme algoritmen kunnen gebruikt worden om ons leven makkelijker te maken, om fraude op te sporen, de effectiviteit van medische behandelingen te bepalen, en om overheden en bedrijven efficiënter te maken. Beslissingen op basis van slimme algoritmen zouden ook accuraat en eerlijker zijn.
De risico’s zijn ook evident. Of de beslissingen van die slimme algoritmen ook echt accuraat en eerlijker zijn hangt sterk af van het algoritme en de onderliggende data waarmee het algoritme getraind is. En dat is behoorlijk lastig te beoordelen als je niet weet hoe het algoritme werkt, met welke data hij getraind is en op basis van welke gegevens over jou hij tot een beslissing is gekomen. Er zijn helaas veel voorbeelden van slimme algoritmen die schrikbarend discriminerend en oneerlijk zijn. We willen daarom niet in een ‘black box society’ terecht komen, waar op een gegeven moment niemand meer weet wie wat besloten heeft en waarom.
De vraag is dus: hoe houden we dit soort slimme algoritmen in het gareel?
Sommigen pleiten voor meer transparantie, bijvoorbeeld door de algoritmen openbaar te maken. Het is de vraag of dat helpt. Een probleem is bijvoorbeeld dat er geen sprake meer is van een traditioneel algoritme waarvan je de source code zou kunnen inspecteren om te controleren wat het algoritme doet. Slimme algoritmen passen zich al lerende aan. Zelfs de makers van het algoritme zelf weten niet meer hoe het algoritme werkt en worden regelmatig verrast door de werking van hun eigen creatie. Transparantie
Wat wel kan, is de hulp van de slimme algoritmen zelf in te roepen! Om ons zo te helpen begrijpen hoe andere algoritmen werken en tot hun beslissingen komen. Zo bestaan er bijvoorbeeld algoritmen die vooroordelen in een beslissing, of een verandering in de manier waarop een beslissing genomen is, kunnen detecteren. Dit helpt ons om rotte appels effectief te bestrijden. Wat ook kan, is om slimme algoritmen zo te ontwerpen dat ze niet alleen een beslissing nemen, maar daar meteen bij vertellen hoe ze tot die beslissing gekomen zijn. Eigenlijk zou dit wettelijk verplicht moeten zijn.
De privacywetgeving beperkt de mate waarin geautomatiseerde beslissingen over ons genomen mogen worden. Maar op grond van die wetgeving bestaat er, helaas, geen recht op een onderbouwing of uitleg van de beslissing. Zelfs het recht om te weten op welke wijze zo’n beslissing tot stand komt — wat wel degelijk bestaat — wordt sterk beperkt door het recht van bedrijven om hun bedrijfsbelangen te beschermen.
Dat is niet zonder reden. Voor big data-bedrijven zijn hun algoritmen de kroonjuwelen waarmee ze zich onderscheiden op de markt en die hun een voorsprong geven op de concurrentie. De (beurs)waarde van die bedrijven wordt, naast het aantal klanten en de hoeveelheid persoonlijke data die het bedrijf over hen bezit, bepaald door de kwaliteit van die algoritmen en het feit dat ze beter zijn dan die van de concurrentie.
Maar gezien de belangen die op het spel staan, en de mogelijkheden die de techniek hier biedt, zou het goed zijn als hier nog eens goed naar gekeken wordt. Het vertrouwen van burgers staat op het spel.
Deze column verscheen op 4 maart 2017 in het Morgen katern van het FD