Algoritmisering, wen er maar aan

Algoritmisering, wen er maar aan

Oorspronkelijk gepubliceerd in het FD van zaterdag 15 april. Essay door Jim Stolze

Canada maakte vorige week bekend 127 miljoen dollar te investeren in een nieuw kennisinstituut. Het Vector Institute in Toronto gaat zich volledig richten op “deep learning”, “neural networks” en andere vormen van kunstmatige intelligentie.

“Wij zijn de thuisbasis voor top-talent op het gebied van kunstmatige intelligentie. We kunnen het ons niet veroorloven die voorsprong te verliezen en zodoende nieuwe banen mislopen”, zei minister president Justin Trudeau.

Canada is niet de enige economie die zich voorbereid op de algoritmisering van de samenleving. Zuid Korea lanceerde in 2016 een fonds van 860 miljoen dollar voor nieuw onderzoek nadat hun wereldkampioen grootmeester Lee Sedol van het bord was geveegd door het algoritme Alphago. En het Verenigd Koninkrijk heeft door Accenture laten voorrekenen dat een investering van 17 miljoen pond nu, zo’n 654 miljard pond aan de economie in 2035 zou toe kunnen voegen.

En Nederland? Nederland doet nog even niets. Wetenschappers van verschillende universiteiten bundelen hun krachten in de hoop samen meer kans te maken op nieuwe onderzoeksgelden. Een voorstel in het kader van “responsible data science” werd vorig jaar door NWO afgewezen. Een gemiste kans! Kunstmatige intelligentie is geen toekomstmuziek, het zit reeds in alle aspecten van ons leven verstopt. Toen u afgelopen week in uw auto stapte en de navigatie instelde, maakte u gebruik van een algoritme. Het rekensommetje bepaalde niet alleen de kortste route van A naar B, maar hield ook rekening met andere kastjes in de buurt, de actuele verkeerssituatie en -voor de Teslarijders onder ons – voorzag in uw persoonlijke laadbehoefte. Of toen u vanmorgen online ging. Weinig mensen zijn er zich van bewust dat zo’n 1 miljard mensen op de wereld voor hun blik op de buitenwereld vertrouwen op één specifiek algoritme. De newsfeed van Facebook is een vorm van kunstmatige intelligentie die –ook als u niet klikt of scrollt- continu leert van uw surfgedrag.

Machines die denken
Toen Alan Turing in de jaren 30 voor het eerst publiceerde over een “denkende machine” was hij visionair en ambitieus. Hij ging zo voortvarend aan de slag dat zijn machine al snel beter kon puzzelen dan de beste cryptografen in het Verenigd Koninkrijk. Zijn Turing Machine brak de Duitse enigmacode en luidde zo het einde van de Tweede Wereldoorlog in. Sinds die ontdekking zijn wetenschappers over de hele wereld op zoek naar de heilige graal: een computer die de Turing Test kan doorstaan. Die test is een simpele methode waarbij een proefpersoon op basis van zijn interactie met een onzichtbaar iemand moet beoordelen of hij te maken heeft met een mens of machine. Misschien goed om drie termen uit elkaar te houden:

Artificial Intelligence. De verzamelnaam voor machines die geprogrammeerd worden om intelligent te lijken. Bijvoorbeeld Deep Blue (de schaakcomputer van IBM) of SIRI (de spraakassistent van Apple). Het begint ergens op te lijken, maar er is nog veel voor nodig om de Turing Test te doorstaan.

Robotics. Deze vorm van kunstmatige intelligentie houdt zich vooral bezig met planning en navigatie. Denk aan drones en robots. Autonome voertuigen zijn feitelijk algoritmes op wielen, of met propellers en grijphanden.

En tot slot: Machine learning. Een verzameling algoritmes die zelf kunnen ontdekken en onthouden. Tot kort geleden werkte het spam-filter van Google nog met zogenaamde regels. Zo’n regel was bijvoorbeeld: “als het bericht het woord v!agra bevat, verplaats het dan naar de junk-folder.” Het hoeft nauwelijks uitleg dat zo’n filter erg moeilijk af te stellen was omdat spammers steeds nieuwe manieren vonden om tussen de mazen van het filter door te glippen. Machine learning werkt gelukkig anders; het algoritme dat Google nu gebruikt kan is zelf lerend. Eerst laat je het 100.000 voorbeelden van e-mails zien die ‘schoon’ zijn. En vervolgens 100.000 berichten die in de categorie ‘spam’ thuis horen. Het algoritme is nu een spier geworden die je kunt gaan trainen. Geef het ongeveer 1 miljoen voorbeelden (pushups) en het zal met een nauwkeurigheid van meer dan 95% je inbox kunnen schoonhouden.

Machine learning is de reden dat onze collega’s steeds vaker een beroep zullen doen op kunstmatige intelligentie. Net als dat we liever de calculator pakken in plaats van een som uit het hoofd te maken zullen we onze ideeën steeds vaker laten onderbouwen en laten inspireren door computerlogica. Het gaat dan om kleine deeltaken die een algoritme 1000 keer beter of sneller kan uitvoeren dan een mens. Zo lanceerde zakenbank JP Morgan vorige maand nog een eigen algoritme met de naam COIN, een samentrekking van Contract en Intelligence. De software kan in no-time duizenden contracten doorlezen en komt dan met een advies waar voorheen 300.000 uren voor nodig waren van gewone advocaten.

Ethische aspecten
Overal waar data wordt gebruikt (en waar is dat nu niet?) zal de vraag om analyse op duiken. Veel organisaties zijn vergeten door te pakken. Zij hebben alleen getracht om bestaande processen te digitaliseren en voelen zich nu “data rich, information poor”. Dat is precies de reden dat er in korte tijd twee nieuwe datascholen in Nederland zijn gestart. De Jheronimus Bosch Academy for Data Science (JADS) en de Amsterdam School of Datascience. Op de datascholen wordt geleerd hoe je met data om moet gaan en welke methodes er zijn om inzichten en nieuwe verbanden te ontdekken. Specialisten in dit vakgebied zijn erg gewild en naar verwachting is er volgend jaar een tekort van 8000 zogenoemde data scientists.

Algoritmisering is feitelijk het uitbesteden van processen –en daarmee ook gedeeltes van beslissingen- aan machines die lijken te denken. En daar wringt volgens sommigen de schoen. Want als mensen beslissingen nemen of afwegingen maken, doen we dat vaak door middel van een combinatie van harde factoren (feiten, cijfers, jurisprudentie) en zachte factoren (buikgevoel, compassie, omstandigheden). In haar boek “Weapons of Math Destruction” betoogt Cathy O’Neil dat algoritmes daar heel slecht in zijn en zo discriminatie en structurele ongelijkheid versterken.

De vraag van deze tijd is dus niet óf we big-data modellen gebruiken, maar of we het op de juiste manier doen. Wie zorgt ervoor dat de algoritmes niet onbedoeld tot ongelijkheid leiden? Bij wie kun je aankloppen als je je gediscrimineerd voelt door een IT-systeem? Moeten we erop vertrouwen dat grote bedrijven per definitie onze privacy zullen respecteren?

Technologie ontwikkelt zich sneller dan het menselijke aanpassingsvermogen, dat is niets nieuws. De parachute werd ook pas als nuttig ervaren -nadat- het eerste vliegtuig was opgestegen. Daarom zal er naast een tekort aan data-scientists ook een tekort aan data-ethici ontstaan. Kunnen wij in Nederland leren van de Canadezen? Als zij zo investeren in de harde kant van kunstmatige intelligentie. Misschien moeten wij dan anticiperen op de volgende trend: Nederland voorop als thuisbasis voor vrijdenkers op het gebied van ethiek en technologie. Haast is geboden, want de toekomst wacht niet op iedereen.