VN: laat je niet leiden door angst

VN: laat je niet leiden door angst

Oorspronkelijk gepubliceerd in het FD op 17 juni. Essay door Jim Stolze.

In Geneve vond vorige week de “AI for Good Summit” plaats. Een driedaags evenement dat onderzoekers en ontwikkelaars van Artificial Intelligence (kunstmatige intelligentie) opriep om hun kennis in te zetten voor het aanpakken van wereldproblemen. Een verfrissend geluid in een tijd waarin technologie meestal de zwarte piet toegespeeld krijgt. Wie de kranten en blogs leest, krijgt al snel het vermoeden dat robots eerst onze banen zullen inpikken om ons vervolgens uit te roeien en zodoende de planeet voor zichzelf te hebben.

Wie zijn buik vol heeft van dergelijke doemscenario’s kon in Geneve zijn hart ophalen. Meer dan vijfhonderd deelnemers bogen zich over de “Sustainable Development Goals”. Deze Duurzame Ontwikkelingsdoelstellingen zijn in 2015 door de Verenigde Naties opgesteld en vervangen de Millenniumdoelstellingen. Bij elk van de zeventien problemen werd gediscussieerd hoe kunstmatige intelligentie een oplossing zou kunnen bieden.

Om bijvoorbeeld gendergelijkheid (doel 5) te bereiken zouden speciale algoritmes een doorslaggevende rol kunnen spelen bij werving en selectie, en zo gelijkere kansen voor man en vrouw stimuleren. En zelflerende software zou patronen in big-data van stadsplanning kunnen vinden en zo de doelstelling van duurzame steden en gemeenschappen (doel 11) dichterbij te brengen.

Het is niet voor het eerst dat de Verenigde Naties gebruikt maakt van data in haar programma’s. Het Global Pulse-project doet dit al sinds 2009 en valt direct onder de secretaris-generaal. Op drie plaatsen in de wereld zijn destijds labs gestart waar onderzoekers berichten op Twitter en Facebook scannen op signalen van humanitaire rampen, ziektes als malaria, polio of uitbraken van geweld.

De specifieke interesse van de Verenigde Naties in kunstmatige intelligentie is nieuw en kan wellicht verklaard worden door de samenwerking met de Xprize Foundation. Deze Amerikaanse stichting looft geldprijzen uit aan technologie-pioniers die als eerste een bepaalde mijlpaal behalen. Denk daarbij aan commerciële ruimtevluchten (space), virtuele doctoren in je telefoon (health), en recent het CO2-probleem (klimaat). Xprize heeft nu zijn blik laten vallen op kunstmatige intelligentie en roept pioniers op om de doelen van de Verenigde Naties als uitgangspunt te nemen.

Terug naar Geneve. Ondanks de opgestroopte mouwen van Xprize werd daar vooral gepraat over de problemen en hoe belangrijk eventuele oplossingen konden zijn. Ook was niet iedereen even enthousiast over de huidige stand van de techniek. Onderzoeker Moustapha Cissé vertelde dat kunstmatige intelligentie op dit moment een “white guy problem” heeft. Cissé –werkzaam bij Facebook en zelf van Afro Amerikaanse afkomst- legde haarfijn uit dat de technologie nu vooral wordt ingebouwd in hippe producten uit Silicon Valley, maar dat toepassingen voor het continent Afrika weinig aandacht krijgen. En omdat het bij de ontwikkelaars vooral blanke jongens uit de VS betreft, zijn de algoritmes vaak gebaseerd op datasets uit de Westerse wereld. Sommige demografische groepen zijn daarin slecht vertegenwoordigd en lopen de voordelen mis.

Ook professor Stuart Russel was eerder voorzichtig dan enthousiast. De Brits-Amerikaanse Computerwetenschapper van de Universiteit van Californië ziet de “AI for Good Summit” wel als een stap in de goede richting. “Computers bewijzen keer op keer dat ze fantastisch efficiënt zijn in het verwerken van informatie. Een goed ingericht systeem kan in korte tijd alle boeken of websites over een bepaald onderwerp lezen. Daarnaast hebben we gezien dat computers bij spelletjes als Schaak of Go ons de baas zijn omdat ze veel meer stappen vooruit kunnen denken. Als je die eigenschap weet in te zetten voor goede doelen is kun je positieve doorbraken verwachten.”

En juist daar wringt volgens Russel de schoen. Want wie bepaalt wat zo’n goed doel exact inhoudt en hoe ga je zoiets formuleren? “Het is als destijds met Koning Midas. Zijn wens was om alles wat hij aanraakte in goud te laten veranderen. Dat was zijn doelstelling. Maar pas toen het plan werd uitgevoerd, kwamen de negatieve effecten naar boven. Alles, dus ook zijn eten en iedereen die hem lief was, veranderde in goud. Met desastreuze gevolgen. Wij mensen zullen extra goed na moeten denken wát we precies willen dat die slimme systemen voor ons gaan uitvoeren.”

Daarnaast is Russel ook bezorgd dat kunstmatige intelligentie in de verkeerde handen zal vallen. Zijn boodschap aan de VN was helder: “Het allerbelangrijkste is nu om te voorkomen dat er autonome wapens worden ontwikkeld. Sommige landen werken al aan prototypes en rechtvaardigen dat door te stellen dat het veiliger is voor de eigen soldaten. Maar vanwege de mogelijke schaal en het relatieve gemak waarmee deze wapens ingezet kunnen worden hebben we het wel degelijk over nieuwe massavernietigingswapens.”

Anders Sandberg is verbonden aan het Future of Humanity Institute (Oxford) en doet onderzoek naar de risico’s die toekomstige technologieën met zich meedragen. Hij herkent de zorgen die er zijn rondom kunstmatige intelligentie. “De belofte van AI is geweldig. De uitdaging zal zijn om de juiste richting te bepalen en de juiste richtlijnen op te stellen. En op zo’n manier dat de echte innovatie niet wordt gehinderd.” Tegelijkertijd wil hij het ook niet te makkelijk maken voor kwaadwillenden om de technologie in te zetten. “Bureaucraten grijpen te snel naar instrumenten als verbieden of beperken. Beter is het om het goede gedrag te belonen. Wat je beloont gebeurt.”

De conclusie na drie dagen praten over “AI for Good” is toch vooral dat we willen voorkomen dat het niet “AI for Bad” wordt. Het debat werd –waar ik al bang voor was- gedomineerd door angst en koudwatervrees. Hoe komt het toch dat bij discussie over technologie de meeste belangstelling uitgaat naar de negatieve kanten? Kunnen we niet gewoon eens drie dagen denken in mogelijkheden? Peter Diamandis, de voorzitter van de Xprize Foundation, heeft een biologische verklaring. Hij geeft de schuld aan de amygdala. De wat?

De amygdala is het deel van onze hersenen dat de hele dag alert is. Het is ons persoonlijke alarmsysteem dat de omgeving scant, onder meer gezichtsuitdrukkingen leest en continu gefocust is op gevaar. Het zorgt ervoor dat we niet in gevaarlijke situaties belanden. We zijn ons er niet van bewust, maar door de amygdala klikken we eerder op slecht nieuws dan op goed nieuws. Door de amygdala luisteren we net iets beter als de nadelen worden opgesomd dan de voordelen. Het is dus niet zo dat de media per se een voorkeur hebben voor slecht nieuws of voor doemscenario’s. Het is wat wij willen horen.

Mijn opa zei vroeger: je moet verder kijken dan je neus lang is. In een globaliserende wereld is dat nog steeds wijze raad. Namens de Verenigde Naties zou ik daar een variatie op willen maken. Kijk verder dan je neus lang is en weet dat er meer mogelijk is dan je amygdala je doet geloven.