Asilomar Richtlijnen voor A.I.

De Vrede van Münster. Het verdrag van Maastricht. Het akkoord van Parijs. Stuk voor stuk belangrijke, historische verdragen die vernoemd zijn naar de plaats van ondertekening. Ik voorspel dat we daar binnenkort Asilomar aan toe gaan voegen. Asilomar? Sinds de jaren 50 een conferentieoord aan de kust van Californië. Meer recentelijk de plek waar experts van over de hele wereld naartoe trokken om met elkaar te praten over een veilige toekomst met kunstmatige intelligentie (AI).

Hun ‘23 principles to guide beneficial AI development’ zijn inmiddels online gepubliceerd en ondertekend door meer dan 1250 computerwetenschappers en 2500 vooraanstaande denkers uit andere gebieden. U moet de richtlijnen zien als een pleidooi –misschien wel noodkreet- van de belangrijkste AI-onderzoekers om ervoor te zorgen dat hun (fundamentele) werk geen negatieve toepassingen of gevolgen op de lange termijn zal hebben.

Op de website van het Future of Life Institute zijn de principes te vinden in het Engels, Chinees, Duits, Japans, Koreaans en Russisch. En sinds deze week ook in het Nederlands!

Onderzoek

  1. Onderzoeksdoelstellingen: AI-onderzoek zou niet het creëren van intelligentie in alle richtingen tot doel moeten hebben maar slechts intelligentie die in het belang is van de mensheid (goedaardig).
  2. Onderzoeksfinanciering: Investeringen in AI zouden vergezeld moeten gaan van onderzoek naar de mate van goedaardigheid ervan, onder meer door prangende vragen te stellen op het gebied van de informatica, economie, recht, ethiek en gedragswetenschappen:
    • Hoe kunnen we AI-systemen ontwerpen die robuust zijn; die voor ons werken zonder technische problemen en zonder de kans om gehackt te worden?
    • Hoe kunnen we door middel van automatisering onze welvaart vergroten zonder dat dit ten koste gaat van menselijk potentieel en zingeving?
    • Hoe kunnen we wet- en regelgeving inrichten dat ze rechtvaardiger en efficiënter worden, anticiperend op de risico’s die geassocieerd worden met AI?
    • Welke waarden zou AI moeten nastreven en welke rechtspositie of ethische status kan het verkrijgen?
  3. Wetenschap en beleid: AI-onderzoekers en beleidsmakers zouden op regelmatige wijze ervaringen en ideeën moeten uitwisselen.
  4. Onderzoeksklimaat: Samenwerking, vertrouwen en transparantie zijn de sleutelwoorden voor een vruchtbare samenwerking tussen onderzoekers en ontwikkelaars van AI.
  5. Stop met competitie denken: Teams die AI ontwikkelen zouden moeten samenwerken om te voorkomen dat er een race ontstaat waarbij snelheid belangrijker wordt dan zorgvuldigheid.

    Ethiek, waarden en normen
  6. Veiligheid: AI-systemen zouden veilig en ongevaarlijk moeten zijn voor de volledige duur van hun gebruik of toepassing. Waar mogelijk zou dit te verifiëren moeten zijn.
  7. Inzicht in mogelijke gebreken: Als een AI-systeem schadelijke gevolgen heeft, zou de oorzaak daarvan vastgesteld moeten kunnen worden.
  8. Voorkomen rechterlijke dwalingen: Elke betrokkenheid van een autonoom systeem bij een beoordeling door een gerechtshof zou vergezeld moeten gaan van een uitleg die inzichtelijk en begrijpelijk is voor een bevoegde (menselijke) autoriteit.
  9. Verantwoordelijkheid: Ontwerpers en bouwers van geavanceerde AI-systemen hebben een morele verplichting om een actieve rol te spelen bij het voorkomen van negatieve consequenties van hun systemen.
  10. Waardengedreven: Autonome AI-systemen moeten worden ontworpen op zo’n manier dat hun doelen en gedrag in lijn zijn met menselijke waarden voor zolang het systeem in gebruik is.
  11. Menselijke idealen: AI-systemen zouden menselijke idealen moeten nastreven zoals waardigheid, rechten, plichten en culturele diversiteit.
  12. Privacy: Mensen moeten het recht hebben om bij hun data te kunnen en deze te beheren, gegeven het feit dat AI-systemen diezelfde data gebruiken voor hun analyses.
  13. Vrijheid: Het verwerken van persoonlijke gegevens door AI-systemen zou nooit de vrijheid van het individu moeten inperken.
  14. Inclusiviteit: AI-systemen zouden op zo’n manier moeten worden ingezet dat ze in het voordeel werken van zoveel mogelijk mensen.
  15. Gedeelde welvaart: De economische vruchten van het gebruik van AI-systemen zouden door zoveel mogelijk mensen geplukt moeten kunnen worden.
  16. Mens in controle: Mensen moeten kunnen kiezen óf en hoe ze AI-systemen willen inzetten voor het behalen van doelen die door mensen zijn gekozen.
  17. In dienst van de maatschappij: De potentiële macht die ontstaat door de inzet van geavanceerde AI-systemen zou niet tegen de burgers gebruikt moeten worden maar juist de fundamenten van de maatschappij moeten verstevigen.
  18. AI en wapens: Een wapenwedloop op het gebied van autonome wapens moet worden voorkomen.

    Lange termijn
  19. Speculatie: Aangezien er geen consensus is over welk niveau AI in de toekomst kan bereiken, moeten we terughoudend zijn hierover stellige uitspraken te doen.
  20. Belangrijkheid: Geavanceerde AI kan diepgaande gevolgen hebben voor de koers van de mensheid en moet daarom met passende maatregelen, zorgen en middelen worden behandeld.
  21. Risico’s: De gevaren die AI-systemen met zich meebrengen -met name voor het leven op aarde- moeten worden onderworpen aan risicobeperkende maatregelen die rechtdoen aan de te verwachten gevolgen.
  22. Uit de hand lopen: AI-systemen die zichzelf kunnen verbeteren of kopiëren, wat kan leiden tot een drastische toename in kwaliteit of kwantiteit moeten aan strikte veiligheidsvoorschriften voldoen.
  23. Algemeen belang: Superintelligentie zou ontwikkeld moeten worden, slechts ten faveure van gedeelde ethische principes en in het belang van de totale mensheid, niet van een land of organisatie in het bijzonder.

Wat vindt u van deze richtlijnen? Misschien vindt u ze nog wat abstract geformuleerd? Maar het feit dat de internationale gemeenschap consensus heeft bereikt over zo’n gecompliceerd probleem, vind ik hoopgevend. Elk van deze 23 principes kon minimaal rekenen op de steun van 90% van de aanwezigen. Op futureoflife.org kunt u ze nog eens nalezen en ook uw handtekening eronder zetten. U bevindt zich dan in goed gezelschap. Onder meer Elon Musk, Stephen Hawking, Demis Hassabis (Deepmind), Yann LeCun (Facebook), Peter Norvig (Google) en Ray Kurzweil (Singularity University) gingen u voor.