Vereniging Intern Toezichthouders Pensioensector

AI is here to stay, pak je rol als interne toezichthouder!

Er gaat geen dag voorbij of artificial intelligence (AI) is in het nieuws. Als we de experts mogen geloven - en waarom zouden we niet? - gaan de ontwikkelingen elk jaar sneller en sneller. Zelfs zo snel dat kunstmatige intelligentie over een paar jaar weleens een hoger niveau zou kunnen bereiken dan de menselijke.

Wat betekent dat voor de pensioensector, en dan vooral voor het intern toezicht op pensioenfondsen? Dat vroegen wij ons ook af. Daarom nodigden we twee erkende experts uit om ons daar meer over te vertellen. Bart van Reeken en Lodewijk Heinsman werken beiden bij Van Doorne Advocaten, en weten alles van de juridische aspecten die aan AI zijn verbonden. Maar ze kennen ook de praktijk van onze sector. Kortom, de ideale personen om ons bij te praten.

Duidelijke doelen en definities

De doelen waarmee Bart en Lodewijk hun presentatie openen zijn duidelijk:

  • inzicht geven in wat AI is en waarom het relevant is voor pensioenfondsen
  • handvatten bieden voor intern toezicht op AI-gebruik en
  • risico’s, ethische dilemma’s en governance vraagstukken bespreken.

Om met dat eerste te beginnen: wat verstaan we eigenlijk onder AI? Bart en Lodewijk onderschrijven de volgende definitie van de Pensioenfederatie. AI is een machinaal systeem dat:

  • is ontworpen om met verschillende niveaus van autonomie te werken
  • na de uitrol aanpassingsvermogen kan vertonen en
  • voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen.

Dat is niet niks! Gelukkig kregen we ook direct een meer behapbare definitie te horen: ‘systemen die op basis van data voorspellingen en beslissingen maken, met enige mate van autonomie’. Voorbeelden uit de (pensioen)praktijk zijn:

  • chatbots voor klantcontact
  • automatische verwerking van deelnemersmutaties
  • beleggingsalgoritmes en
  • tools die fraude of risico’s signaleren.

Veel voordelen, maar ook gevaren en risico’s

Dat AI voor pensioenfondsen relevant is, staat voor Bart en Lodewijk niet ter discussie. AI zorgt ervoor dat processen nog meer kunnen worden geautomatiseerd en dus nog sneller kunnen werken. Betere - meer gepersonaliseerde - communicatie met deelnemers wordt makkelijker en goedkoper. Chatbots behalen al betere resultaten dan mensen die met scripts werken. AI kan sowieso grote kostenbesparingen opleveren. Bovendien maakt AI complexe systemen en situaties beter inzichtelijk, bijvoorbeeld bij beleggen.

Dat klinkt allemaal geweldig. Maar deze positieve opsomming betekent niet dat AI-gebruik zonder gevaren en risico’s is. Want die zijn er wel degelijk. Denk aan de kwaliteit van de data die AI gebruikt (‘de output is zo goed als je input’), gegevensgebruik en privacy, discriminatie en uitsluitingen. Bovendien ontstaat er een hogere mate van afhankelijkheid van derde partijen. Nog iets: van mensen weten - en accepteren we tot op zekere hoogte - dat er fouten worden gemaakt; bij AI ligt de lat aanzienlijk hoger. Die gevaren en risico’s zijn gelukkig niet onoverkomelijk en onbeheersbaar. Maar iedereen moet zich hier wel bewust van zijn. Toezichthouders dus ook.

Wetgever en toezichthouders zitten niet stil

De overheid ziet deze gevaren en risico’s natuurlijk ook. Zo is er een Europese AI-verordening die onderscheid maakt tussen drie risicogradaties: onacceptabel (verboden), hoog (streng gereguleerd) en laag; bij een laag risico ligt de nadruk op transparantie. Daar is volgens Bart en Lodewijk trouwens nog wel een slag te winnen. Toezichthouders DNB en AFM publiceerden al een rapport over de impact van AI op de financiële sector . De Pensioenfederatie kwam met een gedragslijn (‘AI en Ethiek’) voor de sector, en publiceert binnenkort ook een servicedocument voor het ontwikkelen van AI-beleid.

Bart en Lodewijk gingen vervolgens aan de hand van de gedragslijn dieper in op de ethische kant van de zaak. Die gedragslijn heeft als doel een verantwoord gebruik van AI-toepassingen binnen de pensioensector. De Pensioenfederatie geeft daarbij geen harde voorschriften, maar geeft wel aan dat het gebruiken van AI gebaseerd moet zijn op eerlijkheid, transparantie en uitlegbaarheid. De gedragslijn geeft niet aan hoe een pensioenfonds - en de partijen waarmee het samenwerkt - invulling moeten geven aan de principes. Dat moeten fondsen dus zelf regelen.

De volgende ‘7 Ethische Peilers’ kunnen daarbij helpen:

  1. Verantwoording: duidelijkheid over wie verantwoordelijk is
  2. Menselijke autonomie en controle: AI moet onder menselijk toezicht blijven
  3. Technische robuustheid en veiligheid: AI moet veilig en betrouwbaar zijn
  4. Privacy en data governance: ga goed met persoonsgegevens om
  5. Transparantie en uitlegbaarheid: beslissingen moeten verklaarbaar zijn
  6. Non-discriminatie en rechtvaardigheid: AI mag niet leiden tot uitsluiting en
  7. Maatschappelijk welzijn: impact op de samenleving moet worden meegewogen.

De rol van intern toezicht

En dat brengt ons bij de rol die intern toezicht kan dan wel moeten spelen: wat kunnen interne toezichthouders concreet doen? 

Tijdens de presentatie gaven Bart en Lodewijk genoeg praktische handvatten om mee aan de slag te gaan. Begin met te vragen of het pensioenfonds iets met AI doet en of daar ook een beleid voor is ontwikkeld. Zo niet: waarom niet? Is er wél een beleid? Bespreek dat dan met het bestuur. Enkele relevante vragen zijn:

  • Is er binnen het bestuur voldoende AI-kennis?
    - zo niet: wat doet het bestuur om zijn kennis te vergroten?
  • Welke AI-toepassingen worden ingezet?
    - waarom juist deze?
    - waarom alleen deze?
  • Wat wil het pensioenfonds met de inzet van AI bereiken?
  • Worden de gevaren en risico’s (voldoende) onderkend?
    - zijn deze geclassificeerd (onacceptabel, hoog, laag)?
  • Hoe blijft het bestuur op de hoogte van nieuwe AI-risico’s en regelgeving?
  • Zijn de toepassingen uitlegbaar, kan een deelnemer het begrijpen?
  • Hoe is het toezicht op de externe partij(en) geregeld?
  • Wordt het naleven van de gedragslijn gemonitord en gerapporteerd?

Er zijn dus voldoende vragen om een gesprek aan te gaan met het bestuur.

Conclusie van Bart en Lodewijk: wees niet bang voor AI! Verdiep je als interne toezichthouder in de mogelijkheden die het biedt, en ga experimenteren. Oefen bijvoorbeeld met het stellen van vragen aan ChatGPT. Dat is in het begin een beetje zoeken, maar je wordt er gaandeweg echt meer bedreven in. Houd wel rekening met twee mogelijke valkuilen: tools als ChatGPT zijn nog altijd in ontwikkeling, dus vaar niet blind op de ontvangen suggesties. En blijf je bewust van juridische en ethische grenzen.

Motiveer het bestuur ook hierover in gesprek te gaan met de uitvoerder. Uitvoerders zijn namelijk altijd geïnteresseerd in nieuwe ideeën. Misschien kan er een innovatiebudget worden afgesproken in de uitbestedingsovereenkomst, met een belangrijke rol voor AI.

AI is er nu eenmaal en gaat een steeds grotere rol spelen. De ontwikkelingen gaan ontzettend snel; AI maakt alles sneller, goedkoper en zelfs beter. Ja, er zijn zeker nadelen, gevaren en risico’s. Ga daar verstandig mee om, leer van anderen. Je moet er echt tijd in steken. Maar dan valt er ook genoeg te winnen! 

Leden van VITP kunnen de opname van het webinar terugkijken op het ledengedeelte.  

 

Bestuur VITP

Den Haag, mei 2025