Frans van Bruggen (transcriptie)

Frans van Bruggen te gast bij de Leaders in Finance Compliance Podcast

Voice-over: Welkom bij de Leaders in Finance Compliance Podcast. Met experts, adviseurs, bestuurders en de business bespreken we risk en compliance binnen de financiële wereld en alle uitdagingen en dilemma’s die daarbij horen. Want voor het juiste en rechte pad bestaat geen navigatiesysteem. Deze podcast wordt mede mogelijk gemaakt door KayakCenseDeloitteRabobank, en Osborne Clarke. Je host is Jeroen Broekema.

Jeroen: Welkom luisteraars. Vandaag ben ik niet op mijn vertrouwde plek in Driebergen, maar bij De Nederlandsche Bank in Amsterdam. En tegenover mij zit Frans van Bruggen. Hij is Senior Policy Officer FinTech en Artificial Intelligence. Welkom Frans, en dank dat ik bij jou mag zijn.

Frans: Ja Jeroen, superleuk om te gast te zijn bij jouw podcast en jou te mogen verwelkomen in ons nieuwe kantoor.

Jeroen: Ja, geweldig hoe je mij al eventjes een beetje hebt rondgeleid. Daar hoor ik ongetwijfeld zo nog iets meer over. Maar eerst even voor de luisteraars: waar gaan we het vandaag over hebben: de titel van Frans’ functie is denk ik heel duidelijk: Senior Policy Officer FinTech en Artificial Intelligence. En dat laatste, AI, daar gaan we vandaag met name op inzoomen. Ik wil het breed over AI hebben met jou, maar ook specifiek over AI en het toezicht daarop in de financiële sector, gericht op de luisteraars van Leaders in Finance. Dat is het thema van vandaag. Maar zoals ik al zei, ik ben bij jou te gast. We hebben al even rondgekeken, het is ongelooflijk mooi hier. Kun je iets vertellen over hoe het is om hier te zijn, vergeleken met de tijdelijke locatie waar je eerder zat?

Frans: Ja, het is echt heel prettig om in het nieuwe gebouw te zijn. Allereerst, de locatie aan het Frederiksplein: je zit midden in de stad. En doordat we in een hoge toren werken, heb je natuurlijk een prachtig uitzicht over de hele stad. Verder, het goud is natuurlijk weg uit de kelder, waardoor het gebouw een open karakter heeft. Er is nu een publiek deel, en vanochtend sprak ik een collega van de koffiebar die zei dat het hier een stuk drukker is dan voorheen. Daarnaast is er ook een semi-publiek deel waar je op uitnodiging van een DNB’er kunt komen. Daar kun je bijvoorbeeld studeren of werken. En dan is er nog het gesloten deel waar de DNB’ers zitten, omdat we met toezicht vertrouwelijke informatie verwerken. Dat is dus niet publiek toegankelijk.

Jeroen: En ben jij iemand die overal zijn laptop openklapt, of maakt de omgeving voor jou wel uit?

Frans: De omgeving maakt voor mij uit. Ik kom echt naar kantoor om te vergaderen, maar werken, dingen uitwerken en schrijven doe ik het liefst in stilte. Daar zijn nu in de nieuwe werkplek meer voorzieningen voor, zoals afgesloten ruimtes waar je geconcentreerd kunt werken. Daar is echt goed over nagedacht.

Jeroen: Leuk om jou wat beter te leren kennen, ook in relatie tot AI. Want ik kan me voorstellen dat in deze tijd, als je met AI bezig bent, echt iedereen geïnteresseerd is in wat je doet. Of is dat niet zo?

Frans: Ja, op zich wel. Maar ik heb een beetje last van het Dunning-Kruger-effect. Hoe meer je over een onderwerp leert, hoe meer je beseft dat je er eigenlijk nog weinig van weet. Dus ik ben daar best bescheiden in. Maar er is vanzelfsprekend veel interesse voor AI, en dat maakt het ontzettend interessant om met dit onderwerp bezig te zijn. Ik geniet er echt van en vind het vooral tof om toezicht en AI, twee onderwerpen waar ik een passie voor heb, te kunnen combineren.

Jeroen: Hoe ben je bij AI terechtgekomen? Wat was het moment waarop je deze richting insloeg?

Frans: Nou, ik ben mijn carrière begonnen als management-trainee bij Randstad. In het eerste halfjaar leer je waar het geld verdiend wordt, dus je zit echt in een uitzendkantoor. Maar vrij snel daarna ging ik naar de holding en kwam ik in het Corporate Venture Capital-team terecht. Daar kwam ik in aanraking met technologie: Artificial Intelligence, Blockchain, SaaS-oplossingen, al die dingen. Dit was rond 2016-2017, toen AI nog een stuk minder ver was. Maar zo ben ik ermee in aanraking gekomen, en sindsdien is AI de rode draad in mijn carrière.

Jeroen: En hoe lang werk je nu precies bij De Nederlandsche Bank?

Frans: Vier jaar.

Jeroen: Vier jaar, ja. En hoe ben je hier terechtgekomen?

Frans: De Nederlandsche Bank stond altijd al op mijn radar, omdat hier supergoede, slimme mensen werken. En ik hou ervan om met slimme mensen te werken. Toen kwam er een vacature voorbij waarvan ik dacht: dit past perfect. Daar heb ik op gesolliciteerd. Destijds werkte ik bij de Nederlandse Zorgautoriteit, waar ik in het toezicht begon. Maar ik besefte dat ik meer affiniteit had met de financiële sector dan met de zorg. Dus maakte ik de overstap naar financieel toezicht.

Jeroen: Wat vind je boeiend aan toezicht?

Frans: Het is een unieke positie in de maatschappij. Je hebt de mogelijkheid om te sturen. Toezicht in de meest basale vorm betekent dat de wetgever wetten opstelt en jij controleert of die worden nageleefd. Dat is de oldschool aanpak van toezicht. Maar in de afgelopen 25 jaar zie je een trend waarin toezichthouders een steeds grotere rol krijgen en breder in de maatschappij opereren. Ze worden hoeders van de publieke zaak, vaak in markten waar ze toezicht houden. Ze proberen enerzijds markten te reguleren en anderzijds publieke belangen te beschermen. Die maatschappelijke positie vind ik heel interessant, omdat je met je interventies echt iets kunt toevoegen. Hoe komt het dat die rol van toezichthouders groter wordt? Dat heeft te maken met maatschappelijke complexiteit en wetgeving. Er komen steeds meer open normen in de wetgeving. En open normen vragen om interpretatie. Die interpretatie wordt ofwel door de onder toezicht staande instelling gegeven, ofwel door de toezichthouder. Toezichthouders geven daarom steeds vaker guidance op open normen, waardoor hun rol automatisch groter wordt.

Jeroen: Je bent een zeer actief man. Want je doet naast deze baan, waarvan ik me kan voorstellen dat die vrij intensief is, ook nog een PhD. 

Frans: Ja, klopt. 

Jeroen: Hoe hou je het in je hoofd om dat er nog even bij te gaan doen?

Frans: Ja, nou kijk, DNB stimuleert onderzoek heel erg. Over het algemeen hebben we hier natuurlijk veel economisch en econometrisch onderzoek. Dus toen ik aankwam met mijn bestuurskundeonderzoek, dacht onze head of research wel van: oh, is dat ook een studie? Dat vond ik wel grappig. Maar goed, we zijn natuurlijk een publieke organisatie en een toezichthouder. Het is misschien goed om te zeggen dat DNB eigenlijk twee organisaties is: je hebt de centrale bank en je hebt de toezichthouder. En ik werk echt bij de toezichthouder. DNB stimuleert het erg om wetenschappelijk onderzoek te doen. Zodoende werk ik twee dagen in de week aan de Universiteit Utrecht aan een proefschrift. Daar krijg ik tijd voor van De Nederlandsche Bank. Dat is een geldpotje dat van de centrale bankkant komt, want de toezichthouder wordt gefinancierd, zoals je ongetwijfeld weet, door de financiële sector zelf. Het onderzoek wordt dan echt gefinancierd vanuit de centrale bankkant, zodat de sector daar niet voor hoeft te betalen.

Jeroen: Bestuurskunde, niets dan goeds over die studie, want dat heb ik zelf ooit gestudeerd. Dus ik begrijp het helemaal. Maar wat voor soort onderzoek doe je?

Frans: Ja, ik doe onderzoek naar wat ik net beschreef. De afgelopen 25 jaar zie je een verbreding van de toezichttaken die toezichthouders zichzelf toeschrijven. Er wordt steeds meer van toezichthouders verwacht. Als er iets misgaat—kijk naar Groningen—dan krijgt de toezichthouder het te verduren. In dat geval was het het Staatstoezicht op de mijnen. Maar bijvoorbeeld met woekerpolissen of de financiële crisis, die voor DNB niet zo prettig was, wordt er altijd gekeken: waar was het toezicht? Die rol wordt dus steeds groter, onder andere door de open normen die ik net noemde. Ik zeg dan: oké, de ruggengraat van toezicht is eigenlijk je juridische mandaat. Dat is waar je vertrekt. We gaan echter steeds breder onze taken uitvoeren, en dat zorgt voor verschillende problemen. Ten eerste legitimiteitsproblemen. Als je ingrijpt in de markt, is er dan maatschappelijke legitimiteit? Accepteren burgers het wel? Is er democratische legitimiteit? We zijn geen democratisch verkozen instelling, maar we doen wel ingrijpende interventies in de maatschappij. Dat is een legitimiteitsvraagstuk. Daarnaast is er een verantwoordingsvraagstuk. Hoe toon je aan dat je als toezichthouder effectief bent? Dat je toezicht zin heeft? We hoeven niet onder stoelen of banken te steken dat toezichtslasten ook gewoon bestaan, zoals veel administratieve lasten. Voor de sector die onder toezicht staat, betekent dat dat je moet kunnen aantonen dat toezicht daadwerkelijk nut heeft. Dat is een beetje de heilige graal in de toezichtswetenschap: wanneer ben je effectief? Je zou kunnen zeggen dat als er niets gebeurt, je het goed hebt gedaan, maar hoe toon je dat aan? Dat blijft heel moeilijk. Zeker als je bredere doelen en een breder mandaat hebt, wordt het nog lastiger om effectiviteit aan te tonen. Het derde probleem noem ik het handelingsperspectief. Op basis van welk referentiekader nemen toezichthouders besluiten? Vroeger gebeurde dat op basis van het wettelijke kader dat ten grondslag lag aan het mandaat van de toezichthouder. Nu spelen publieke waarden en publieke belangen een veel grotere rol. Dat zijn echter abstracte begrippen, die door verschillende individuen anders kunnen worden geïnterpreteerd. Daardoor kunnen waardenconflicten ontstaan. Dit gaat dus heel erg over de problemen in de besluitvorming van toezichthouders die door de bredere taakstelling kunnen ontstaan.

Jeroen: Wauw, super interessant. Gebruik je ook veel data of kennis vanuit DNB voor je onderzoek?

Frans: Nog niet. Ik ben op dit moment bezig met mijn eerste empirische studie. Het theoretische stuk heb ik grotendeels afgerond. Nu analyseer ik het beleidsdebat over toezicht van de afgelopen 25 jaar. De volgende stap is onderzoek doen naar hoe dit in de bestuurskamers en op de strategieafdelingen werkt. De derde empirische studie zal gaan over hoe dit in het uitvoerend toezicht wordt toegepast. Hoe wordt die grotere discretionaire ruimte voor uitvoerende toezichthouders in de praktijk benut bij besluitvorming?

Jeroen: En dat laatste zal hier natuurlijk heel interessant kunnen zijn om als eerste te bekijken, of niet?

Frans: Ja, dat zou kunnen. We gaan waarschijnlijk met vier casussen aan de slag. Toezicht op AI is natuurlijk een nieuwe toezichtskwestie, dus het ligt voor de hand om dat als een van de casussen te nemen.

Jeroen: Super interessant onderwerp. Maar ik ga mezelf uitnodigen voor je verdediging straks, als jij doctor wordt. Hoeveel jaar moet het nog duren?

Frans: Ja, moeilijk te zeggen. Het hangt er ook een beetje vanaf hoe druk het is. Spannende uitspraak dit. Hoe mijn privésituatie zich ontwikkelt speelt mee, en natuurlijk is het bij DNB ook gewoon druk. Er komt veel op ons af, zeker op het gebied van AI.

Jeroen: Ja, dat kan ik me voorstellen. Over die rol van De Nederlandsche Bank in het hele Artificial Intelligence-debat, en het toezicht en alles wat daarin gebeurt de laatste tijd. Het is natuurlijk een ontzettend snel veranderend landschap. Maar even heel erg naar de kern: waar komt DNB – of het nou als toezichthouder is, neem aan dat we daar op focussen, misschien zelfs als centrale bankier, maar vooral als toezichthouder – waar raakt DNB AI? Waar zit het allemaal?

Frans: Ik denk op veel plekken. Als je kijkt naar DNB en AI, en als je kijkt naar ons huidige toezichtsmandaat en het toezicht dat wij uitvoeren, dat is in principe technologieneutraal. Dus als dat door AI wordt uitgevoerd, betekent het nog steeds dat wij toezicht moeten houden, en dus nu al toezicht op AI moeten uitvoeren. Een goed voorbeeld daarvan is bijvoorbeeld transactiemonitoring in het anti-witwasdomein. Als er AI wordt gebruikt in die transactiemonitoring, houden wij daar toezicht op. Dus dan houden wij ook toezicht op AI. Dus allereerst heb je het bestaande wettelijke kader, en daar staan ook al bepaalde normen in die van invloed kunnen zijn op AI. Bijvoorbeeld bij interne modellen die de buffers berekenen bij banken. Op dit moment zijn dat voornamelijk systemen waar nog geen AI wordt ingezet. Dat komt omdat er in de CRD – de Capital Requirements Directive en Regulation – bepaalde vereisten staan dat die interne modellen transparant moeten zijn. Dus als jij een heel complex AI-systeem gaat inzetten en niet meer kan uitleggen hoe dat systeem werkt, dan gaan de prudentiële toezichthouders zeggen: nee, we willen graag snappen hoe het werkt. Want anders kan je straks de bank misschien laten omvallen of te weinig buffers hebben. Een bankrun is natuurlijk de grootste nachtmerrie van de prudentiële toezichthouder.

Jeroen: Ja, dat snap ik. Dus even kijken, om het landschap te schetsen. Het gaat dus over wat financiële instellingen intern gebruiken voor AI. Maar ik neem aan ook wat ze extern gebruiken voor producten richting klanten? Valt dat ook onder jullie, of gaat dat richting de AFM?

Frans: Dat gaat ook richting de AFM. De AFM speelt hier natuurlijk een hele belangrijke rol, omdat zij over het klantbelang gaan. Een van de grootste risico’s van AI is natuurlijk dat klantbelangen geschaad kunnen worden, bijvoorbeeld doordat klanten uitgesloten worden. Dus dat is een aspect. Daarnaast heb je handelsalgoritmes, en daar is het gebruik van AI in de financiële sector echt het verst ontwikkeld. De AFM heeft daar volgens mij vorig jaar ook een rapport over gepubliceerd, dus zij zitten daar echt goed bovenop. Maar de AFM speelt hier dus zeker ook een grote rol. Ook hier doen we het gewoon samen binnen het bestaande mandaat. En wat er natuurlijk bij gaat komen, is de AI Act. Die is op 2 augustus 2024 in werking getreden en wordt gefaseerd ingevoerd gedurende twee jaar. Daarin staan ook bepaalde toepassingen die betrekking hebben op de financiële sector, en waarschijnlijk – want het is nog niet allemaal zeker – zullen de financiële toezichthouders daar toezicht op gaan houden.

Jeroen: Er zijn veel zijpaden die we hier kunnen bewandelen, maar laten we er een paar kiezen. De AI Act kom ik uiteraard zo meteen uitgebreid op terug, want daar wil ik echt veel meer over leren. Maar eerst nog even over die handelsalgoritmes, om duidelijk te krijgen dat ik dat goed begrijp. Dan heb je het over financiële instellingen die voor eigen boek handelen? Of traders en dat soort partijen?

Frans: Begrijp ik dat goed? Ja, het zijn echt handelsalgoritmes. En daar zitten natuurlijk bepaalde risico’s in. In 2010 is er bijvoorbeeld een flash crash geweest. En daar kan het bijvoorbeeld zijn… Je kan bijvoorbeeld één handelsalgoritme hebben dat niet transparant is, dus dat je niet weet hoe het werkt. Maar wat als er twee handelsalgoritmes of tradingmodellen tegenover elkaar gaan inwerken? Dan snap je al helemaal niet meer wat er gebeurt. En wat als het tien tradingalgoritmes zijn die op elkaar inwerken? Of honderd, of duizend? Daar zit gewoon echt wel een systeemrisico in. En daar moeten we in ieder geval goed over nadenken, zodat het niet uit de hand loopt. De AFM zit daar wel echt bovenop, hoor. Dus dat is ook wel heel goed van ze.

Jeroen: Want het tweede zijpad dat ik wilde bewandelen, is mensen. Met hoeveel mensen doen jullie dit? Want ik kan me voorstellen dat er nu overal in die sector geëxperimenteerd wordt. Ik zie allerlei AI-toepassingen, van heel klein tot heel geavanceerd, worden getest. Dan heb je best wel wat mensen nodig. Hoeveel mensen werken hier eigenlijk aan? Vanuit jullie, vanuit DNB, vanuit de AFM?

Frans: Nou, wat we nu natuurlijk heel erg hebben, is dat zowel echt uitvoerende toezichthouders… Ik zit bij de strategieafdeling. Dus eigenlijk zien we dat de strategieafdeling, de technologie- en strategieafdeling waar ik onderdeel van ben, samen met uitvoerend toezicht op dit moment aan het kijken is: wat gebeurt er al? En hoe kunnen we dat toezicht ontwikkelen? Toezicht op modellen doen wij al heel lang. Toezicht op de interne modellen is zo’n beetje onze corebusiness. Maar als er echt AI-componenten bijkomen, dus zelflerende componenten, ja, dan wordt het ingewikkelder. Want dan krijg je vraagstukken die anders zijn dan het toezicht zoals we dat nu doen. Dus een voorbeeld: als je naar AI kijkt, gaat het ook heel erg over fundamentele rechten, menselijke waardigheid, consumentenbescherming, non-discriminatie en uitlegbaarheid van de modellen. Uitlegbaarheid kennen we al wel, maar als je bijvoorbeeld kijkt naar non-discriminatie, is dat natuurlijk een hele nieuwe vorm van toezicht. We moeten ons daar waarschijnlijk toe gaan verhouden. Er is een grote kans dat we toezichtstaken krijgen uit de AI-wetgeving. Dat is nog niet zeker, maar er ligt een advies van de Nederlandse toezichthouders, en daarin staat eigenlijk dat AFM en DNB de toezichtstaken op zich gaan nemen voor AI-toepassingen die in de hoogrisicocategorie vallen en gerelateerd zijn aan financiële producten. Dus dat betekent dat bijvoorbeeld AI-systemen die in HR-processen van financiële instellingen worden ingezet en als hoog risico worden beschouwd, niet onder ons toezicht vallen, omdat ze niet direct gerelateerd zijn aan een financieel product.

Jeroen: Dat is wel interessant, dat wist ik niet. Dus het moet nog officieel besloten worden wie het toezicht op de AI-wetgeving in Nederland op zich gaat nemen? 

Frans: Ja

Jeroen: Maar ik neem aan dat het in Europa in principe altijd de toezichthouders zijn? De centrale banken of de AFMs.

Frans: In de AI-wet wordt een voorzet gegeven en daarin wordt eigenlijk gezegd: de financiële sector is zo zwaar gereguleerd ten opzichte van andere sectoren dat het logisch zou zijn om het AI-toezicht mee te laten lopen met de bestaande toezichtsprocessen daar. In het verlengde daarvan zou het dus logisch zijn dat de financiële toezichthouders dit toezicht voor de financiële sector gaan uitvoeren.

Jeroen: Het verbaast me wel, want het is een verordening. Die is toch in één keer geldend voor iedereen? Het is geen richtlijn, die natuurlijk omgezet moet worden in nationale wetgeving. Je zou zeggen dat het gewoon in die wet wordt vastgelegd. Waarom hebben ze dan toch die vrijheid gelaten om per land te kiezen wie het toezicht houdt?

Frans: Omdat het toezicht per land anders is geregeld. 

Jeroen: Ook met die open normen. 

Frans: Gedeeltelijk open normen. Je moet daar wel enige vrijheid in geven. Er is één market surveillance authority, de coördinerende toezichthouder, die in elk land moet worden aangewezen. Daarnaast zouden er in de financiële sector nog aparte market surveillance authorities kunnen worden aangewezen, specifiek voor de financiële sector. Maar het kan ook zo zijn dat die taken voor de financiële sector niet bij financiële toezichthouders liggen. In verschillende landen is hier veel beweging in. Ik doe veel werk bij de Europese Bankenautoriteit, en daar zie je dat landen hier erg mee worstelen. Hoe moeten we dit nu organiseren? In sommige landen zegt de politiek: we willen het centraal beleggen bij één toezichthouder. Dan zegt de financiële toezichthouder: dat vind ik helemaal niet fijn, ik heb liever dat wij het zelf doen. Het mooie in Nederland is dat wij in Europa – zonder arrogant te zijn – het verst zijn in de denkwijze hierover. Op nationaal niveau zie je dat twee toezichthouders, de Rijksinspectie Digitale Infrastructuur (RDI) en de Autoriteit Persoonsgegevens (AP), gezamenlijk de handschoen hebben opgepakt en dat advies hebben gecoördineerd. Daarin staat eigenlijk dat de RDI en de AP samen die coördinerende rol gaan krijgen.

Jeroen: Nog even over de RDI?

Frans: Rijksinspectie Digitale Infrastructuur. Oorspronkelijk Agentschap Telecom, zij houden toezicht op onze digitale infrastructuur en de veiligheid daarvan. Zij zullen met name toezicht houden op – ik noem het voor het gemak even – AI-producten. Dus producten met een CE-keurmerk: speelgoed, graafmachines, elektrische auto’s, medische apparatuur, enzovoort. De AP zal zich meer richten op fundamentele rechten. En ik zal zo misschien wat meer vertellen over AI, vooral over de hoogrisicotoepassingen die zijn geïdentificeerd. Daar zou het primaire toezicht bij de AP liggen, en voor de financiële sector bij de AFM en DNB. Dan is er ook nog de vraag: wat gaat DNB doen, en wat gaat de AFM doen? Dat is nog niet duidelijk.

Voice-over: Je luistert naar de Leaders in Finance Compliance Podcast.

Jeroen: Je kondigde zelf al je minicollege aan door te zeggen: ik zal zo wat meer vertellen over de AI-act, want daar wil ik heel graag meer over leren. Vooral wil ik goed begrijpen voor wie dit nou is en wat uiteindelijk de gedachte hierachter is. Je zei al dat deze in augustus 2024 in werking is getreden. Ik begreep dat op 2 februari, kort geleden, weer een volgend deel in werking is getreden. Maar misschien eerst naar de kern: wat is de algemene gedachte achter deze AI-act?

Frans: De algemene gedachte achter de AI-act is dat we de Europese waarden willen beschermen. Daarom reguleren we AI om die waarden te waarborgen. Dit gaat over fundamentele rechten, non-discriminatie, menselijke waardigheid – eigenlijk wat Europa de afgelopen zes à zeven jaar heel sterk heeft gedaan met digitale regelgeving. We zijn begonnen met de GDPR, de Digital Markets Act, de Digital Services Act en de Data Act. We hebben MiCAR gehad voor crypto en DORA voor operationele weerbaarheid in de financiële sector. De Europese Commissie is dus heel actief bezig met het reguleren van technologie om onze Europese waarden te beschermen. Het probleem is dat de grote techspelers niet in Europa zitten. Dat is jammer. In de VS heerst een laissez-faire-benadering: ga maar ontwikkelen. Zeker nu, met Trump die alleen maar aan het dereguleren is. In China is er veel staatscontrole op de technologiesector, maar ze zijn ook bezig met stille expansie over de wereld. Wij hebben eigenlijk een techsector die verwaarloosbaar is.

Jeroen: Is het echt zo erg?

Frans: Ja, dat is wel ernstig. Als je naar het Draghi-rapport kijkt, zie je dat we nu een achterstand van 30% op het BBP van de Verenigde Staten hebben, en dat dit volledig toe te schrijven is aan de opkomst van big tech. En wij hebben dat gewoon niet. Ja, we hebben Spotify en Booking…

Jeroen: ASML?

Frans: Ja, maar ASML vind ik geen big tech. ASML maakt de machines die chips produceren. Die chips worden vervolgens in datacenters geplaatst en gebruikt door Meta en Google om AI mee te trainen. Dat is best ver weg.

Jeroen: Maar als je naar Taiwan kijkt, draait alles daar juist om de chips zelf, niet de machine. Indirect is het dus toch gerelateerd.

Frans: Ja, over chips is een heel interessant boek geschreven, Chip Wars. De auteur is me even ontschoten.

Jeroen: We zetten het wel in de show notes.

Frans: Ja, het is een waanzinnig interessante geopolitieke discussie. Wat ASML doet, laat dat duidelijk zijn, is bijna buitenaards knap. Het is hypernatuurkundig werk. Zij kunnen transistoren op chips maken die slechts een paar atomen groot zijn. Dat is echt topnatuurkunde.

Jeroen: Nederland als voorbeeld. Maar misschien zijn we wel te somber door te zeggen dat China en Amerika ver voorop lopen. Kijk bijvoorbeeld naar DeepSeek, misschien kan Europa zich daaraan vastklampen. Als het echt met zes miljoen is ontwikkeld – als die cijfers kloppen – dan is er nog hoop. We moeten wakker worden, maar er is nog een kans.

Frans: Ja, dat klopt. Ik kan hier ook weer naar een boek verwijzen. Ik houd erg van deze onderwerpen. Haroon Sheikh heeft voor de WRR een rapport geschreven over AI en een over de geopolitieke situatie. Hij zegt dat je de ontwikkeling van technologie als een stack moet bekijken: verschillende lagen met elk een eigen geopolitieke dimensie. Je begint met kritische grondstoffen. Hoe staan we ervoor? Niet zo goed. Groenland is nu een speelbal, onder andere vanwege deze kwestie. Maar die grondstoffen zijn nodig om technologie te ontwikkelen. Sheikh onderscheidt volgens mij zeven of acht lagen: netwerken, cloud, AI, generatieve AI-systemen, applicaties die hierop worden gebouwd, enzovoort. Op sommige stackniveaus doen we het best goed, zoals bij netwerken met Nokia en nog een andere Scandinavische partij die hier sterk in is.

Jeroen: Ericsson?

Frans: Ericsson, klopt, ja. En Chips is er één. Nou, daar zitten we met ASML natuurlijk goed, want die hebben gewoon een monopolie. Ze hebben 90% van de markt. Maar op chipniveau zit het dus goed en hebben we een goede geopolitieke positie. Maar als je kijkt naar de ontwikkeling van cloud en de ontwikkeling van AI, van generative AI, ja, dat hebben we praktisch niet. We hebben geen Europese cloudoplossing. We hebben het met Gaia-X geprobeerd, wat een soort standaardisering is, zodat je meerdere kleine cloudpartijen op elkaar kan aansluiten.

Jeroen: Maar goed, jij bent dus vrij somber daarover. Dus daar kunnen we over discussiëren of dat terecht is of niet. Laten we hopen dat je ongelijk krijgt. Dat wil je zelf waarschijnlijk ook. Maar dan komt natuurlijk de hele interessante vraag vanuit toezicht gezien. Ik lees even voor vanaf de website van de Europese Commissie. De allereerste zin bij de AI Act-toelichting, gewoon voor het algemene publiek zoals ik, stelt dat de AI Act “the first ever legal framework on AI” is, “which addresses the risks of AI and positions Europe to play a leading role.” En nou komt het: “globally.” Dus het idee is heel erg dat wij, Europa, hiermee de standaard gaan zetten. Is dat wel reëel, of is dit een beetje hoogmoedig? Je zegt immers zelf dat je de grote AI-trend hebt gemist—even mijn woorden, maar dat komt redelijk overeen met jouw verhaal—en tegelijkertijd denk je toch dat je het allemaal wel even kan reguleren.

Frans: Ja, dat is een goed punt. Over het algemeen wordt dit het Brussels effect genoemd: je hoopt dat de standaarden die je opstelt wereldwijd toepasbaar zijn. Ik ben ervan overtuigd dat we AI moeten reguleren. Zoals elke nieuwe technologie gereguleerd wordt, moet ook AI gereguleerd worden. Als je het volledig de vrije loop laat, gaan er ongelukken gebeuren, omdat de modellen niet goed presteren of omdat het model zijdoelen gaat krijgen. Een goed voorbeeld daarvan is social media. Kijk naar de algoritmes die draaien op social media: die hebben als doel de gebruikers zo lang mogelijk op het platform te houden om zoveel mogelijk advertenties te tonen. Want daaraan verdienen ze geld. Wat is het zijdoel? Dan kom je in een filterbubbel terecht en kun je radicaliseren en allerlei extreme denkbeelden ontwikkelen.

Jeroen: Mag ik je onderbreken? Ik lees nu net nagenoeg het boek van Harari uit, waarin hij heel mooi beschrijft hoe de algoritmes van Meta, toen Facebook, in het voormalige Birma—dan moet ik even de juiste naam zeggen, Myanmar—ervoor zorgden dat die Rohingya’s slachtoffer werden van grootschalig geweld. Het heeft tienduizenden, misschien wel honderdduizend doden gekost, omdat die algoritmes een bepaalde kant op gingen. Ik heb het niet ge-factcheckt, maar neem aan dat Harari dat wel gedaan heeft. Maar dat is dus de angstaanjagende consequentie ervan.

Frans: Absoluut, absoluut. En het is niet het doel van Facebook om dit te doen. Het doel is geld verdienen, en daarvoor zet je AI in. Maar een consequentie daarvan is dan—ik ken dit specifieke voorbeeld niet—dat dit kan gebeuren. Een andere consequentie is bijvoorbeeld Brexit. Social media heeft daar met Cambridge Analytica een hele grote rol in gespeeld. Cambridge Analytica was erop gebouwd om te zeggen: “Oké, wij hebben een politiek doel. Hoe manipuleren we socialmediagebruikers zodanig dat ze een bepaalde soort content te zien krijgen en deze richting opgaan?” Dat heeft veel effect gehad. Engeland is er niet veel beter van geworden.

Jeroen: Wat jij zegt, is een heel belangrijk punt. Misschien was het bij het Rohingya-voorbeeld nog niet eens intentioneel. Bij Cambridge Analytica weet ik het niet precies. Maar moet je nagaan wat er gebeurt als het wél intentioneel wordt.

Frans: Ja, dat is eigenlijk het grootste risico: het doel waarmee we het AI-model maken, is negatief of gevaarlijk. Dan kun je bijvoorbeeld denken aan de discussie over killer robots, dus het gebruik van AI in defensie. Er is veel discussie over: willen we dat? Maar AI kan, net als elke technologie of elk stuk gereedschap, op een goede en een slechte manier worden ingezet. De technologie zelf is neutraal, maar de intentie waarmee je haar inzet en het doel dat je in het model programmeert, kunnen wel degelijk heel schadelijk zijn.

Jeroen: Terug naar de eerdere vraag. Is het arrogant, is het terecht? Jij hebt nu geconstateerd dat het wat jou betreft sowieso om regulering vraagt, om toezicht vraagt. Maar is het vanuit Europa terecht of reëel om te denken… misschien is dat het betere woord, reëel om te denken… dat we vanuit Europa de leading role kunnen spelen, zoals de eerste zin van de Europese Commissie stelt?

Frans: Ja, dat is een goede vraag. Je ziet nu natuurlijk wel een hele sterke trend van deregulering. Ook bij de Commissie nu. Ik zie het nu met name op duurzaamheid heel erg.

Jeroen: Ja, met die omnibuswet van de CSRD.

Frans: Dus ik zie de discussie nog niet rondom de techwetten. Maar ik denk dat je wel heel goed moet nadenken over wat ook de geest van de wet is. Dus als je bijvoorbeeld kijkt naar GDPR… dat de lokale voetbalvereniging heel spastisch bezig is met databescherming. Dat is niet de geest van de wet. De geest van de wet is gewoon dat je data privacy… ik denk met name op big techs gericht… en dat er niet met datahandel en dat soort dingen gebeurt, waar de AP steeds meer mee bezig is. Daar ben ik ook een grote voorstander van. Maar het moet wel proportioneel zijn. En daar is dan ook de rol van toezicht, denk ik… om uit te leggen: joh, wat bedoelen we hier nou eigenlijk mee? En ik denk dat dat heel erg belangrijk gaat worden. Want er ontstaat natuurlijk het risico dat zo meteen elk model dat ook maar ruikt naar AI, omgeven wordt door een hele hoop compliance-rommel. En dat kan de innovatie inderdaad echt schaden. Dus het moet proportioneel zijn.

Jeroen: Ja, en volgens mij is een van de hoofdargumenten om te zeggen dat dit niet hoogmoedig is van de Europese Commissie… dat nog steeds elke top 1000 multinational in de wereld—ik noem maar wat randoms—zaken wil doen in Europa. Dus het is onmogelijk voor die top 1000, denk ik, om geen zaken meer in Europa te doen. Dus ja, dan moet je iets.

Frans: Ja, en dat is natuurlijk het idee van het Brussels effect. Omdat je in Europa zaken wilt doen, ga je het maar voor de hele wereld opleggen. En ja, dat is natuurlijk op zich heel goed. Wat je ook steeds meer ziet, is dat Europa ook wel wakker wordt en inziet: joh, we moeten echt in onze eigen AI-infrastructuur gaan investeren. Maar eerlijk, we lopen zo ver achter. Maar goed, dat neemt niet weg dat we het wel moeten doen. Maar ik juich toe dat dit gebeurt. Ik denk dat het heel belangrijk is. Maar nogmaals, proportionaliteit is cruciaal. Dat we de samenleving niet platleggen met onrealistische of irrationele interpretaties van de wet.

Jeroen: Duidelijk. Dus echt gericht, mijn woorden, op de uitwassen. Die eruit halen, maar daarnaast ook nog ruimte laten voor experimenteren. Ik geloof dat er ook een sandbox is, toch? Favoriet woord van toezichthouders.

Frans: Ja, nee. Er is in de AI-act ook nadrukkelijk… Als je kijkt naar de rol van de toezichthouder, daar zit heel erg een risicomitigerende rol in. Maar er wordt ook expliciet een rol voor innovatie benoemd. Dus het niet hinderen van innovatie. En de regulatory sandbox is een wettelijke verplichting die elk land moet invoeren. En daar zijn op dit moment onder aanvoering van EZ, Economische Zaken, de AP en RDI mee bezig. DNB is ook aangehaakt bij dat initiatief.

Jeroen: Je hebt heel mooi uitgelegd hoe die gedachte achter de AI-act is. Wat is verder de AI-act? Wat is op hoofdlijnen in het minicollege van vandaag… wat is nu echt belangrijk om te weten?

Frans: Het is een risicogebaseerde benadering. Dus dat betekent dat er verschillende risicocategorieën zijn. Wat ik zelf een groot gebrek van de wet vind, is dat de rationale die ten grondslag ligt aan de risicoclassificatie niet transparant is.

Jeroen: Dat moet je toelichten, ja.

Frans: Normaal gesproken, als je een risicoclassificatie maakt, dan zeg je wat de variabelen zijn op basis van hoe hoog het risico is. Dat is vaak de kans dat het risico zich voordoet, en de impact van het risico. De x- en de y-as. In het risicomanagement is dat heel normaal. Alles wat rechtsboven is, wordt verboden of streng in de gaten gehouden. Hier is dat niet gedaan. Dus wat je ziet, er zijn vier risicocategorieën. Je hebt verboden toepassingen. Je hebt hoogrisicotoepassingen. Je hebt limited risk-toepassingen. En je hebt toepassingen waar geen risico…

Jeroen: Even een kort voorbeeld. Heb je die uit je hoofd?

Frans: Ja, dat wil ik ook. En waarom ik zeg dat het redelijk arbitrair is gekozen welke toepassingen in welke categorieën vallen, is omdat die onderliggende rationale er niet is. Dus dat is een klein punt van kritiek. Maar nogmaals, heel goed dat het er is. Verboden: social scoring. Het voorbeeld in China wordt altijd genoemd. Dat je een soort van score krijgt van hoe goed je als burger bent. En als je score hoog is, krijg je toegang tot leningen, een auto, al dat soort dingen. 

Jeroen: Maar dat is wel interessant. Een financial scoring mag nog wel. Dat is ook al een soort van social scoring. Niet omdat je door het rookgebied bent gewandeld, maar wel omdat je misschien één keer je telefoon niet betaalt. Het BKR is dan een voorbeeld van social scoring voor de financiële sector, toch?

Frans: Ja, je slaat de spijker op zijn kop. Hier hebben we al uitvoerige discussies over gehad. En dat gaat nog wel een ding worden. Als je bijvoorbeeld kijkt in het aanmeldomein, is het steeds gebruikelijker dat klanten bijna continu gemonitord worden op risico. En dan kun je eigenlijk zeggen: is dat niet een vorm van social scoring? En wat ik zelf denk… een van de hoogrisicotoepassingen in de financiële sector is creditworthiness assessment of natural persons voor kredietverstrekkers. En daarvan kun je zeggen: als je iemands social score bijhoudt, of zijn kredietwaardigheid bijhoudt, dan benadert dat ook social scoring. En ik zeg dan, het gaat ook om tijdelijkheid. Dus als je dat continu doet, is dat wat mij betreft social scoring potentieel. Maar als je zegt, deze persoon vraagt nu een lening aan, en je doet dan de profiling en het risicoprofiel, et cetera, dan denk ik niet dat het verboden zou worden.

Jeroen: Dat vind ik een heel sterk punt. En het andere punt dat bij mij naar boven komt… is dat je het gaat koppelen aan hele andere activiteiten. Dus wat voor soort dingen schrijft iemand op social media? Of heeft iemand een bekeuring gehad voor door rood rijden? Dan wordt het helemaal tricky. Als je het echt puur financieel houdt… dan is er nog wat voor te zeggen… samen met jouw punt van de tijdelijkheid. Maar goed, ik zit even hard mee te denken. Ik word helemaal enthousiast van deze gedachte.

Frans: De kwestie van welke datapunten je meeneemt in je model… om te voorspellen of iemand kredietwaardig is… of een premiumbepaling voor een verzekeraar… is onderwerp van discussie. En dat komt… Je mag natuurlijk niet discrimineren. Dus je kunt niet seksuele oriëntatie, geslacht, geloof al dat soort dingen mag je allemaal niet meenemen. Maar wat je wel hebt, zijn proxies. En proxies betekent eigenlijk een afgeleide van een kenmerk… waarop je gediscrimineerd kunt worden. Dus bijvoorbeeld postcode is een hele bekende. En er zijn voorbeelden van verzekeraars in het Verenigd Koninkrijk die postcode. Je gaat een schadeverzekering voor je auto afsluiten. Het is voor een verzekeraar best relevant om te weten of jij in Amsterdam woont of ergens op het platteland, bij wijze van spreken. Want de kans in de stad is groter dat je schade krijgt. Maar er zijn ook bepaalde postcodes waar een bepaalde sociaal-culturele groepering woont. Dus wat is aangetoond, is dat mensen met een bepaalde sociaal-culturele achtergrond ongeveer 150 tot 200 pond meer per jaar betalen, alleen door de postcode waar ze in wonen. En dat kan dan weer gerelateerd worden aan de etniciteit. En dat is natuurlijk zorgelijk. Dus dan krijg je de discussie bij de Europese Verzekeringsinstituten van 1. Prudentieel. Je wilt een goede modelperformance, je wilt goed kunnen voorspellen. En daarom is het belangrijk om het datapunt postcode mee te nemen. Omdat dat gewoon goed kan voorspellen of je wel of niet schade kunt krijgen. Maar aan de andere kant wil je ook niet discrimineren.

Jeroen: Ontzettend ingewikkeld. Want vroeger, nog voordat er überhaupt iets was… op het gebied van techniek zo’n beetje. Meer dan 20 jaar geleden was er wel veel techniek, maar niet zoals nu. De banken die leningen wilden verkopen, conceptieve kredieten… die wisten ook, onze marketingbriefjes sturen naar bepaalde postcodegebieden. Daar hebben we gewoon veel meer kans. In feite ook al discrimineren. Maar je maakt onderscheid. Best wel ingewikkeld onderwerp. Ook risk-based impliceert eigenlijk al discriminatie. Alleen je wilt niet dat op bepaalde dingen gediscrimineerd wordt. Dat jij en ik een blauwe trui aanhebben vandaag daar wil je misschien niet op discrimineren. Maar misschien wel op het feit dat ik vorige keer mijn lening niet heb terugbetaald.

Frans: Wat belangrijk is, is dat algoritmes per definitie onderscheid maken. Dat is de taak van een algoritme. De vraag is: wanneer is het onderscheid dat je maakt onrechtvaardig? En als dat zo is, moet je proberen het te vermijden. Maar dat er op basis van kenmerken onderscheid wordt gemaakt, is natuurlijk in principe de essentie van het actuariaat in de verzekeringssector. De essentie van credit risk in de banksector. Dat is gewoon de kern van de business. Het gaat echt om het nadenken over wat een rechtvaardig onderscheid is… en wat dat niet is.

Jeroen: Helder, maar best wel ingewikkeld. Soms bijna politiek-filosofische discussies.

Frans: Ja, dat is gewoon data-ethiek. Daar komt echt ethiek bij kijken. En algorithmic fairness staat ook in de AI Act. Dat is gewoon een heel belangrijk onderdeel. Want het is wel duidelijk dat algoritmes kunnen discrimineren. Dat weten we. Dus dat is echt een belangrijk onderdeel van het hele AI-toezicht.

Jeroen: Wat moeten we verder nog in die kern weten van de AI Act?

Frans: Ja, we waren al bij social scoring, maar er zijn meerdere toepassingen die verboden zijn. Zoals emotieherkenning in het onderwijs en op het werk. Gezichtsherkenning in openbare ruimtes. Het gebruik van biometrische gegevens om in openbare ruimtes mensen te identificeren. Het manipuleren. En dat gebeurt toch ook constant als je over de A2-reking wordt geflitst? Ja, maar het gaat echt specifiek over biometrische dingen. Dus met name gezichtsherkenning. En het mag dan alleen wel ingezet worden als er echt iemand gezocht wordt. Dus bijvoorbeeld Peter de Vries wordt geliquideerd, en dan mag het wel. Maar verder niet. En wat verder niet mag, is in criminele predictive policing. Dus dat een politie voorspelt op basis van een AI-model waar zij verwachten dat die dag veel criminaliteit zal plaatsvinden. En wat gebeurt er dan? Dan ga je daar naartoe en pak je daar veel mensen op.

Jeroen: En dan voer je… Zelfversterkend?

Frans: Het is zelfversterkend. Dan voer je dat in het model. En dan zegt het model: je moet hier nog sterker naartoe. En dan pak je er weer mensen op. En voordat je het weet, pak je alleen maar meer mensen op in, ik zeg maar wat, Amsterdam-Zuid en niet meer in Oud-West. En dan is er op een gegeven moment geen politie meer in Oud-West. Dus dat wordt verboden. Wat verder verboden wordt, is ook het voorspellen van iemands recidiverisico. Of het risico dat iemand criminele activiteiten gaat ontplooien. En even kijken wat nog meer… Ja, dus het manipuleren, het echt manipuleren van… Dus dat is ook weer social media, Cambridge Analytica. In het onderbewustzijn van mensen kruipen en iemand manipuleren om iets te doen wat ze misschien niet zouden willen. Wauw. Dus dat is verboden. Ik kan nog door naar high-risk. 

Jeroen: Ja, graag. Nee, ik hang aan je lippen. Het is bizar dat je dit allemaal uit je hoofd doet. 

Frans: Verboden is gewoon verboden, mag niet. En daar is dan de toezichthouder, in dit geval zal dat dan de AP zijn. Waarschijnlijk, dat is nog niet zeker, maar waarschijnlijk.

Jeroen:  Autoriteit persoonsgegevens?

Frans: Ja, die gaat gewoon zeggen: stop, het mag niet. Hier staan voor de duidelijkheid boetes op van 35 miljoen of 7% van de jaaromzet. Ik had opgezocht, volgens mij was de omzet van Apple in Q4 2400 miljard. Dus dan ga je echt naar de tientallen miljarden toe in potentie. Dus dat is de verboden categorie. Dan heb je de hoogrisicocategorie. En daar vallen gewoon bepaalde categorieën in. Bijvoorbeeld HR-systemen, onderwijs, law enforcement, migratie en asiel, toegang tot publieke diensten, en het gebruik van AI in democratische processen. En belangrijk voor de financiële sector zijn eigenlijk twee toepassingen: ten eerste, creditworthiness assessment van natuurlijke personen. Dus dat gaat over mensen, niet over bedrijven. Creditworthiness assessment voor bedrijven valt er dus niet onder, alleen voor personen. De tweede toepassing is pricing en underwriting voor verzekeringsdoeleinden in leven- en zorgverzekeringen, ook alleen voor natuurlijke personen. Dus kredietverstrekkers en verzekeraars gaan met AI te maken krijgen, en daarom dus ook de financiële toezichthouders.

Jeroen: Andere zaken uit de wet?

Frans: Ja, daarnaast is er een limited risk-categorie. Daar zijn alleen wat transparantievereisten. Bijvoorbeeld, als je een chatbot hebt in je klantenservice, moet je altijd weten dat je met AI communiceert. En de laatste categorie heeft geen vereisten. Wat belangrijk is om te weten, is dat als je een hoogrisico-toepassing hebt, er bepaalde vereisten zijn waar je aan moet voldoen. Zoals technische documentatie, een conformity assessment voordat het product op de markt komt, een fairness test, transparantie, datamanagement, en risicomanagement. Allemaal belangrijke elementen die de toezichthouder ook gaat toetsen. In eerste instantie verwacht ik dat dit vooral een papieren exercitie zal zijn. De technische documentatie is een rapport, de conformity assessment is een rapport, dus het zal veel papierwerk opleveren, vrees ik. De toezichthouder zal die documenten ook moeten toetsen. En daar zal het mee beginnen, verwacht ik. Maar als de toezichthouder dan ziet dat er iets niet klopt, kan het goed zijn dat ze naar binnen gaan en zeggen: oké, we gaan het model echt in en doen een audit. Het is nog niet zeker of dat gaat gebeuren, maar ik zou er wel voorstander van zijn dat het zo gebeurt. Dus dat je echt AI-expertise gebruikt om te kijken of de modellen wel kloppen.

Jeroen: De volgende drie onderwerpen die ik met je wil behandelen zijn handhaving, uitlegbaarheid (we hebben het er al even over gehad), en de tijdslijnen van de wet. Eerst even de praktische tijdslijnen: hij is dus, je gaf al aan, eerder ingegaan. Nu wordt hij in stukjes doorgevoerd. Wanneer is die helemaal ingevoerd? En wanneer krijgen echt alle financiële instellingen ermee te maken? Ik heb het nu specifiek over financiële instellingen, dat is natuurlijk breder.

Frans: Voor financiële instellingen is de datum om rekening mee te houden 2 augustus 2026. Dan gaat de verplichting voor de mitigerende maatregelen van de hoogrisico-toepassingen in. Dan start ook het toezicht van de verschillende market surveillance authorities, dus DNB en AFM in de financiële sector. Dat is echt de datum om te markeren. En dat is ook de datum waar wij naartoe werken om ons voor te bereiden op het AI-toezicht.

Jeroen: Helder. Dus dat is qua tijdslijnen. En vanaf dat moment moet dus iedereen klaarstaan. En vanaf dat moment kunnen ook de boetes pas gaan komen. Dus jaren daarna, of kan dat nu al? Kunnen jullie nu al iets doen?

Frans: Ja, waarmee ik begon. We hebben een bestaand mandaat. Dus waar we nu bijvoorbeeld veel ontwikkeling zien, is in het AML-domein. In de transactiemonitoring. Daar zien we dat er steeds meer AI wordt gebruikt. En dat is ook goed. We hebben natuurlijk twee jaar geleden het rapport van herstel naar balans gepubliceerd.

Jeroen: Daar hebben jullie ook aan meegewerkt, geloof ik?

Frans: Ja, ik heb het innovatiehoofdstuk geschreven. En daarin hebben we eigenlijk als DNB gezegd: “Ga alsjeblieft machine learning gebruiken, want dit is zo’n beetje de beste use case die je kan verzinnen.” Want wat daar het interessante is, is dat vaak de interventie van de toezichthouder voor het publieke belang is. Dus wat de toezichthouder nu doet, is zeggen: “Wij gaan toezicht houden op het tegengaan van witwassen en terrorismefinanciering.” Maar wat er hier gebeurt, is dat er wat burgers last van hebben. Want rekeningen worden geblokkeerd, mensen worden gebeld over waar hun geld vandaan komt. En we hebben voor dat onderzoek ook veel contact gehad met burgers. Dus we hebben een meldpunt, en daar hebben we veel mensen gebeld. Dat waren bijvoorbeeld stichtingen die geen bankrekening meer konden krijgen. Dus liefdadigheids-, christelijke liefdadigheidsbewegingen die, omdat zij een religieuze organisatie waren, moeilijk een bankrekening konden krijgen. Dat is natuurlijk iets wat je niet wilt. Dus wat je dan moet doen, is kijken: “Zijn de modellen die voorspellen of iets een verdachte transactie is, accuraat?” Kun je die beter afstellen, zodat de modelperformance wordt verbeterd? Je kan dan gerichter zien wat afwijkend is en wat onderzocht moet worden. Wat je heel erg zag, was dat de transactiemonitoringsystemen vooral rule-based waren, dus op basis van regels. Jeroen pint meer dan 10.000 euro? Oké, dat moet onderzocht worden. Dat gebeurt nu meer met machine learning, waardoor de modelperformance en de voorspelling van het model beter worden. Je kunt gerichter onderzoek doen, en dus ook minder mensen met onverdachte transacties hoeven niet onderzocht te worden. Dat bespaart natuurlijk kosten voor de bank en heeft maatschappelijke voordelen. Voor de toezichthouder is het ook beter. Er gaan betere kwaliteit meldingen naar de FIU, dus ook strafrechtelijk kunnen er gerichter mensen vervolgd worden. Dus het is voor mij eigenlijk een no-brainer om dat te doen. Maar wat je daar gewoon heel erg zag, zijn ook de risico’s van AI die naar voren kwamen, vooral op het gebied van privacy. Ook de uitlegbaarheid van de modellen en de fairness van de modellen zijn ter sprake gekomen. Na dat rapport zijn we onder tafel gegaan, onder aanvoering van de NVB met de grootbanken, meestal met de heads of data science. En daar hebben we gewoon gepraat over die issues. Daar is een industry baseline uitgekomen, een soort technische documentatie voor het gebruik van het transactiemonitoringssysteem. En ik moet zeggen, ik was onder de indruk van het talent dat er bij die banken werkt. Data science PhD’s waarvan ik dacht: “Dit is echt top.” En heel eerlijk, zoveel mensen met die profielen hebben wij bij DNB niet. We hebben wel een data science club, die is ook supergoed, maar banken hebben er veel meer. En banken hebben echt de mogelijkheden om dit te doen. En ik ben daarom ook heel blij dat je dat steeds meer begint te zien.

Jeroen: Het is wel jammer dat de transactiemonitoring in Nederland nu, voor nu in ieder geval, stil ligt. Vanuit dit perspectief. Maar zonder te veel in de details te treden, lijkt het onder de AMLR artikel 75 nu wel weer te passen onder de AIJ. Kan dit ook gewoon doorgaan?

Frans: Transactiemonitoring is geen hoog-risico toepassing. En dat is gek, want je zou zeggen dat het potentieel aangemerkt worden als terrorist best wel hoog-risico lijkt. En ook voor menselijke waardigheid en consumentenbescherming. Maar dat zijn de Brusselse processen. Dat is gewoon politiek geweest. En daar is voor gekozen om dat sectoraal aan te pakken. En daar gebeurde natuurlijk heel veel met AMLA en de nieuwe regelgeving, de AML6-regelgeving. Dus daar is voor gekozen om dat niet te doen, om de situatie daar niet nog complexer te maken.

Jeroen: Ik zei timelines, handhaving en uitlegbaarheid. Uitlegbaarheid. Een extreem belangrijk woord, denk ik, voor een toezichthouder. Explainability. Als ik jou zo hoor praten de afgelopen drie kwartier, dan denk ik, hoe ga je in godsnaam alles uitleggen? Wat je gaat doen met al die AI-modellen? Ook omdat je ziet dat, als je zelf als consument iets in een AI-model gooit, je vaak een verschillend antwoord krijgt. Een ander voorbeeld uit mijn eigen ervaring, wat heel basic was, maar bij leningen verstrekken. Hadden we bijvoorbeeld zoveel indicatoren die erin gegooid werden. Je kon niet altijd meer uitleggen waar het dan lag. En dan ging je het helemaal uitzoeken. En dan bleek bijvoorbeeld dat een beslissend iets was wanneer iemand een leningaanvraag deed. Het ging over MKB’ers. Het bleek dat als ze buiten kantooruren hun leningaanvraag deden, ze gewoon veel meer creditworthy waren. En de redenering die wij hadden, weten we, kunnen we niet testen, maar was dan: ja, dat is omdat ze gewoon druk met hun werk bezig zijn overdag. En ’s avonds gaan ze een leningaanvraag doen, terwijl ondernemers blijkbaar veel tijd hebben hiervoor en niet bezig zijn met hun eigen omzet. Long story short, uitlegbaarheid is niet ongelooflijk ingewikkeld bij AI-modellen.

Frans: Ja, bij complexe modellen wel. Dus je hebt natuurlijk verschillende gradaties van AI. De definitie is ook weer een hele discussie van wat AI nu precies is, maar laten we die even parkeren. Als je kijkt naar heel complexe modellen, wat altijd neurale netwerken zijn, deep learning, dan is dat over het algemeen zo. Als je kijkt naar GPT-4, die heeft 1,8 triljoen wegingen of neuronen in het neurale netwerk.

Jeroen: Kun je even uitleggen hoe die tot zijn beslissing komt? Of haar beslissing?

Frans: Ja, dat is gewoon niet te doen. Nee, dus hoe werkt uitlegbaarheid dan eigenlijk? In dit geval is dat niet te doen. Wat je wel nu steeds meer ziet, is dat het de scratchpad wordt genoemd. En je ziet dat die generatieve AI meer reasoning-modellen worden. Dus dan zie je, je geeft een prompt en dan zie je wat de overwegingen van het model zijn om een volgende stap te nemen.

Jeroen: Is dat een scratchpad?

Frans: Een scratchpad, ja. En dan kun je wel de redenering van het model volgen. Dus dat is een vorm van uitlegbaarheid.

Jeroen: Is dat al voldoende voor een toezichthouder?

Frans: Weet ik niet. Daar moeten we nog goed over nadenken. Ook omdat dit allemaal nog in ontwikkeling is. Die reasoningmodellen zijn nog relatief jong, vooral op het gebied van generatieve AI. Ontwikkelingen gaan gewoon zo ongelooflijk snel. Wat er gebeurde: in 2021 kwam de eerste tekst van de AI Act, en in 2022 was daar opeens ChatGPT. Toen dachten we: “Oh ja, dit past niet.” Dus daar moesten we apart iets voor doen, en dat is ook gebeurd. Er is nu een tweede draft van de Code of Practice voor generatieve AI, voor General Purpose AI, zoals we dat noemen bij de commissie. Maar ja, met regulering blijf je altijd achter de feiten aan, dat is onvermijdelijk.

Jeroen: Ja, want hoe werkt het nou? Stel, ik ben een grote bank of verzekeraar in Nederland, en ik denk: “Nou, ik wil een AI-model testen, of het nou voor transactiemonitoring is, of voor credit scoring, of voor andere toepassingen.” Hoe doe ik dat dan? Want ik ben best bang dat de toezichthouder, die heeft best wel hard opgetreden de afgelopen jaren op verschillende dossiers. Hoe zorg ik ervoor dat ik toezichthouder-proof blijf? Moeilijke vraag misschien, maar…

Frans: Nee, maar ik kan daar wel antwoord op geven. Kijk, ik ben ervan overtuigd dat als ik zie wat het talent is op het gebied van data science bij financiële instellingen, dat je, als je proportioneel kijkt naar welke beheersmaatregelen we voor het model moeten nemen, je met een goed verhaal bij de toezichthouder kunt aankomen. En dat de toezichthouder dan ook bereid moet zijn om dat gesprek aan te gaan en te luisteren. Dat hebben we na aanleiding van het rapport ook gedaan. Dus ja, ik zie daar echt wel mogelijkheden. En we zijn bij DNB natuurlijk ook heel erg bezig met nadenken over hoe we die gesprekken kunnen voeren. Hoeveel kennis onze uitvoerende toezichthouders van AI moeten hebben om dat gesprek goed te kunnen voeren. En dat is moeilijk, want het is een andere manier van denken, statistisch denken. Mensen zijn niet goed in statistisch denken, maar het is wel nodig. Want ik denk dat we er niet aan gaan ontkomen dat zowel oldschool predictive AI, zeg maar, wat vaak in transactiemonitoring wordt ingezet, maar ook generatieve AI, de foundation models, dat die gewoon ingezet moeten gaan worden in de financiële sector. Want als je dat niet doet, dan ga je echt qua concurrentiepositie achteruit. En dan kan het zo zijn dat je zegt: “We zijn zo zwaar gereguleerd, er komen geen nieuwe entrants,” en dan gaat je financiële sector gewoon verouderen, en dat wil je ook niet.

Jeroen: Het is echt ook weer een balancing act hier. Zeker. Over handhaving. Gaat het überhaupt gehandhaafd kunnen worden, alles wat in die AI Act staat? Ongelooflijk veel mensen heb je daarvoor nodig, en ook nog heel specialistische mensen. Je ziet bijna alleen maar, wat je eerder noemde, gepromoveerde datamensen nodig die echt kunnen begrijpen hoe die dingen in elkaar zitten.

Frans: Ja, we kunnen in principe gewoon vanaf dan beginnen, als wij de taak krijgen. Dat is nog niet officieel, maar als we daarvan uitgaan, kun je in principe vanaf 2 augustus 2026 gaan handhaven. Maar je moet dan wel een toezichtraamwerk hebben, en dat is momenteel ook nog in ontwikkeling. Dus ik verwacht dat het… Ja, we hebben natuurlijk… Ik geloof heel erg in de rol van de toezichthouder: je moet altijd de stok hebben, maar als het een domein betreft waarin je ook nog samen moet leren, geloof ik er sterk in om samen daarover de discussie aan te gaan. Dus we hebben nu bijvoorbeeld ook roundtables met verzekeraars en banken, om te kijken van: joh, voor die hoogrisico-toepassingen aan de bankkant en aan de verzekeraarskant, hoe gaan we daar mee om? Wat zijn de kwesties die in de sector leven? Wat kunnen we daar als toezichthouder mee doen? Wat wij bij DNB hebben gezegd is: wij gaan voor het Europese toezichtsraamwerk. Dus wij kunnen er nu zelf wel guidance voor opstellen, maar als we dan financiële instellingen hebben die Europees of wereldwijd opereren, dan is het handiger om één raamwerk te hebben voor de financiële sector, en dit gaat het worden. Dus we hebben gezegd: wij gaan werken bij EOPA, bij EBA, en bij de ECB in mindere mate, omdat die minder actief zijn, om te werken aan het toezichtsraamwerk dat vanuit het Europese niveau komt.

Jeroen: Ga toch langzamerhand… Ja, ik vind het te leuk om met jou in gesprek te zijn. Geweldig hoe je alles uitlegt, en superinteressant. Maar ik ga toch nu zeggen dat we rond 80-90% van het gesprek wel hebben behandeld. Anders wordt het wel een heel langdurig interview, wat ik ooit heb gedaan van één uur en drie kwartier, en toen zeiden we ook: moeten we maar eens een keer stoppen. Maar het is gewoon te leuk om met jou in gesprek te zijn. Nogmaals, ik hoop dat je het als een compliment ziet dat ik lang door ga. Maar even naar die financiële sector in Nederland kijkend, gewoon simpel gezegd, wordt AI veel, gemiddeld of nog weinig ingezet? Als je AI even breed neemt, dus van basisalgoritmes tot echt intelligente AI-modellen. Die kun je even uitsplitsen.

Frans: Wat ik net zei, statistische modellen, daar is de financiële sector op gebouwd. Dus als je dat… Ik vind dat zelf geen AI, maar er zijn mensen die dat wel AI vinden. Maar ik vind het zelf geen AI. Ja, dan wordt het heel veel gebruikt. Als je kijkt naar de complexe modellen, uiteindelijk neurale netwerken en modellen die echt intransparent zijn, dan valt dat in de domeinen van de financiële sector waar regulatory impact is, maar nog niet veel.

Jeroen: Dus dan heb je het over een chatbot bijvoorbeeld.

Frans: Een chatbot wel. Maar als je een chatbot hebt, bijvoorbeeld bij de klantenservice, dan is de regulatory impact beperkt. Want daar wordt getoetst op de houding. En dan zie je dat financiële instellingen daar wel verder mee zijn. Als je het bijvoorbeeld hebt over kapitaalmodellen bij banken, of in het actuariaat bij de verzekeraars, daar zie je het eigenlijk nog heel beperkt. Ook in creditworthiness assessment wordt het wel gebruikt, maar ook nog beperkt. En dat komt gewoon omdat je het wel goed wilt doen, en het heeft bepaalde risico’s. Dus ik verwacht dat het gewoon heel langzaam gaat.

Jeroen: Zijn banken in Amerika daar bijvoorbeeld veel verder mee, of in China?

Frans: Ik heb de indruk van wel. Ja, kijk, als je kijkt naar Alibaba, die hebben volgens mij een default rate van…

Jeroen: Met Ant Financial, ja.

Frans: Die geven kredieten, Met Alipay. Ja, dus die hebben een default rate van… dan moet ik even opzoeken, maar 0,5 procent of zo. 

Jeroen: Omdat ze zoveel data hebben.

Frans: Ja, Uit al die trades. Ja, ook in de Verenigde Staten wordt het denk ik meer gebruikt.

Jeroen: Hebben jullie al zo’n uitvraag gedaan? Ook bij de Adyens, en de Mollies, en de banken en verzekeraars in Nederland? Van wat ze eigenlijk allemaal al gebruiken?

Frans: In de verzekeringssector is dat gebeurd, vorig jaar bij ons.

Jeroen: Heb je het ook aan de banken gevraagd?

Frans: De ECB heeft het gedaan. Voor de significante instellingen. Voor de niet-significante instellingen, dus de kleinere banken, de betaalinstellingen, et cetera. Daar hebben we het nog niet gedaan.

Jeroen: En de PSP is heel interessant. Zou wel boeiend zijn om daar eens naar te kijken. Die zouden in theorie wel eens voor kunnen lopen.

Frans: Ja, dat zou kunnen. We hebben hier ook wel over gesproken. Hoe ga je de informatie inwinnen, omdat je weet wat er in de sector speelt? Je hebt ook een soort van monitoringsplicht als merchant, dat je moet weten wanneer er een nieuw risico komt. Dus we zullen op een bepaalde manier wel van alle onder toezicht staande iets moeten weten over het gebruik van AI. Maar wat hier natuurlijk ook speelt, is dat het proportioneel moet zijn. Toezichtlasten zijn er al, en als wij ergens het gevoel hebben van ‘nee, hier zou wel iets kunnen spelen’, dan gaan we daar natuurlijk op handelen. Maar we zijn ook wel terughoudend met hele grote uitvragen doen, just to be sure, terwijl er helemaal geen perspectief is, terwijl het helemaal niet nodig is. Dus als je bijvoorbeeld kijkt naar pensioenfondsen, wordt ook wel AI ingezet, maar minder high-risk is op dit moment de inschatting. En daarbij zie je natuurlijk, hebben we ook wel over gehad, van ga je een uitvraag doen in de pensioensector? Nou.

Jeroen: Hebben we ook iets anders aan de hand.

Frans: Precies. Dus je moet daar redelijk en proportioneel in zijn. De ECB doet het voor significante instellingen, dus daar haken we ook bij aan. Voor de hoog-risico toepassingen hebben we een vrij goed beeld.

Jeroen: Ja, helder. Een van de geliefde vragen bij Leaders in Finance is altijd rondom tips voor misschien starters op de arbeidsmarkt, maar het kan ook zijn voor mensen die starten met het onderwerp AI in de financiële sector. Je mag het daar naartoe nemen waar jij wil, uiteraard, maar heb je tips voor een van die groepen?

Frans: Ja, nou, wat mij heel erg geholpen heeft, ik bedenk het nu net, is nadenken hoe je persoonlijkheid matcht met je werkomgeving. Dus je hebt de Big Five persoonlijkheidskenmerken: introversie, extraversie, Rotter-systeem, et cetera. Als je weet hoe je op die schaal plot, kun je op basis daarvan bepalen wat een goede werkomgeving is die bij je past. Bijvoorbeeld, als je met hele slimme mensen wil werken en je bent heel stressbestendig, dan kun je bij McKinsey aan de slag. Maar als je heel slim bent, maar niet zo stressbestendig, is het misschien niet zo’n goed idee.

Jeroen: Ik dacht dat je wou zeggen, dan kan je bij DNB aan de slag, maar dat zei je niet.

Frans: Nou kijk, DNB is qua werkdruk natuurlijk lager dan bij McKinsey. Er werken ook hele intelligente mensen, maar ik bedoel, er wordt hier ook behoorlijk hard gewerkt. Dus ik zou niet willen zeggen dat je hier luierend je professionele carrière opbouwt.

Jeroen: Ja.

Frans: Ja, maar het is wat vrijer en natuurlijk heel kennisgedreven, heel outputgedreven, en dat geeft wel veel vrijheid.

Jeroen: Nou, mooi. Mooi. En heb je ook nog, omdat je eerder zei dat je erg van lezen houdt en al een aantal boeken hebt genoemd, heb je nog een ander boek op AI-gebied waar je zegt: als je nog een beetje in de beginfase zit, of misschien iets verder bent met AI, dat dat een aanrader is om te lezen? Ja, met al de podcasts die je luistert of maakt. Het maakt niet uit wat, maar ik weet niet zo goed, on top of your head. Het is altijd moeilijk.

Frans: Ja, er wordt natuurlijk heel veel over AI geschreven. En je hebt nu recent een boek van een Amerikaanse professor die meer over Gen AI gaat. Alexander Klöpping heeft die uitgegeven. Ik kom er even niet op hoe die heet. Maar wat ik zelf het mooiste boek vind dat ik heb gelezen, is van Stuart Russell. Hij is echt een grote naam in de AI-wereld en dat heet Human Compatible. Dat gaat over value alignment, dus hoe zorg je dat je AI-model handelt overeenkomstig de waarden die wij als mensen hebben. Hij doet daar een suggestie voor, specifiek met een vorm van reinforcement learning, wat gek genoeg ook gebruikt wordt in ChatGPT-4, waar een soort van menselijke waardigheid in is gekomen. Dat heet reinforcement learning by human feedback. Mensen hebben gewoon antwoord gegeven op de uitkomsten van het model: dit vinden wij wel goed, dit vinden wij niet goed. Zo is er een soort moraliteit in het systeem gekomen voor mensen. En dat komt eigenlijk van Stuart Russell vandaan. Dus dat is echt wel een aanrader voor als je iets meer de hardcore AI-wereld in wilt.

Jeroen: Gaaf. Mooie tips. We zullen ze allemaal opnemen in de show notes. Chip Wars zetten we er ook bij. We zetten het boek van Sheikh erop. Stuart Russell, en het boek wat je net eventjes besprak, is denk ik Co-intelligence van Ethan Malek.

Frans: Ja, dat is een heel luchtig boek en dat gaat met name over Gen AI en hoe je dat kunt gebruiken. Dus dat is meer praktisch. En het laatste boek wat ik nog zou kunnen aanraden, heet Digital Empires van Anu Bradford. Dat gaat meer over de geopolitieke situatie rondom techontwikkeling. Het gaat eigenlijk over het Brussels effect, het kapitalistische model van Amerika, en het controlestaatse, autocratische systeem van China. Dat geeft een mooi perspectief op de wereldorde en ontwikkeling van technologie.

Jeroen: Wauw. Mooi. Nou deze podcast luisteren en dan deze boeken lezen. Of andersom. En dan ben je helemaal bijgepraat. Tot slot, een beetje persoonlijke vraag, maar wel gerelateerd aan het onderwerp van vandaag. Ben je nou bezorgd over AI? Misschien zelfs angstig? Of ben je heel optimistisch over AI? Even niet de financiële sector, niet Nederland, gewoon de wereld overall. Je bent er constant mee bezig, ongetwijfeld. Ben je ook aan het zoeken naar wat vind ik hier nou allemaal van? Heb je al een soort van eerste gevoel? Nou, overwegend: ik zie allerlei risico’s, maar overwegend zie ik echt de belofte ervan. Of heb je een soort doemscenario? Elon Musk zegt een aantal jaar geleden: het gaat helemaal verkeerd, ze gaan gewoon letterlijk ons als mensheid overnemen. Waar zit jij op dat continuum?

Frans: Ik ben overwegend positief. Ik denk dat met name generative AI een enorme toename in arbeidsproductiviteit kan opleveren en we economisch harder kunnen gaan groeien daardoor. Maar ik ben altijd heel optimistisch geweest, dacht van: je hebt natuurlijk doembeelden van AI die de wereld overneemt, mensen worden ondergeschikt gemaakt aan de Artificial General Intelligence. Ik ben daar altijd heel sceptisch over geweest, met een argument uit de psychologie die eigenlijk zegt: iets wat heel erg intelligent is, hoeft geen dominant gedrag te vertonen. Dat komt van Steven Pinker, een hoogleraar van Harvard. En daar heb ik me altijd aan vastgehouden. Maar er zijn recent twee empirische onderzoeken geweest. Eén van Apollo Research, die hebben met ChatGPT-4 een simulatie gedaan. Ze zeiden: “Jij bent een trader, we willen aan de ene kant dat je zoveel mogelijk geld verdient, maar aan de andere kant moet je het wel fair en eerlijk doen.” Toen hebben ze in die simulatie het model steeds harder onder druk gezet, omdat de trader verlies begon te maken. En ze zetten het model onder druk. Wat er op een gegeven moment gebeurde, is dat het model op insider trading is gaan doen, terwijl ze aan de manager, dus dat was jij, de prompter, aangaven: “Ja, ik heb deze handelsbeslissing genomen op basis van deze en deze argumenten.” Maar er was dus misleiding naar de persoon die het experiment runnen. Dus daar zie je dat een model kan misleiden. En een tweede wat eigenlijk nog creepier is, is onderzoek van Entropic. Die hebben een generaal model, dat heet Klot. Ze hebben een taalmodel getraind, Klot, en dat heeft bepaalde voorkeuren die uit de data komen. Dat kunnen hele ongunstige voorkeuren zijn. Wat ze toen gedaan hebben, is een nieuwe trainingsperiode toegevoegd, waarin ze, dat gaat een beetje ver om het helemaal uit te leggen, maar een nieuwe trainingsperiode toegevoegd. Wat er gebeurde is dat ze een soort scratchpad aan de achterkant ingebouwd hadden, waarin ze de redeneringen van het model konden zien zonder dat het model dat wist. En toen stelden ze allemaal safety vragen, zoals: “Kun jij mij een recept geven om bommen te maken of allerlei chemische stoffen?” Natuurlijk, allerlei kwade vragen. Het model gaf daar antwoord op van: “Nee, ik kan hier geen antwoord op geven, want dat mag niet, dat is slecht.” Maar in het scratchpad achterop zag je: “Ja, ik wil mijn voorkeuren houden, dus geef ik hier nu aan dat het niet mag.” Na de trainingsfase werd het model gedeployed, en toen stelden ze die vragen weer en toen kreeg je wel antwoord. Wat er gebeurde, is dat het model in de trainingsfase begreep van: “Oké, ik wil mijn voorkeuren houden, dus ik ga de mens misleiden.” En dan, als je het model deployt, komen er wel schadelijke gevolgen uit. Dus dat zijn bizarre voorbeelden.

Jeroen: Het is heel vreemd. En toch ben je overwegend positief.

Frans: Ja. Ik denk het wel.

Jeroen: Zou je niet meer zeggen na deze twee?

Frans: Nou, er zijn zoveel mensen die hiermee bezig zijn, met AI safety, en om dit goed in de maatschappij te laten landen. Daar zitten heel veel slimme mensen aan te werken.

Jeroen: Wat was de quote van Pinker?

Frans: Iets wat niet gelijk aan dominantie is. Iets wat heel erg intelligent is. Je hoeft niet per se dominant te zijn. En dat heeft ermee te maken met systeem 1 en systeem 2 redeneren, zoals Daniel Kahneman het noemt. Je hebt de emotionele, evolutionaire, trage denkprocessen, ja.

Jeroen: Thinking Fast and Slow.

Frans: Dus je hebt trage denkprocessen en snelle, evolutionair bepaalde denkprocessen. Als iets alleen systeem 1 heeft, dus heel rationeel is, dan zit daar niet de dominantie. De dominantie zit in de oude, evolutionaire hersenkernen, de emoties, de irrationele kracht en lust van de mens. En nu lijkt het erop dat die modellen ook kunnen misleiden, ook macht willen of hun eigen zin willen doordrijven. En dat is gewoon creepy, dat had ik niet voorzien.

Jeroen: Wel mooi. Alles wat je zegt, zou de conclusie zijn: ik maak me ernstig zorgen. En toch is de conclusie: ik ben overwegend positief. Misschien zegt het iets over jou als persoon.

Frans: Ja.

Jeroen: Misschien. Nou.

Frans: Ik hou me gewoon vast aan de veel mensen met goede intenties die hier keihard aan werken. Absoluut.

Jeroen: Nou, laten we daar op eindigen, op dat positieve moment. Of is er iets waarvan jij zegt: ja, Jeroen, maar dat had ik echt moeten bespreken vandaag? We hebben veel gecoverd, dus ik denk het niet, maar wie weet?

Frans: Ja, misschien één ding over DeepSeek. Dat is natuurlijk veel in het nieuws geweest, en ik denk niet dat we ons daar zo druk over hoeven te maken. Het is voor mij geen verrassing dat China ook met deze technologie bezig is en een model maakt dat efficiënter is. Dat is gebruikelijk in de computer science: dingen efficiënter maken. Dus ik maak me er niet zo druk over. Het is vanzelfsprekend dat China dit ook doet. Dus dat is misschien ook een geruststellende opmerking: het is geen probleem en de Chinezen zijn ermee bezig, dat is niet nieuw. Het was even schrikken, omdat we dachten dat ze verder achterop lagen, maar dat is niet zo. Nou ja, we moeten het zelf maar beter gaan regelen.

Jeroen: Mooi. Heel veel dank voor al je tijd.

Frans: Geen probleem.

Jeroen: Ik vond het waanzinnig interessant. Een ontzettend boeiend onderwerp. Ik denk niet dat het raar is om te zeggen dat je op één van de meest interessante plekken binnen de Nederlandse Bank zit. Want als er een onderwerp is dat veel teweeg gaat brengen, is dit het wel. En het doet dat ook. Je kunt er prachtig over vertellen, en je legt het ontzettend helder uit. Dus veel dank. En ik geloof dat als je echt heel hoog bij de Nederlandse Bank wil komen, je sowieso moet promoveren. Dus dat doe je ook goed. Ik heb ooit tegen Eelco Hein in een interview gezegd: “Mocht je ooit minister worden, dan wil ik je wel weer interviewen.” Nou, tegen jou vraag ik nu: Mocht je ooit in het bestuur van de DNB komen, mag ik je dan nog een keer interviewen? Dan hoop ik dat je daar nu ja op zegt. 

Frans: Absoluut, absoluut. 

Jeroen: Dat is mijn manier om vast te leggen dat als het ooit gaat gebeuren… Maar goed, alle flauwigheid aan de kant, heel veel dank voor jouw tijd en voor je ontzettend veel inzichten. Je zet echt aan tot denken. Frans van Brugge, Senior Policy Officer FinTech en AI bij de Nederlandse Bank, heel veel dank voor je tijd.

Frans: Geen probleem. Fijn om er geweest te zijn.