Toezicht in tijden van AI en digitale transformatieMarco Derksen over de keynote van Saskia VlaarTijdens de Avicenna Docentendag van de Academie voor Toezichthouders en Commissarissen maandag 19 januari in Soesterberg verzorgde Saskia Vlaar een keynote over de praktische betekenis, implementatie en impact van artificiële intelligentie (AI). Na de opening door dagvoorzitter Stefan Wijers en een korte introductie door Frank Seine, directeur van Avicenna (Regiepartner VTW Academie), sprak Vlaar de aanwezige docenten toe vanuit haar ervaring als bestuurslid bestuurslid bij de AI Coalitie voor Nederland (AIC4NL), en als toezichthouder in zowel publieke als private organisaties. Met dank aan Marco Derksen voor het delen van zijn reflectie en verslag In historisch perspectiefVlaar plaatste AI in historisch perspectief. Net als eerdere technologische doorbraken, zoals internet en mobiele communicatie, begint AI als hype maar ontwikkelt het zich tot een structurele verandering die werkprocessen, beroepen en sectoren blijvend beïnvloedt. AI is volgens haar onderdeel van een bredere transformatie die organisaties dwingt anders te denken over waarde, leren en organiseren. Wat definieert innovatie?In haar keynote stond Vlaar expliciet stil bij het begrip innovatie. Innovatie is niet het simpelweg invoeren van nieuwe technologie, maar het realiseren van waarde door nieuw denken en nieuw doen, steeds in de context van de eigen organisatie. Dat vraagt om expliciete keuzes over welke waarden leidend zijn, zoals kwaliteit, betekenisvol werk, maatschappelijke relevantie of efficiëntie. Technologie volgt die waarden, niet andersom. Zij illustreerde dit met voorbeelden uit de zorg, waar AI-toepassingen zoals spraakherkenning in de spreekkamer niet primair leiden tot tijdsbesparing maar wel tot een verdiept gesprek tussen arts en patiënt. KeuzesDe keynote maakte duidelijk dat AI een ontwikkeling is die vraagt om actieve en bewuste keuzes. Organisaties die AI inzetten zonder hun waarden te expliciteren lopen het risico te optimaliseren op de verkeerde doelen. Tegelijk benadrukte Vlaar dat niet experimenteren met AI ook een keuze is, met mogelijke gevolgen voor relevantie en handelingsvermogen. Voor docenten, toezichthouders en commissarissen ligt er daarmee een opgave om voldoende basiskennis van AI te hebben, risico’s te herkennen en het gesprek over verantwoorde toepassing te blijven voeren. Morele reflectieHoewel de keynote een helder en samenhangend kader bood voor het denken over AI als transformatie, miste ik een expliciet kritische en morele reflectie op de richting waarin deze transformatie zich ontwikkelt. Vlaar verwees onder meer naar het Rapport Wennink, waarin groei en technologische ontwikkeling sterk worden neergezet als economische noodzaak, maar stelde daarbij niet de fundamentele vraag of dit ook normatief de koers is die Nederland zou moeten willen varen. Die vraag raakt juist aan de kern van bestuurlijke en toezichthoudende verantwoordelijkheid. Digitale soevereiniteit?Hetzelfde geldt voor de vanzelfsprekendheid waarmee veel organisaties kiezen voor grootschalige inzet van Amerikaanse AI-diensten zoals ChatGPT, Microsoft Copilot of Gemini. Deze keuzes hebben directe implicaties voor digitale soevereiniteit, afhankelijkheid van Big Tech en de verdeling van macht en waardecreatie. In de keynote bleef onbesproken wie uiteindelijk profiteert van AI, wie het werk verricht dat nodig is om systemen te trainen en te onderhouden, en wie de kosten draagt, bijvoorbeeld in termen van energieverbruik en milieu-impact. Aanvullend gesprek voor toezichthoudersJuist voor toezichthouders zijn dit morele en maatschappelijke vraagstukken die niet los te zien zijn van governance, risico’s en strategische keuzes. De lezing bood vooral handelingsperspectief binnen het bestaande paradigma van technologische vooruitgang, maar liet de ruimte onbenut om dat paradigma zelf kritisch te bevragen. Voor mij ligt daar een belangrijk aanvullend gesprek, waarin niet alleen de vraag centraal staat hoe we AI verantwoord inzetten, maar ook of, wanneer en onder welke voorwaarden bepaalde vormen van AI wenselijk zijn. Dat morele kompas is wat mij betreft, juist in het toezicht, minstens zo relevant als technologische kennis. Meer van Marco lezen? Klik HIER voor zijn blog |