In mijn middelbareschooltijd was een bezoek aan de website www.scholieren.com de geëigende weg om een boekverslag of werkstuk te bekomen. Dit bespaarde een hoop tijd. Nadeel van deze werkwijze was wel dat, naast dat je je huiswerk niet had gedaan, de docent meermalen hetzelfde werkstuk ontving. Die tijd is voorbij met de opkomst van generatieve kunstmatige intelligentie (AI). Door de opkomst van AI wordt op basis van een simpele zoekvraag authentieke informatie op een rij gezet en gecategoriseerd. Dit zorgt ervoor dat de docent niet meer in staat is om te controleren of een leerling zelf werk heeft voortgebracht of dat AI dat heeft gedaan. Er wordt immers telkens een ander stuk geproduceerd. Vanzelfsprekend kan AI de productiviteit op grote schaal verhogen. Het is tegen deze achtergrond niet opmerkelijk dat de overheid kijkt naar manieren waarop de productiviteit kan worden verhoogd. Het is ook zeer wenselijk dat de productiviteit gaat stijgen.1
De opmars van kunstmatige intelligentie binnen de overheid is onmiskenbaar. Van automatische antwoorden op burgerbrieven tot het analyseren van grote hoeveelheden beleidsdata. Steeds meer ministeries en uitvoeringsinstanties experimenteren met AI-technologieën, waaronder generatieve modellen als ChatGPT, CoPilot en Gemini. Hoewel innovatie welkom is, werpt deze ontwikkeling belangrijke vragen op over privacy, transparantie en ethiek. Hoe zorgt de overheid ervoor dat de inzet van AI verantwoord gebeurt? In dit kader heeft de staatssecretaris van Digitalisering en Koninkrijksrelaties een handreiking ontwikkeld bij de implementatie van generatieve AI in de dagelijkse (werk)praktijk.2 Met deze niet bindende overheidsbrede handreiking tot “verantwoorde inzet van generatieve AI” wil de staatssecretaris tot verantwoorde inzet van AI komen.3
Innovatie gewenst, maar onder voorwaarden
De overheid wil in principe nieuwe technologieën omarmen, vanuit de gedachte dat innovatie de dienstverlening kan verbeteren en processen efficiënter kan maken. Bij technologische innovatie binnen de overheid geldt het uitgangspunt “Ja, mits”. Dat wil zeggen: ja, de overheid mag AI inzetten, mits grondrechten van burgers worden beschermd, algoritmes uitlegbaar en controleerbaar zijn, privacywetgeving wordt gerespecteerd en menselijke tussenkomst en toetsing gegarandeerd blijven. In plaats van een simpele “nee, tenzij” (verboden tenzij veilig bewezen), kiest de overheid hiermee voor een innovatievriendelijke route — maar niet zonder waakzaamheid. Dit is vanzelfsprekend geen sinecure. In de handreiking voor de inzet van AI wordt expliciet ingegaan op de eisen die worden gesteld aan generatieve AI indien software met generatieve AI wordt ingekocht en de eisen waaraan dat moet voldoen. Gezien de fouten die zijn gemaakt door de (rijks)overheid bij het bijhouden van lijsten is uiterste waakzaamheid geboden.4
Generatieve AI: een nieuwe uitdaging
Specifiek de inzet van generatieve AI stelt de overheid voor nieuwe dilemma’s. Zulke modellen kunnen namelijk op grote schaal tekst produceren, maar zijn ook gevoelig voor onnauwkeurigheden, vooroordelen en het ongecontroleerd verwerken van persoonsgegevens. Indien sprake is van een onnauwkeurige database dan zullen de gevolgtrekkingen van generatieve AI weliswaar logisch daaruit volgen, maar tot een onwenselijke uitkomst leiden. Sommige overheidsorganisaties gebruiken al generatieve AI al voor bijvoorbeeld het schrijven van conceptteksten, het brainstormen over beleidsopties en het ondersteunen bij interne communicatie. De vraag is of hierbij voldoende zorgvuldig wordt gehandeld. Zijn er duidelijke richtlijnen opgesteld voor ambtenaren? Wordt het gebruik gemonitord? Welke risicoanalyses zijn uitgevoerd?
Gebrek aan transparantie
Er is nu een niet bindende, overheidsbrede handreiking. Opvallend is echter dat weinig informatie publiek beschikbaar is over hoe ministeries omgaan met AI-gebruik. Tot nu toe ontbreken centrale kaders die specifiek ingaan op generatieve AI. Daardoor ontstaat het risico op een lappendeken van eigen initiatieven en regels per overheidsorgaan. Bovendien dreigt een vertrouwensprobleem. Burgers hebben het recht te weten wanneer hun interactie met de overheid (mede) door een AI-systeem wordt beïnvloed. Transparantie hierover is essentieel om het vertrouwen in de overheid in stand te houden. Zonder openheid blijft onduidelijk of de overheid haar eigen “Ja, mits”-filosofie daadwerkelijk naleeft. Het lijkt daarom verstandig om nog explicieter te maken welke overheidsorganisaties in welke gevallen gebruikmaken van generatieve AI.
Verantwoord innoveren
De inzet van AI biedt kansen voor een moderne, efficiënte overheid, maar brengt ook grote verantwoordelijkheden met zich mee. De kernvraag is niet of de overheid AI mag gebruiken, maar hoe zij dat doet: transparant, uitlegbaar en in overeenstemming met publieke waarden.
- Hogere productiviteit uitvoeringsorganisaties is noodzakelijk – Publieke sector – Actueel en publicaties – PwC
- https://www.rijksoverheid.nl/actueel/nieuws/2025/04/22/overheid-verruimt-standpunt-inzet-generatieve-ai
- Overheidsbrede handreiking voor de verantwoorde inzet van generatieve AI | Rapport | Rijksoverheid.nl
- Bijvoorbeeld de fraudesignaleringsvoorziening van de Belastingdienst, de top 600-lijst van criminelen door de gemeente Amsterdam en het door SZW gemaakte systeem Syri (systeem risico indicatie).