shadow AI op een tijdlijn

Shadow AI sluipt het gemeentehuis binnen

Wie oud genoeg is, herinnert zich de tijd van de fysieke ordnermap. Die map ging mee naar huis, werd op de keukentafel gelegd en de volgende ochtend weer meegenomen. Onhandig en eigenlijk ook minder beheerst dan het leek: data buiten de muren van het gemeentehuis, zonder back-up, zonder toegangscontrole. De risico’s waren klein en tastbaar. Maar het principe van ongecontroleerde data was er altijd al. 

Daarna kwamen de computers. En met de computers kwamen de medewerkers die zelf oplossingen zochten voor wat de organisatie niet bood: WinZip om bestanden te comprimeren, een gratis PDF-reader, een ander tooltje dat gewoon leuk was zoals Napster. Het IT-beleid liep achter op de praktijk, net zoals bij de map op de keukentafel. Alleen waren de gevolgen nu groter. Via e-mailbijlagen en gedeelde schijven verspreidden virussen als ILOVEYOU en Melissa zich in de late jaren ’90 razendsnel omdat de grenzen tussen privé en werk al vervaagd waren.

Van Dropbox naar de grote sprong

Jaren later was het Dropbox. Medewerkers konden eindelijk makkelijk bestanden delen zonder drie IT-tickets in te dienen. Praktisch, snel, maar ineens stonden gigabytes aan documenten op servers van een gratis dienst. Daarna kwamen platforms als WeTransfer: geen installatie meer nodig, ook gratis, gewoon even snel een bestand doorsturen. Data verdween nog sneller uit beeld.

Tussendoor ontstond er discussie over WhatsApp. Collega’s communiceerden sneller, handiger en prettiger via hun privételefoon dan via de logge systemen die de gemeente beschikbaar stelde. Begrijpelijk. Maar ook hier: informatie buiten de controle van de organisatie.

Nu is het AI

Al die vorige ontwikkelingen waren al flink, maar AI is van een andere orde. Medewerkers gebruiken AI-tools op eigen initiatief, zonder formele richtlijnen of ondersteuning van hun werkgever. Ze stellen vragen aan ChatGPT, verwerken rapporten via Google NotebookLM, vertalen teksten met Gemini, genereren samenvattingen via Copilot of Grok. 

Bij Dropbox verdween een bestand uit beeld. Bij AI verdwijnt naast het document ook het denkproces. Wie een dossier, een bezwaarschrift of een intern beleidsadvies in een publiek AI-systeem invoert, weet simpelweg niet waar die data terechtkomt, hoe lang het wordt bewaard, of het wordt gebruikt om het model verder te trainen en aan wie het ooit beschikbaar gesteld wordt. Maar ook weet niemand precies hoe het antwoord tot stand komt. 

De Baseline Informatiebeveiliging Overheid (BIO2) vereist controle over datastromen. Maar hoe controleer je iets dat via een browser op een privételefoon gebeurt? 

Werkelijkheid vs beleid

Bijna elke CISO of functionaris gegevensbescherming vreest datalekken of incidenten door shadow AI. Daarom hebben veel organisaties een AI-beleid opgesteld. Maar organisaties die AI verbieden of zwaar beperken, lopen mogelijk meer risico dan organisaties die goedgekeurde alternatieven beschikbaar stellen.

De oorzaak ligt ook niet bij onverantwoordelijke collega’s. Een medewerker wil gewoon efficiënt werken. Als de gemeente geen snelle, gebruiksvriendelijke tools biedt, zoekt men ze zelf. Ambtenaren zijn immers net mensen en dat was bij de ordnermap op de keukentafel niet anders.

Een beleid op het intranet lost dit niet op

Denk niet dat je dit kunt beheersen met een AI-beleidsnotitie, tien spelregels op het intranet en een bewustwordingstraining. Shadow AI is een ‘blijvertje’. De ontwikkelingen gaan door: de AI-tool van vandaag is morgen alweer vervangen door iets dat krachtiger en toegankelijker is.

Wat kun je dan nu doen? Stap 1 is weten wat er nu al gebeurt in jouw organisatie. Begrijpen welke behoefte medewerkers hebben, en daar gecontroleerde (werkbare!) alternatieven voor bieden. Denk aan een bewuste keuze voor een toegestane tool, gecombineerd met DLP (Data Loss Prevention) om zichtbaar te maken welke data de organisatie verlaat via beheerde apparaten en netwerken. DLP is geen sluitende oplossing, want wie ChatGPT opent via een privételefoon op een eigen verbinding, valt nog steeds buiten beeld. Maar het geeft wel zicht op wat er via werkplekken en werkapparaten gebeurt, en dat is al een stuk meer dan de meeste gemeenten nu hebben. Combineer dat met heldere kaders over hoe tools gebruikt mogen worden en waarom.

Niet alle AI-gebruik is gelijk

Het maakt een groot verschil waarvoor een medewerker AI inzet en welk type tool daarvoor wordt gebruikt. Tekst redigeren of samenvatten via een publieke chatdienst brengt andere risico’s mee dan AI inzetten bij een beslissing over een inwoner, waar AVG-vereisten over transparantie en menselijke tussenkomst een rol spelen. Een enterprise-variant met verwerkersovereenkomst of een afgeschermde tenant-omgeving vraagt een ander beleidskader dan de gratis versie van bijvoorbeeld ChatGPT. En als AI wordt ingezet bij het opstellen van adviezen of besluiten, is het verstandig bij te houden welke bronnen zijn gebruikt en welke menselijke afweging is gemaakt, zodat je later kunt reconstrueren hoe iets tot stand is gekomen.

Zicht is de eerste stap

Weet jij welke AI-tools er vandaag in jouw gemeente worden gebruikt? En door wie? Als het antwoord “nee” of “niet precies” is, is dat het startpunt. Praktijk voor Privacy helpt met werkbare AI-kaders die medewerkers wél ondersteunen en recht doen aan gegevensbescherming. 

Op de hoogte blijven van nieuws over privacy, diensten en producten uit de gemeentelijke praktijk? Abonneer je op onze nieuwsbrief.



Scroll naar boven