AVG-proof AI-tools: waar Europese ondernemers op moeten letten
Je gebruikt ChatGPT om klantmails samen te vatten. Je plakt bedrijfsdata in een AI-analysetool. Je laat een transcriptietool je vergaderingen uitwerken. Elke keer dat je dat doet, verstuur je persoonsgegevens naar een externe dienst. En als die dienst niet AVG-compliant is, ben jij als ondernemer aansprakelijk.
De Algemene Verordening Gegevensbescherming (AVG) is geen formaliteit. De boetes lopen op tot 4% van je wereldwijde omzet of 20 miljoen euro, afhankelijk van welk bedrag hoger is. Voor de meeste founders is dat een existentieel risico. Toch gaan de meeste AI-tools die founders dagelijks gebruiken losjes om met Europese privacyregels.
Waarom AI-tools een privacyrisico vormen
Traditionele software slaat data op en geeft het terug als je erom vraagt. AI-tools doen iets fundamenteel anders: ze verwerken je data actief. Ze lezen je e-mails, analyseren je documenten en genereren output op basis van patronen die ze uit die data halen.
Dat onderscheid is cruciaal voor de AVG. Een e-mailtool die berichten opslaat in een database is een verwerker. Een AI-tool die de inhoud van die berichten leest, interpreteert en gebruikt om modellen te verbeteren is een verwerker met een significant grotere impact op de privacy van de betrokkenen.
Drie specifieke risico's:
Training op je data. Veel AI-modellen worden getraind op gebruikersinput. Dat betekent dat de klantgegevens die je in een AI-tool plakt, gebruikt kunnen worden om het model te verbeteren — en daarmee indirect toegankelijk worden voor andere gebruikers. De meeste grote AI-aanbieders bieden inmiddels een opt-out, maar de standaardinstelling is vaak opt-in.
Data-opslag buiten de EU. De meeste AI-tools zijn Amerikaans en slaan data op in Amerikaanse datacenters. Sinds het Schrems II-arrest is doorgifte van persoonsgegevens naar de VS juridisch complex. Het EU-US Data Privacy Framework biedt enige bescherming, maar de rechtsgeldigheid wordt regelmatig aangevochten.
Gebrek aan verwerkersovereenkomst. De AVG vereist een verwerkersovereenkomst (Data Processing Agreement, DPA) tussen jou en elke partij die persoonsgegevens voor je verwerkt. Veel AI-startups bieden dit niet aan, of hun DPA is zo vaag dat het juridisch weinig bescherming biedt.
De vijf controles die je moet doen
Voordat je een AI-tool inzet voor je bedrijf, doorloop deze checklist:
1. Waar wordt je data opgeslagen?
Vraag expliciet naar de locatie van de datacenters. EU-gehoste data is het veiligst vanuit AVG-perspectief. Als de data in de VS wordt opgeslagen, controleer of de aanbieder gecertificeerd is onder het EU-US Data Privacy Framework en of er aanvullende waarborgen zijn (Standard Contractual Clauses).
Sommige aanbieders bieden EU-specifieke instanties aan. Dat is een goed teken. Als een aanbieder niet kan vertellen waar je data staat, is dat een dealbreaker.
2. Wordt je data gebruikt voor modeltraining?
Dit is de belangrijkste vraag. Als je bedrijfsdata — klantmails, contracten, financiele gegevens — gebruikt wordt om een AI-model te trainen, verlies je effectief de controle over die data. Zoek naar een expliciete verklaring dat klantdata niet voor training wordt gebruikt, niet alleen een opt-out optie.
De veiligste optie is een tool die werkt met API-calls naar bestaande modellen (zoals Claude of GPT) met een zakelijk contract dat training op input uitsluit. De meeste enterprise-aanbiedingen van OpenAI en Anthropic bieden dit standaard.
3. Is er een verwerkersovereenkomst beschikbaar?
Een DPA moet minimaal beschrijven: welke gegevens verwerkt worden, het doel van de verwerking, de bewaartermijn, de beveiligingsmaatregelen en de rechten van betrokkenen. Als een aanbieder geen DPA heeft, kun je de tool juridisch niet gebruiken voor persoonsgegevens. Zo simpel is het.
Let ook op sub-verwerkers. Als je AI-tool data doorstuurt naar een derde partij (bijvoorbeeld een modelaanbieder), moet dat in de DPA staan met dezelfde waarborgen.
4. Hoe is de data versleuteld?
Versleuteling in transit (HTTPS) is het minimum. Versleuteling at rest (data opgeslagen in versleutelde databases) is essentieel. De gouden standaard is end-to-end versleuteling waarbij zelfs de aanbieder je data niet kan lezen in plaintext.
Vraag ook naar toegangsbeheer: wie binnen het bedrijf van de aanbieder heeft toegang tot je data? Een tool waarbij support-medewerkers klantdata kunnen inzien is een risico dat je kunt vermijden.
5. Hoe ga je om met datadeletieverzoeken?
De AVG geeft betrokkenen het recht om hun gegevens te laten verwijderen. Als een klant je vraagt om zijn data te wissen, moet je dat ook bij je AI-tools kunnen doen. Controleer of de tool een manier biedt om specifieke data te verwijderen — niet alleen je account opheffen, maar gerichte deletie van individuele records.
Veelgemaakte fouten
De gratis versie gebruiken voor bedrijfsdata. Gratis tiers van AI-tools hebben bijna altijd minder strikte privacyvoorwaarden. Gratis ChatGPT traint standaard op je input. De betaalde API niet. Dat verschil kan je duizenden euro's aan boetes kosten.
Aannemen dat "we zijn GDPR-compliant" genoeg is. Elke AI-startup zet het op de website. Weinigen kunnen uitleggen wat het concreet betekent. Vraag door. Waar staat de data? Wie zijn de sub-verwerkers? Is er een actuele DPA? Een vage claim op een landingspagina is geen juridische bescherming.
Persoonsgegevens in prompts plakken. Elke keer dat je een klantmail kopieert naar ChatGPT om een antwoord te genereren, verstuur je persoonsgegevens naar OpenAI. Dat is een verwerking onder de AVG. Als je dit regelmatig doet, heb je een DPA nodig met OpenAI en moet je het opnemen in je verwerkingsregister.
Geen verwerkingsregister bijhouden. De AVG vereist dat je documenteert welke persoonsgegevens je verwerkt, met welk doel, en met welke partijen je ze deelt. AI-tools worden vaak vergeten in dit register. Elke AI-tool die persoonsgegevens raakt, hoort erin.
Europese AI als voordeel
Er is een groeiend aanbod van AI-tools die specifiek gebouwd zijn met Europese privacynormen in gedachten. Dit zijn geen tweederangs alternatieven — het zijn tools die privacy als architectuurprincipe hanteren in plaats van als nagedachte compliance-exercitie.
Het voordeel voor Europese ondernemers: je kunt deze tools inzetten zonder juridische kopzorgen. Geen complexe datatransferovereenkomsten, geen onzekerheid over trainingsbeleid, geen afhankelijkheid van wankele internationale verdragen.
Prio is hier een voorbeeld van. Gebouwd in Europa, met Europese dataverwerking, een verwerkersovereenkomst die voldoet aan de AVG, en een expliciet beleid dat klantdata niet wordt gebruikt voor modeltraining. Elke AI-actie die Prio onderneemt is transparant en vereist goedkeuring van de gebruiker.
De praktische aanpak
Je hoeft geen privacyexpert te worden. Maar je moet wel drie dingen doen:
- Maak een inventarisatie van alle AI-tools die je en je team gebruiken. Inclusief de "even snel iets in ChatGPT gooien"-tools die niemand formeel heeft goedgekeurd.
- Controleer elke tool op de vijf punten hierboven. Geen DPA? Geen gebruik voor bedrijfsdata. Training op klantdata? Zoek een alternatief.
- Documenteer je keuzes in je verwerkingsregister. Het kost een uur en het beschermt je tegen boetes die je bedrijf kunnen breken.
Privacy hoeft geen belemmering te zijn voor AI-adoptie. Het is een filter dat de tools die je kunt vertrouwen scheidt van de tools die je niet kunt vertrouwen.
Prio is gebouwd met privacy als fundament. Europese dataverwerking, geen training op klantdata, verwerkersovereenkomst beschikbaar. Probeer het gratis.