Een AI-assistent bouwen die je privacy respecteert
Om nuttig te zijn heeft een AI-assistent toegang nodig tot je meest gevoelige data. Je e-mails. Je agenda. Je contacten. Je documenten. Het volledige oppervlak van je professionele leven.
Dit creëert een voor de hand liggende spanning. Hoe meer toegang je een AI geeft, hoe nuttiger het wordt. Maar hoe meer toegang het heeft, hoe hoger de inzet als er iets misgaat.
De meeste AI-producten lossen deze spanning op door privacybeleid te begraven in juridische tekst die niemand leest. Wij denken dat dit de verkeerde aanpak is. Zo denken we bij Prio over privacy, en waarom het meer uitmaakt dan de meeste ondernemers beseffen.
Het dataprobleem van AI-assistenten
Wanneer je een AI-assistent verbindt met je Gmail, kan het elke e-mail in je account lezen. Wanneer je het verbindt met je agenda, ziet het elke vergadering, elke deelnemer, elke notitie. Wanneer je het gebruikt voor taken en onderzoek, bouwt het een gedetailleerd beeld op van je prioriteiten, relaties en bedrijfsvoering.
Deze data is buitengewoon waardevol. Voor de AI (het heeft context nodig om behulpzaam te zijn), voor adverteerders (je professionele netwerk en interesses zijn zeer gericht te targeten), en voor iedereen die het systeem zou kunnen compromitteren (bedrijfsspionage, diefstal van inloggegevens, concurrentie-inlichtingen).
De vraag is niet of je AI toegang moet geven tot je data. Als je een AI-assistent wilt, moet je dat. De vraag is wat er met die data gebeurt zodra de AI het heeft.
Waar je data naartoe gaat maakt uit
Drie dingen bepalen hoe veilig je data is:
Waar het wordt opgeslagen. Data opgeslagen in EU-datacenters valt onder de AVG (GDPR), die je wettelijke rechten geeft over je informatie. Data opgeslagen in de VS valt onder FISA Section 702, waarmee de overheid zonder huiszoekingsbevel toegang kan krijgen voor niet-Amerikaanse personen. Als je een Europese ondernemer bent, is dit onderscheid niet academisch.
Wie er toegang toe heeft. Sommige AI-producten gebruiken je data om hun modellen te trainen. Dit betekent dat je e-mails, documenten en gesprekken onderdeel worden van een trainingsset die output voor andere gebruikers beïnvloedt. Zelfs als de data "geanonimiseerd" is, hebben reconstructieaanvallen aangetoond dat individuele records vaak opnieuw geïdentificeerd kunnen worden.
Hoe lang het bewaard blijft. Sommige diensten bewaren je data voor onbepaalde tijd, zelfs nadat je je account hebt verwijderd. Andere hebben duidelijk bewaartermijnen met harde verwijderingsgaranties.
De Prio-aanpak
We hebben Prio gebouwd met een paar niet-onderhandelbare principes:
EU-dataresidentie. Je data wordt opgeslagen in Europese datacenters, onderworpen aan AVG-bescherming. We dragen geen data over naar niet-EU jurisdicties voor verwerking.
Geen training op gebruikersdata. We gebruiken je gesprekken, e-mails, documenten of andere data niet om AI-modellen te trainen. Je data bestaat om jou te dienen, niet om ons product te verbeteren op jouw kosten.
End-to-end encryptie. Data is versleuteld tijdens transport en in rust. Je OAuth-tokens voor Gmail en Google Calendar worden versleuteld opgeslagen, niet als leesbare tekst.
Goedkeuringspoorten op elke actie. Wanneer Prio een e-mail opstelt, toont het je het concept en wacht op je expliciete goedkeuring voordat het wordt verzonden. Wanneer het een agenda-evenement aanmaakt, zie je de details en bevestig je. Niets verlaat je account zonder jouw toestemming.
De enige uitzondering is automatisch archiveren van e-mail, waarbij nieuwsbrieven, marketing-e-mails en sociale notificaties automatisch uit je inbox worden verplaatst. Maar zelfs dit is conservatief: facturen, rekeningen, agenda-uitnodigingen, klant-e-mails en beveiligingsmeldingen komen altijd naar boven voor je beoordeling.
Transparante datatoegang. Je kunt precies zien tot welke data Prio toegang heeft en die toegang op elk moment intrekken. Gmail of Google Calendar loskoppelen stopt onmiddellijk alle datastroom. Er is geen bewaartermijn en geen verborgen caching.
Waarom goedkeuringspoorten ertoe doen
De gevaarlijkste AI-assistent is er een die autonoom handelt zonder toezicht. OpenClaw, de virale open-source agent, heeft dit risico aangetoond. Gebruikers geven het brede toegang tot e-mail en berichten, en het voert acties uit zonder consistente goedkeuringsflows. Dit is handig totdat het de verkeerde e-mail naar de verkeerde persoon stuurt.
Ons goedkeuringsmodel werkt anders:
- Je beschrijft wat je wilt: "Antwoord op Sarah's e-mail over de projecttijdlijn"
- De AI stelt een reactie op en toont het je inline
- Je leest het concept en tikt op Goedkeuren, Bewerken of Afwijzen
- Pas na goedkeuring wordt de e-mail verzonden
Dit voegt misschien 3 seconden toe aan elke actie. Maar die 3 seconden voorkomen het nachtmerriescenario waarin een AI een slecht geformuleerde e-mail stuurt naar je grootste klant of een agenda-uitnodiging aanmaakt met verkeerde details.
Voor batchoperaties zoals e-mail triage zijn alle gecategoriseerde e-mails zichtbaar in een wachtrij waar je elke beslissing kunt beoordelen en overschrijven voordat deze effect heeft.
AVG-compliance is niet optioneel
Als je een Europese ondernemer bent, is AVG-compliance geen nice-to-have. Het is een wettelijke vereiste met boetes tot 4% van de wereldwijde jaaromzet of 20 miljoen euro, afhankelijk van welk bedrag hoger is.
Je AI-assistent moet ondersteunen:
Recht op inzage. Je kunt op elk moment opvragen welke data het systeem over je bewaart.
Recht op vergetelheid. Je kunt verzoeken om verwijdering van je data en het systeem moet binnen 30 dagen voldoen.
Dataportabiliteit. Je kunt je data exporteren in een standaardformaat om naar een andere dienst te verhuizen.
Rechtmatige verwerkingsgrondslag. De dienst heeft een wettelijke basis nodig voor het verwerken van je data (toestemming of uitvoering van overeenkomst, niet "gerechtvaardigd belang" dat tot het uiterste is opgerekt).
Verwerkersovereenkomsten. Als de AI-dienst subverwerkers gebruikt (cloudproviders, API-diensten), moet voor elk een verwerkersovereenkomst zijn afgesloten.
Wij handelen dit allemaal af. Maar veel AI-assistent producten, met name die gebouwd zijn voor de Amerikaanse markt, behandelen Europese privacywetgeving als een bijzaak.
Wat je moet vragen voordat je een AI verbindt met je data
Voordat je een AI-assistent toegang geeft tot je e-mail, agenda of documenten, vraag:
- Waar wordt mijn data opgeslagen? (EU vs. VS maakt een reëel juridisch verschil)
- Wordt mijn data gebruikt om modellen te trainen? (Zo ja, dan zit je concurrentie-informatie in de trainingsset)
- Wat gebeurt er als ik mijn account verwijder? (Harde verwijdering vs. onbepaalde bewaring)
- Kan de AI handelen zonder mijn goedkeuring? (Autonoom handelen = risico)
- Welke encryptie wordt gebruikt? (In rust en tijdens transport, apart)
- Wie zijn de subverwerkers? (Je data is slechts zo veilig als de zwakste schakel)
Als een product deze vragen niet helder kan beantwoorden, zegt dat genoeg.
Privacy is geen feature, het is een fundament
We hebben geen privacyfuncties aan Prio toegevoegd als marketingonderscheider. We hebben de architectuur vanaf het begin rondom privacy gebouwd omdat we Europese ondernemers zijn die dit product zelf gebruiken. Onze e-mails, onze agenda's en onze bedrijfsdata lopen door hetzelfde systeem.
Wanneer je AI-assistent toegang heeft tot alles, is "snel bewegen en dingen breken" geen acceptabele engineeringfilosofie. De kosten van een privacyinbreuk zijn geen PR-probleem. Het is een bedrijfsbeëindigend evenement.
Daarom begint elke architecturale beslissing, van dataopslag tot actie-uitvoering tot integraties met derden, met de vraag: wat is het ergste dat kan gebeuren, en hoe voorkomen we het?
Prio is gebouwd in Europa, voor Europese ondernemers. EU-dataresidentie, AVG-compliance, geen training op gebruikersdata, goedkeuringspoorten op elke actie. Probeer het gratis.