
⚠️ Rapport: Gevoelige bedrijfsinformatie lekt via generatieve AI-tools
MNWS – Rabat
Een recent rapport van beveiligingsbedrijf Harmonic luidt de alarmbel over het toenemend risico op het lekken van bedrijfsgeheimen via generatieve AI, zoals ChatGPT en Copilot. Volgens het onderzoek bevatte 8,5% van de AI-opdrachten van werknemers gevoelige informatie zoals klantauthenticatiegegevens en facturatiegegevens.
🔍 Onbewust lekken van cruciale data
Volgens Anna Collard, vicevoorzitter bij KnowBe4 Africa, beseffen veel gebruikers niet hoeveel vertrouwelijke data ze onbedoeld invoeren: “Zodra iemand vraagt om een voorstel te herschrijven voor klant X of hulp vraagt bij een intern rapport, geeft men in feite strategische gegevens prijs.”
Deze data kunnen – indien ingevoerd op platforms met vage privacyvoorwaarden – worden opgeslagen, hergebruikt of zelfs blootgesteld. Volgens Collard vormt dit een ernstig beveiligingsrisico, zeker als kwaadwillende partijen of concurrenten deze gegevens verzamelen.
💻 AI lijkt veilig… maar schijn bedriegt
“De informele toon van AI-tools laat mensen hun waakzaamheid verliezen,” waarschuwt Collard. “Gebruikers delen frustraties, interne processen, tools en teamdynamiek – info die later tegen hen kan worden gebruikt in bijvoorbeeld gerichte phishing-aanvallen of identiteitsdiefstal.”
🏢 Bedrijven moeten verantwoordelijkheid nemen
Om risico’s te beperken, roept Collard organisaties op tot actie. “Train werknemers in veilig gebruik van AI-tools, beperk toegang tot niet-goedgekeurde toepassingen en gebruik browserextensies die gevoelige data detecteren en blokkeren.”
Bovendien adviseert ze bedrijven om AI te omarmen volgens het principe van privacy by design en zich te conformeren aan de internationale ISO/IEC 42001-standaard voor AI-beheer.
Collard benadrukt dat complianceprogramma’s niet alleen juridische verplichtingen moeten afdekken, maar ook ethische richtlijnen moeten volgen om de integriteit van bedrijfsvoering te waarborgen in een tijdperk van snelle AI-integratie.




