De Datalek: Wat is er gebeurd bij Cal AI

De Datalek: Wat is er gebeurd bij Cal AI

Op 9 maart 2026 plaatste een dreigingsactor een datadump op BreachForums waarin werd beweerd dat Cal AI was gecompromitteerd — de AI-gedreven calorie-tracking app die onlangs in het nieuws kwam vanwege de overname van MyFitnessPal. De dump bedroeg in totaal 14,59 GB verspreid over acht bestanden en zou meer dan 3,2 miljoen gebruikersrecords bevatten.

Belangrijkste inzichten

  1. Een hacker met het alias “vibecodelegend” beweert Cal AI te hebben gehackt, de populaire AI-gedreven calorie-tracking app die onlangs MyFitnessPal heeft overgenomen, en plaatste 14,59 GB aan data met naar verluidt meer dan 3,2 miljoen gebruikersrecords op BreachForums. De gelekte data bevat naar verluidt geboortedata, volledige namen, geslachten, e-mailadressen, sociale media-profielen, PIN-codes, abonnementsgegevens, fysieke kenmerken zoals lengte en gewicht, maaltijdlogs met tijdstempels en fitnessdoelen.
  2. De aanvalsvector was naar verluidt een niet-geauthenticeerde Google Firebase-backend — de aanvaller beweerde dat de volledige abonnementsdatabase leesbaar was zonder inloggegevens. De app maakte ook gebruik van 4-cijferige numerieke PIN-codes zonder rate limiting of CAPTCHA op het login endpoint, waardoor brute-force aanvallen kinderlijk eenvoudig waren.
  3. Cybernews-onderzoekers hebben de gelekte data geanalyseerd en bevestigd dat deze legitiem lijkt. De dataset bevatte ongeveer 2,8 miljoen unieke e-mailadressen, waarvan bijna 1,2 miljoen gebruikmaakten van Apple’s private relay-service — wat betekent dat het datalek gegevens blootlegde van gebruikers die bewust extra bescherming zochten.
  4. Ten minste één record zou toebehoren aan een kind geboren in 2014, wat ernstige zorgen oproept over kinderbescherming onder COPPA en GDPR. De zeer persoonlijke aard van de betrokken gezondheids- en gedragsdata — eetgewoonten, lichaamsmetingen, fitnessdoelen — creëert leefstijlprofielen die kunnen worden misbruikt voor gerichte social engineering, afpersing of verzekeringsfraude.
  5. Cal AI nam MyFitnessPal over zonder zichtbare security-integratie review, ondanks het eerdere datalek bij MyFitnessPal in 2018 waarbij 150 miljoen accounts van Under Armour werden getroffen. Dit gebrek aan security due diligence bij de overname versterkt een patroon van systematische beveiligingsfouten bij AI-gedreven apps, waarbij minstens 20 gedocumenteerde incidenten tussen januari 2025 en begin 2026 tientallen miljoenen gebruikersrecords blootlegden door dezelfde vermijdbare oorzaken.

Dat is geen typefout. De app die belooft “je persoonlijke informatie altijd privé en veilig te houden” liet blijkbaar de volledige abonnementsdatabase leesbaar achter zonder authenticatie.

Cal AI is razendsnel populair geworden als camera-gebaseerde voedseltrackingtool. Gebruikers maken een foto van hun maaltijd en de AI schat de calorieën en macronutriënten. De app wordt gepromoot door beroemdheden en influencers, en de overname van MyFitnessPal positioneerde Cal AI als een grote speler in de wereld van gezondheid- en welzijnstracking. Cal AI had op het moment van publicatie nog niet gereageerd op persvragen.

Waarom dit datalek anders is

Maaltijdlogs met tijdstempels onthullen wanneer en wat gebruikers eten. Fitnessdoelen en macronutriëntendoelen geven persoonlijke gezondheidsdoelen prijs. Lengte, gewicht en lichaamsmetingen creëren fysieke profielen. Deze data schetst een gedetailleerd beeld van het dagelijks leven — wat gerichte social engineering, verzekeringsfraude, afpersing en identiteitsdiefstal mogelijk maakt.

En dan is er nog de kindgegevens. Minstens één record behoorde tot een gebruiker geboren in 2014. Gezondheidsdata van minderjarigen in handen van dreigingsactoren is een regelrechte ramp op het gebied van regelgeving en ethiek. Onder COPPA en GDPR leidt het lekken van kindgegevens tot veel strengere sancties dan bij datalekken van volwassenen.

Oorzakenanalyse: vier fouten die nooit mogen voorkomen

Dit datalek was niet het gevolg van een complexe, door de staat gesponsorde operatie of een slimme zero-day exploit. Het werd veroorzaakt door fundamentele beveiligingsfouten die elke competente security review binnen enkele uren zou hebben ontdekt.

Niet-geauthenticeerde Firebase-backend. Het toegangspunt van de aanvaller was een Google Firebase-backend zonder authenticatievereisten. Firebase-databases zijn standaard veilig — ontwikkelaars moeten deze actief verkeerd configureren om data publiek toegankelijk te maken. Een Cybernews-audit van meer dan 38.000 Android AI-apps vond honderden Firebase-instanties zonder authenticatie, gezamenlijk goed voor miljarden blootgestelde records. Cal AI liep in een bekende valkuil.

4-cijferige PIN-authenticatie zonder rate limiting. Cal AI vertrouwde naar verluidt op een 4-cijferige numerieke PIN als primaire authenticatiemethode — 10.000 mogelijke combinaties. Zonder rate limiting, account lockouts of CAPTCHA-uitdagingen kan een aanvaller elk account binnen enkele minuten brute-forcen. Een 4-cijferige PIN biedt minder bescherming dan een koffer met een slot en zou voor geen enkele authenticatiestandaard van de afgelopen twintig jaar slagen.

Geen detectie van exfiltratie van 14,59 GB aan data. Het exfiltreren van bijna 15 gigabyte aan data had alarmbellen moeten doen afgaan. Bulkdata op deze schaal veroorzaakt onmiskenbare verkeerspatronen. Het ontbreken van detectie suggereert dat Cal AI geen anomaliedetectie, geen preventie van gegevensverlies en geen inbraakdetectie had. De data was opgeslagen zonder betekenisvolle encryptie — als deze was versleuteld met klantbeheerde sleutels, zou de dump onleesbaar zijn geweest.

Gebrek aan security due diligence bij overname. Cal AI nam MyFitnessPal over — een platform dat al eerder een groot datalek kende onder vorige eigenaar. Die overname had een grondige security due diligence moeten triggeren. Of die review is nooit uitgevoerd, of de bevindingen zijn genegeerd. Beide uitkomsten zijn onverdedigbaar.

Het grotere plaatje: AI-apps kampen met een structurele beveiligingscrisis

Cal AI staat niet op zichzelf. Tussen januari 2025 en begin 2026 werden minstens 20 beveiligingsincidenten gedocumenteerd waarbij de persoonlijke gegevens van tientallen miljoenen gebruikers van AI-gedreven applicaties werden blootgesteld. De oorzaken zijn opvallend consistent: verkeerd geconfigureerde Firebase-databases, ontbrekende authenticatie op cloud-backends, hardcoded API-sleutels en het ontbreken van rate limiting.

Het “vibe coding”-fenomeen — waarbij AI-tools functionele applicaties genereren zonder security review — heeft deze crisis versneld. Apps worden in ongekend tempo gelanceerd, gebouwd door ontwikkelaars die gebruikersgroei boven beveiligingsarchitectuur stellen. Het resultaat is een generatie applicaties die uiterst gevoelige data verwerken met de backend-beveiligingsstatus van een weekend-hackathonproject.

Wat Kiteworks-klanten moeten weten

Elke fout in het Cal AI-datalek correspondeert direct met mogelijkheden die het Kiteworks Private Data Network architectonisch voorkomt.

Zero-trust toegang en enterprise-authenticatie. Kiteworks handhaaft zero-trust toegangscontrole met op attributen gebaseerde beleidsregels voor elk dataverzoek. Multi-factor authentication via RADIUS, PIV/CAC, OTP en externe 2FA-diensten, gecombineerd met SSO via SAML, OAuth, LDAP en Azure AD, elimineert zwakke authenticatiemechanismen volledig. Een 4-cijferige PIN zou nooit een geldig toegangsmechanisme zijn.

Defense-in-depth architectuur. Kiteworks wordt ingezet als een hardened virtual appliance met een ingebouwde webapplicatie-firewall, netwerkfirewall en inbraakdetectie — waardoor ongeautoriseerde API-aanroepen worden geblokkeerd voordat ze data bereiken. Zelfs als één laag wordt doorbroken, blokkeren getrapte componenten zijwaartse bewegingen via een assume-breach ontwerp.

Dubbele encryptie met klantbeheerde sleutels. Data wordt versleuteld op zowel bestand- als schijfniveau met AES-256 en aparte sleutels, waardoor data onleesbaar blijft, zelfs als backendtoegang wordt verkregen. Klantbeheerde sleutels zorgen ervoor dat zelfs de platformaanbieder geen toegang heeft tot klantdata. Een engine voor preventie van gegevensverlies blokkeert of quarantaineert automatisch overdrachten die het beleid schenden.

Uitgebreide audit logging en anomaliedetectie. Elke datainteractie wordt vastgelegd in één onveranderlijke audittrail met realtime SIEM-feeds en zonder throttling. AI-gebaseerde anomaliedetectie signaleert ongebruikelijke toegangs­patronen — zoals bulkdata die kenmerkend is voor exfiltratie — en zou de Cal AI-dump hebben gedetecteerd en geblokkeerd ruim voordat 14,59 GB werd geëxfiltreerd.

AI data governance voor het volgende aanvalsvector. Naarmate AI-gedreven gezondheidsapps steeds meer AI-agenten intern inzetten voor gepersonaliseerde aanbevelingen, zullen deze agenten toegang nodig hebben tot gevoelige gezondheidsdata. De Kiteworks Secure MCP Server en AI Data Gateway zorgen ervoor dat AI-agenten aan dezelfde zero-trust eisen voldoen als menselijke gebruikers — elk verzoek wordt geauthenticeerd, geautoriseerd en gelogd.

De vertrouwensformule is veranderd

Het Cal AI-datalek is een schoolvoorbeeld. Een open backend. Een lachwekkend authenticatiemechanisme. Geen exfiltratiedetectie. Geen encryptie. En de meest intieme gezondheidsdata van 3,2 miljoen mensen op een hackersforum, voor iedereen te downloaden.

Dit is wat er gebeurt als beveiliging een bijzaak is — als apps worden gebouwd om snel op te schalen voordat de infrastructuur die gebruikers beschermt op orde is. Organisaties die gevoelige data verwerken, moeten beveiligingsarchitectuur behandelen als het product zelf, niet als een functie die later wordt toegevoegd. Een Private Data Network dat authenticatie op elke laag afdwingt, data zelfs voor het platform zelf versleutelt en elke interactie realtime monitort, is geen luxe. Het is de standaard. De vraag voor elke organisatie die gevoelige data verwerkt is niet óf er een datalek komt, maar of je architectuur bestand is als het gebeurt.

Veelgestelde vragen

Het Cal AI-datalek heeft van 3,2 miljoen gebruikers volledige namen, e-mails, geboortedata, geslachten, PIN-codes, lengte, gewicht, maaltijdlogs met tijdstempels, fitnessdoelen en abonnementsgegevens blootgelegd. Voor gebruikers van calorie-tracking apps creëren deze gezondheids- en gedragsdata leefstijlprofielen die aanvallers kunnen misbruiken voor social engineering, afpersing en verzekeringsfraude.

Het Cal AI-datalek maakte misbruik van een Firebase-backend zonder authenticatieregels, waardoor de volledige abonnementsdatabase publiek leesbaar was. Firebase is standaard veilig, maar ontwikkelaars moeten beveiligingsregels instellen. Voor gezondheidsapp-ontwikkelaars die Firebase gebruiken betekent dit: controleer direct je beveiligingsregels — dit is de meest voorkomende misconfiguratie bij AI-gedreven applicaties.

Kindgegevens lopen risico door het Cal AI-datalek. Minstens één record behoorde tot een kind geboren in 2014, en mogelijk zijn er meer minderjarigen getroffen. Ouders wordt aangeraden verdachte communicatie in de gaten te houden, wachtwoorden van gekoppelde accounts te wijzigen en multi-factor authentication in te schakelen. Het lekken van kindgegevens leidt tot strengere sancties onder COPPA en GDPR.

Na de melding over het Cal AI-datalek: wijzig direct wachtwoorden van alle accounts die hetzelfde e-mailadres gebruiken en schakel multi-factor authentication overal in waar mogelijk. Let op phishingmails die verwijzen naar gezondheids- of fitnessdata en houd financiële accounts in de gaten voor verdachte activiteiten. De gelekte data circuleert op Russischtalige platforms en Telegram, wat het risico op gerichte oplichting vergroot.

Het MyFitnessPal-datalek van 2018 legde 150 miljoen accounts bloot, maar betrof vooral gebruikersnamen en gehashte wachtwoorden. Het Cal AI-datalek is kleiner, maar veel ingrijpender: het lekt lichaamsmetingen, maaltijdlogs en fitnessdoelen. Voor bedrijven die MyFitnessPal overwegen voor werknemerswelzijn, is het feit dat Cal AI de bekende beveiligingszwaktes niet heeft aangepakt bij de overname reden tot serieuze zorg over zorgvuldigheid.

AI-gedreven gezondheidsapps zoals Cal AI zijn kwetsbaar omdat ze zeer persoonlijke gedragsdata verzamelen en snelheid naar de markt boven beveiligingsarchitectuur stellen. Tussen januari 2025 en begin 2026 zijn minstens 20 AI-app-datalekken terug te voeren op dezelfde oorzaken: verkeerd geconfigureerde Firebase-databases en ontbrekende authenticatie. Teams die AI-gezondheidsapps bouwen, moeten security reviews verplicht stellen vóór productie-inzet.

Het Cal AI-datalek had voorkomen kunnen worden door zero-trust toegangscontrole, multi-factor authentication in plaats van 4-cijferige PINs, ingebouwde WAF en firewalls die ongeautoriseerde API-toegang blokkeren, dubbele encryptie met klantbeheerde sleutels en anomaliedetectie die bulkexfiltratie signaleert. Securityteams die gezondheidsapp-leveranciers beoordelen, moeten bewijs van al deze vijf maatregelen eisen vóór goedkeuring van integratie.

Het Cal AI-datalek laat zien dat organisaties die AI-welzijnstools inzetten, eerst de backend-beveiligingsarchitectuur moeten verifiëren vóór integratie. Eis zero-trust toegang, MFA, encryptie met klantbeheerde sleutels, audit logging en anomaliedetectie van elke leverancier die werknemersgezondheidsdata verwerkt. Een Private Data Network zorgt voor consistente governance bij alle externe data-uitwisselingen.

Aan de slag.

Het is eenvoudig om te beginnen met het waarborgen van naleving van regelgeving en het effectief beheren van risico’s met Kiteworks. Sluit je aan bij de duizenden organisaties die vol vertrouwen privégegevens uitwisselen tussen mensen, machines en systemen. Begin vandaag nog.

Table of Content
Share
Tweet
Share
Explore Kiteworks