| Ingediend | 12 januari 2026 |
|---|---|
| Beantwoord | 17 maart 2026 (na 64 dagen) |
| Indieners | Tijs van den Brink (CDA), Jantine Zwinkels (CDA) |
| Beantwoord door | van Marum , Foort van Oosten (VVD) |
| Onderwerpen | economie ict internationaal organisatie en beleid |
| Bron vraag | https://zoek.officielebekendmakingen.nl/kv-tk-2026Z00233.html |
| Bron antwoord | https://zoek.officielebekendmakingen.nl/ah-tk-20252026-1351.html |
Ja.
Ja, wij vinden het onacceptabel dat met behulp van de AI-chatbot Grok op grote schaal deepnudes (seksueel getinte nepafbeeldingen of -video’s) zijn gegenereerd. Het bericht dat zoveel mensen, slachtoffer zijn geworden vinden wij zeer zorgwekkend. De slachtoffers zijn met name vrouwen en minderjarigen, maar deepnudes kunnen in potentie van iedereen gemaakt worden. De impact en de gevolgen van deepnudes voor slachtoffers en hun omgeving zijn enorm, mede omdat het maken van deepnudes steeds geavanceerder wordt en daarmee deepnudes steeds realistischer worden. Daarnaast zijn deze beelden ook schadelijk voor de samenleving, omdat iedereen, specifiek jongeren, ze online tegen kunnen komen. Het vervaardigen van seksueel beeldmateriaal van minderjarigen of van personen zonder toestemming, is strafbaar, ook als het materiaal met AI is gegenereerd.
In de aanpak van dit soort platforms vinden wij de Europese benadering van belang, waarbij wij als Europese lidstaten één lijn trekken. GROK AI wordt – omdat het onderdeel van X is – via de Europese Digitale Dienstenverordening (DSA) gereguleerd. X is een zeer groot online platform (meer dan 45 miljoen maandelijkse gebruikers) waarop de Europese Commissie (EC) toezicht houdt. De EC is inmiddels een onderzoek gestart in het kader van de DSA.2 Onder de DSA zijn platforms verplicht om illegale content zo snel mogelijk te verwijderen.
In het Verenigd Koninkrijk (VK) is toezichthouder Ofcom een onderzoek gestart. Het toezicht in het VK is anders geregeld, omdat het VK geen lid is van de EU en de DSA daarom niet van toepassing is.
Nee, wij vinden het handelen van X op dit punt hoe dan ook niet wenselijk.
Voor al dit soort praktijken bestaat hetzelfde juridische kader dat deze praktijken tegen moet gaan. Hierbij is het relevant onderscheid te maken tussen illegale content en niet-illegale content. Alle beelden die illegaal zijn – zoals afbeeldingen van seksueel misbruik van kinderen3 – zijn ook illegaal als deze door AI gegeneerd zijn. Op grond van de DSA moet deze illegale content zo snel mogelijk verwijderd worden, zodra het platform kennis heeft van illegale content (als het bijvoorbeeld is gemeld). Voor wat betreft mogelijk schadelijke, niet-illegale content, geldt dat de DSA voorschrijft dat platforms zoals X systeemrisico’s in kaart moeten brengen en moeten mitigeren (artikel 34 DSA). Zoals hierboven aangegeven, is de EC, die hierop toezicht houdt, inmiddels een onderzoek gestart in het kader van de DSA.
Relevant is verder artikel 14 van de DSA dat regelt dat online platforms in hun gebruiksvoorwaarden informatie moeten opnemen over eventuele beperkingen die zij aan het gebruik van hun dienst opleggen met betrekking tot door de afnemers van de dienst verstrekte informatie. Die informatie omvat gegevens over eventuele beleidsmaatregelen, procedures, maatregelen en instrumenten die worden ingezet voor inhoudsmoderatie, met inbegrip van algoritmische besluitvorming en menselijke controle, alsook de procedurevoorschriften van hun interne klachtenafhandelingssysteem.
Jazeker en wij zien in het geval van Grok AI al een aantal ontwikkelingen in de goede richting. Zo heeft X naar aanleiding van de toenemende druk laten weten de regels voor AI-chatbot Grok aan te scherpen, waardoor het niet meer mogelijk moet zijn om mensen ermee «uit te kleden» of afbeeldingen te creëren van echte mensen in weinig verhullende kleding. Indien er onverhoopt toch nog gemanipuleerde illegale beelden van vrouwen en minderjarigen op het platform staan, kan een ieder op grond van artikel 16 van de DSA een verwijderverzoek indienen. Het platform dient een dergelijk verwijderverzoek op een tijdige, zorgvuldige, niet-willekeurige en objectieve wijze te verwerken.
Als het verwijderen van de illegale content niet lukt door middel van een melding aan het platform, kan een gespecialiseerde hulporganisatie worden ingeschakeld. Op basis van de DSA is Offlimits door de Autoriteit Consument en Markt (ACM), de coördinerende toezichthouder op de DSA in Nederland, aangewezen als betrouwbare flagger. Dit houdt in dat zij verwijderverzoeken van illegale content kan indienen bij online platforms zoals X. X dient vervolgens onverwijld en prioritair dit verwijderverzoek te behandelen, en indien sprake is van illegale content dient het platform deze te verwijderen.
Indien een platform nalaat om adequaat op een melding te reageren, biedt de DSA mogelijkheden tot handhaving waarbij in het geval van X de Europese Commissie in kan grijpen. De EC kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Zoals hierboven vermeld, is de EC een onderzoek gestart naar X, waarbij specifiek wordt gekeken naar AI-chatbot Grok, vanwege mogelijke overtredingen van de DSA. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, een gerechtelijke procedure te starten.
Ja, een ieder kan op grond van artikel 16 van de DSA een verwijderverzoek indienen wanneer er gemanipuleerde illegale beelden van vrouwen en minderjarigen op een platform staan.
Daarnaast rust op grond van de DSA op zeer grote onlineplatforms en zeer grote onlinezoekmachines de verantwoordelijkheid om illegale inhoud op hun diensten tegen te gaan en systeemrisico’s te mitigeren. Tevens dienen zij hun gebruikers in staat te stellen om illegale inhoud of inhoud die in strijd is met de gebruiksvoorwaarden van een zeer groot onlineplatform op eenvoudige wijze te melden. Het platform X is door de EC aangewezen als zeer groot online platform, waardoor al het bovenstaande van toepassing is.4
Deze zorgvuldigheidsplicht geldt ook ten aanzien van deepnudes, zodra deze illegaal zijn.5 Zo is op grond van artikel 252 Wetboek van Strafrecht (Sr) (ziet specifiek op seksueel beeldmateriaal van minderjarigen) en artikel 254ba Sr het zonder instemming maken, voorhanden hebben of verspreiden van seksueel beeldmateriaal strafbaar, ongeacht of dit door een persoon of AI is vervaardigd. Ook andere strafrechtelijke bepalingen, zoals doxing (art. 285d Sr) en smaad/laster (respectievelijk art. 261 en 262 Sr), zijn in voorkomend geval mogelijk van toepassing, bijvoorbeeld als de AI-chatbot gegenereerde beelden/ bewerkingen van personen bevatten met het oogmerk die persoon vrees aan te (laten) jagen (doxing) of opzettelijk iemands eer of goede naam aanrandt (smaad/laster), en er aan de andere voorwaarden van die specifieke wetsartikelen wordt voldaan.
Zoals ook aangegeven bij het antwoord op vraag 5, is X op grond van artikel 16 van de DSA verplicht een toegankelijk en gebruiksvriendelijk digitaal meldsysteem in te richten waarmee iedereen illegale online inhoud, zoals materiaal van illegale deepnudes, kan melden. Het derde lid van artikel 16 DSA verduidelijkt dat een melding van illegale inhoud, conform de vereisten van dat artikel, leidt tot zogenaamde «daadwerkelijke kennis of bekendheid» van die illegale inhoud bij een hostingbedrijf of online platform. Zodra dat het geval is, moet zij prompt handelen om die illegale inhoud te verwijderen of de toegang daartoe onmogelijk te maken. Doet een platform dat niet dan kan zij geen beroep doen op de vrijwaring van aansprakelijkheid uit artikel 6 van de DSA en zelfstandig aansprakelijk worden gesteld voor die illegale inhoud. Voor het indienen van een verwijderverzoek kan de hulp van Offlimits, een betrouwbare flagger, worden ingeschakeld.
Slachtoffers kunnen bij verschillende organisaties, zoals Slachtofferhulp Nederland (SHN), Centrum Seksueel Geweld (CSG) en Offlimits, terecht voor hulp. Deze organisaties werken voortdurend aan het onder de aandacht brengen van hun meldpunten en/of hulplijnen, bijvoorbeeld door middel van campagnes. Als het slachtoffer overweegt een melding te maken of aangifte te doen, kan deze terecht bij de politie. Genoemde hulporganisaties kunnen slachtoffers hierover informeren of hierbij ondersteunen.
Bij bovengenoemde hulporganisaties is niet bekend of er ook Nederlanders zijn, die slachtoffer zijn geworden van de AI-naaktbeelden, die specifiek met de AI-Chatbot Grok zijn gegenereerd. Dit komt omdat bij meldingen die door slachtoffers worden gedaan bij SHN en CSG, in de registratie geen onderscheid wordt gemaakt naar misbruik van echt dan wel AI-gegenereerd beeldmateriaal. Bij meldingen die door slachtoffers worden gedaan bij Offlimits, wordt in de registratie wel onderscheid gemaakt tussen echt en AI-gegenereerd beeldmateriaal, maar wordt niet geregistreerd met welke specifieke AI-applicatie, zoals bijvoorbeeld de AI-chatbot Grok, de afbeeldingen zijn gegenereerd.
De politie heeft in de afgelopen twee maanden wel een toename gezien in de hoeveelheid meldingen die vanuit platforms wordt gedaan over uploads naar AI-chatbot Grok. Mogelijk zijn er slachtoffers die zelf melding hebben gedaan bij de politie, maar dit is niet goed uit de registratie te halen, omdat de melding onder verschillende delictsoorten kan worden geregistreerd.
De Nederlandse wetgeving biedt via de artikelen 252 en 254ba Sr voldoende mogelijkheden om strafrechtelijk op te treden tegen personen die met AI applicaties (zonder toestemming) deepnudes van personen, waaronder vrouwen en minderjarigen, genereren, voorhanden hebben en verspreiden.
De strafbaarstelling van artikel 254ba Sr omvat onder meer het, zonder toestemming van de afgebeelde, vervaardigen van (nep) seksueel beeldmateriaal. Ook het openbaar maken en het voorhanden hebben van dergelijke (nep) naaktbeelden valt onder het bereik van dit artikel. Wanneer het materiaal van minderjarigen betreft is het seksueel beeldmateriaal van kinderen en is het strafbaar op grond van artikel 252 Sr.
Naast de strafrechtelijke handhaving door het Openbaar Ministerie (OM) op bovenstaande strafrechtelijke bepalingen zijn er bestuursrechtelijke handhavers die werken aan de bestrijding van online illegale content. Een van de belangrijkste is de ACM, die als digitaledienstencoördinator voor Nederland handhaaft op de verplichtingen uit de DSA.
De Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM) geeft uitvoering aan maatregelen die Nederland op grond van EU- en nationale regelgeving moet nemen om online terroristisch en seksueel beeldmateriaal van kinderen te signaleren en snelle verwijdering ervan door aanbieders van hostingdiensten te garanderen.
De Autoriteit Persoonsgegevens (AP) is een onafhankelijke toezichthouder die per geval – uit eigen beweging of op verzoek – beoordeelt of wordt voldaan aan de Algemene Verordening Gegevensbescherming (AVG). Het is aan de AP om te beoordelen of een AI deepfake een schending is van de AVG. Wanneer de AP een overtreding constateert, kan de AP een boete of dwangsom opleggen, en bevelen tot het stopzeten van gegevensverwerkingen.6
Daarnaast kunnen slachtoffers van AI deepfakes mogelijk bescherming vinden in het civielrecht. Artikel 6:162 van het Burgerlijk Wetboek biedt het kader voor wat onrechtmatig is in civielrechtelijke zin – al dan niet in combinatie met specifieke civielrechtelijke bepalingen. Hierbij gaat het in de kern om een inbreuk op een recht en een doen of nalaten in strijd met een wettelijke plicht of met hetgeen volgens ongeschreven recht in het maatschappelijk verkeer betaamt, een en ander behoudens de aanwezigheid van een rechtvaardigingsgrond.
In Nederland controleren de bevoegde toezichthouders of platforms voldoen aan wettelijke verplichtingen. De DSA bevat verplichtingen op grond waarvan de ACM kan handhaven wanneer online platforms of hostingproviders onvoldoende optreden tegen illegale inhoud en hun processen met betrekking tot meldingen niet op orde hebben. Dit kan het geval zijn als blijkt dat de onlinedienst niet of onvoldoende gemotiveerd of traag reageert op meldingen over illegale inhoud van bijvoorbeeld gebruikers of trusted flaggers.
Het kan zijn dat niet de ACM maar een toezichthouder in een andere lidstaat bevoegd is ten aanzien van de online dienst in kwestie. In het geval van X/Grok is bijvoorbeeld de EC primair bevoegd. Zij kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, ook een gerechtelijke procedure te starten.
De ACM roept slachtoffers van dergelijke beelden op om melding te doen bij het platform/de hosting provider, bij de politie of bij een trusted flagger zoals Offlimits. Deze meldingen zijn waardevol om aan te tonen dat materiaal zonder toestemming is verspreid. Ook kan naar aanleiding van de meldingen blijken dat het platform/de hosting provider onvoldoende optreedt tegen illegale inhoud, waarna de ACM daarop kan handelen.
Daarnaast is de AP op grond van de DSA en de AVG een bevoegd toezichthouder op het gebied van illegale deepnudes. Als deepnudes zonder toestemming worden verspreid, kan er sprake zijn van onrechtmatige verwerking van persoonsgegevens. De AP kan een onderzoek instellen naar personen of organisaties die verantwoordelijk zijn voor het (mogelijk) maken en verspreiden van dit soort materiaal. Dit kunnen in bepaalde gevallen online platforms zijn, maar ook hostingproviders die de content hosten. Voor de AP is het wel van belang dat de partij die verantwoordelijk is voor de content (afhankelijk van de omstandigheden van het geval; het individu en/of het platform) te achterhalen is, wat, anders dan bij X, niet altijd het geval is. Het kan zijn dat niet de AP, maar een gegevensbeschermingsautoriteit in een andere lidstaat bevoegd is wat betreft de onlinedienst in kwestie. Als uit het onderzoek blijkt dat er overtredingen zijn, kan de AP of andere autoriteit aanbieders van onlinediensten bijvoorbeeld een verwerkingsverbod opleggen wat betreft het onrechtmatige materiaal. Het proces van onderzoek en bestuursrechtelijk handhaven zal in de regel niet leiden tot het snel offline zijn van de beelden.
Binnen het Ministerie van Justitie en Veiligheid wordt gekeken naar de mogelijkheden om het gebruik van nudify applicaties verder tegen te gaan. Ondanks de mogelijkheid om gebruikers van de applicaties strafrechtelijk te vervolgen (via de artikelen 252 en 254ba Sr) en de mogelijkheid om elk illegaal beeld steeds te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen. Om die reden wordt bezien of het wenselijk en haalbaar is het aanbieden van de applicaties zelf te verbieden, nationaal dan wel Europees. Inmiddels hebben met verschillende stakeholders en experts gesprekken plaatsgevonden. Voordat een inhoudelijke positie bepaald wordt, is verdere studie nodig.
Zoals bij vraag 8 beantwoord, kan tegen het (zonder toestemming) genereren, voorhanden hebben en verspreiden van deepnudes nu al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba Sr. Ondanks deze strafrechtelijke mogelijkheden en de mogelijkheid om elk illegaal beeld te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen.
Het wetsvoorstel naburig recht deepfakes van personen, een initiatiefvoorstel dat in voorbereiding was bij het voormalig Kamerlid Dral (VVD), is (nog) niet ingediend bij de Tweede Kamer. Er heeft van 30 oktober tot en met 31 december 2025 een internetconsultatie plaatsgevonden over een voorontwerp van de wet van haar hand. Dit voorontwerp is voor advies voorgelegd bij de Commissie Auteursrecht. Het is aan de opvolger van het lid Dral om te besluiten of en hoe het traject wordt voortgezet. Gelet op de voorbereidende fase waarin het wetsvoorstel zich op dit moment bevindt, kan niet worden beoordeeld in hoeverre het Wetsvoorstel een meerwaarde zal hebben voor de aanpak. Zoals bij de vragen 8 en 11 beantwoord, kan tegen het (zonder toestemming) vervaardigen, voorhanden hebben en verspreiden van deepnudes al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba van het Wetboek van Strafrecht.
Ja, daartoe zijn wij bereid. Zoals is geantwoord bij vraag 10, vindt bij het Ministerie van Justitie en Veiligheid een verkenning plaats waarbij wordt gekeken naar de mogelijkheden om het gebruik van nudify-applicaties verder tegen te gaan. Binnen dit onderzoek vinden ook gesprekken plaats met andere Europese lidstaten, om te bezien hoe de aanpak daar is vormgegeven en of gezamenlijk kan worden opgetreden.
Hierbij deel ik u mede dat de beantwoording van vragen van leden van de Tweede Kamer naar aanleiding van berichten over de app GROK van platform X niet binnen de daarvoor geldende termijn kunnen worden beantwoord. Het betreft drie sets vragen: De zorgvuldige beantwoording van de vragen van de fracties vergt nadere interdepartementale afstemming, hetgeen meer tijd vraagt. Ik streef ernaar de beantwoording zo spoedig mogelijk aan uw Kamer te doen toekomen.