Het bericht 'Wereldwijde druk op X groeit om bikini-deepfakes en AI-beelden minderjarigen' |
|
Tijs van den Brink (CDA), Jantine Zwinkels (CDA) |
|
van Marum , Foort van Oosten (VVD) |
|
|
|
|
Bent u bekend met het bericht «Wereldwijde druk op X groeit om bikini-deepfakes en AI-beelden minderjarigen»?1
Ja.
Deelt u de mening dat het volstrekt onacceptabel en aanstotelijk is dat X op grote schaal seksuele deepfakes van vrouwen en minderjarigen genereert met AI-chatbot Grok?
Ja, wij vinden het onacceptabel dat met behulp van de AI-chatbot Grok op grote schaal deepnudes (seksueel getinte nepafbeeldingen of -video’s) zijn gegenereerd. Het bericht dat zoveel mensen, slachtoffer zijn geworden vinden wij zeer zorgwekkend. De slachtoffers zijn met name vrouwen en minderjarigen, maar deepnudes kunnen in potentie van iedereen gemaakt worden. De impact en de gevolgen van deepnudes voor slachtoffers en hun omgeving zijn enorm, mede omdat het maken van deepnudes steeds geavanceerder wordt en daarmee deepnudes steeds realistischer worden. Daarnaast zijn deze beelden ook schadelijk voor de samenleving, omdat iedereen, specifiek jongeren, ze online tegen kunnen komen. Het vervaardigen van seksueel beeldmateriaal van minderjarigen of van personen zonder toestemming, is strafbaar, ook als het materiaal met AI is gegenereerd.
Bent u bereid om aan te sluiten bij landen zoals Frankrijk en Australië die een onderzoek zijn begonnen tegen X en eisen dat X in actie komt tegen de stroom aan deepfakes van vrouwen? Welke concrete stappen gaat u hiervoor zetten?
In de aanpak van dit soort platforms vinden wij de Europese benadering van belang, waarbij wij als Europese lidstaten één lijn trekken. GROK AI wordt – omdat het onderdeel van X is – via de Europese Digitale Dienstenverordening (DSA) gereguleerd. X is een zeer groot online platform (meer dan 45 miljoen maandelijkse gebruikers) waarop de Europese Commissie (EC) toezicht houdt. De EC is inmiddels een onderzoek gestart in het kader van de DSA.2 Onder de DSA zijn platforms verplicht om illegale content zo snel mogelijk te verwijderen.
In het Verenigd Koninkrijk (VK) is toezichthouder Ofcom een onderzoek gestart. Het toezicht in het VK is anders geregeld, omdat het VK geen lid is van de EU en de DSA daarom niet van toepassing is.
Vindt u het wenselijk dat X veel verder gaat dan concurrenten als het gaat om het toestaan van bikini-deepfakes, terwijl voor andere AI-chatbots strengere beperkingen gelden voor wat met kunstmatige intelligentie mag worden gemaakt?
Nee, wij vinden het handelen van X op dit punt hoe dan ook niet wenselijk.
Voor al dit soort praktijken bestaat hetzelfde juridische kader dat deze praktijken tegen moet gaan. Hierbij is het relevant onderscheid te maken tussen illegale content en niet-illegale content. Alle beelden die illegaal zijn – zoals afbeeldingen van seksueel misbruik van kinderen3 – zijn ook illegaal als deze door AI gegeneerd zijn. Op grond van de DSA moet deze illegale content zo snel mogelijk verwijderd worden, zodra het platform kennis heeft van illegale content (als het bijvoorbeeld is gemeld). Voor wat betreft mogelijk schadelijke, niet-illegale content, geldt dat de DSA voorschrijft dat platforms zoals X systeemrisico’s in kaart moeten brengen en moeten mitigeren (artikel 34 DSA). Zoals hierboven aangegeven, is de EC, die hierop toezicht houdt, inmiddels een onderzoek gestart in het kader van de DSA.
Relevant is verder artikel 14 van de DSA dat regelt dat online platforms in hun gebruiksvoorwaarden informatie moeten opnemen over eventuele beperkingen die zij aan het gebruik van hun dienst opleggen met betrekking tot door de afnemers van de dienst verstrekte informatie. Die informatie omvat gegevens over eventuele beleidsmaatregelen, procedures, maatregelen en instrumenten die worden ingezet voor inhoudsmoderatie, met inbegrip van algoritmische besluitvorming en menselijke controle, alsook de procedurevoorschriften van hun interne klachtenafhandelingssysteem.
Gaat u zich inzetten om gemanipuleerde seksuele afbeeldingen van vrouwen en minderjarigen zo snel mogelijk van het platform te laten verwijderen? Zo ja, op welke manier gaat u dat doen?
Jazeker en wij zien in het geval van Grok AI al een aantal ontwikkelingen in de goede richting. Zo heeft X naar aanleiding van de toenemende druk laten weten de regels voor AI-chatbot Grok aan te scherpen, waardoor het niet meer mogelijk moet zijn om mensen ermee «uit te kleden» of afbeeldingen te creëren van echte mensen in weinig verhullende kleding. Indien er onverhoopt toch nog gemanipuleerde illegale beelden van vrouwen en minderjarigen op het platform staan, kan een ieder op grond van artikel 16 van de DSA een verwijderverzoek indienen. Het platform dient een dergelijk verwijderverzoek op een tijdige, zorgvuldige, niet-willekeurige en objectieve wijze te verwerken.
Als het verwijderen van de illegale content niet lukt door middel van een melding aan het platform, kan een gespecialiseerde hulporganisatie worden ingeschakeld. Op basis van de DSA is Offlimits door de Autoriteit Consument en Markt (ACM), de coördinerende toezichthouder op de DSA in Nederland, aangewezen als betrouwbare flagger. Dit houdt in dat zij verwijderverzoeken van illegale content kan indienen bij online platforms zoals X. X dient vervolgens onverwijld en prioritair dit verwijderverzoek te behandelen, en indien sprake is van illegale content dient het platform deze te verwijderen.
Indien een platform nalaat om adequaat op een melding te reageren, biedt de DSA mogelijkheden tot handhaving waarbij in het geval van X de Europese Commissie in kan grijpen. De EC kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Zoals hierboven vermeld, is de EC een onderzoek gestart naar X, waarbij specifiek wordt gekeken naar AI-chatbot Grok, vanwege mogelijke overtredingen van de DSA. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, een gerechtelijke procedure te starten.
Is het mogelijk om op basis van de Digital Services Act (DSA) een verwijderverzoek in te dienen als het gaat om dergelijke deepfake afbeeldingen?
Ja, een ieder kan op grond van artikel 16 van de DSA een verwijderverzoek indienen wanneer er gemanipuleerde illegale beelden van vrouwen en minderjarigen op een platform staan.
Daarnaast rust op grond van de DSA op zeer grote onlineplatforms en zeer grote onlinezoekmachines de verantwoordelijkheid om illegale inhoud op hun diensten tegen te gaan en systeemrisico’s te mitigeren. Tevens dienen zij hun gebruikers in staat te stellen om illegale inhoud of inhoud die in strijd is met de gebruiksvoorwaarden van een zeer groot onlineplatform op eenvoudige wijze te melden. Het platform X is door de EC aangewezen als zeer groot online platform, waardoor al het bovenstaande van toepassing is.4
Deze zorgvuldigheidsplicht geldt ook ten aanzien van deepnudes, zodra deze illegaal zijn.5 Zo is op grond van artikel 252 Wetboek van Strafrecht (Sr) (ziet specifiek op seksueel beeldmateriaal van minderjarigen) en artikel 254ba Sr het zonder instemming maken, voorhanden hebben of verspreiden van seksueel beeldmateriaal strafbaar, ongeacht of dit door een persoon of AI is vervaardigd. Ook andere strafrechtelijke bepalingen, zoals doxing (art. 285d Sr) en smaad/laster (respectievelijk art. 261 en 262 Sr), zijn in voorkomend geval mogelijk van toepassing, bijvoorbeeld als de AI-chatbot gegenereerde beelden/ bewerkingen van personen bevatten met het oogmerk die persoon vrees aan te (laten) jagen (doxing) of opzettelijk iemands eer of goede naam aanrandt (smaad/laster), en er aan de andere voorwaarden van die specifieke wetsartikelen wordt voldaan.
Zoals ook aangegeven bij het antwoord op vraag 5, is X op grond van artikel 16 van de DSA verplicht een toegankelijk en gebruiksvriendelijk digitaal meldsysteem in te richten waarmee iedereen illegale online inhoud, zoals materiaal van illegale deepnudes, kan melden. Het derde lid van artikel 16 DSA verduidelijkt dat een melding van illegale inhoud, conform de vereisten van dat artikel, leidt tot zogenaamde «daadwerkelijke kennis of bekendheid» van die illegale inhoud bij een hostingbedrijf of online platform. Zodra dat het geval is, moet zij prompt handelen om die illegale inhoud te verwijderen of de toegang daartoe onmogelijk te maken. Doet een platform dat niet dan kan zij geen beroep doen op de vrijwaring van aansprakelijkheid uit artikel 6 van de DSA en zelfstandig aansprakelijk worden gesteld voor die illegale inhoud. Voor het indienen van een verwijderverzoek kan de hulp van Offlimits, een betrouwbare flagger, worden ingeschakeld.
Zijn er voor zover bekend ook Nederlands slachtoffers van deze AI-beelden en zo ja, is voor deze slachtoffers voldoende bekend waar zij terecht kunnen voor hulp?
Slachtoffers kunnen bij verschillende organisaties, zoals Slachtofferhulp Nederland (SHN), Centrum Seksueel Geweld (CSG) en Offlimits, terecht voor hulp. Deze organisaties werken voortdurend aan het onder de aandacht brengen van hun meldpunten en/of hulplijnen, bijvoorbeeld door middel van campagnes. Als het slachtoffer overweegt een melding te maken of aangifte te doen, kan deze terecht bij de politie. Genoemde hulporganisaties kunnen slachtoffers hierover informeren of hierbij ondersteunen.
Bij bovengenoemde hulporganisaties is niet bekend of er ook Nederlanders zijn, die slachtoffer zijn geworden van de AI-naaktbeelden, die specifiek met de AI-Chatbot Grok zijn gegenereerd. Dit komt omdat bij meldingen die door slachtoffers worden gedaan bij SHN en CSG, in de registratie geen onderscheid wordt gemaakt naar misbruik van echt dan wel AI-gegenereerd beeldmateriaal. Bij meldingen die door slachtoffers worden gedaan bij Offlimits, wordt in de registratie wel onderscheid gemaakt tussen echt en AI-gegenereerd beeldmateriaal, maar wordt niet geregistreerd met welke specifieke AI-applicatie, zoals bijvoorbeeld de AI-chatbot Grok, de afbeeldingen zijn gegenereerd.
De politie heeft in de afgelopen twee maanden wel een toename gezien in de hoeveelheid meldingen die vanuit platforms wordt gedaan over uploads naar AI-chatbot Grok. Mogelijk zijn er slachtoffers die zelf melding hebben gedaan bij de politie, maar dit is niet goed uit de registratie te halen, omdat de melding onder verschillende delictsoorten kan worden geregistreerd.
In hoeverre biedt Nederlandse wetgeving bescherming tegen het genereren en verspreiden van AI-deepfakes van vrouwen en minderjarigen en is dit volgens u voldoende?
De Nederlandse wetgeving biedt via de artikelen 252 en 254ba Sr voldoende mogelijkheden om strafrechtelijk op te treden tegen personen die met AI applicaties (zonder toestemming) deepnudes van personen, waaronder vrouwen en minderjarigen, genereren, voorhanden hebben en verspreiden.
De strafbaarstelling van artikel 254ba Sr omvat onder meer het, zonder toestemming van de afgebeelde, vervaardigen van (nep) seksueel beeldmateriaal. Ook het openbaar maken en het voorhanden hebben van dergelijke (nep) naaktbeelden valt onder het bereik van dit artikel. Wanneer het materiaal van minderjarigen betreft is het seksueel beeldmateriaal van kinderen en is het strafbaar op grond van artikel 252 Sr.
Naast de strafrechtelijke handhaving door het Openbaar Ministerie (OM) op bovenstaande strafrechtelijke bepalingen zijn er bestuursrechtelijke handhavers die werken aan de bestrijding van online illegale content. Een van de belangrijkste is de ACM, die als digitaledienstencoördinator voor Nederland handhaaft op de verplichtingen uit de DSA.
De Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM) geeft uitvoering aan maatregelen die Nederland op grond van EU- en nationale regelgeving moet nemen om online terroristisch en seksueel beeldmateriaal van kinderen te signaleren en snelle verwijdering ervan door aanbieders van hostingdiensten te garanderen.
De Autoriteit Persoonsgegevens (AP) is een onafhankelijke toezichthouder die per geval – uit eigen beweging of op verzoek – beoordeelt of wordt voldaan aan de Algemene Verordening Gegevensbescherming (AVG). Het is aan de AP om te beoordelen of een AI deepfake een schending is van de AVG. Wanneer de AP een overtreding constateert, kan de AP een boete of dwangsom opleggen, en bevelen tot het stopzeten van gegevensverwerkingen.6
Daarnaast kunnen slachtoffers van AI deepfakes mogelijk bescherming vinden in het civielrecht. Artikel 6:162 van het Burgerlijk Wetboek biedt het kader voor wat onrechtmatig is in civielrechtelijke zin – al dan niet in combinatie met specifieke civielrechtelijke bepalingen. Hierbij gaat het in de kern om een inbreuk op een recht en een doen of nalaten in strijd met een wettelijke plicht of met hetgeen volgens ongeschreven recht in het maatschappelijk verkeer betaamt, een en ander behoudens de aanwezigheid van een rechtvaardigingsgrond.
Op welke manier wordt in Nederland gecontroleerd of platforms voldoen aan verplichtingen rondom schadelijke AI-inhoud?
In Nederland controleren de bevoegde toezichthouders of platforms voldoen aan wettelijke verplichtingen. De DSA bevat verplichtingen op grond waarvan de ACM kan handhaven wanneer online platforms of hostingproviders onvoldoende optreden tegen illegale inhoud en hun processen met betrekking tot meldingen niet op orde hebben. Dit kan het geval zijn als blijkt dat de onlinedienst niet of onvoldoende gemotiveerd of traag reageert op meldingen over illegale inhoud van bijvoorbeeld gebruikers of trusted flaggers.
Het kan zijn dat niet de ACM maar een toezichthouder in een andere lidstaat bevoegd is ten aanzien van de online dienst in kwestie. In het geval van X/Grok is bijvoorbeeld de EC primair bevoegd. Zij kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, ook een gerechtelijke procedure te starten.
De ACM roept slachtoffers van dergelijke beelden op om melding te doen bij het platform/de hosting provider, bij de politie of bij een trusted flagger zoals Offlimits. Deze meldingen zijn waardevol om aan te tonen dat materiaal zonder toestemming is verspreid. Ook kan naar aanleiding van de meldingen blijken dat het platform/de hosting provider onvoldoende optreedt tegen illegale inhoud, waarna de ACM daarop kan handelen.
Daarnaast is de AP op grond van de DSA en de AVG een bevoegd toezichthouder op het gebied van illegale deepnudes. Als deepnudes zonder toestemming worden verspreid, kan er sprake zijn van onrechtmatige verwerking van persoonsgegevens. De AP kan een onderzoek instellen naar personen of organisaties die verantwoordelijk zijn voor het (mogelijk) maken en verspreiden van dit soort materiaal. Dit kunnen in bepaalde gevallen online platforms zijn, maar ook hostingproviders die de content hosten. Voor de AP is het wel van belang dat de partij die verantwoordelijk is voor de content (afhankelijk van de omstandigheden van het geval; het individu en/of het platform) te achterhalen is, wat, anders dan bij X, niet altijd het geval is. Het kan zijn dat niet de AP, maar een gegevensbeschermingsautoriteit in een andere lidstaat bevoegd is wat betreft de onlinedienst in kwestie. Als uit het onderzoek blijkt dat er overtredingen zijn, kan de AP of andere autoriteit aanbieders van onlinediensten bijvoorbeeld een verwerkingsverbod opleggen wat betreft het onrechtmatige materiaal. Het proces van onderzoek en bestuursrechtelijk handhaven zal in de regel niet leiden tot het snel offline zijn van de beelden.
Vindt u dat de mogelijkheid om elk persoon of object door een AI-bot af te laten beelden in bikini geschrapt moet worden om te voorkomen dat vrouwen en minderjarigen slachtoffer worden van seksuele deepfakes? Zo ja, welke stappen gaat u ondernemen?
Binnen het Ministerie van Justitie en Veiligheid wordt gekeken naar de mogelijkheden om het gebruik van nudify applicaties verder tegen te gaan. Ondanks de mogelijkheid om gebruikers van de applicaties strafrechtelijk te vervolgen (via de artikelen 252 en 254ba Sr) en de mogelijkheid om elk illegaal beeld steeds te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen. Om die reden wordt bezien of het wenselijk en haalbaar is het aanbieden van de applicaties zelf te verbieden, nationaal dan wel Europees. Inmiddels hebben met verschillende stakeholders en experts gesprekken plaatsgevonden. Voordat een inhoudelijke positie bepaald wordt, is verdere studie nodig.
Denkt u dat een algeheel verbod op het generen van seksuele content door AI-bots kan helpen om te voorkomen dat vrouwen en minderjarigen hiervan slachtoffer worden? Zo nee, waarom niet?
Zoals bij vraag 8 beantwoord, kan tegen het (zonder toestemming) genereren, voorhanden hebben en verspreiden van deepnudes nu al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba Sr. Ondanks deze strafrechtelijke mogelijkheden en de mogelijkheid om elk illegaal beeld te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen.
In hoeverre kan de in consultatie gebrachte Wet naburig recht deepfakes van personen bij vergelijkbare gevallen behulpzaam zijn? En wanneer kan de Tweede Kamer dit wetsvoorstel verwachten?
Het wetsvoorstel naburig recht deepfakes van personen, een initiatiefvoorstel dat in voorbereiding was bij het voormalig Kamerlid Dral (VVD), is (nog) niet ingediend bij de Tweede Kamer. Er heeft van 30 oktober tot en met 31 december 2025 een internetconsultatie plaatsgevonden over een voorontwerp van de wet van haar hand. Dit voorontwerp is voor advies voorgelegd bij de Commissie Auteursrecht. Het is aan de opvolger van het lid Dral om te besluiten of en hoe het traject wordt voortgezet. Gelet op de voorbereidende fase waarin het wetsvoorstel zich op dit moment bevindt, kan niet worden beoordeeld in hoeverre het Wetsvoorstel een meerwaarde zal hebben voor de aanpak. Zoals bij de vragen 8 en 11 beantwoord, kan tegen het (zonder toestemming) vervaardigen, voorhanden hebben en verspreiden van deepnudes al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba van het Wetboek van Strafrecht.
Bent u bereid in gesprek te gaan met Europese lidstaten over het misbruik van AI-chatbots als het gaat om seksuele content op X en andere platforms?
Ja, daartoe zijn wij bereid. Zoals is geantwoord bij vraag 10, vindt bij het Ministerie van Justitie en Veiligheid een verkenning plaats waarbij wordt gekeken naar de mogelijkheden om het gebruik van nudify-applicaties verder tegen te gaan. Binnen dit onderzoek vinden ook gesprekken plaats met andere Europese lidstaten, om te bezien hoe de aanpak daar is vormgegeven en of gezamenlijk kan worden opgetreden.
Mogelijke plaatsing van Chinese laadpalen bij gebouwen van de Rijksoverheid |
|
Jantine Zwinkels (CDA), Jan Paternotte (D66), Derk Boswijk (CDA) |
|
Rijkaart , David van Weel (VVD), Vincent Karremans (VVD) |
|
|
|
|
Bent u bekend met het bericht dat het Rijksvastgoedbedrijf mogelijk honderden laadpalen van een Chinees bedrijf wil laten plaatsen bij gebouwen van de rijksoverheid, ondanks groeiende zorgen over strategische afhankelijkheid en veiligheid?1
Ja, ik ben bekend met het bericht. Het bericht gaat over een raamovereenkomst die het Rijksvastgoedbedrijf op 7 oktober 2025 heeft gegund. Deze overeenkomst gaat over het beheer van bestaande laadinfrastructuur en, als dat nodig is, de levering en plaatsing van nieuwe laadpalen bij Rijksvastgoed.
Een raamovereenkomst heeft geen afnameverplichting. Dat betekent dat er niet automatisch een vast aantal laadpalen wordt geplaatst. Per locatie wordt beoordeeld of plaatsing nodig is en hoe dit past binnen de geldende technische en beveiligingskaders.
Het kabinet vindt het belangrijk om veiligheid goed mee te wegen. Daarom worden bij dit soort aanbestedingen vooraf eisen gesteld voor functie, techniek en beveiliging. Voor locaties met een hoger risico kunnen extra eisen gelden.
Klopt het dat bij aanbestedingen voor laadinfrastructuur voor overheidsgebouwen het uitgangspunt is dat waar mogelijk gebruik wordt gemaakt van Europese of Nederlandse bedrijven en technologieën? Zo ja, hoe verhoudt de mogelijke keuze voor Chinese leveranciers zich tot dit uitgangspunt?
Aanbestedingen moeten passen binnen de geldende regels op nationaal, Europees en internationaal niveau. Die regels gaan uit van gelijke behandeling en non-discriminatie. Daarnaast is er aandacht voor beveiligingseisen en het beperken van risico’s voor de nationale veiligheid.
Binnen die regels worden aanbestedingen ingericht met duidelijke, objectieve en wettelijke eisen. Het gaat dan om functionele eisen, technische eisen en beveiligingseisen. Inschrijvingen worden op basis van die eisen beoordeeld. Dat geldt ook voor deze raamovereenkomst.
Het kabinetsstandpunt over een Europees voorkeursprincipe in publieke aanbestedingen is met uw Kamer gedeeld.2
Op welke wijze zijn bij deze aanbesteding nationale veiligheidsrisico’s, waaronder cyberveiligheid, databeveiliging en mogelijke ongewenste toegang tot systemen van overheidsgebouwen, meegewogen?
Bij deze aanbesteding zijn vooraf eisen vastgesteld voor functie, techniek en beveiliging. Deze eisen gaan onder meer over informatiebeveiliging en gegevensbescherming. Ook gaan ze over een veilige aansluiting op bestaande energie- en netwerkinfrastructuur.
Daarbij wordt aangesloten op de Rijksbrede kaders voor informatiebeveiliging en op de geldende wet- en regelgeving. Het denken staat op dit punt niet stil: als het nodig is scherpen we geldende wet- en regelgeving aan.
In hoeverre acht u het risico reëel dat slimme laadpalen – die verbonden zijn met digitale netwerken en energie-infrastructuur – kunnen worden misbruikt voor spionage, sabotage of verstoring van vitale infrastructuur?
Slimme en verbonden apparatuur kan cyberrisico’s met zich meebrengen. Dit geldt ook voor slimme laadpalen. Het gaat daarbij niet alleen om de aansluiting op het energienet, maar ook om gegevensverwerking en de systemen waarmee laadpalen worden beheerd en gemonitord.
In de aanbesteding van het Rijksvastgoedbedrijf zijn daarom beveiligingseisen opgenomen voor digitale veiligheid en voor een veilige aansluiting op het energienetwerk. Deze eisen sluiten aan op de Rijksbrede beveiligingskaders. Per locatie wordt bekeken of aanvullende maatregelen nodig zijn, passend bij het risicoprofiel.
Wordt bij de beoordeling van dergelijke technologieën rekening gehouden met het feit dat Chinese bedrijven onder Chinese wetgeving verplicht kunnen worden om informatie te delen met de Chinese overheid? Zo ja, hoe is dit risico beoordeeld?
Bij de beoordeling van technologie en leveranciers wordt gekeken naar de manier waarop gegevens worden verwerkt en beschermd. Ook wordt gekeken naar afspraken in contracten en naar naleving van Nederlandse en Europese regelgeving. Verder wordt gekeken naar de inrichting van systemen, gegevensstromen en maatregelen om risico’s te beheersen.
Systemen die bij Rijksvastgoed worden toegepast moeten voldoen aan de nationale en Europese regels voor gegevensbescherming en informatiebeveiliging. De beoordeling richt zich daarom op concrete risico’s en maatregelen.
In hoeverre bestaat het risico dat door de inzet van Chinese technologie bij laadinfrastructuur een structurele economische afhankelijkheid ontstaat, bijvoorbeeld door onderhoud, software-updates of vervangingsonderdelen, en hoe wordt dit risico gewogen?
Bij de inrichting van laadinfrastructuur wordt ook gekeken naar uitwisselbaarheid en beheerbaarheid. Denk aan interoperabiliteit, onderhoud, ondersteuning en vervangbaarheid. Zo wordt de continuïteit geborgd. In de raamovereenkomst is als eis opgenomen dat de software moet zijn gebaseerd op open standaarden.
Hoe verhoudt deze mogelijke keuze zich tot het bredere kabinetsbeleid om strategische afhankelijkheden van China te verminderen en technologische en economische veiligheid te versterken?
Het kabinet voert actief beleid om de afhankelijkheid van derde landen te verminderen en zo onze veiligheid te vergroten3. Dit beleid wordt uitgevoerd binnen de geldende Europese en nationale wet- en regelgeving.
In dat kader gelden aanvullende beveiligingseisen voor overheidsopdrachten met veiligheidsrisico’s. Sinds 1 januari 2026 geldt Rijksbreed het kader Algemene Beveiligingseisen voor Rijksoverheidsopdrachten (ABRO) voor opdrachten met risico’s voor de nationale veiligheid.
Bij aanbestedingen wordt altijd een zorgvuldige afweging gemaakt tussen marktwerking, aanbestedingsregels en veiligheidsbelangen. Waar nodig worden extra eisen gesteld, passend bij het risicoprofiel van de opdracht.
Bent u bereid te onderzoeken of voor vitale of gevoelige overheidslocaties een «Europees, tenzij»-benadering kan worden toegepast bij de inkoop van energie- en laadinfrastructuur, en de Kamer hierover te informeren?
Het kabinet beziet voortdurend hoe open strategische autonomie en veiligheid kunnen worden versterkt binnen de geldende Europese en nationale kaders. Daarbij wordt ook gekeken naar de samenhang tussen aanbestedingsregels en bredere veiligheids- en afhankelijkheidsvraagstukken.
Eventuele beleidswijzigingen moeten passen binnen het Europese aanbestedingsrecht en internationale verplichtingen. Bij aanbestedingen kunnen partijen alleen worden uitgesloten op wettelijke gronden, bijvoorbeeld bij sancties. Daarnaast gelden internationale afspraken over toegang tot overheidsopdrachten, zoals de WTO-overeenkomst inzake overheidsopdrachten (GPA) en EU-handelsovereenkomsten. Daardoor kunnen partijen niet zomaar worden uitgesloten alleen vanwege herkomst.
De Europese aanbestedingsregels worden op dit moment herzien. Binnen het kabinet coördineert het Ministerie van Economische Zaken de Nederlandse inbreng. In dat verband wordt in Europees verband ook gesproken over een mogelijk EU-voorkeursprincipe. Het kabinetsstandpunt over een Europees voorkeursprincipe in publieke aanbestedingen is met uw Kamer gedeeld.4
Uw Kamer wordt over de voortgang en eventuele keuzes geïnformeerd via Kamerbrieven en voortgangsbrieven over economische veiligheid, open strategische autonomie en aanbestedingsbeleid.
Het bericht 'Trollenlegers uit buitenland versterkten politieke en opruiende berichten rond verkiezingen' |
|
Tijs van den Brink (CDA), Derk Boswijk (CDA), Jantine Zwinkels (CDA) |
|
van Marum , Rijkaart |
|
|
|
|
Bent u bekend met het bericht «Trollenlegers uit buitenland versterkten politieke en opruiende berichten rond verkiezingen»?1
Ja, hiervan ben ik op de hoogte.
Kunt u reageren op het onderzoek van RTL Nieuws, waaruit blijkt dat honderden nepaccounts uit Nigeria, Ghana en andere landen op sociale media rond de Nederlandse Tweede Kamerverkiezing het debat beïnvloed hebben?
Pogingen tot beïnvloeding van onze democratie door middel van nepaccounts op sociale mediazijn ernstig en zorgelijk. Gelukkig heeft Nederland een robuuste democratie met transparante en controleerbare verkiezingen, waardoor ik de impact van de nepaccounts als beperkt beschouw. De verkiezingen zijn eerlijk en vrij verlopen. Tegelijkertijd is elke gecoördineerde campagne die het publieke debat rondom het verkiezingsproces mogelijk beïnvloedt, ongeacht de omvang, volstrekt onwenselijk. Het publieke debat is van iedereen en dient daarom niet gemanipuleerd te worden, zeker in relatie tot cruciale democratische processen zoals nationale verkiezingen. Sociale media bedrijven kunnen hiervoor misbruikt worden. Zeer grote online platformen hebben daarom de verplichting om te onderzoeken of hun diensten op deze manier misbruikt kunnen worden, en zo nodig maatregelen te treffen om dat te adresseren.
Ik vind het belangrijk dat platformen verantwoordelijkheid nemen en maatregelen treffen tegen illegale content, desinformatie en gecoördineerd niet-authentiek gedrag. Daarom blijf ik in gesprek met de platformen over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces, zoals toegezegd in de Kamerbrief over het contact met de platformen.2 Dit gesprek zal ook voor de komende gemeenteraadsverkiezingen plaatsvinden.
We staan er als Nederland niet alleen voor. Samen met de Europese Commissie en andere EU-lidstaten spannen we ons gezamenlijk in om de democratie te verdedigen tegen buitenlandse inmenging. Zo is recent het European Democracy Shield gepubliceerd, en zijn al verschillende onderzoeken tegen zeer grote online platformen gestart in verband met mogelijke overtredingen van de digitaledienstenverordening (DSA). Ik steun de Europese Commissie in haar toezicht en in de lopende onderzoeken, waarbij ook aandacht is voor gecoördineerd niet-authentiek gedrag en manipulatie. Ook zoeken we bilaterale samenwerking en kennisuitwisseling met partners, waaronder Duitsland, Frankrijk en Zweden op, om te leren van hun ervaringen op dit gebied.
Kunt u bevestigen dat het inderdaad ook gaat om Russische invloed?
De diensten doen onderzoek naar statelijke actoren en in welke mate zij een dreiging vormen voor de nationale veiligheid. Wanneer zij stuiten op pogingen tot beïnvloeding, manipulatie of verstoring van de verkiezingen, kunnen en zullen de diensten hun wettelijke bevoegdheden inzetten om dit tegen te gaan. In het openbaar kan ik niet ingaan op individuele gevallen. Immers, dit zou inzicht geven in het huidige kennisniveau van de diensten en daarmee de nationale veiligheid kunnen schaden.
Wel waarschuwen de diensten en de NCTV in zijn algemeenheid dat statelijke actoren onze democratie kunnen en willen ondermijnen.3 De inzet van sociale media, waarbij nepaccounts profielen en berichten proberen te versterken, past in het beeld van de wijze waarop statelijke actoren de democratische rechtsstaat proberen te ondermijnen. Er moet rekening worden gehouden dat deze vorm van heimelijke beïnvloeding veelvuldig voor kan komen, met name rondom verkiezingen.
Hoe oordeelt u over de impact van deze trollenlegers op de verkiezingen?
Ondanks dat iedere poging om het verkiezingsproces te beïnvloeden ongewenst is, betekent het niet dat iedere poging ook een daadwerkelijke invloed heeft. Door het geringe aantal nepaccounts kan worden vastgesteld dat de impact beperkt was. De verkiezingen zijn eerlijk en vrij verlopen. Ondanks dat deze specifieke casus geen grote impact heeft gehad op de afgelopen verkiezingen, kan het meermalig gebruik van nepaccounts door verschillende actoren het vertrouwen in het verkiezingsproces en het publieke debat ondermijnen. Daarom moet de samenleving weerbaar zijn en blijven tegen beïnvloedingspogingen en neemt het kabinet maatregelen om de verkiezingen eerlijk en vrij te laten verlopen. Zie hiervoor het antwoord op vraag 7.
Zijn deze trollenlegers nog steeds actief? In hoeverre is hier inzicht in?
Zie het antwoord op vraag 3.
Herinnert u zich eerdere waarschuwingen van onder andere Europol en de Europese Commissie over buitenlandse informatieoperaties gericht op EU-lidstaten?
Er is binnen de EU veel aandacht voor buitenlandse informatieoperaties gericht op de EU-lidstaten. De Europese Commissie en de Europese Dienst voor Extern Optreden (EDEO) staan hierover in nauw contact met de lidstaten. Bijvoorbeeld via de Rapid Alert System (RAS), dat in het leven is geroepen om snel met andere lidstaten te communiceren en waar nodig gezamenlijke actie te ondernemen. Nederland neemt actief deel aan de RAS. Zo heeft BZK afgelopen november een bijeenkomst georganiseerd voor de RAS-leden waar mogelijke beïnvloeding van verkiezingen onderdeel van de agenda was.
Gezien de groeiende dreiging van buiten de EU, is in het recent gepresenteerde European Democracy Shield (EUDS) aangekondigd de samenwerking te versterken. Uw Kamer wordt hierover binnenkort, via de gebruikelijke wijze, geïnformeerd.
Welke aanvullende Nederlandse maatregelen zijn sindsdien genomen en hoe verhouden die zich tot de bevindingen in dit RTL-onderzoek?
Het kabinet neemt iedere verkiezing maatregelen om risico’s op buitenlandse beïnvloeding in het verkiezingsproces tegen te gaan. Deze maatregelen worden doorlopend geëvalueerd en aangescherpt waar nodig. Hierbij kijk ik ook naar de ervaringen van andere EU-lidstaten en EU-instellingen. Dit maatregelenpakket omvat onder andere een offensieve aanpak tegen desinformatie en informatiemanipulatie. Over de genomen maatregelen is uw Kamer eerder over geïnformeerd.4
Separaat werk ik in samenwerking met andere departementen uit hoe we eerder en beter zicht kunnen krijgen op buitenlandse beïnvloedingscampagnes (FIMI) die onze Nederlandse belangen willen ondermijnen, zoals een gezonde democratie en maatschappelijke stabiliteit. Het gaat hier dus om detectie-capaciteit. Hierbij leren we van de ervaringen van EU-lidstaten, zoals Frankrijk en Zweden, hoe zij dergelijke FIMI detecteren en hierop reageren. We werken momenteel uit hoe we FIMI-detectie in de Nederlandse context kunnen vormgeven. Uw Kamer wordt hierover na het zomerreces geïnformeerd.
Daarnaast vind ik het van belang dat organisaties die zich inzetten om informatiecampagnes en desinformatie bloot te leggen, zoals factcheckers en onderzoeksjournalisten, hun werk kunnen doen en het publiek blijven informeren.
Ik heb van de ACM vernomen dat zij de Europese Commissie op de hoogte heeft gebracht van het onderzoek van Trollrensics, waarop de berichtgeving is gebaseerd. Verder ga ik, zoals omschreven in het antwoord op vraag 2, wederom in gesprek met de sociale media platformen, over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces. Dit gesprek zal voor de komende gemeenteraadsverkiezingen plaatsvinden. Tot slot kan het Ministerie van BZK tijdens verkiezingen in contact treden met de platformen X, Meta, TikTok, Google, of Snapchat, indien er signalen zijn over berichten met feitelijk onjuiste informatie over het verkiezingsproces. Met die platformen bestaat de afspraak dat zij deze meldingen van BZK gedurende de verkiezingsperiode met prioriteit behandelen. Dit noemt BZK de «verkiezingen flagger status». Het ministerie heeft geen bevoegdheid om bepaalde content te laten verwijderen. Gedane meldingen worden achteraf wel openbaar gemaakt in de evaluatie van de desbetreffende verkiezing.5 Ik wil verkennen of deze status verder uitgebreid kan worden, om zo ook niet-authentieke campagnes onder de aandacht te brengen van platformen.
Zijn er bij u signalen bekend dat buitenlandse netwerken gericht hebben geprobeerd invloed uit te oefenen op de Nederlandse verkiezingen? Zo ja, in hoeverre is hiervan sprake geweest?
Zoals gezegd in antwoord op vraag 3, passen het gebruik van nepaccounts die profielen en berichten proberen te versterken in het beeld van de wijze waarop statelijke actoren de democratische rechtsstaat proberen te ondermijnen. Daarom neem ik iedere verkiezing maatregelen om de effecten van deze heimelijke beïnvloedingspogingen te mitigeren en is het van belang dat platformen hun verantwoordelijkheid nemen in het beschermen van het publieke debat.
Is het denkbaar dat er nog meer trollenlegers actief zijn geweest rond de verkiezingen dan bekend is dankzij dit onderzoek. Zo ja, hoeveel? Op welke manier is dat volgens u in de toekomst te voorkomen?
Zie antwoord vraag 8.
Deelt u de mening dat platforms die zich niet aan de regels houden gestraft moeten worden en dat websites en platforms bij herhaalde en grove schending (tijdelijk) uit de lucht moeten worden gehaald? In hoeverre hebben de socialemediaplatformen volgens u de verantwoordelijkheid om buitenlandse nepaccounts die zich mengen in maatschappelijke discussies in Nederland te weren en offline te halen; op basis van welk beleid of wetgeving kunt u hen hier ook verantwoordelijk voor houden? Hoe zou de aanstaande wetgeving (denk aan de Digitaledienstenverordening, de Verordening artificiële intelligentie en Digital Fairness Act) en handhaving hierop een rol van betekenis in kunnen spelen?
Het kabinet acht het van belang dat sociale media platformen hun verantwoordelijkheid nemen in het beschermen van de integriteit van het verkiezingsproces. Zo verplicht de digitaledienstenverordening DSA zeer grote online platformen en zoekmachines (VLOPs en VLOSEs) om systeemrisico’s in kaart te brengen en hier maatregelen tegen te nemen. Dit betreft ook risico’s rond verkiezingsprocessen, zoals de verspreiding van desinformatie of opzettelijke manipulatie van de dienst, onder meer door niet-authentiek gebruik (zoals nepaccounts).
Voor het toezicht op en handhaving van de verplichtingen uit de DSA op VLOPs en VLOSEs is de Europese Commissie exclusief bevoegd. Tot op heden heeft de Europese Commissie 9 formele procedures geopend tegen VLOPs, waaronder 4 socialemediabedrijven: Facebook, Instagram, TikTok en X. De overige 5 VLOPs zijn Aliexpress, Temu, Pornhub, XNXX en XVideos. Het kabinet volgt deze en andere lopende onderzoeken met grote interesse en staat samen met andere lidstaten achter de Europese Commissie en de proactieve handhaving van de DSA-verplichtingen.
Tegelijkertijd acht het kabinet het van belang dat platformen ook proactief maatregelen te nemen om onze democratische processen te beschermen, en daarbij niet de onderzoeken van de Commissie afwachten. Daarom zijn er tijdens de afgelopen verkiezing op verschillende manieren gesprekken geweest met de platformen en ga ik, zoals vermeld in antwoord 2, in gesprek met de platformen over platformen over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces.
Zijn er socialemediaplatformen aangesproken vanwege de buitenlandse nepaccounts die verkiezingen proberen te beïnvloeden. Zo ja, welke maatregelen zijn vervolgens genomen?
In Nederland zijn er door de rijksoverheid geen platformen specifiek aangesproken vanwege buitenlandse nepaccounts. Wel heb ik van de ACM vernomen dat zij de Europese Commissie op de hoogte gebracht van het onderzoek van Trollrensics, waarop de berichtgeving is gebaseerd. Daarnaast heeft het Ministerie van BZK contact gehad met Meta en X over berichten met onjuiste informatie hoe te stemmen. Uw Kamer wordt in de evaluatie van de Tweede Kamerverkiezing hierover geïnformeerd.
Het kabinet moedigt onderzoekers, burgers en maatschappelijke organisaties aan om ook zelf melding te doen bij het desbetreffende platform, als zij stuiten op nepaccounts en content dat ingaat tegen wet- en regelgeving, of het beleid van het platform zelf. Indien een platform niet reageert, dan kan daarover een melding worden gedaan bij de ACM.
Welke concrete maatregelen kunt u nemen om buitenlandse inmenging via sociale media bij verkiezingen te voorkomen en beperken? Zijn deze maatregelen volgens u voldoende?
Voor de maatregelen die wij nemen, verwijs ik naar het antwoord op vraag 7.
Welke maatregelen gaat u nemen om ervoor te zorgen dat kiezers tijdens toekomstige verkiezingen beschermd worden tegen buitenlandse beïnvloeding via sociale media?
Zie het antwoord op vraag 7.
Bent u bereid om deze zorgen bij Europese collega’s onder de aandacht te brengen en ervaringen uit te wisselen om buitenlandse inmenging te voorkomen?
Ja, Nederland neemt actief deel aan verschillende samenwerkingsverbanden, zoals de Rapid Alert System (RAS) en de European Cooperation Network on Elections (ECNE) en de Europese Raadswerkgroep voor het vergroten van weerbaarheid en tegengaan van hybride dreigingen (HWP ERCHT). Ook zet Nederland zich er voor in dat binnen de Raad van Europa wordt samengewerkt om de dreiging van FIMI voor onze democratie tegen te gaan in het kader van het New Democratic Pact.
Online beïnvloeding van jongeren en regelgeving rondom influencers |
|
Inge van Dijk (CDA), Joris Lohman (CDA), Jantine Zwinkels (CDA), Harmen Krul (CDA) |
|
Aerdts , Sophie Hermans (VVD), Eelco Heinen (VVD) |
|
|
|
|
Bent u bekend met de onderzoeken van Wijzer in Geldzaken en de Universiteit Utrecht dat veel jongeren zich bij financiële beslissingen laten beïnvloeden voor finfluencers met loze beloften over snel geld verdienen en dat met name kwetsbare jongeren hierdoor in de problemen kunnen komen, terwijl finfluencers vooral hun eigenbelang dienen?1, 2
Bent u bekend met het recente onderzoek van de Radboud Universiteit dat influencers zonder medische achtergrond mensen met hun gezondheidsadviezen medische misinformatie kunnen verstrekken, bijvoorbeeld met oproepen om geen zonnebrand meer te gebruiken of te stoppen met hormonale anticonceptie?3
Bent u bekend met de recente waarschuwingen van de Nederlandse Voedsel- en Warenautorteit (NVWA) over de risico’s van supplementen, waar verboden of onveilige stoffen in kunnen zitten, bijvoorbeeld bij teveel inname of verkeerde combinaties waardoor schade aan de gezondheid kan ontstaan, en de publicatie van een Blocklist?4
Deelt u de zorg dat jongeren in toenemende mate informatie over onder meer financiële zaken, gezondheid en maatschappelijke vraagstukken verkrijgen via sociale media en influencers, en dat dit risico’s kan meebrengen wanneer informatie onjuist, onvolledig of misleidend is?
Bent u bekend met het artikel ««Geen diploma, geen video»: nieuwe Chinese wetgeving voor influencers leidt tot verhit online debat»? En het initiatief van de Chinese overheid om eisen te stellen aan influencers te beschikken over aantoonbare deskundigheid wanneer zij over bepaalde maatschappelijke thema’s, zoals gezondheid, voeding en financiën adviseren?5
Vind u dat ook in Nederland strengere regels zouden moeten gelden voor influencers die over maatschappelijke thema’s, zoals gezondheid, voeding en financiën mogen adviseren, zoals het beschikken over aantoonbare deskundigheid of expliciete vermelding dat hiervan geen sprake is, omdat zulke adviezen niet zonder risico’s zijn?
Kunt u onderzoeken of het mogelijk is om aanvullende eisen aan deskundigheid te stellen bij adviseren op terreinen waar desinformatie een verhoogd risico inhoudt, met name voor kwetsbare groepen, zoals over financiën, voedings- (en specifiek over Voedingssupplementen en kruidensupplementen) en gezondheidsadviezen?
Zou het bijvoorbeeld mogelijk zijn een disclaimer te verplichten bij posts van influencers waaruit voor een breed publiek eenvoudig te herleiden is dat het niet om deskundig advies gaat, bijvoorbeeld #NietDeskundig, #GeenDiploma of #GeenExpert
Bent u bereid om ook in Europees verband in te zetten op betere consumentenbescherming bij online advisering over mogelijk risicovolle producten, en met name op aanvullende eisen aan (informatie over) deskundigheid? Bijvoorbeeld via Digital Services Act, richtlijnen voor consumentenbescherming of de Digital Fairness Act?
Het artikel 'Ook Grieken overstag, regering wil verbod op sociale media voor kinderen' |
|
Jantine Zwinkels (CDA) |
|
Aerdts , David van Weel (VVD) |
|
|
|
|
Bent u bekend met het bericht «Ook Grieken overstag, regering wil verbod op sociale media voor kinderen»?1
Hoe beoordeelt u het voornemen van Griekenland om kinderen tot 15 jaar de toegang tot sociale media te verbieden, mede in het licht van het coalitieakkoord waarin is opgenomen dat wordt gewerkt aan een handhaafbare Europese minimumleeftijd van 15 jaar voor sociale media met privacyvriendelijke leeftijdsverificatie?
Welke concrete stappen zet het kabinet op dit moment in Europees verband om te komen tot die handhaafbare Europese minimumleeftijd van 15 jaar voor sociale media?
Erkent het kabinet dat, in het licht van de ontwikkeling dat steeds meer landen overgaan tot een verbod, nu het moment is om tot een gezamenlijke aanpak te komen?
Trekt Nederland hierbij actief op met andere Europese lidstaten die eveneens willen komen tot strengere regels voor kinderen op sociale media, zoals Griekenland, Frankrijk, en Spanje? Zo ja, op welke wijze?
Hoe wil het kabinet een Europese minimumleeftijd juridisch en technisch handhaafbaar vormgeven, in het bijzonder in relatie tot de Digital Services Act (DSA) en de door de Europese Commissie ontwikkelde leeftijdsverificatie-aanpak?
Bent u bekend met het NRC-artikel «Van drugs tot pijnstillers: met hun uitgebreide menukaart slaan WhatsApp-dealers een pijler weg onder het drugsbeleid»?1
Herkent u het beeld dat drugsdealers via WhatsApp en andere sociale media uitgebreide drugsmenu’s aanbieden waarin zowel softdrugs, harddrugs, designerdrugs als geneesmiddelen worden verkocht? Zo ja, hoe groot is voor zover bekend deze vorm van handel in Nederland?
In hoeverre deelt u de analyse dat de online verkoop via berichtendiensten het klassieke uitgangspunt van het Nederlandse drugsbeleid, de scheiding tussen soft- en harddrugsmarkten, in de praktijk ondermijnt?
Welke mogelijkheden hebben politie en justitie momenteel om op te treden tegen dealers die via WhatsApp, Snapchat of andere berichtendiensten drugs aanbieden en bezorgen?
Klopt het dat het verbod op reclame voor drugs in de praktijk online nauwelijks handhaafbaar is? Zo ja, welke maatregelen overweegt u om online marketing van drugs effectiever te bestrijden?
Welke afspraken bestaan er momenteel met platforms en berichtendiensten zoals WhatsApp en Snapchat over het signaleren en verwijderen van accounts die drugs aanbieden?
Bent u bereid te onderzoeken of platforms en berichtendiensten een grotere verantwoordelijkheid kunnen krijgen bij het opsporen en verwijderen van drugshandel via hun diensten?
Hoe beoordeelt u de signalen dat dealers naast drugs ook geneesmiddelen of nagemaakte medicijnen verkopen, waaronder mogelijk zeer gevaarlijke stoffen zoals nitazenen?
Welke maatregelen worden genomen om te voorkomen dat jongeren via sociale media laagdrempelig in contact komen met dealers die naast softdrugs ook harddrugs en farmaceutische middelen aanbieden?
Acht u het huidige instrumentarium van politie, justitie en toezichthouders toereikend genoeg om de combinatie van online marketing en offline drugshandel effectief aan te pakken? Zo ja, waar blijkt dat uit? Zo nee, welke aanvullende maatregelen acht u noodzakelijk?
Deelt u de zorg dat de combinatie van online bestellen en snelle bezorging de toegankelijkheid van drugs vergroot en daarmee mogelijk ook het gebruik en verslavingsproblematiek doet toenemen, met name onder jongeren die actief zijn op deze platforms?
Kun u onderzoeken of de huidige aanpak van online drugshandel en digitale marketing van drugs moet worden aangescherpt en de Kamer hierover informeren?
“Social leasing” als mogelijk instrument om huishoudens te beschermen tegen stijgende brandstofprijzen. |
|
Jantine Zwinkels (CDA) |
|
Bertram , Herbert |
|
|
|
|
Bent u bekend met het zogenoemde «social leasing»-programma in Frankrijk,1 waarbij huishoudens met een lager inkomen tegen een sterk gereduceerd maandbedrag een elektrische auto kunnen leasen?
In hoeverre zou dit type maatregel ook in Nederland kunnen bijdragen als instrument om huishoudens te beschermen tegen stijgende brandstofprijzen en tegelijkertijd de transitie naar emissievrije mobiliteit te versnellen?
Hoe zou een dergelijke regeling bij kunnen dragen aan de betaalbaarheid van mobiliteit voor lagere inkomens, de afhankelijkheid van fossiele brandstoffen, de versnelling van de elektrificatie van het Nederlandse wagenpark en een rechtvaardige energietransitie?
Hoe zou een eventuele Nederlandse variant van sociale leasing organisatorisch kunnen worden vormgegeven, bijvoorbeeld in samenwerking met leasemaatschappijen, aanbieders van deelmobiliteit en andere mobiliteitsaanbieders, en hoe kan daarbij worden voortgebouwd op bestaande Nederlandse regelingen en initiatieven?
Welke bestaande Nederlandse regelingen (zoals subsidies of fiscale maatregelen voor elektrische voertuigen) zouden eventueel kunnen worden aangepast of gecombineerd om een vergelijkbare vorm van sociale leasing mogelijk te maken?
Bent u bereid te onderzoeken of, onder welke voorwaarden, en op welke wijze een vergelijkbaar systeem van sociale leasing voor elektrische auto’s, gericht op huishoudens met een lager inkomen die afhankelijk zijn van de auto voor woon-werkverkeer, ook in Nederland overwogen zou kunnen worden als onderdeel van eventuele maatregelen ter compensatie van stijgende brandstofprijzen?
Het bericht dat een rapport over Amerikaanse clouddiensten is verwijderd |
|
Barbara Kathmann (PvdA), Jantine Zwinkels (CDA), Sarah El Boujdaini (D66) |
|
Aerdts , David van Weel (VVD) |
|
|
|
|
Bent u bekend met het bericht: «Onderzoek naar Amerikaanse cloud-risico’s door Ministerie van overheidswebsite verwijderd» (De Volkskrant, 5 maart 2026)?
Kunt u verklaren waarom het onderzoek naar de risico’s van de Amazon «European Sovereign Cloud» tijdelijk offline is gehaald?1
Wat is uw reactie op het rapport?
Wat is het doel geweest van het onderzoek van GreenbergTraurig? Wat wordt er gedaan met de uitkomsten?
Hoe reageert u op de kritiek dat het rapport eenzijdig is geschreven? Ziet u aanleiding om de risico’s nader te onderzoeken?
Hoe leest u de conclusies van het rapport, waaruit blijkt dat de Amerikaanse overheid via de Amazon «European Sovereign Cloud» nog steeds toegang kan krijgen tot Nederlandse data?
Kunt u bevestigen dat het afnemen van de Amazon «European Sovereign Cloud» en soortgelijke initiatieven van Amerikaanse techgiganten niet bijdraagt aan het digitaal autonoom maken van Nederland? Wordt het afbouwen van het gebruik hiervan onderdeel van het kabinetsbeleid?
Hebben ministeries, uitvoeringsorganisaties, zbo’s of andere overheidsdiensten reeds plannen om gebruik te maken van de Amazon «European Sovereign Cloud» of soortgelijke initiatieven? Zo ja, kunt u een overzicht geven van organisaties die van plan zijn om de dienst af te nemen of dit al hebben gedaan?
Zijn er nog andere risicoanalyses of onderzoeken uitgevoerd naar de gevolgen voor de digitale autonomie bij het afnemen van de Amazon «Sovereign European Cloud» of soortgelijke initiatieven? Zo ja, kunt u deze aan de Kamer doen toekomen?
Kunt u deze vragen afzonderlijk en zo snel mogelijk beantwoorden?
Mogelijke plaatsing van Chinese laadpalen bij gebouwen van de Rijksoverheid |
|
Jantine Zwinkels (CDA), Jan Paternotte (D66), Derk Boswijk (CDA) |
|
Rijkaart , David van Weel (VVD), Vincent Karremans (VVD) |
|
|
|
|
Bent u bekend met het bericht dat het Rijksvastgoedbedrijf mogelijk honderden laadpalen van een Chinees bedrijf wil laten plaatsen bij gebouwen van de rijksoverheid, ondanks groeiende zorgen over strategische afhankelijkheid en veiligheid?1
Ja, ik ben bekend met het bericht. Het bericht gaat over een raamovereenkomst die het Rijksvastgoedbedrijf op 7 oktober 2025 heeft gegund. Deze overeenkomst gaat over het beheer van bestaande laadinfrastructuur en, als dat nodig is, de levering en plaatsing van nieuwe laadpalen bij Rijksvastgoed.
Een raamovereenkomst heeft geen afnameverplichting. Dat betekent dat er niet automatisch een vast aantal laadpalen wordt geplaatst. Per locatie wordt beoordeeld of plaatsing nodig is en hoe dit past binnen de geldende technische en beveiligingskaders.
Het kabinet vindt het belangrijk om veiligheid goed mee te wegen. Daarom worden bij dit soort aanbestedingen vooraf eisen gesteld voor functie, techniek en beveiliging. Voor locaties met een hoger risico kunnen extra eisen gelden.
Klopt het dat bij aanbestedingen voor laadinfrastructuur voor overheidsgebouwen het uitgangspunt is dat waar mogelijk gebruik wordt gemaakt van Europese of Nederlandse bedrijven en technologieën? Zo ja, hoe verhoudt de mogelijke keuze voor Chinese leveranciers zich tot dit uitgangspunt?
Aanbestedingen moeten passen binnen de geldende regels op nationaal, Europees en internationaal niveau. Die regels gaan uit van gelijke behandeling en non-discriminatie. Daarnaast is er aandacht voor beveiligingseisen en het beperken van risico’s voor de nationale veiligheid.
Binnen die regels worden aanbestedingen ingericht met duidelijke, objectieve en wettelijke eisen. Het gaat dan om functionele eisen, technische eisen en beveiligingseisen. Inschrijvingen worden op basis van die eisen beoordeeld. Dat geldt ook voor deze raamovereenkomst.
Het kabinetsstandpunt over een Europees voorkeursprincipe in publieke aanbestedingen is met uw Kamer gedeeld.2
Op welke wijze zijn bij deze aanbesteding nationale veiligheidsrisico’s, waaronder cyberveiligheid, databeveiliging en mogelijke ongewenste toegang tot systemen van overheidsgebouwen, meegewogen?
Bij deze aanbesteding zijn vooraf eisen vastgesteld voor functie, techniek en beveiliging. Deze eisen gaan onder meer over informatiebeveiliging en gegevensbescherming. Ook gaan ze over een veilige aansluiting op bestaande energie- en netwerkinfrastructuur.
Daarbij wordt aangesloten op de Rijksbrede kaders voor informatiebeveiliging en op de geldende wet- en regelgeving. Het denken staat op dit punt niet stil: als het nodig is scherpen we geldende wet- en regelgeving aan.
In hoeverre acht u het risico reëel dat slimme laadpalen – die verbonden zijn met digitale netwerken en energie-infrastructuur – kunnen worden misbruikt voor spionage, sabotage of verstoring van vitale infrastructuur?
Slimme en verbonden apparatuur kan cyberrisico’s met zich meebrengen. Dit geldt ook voor slimme laadpalen. Het gaat daarbij niet alleen om de aansluiting op het energienet, maar ook om gegevensverwerking en de systemen waarmee laadpalen worden beheerd en gemonitord.
In de aanbesteding van het Rijksvastgoedbedrijf zijn daarom beveiligingseisen opgenomen voor digitale veiligheid en voor een veilige aansluiting op het energienetwerk. Deze eisen sluiten aan op de Rijksbrede beveiligingskaders. Per locatie wordt bekeken of aanvullende maatregelen nodig zijn, passend bij het risicoprofiel.
Wordt bij de beoordeling van dergelijke technologieën rekening gehouden met het feit dat Chinese bedrijven onder Chinese wetgeving verplicht kunnen worden om informatie te delen met de Chinese overheid? Zo ja, hoe is dit risico beoordeeld?
Bij de beoordeling van technologie en leveranciers wordt gekeken naar de manier waarop gegevens worden verwerkt en beschermd. Ook wordt gekeken naar afspraken in contracten en naar naleving van Nederlandse en Europese regelgeving. Verder wordt gekeken naar de inrichting van systemen, gegevensstromen en maatregelen om risico’s te beheersen.
Systemen die bij Rijksvastgoed worden toegepast moeten voldoen aan de nationale en Europese regels voor gegevensbescherming en informatiebeveiliging. De beoordeling richt zich daarom op concrete risico’s en maatregelen.
In hoeverre bestaat het risico dat door de inzet van Chinese technologie bij laadinfrastructuur een structurele economische afhankelijkheid ontstaat, bijvoorbeeld door onderhoud, software-updates of vervangingsonderdelen, en hoe wordt dit risico gewogen?
Bij de inrichting van laadinfrastructuur wordt ook gekeken naar uitwisselbaarheid en beheerbaarheid. Denk aan interoperabiliteit, onderhoud, ondersteuning en vervangbaarheid. Zo wordt de continuïteit geborgd. In de raamovereenkomst is als eis opgenomen dat de software moet zijn gebaseerd op open standaarden.
Hoe verhoudt deze mogelijke keuze zich tot het bredere kabinetsbeleid om strategische afhankelijkheden van China te verminderen en technologische en economische veiligheid te versterken?
Het kabinet voert actief beleid om de afhankelijkheid van derde landen te verminderen en zo onze veiligheid te vergroten3. Dit beleid wordt uitgevoerd binnen de geldende Europese en nationale wet- en regelgeving.
In dat kader gelden aanvullende beveiligingseisen voor overheidsopdrachten met veiligheidsrisico’s. Sinds 1 januari 2026 geldt Rijksbreed het kader Algemene Beveiligingseisen voor Rijksoverheidsopdrachten (ABRO) voor opdrachten met risico’s voor de nationale veiligheid.
Bij aanbestedingen wordt altijd een zorgvuldige afweging gemaakt tussen marktwerking, aanbestedingsregels en veiligheidsbelangen. Waar nodig worden extra eisen gesteld, passend bij het risicoprofiel van de opdracht.
Bent u bereid te onderzoeken of voor vitale of gevoelige overheidslocaties een «Europees, tenzij»-benadering kan worden toegepast bij de inkoop van energie- en laadinfrastructuur, en de Kamer hierover te informeren?
Het kabinet beziet voortdurend hoe open strategische autonomie en veiligheid kunnen worden versterkt binnen de geldende Europese en nationale kaders. Daarbij wordt ook gekeken naar de samenhang tussen aanbestedingsregels en bredere veiligheids- en afhankelijkheidsvraagstukken.
Eventuele beleidswijzigingen moeten passen binnen het Europese aanbestedingsrecht en internationale verplichtingen. Bij aanbestedingen kunnen partijen alleen worden uitgesloten op wettelijke gronden, bijvoorbeeld bij sancties. Daarnaast gelden internationale afspraken over toegang tot overheidsopdrachten, zoals de WTO-overeenkomst inzake overheidsopdrachten (GPA) en EU-handelsovereenkomsten. Daardoor kunnen partijen niet zomaar worden uitgesloten alleen vanwege herkomst.
De Europese aanbestedingsregels worden op dit moment herzien. Binnen het kabinet coördineert het Ministerie van Economische Zaken de Nederlandse inbreng. In dat verband wordt in Europees verband ook gesproken over een mogelijk EU-voorkeursprincipe. Het kabinetsstandpunt over een Europees voorkeursprincipe in publieke aanbestedingen is met uw Kamer gedeeld.4
Uw Kamer wordt over de voortgang en eventuele keuzes geïnformeerd via Kamerbrieven en voortgangsbrieven over economische veiligheid, open strategische autonomie en aanbestedingsbeleid.
Het artikel ‘Snelgroeiende autonome AI-assistent is een ‘disaster waiting to happen’’. |
|
Jantine Zwinkels (CDA) |
|
van Marum |
|
|
|
|
Bent u bekend met het artikel «Snelgroeiende autonome AI-assistent is een «disaster waiting to happen»»?1
Deelt u de zorgen van experts dat steeds autonomer opererende AI-assistenten risico’s vormen voor veiligheid, privacy, menselijke controle en mentale gezondheid? En kunt u daarbij aangeven welke risico’s u het meest urgent acht?
Acht u het wenselijk dat AI-systemen zelfstandig handelingen, zoals het doen van aankopen en het aangaan van contracten, kunnen verrichten namens gebruikers?
Zo ja, kunt u aangeven welke toepassingen het kabinet maatschappelijk gezien wenselijk en/of acceptabel vindt, en welke niet?
In hoeverre is het huidige Nederlandse en Europese toezichtkader (waaronder de AI Act) toereikend om risico’s van autonome AI-systemen die zelfstandig taken uitvoeren te ondervangen?
Welke definitie van verantwoorde AI (innovaties) hanteert het kabinet? En in hoeverre passen AI-assistenten daarin?
Kunt u aangeven of het naar uw inzicht wenselijk is dat er vanuit de overheid gebruik gemaakt wordt van autonome AI-assistenten? En op welke vlakken gebeurt dit al? Onder welke voorwaarden wordt dit toegestaan en hoe wordt hierop toegezien in de praktijk?
Hoe wordt op dit moment geborgd dat er in kritieke infrastructuur, in sectoren als defensie, de zorg en de overheid zelf, altijd sprake blijft van «meaningful human control» (ofwel «human in the loop») bij het gebruik van autonome AI-assistenten?
Welke andere waarborgen (vangrails) zijn naar uw verwachting nog nodig om hier goed mee om te gaan, voor zowel overheid als samenleving, en is bijsturing mogelijk?
Het bericht 'Wereldwijde druk op X groeit om bikini-deepfakes en AI-beelden minderjarigen' |
|
Tijs van den Brink (CDA), Jantine Zwinkels (CDA) |
|
van Marum , Foort van Oosten (VVD) |
|
|
|
|
Bent u bekend met het bericht «Wereldwijde druk op X groeit om bikini-deepfakes en AI-beelden minderjarigen»?1
Ja.
Deelt u de mening dat het volstrekt onacceptabel en aanstotelijk is dat X op grote schaal seksuele deepfakes van vrouwen en minderjarigen genereert met AI-chatbot Grok?
Ja, wij vinden het onacceptabel dat met behulp van de AI-chatbot Grok op grote schaal deepnudes (seksueel getinte nepafbeeldingen of -video’s) zijn gegenereerd. Het bericht dat zoveel mensen, slachtoffer zijn geworden vinden wij zeer zorgwekkend. De slachtoffers zijn met name vrouwen en minderjarigen, maar deepnudes kunnen in potentie van iedereen gemaakt worden. De impact en de gevolgen van deepnudes voor slachtoffers en hun omgeving zijn enorm, mede omdat het maken van deepnudes steeds geavanceerder wordt en daarmee deepnudes steeds realistischer worden. Daarnaast zijn deze beelden ook schadelijk voor de samenleving, omdat iedereen, specifiek jongeren, ze online tegen kunnen komen. Het vervaardigen van seksueel beeldmateriaal van minderjarigen of van personen zonder toestemming, is strafbaar, ook als het materiaal met AI is gegenereerd.
Bent u bereid om aan te sluiten bij landen zoals Frankrijk en Australië die een onderzoek zijn begonnen tegen X en eisen dat X in actie komt tegen de stroom aan deepfakes van vrouwen? Welke concrete stappen gaat u hiervoor zetten?
In de aanpak van dit soort platforms vinden wij de Europese benadering van belang, waarbij wij als Europese lidstaten één lijn trekken. GROK AI wordt – omdat het onderdeel van X is – via de Europese Digitale Dienstenverordening (DSA) gereguleerd. X is een zeer groot online platform (meer dan 45 miljoen maandelijkse gebruikers) waarop de Europese Commissie (EC) toezicht houdt. De EC is inmiddels een onderzoek gestart in het kader van de DSA.2 Onder de DSA zijn platforms verplicht om illegale content zo snel mogelijk te verwijderen.
In het Verenigd Koninkrijk (VK) is toezichthouder Ofcom een onderzoek gestart. Het toezicht in het VK is anders geregeld, omdat het VK geen lid is van de EU en de DSA daarom niet van toepassing is.
Vindt u het wenselijk dat X veel verder gaat dan concurrenten als het gaat om het toestaan van bikini-deepfakes, terwijl voor andere AI-chatbots strengere beperkingen gelden voor wat met kunstmatige intelligentie mag worden gemaakt?
Nee, wij vinden het handelen van X op dit punt hoe dan ook niet wenselijk.
Voor al dit soort praktijken bestaat hetzelfde juridische kader dat deze praktijken tegen moet gaan. Hierbij is het relevant onderscheid te maken tussen illegale content en niet-illegale content. Alle beelden die illegaal zijn – zoals afbeeldingen van seksueel misbruik van kinderen3 – zijn ook illegaal als deze door AI gegeneerd zijn. Op grond van de DSA moet deze illegale content zo snel mogelijk verwijderd worden, zodra het platform kennis heeft van illegale content (als het bijvoorbeeld is gemeld). Voor wat betreft mogelijk schadelijke, niet-illegale content, geldt dat de DSA voorschrijft dat platforms zoals X systeemrisico’s in kaart moeten brengen en moeten mitigeren (artikel 34 DSA). Zoals hierboven aangegeven, is de EC, die hierop toezicht houdt, inmiddels een onderzoek gestart in het kader van de DSA.
Relevant is verder artikel 14 van de DSA dat regelt dat online platforms in hun gebruiksvoorwaarden informatie moeten opnemen over eventuele beperkingen die zij aan het gebruik van hun dienst opleggen met betrekking tot door de afnemers van de dienst verstrekte informatie. Die informatie omvat gegevens over eventuele beleidsmaatregelen, procedures, maatregelen en instrumenten die worden ingezet voor inhoudsmoderatie, met inbegrip van algoritmische besluitvorming en menselijke controle, alsook de procedurevoorschriften van hun interne klachtenafhandelingssysteem.
Gaat u zich inzetten om gemanipuleerde seksuele afbeeldingen van vrouwen en minderjarigen zo snel mogelijk van het platform te laten verwijderen? Zo ja, op welke manier gaat u dat doen?
Jazeker en wij zien in het geval van Grok AI al een aantal ontwikkelingen in de goede richting. Zo heeft X naar aanleiding van de toenemende druk laten weten de regels voor AI-chatbot Grok aan te scherpen, waardoor het niet meer mogelijk moet zijn om mensen ermee «uit te kleden» of afbeeldingen te creëren van echte mensen in weinig verhullende kleding. Indien er onverhoopt toch nog gemanipuleerde illegale beelden van vrouwen en minderjarigen op het platform staan, kan een ieder op grond van artikel 16 van de DSA een verwijderverzoek indienen. Het platform dient een dergelijk verwijderverzoek op een tijdige, zorgvuldige, niet-willekeurige en objectieve wijze te verwerken.
Als het verwijderen van de illegale content niet lukt door middel van een melding aan het platform, kan een gespecialiseerde hulporganisatie worden ingeschakeld. Op basis van de DSA is Offlimits door de Autoriteit Consument en Markt (ACM), de coördinerende toezichthouder op de DSA in Nederland, aangewezen als betrouwbare flagger. Dit houdt in dat zij verwijderverzoeken van illegale content kan indienen bij online platforms zoals X. X dient vervolgens onverwijld en prioritair dit verwijderverzoek te behandelen, en indien sprake is van illegale content dient het platform deze te verwijderen.
Indien een platform nalaat om adequaat op een melding te reageren, biedt de DSA mogelijkheden tot handhaving waarbij in het geval van X de Europese Commissie in kan grijpen. De EC kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Zoals hierboven vermeld, is de EC een onderzoek gestart naar X, waarbij specifiek wordt gekeken naar AI-chatbot Grok, vanwege mogelijke overtredingen van de DSA. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, een gerechtelijke procedure te starten.
Is het mogelijk om op basis van de Digital Services Act (DSA) een verwijderverzoek in te dienen als het gaat om dergelijke deepfake afbeeldingen?
Ja, een ieder kan op grond van artikel 16 van de DSA een verwijderverzoek indienen wanneer er gemanipuleerde illegale beelden van vrouwen en minderjarigen op een platform staan.
Daarnaast rust op grond van de DSA op zeer grote onlineplatforms en zeer grote onlinezoekmachines de verantwoordelijkheid om illegale inhoud op hun diensten tegen te gaan en systeemrisico’s te mitigeren. Tevens dienen zij hun gebruikers in staat te stellen om illegale inhoud of inhoud die in strijd is met de gebruiksvoorwaarden van een zeer groot onlineplatform op eenvoudige wijze te melden. Het platform X is door de EC aangewezen als zeer groot online platform, waardoor al het bovenstaande van toepassing is.4
Deze zorgvuldigheidsplicht geldt ook ten aanzien van deepnudes, zodra deze illegaal zijn.5 Zo is op grond van artikel 252 Wetboek van Strafrecht (Sr) (ziet specifiek op seksueel beeldmateriaal van minderjarigen) en artikel 254ba Sr het zonder instemming maken, voorhanden hebben of verspreiden van seksueel beeldmateriaal strafbaar, ongeacht of dit door een persoon of AI is vervaardigd. Ook andere strafrechtelijke bepalingen, zoals doxing (art. 285d Sr) en smaad/laster (respectievelijk art. 261 en 262 Sr), zijn in voorkomend geval mogelijk van toepassing, bijvoorbeeld als de AI-chatbot gegenereerde beelden/ bewerkingen van personen bevatten met het oogmerk die persoon vrees aan te (laten) jagen (doxing) of opzettelijk iemands eer of goede naam aanrandt (smaad/laster), en er aan de andere voorwaarden van die specifieke wetsartikelen wordt voldaan.
Zoals ook aangegeven bij het antwoord op vraag 5, is X op grond van artikel 16 van de DSA verplicht een toegankelijk en gebruiksvriendelijk digitaal meldsysteem in te richten waarmee iedereen illegale online inhoud, zoals materiaal van illegale deepnudes, kan melden. Het derde lid van artikel 16 DSA verduidelijkt dat een melding van illegale inhoud, conform de vereisten van dat artikel, leidt tot zogenaamde «daadwerkelijke kennis of bekendheid» van die illegale inhoud bij een hostingbedrijf of online platform. Zodra dat het geval is, moet zij prompt handelen om die illegale inhoud te verwijderen of de toegang daartoe onmogelijk te maken. Doet een platform dat niet dan kan zij geen beroep doen op de vrijwaring van aansprakelijkheid uit artikel 6 van de DSA en zelfstandig aansprakelijk worden gesteld voor die illegale inhoud. Voor het indienen van een verwijderverzoek kan de hulp van Offlimits, een betrouwbare flagger, worden ingeschakeld.
Zijn er voor zover bekend ook Nederlands slachtoffers van deze AI-beelden en zo ja, is voor deze slachtoffers voldoende bekend waar zij terecht kunnen voor hulp?
Slachtoffers kunnen bij verschillende organisaties, zoals Slachtofferhulp Nederland (SHN), Centrum Seksueel Geweld (CSG) en Offlimits, terecht voor hulp. Deze organisaties werken voortdurend aan het onder de aandacht brengen van hun meldpunten en/of hulplijnen, bijvoorbeeld door middel van campagnes. Als het slachtoffer overweegt een melding te maken of aangifte te doen, kan deze terecht bij de politie. Genoemde hulporganisaties kunnen slachtoffers hierover informeren of hierbij ondersteunen.
Bij bovengenoemde hulporganisaties is niet bekend of er ook Nederlanders zijn, die slachtoffer zijn geworden van de AI-naaktbeelden, die specifiek met de AI-Chatbot Grok zijn gegenereerd. Dit komt omdat bij meldingen die door slachtoffers worden gedaan bij SHN en CSG, in de registratie geen onderscheid wordt gemaakt naar misbruik van echt dan wel AI-gegenereerd beeldmateriaal. Bij meldingen die door slachtoffers worden gedaan bij Offlimits, wordt in de registratie wel onderscheid gemaakt tussen echt en AI-gegenereerd beeldmateriaal, maar wordt niet geregistreerd met welke specifieke AI-applicatie, zoals bijvoorbeeld de AI-chatbot Grok, de afbeeldingen zijn gegenereerd.
De politie heeft in de afgelopen twee maanden wel een toename gezien in de hoeveelheid meldingen die vanuit platforms wordt gedaan over uploads naar AI-chatbot Grok. Mogelijk zijn er slachtoffers die zelf melding hebben gedaan bij de politie, maar dit is niet goed uit de registratie te halen, omdat de melding onder verschillende delictsoorten kan worden geregistreerd.
In hoeverre biedt Nederlandse wetgeving bescherming tegen het genereren en verspreiden van AI-deepfakes van vrouwen en minderjarigen en is dit volgens u voldoende?
De Nederlandse wetgeving biedt via de artikelen 252 en 254ba Sr voldoende mogelijkheden om strafrechtelijk op te treden tegen personen die met AI applicaties (zonder toestemming) deepnudes van personen, waaronder vrouwen en minderjarigen, genereren, voorhanden hebben en verspreiden.
De strafbaarstelling van artikel 254ba Sr omvat onder meer het, zonder toestemming van de afgebeelde, vervaardigen van (nep) seksueel beeldmateriaal. Ook het openbaar maken en het voorhanden hebben van dergelijke (nep) naaktbeelden valt onder het bereik van dit artikel. Wanneer het materiaal van minderjarigen betreft is het seksueel beeldmateriaal van kinderen en is het strafbaar op grond van artikel 252 Sr.
Naast de strafrechtelijke handhaving door het Openbaar Ministerie (OM) op bovenstaande strafrechtelijke bepalingen zijn er bestuursrechtelijke handhavers die werken aan de bestrijding van online illegale content. Een van de belangrijkste is de ACM, die als digitaledienstencoördinator voor Nederland handhaaft op de verplichtingen uit de DSA.
De Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM) geeft uitvoering aan maatregelen die Nederland op grond van EU- en nationale regelgeving moet nemen om online terroristisch en seksueel beeldmateriaal van kinderen te signaleren en snelle verwijdering ervan door aanbieders van hostingdiensten te garanderen.
De Autoriteit Persoonsgegevens (AP) is een onafhankelijke toezichthouder die per geval – uit eigen beweging of op verzoek – beoordeelt of wordt voldaan aan de Algemene Verordening Gegevensbescherming (AVG). Het is aan de AP om te beoordelen of een AI deepfake een schending is van de AVG. Wanneer de AP een overtreding constateert, kan de AP een boete of dwangsom opleggen, en bevelen tot het stopzeten van gegevensverwerkingen.6
Daarnaast kunnen slachtoffers van AI deepfakes mogelijk bescherming vinden in het civielrecht. Artikel 6:162 van het Burgerlijk Wetboek biedt het kader voor wat onrechtmatig is in civielrechtelijke zin – al dan niet in combinatie met specifieke civielrechtelijke bepalingen. Hierbij gaat het in de kern om een inbreuk op een recht en een doen of nalaten in strijd met een wettelijke plicht of met hetgeen volgens ongeschreven recht in het maatschappelijk verkeer betaamt, een en ander behoudens de aanwezigheid van een rechtvaardigingsgrond.
Op welke manier wordt in Nederland gecontroleerd of platforms voldoen aan verplichtingen rondom schadelijke AI-inhoud?
In Nederland controleren de bevoegde toezichthouders of platforms voldoen aan wettelijke verplichtingen. De DSA bevat verplichtingen op grond waarvan de ACM kan handhaven wanneer online platforms of hostingproviders onvoldoende optreden tegen illegale inhoud en hun processen met betrekking tot meldingen niet op orde hebben. Dit kan het geval zijn als blijkt dat de onlinedienst niet of onvoldoende gemotiveerd of traag reageert op meldingen over illegale inhoud van bijvoorbeeld gebruikers of trusted flaggers.
Het kan zijn dat niet de ACM maar een toezichthouder in een andere lidstaat bevoegd is ten aanzien van de online dienst in kwestie. In het geval van X/Grok is bijvoorbeeld de EC primair bevoegd. Zij kan als bevoegd toezichthouder een onderzoek instellen en boetes opleggen tot 6% van de wereldwijde omzet. Daarnaast hebben gebruikers de mogelijkheid om, naast het doorlopen van de interne klachtenafhandelingsprocedure bij een aanbieder, ook een gerechtelijke procedure te starten.
De ACM roept slachtoffers van dergelijke beelden op om melding te doen bij het platform/de hosting provider, bij de politie of bij een trusted flagger zoals Offlimits. Deze meldingen zijn waardevol om aan te tonen dat materiaal zonder toestemming is verspreid. Ook kan naar aanleiding van de meldingen blijken dat het platform/de hosting provider onvoldoende optreedt tegen illegale inhoud, waarna de ACM daarop kan handelen.
Daarnaast is de AP op grond van de DSA en de AVG een bevoegd toezichthouder op het gebied van illegale deepnudes. Als deepnudes zonder toestemming worden verspreid, kan er sprake zijn van onrechtmatige verwerking van persoonsgegevens. De AP kan een onderzoek instellen naar personen of organisaties die verantwoordelijk zijn voor het (mogelijk) maken en verspreiden van dit soort materiaal. Dit kunnen in bepaalde gevallen online platforms zijn, maar ook hostingproviders die de content hosten. Voor de AP is het wel van belang dat de partij die verantwoordelijk is voor de content (afhankelijk van de omstandigheden van het geval; het individu en/of het platform) te achterhalen is, wat, anders dan bij X, niet altijd het geval is. Het kan zijn dat niet de AP, maar een gegevensbeschermingsautoriteit in een andere lidstaat bevoegd is wat betreft de onlinedienst in kwestie. Als uit het onderzoek blijkt dat er overtredingen zijn, kan de AP of andere autoriteit aanbieders van onlinediensten bijvoorbeeld een verwerkingsverbod opleggen wat betreft het onrechtmatige materiaal. Het proces van onderzoek en bestuursrechtelijk handhaven zal in de regel niet leiden tot het snel offline zijn van de beelden.
Vindt u dat de mogelijkheid om elk persoon of object door een AI-bot af te laten beelden in bikini geschrapt moet worden om te voorkomen dat vrouwen en minderjarigen slachtoffer worden van seksuele deepfakes? Zo ja, welke stappen gaat u ondernemen?
Binnen het Ministerie van Justitie en Veiligheid wordt gekeken naar de mogelijkheden om het gebruik van nudify applicaties verder tegen te gaan. Ondanks de mogelijkheid om gebruikers van de applicaties strafrechtelijk te vervolgen (via de artikelen 252 en 254ba Sr) en de mogelijkheid om elk illegaal beeld steeds te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen. Om die reden wordt bezien of het wenselijk en haalbaar is het aanbieden van de applicaties zelf te verbieden, nationaal dan wel Europees. Inmiddels hebben met verschillende stakeholders en experts gesprekken plaatsgevonden. Voordat een inhoudelijke positie bepaald wordt, is verdere studie nodig.
Denkt u dat een algeheel verbod op het generen van seksuele content door AI-bots kan helpen om te voorkomen dat vrouwen en minderjarigen hiervan slachtoffer worden? Zo nee, waarom niet?
Zoals bij vraag 8 beantwoord, kan tegen het (zonder toestemming) genereren, voorhanden hebben en verspreiden van deepnudes nu al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba Sr. Ondanks deze strafrechtelijke mogelijkheden en de mogelijkheid om elk illegaal beeld te laten verwijderen, blijft het maatschappelijke probleem rondom deepnudes zich in grote mate voordoen.
In hoeverre kan de in consultatie gebrachte Wet naburig recht deepfakes van personen bij vergelijkbare gevallen behulpzaam zijn? En wanneer kan de Tweede Kamer dit wetsvoorstel verwachten?
Het wetsvoorstel naburig recht deepfakes van personen, een initiatiefvoorstel dat in voorbereiding was bij het voormalig Kamerlid Dral (VVD), is (nog) niet ingediend bij de Tweede Kamer. Er heeft van 30 oktober tot en met 31 december 2025 een internetconsultatie plaatsgevonden over een voorontwerp van de wet van haar hand. Dit voorontwerp is voor advies voorgelegd bij de Commissie Auteursrecht. Het is aan de opvolger van het lid Dral om te besluiten of en hoe het traject wordt voortgezet. Gelet op de voorbereidende fase waarin het wetsvoorstel zich op dit moment bevindt, kan niet worden beoordeeld in hoeverre het Wetsvoorstel een meerwaarde zal hebben voor de aanpak. Zoals bij de vragen 8 en 11 beantwoord, kan tegen het (zonder toestemming) vervaardigen, voorhanden hebben en verspreiden van deepnudes al strafrechtelijk worden opgetreden via de artikelen 252 en 254ba van het Wetboek van Strafrecht.
Bent u bereid in gesprek te gaan met Europese lidstaten over het misbruik van AI-chatbots als het gaat om seksuele content op X en andere platforms?
Ja, daartoe zijn wij bereid. Zoals is geantwoord bij vraag 10, vindt bij het Ministerie van Justitie en Veiligheid een verkenning plaats waarbij wordt gekeken naar de mogelijkheden om het gebruik van nudify-applicaties verder tegen te gaan. Binnen dit onderzoek vinden ook gesprekken plaats met andere Europese lidstaten, om te bezien hoe de aanpak daar is vormgegeven en of gezamenlijk kan worden opgetreden.
Het bericht 'Trollenlegers uit buitenland versterkten politieke en opruiende berichten rond verkiezingen' |
|
Tijs van den Brink (CDA), Derk Boswijk (CDA), Jantine Zwinkels (CDA) |
|
van Marum , Rijkaart |
|
|
|
|
Bent u bekend met het bericht «Trollenlegers uit buitenland versterkten politieke en opruiende berichten rond verkiezingen»?1
Ja, hiervan ben ik op de hoogte.
Kunt u reageren op het onderzoek van RTL Nieuws, waaruit blijkt dat honderden nepaccounts uit Nigeria, Ghana en andere landen op sociale media rond de Nederlandse Tweede Kamerverkiezing het debat beïnvloed hebben?
Pogingen tot beïnvloeding van onze democratie door middel van nepaccounts op sociale mediazijn ernstig en zorgelijk. Gelukkig heeft Nederland een robuuste democratie met transparante en controleerbare verkiezingen, waardoor ik de impact van de nepaccounts als beperkt beschouw. De verkiezingen zijn eerlijk en vrij verlopen. Tegelijkertijd is elke gecoördineerde campagne die het publieke debat rondom het verkiezingsproces mogelijk beïnvloedt, ongeacht de omvang, volstrekt onwenselijk. Het publieke debat is van iedereen en dient daarom niet gemanipuleerd te worden, zeker in relatie tot cruciale democratische processen zoals nationale verkiezingen. Sociale media bedrijven kunnen hiervoor misbruikt worden. Zeer grote online platformen hebben daarom de verplichting om te onderzoeken of hun diensten op deze manier misbruikt kunnen worden, en zo nodig maatregelen te treffen om dat te adresseren.
Ik vind het belangrijk dat platformen verantwoordelijkheid nemen en maatregelen treffen tegen illegale content, desinformatie en gecoördineerd niet-authentiek gedrag. Daarom blijf ik in gesprek met de platformen over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces, zoals toegezegd in de Kamerbrief over het contact met de platformen.2 Dit gesprek zal ook voor de komende gemeenteraadsverkiezingen plaatsvinden.
We staan er als Nederland niet alleen voor. Samen met de Europese Commissie en andere EU-lidstaten spannen we ons gezamenlijk in om de democratie te verdedigen tegen buitenlandse inmenging. Zo is recent het European Democracy Shield gepubliceerd, en zijn al verschillende onderzoeken tegen zeer grote online platformen gestart in verband met mogelijke overtredingen van de digitaledienstenverordening (DSA). Ik steun de Europese Commissie in haar toezicht en in de lopende onderzoeken, waarbij ook aandacht is voor gecoördineerd niet-authentiek gedrag en manipulatie. Ook zoeken we bilaterale samenwerking en kennisuitwisseling met partners, waaronder Duitsland, Frankrijk en Zweden op, om te leren van hun ervaringen op dit gebied.
Kunt u bevestigen dat het inderdaad ook gaat om Russische invloed?
De diensten doen onderzoek naar statelijke actoren en in welke mate zij een dreiging vormen voor de nationale veiligheid. Wanneer zij stuiten op pogingen tot beïnvloeding, manipulatie of verstoring van de verkiezingen, kunnen en zullen de diensten hun wettelijke bevoegdheden inzetten om dit tegen te gaan. In het openbaar kan ik niet ingaan op individuele gevallen. Immers, dit zou inzicht geven in het huidige kennisniveau van de diensten en daarmee de nationale veiligheid kunnen schaden.
Wel waarschuwen de diensten en de NCTV in zijn algemeenheid dat statelijke actoren onze democratie kunnen en willen ondermijnen.3 De inzet van sociale media, waarbij nepaccounts profielen en berichten proberen te versterken, past in het beeld van de wijze waarop statelijke actoren de democratische rechtsstaat proberen te ondermijnen. Er moet rekening worden gehouden dat deze vorm van heimelijke beïnvloeding veelvuldig voor kan komen, met name rondom verkiezingen.
Hoe oordeelt u over de impact van deze trollenlegers op de verkiezingen?
Ondanks dat iedere poging om het verkiezingsproces te beïnvloeden ongewenst is, betekent het niet dat iedere poging ook een daadwerkelijke invloed heeft. Door het geringe aantal nepaccounts kan worden vastgesteld dat de impact beperkt was. De verkiezingen zijn eerlijk en vrij verlopen. Ondanks dat deze specifieke casus geen grote impact heeft gehad op de afgelopen verkiezingen, kan het meermalig gebruik van nepaccounts door verschillende actoren het vertrouwen in het verkiezingsproces en het publieke debat ondermijnen. Daarom moet de samenleving weerbaar zijn en blijven tegen beïnvloedingspogingen en neemt het kabinet maatregelen om de verkiezingen eerlijk en vrij te laten verlopen. Zie hiervoor het antwoord op vraag 7.
Zijn deze trollenlegers nog steeds actief? In hoeverre is hier inzicht in?
Zie het antwoord op vraag 3.
Herinnert u zich eerdere waarschuwingen van onder andere Europol en de Europese Commissie over buitenlandse informatieoperaties gericht op EU-lidstaten?
Er is binnen de EU veel aandacht voor buitenlandse informatieoperaties gericht op de EU-lidstaten. De Europese Commissie en de Europese Dienst voor Extern Optreden (EDEO) staan hierover in nauw contact met de lidstaten. Bijvoorbeeld via de Rapid Alert System (RAS), dat in het leven is geroepen om snel met andere lidstaten te communiceren en waar nodig gezamenlijke actie te ondernemen. Nederland neemt actief deel aan de RAS. Zo heeft BZK afgelopen november een bijeenkomst georganiseerd voor de RAS-leden waar mogelijke beïnvloeding van verkiezingen onderdeel van de agenda was.
Gezien de groeiende dreiging van buiten de EU, is in het recent gepresenteerde European Democracy Shield (EUDS) aangekondigd de samenwerking te versterken. Uw Kamer wordt hierover binnenkort, via de gebruikelijke wijze, geïnformeerd.
Welke aanvullende Nederlandse maatregelen zijn sindsdien genomen en hoe verhouden die zich tot de bevindingen in dit RTL-onderzoek?
Het kabinet neemt iedere verkiezing maatregelen om risico’s op buitenlandse beïnvloeding in het verkiezingsproces tegen te gaan. Deze maatregelen worden doorlopend geëvalueerd en aangescherpt waar nodig. Hierbij kijk ik ook naar de ervaringen van andere EU-lidstaten en EU-instellingen. Dit maatregelenpakket omvat onder andere een offensieve aanpak tegen desinformatie en informatiemanipulatie. Over de genomen maatregelen is uw Kamer eerder over geïnformeerd.4
Separaat werk ik in samenwerking met andere departementen uit hoe we eerder en beter zicht kunnen krijgen op buitenlandse beïnvloedingscampagnes (FIMI) die onze Nederlandse belangen willen ondermijnen, zoals een gezonde democratie en maatschappelijke stabiliteit. Het gaat hier dus om detectie-capaciteit. Hierbij leren we van de ervaringen van EU-lidstaten, zoals Frankrijk en Zweden, hoe zij dergelijke FIMI detecteren en hierop reageren. We werken momenteel uit hoe we FIMI-detectie in de Nederlandse context kunnen vormgeven. Uw Kamer wordt hierover na het zomerreces geïnformeerd.
Daarnaast vind ik het van belang dat organisaties die zich inzetten om informatiecampagnes en desinformatie bloot te leggen, zoals factcheckers en onderzoeksjournalisten, hun werk kunnen doen en het publiek blijven informeren.
Ik heb van de ACM vernomen dat zij de Europese Commissie op de hoogte heeft gebracht van het onderzoek van Trollrensics, waarop de berichtgeving is gebaseerd. Verder ga ik, zoals omschreven in het antwoord op vraag 2, wederom in gesprek met de sociale media platformen, over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces. Dit gesprek zal voor de komende gemeenteraadsverkiezingen plaatsvinden. Tot slot kan het Ministerie van BZK tijdens verkiezingen in contact treden met de platformen X, Meta, TikTok, Google, of Snapchat, indien er signalen zijn over berichten met feitelijk onjuiste informatie over het verkiezingsproces. Met die platformen bestaat de afspraak dat zij deze meldingen van BZK gedurende de verkiezingsperiode met prioriteit behandelen. Dit noemt BZK de «verkiezingen flagger status». Het ministerie heeft geen bevoegdheid om bepaalde content te laten verwijderen. Gedane meldingen worden achteraf wel openbaar gemaakt in de evaluatie van de desbetreffende verkiezing.5 Ik wil verkennen of deze status verder uitgebreid kan worden, om zo ook niet-authentieke campagnes onder de aandacht te brengen van platformen.
Zijn er bij u signalen bekend dat buitenlandse netwerken gericht hebben geprobeerd invloed uit te oefenen op de Nederlandse verkiezingen? Zo ja, in hoeverre is hiervan sprake geweest?
Zoals gezegd in antwoord op vraag 3, passen het gebruik van nepaccounts die profielen en berichten proberen te versterken in het beeld van de wijze waarop statelijke actoren de democratische rechtsstaat proberen te ondermijnen. Daarom neem ik iedere verkiezing maatregelen om de effecten van deze heimelijke beïnvloedingspogingen te mitigeren en is het van belang dat platformen hun verantwoordelijkheid nemen in het beschermen van het publieke debat.
Is het denkbaar dat er nog meer trollenlegers actief zijn geweest rond de verkiezingen dan bekend is dankzij dit onderzoek. Zo ja, hoeveel? Op welke manier is dat volgens u in de toekomst te voorkomen?
Zie antwoord vraag 8.
Deelt u de mening dat platforms die zich niet aan de regels houden gestraft moeten worden en dat websites en platforms bij herhaalde en grove schending (tijdelijk) uit de lucht moeten worden gehaald? In hoeverre hebben de socialemediaplatformen volgens u de verantwoordelijkheid om buitenlandse nepaccounts die zich mengen in maatschappelijke discussies in Nederland te weren en offline te halen; op basis van welk beleid of wetgeving kunt u hen hier ook verantwoordelijk voor houden? Hoe zou de aanstaande wetgeving (denk aan de Digitaledienstenverordening, de Verordening artificiële intelligentie en Digital Fairness Act) en handhaving hierop een rol van betekenis in kunnen spelen?
Het kabinet acht het van belang dat sociale media platformen hun verantwoordelijkheid nemen in het beschermen van de integriteit van het verkiezingsproces. Zo verplicht de digitaledienstenverordening DSA zeer grote online platformen en zoekmachines (VLOPs en VLOSEs) om systeemrisico’s in kaart te brengen en hier maatregelen tegen te nemen. Dit betreft ook risico’s rond verkiezingsprocessen, zoals de verspreiding van desinformatie of opzettelijke manipulatie van de dienst, onder meer door niet-authentiek gebruik (zoals nepaccounts).
Voor het toezicht op en handhaving van de verplichtingen uit de DSA op VLOPs en VLOSEs is de Europese Commissie exclusief bevoegd. Tot op heden heeft de Europese Commissie 9 formele procedures geopend tegen VLOPs, waaronder 4 socialemediabedrijven: Facebook, Instagram, TikTok en X. De overige 5 VLOPs zijn Aliexpress, Temu, Pornhub, XNXX en XVideos. Het kabinet volgt deze en andere lopende onderzoeken met grote interesse en staat samen met andere lidstaten achter de Europese Commissie en de proactieve handhaving van de DSA-verplichtingen.
Tegelijkertijd acht het kabinet het van belang dat platformen ook proactief maatregelen te nemen om onze democratische processen te beschermen, en daarbij niet de onderzoeken van de Commissie afwachten. Daarom zijn er tijdens de afgelopen verkiezing op verschillende manieren gesprekken geweest met de platformen en ga ik, zoals vermeld in antwoord 2, in gesprek met de platformen over platformen over hun verantwoordelijkheden voor het beschermen van het publiek debat en het verkiezingsproces.
Zijn er socialemediaplatformen aangesproken vanwege de buitenlandse nepaccounts die verkiezingen proberen te beïnvloeden. Zo ja, welke maatregelen zijn vervolgens genomen?
In Nederland zijn er door de rijksoverheid geen platformen specifiek aangesproken vanwege buitenlandse nepaccounts. Wel heb ik van de ACM vernomen dat zij de Europese Commissie op de hoogte gebracht van het onderzoek van Trollrensics, waarop de berichtgeving is gebaseerd. Daarnaast heeft het Ministerie van BZK contact gehad met Meta en X over berichten met onjuiste informatie hoe te stemmen. Uw Kamer wordt in de evaluatie van de Tweede Kamerverkiezing hierover geïnformeerd.
Het kabinet moedigt onderzoekers, burgers en maatschappelijke organisaties aan om ook zelf melding te doen bij het desbetreffende platform, als zij stuiten op nepaccounts en content dat ingaat tegen wet- en regelgeving, of het beleid van het platform zelf. Indien een platform niet reageert, dan kan daarover een melding worden gedaan bij de ACM.
Welke concrete maatregelen kunt u nemen om buitenlandse inmenging via sociale media bij verkiezingen te voorkomen en beperken? Zijn deze maatregelen volgens u voldoende?
Voor de maatregelen die wij nemen, verwijs ik naar het antwoord op vraag 7.
Welke maatregelen gaat u nemen om ervoor te zorgen dat kiezers tijdens toekomstige verkiezingen beschermd worden tegen buitenlandse beïnvloeding via sociale media?
Zie het antwoord op vraag 7.
Bent u bereid om deze zorgen bij Europese collega’s onder de aandacht te brengen en ervaringen uit te wisselen om buitenlandse inmenging te voorkomen?
Ja, Nederland neemt actief deel aan verschillende samenwerkingsverbanden, zoals de Rapid Alert System (RAS) en de European Cooperation Network on Elections (ECNE) en de Europese Raadswerkgroep voor het vergroten van weerbaarheid en tegengaan van hybride dreigingen (HWP ERCHT). Ook zet Nederland zich er voor in dat binnen de Raad van Europa wordt samengewerkt om de dreiging van FIMI voor onze democratie tegen te gaan in het kader van het New Democratic Pact.