Kamervraag 2023Z07266

De chatbot van Snapchat

Ingediend 20 april 2023
Beantwoord 13 juni 2023 (na 54 dagen)
Indiener Barbara Kathmann (PvdA)
Beantwoord door Alexandra van Huffelen (staatssecretaris binnenlandse zaken en koninkrijksrelaties) (D66)
Onderwerpen bestuur organisatie en beleid
Bron vraag https://zoek.officielebekendmakingen.nl/kv-tk-2023Z07266.html
Bron antwoord https://zoek.officielebekendmakingen.nl/ah-tk-20222023-2885.html
1. «Nieuwe functie Snapchat wil met kinderen afspreken: «Zie ik je vanavond? Ik ben een echt persoon!»», AD, 18-04-2023, Nieuwe functie Snapchat wil met kinderen afspreken: «Zie ik je vanavond? Ik ben een echt persoon!» | Tech | AD.nl
  • Vraag 1
    Is de Staatssecretaris bekend met het artikel «Nieuwe functie Snapchat wil met kinderen afspreken: «Zie ik je vanavond? Ik ben een echt persoon!»»?1

    Ja, daarmee ben ik bekend.

  • Vraag 2
    Hoe beoordeelt de Staatssecretaris de constatering in het artikel dat wanneer kinderen aangeven te kampen met problemen de chatbot van Snapchat zich voordoet als een echt persoon, en zelfs voorstelt om af te spreken?

    Ik vind het onwenselijk als een chatbot zich voordoet als echt persoon en kinderen voorstelt om af te spreken. Snap Inc., het bedrijf achter Snapchat, heeft inmiddels in een gesprek met de Staatssecretaris van VWS en mij aangegeven dat de functionaliteit is aangepast waardoor de chatbot zich niet langer voordoet als een echt persoon en expliciet wordt vermeld dat het gaat om een chatbot. Toch vind ik het kwalijk dat er bij de introductie van deze nieuwe functie in Snapchat onvoldoende rekening is gehouden met de impact die dit kan hebben op kinderen. Ik wil bedrijven zoals Snap Inc. dan ook oproepen de Code Kinderrechten Online toe te passen, waarvan het eerste beginsel luidt: «zet het belang van het kind voorop bij het ontwerp». Ook met het oog op de aankomende AI-verordening vind ik het belangrijk dat ontwerpers die gebruik maken van een chatbot duidelijk en transparant zijn richting de eindgebruiker dat er sprake is van een AI-systeem. In het geval van kinderen vergt dat extra waarborgen.

  • Vraag 3
    Deelt de Staatssecretaris de zorgen dat kinderen die online op zoek gaan naar hulp ten prooi vallen aan deze chatbot?

    Zoals hierboven gesteld heeft Snapchat aangegeven dat de chatbot zich niet langer voordoet als een echt persoon. Wanneer de aankomende AI-verordening van toepassing is, zal het bij chatbots verplicht zijn om natuurlijke personen te informeren dat zij interacteren met een AI-systeem, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.

  • Vraag 4
    Deelt de Staatssecretaris de opvatting dat het zorgelijk is wanneer kinderen niet het onderscheid kunnen maken tussen een chatgesprek met een echt persoon en een chatgesprek met een chatbot?

    Jazeker, daarom is bovengenoemde AI-verordening van groot belang. Deze verordening verplicht dat natuurlijke personen worden geïnformeerd over het feit dat zij met een AI-systeem (zoals een chatbot) te maken hebben. Deze wetgeving moet de benodigde transparantie bieden over de vraag of je met een echt mens communiceert of met AI.

  • Vraag 5
    Welke risico’s ziet de Staatssecretaris in het feit dat kinderen die hulp zoeken omdat ze zich bijvoorbeeld eenzaam voelen, niet weten dat ze te maken hebben met een chatbot en niet met een echt persoon?

    Dat kinderen met chatbots kunnen chatten hoeft in beginsel niet problematisch te zijn. Wel dient hierbij voor deze kinderen duidelijk te zijn dat zij chatten met een chatbot en geen echt persoon. In de AI-verordening (die nog in onderhandeling is) staat dat aanbieders van AI-systemen ervoor moeten zorgen dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld (zoals chatbots), zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij met een AI-systeem te maken hebben, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.
    Een ander belangrijk risico is dat kinderen (gevoelige) persoonsgegevens verstrekken aan een chatbot en deze gegevens vervolgens worden opgeslagen, verwerkt en worden gebruikt om kinderen te profileren. Omdat kinderen vaak nog niet in staat zijn om een goede inschatting te maken van welke informatie ze beter wel of niet kunnen delen, hebben technologiebedrijven een belangrijke verantwoordelijkheid om daar geen misbruik van te maken en zich te houden aan de toepasselijke wet- en regelgeving, zoals de AVG de Digital Services Act (DSA), die binnenkort van toepassing wordt.
    Ook hebben de platforms een eigen verantwoordelijkheid tegenover hun gebruikers om bij het vormgeven van hun diensten het belang van kinderen een belangrijke rol te laten spelen. Ik verwacht van deze bedrijven dat zij ook rekenschap geven van het feit dat bepaalde functionaliteiten risico’s voor kinderen met zich meebrengen. Ik spreek geregeld met verschillende grote technologiebedrijven over het beschermen van kinderen online. Tijdens deze gesprekken wijs ik deze grote techbedrijven op hun verantwoordelijkheid om kinderen en jongeren online te beschermen.

  • Vraag 6
    In hoeverre verwacht de Staatssecretaris dat het mogelijk is dat een dergelijke chatbot kinderen met problemen voorziet van onjuiste of gevaarlijke adviezen?

    Een chatbot kan onjuiste of gevaarlijke adviezen geven. Ik vind het natuurlijk volledig onacceptabel als chatbots kinderen van gevaarlijke of onjuiste adviezen zouden voorzien.
    In de DSA zijn bepalingen opgenomen om gebruikers van online platforms beter te beschermen. De verplichtingen uit de DSA gaan vanaf 17 februari 2024 voor alle tussenhandeldiensten gelden. Voor de zeer grote online platforms- en zoekmachines, waaronder sociale netwerken als TikTok, Snapchat, Instagram en Facebook, wordt de DSA al dit jaar van toepassing, namelijk op 25 augustus 2023. Zij zijn vanaf dan verplicht om jaarlijks de zogenaamde systeemrisico’s die voortvloeien uit het ontwerp of uit de werking van hun diensten in kaart te brengen en maatregelen te nemen om deze risico’s te verminderen. Tot deze systeemrisico’s behoren nadrukkelijk ook eventuele werkelijke of voorzienbare negatieve effecten op de uitoefening van grondrechten, waaronder de rechten van kinderen, en negatieve effecten met betrekking tot minderjarigen. Dit betekent dat de zeer grote online platforms, waaronder ook Snapchat, op grond van de DSA maatregelen moeten nemen om de kinderen te beschermen tegen chatbots wanneer deze (potentieel) een negatief effect hebben op de rechten of het welzijn van kinderen.

  • Vraag 7
    In hoeverre deelt de Staatssecretaris de opvatting van het kenniscentrum Bureau Jeugd & Media dat er een gedragscode moet komen voor het gebruik van chatbots?

    In de AI-verordening (die nog in onderhandeling is) staat dat aanbieders ervoor moeten zorgen dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld (zoals chatbots), zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij met een AI-systeem te maken hebben, tenzij uit de omstandigheden en gebruikscontext al blijkt dat sprake is van een AI-systeem.

  • Vraag 8
    Deelt de Staatssecretaris de opvatting dat de urgentie van het verhogen van kennis over deze toepassingen onder kinderen zeer hoog is?

    Ja, ik acht het van belang dat kinderen en hun ouders worden gewaarschuwd voor de risico’s voor kinderen in de digitale wereld. Zoals reeds aangegeven in de beantwoording van de Kamervragen die op 9 maart jl. aan uw Kamer zijn verzonden,2 zal ik een publiekscampagne starten om ouders en kinderen hierover beter te informeren. Voor de zomer zal ik een brede beleidsbrief over de bescherming van kinderen in de digitale wereld aan uw Kamer sturen. Hierin zal ik deze campagne ook verder toelichten.

  • Vraag 9
    Welke rol ziet de Staatssecretaris hierin weggelegd voor scholen? Op welke manier gaat het kabinet zorgen dat scholen toegerust zijn om kinderen van deze kennis te voorzien?

    Het is belangrijk dat schoolbesturen en leraren voldoende op de hoogte zijn van zowel de kansen als de risico’s van AI voor het onderwijs. Van onderwijsinstellingen vraagt dit om te doordenken hoe zij dit vanuit hun visie op goed onderwijs binnen hun instellingen willen vormgeven. Zij worden hierbij ondersteund door Kennisnet en SURF, die webinars en artikelen aanbieden. Ook hebben Kennisnet, de PO-Raad en de VO-raad een monitor ontwikkeld, MYRA, die scholen inzicht geeft in hoe zij ervoor staan op het gebied van technologie en digitalisering. Bewustwording over kunstmatige intelligentie vormt daar één van de onderdelen van, waaronder het gebruik van chatbots in de klas en computational thinking.
    Aanvullend faciliteert het Ministerie van OCW een verantwoorde ontwikkeling van AI in het onderwijs, door het benutten van kansen en met oog voor de risico’s. Met behulp van het Nationaal Groeifonds investeert het Ministerie van OCW in deze ontwikkelingen tot 2035. Zo is er voor de komende tien jaar € 80 miljoen toegekend aan het Nationaal Onderwijslab AI (NOLAI) in het funderend onderwijs. Leraren en scholen in het funderend onderwijs kunnen deelnemen aan co-creatie projecten waarin zij samen met wetenschappers en leermiddelenmakers werken aan een goede inzet van intelligente technologieën in het onderwijs, vanuit een pedagogisch en didactisch verantwoorde basis, met oog voor risico’s als privacy en autonomie van leerlingen en leraren.

  • Vraag 10
    Welke andere manieren ziet de Staatssecretaris voor zich om kinderen online weerbaar te maken en te beschermen tegen dergelijke negatieve uitwassen van AI toepassingen?

    Zoals toegelicht onder vraag 8 zijn wij bezig met het ontwikkelen van een voorlichtingscampagne om het bewustzijn van de risico’s in de digitale wereld bij ouders en kinderen te verhogen en hun (meer) handelingsperspectief te bieden.


Kamervraag document nummer: kv-tk-2023Z07266
Volledige titel: De chatbot van Snapchat
Kamerantwoord document nummer: ah-tk-20222023-2885
Volledige titel: Antwoord op vragen van het lid Kathmann over de chatbot van Snapchat