Minister van Data en Privacy

Mijn ambitie

Onze toekomst zit vol met krachtige toepassingen van onze data. Maar eenmaal uit handen is de beheersing en de beveiliging ervan maar al te lastig. We willen een veilige en ethische toekomst, met oog voor de mensen die het hardst getroffen worden door nieuwe technologieën. Tegelijkertijd is het niet de bedoeling dat nieuwe regulering op dit gebied de ontwikkeling van fantastische nieuwe technologieën in de weg zit. We moeten daarom een middenweg vinden, waarin we onze informatiemaatschappij beheerst laten groeien, maar niet blind zijn voor nieuwe problemen.

De uitdaging

We leven vandaag de dag in een informatiemaatschappij. Data is de drijfveer van tal van (nieuwe) technologieën. Met data-gedreven technieken zoals ‘machine learning’ bouwen we AI-systemen die gebruik kunnen maken van de huidige overvloed aan informatie. YouTube kiest bijvoorbeeld leuke nieuwe muziek voor je uit, of spraaksystemen zoals Siri of Alexa beantwoorden al je vragen.

Maar de invloed van artificiële intelligentie (AI) zal nog verder reiken. Proeven met robotrechters1 zijn al gaande en de overheid gebruikt nu al systemen zoals SyRI om fraude op te sporen. Dit brengt natuurlijk ook tal van ethische vraagstukken met zich mee. Wat als een AI wordt gebruikt om verkiezingen te beïnvloeden? Denk bijvoorbeeld aan politieke micro-targeting2. Mag een AI je ontslaan?3 En hoe gaan we om met AI die zichzelf (per ongeluk) racistische denkbeelden heeft aangeleerd?4

AI veroorzaakt echter niet alleen problemen. Het kan ook ingezet worden om bijvoorbeeld sociale problemen op te lossen5, of om burgers te beschermen tijdens militaire operaties6. Desalniettemin verwerken en bestuderen AI-systemen wel vaak grote hoeveelheden persoonsgegevens. ‘Big data,’ vormt dan ook een grote uitdaging voor onze privacy7. De databeveiliging is daarnaast ook niet altijd op orde bij veel Europese bedrijven8. Dat wordt waarschijnlijk ook maar des te meer problematisch, gezien datalekken en hackers een steeds groter gevaar aan het worden zijn.

De aanpak

Om die middenweg te vinden moeten we eerst weten waar de problemen en oplossingen van nieuwe technologieën liggen. Daarvoor moeten tal van vragen eerst beantwoord worden. Hoe kunnen we AI ethisch reguleren? Hoe stellen we de juiste eisen qua privacy en databescherming? Welke groepen worden er geraakt door nieuwe technologieën en hoe beschermen we ze?

Dit vereist investeringen in diepgaand academisch onderzoek en in de mensen die dit onderzoek kunnen doen. Onderzoek dat o.a. gedaan wordt aan de UvA bij het IViR en HumaneAI, of in samenwerking met de VU en de gemeente Amsterdam in het CIVIC AI Lab, maar ook daarbuiten door het TILT van de Universiteit Tilburg, het eLaw van de Universiteit Leiden en nog vele anderen.

Daarnaast ontbreekt het in Nederland ook aan AI- en privacy geletterdheid onder burgers, politici en programmeurs. We moeten niet alleen de problemen zelf aanpakken, maar ook bewustwording erover aanmoedigen. Nederland moet daarom investeren in haar onderwijsinstellingen en expertisecentra, alleen zo zijn we voorbereid op de toekomst.

  1. Masha Medvedeva, Michel Vols, and Martijn Wieling, “Using Machine Learning to Predict Decisions of the European Court of Human Rights,” Artificial Intelligence and Law 28, no. 2 (2020): 237–66, https://doi.org/10.1007/s10506-019-09255-y.

  2. Frederik J. Zuiderveen Borgesius et al., “Online Political Microtargeting: Promises and Threats for Democracy,” Utrecht Law Review 14, no. 1 (February 9, 2018): 82–96, https://doi.org/10.18352/ulr.420.

  3. Adrián Todolí-Signes, “Algorithms, Artificial Intelligence and Automated Decisions Concerning Workers and the Risks of Discrimination: The Necessary Collective Governance of Data Protection,” Transfer (Brussels, Belgium) 25, no. 4 (2019): 465–81, https://doi.org/10.1177/1024258919876416.

  4. Anastasia Siapka, “The Ethical and Legal Challenges of Artificial Intelligence: The EU Response to Biased and Discriminatory AI,” SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, December 11, 2018), https://doi.org/10.2139/ssrn.3408773.

  5. “How to Design AI for Social Good: Seven Essential Factors – University of Amsterdam,” accessed March 12, 2021, https://lib.uva.nl/discovery/fulldisplay/cdi_webofscience_primary_000523072400001CitationCount/31UKB_UAM1_INST:UVA.

  6. Ronald Arkin, “Lethal Autonomous Systems and the Plight of the Non-Combatant,” 2018, 317–26, https://doi.org/10.1007/978-3-319-51466-6_15.

  7. Kim-Kwang Raymond Choo and Ali Dehghantanha, Handbook of Big Data Privacy (Cham: Springer International Publishing AG, Springer, 2020).

  8. Katarina Kertysova et al., Cybersecurity: Ensuring Awareness and Resilience of the Private Sector across Europe in Face of Mounting Cyber Risks (Brussels: EESC, 2018), https://data.europa.eu/doi/10.2864/917494.