AI en algoritmes zijn een gift en gif in onze samenleving

Onze samenleving raakt langzaam doordrenkt met surveillancetechnologie. Niet alleen middels cameratoezicht of het gebruik van algoritmes in de opsporing van criminaliteit, maar ook met ogenschijnlijk onschuldige toepassingen zoals een slimme koelkast of gasmeter, slimme apps, een digitale deurbel of de camera’s ingebouwd in een Tesla. De meeste mensen lijken zich bewust van de voordelen en gemakken die de integratie van digitale vernuftigheden in onze samenleving brengt. Er wordt echter te weinig gesproken over de risico’s van AI en algoritmes, vindt Marc Schuilenburg, hoogleraar Digital Surveillance aan Erasmus School of Law. Volgens hem ontbreekt het aan digitale ethiek en als het in de criminologie wel over de negatieve kant van digitalisering gaat, gaat het te weinig over de relatie van surveillance met machtsstructuren en de concrete ervaringen van personen.

In zijn oratie ‘Waarom we met elkaar moeten praten over big data en algoritmes als het over veiligheid gaat’ legt Schuilenburg uit waar het gesprek over digitale surveillance volgens hem over zou moeten gaan. Nadat een technologie wordt ontworpen en toegepast, wordt vaak na implementatie pas nagedacht over het wettelijke kader. Dat moet anders; in de ontwerpfase zou volgens de criminoloog al nagedacht moeten worden over ethiek en juridische kaders.  

Feodale veiligheid 

Volgens Schuilenburg leven we in een door surveillance gedomineerde samenleving. “Iedereen participeert hier in meer of mindere mate aan mee. Surveillance is volledig geïntegreerd in onze routines en levensstijlen”, verklaart hij tegenover Vers Beton. “Digitale surveillance is een gift waarmee zware criminaliteit kan worden bestreden, maar wordt een gif wanneer dit leidt tot stelselmatige schendingen van mensenrechten.” Niet alleen de overheid maakt inbreuk op grond- en mensenrechten bij de toepassing van digital surveillance. Ook grote techbedrijven hebben een machtige positie en bezitten veel data over gebruikers. Schuilenburg spreekt in dit kader van ‘feodale veiligheid’. 

Sociale inclusie 

Het publiek maken van digitale surveillance zou bijdragen aan een oplossing voor de risico’s rondom AI en algoritmes. Dit betekent niet dat de overheid altijd volledig transparant dient te zijn over de gebruikte algoritmes, maar publieke diensten moeten volgens Schuilenburg duidelijk zijn over welke publieke waarden ze uitdragen. De samenleving moet de overheid kunnen bevragen over deze waarden, tools en de toepassing hiervan. Zulke vragen zijn bijzonder relevant in de ontwerpfase van digitale technologie. “Ook andere groepen mensen dan ICT-experts moeten worden betrokken in het ontwerpproces. Denk aan jongeren, minderheden en de ervaringen van praktijkprofessionals. Noem het sociale inclusie, want ontwerpers moeten leren zich beter te verplaatsen in de leefwereld van anderen”, stelt Schuilenburg. 

Hoe dit concreet te integreren in de praktijk van algoritmebouwers? Dat is de grote vraag voor Schuilenburg: “Dit is precies wat ik in Rotterdam wil gaan onderzoeken met de leerstoel Digitale Surveillance. Het zal zo eenvoudig niet zijn in te breken op dit domein van wiskundigen, econometristen en programmeurs. Maar we moeten toch ergens beginnen. Ik vind dat de criminologie haar maatschappelijke verantwoordelijkheid ten volle moet nemen en niet moet afwachten totdat van alles geïmplementeerd is. Dan is het too little, too late, omdat de belangrijkste keuzes dan al gemaakt zijn.” 

Professor
Marc Schuilenburg, hoogleraar Digitale Surveillance
Meer informatie

Lees het hele artikel van Vers Beton en het stuk op Sociale Vraagstukken.

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen