De grenzen van predictive policing: “Menselijk gedrag is niet zo voorspelbaar als men denkt”

Predictive policing, risicotaxatie en artificiële intelligentie binnen het politiewerk: Marc Schuilenburg, hoogleraar Digital Surveillance aan Erasmus School of Law, doet sinds jaar en dag onderzoek naar de rol van technologie in de opsporing en het voorkomen van criminaliteit. In dit tweeluik blikken we met hem vooruit én terug: hoe nieuw zijn AI-toepassingen binnen de politie, wat maakt ze ethisch en praktisch problematisch, en is er ook een positieve inzet denkbaar? In dit eerste deel gaan we in op de vraag: Waar liggen de gevaren van predictive policing?

Het Britse ministerie van Justitie onderzoekt in een recente pilot de inzet van AI om de veiligheid te vergroten. In dit project, waarover The Guardian berichtte, worden uiteenlopende persoonsgegevens geanalyseerd om te voorspellen wie een verhoogd risico vormt op het plegen van ernstige geweldsdelicten. Opvallend is dat ook gegevens over geestelijke gezondheid worden meegenomen, waaronder informatie over verslavingsgevoeligheid en eerdere episodes van zelfbeschadiging of suïcidaliteit.

“Daar gaan we weer,” was de eerste gedachte van Marc Schuilenburg bij het lezen van dit bericht. Als hoogleraar Digital Surveillance waarschuwt hij al jaren voor de risico’s van datagedreven risicovoorspellingen binnen het politiewerk, en de beperkingen daarvan: “Menselijk gedrag is niet zo voorspelbaar als men denkt. Er bestaat zelden een objectieve manier om dit soort modellen verantwoord in te zetten.”

Van klassieke algoritmen tot zelflerende AI

Het voorspellen van criminaliteit met behulp van algoritmen is geen nieuw fenomeen. In 2012 introduceerde de politie van Los Angeles het systeem PredPol, dat voorspelt waar binnen de stad misdrijven worden verwacht. In Nederland wordt sinds 2014 het vergelijkbare systeem Criminaliteit Anticipatie Systeem (CAS) ingezet om criminaliteitspatronen te identificeren. De effectiviteit van dergelijke systemen is onderwerp van wetenschappelijke discussie: voor PredPol werd een positief effect vastgesteld, terwijl CAS in evaluaties geen aantoonbaar effect liet zien dat de criminaliteit hierdoor afnam.

Visualizatie Criminaliteits Anticipatie Systeem (CAS)

De plannen van de Britse overheid om AI in te zetten markeren technisch gezien wel een volgende stap, aldus Schuilenburg. “Klassieke risicotaxatie-instrumenten zijn nog enigszins beheersbaar; ze werken met controleerbare ‘als/dan’-regels en een beperkt aantal variabelen. AI-modellen zijn daarentegen zelflerend, veranderlijk en ondoorzichtig. Het is vaak niet te herleiden waarom het systeem tot een bepaalde uitkomst komt. Dat maakt ze dus veel meer complex.”

Visualizatie Als-dan algoritme VS voorspellende AI

Van gebied naar individu

Naast de ondoorzichtige toepassing van AI gaat het Britse project ook op een ander vlak een stap verder. Waar systemen als CAS zich richten op het voorspellen van risicogebieden, richt de Britse pilot zich op het individu. Met behulp van gevoelige persoonsgegevens wordt geprobeerd te bepalen wie de grootste kans heeft om een misdrijf te plegen.

Volgens Schuilenburg verschuift daarmee het fundamentele risico. “De meeste bezwaren doen zich voor bij voorspellingen op individueel niveau, dat in principe op iedereen betrekking kan hebben, ook op personen die niet verdacht worden van een strafbaar feit. Denk aan het recht op privacy, stigmatisering en de verwerking van bijzondere persoonsgegevens die gevoelig kunnen zijn, zoals etnische afkomst, medische gegevens of politieke opvattingen. Op gebiedsniveau zijn die risico’s minder aanwezig, al blijven ook daar kritische kanttekeningen op hun plaats.”

Een bijkomend vraagstuk is hoe de kwaliteit van data wordt gewaarborgd. “Welke variabelen heb je nodig, hoe meet je ze en wat is hun impact? Dergelijke vragen blijven vaak onbeantwoord. Sommige burgers zijn bovendien oververtegenwoordigd in datasets, veelal mensen in een kwetsbare positie. Dat creëert een zelfversterkend effect: hoe meer data er van hen zijn, hoe groter de kans dat zij opnieuw in beeld komen.”

Het vergeten vraagstuk: uitvoerbaarheid

Naast ethisch-juridische bezwaren en datakwaliteit wijst Schuilenburg op een vaak genegeerd aspect: praktische uitvoerbaarheid. “Stel dat een AI-systeem zestig personen aanwijst in Rotterdam als potentieel risicovol. Wat doe je dan? Zet je zestig agenten neer op hun stoep? Voor hoe lang? Een week, drie maanden? Het is simpelweg niet uitvoerbaar.”

Een belangrijke les, zo benadrukt Schuilenburg, is dat technologie nooit op zichzelf staat. Het vergt ook een organisatie die er mee moet werken. De praktische uitvoerbaarheid wordt volgens de hoogleraar structureel over het hoofd gezien. “Techniek wordt gepresenteerd als iets neutraals of autonooms, iets dat vanzelf tot resultaten leidt. Maar in werkelijkheid is het altijd ingebed in een sociaal systeem. De burgers die onderwerp zijn van de voorspellingen, de professionals die ernaar moeten handelen, en de politieorganisatie zelf die hierdoor verandert: die blijven vaak buiten beeld in het publieke debat.”

Uiteindelijk is de politie zelf ook niet gebaat bij de introductie van dit soort AI-systemen, concludeert Schuilenburg. “Het zijn de uitvoerende organisaties die de hardste kritiek krijgen als ze niet in staat zijn op om alarmerende signalen te reageren. Maar je kunt mensen niet verantwoordelijk houden voor iets dat praktisch onhaalbaar is.”

AI inzetten voor positieve verandering

Hoewel Schuilenburg kritische kanttekeningen plaatst bij de inzet van AI in het voorspellen van criminaliteit, ziet hij ook mogelijkheden voor een fundamenteel andere benadering. Als lid van een Europees onderzoeksconsortium werkt hij aan de ontwikkeling van AI-tools die niet gericht zijn op controle, maar op het versterken van verbinding tussen politie en samenleving. Hoe AI die positieve rol in het politiewerk kan vervullen, lees je volgende week in deel 2 van dit tweeluik.

Professor
Gerelateerde content
Dit artikel gaat over de benoeming van Schuilenburg tot lid van de Wetenschappelijke Adviesraad Politie.
portretfoto van Marc Schuilenburg
Marc Schuilenburg, hoogleraar Digital Surveillance aan Erasmus School of Law, licht het gebruik van big data door de politie toe.
Marc Schuilenburg
Marc Schuilenburg en Martijn Wessels ontvangen een beurs voor hun Europees onderzoek naar digitalisering van community policing.
Schuilenburg (links) en Wessels (rechts)
Gerelateerde opleiding
Word specialist in de richting jeugdcriminaliteit of organisatie- en georganiseerde criminaliteit met dit actuele en verdiepende masterprogramma.
Wil jij alles weten over crimineel gedrag, de gevolgen ervan en maatschappelijke reacties erop?

Vergelijk @count opleiding

  • @title

    • Tijdsduur: @duration
Vergelijk opleidingen