Wat is er gebeurd?

Tussen 2018 en 2026 heeft Reclassering Nederland een foutief risico-algoritme gebruikt dat het leven van tienduizenden mensen heeft beïnvloed. Dit is het volledige verhaal.

OxRec: het algoritme

Oxford Risk of Recidivism (OxRec) is een algoritme dat de kans berekent dat een veroordeelde opnieuw in de fout gaat. Reclassering Nederland gebruikte dit instrument bij ongeveer 48.000 adviezen per jaar aan rechters.

Dit advies is niet zomaar een suggestie. Het bepaalt of iemand:

Belangrijk: Reclasseringsadviezen zijn een van de zwaarstwegende onderdelen in het Nederlandse strafrecht. Een fout in dit systeem heeft directe gevolgen voor vrijheid, gezin en toekomst.

Het Inspectierapport (12 februari 2026)

De Inspectie Justitie en Veiligheid publiceerde op 12 februari 2026 een vernietigend rapport. De conclusie: het algoritme voldoet op bijna geen enkel vlak aan de normen voor overheidsalgoritmes.

De ernstigste fouten

ProbleemGevolg
Formules verwisseldHet model berekende risico's systematisch verkeerd
Verouderde Zweedse dataGetraind op dataset die niet representatief is voor Nederland
Drugsproblematiek ontbrakEen van de sterkste recidive-indicatoren niet meegenomen
Psychische aandoeningen genegeerdErnstige psychische problemen speelden geen rol in risico-inschatting
Risico onderschatBij het grootste deel van de fouten was het risico te laag
Postcode & inkomenIndirect etnisch profileren; buurt en salaris beïnvloeden het advies

De foutmarge

Het model zat er in ongeveer één op de vijf gevallen naast. Dat is een foutmarge van 21% bij beslissingen die over vrijheid of opsluiting gaan. Dat is onacceptabel in een rechtsstaat.

De reacties

Directeur Reclassering Nederland: Jessica Westerik

"Heel confronterend… We trekken ons dit heel erg aan en ik wil hier dan ook verantwoordelijkheid voor nemen. Ik zou ook geen knip voor de neus waard zijn als ik dat niet zou doen." — Jessica Westerik, Nieuwsuur 12 februari 2026

Westerik erkende dat er binnen haar organisatie onvoldoende kennis was over algoritmes en het onderhouden daarvan. Ze gaf toe dat de onderbouwing voor het meewegen van postcode en inkomen ontbrak.

Toch achtte zij de kans dat er foute beslissingen waren genomen "heel erg klein".

Deskundige TU Delft: Cynthia Liem

"Het is maar zeer de vraag of een dataset die voorspellingen doet voor de Zweedse populatie ook op Nederland kan worden toegepast. Gênant dat het model nooit correct is toegepast en dat daar in de afgelopen jaren ook nooit controle op is geweest." — Cynthia Liem, universitair hoofddocent TU Delft

Autoriteit Persoonsgegevens: Sven Stevenson

"Dit is een van de pijnlijkste rapporten die we in de afgelopen jaren onder ogen hebben gekregen. Als burger moet je erop kunnen vertrouwen dat zo'n algoritme eerlijk is en niet discrimineert. Beide zijn bij meerdere van deze algoritmes niet in orde." — Sven Stevenson, Autoriteit Persoonsgegevens

Wie zijn de slachtoffers?

De slachtoffers zijn niet abstract. Het zijn vaders die hun kinderen niet mogen zien op basis van een foutieve code. Het zijn jongeren die langer in de cel zitten dan nodig. Het zijn mensen met psychische problemen die geen hulp kregen omdat het algoritme dat risico niet herkende.

Het gaat om 80.640 mensen tussen 2018 en 2026. Velen van hen wisten niet eens dat hun leven was beïnvloed door een algoritme dat op Zweedse data was getraind, met verwisselde formules, door een organisatie die zelf toegeeft dat ze er niet genoeg van wist.

Ben jij één van de 80.640 slachtoffers?

Schrijf je in voor de collectieve actie

Doe mee met de collectieve actie

Sluit je aan bij de WAMCA-collectieve actie. Inschrijving vanaf €15.

Betaal €15 Betaal €25

Lees meer over de voorrangsregeling →

Deel dit verhaal

Twitter / X Facebook LinkedIn WhatsApp Email

⚡ Klaar om je eigen platform te starten?

Betrouwbare hosting vanaf €1.99/maand - perfect voor je project

Start met Hostinger Hosting →

💡 Dezelfde hosting die wij gebruiken voor deze website