Innovatie in de rechtspraak vraagt om meer dan alleen slimme algoritmes. Het vraagt om een fundament van vertrouwen. Bij voorRecht-rechtspraak gebruiken we Large Language Models (LLM’s) om burgers sneller en laagdrempeliger wegwijs te maken in juridische geschillen. Maar hoe zorgen we dat deze modellen geen fouten maken, neutraal blijven en de privacy bewaken?

Om die vragen te beantwoorden, fungeren wij als praktijkcase voor de ontwikkeling van het Validatiekader voor verantwoorde inzet van LLM’s in de publieke sector.

Waarom een specifiek validatiekader?

De inzet van AI bij de overheid is aan strenge regels gebonden, maar de praktijk is vaak weerbarstig. Samen met experts van Algorithm Audit, Deloitte, T&T Data Consultancy en de TU Eindhoven (met steun van het SIDN fonds) werken we aan een concrete 'blauwdruk'. Dit kader gaat verder dan algemene richtlijnen; het biedt harde tests en protocollen die specifiek zijn ontworpen voor de publieke sector.

Het kader toetst onze LLM-toepassingen op drie cruciale pijlers:

  1. Juridische Validiteit: In de rechtspraak is er geen ruimte voor 'hallucinaties'. De methodieken die wij binnen voorRecht-rechtspraak hebben ontwikkeld om output te verifiëren tegen actuele wetgeving, zijn nu vastgelegd in dit kader.
  2. Privacy by Design: Onze eigen 'guardrails', die bijvoorbeeld voorkomen dat persoonsgegevens in externe modellen belanden, zijn in dit kader technisch aangescherpt tot een waterdichte standaard.
  3. Socio-technische Controle: Technologie staat nooit op zichzelf. Onze werkwijze waarbij menselijke experts (de human-in-the-loop) de uitkomsten controleren, is nu het voorgeschreven proces voor verantwoorde AI-inzet.

De 'voorRecht-methode' als standaard

Onze ervaringen bij de rechtbanken in Amsterdam, Noord-Holland en Oost-Brabant dienen als blauwdruk voor de rest van Nederland. De lessen die wij trekken uit het valideren van de voorRecht-assistent – bijvoorbeeld over hoe je bronvermeldingen transparant presenteert aan de gebruiker – worden via dit project gedeeld met andere overheidsinstanties.

Zo voorkomen we dat elke organisatie het wiel opnieuw moet uitvinden en bouwen we samen aan een overheid die AI niet alleen gebruikt, maar dit ook aantoonbaar verantwoord doet.

Nu officieel gelanceerd

De cirkel is inmiddels rond: het validatiekader is onlangs officieel gepubliceerd en gepresenteerd aan de publieke sector. Het is een trots moment voor voorRecht-rechtspraak om te zien hoe de methodieken die wij op de werkvloer hebben getoetst en verfijnd, nu gebruikt kunnen worden door andere overheidsorganisaties.

Door dit kader te borgen in onze eigen dienstverlening, laten we zien dat een moderne, toegankelijke rechtspraak hand in hand gaat met de hoogste standaarden voor digitale veiligheid. Wij blijven toetsen en verbeteren, met één doel voor ogen: een rechtspraak waar die voor iedereen toegankelijk is.

U kunt het validatiekader vinden op de website van T&T Dataconsultancy: https://www.dataconsultancy.nl/case-studies/een-validatiekader-voor-de-verantwoorde-inzet-van-large-language-models-in-de-publieke-sector