Skip to ContentSkip to Navigation
Rijksuniversiteit Groningenfounded in 1614  -  top 100 university
Over ons Praktische zaken Waar vindt u ons E.H. (Eveline) van Beem

E.H. (Eveline) van Beem

PhD studentzij/haar
Profielfoto van E.H. (Eveline) van Beem
E-mail:
e.h.van.beem rug.nl

Uitlegbaarheid (explainability) van AI-systemen in de Europese digitale landbouw vanuit juridisch perspectief

Mijn onderzoek richt zich op de uitlegbaarheid van kunstmatige intelligentie (AI)-systemen, met name in de landbouwsector. AI is weliswaar nuttig op verschillende gebieden, maar kan complex en ondoorzichtig zijn en mogelijk inbreuk maken op grondrechten. Deze ‘black box’-modellen hebben geleid tot de ontwikkeling van 'explainable AI' (hierna: XAI), die tot doel heeft AI-besluitvormingsprocessen begrijpelijk te maken voor mensen.

In de landbouw worden AI-toepassingen steeds belangrijker. Deze modellen kunnen echter onvoldoende transparant zijn, wat cruciaal is voor het vertrouwen van boeren in AI-systemen en de acceptatie ervan.

De Europese AI-Verordening heeft tot doel dergelijke AI-systemen te reguleren op basis van hun risiconiveau. De verordening bevat regels over uitlegbaarheid, die kunnen worden geïnterpreteerd als XAI-vereisten, maar de interpretatie en meting ervan blijven onduidelijk.

Mijn onderzoek heeft tot doel de theoretische betekenis en praktische toepassing van uitlegbaarheid als wettelijk vereiste voor (hoog-risico) AI-systemen in de EU te onderzoeken. Met doctrinair en empirisch onderzoek worden juridische theorie en praktische implicaties gecombineerd. Ik onderzoek hoe uitlegbaarheid kan worden geoperationaliseerd gedurende de hele AI-lifecycle van AI-systemen voor landbouw, om te bepalen wat de praktijk nodig heeft.

Laatst gewijzigd:29 oktober 2025 16:44