Blog

AI-Systemen in onderzoek en ontwikkeling

Nika Nazarian

Nika Nazarian Juridisch medewerker

De EU-verordening inzake kunstmatige intelligentie (AI-Verordening) is van toepassing op AI-systemen en -modellen. De AI-Verordening hanteert een risicogebaseerde benadering, waarbij verschillende verplichtingen overeenkomen met verschillende risiconiveaus. In totaal zijn er vijf risiconiveaus: AI-systemen met een onaanvaardbaar risico, AI-systemen met een hoog risico, AI-systemen met een beperkt risico, AI-modellen voor algemeen gebruik met een systeemrisico en AI-modellen voor algemeen gebruik zonder een dergelijk risico. Voor meer informatie, zie onze blog “Introductie AI-verordening”. 

AI-systemen en -modellen die uitsluitend worden gebruikt voor wetenschappelijk onderzoek en ontwikkeling zijn uitgesloten van de verplichtingen in de AI-Verordening. Bovendien is de AI-Verordening niet van toepassing op productgerichte onderzoeks-, test- of ontwikkelingsactiviteiten met betrekking tot AI-systemen of -modellen, op voorwaarde dat deze (nog) niet op de markt zijn gebracht of in gebruik zijn genomen. De uitzondering is gebaseerd op marktlogica en geeft ontwikkelaars de vrijheid om te experimenteren en technologieën te verfijnen om ervoor te zorgen dat ze voldoen aan veiligheids- en ethische normen voordat ze op de markt worden gebracht, zelfs met technieken die anders verboden zouden zijn.

Wederom, houd er rekening mee dat de systemen en modellen moeten voldoen aan alle verplichtingen van de AI-Verordening wanneer ze, na voorafgaand onderzoek en ontwikkeling, op de markt worden gebracht of in gebruik worden genomen. 

Denk bijvoorbeeld aan een onderzoeksteam van een universiteit dat in een gecontroleerde laboratoriumomgeving een gespecialiseerd AI-model ontwikkelt om cognitieve en gedragsreacties op AI-gestuurde prikkels te bestuderen. Omdat deze technologie uitsluitend voor wetenschappelijk onderzoek wordt ontwikkeld en gebruikt, en nog niet beschikbaar is voor algemene distributie of professioneel gebruik, valt dergelijke technologie over het algemeen onder de uitzondering voor onderzoek en ontwikkeling. Hierdoor is deze technologie dus in principe niet onderworpen aan de vereisten van de AI-Verordening.    

Deze uitzondering op de AI-Verordening geldt echter niet voor onderzoek in reële omstandigheden. Onder reële omstandigheden verstaat men het testen van AI-systemen of -modellen in omgevingen die sterk lijken op of deel uitmaken van de werkelijke omgevingen waarin ze zullen worden ingezet. Dergelijke tests maken doorgaans deel uit van regelgevende sandboxes, gecontroleerde omgevingen die zijn opgezet door publieke autoriteiten om veilig te kunnen experimenteren met innovatieve technologieën onder toezicht van de relevante autoriteiten. Wanneer onderzoek en ontwikkeling worden uitgevoerd binnen een formele AI-regulatory sandbox of in praktijksituaties, is de AI-Verordening niettemin van toepassing; de vereisten uit de artikelen 57 tot en met 61 moeten worden nageleefd.

Neem bijvoorbeeld een overheidsinstantie die besluit om tijdens een groot festival een AI-gestuurd gezichtsherkenningssysteem op openbare straten te testen om vrijwilligers te identificeren en de prestaties van het systeem in een niet-gesimuleerde omgeving te verifiëren. Omdat dit onder "testen in reële omstandigheden" wordt geschaard, valt het expliciet buiten de uitzondering voor onderzoek en ontwikkeling. Een ander voorbeeld is het testen van een AI-onderzoekstool in een klaslokaal met echte leerlingen en docenten; omdat dit "echte gebruikers" zijn die hun normale werk in hun echte omgeving uitvoeren, zijn de betrokken AI-systemen en -modellen niet uitgezonderd van de verplichtingen uit de AI-Verordening.

Neem voor meer vragen contact op met een van de advocaten van het AI-team van Kienhuis Legal. 

Heeft u vragen?
Neem contact met ons op