Deze blog gaat over de kwalificaties van AI-systemen die worden gebruikt in human resources en over de verplichtingen voor aanbieders en gebruikers die dergelijke systemen aanvragen onder de EU-verordening inzake kunstmatige intelligentie (AI-Verordening). De AI-Verordening volgt een risicogebaseerde benadering, waarbij vijf risicocategorieën worden gedefinieerd en tegelijkertijd onderscheid wordt gemaakt tussen AI-systemen en -modellen. Vanwege deze benadering heeft de kwalificatie van het risico van AI-systemen voornamelijk betrekking op hun (mogelijke) doel en/of effect. Voor meer informatie, zie onze blog “Introductie AI-Verordening”.
Systeem of model
Voor AI-compliance moeten aanbieders en gebruiksverantwoordelijken hun AI-technologie die wordt gebruikt in human resources kwalificeren als een AI-systeem of een AI-model om de toepasselijke compliancecriteria te kunnen beoordelen. Om de kwalificatie te bepalen, zullen we eerst de criteria uiteenzetten van een AI-model. De AI-Verordening omschrijft een (algemeen) AI-model als AI-technologie die (1) is getraind met een grote hoeveelheid gegevens met behulp van zelfcontrole op grote schaal, (2) een aanzienlijk algemeen karakter vertoont, (3) in staat is om een breed scala aan verschillende taken competent uit te voeren, en (4) kan worden geïntegreerd in een verscheidenheid aan downstreamsystemen of -toepassingen. Uitgesloten van deze definitie zijn AI-modellen die worden gebruikt voor onderzoek, ontwikkeling of prototyping, voordat ze op de markt worden gebracht.
Een AI-systeem daarentegen omvat, in grote lijnen, een machinegebaseerde technologie (1) die is ontworpen om met verschillende niveaus van autonomie te werken, dat wil zeggen zonder menselijke tussenkomst, (2) die na implementatie aanpassingsvermogen kan vertonen, en (3) die uit de input die zij ontvangt, afleidt hoe zij output moet genereren, zoals voorspellingen, inhoud, aanbevelingen of beslissingen. Over het algemeen zijn AI-systemen alleen in staat om te presteren voor een specifiek doel waarvoor ze zijn getraind, terwijl AI-modellen effectief worden gebruikt voor een breed scala aan taken.
AI-systemen met onaanvaardbare risico's
De tweede stap betreft de risicokwalificatie van de AI-technologie. Sommige AI-tools die worden gebruikt voor human resources-doeleinden kunnen onder de verboden categorie vallen, omdat ze een onaanvaardbaar risico vormen voor (toekomstige) werknemers. Deze categorie omvat emotieherkenningssystemen die bedoeld zijn om emoties te identificeren of af te leiden. Een uitzondering bestaat voor het gebruik van emotieherkenningssystemen om medische of veiligheidsredenen. Zie voor een uitgebreide lijst van onaanvaardbare AI-systemen onze blog “Verboden AI-toepassing”.
Het is human resources dus in beginsel verboden om AI-systemen te gebruiken die een onaanvaardbaar risico met zich meebrengen. Wanneer de systemen niet onder deze verboden categorie vallen, is verdere kwalificatie vereist.
AI-systemen met een hoog risico
De kans is groot dat het gebruik van AI-systemen in human resources wel een hoog risico vormt voor (toekomstige) werknemers. De AI-Verordening bepaalt namelijk dat AI-systemen over het algemeen een hoog risico met zich meebrengen wanneer deze worden gebruikt op het gebied van werkgelegenheid. In dit verband worden twee specificaties gegeven. Ten eerste worden AI-systemen onder deze categorie geschaard wanneer het gebruik de werving en werkgerelateerde selectie betreft, zoals het filteren van sollicitaties, het plaatsen van gerichte vacatures en het evalueren van kandidaten. Ten tweede vormen AI-systemen een hoog risico wanneer ze worden gebruikt voor besluitvorming die van invloed is op werkgerelateerde relaties, zoals promoties, voor het toewijzen van taken op basis van persoonlijke eigenschappen of voor het evalueren van de prestaties van werknemers. Als AI-systemen voor dergelijke doeleinden worden gebruikt, moeten de aanbieders en gebruiksverantwoordelijken ervan aan uitgebreide verplichtingen voldoen. Zie voor meer informatie onze blog 'Hoog risico AI-systemen en verplichtingen'.
Uitzondering op de hoog-risico kwalificatie zijn AI-systemen die geensignificant risico vormen voor de gezondheid, veiligheid of grondrechten van mensen, omdat ze geen wezenlijke invloed hebben op de uitkomst van de besluitvorming. Dit is het geval wanneer AI-systemen tot doel hebben (1) beperkte procedurele taken uit te voeren, (2) de resultaten van eerder voltooide menselijke activiteiten te verbeteren, (3) besluitvormingspatronen te detecteren, waarbij het systeem niet bedoeld is om eerdere menselijke beoordelingen te beïnvloeden of te vervangen, of (4) voorbereidende taken voor beoordelingen uit te voeren.
Als AI-systemen gebruikt voor human resources-doeleinden voldoen aan de bovenstaande uitzondering, hoeven de aanbieders en gebruikers ervan niet te voldoen aan de uitgebreide regels voor hoge-risico-systemen. In dat geval hoeven zij alleen te voldoen aan de verplichtingen voor AI-systemen met een beperkt risico, die veel minder streng en uitgebreid zijn dan die voor AI-systemen met een hoog risico.
In de praktijk brengen AI-systemen met een hoog risico nalevingsverplichtingen met zich mee voor zowel de aanbieders als de gebruiksverantwoordelijke, al ligt het grootste deel daarvan bij de aanbieders. Aanbieders zijn verantwoordelijk voor het ontwerpen van het systeem zodat het vanaf het begin aan de voorschriften voldoet. Dit omvat:
- het opzetten van risicobeheerprocessen;
- zorgen voor goed gegevensbeheer en een lage vertekening;
- het opstellen van technische documentatie en logboeken;
- het inbouwen van functies voor menselijk toezicht;
- het waarborgen van transparantie van de mogelijkheden en fouten van het systeem voor gebruikers;
- voldoen aan normen voor nauwkeurigheid en cyberbeveiliging;
- een kwaliteitsmanagementsysteem hanteren;
- het ondergaan van conformiteitsbeoordelingen;
- het systeem registreren; en
- uitvoeren van monitoring na het in de handel brengen en incidentrapportage.
Gebruiksverantwoordelijken hebben beperktere, operationele taken. Zij moeten:
- het systeem volgens de instructies gebruiken;
- ervoor zorgen dat er daadwerkelijk menselijk toezicht wordt uitgeoefend;
- de prestaties monitoren;
- logboeken bijhouden waar relevant;
- ernstige incidenten melden; en
- voer in sommige contexten in de publieke sector effectbeoordelingen uit met betrekking tot de grondrechten.
Zie onze blog “Hoog risico AI-systemen en verplichtingen” voor meer informatie over dit onderwerp. Neem voor meer vragen contact op met onze advocaten van het AI-team van Kienhuis Legal.
Heeft u vragen?
Neem contact met ons op
Neem contact met ons op