"Voor futureproof ondernemen in flex"
SLUIT MENU

AI-geletterdheid van werknemers trainen: dat is nu verplicht

Vanaf 2 februari 2025 moeten organisaties die AI-systemen ontwikkelen of gebruiken, zorgen dat hun werknemers ‘AI-geletterd’ zijn. Dat betekent dat zij ervoor moeten zorgen dat personeel genoeg weet en kan om AI op een verantwoorde manier in te zetten. Inge Brattinga (VRF Advocaten) doet hier onderzoek naar. “Het is belangrijk dat we bewustzijn creëren omtrent de kansen en risico’s. Zo dragen we ook bij aan AI-geletterdheid.”

Vorig jaar augustus heeft de EU AI-wetgeving, de zogenoemde AI-verordening, aangenomen. Die verordening wordt sindsdien gefaseerd ingevoerd. De verplichting tot AI-geletterdheid van werknemers is onderdeel van die fases en geldt dus al vanaf 2 februari dit jaar.

Inge Brattinga (verbonden aan VRF Advocaten) is gespecialiseerd in de Algemene Verordening Gegevensbescherming (AVG). Zij onderzoekt in het verlengde daarvan ook de toepassing van AI en de regels die daarvoor gelden. Dit interview is de opmaat van een serie over het gebruik van AI in recruitment en de flexbranche. “Het is belangrijk dat we bewustzijn creëren omtrent de kansen en risico’s. Zo dragen we ook bij aan AI-geletterdheid.”

Jurist, docent en onderzoeker

“AVG-regelgeving en digitale ontwikkelingen staan heel dicht bij elkaar,” zegt Brattinga. “Daarom wilde ik me ook verdiepen in AI. Ik ben parttime werkzaam als jurist in de flexbranche met focus op dit rechtsgebied. Daarnaast ben ik als docent en onderzoeker verbonden aan het Lectoraat Recht en Digitale Technologie van de Juridische Hogeschool Avans & Fontys. Zo combineer ik het geven van onderwijs en het doen van onderzoek met de juridische praktijk.”

“Ik word vaak uitgenodigd om over het onderwerp te spreken binnen recruitment, HR, innovatoren in de zorg of ICT. Ik verzorg binnenkort bijvoorbeeld ook een masterclass in het kader van de Master Responsable AI Innovation. En ik ben actief als adviseur in de branches waarin veel AI wordt gebruikt, zoals recruitment en de flexbranche.”

“In software voor recruitment en flexarbeid wordt al heel vaak AI toegepast. Wees je daarvan bewust als gebruiker. Organisaties zullen hun medewerkers moeten trainen en bekwaam moeten maken, zodat ze weten hoe ze ermee om horen te gaan. Als branche zijn we er nog onvoldoende mee bezig zijn, merk ik, terwijl de ontwikkelingen snel gaan.”

Meerjarig actieplan helpt in het opbouw van AI-geletterdheid (AIG)

“De invoering van de AVG  had al veel impact op de branche. Het vroeg om training van medewerkers en aanpassing van (software)processen. Er waren checklists nodig waarmee de verantwoordelijkheden helder werden. Voor de AIG geldt dat eveneens. Ook dat gaat niet vanzelf goed. Daar is bewustzijn en training voor nodig.”

In dit kader heeft de Autoriteit Persoonsgegevens een stappenplan gepubliceerd om AI-geletterdheid te introduceren en te versterken.” 


Maar ja, dat is een hoog over stappenplan. Wat moet je nu precies gaan doen als werkgever, daarover binnenkort een uitgebreider artikel. 

Flex en recruitment in categorie hoog risico

“Alle AI-technologie die nu en straks in de recruitment- en flexbranche gebruikt wordt, zal naar alle waarschijnlijkheid onder de hoog risico-categorie vallen. Dit betekent dat er menselijke bemoeienis nodig blijft en je niet 100% mag vertrouwen op een gekozen AI-systeem. Er is menselijk toezicht nodig. Daar moet je je medewerkers in trainen; hoe horen ze dat te doen.”

“Als je blind vertrouwt op een systeem krijg je vergelijkbare problemen als met de ‘toeslagenaffaire’ die tot schrijnende en onrechtvaardige situaties heeft geleid.”

Risico op imagoschade, discriminatie of het mislopen van geschikte kandidaten

“Wie denkt dat het alleen maar gaat om het vermijden van boetes, zit op een verkeerd spoor.
Mij wordt natuurlijk ook gevraagd hoe hoog de boetes zijn onder die AI-verordening? Het antwoord is ongeveer hetzelfde als het boetesysteem onder de AVG. De kans dat je een boete krijgt, is nog niet zo groot. Maar de imagoschade die je oploopt als je er niet zorgvuldig mee omgaat kan wel groot zijn. AI-systemen worden gebouwd door mensen. Er kunnen bewust of onbewust vooroordelen in zijn geslopen. Daarom zul je een aantal waarborgen moeten inbouwen, die frequente controle en bijstelling mogelijk maken.”

Denk er bewust over na hoe je AI toepast

“De wetgeving is bedoeld om te zorgen dat je ethisch verantwoorde en zorgvuldige toepassingen krijgt. De AVG zegt niet tegen alles ‘nee’, maar zegt dat je erover na moet denken hoe je het uitvoert. Datzelfde geldt voor de AI-verordening.”

“Ik spreek de makers  van software en tools, maar ook de klanten, de gebruikers. Zij hebben allebei hun eigen verplichtingen en verantwoordelijkheden, maar ook een  gezamenlijke taak.”

“Wie zo’n AI-systeem invoert in zijn organisatie zal daarover blijven communiceren met de leverancier. Doet het systeem wat de bedoeling is? Daarvoor houd je de vinger aan de pols: je logt, monitort en controleert of de uitkomsten kloppen conform de bedoeling. De leverancier heeft de verantwoordelijkheid om te blijven controleren wat hij levert onder de AI-verordening van de EU en nog veel andere verplichtingen. Een gebruiker kan daarom ook niet simpel zeggen: ‘system says no’. Die is ook zelf verantwoordelijk voor de uitkomst.”

Ethische keuzes, de eigen werkprocessen begrijpen

“Het begint bij de intentie van de organisatie. Als je goede waarden en normen hanteert, die voor iedereen duidelijk zijn, heb je al sterker bewustzijn. Dan zul je niet een systeem aanschaffen dat resultaten geeft die haaks staan op jouw ethische waarden.”

“Het begint ook met helderheid over de inrichting van de interne processen. Als je samen weet waar je mee bezig bent en snapt welke aspecten van het werk beter kunnen worden ingericht, kun je goede keuzes maken. Ik adviseer dus eerst intern goed na te denken en te onderzoeken wat er nodig is. En daarna pas te onderzoeken welke AI-systemen daar bij passen.”

Draagvlak creëren en kritisch meedenken

“Hoe je een systeem bevraagt en test, voordat je keuzes maakt, vraagt ook een bepaalde mindset. En er is draagvlak nodig. De invoering van AI-tools heeft immers vooral invloed op white collar, de werkzaamheden van kantoormedewerkers. Als werkzaamheden worden geautomatiseerd, wat kunnen die medewerkers dan doen, welke kansen ontstaan er? Betrek hen er bij.”

“AI en AI-geletterdheid raakt aan alles. Het is van invloed op het moreel ethische bewustzijn, hoe je met elkaar omgaat. Het vraagt betrokkenheid, kritisch meedenken en vertrouwen.”

Ermee spelen én alert blijven

“Er wordt al veel meer AI in bedrijven toegepast dan wij weten of denken. Ook met het gebruik van ChatGPT gaat nog veel mis. Je kunt er niet alles in zetten, dat is te risicovol. Een van de meest bekende voorbeelden is dat ChatGPT of CoPilot bijvoorbeeld goed zijn in het maken van verslagen van opnames van vergaderingen. Wees je daarbij bewust van wat je doet. Zet er geen opname van een directievergadering in, omdat het concurrentiegevoelige informatie zou kunnen bevatten. Het lijkt nogal wiedes om hier alert op te zijn. Toch gaat het in de praktijk te vaak mis. Niet te vergeten de risico’s op cybercrime door nonchalante omgang met tools en interne informatie.”

“Training in AI-geletterdheid is nodig voor alles waar we mee bezig zijn en mee werken.”

Masterclass Just AI

“Mede vanuit het Lectoraat Recht en Digitale Technologie bieden we binnenkort bij Avans Hogeschool een masterclass aan die we ‘Just AI’ noemen. Dat wil zeggen: het is ‘maar’ AI, want het is technologie en daar hebben we al heel veel van, dus laten we niet al te spastisch doen. Maar de vraag of het correct en rechtvaardig wordt ingericht en ingezet, is een belangrijk aandachtspunt,” verklaart Brattinga.

Hinke Wever is een creatieve verbinder van werk- en levensterreinen. Ze was als redacteur vanaf de start betrokken bij FlexNieuws.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *