Philip Verhaeghe 26 augustus 2024 0 reacties Print De Europese AI-verordening: geen ‘ver-van-mijn-bed-show’ voor bedrijvenOp 1 augustus 2024 trad de lang verwachte Europese AI-verordening in werking. Hierdoor zal het Europese landschap van de kunstmatige intelligentie (AI) ingrijpend veranderen. Voor alle bedrijven, en zeker voor HR-teams, is het essentieel om zich hierover degelijk te informeren. In dit artikel bespreekt onafhankelijk governance-adviseur en freelance redacteur Philip Verhaeghe het algemene kader.Waarover gaat AI? Kunstmatige intelligentie verwijst naar de ontwikkeling en toepassing van computersystemen die taken kunnen uitvoeren die typisch menselijke intelligentie vereisen. AI-systemen kunnen met verschillende graden van autonomie gegevens analyseren en interpreteren, leren van ervaringen, redeneren en beslissingen nemen, problemen oplossen. Deze AI-systemen zijn ontworpen om te kunnen functioneren op basis van de input die ze ontvangen en ze communiceren in een natuurlijke taal. Maar met hun voorspellingen, aanbevelingen of beslissingen kunnen ze de fysieke of virtuele omgeving ook ingrijpend beïnvloeden. Dit onderscheidt AI-systemen van traditionele software, waarbij vooraf bepaalde algoritmen de output bepalen. Wat is de “EU AI Act”? De Europese Verordening 2024/1689 is 144 pagina’s dik en bevat maar liefst 111 artikelen. Deze Europese wet met een lange voorgeschiedenis maakt deel uit van een breder pakket aan beleidsmaatregelen om de diverse risico’s van AI grondig aan te pakken en de ontwikkeling van een betrouwbare AI te ondersteunen. Europa wil hiermee vooral de mens op de eerste plaats zetten en ervoor zorgen dat eenieders rechten beschermd worden. Wat is het doel van deze verordening? Terwijl de meeste AI-oplossingen weinig tot geen risico’s opleveren, brengen bepaalde AI-systemen toch wel risico’s met zich mee. Om die te kunnen aanpakken bepaalt de verordening voortaan duidelijke verplichtingen voor AI-ontwikkelaars en -gebruikers met betrekking tot die specifieke AI-toepassingen. De AI-verordening wil een uniform juridisch kader creëren voor de ontwikkeling, de marktintroductie en het gebruik van krachtige en impactvolle AI-systemen. Deze wetgeving streeft dus naar een mensgerichte en betrouwbare AI. Daarom zorgt ze voor een hoog niveau van bescherming van de gezondheid, de veiligheid en de fundamentele rechten van mensen en bedrijven, in lijn met de belangrijkste ethische principes. De AI-verordening wil een uniform juridisch kader creëren voor de ontwikkeling, de marktintroductie en het gebruik van krachtige en impactvolle AI-systemen. Hoe werkt deze regulering? De AI-verordening introduceert verplichtingen qua transparantie en risicobeheer voor alle algemene AI-modellen. Deze omvatten zelfevaluatie en mitigatie van systeemrisico’s, rapportage van ernstige incidenten, het uitvoeren van tests en modelevaluaties, evenals eisen op het gebied van cyberveiligheid. Bovenal categoriseert de verordening alle AI-systemen in vier risiconiveaus: Onacceptabel risico: AI-systemen die de veiligheid, het welzijn of fundamentele rechten bedreigen, worden verboden. Denk aan AI-gestuurd speelgoed dat gevaarlijk gedrag bij kinderen aanmoedigt of systemen met onder meer gezichtsherkenning die werknemers kwetsbaar maken. Hoog risico: AI-systemen met significante impact op leven en welzijn worden onderworpen aan strenge eisen.(zie kader). Deze systemen moeten voldoen aan strikte criteria voor datakwaliteit, transparantie, menselijk toezicht en robuustheid. Beperkt risico: De overgrote meerderheid (ongeveer 85%) van de huidige Europese AI-systemen behoren tot deze categorie. Deze AI-systemen vereisen weliswaar transparantie maar zijn onderworpen aan minder strenge controles. Bijvoorbeeld AI-chatbots die met klanten communiceren moeten hun gebruikers informeren dat ze met AI omgaan en hen indien nodig contact laten opnemen met een menselijke operator. Minimaal risico: AI-systemen met minimaal of geen risico zijn niet onderworpen aan specifieke regelgevende eisen. Voorbeelden zijn AI-gestuurde videogames of spamfilters. Enkele voorbeelden van sectoren met mogelijk risicovolle AI-systemen: Onderwijs of beroepsopleidingen, die bepalend kunnen zijn voor de toegang tot onderwijs of een beroepsloopbaan Geneeskunde met bijv. robotchirurgie Indienstneming en beheer van werknemers (bijv. CV-selectiesoftware voor wervingsprocedures, zoals o.a. ATS, VMS systemen) Essentiële financiële diensten (bijv. kredietscores om een lening te krijgen) Rechtshandhaving (bijv. evaluatie van de betrouwbaarheid van bewijs) Beheer van migratie, asiel (bijv. geautomatiseerd onderzoek van visumaanvragen) Voor wie is de verordening van toepassing? De verschillende verplichtingen variëren naargelang de kwalificatie van de organisatie: is het een aanbieder, importeur, distributeur, productfabrikant, gemachtigde vertegenwoordiger of een zogenaamde gebruiker? Werkgevers of HR-afdelingen wereldwijd kwalificeren meestal als gebruikers, maar wanneer bijvoorbeeld een HR-bedrijf een bestaand AI-systeem verder ontwikkelt en onder zijn eigen naam beschikbaar stelt, kan het als aanbieder beschouwd worden. Wanneer van toepassing De AI Verordening trad in werking op 1 augustus 2024 en zal vanaf augustus 2026 volledig van toepassing zijn, weliswaar met enkele uitzonderingen: Vanaf 2 februari 2025 zijn AI-systemen met onacceptabel risico al verboden en moeten bedrijven maatregelen nemen om intern een adequaat niveau van AI-geletterdheid te behalen. Vanaf 2 augustus 2025 worden al de verplichtingen (en sancties) voor algemene AI-modellen van toepassing. Elke lidstaat moet dan zijn nationale bevoegde autoriteit aanstellen en de regels voor sancties vaststellen en aan de Europese Commissie melden. Vanaf 2 augustus 2027 worden de verplichtingen voor hoog-risico systemen, zoals gedefinieerd in bijlage II van de Verordening van kracht. Vanaf 2 februari 2025 zijn AI-systemen met onacceptabel risico al verboden en moeten bedrijven maatregelen nemen om intern een adequaat niveau van AI-geletterdheid te behalen. Hoe is de handhaving geregeld? Het Europese ‘AI-Office’ houdt toezicht op de handhaving en toepassing van de AI-verordening. Dit kantoor bevordert ook samenwerking, innovatie en onderzoek in AI en houdt zich bezig met internationale dialoog en samenwerking over AI-kwesties. Op nationaal niveau zullen ook een of meer lokale autoriteiten toezicht moeten houden op de handhaving. De sancties zijn niet te onderschatten. Overtredingen omtrent verboden AI-systemen kunnen leiden tot boetes tot EUR 35 miljoen of 7% van de jaarlijkse bedrijfsomzet. Andere overtredingen kunnen leiden tot boetes tot EUR 15 miljoen of 3% van de jaaromzet. Zelfs het verstrekken van onjuiste, onvolledige of misleidende informatie aan de overheid kan boetes tot EUR 7,5 miljoen of 1% van de bedrijfsomzet met zich meebrengen. Deze boetes zullen wel lager zijn voor KMO’s en startups. Overtredingen omtrent verboden AI-systemen kunnen leiden tot boetes tot EUR 35 miljoen of 7% van de jaarlijkse bedrijfsomzet. Andere overtredingen kunnen leiden tot boetes tot EUR 15 miljoen of 3% van de jaaromzet. Door de nadruk op transparantie, verantwoordelijkheid en veiligheid, streeft de AI-verordening naar een betrouwbaar en ethisch gebruik van AI in Europa en daarbuiten. Hierdoor brengt de AI-verordening voor bedrijven aanzienlijke veranderingen en verplichtingen met zich mee voorde wijze waarop zij AI-systemen in de toekomst mogen ontwikkelen en toepassen. Philip Verhaeghe is een onafhankelijk governance adviseur en een freelance redacteur over ondernemerschap en bestuur voor vakbladen, bedrijven en organisaties. Hij is redacteur voor onder meer NextConomy. Lees zijn artikelen hier. AI, AI-act, cyber security, kunstmatige intelligentie Print Over de auteur Over Philip Verhaeghe Bekijk alle berichten van Philip Verhaeghe