EU AI Act voor KMO's
De EU AI Act is van kracht. De meeste Belgische KMO's hoeven niet in paniek te schieten. Lees hier wat écht telt, wat u kunt negeren en wat u eraan kunt doen.
De samenvatting in 30 seconden
De EU AI Act is 's werelds eerste allesomvattende AI-regelgeving. Hij trad in werking in augustus 2024; de meeste regels worden van kracht tegen augustus 2026.
Gebruikt u ChatGPT om e-mails te schrijven of bouwt u een chatbot voor klantenondersteuning, dan zit u hoogstwaarschijnlijk goed. Bouwt u AI die sollicitanten beoordeelt, kredietwaardigheid voorspelt of in de zorg wordt ingezet — dan ligt er werk op de plank.
Leest uw AI e-mails, schrijft hij rapporten of helpt hij uw team sneller te werken — dan zit u hoogstwaarschijnlijk goed. Deze gids helpt u dat te bevestigen.
Is dit op mij van toepassing?
Voordat u alle vier de risiconiveaus doorneemt: beantwoord deze drie vragen om te bepalen welke sectie relevant is voor uw bedrijf.
Neemt uw AI beslissingen over mensen?
Aanwerving, kredietscoring, verzekering, medische diagnose
Communiceert uw AI met eindgebruikers die mogelijk niet weten dat het om AI gaat?
Chatbots, AI-gegenereerde content, deepfakes
Helpt uw AI uw eigen team sneller te werken?
E-mails opstellen, documenten analyseren, data-invoer, rapportage
Hoe de Act werkt: risiconiveaus
De Act deelt AI-systemen op in vier risicocategorieën. Uw verplichtingen hangen af van waar uw AI in valt.
Onaanvaardbaar risico (verboden)
AI-systemen die gedrag manipuleren, kwetsbaarheden uitbuiten of massasurveillance mogelijk maken. Die zijn binnen de EU ronduit verboden.
Voorbeelden:
- Sociale scoring (zoals het Chinese burgerscoresysteem)
- Realtime gezichtsherkenning in openbare ruimten (met strikte uitzonderingen voor rechtshandhaving)
- AI die mensen manipuleert om zichzelf schade toe te brengen
Wat u moet doen: bouw deze niet. En dat zult u ook niet doen.
High Risk
AI die wordt gebruikt in gevoelige domeinen waar fouten mensen ernstig kunnen schaden. Voor deze systemen gelden strenge vereisten.
Voorbeelden:
- AI die sollicitanten scoort of cv's screent voor aanwerving
- AI die beslist wie een lening of krediet krijgt
- AI in de gezondheidszorg (diagnose, behandeladvies)
- AI in kritieke infrastructuur (transport, energie, watervoorziening)
- AI in het onderwijs (punten geven, toelatingsbeslissingen)
Wat u moet doen:
- Risicobeheer: documenteer wat er fout kan gaan en hoe u dat beperkt
- Datagovernance: zorg dat trainingsdata kwaliteitsvol, onbevooroordeeld en representatief zijn
- Transparantie: gebruikers moeten weten dat ze met AI te maken hebben
- Menselijk toezicht: een mens kan ingrijpen of de AI overrulen
- Registratie: leg vast hoe de AI beslissingen neemt
- Conformiteitsbeoordeling: laat u certificeren door een derde partij (vergelijkbaar met de CE-markering)
Limited Risk (transparantieregels)
AI-systemen die met mensen interageren moeten transparant zijn over het feit dat het om AI gaat.
Voorbeelden:
- Chatbots moeten gebruikers vertellen dat ze met een AI praten
- AI-gegenereerde content zoals afbeeldingen of tekst moet als zodanig gelabeld worden
- Emotieherkenning en biometrische categorisering vereisen een melding aan de gebruiker
Wat u moet doen:
- Voeg duidelijke vermeldingen toe
- Label AI-gegenereerde content
- Wees open en transparant
Minimal Risk (geen specifieke verplichtingen)
De meeste AI-toepassingen die KMO's gebruiken, vallen hieronder. Geen extra compliance-vereisten bovenop de bestaande wetgeving.
Voorbeelden:
- AI die e-mails opstelt en sorteert
- Interne documentanalyse en samenvattingen
- Verkoopoffertes genereren
- Data-invoer automatiseren
- Vertaaltools
Wat u moet doen: niets specifieks onder de AI Act. Volg de bestaande GDPR- en gegevensbeschermingsregels, zoals u sowieso al hoort te doen.
Uw 4-stappenactieplan
Inventariseer uw AI-toepassingen
Lijst elk hulpmiddel of systeem in uw organisatie op dat AI gebruikt. Inclusief externe tools zoals ChatGPT, Copilot en eventuele systemen op maat.
Bepaal het risiconiveau
Plaats elke toepassing in een van de vier bovenstaande risiconiveaus. De meeste interne productiviteitstools vallen onder minimal risk.
Documenteer wat nodig is
Voor high risk-systemen: stel technische documentatie, plannen voor menselijk toezicht en datagovernance-registers op. Voor limited risk: voeg transparantievermeldingen toe.
Laat een onafhankelijke audit uitvoeren
Laat een specialist uw classificatie en documentatie nakijken. Een foutieve classificatie nu corrigeren is veel goedkoper dan later een boete betalen.
Hoe Fly AI helpt met EU AI Act-compliance
Onze AI Audit-dienst is precies hiervoor ontworpen. We bekijken elk AI-systeem in uw organisatie, toetsen het aan het risicokader van de EU AI Act, brengen leemtes in documentatie of transparantie in kaart en leveren een helder actieplan met prioriteiten en tijdlijnen. Voor de meeste Belgische KMO's bevestigt de audit dat uw AI-gebruik onder minimal risk valt en dat er geen verdere actie nodig is — maar die bevestiging op papier geeft u juridische gemoedsrust en een concurrentievoordeel bij klanten uit de publieke sector, die steeds vaker compliance-documentatie eisen.
AI Audit — Risicobeoordeling
We toetsen uw AI-systemen aan de EU AI Act, beoordelen de afstemming met de GDPR en leveren een compliance-rapport met concrete aanbevelingen.
Meer over onze AI AuditAI Agent Management
Zet u al AI-agents in? Ons managementportaal biedt realtime toezicht, auditlogs en de mogelijkheid om elke agent direct te pauzeren — compliance by design, ingebouwd.
Ontdek Agent ManagementNiet zeker of uw AI compliant is?
Gerelateerde artikelen
Wat is een AI-agent?
AI-agents gaan verder dan chatbots — ze lezen data, nemen beslissingen en ondernemen actie binnen uw bedrijfstools.
LLM's vs. traditionele software
Niet alles vraagt om AI. Een praktische gids om de juiste tool te kiezen en te weten wanneer u beide combineert.
AI Audit-dienst
Grondige beoordeling van uw AI-systemen, GDPR-compliance en concrete aanbevelingen.