EU AI Act voor KMO's: zo bereidt u zich voor op de deadline van augustus 2026
Op 2 augustus 2026 wordt het volledige compliancekader van de EU AI Act van kracht. Ontdek in 7 stappen wat dit voor uw KMO betekent en hoe u boetes vermijdt.
Op 2 augustus 2026 treedt het volledige nalevingskader van de EU AI Act in werking. Voor veel KMO's voelt dat als nog een verplichting bovenop e-facturatie, GDPR en NIS2. Toch is er goed nieuws: voor de meeste kleinere ondernemingen is de impact beperkter dan gevreesd, op voorwaarde dat u nu de juiste stappen zet. In dit artikel leest u wat de AI Act concreet betekent voor uw bedrijf, welke verplichtingen u wel en welke u niet treffen, en hoe u zich in zeven stappen voorbereidt op de deadline.
Wat is de EU AI Act precies?
De Artificial Intelligence Act is de eerste uitgebreide AI-wetgeving ter wereld. Ze werd op 1 augustus 2024 van kracht, maar de verplichtingen worden gefaseerd ingevoerd. De wet deelt AI-systemen op in vier risicocategorieën en koppelt aan elke categorie een eigen set regels.
De filosofie is eenvoudig: hoe groter het risico voor mensen of de samenleving, hoe strenger de verplichtingen. Een spamfilter wordt anders behandeld dan een AI-systeem dat beslist of u een lening krijgt of niet.
Voor België geldt geen aparte wet. De AI Act is een Europese verordening en werkt rechtstreeks door in de Belgische rechtsorde. De FOD Economie en de toekomstige Belgische AI-toezichthouder krijgen de taak om de regels te handhaven.
De vier risicocategorieën uitgelegd
1. Onaanvaardbaar risico (verboden)
Sinds 2 februari 2025 zijn bepaalde AI-toepassingen volledig verboden in Europa. Het gaat om systemen die fundamentele rechten schenden:
De meeste KMO's komen hier niet mee in aanraking. Maar als u software gebruikt die emoties van uw medewerkers analyseert tijdens videovergaderingen, gaat u nu al de mist in.
2. Hoog risico (strikt gereglementeerd)
Dit is de categorie waar het echte werk zit. AI-systemen worden als hoog risico beschouwd wanneer ze worden ingezet in gevoelige domeinen:
Gebruikt uw HR-afdeling AI om CV's te screenen? Werkt u met een tool die automatisch beslissingen neemt over kredietverlening aan klanten? Dan valt u in deze categorie en moet u voldoen aan strenge verplichtingen rond documentatie, transparantie, menselijk toezicht en datakwaliteit.
3. Beperkt risico (transparantieplicht)
Dit raakt verreweg het grootste aantal KMO's. Onder beperkt risico vallen:
De verplichting hier is eenvoudig: u moet duidelijk maken dat de gebruiker met een AI praat, niet met een mens. Heeft u een AI-chatbot op uw website? Dan moet de bezoeker dat weten. Genereert uw nieuwsbrief automatisch teksten met AI? Dan moet u dat communiceren wanneer dit relevant is.
4. Minimaal risico (geen verplichtingen)
De overgrote meerderheid van AI-toepassingen valt in deze categorie. Spamfilters, aanbevelingssystemen in webshops, AI in videogames, automatische ondertiteling: voor deze toepassingen verandert er niets.
Wat verandert er concreet vanaf 2 augustus 2026?
De deadline van 2 augustus is een belangrijk moment. Vanaf die datum:
Als u alleen werkt met chatbots, copilots, generatieve AI voor marketing of automatiseringen voor uw backoffice, dan blijft uw nalevingslast beperkt tot transparantie en goede documentatie. Als u AI inzet voor HR, krediet of andere gevoelige beslissingen, ligt de lat hoger.
Hoe groot zijn de boetes?
De AI Act voorziet drie niveaus van boetes:
Voor KMO's geldt een gunstigere regeling: u betaalt het laagste van de twee bedragen. Een boete van 7% van een omzet van 2 miljoen euro is nog altijd 140.000 euro, maar het is geen 35 miljoen. De wetgever wil KMO's niet kapotmaken, maar wel motiveren om in regel te zijn.
Belangrijker dan de boetes is het reputatierisico. Wanneer u publiekelijk wordt aangeklaagd omdat uw AI-systeem discrimineert of fundamentele rechten schendt, is de schade aan uw merk groter dan welke boete ook.
Een praktisch zevenstappenplan
Stap 1: Maak een AI-inventaris
U kunt niets in regel brengen wat u niet kent. Maak een register met alle AI-systemen die uw bedrijf gebruikt. Denk niet alleen aan duidelijke AI zoals ChatGPT of een chatbot. Denk ook aan:
Voor elk systeem noteert u: naam, leverancier, doel, type data dat wordt verwerkt, en op welke afdeling het wordt gebruikt.
Stap 2: Classificeer elk systeem
Loop uw inventaris door en classificeer elk systeem in één van de vier categorieën. Voor de meeste tools is dit eenvoudig. Bij twijfel hanteert u de regel: als de AI een belangrijke beslissing neemt over een persoon, ga uit van hoog risico tot het tegendeel bewezen is.
Let vooral op tools die geleidelijk meer beslissingsmacht hebben gekregen. Een CV-screeningtool die vroeger alleen rangschikte, neemt vandaag misschien al een eerste filterbeslissing. Dat verandert de classificatie.
Stap 3: Vraag uw leveranciers om documentatie
De meeste KMO's gebruiken AI niet door zelf modellen te bouwen, maar door SaaS-oplossingen in te kopen. De wet legt verplichtingen op aan leveranciers (providers) en gebruikers (deployers). Voor ingekochte AI ligt het zwaartepunt bij uw leverancier.
Vraag actief om:
Grote spelers zoals Microsoft, Google en Anthropic hebben deze documentatie klaar. Kleinere SaaS-leveranciers misschien nog niet. Door er nu om te vragen, dwingt u hen om in regel te komen vóór het te laat is.
Stap 4: Bouw transparantie in
Voor systemen met beperkt risico is transparantie de kernverplichting. Praktisch betekent dat:
Dit is geen academische oefening. Veel KMO's hebben deze transparantie nu al nodig om vertrouwen op te bouwen bij hun klanten. Een chatbot die zich als mens voordoet en daarna ontmaskerd wordt, vernietigt dat vertrouwen instant.
Wilt u zien hoe u een professionele en compliant chatbot bouwt? Lees ook hoe u uw website automatisch leads laat genereren met AI.
Stap 5: Organiseer menselijk toezicht
Voor hoog-risico systemen is menselijk toezicht een harde verplichting. Maar ook voor andere AI-toepassingen is het een goed idee. De wet vraagt dat een mens:
In de praktijk betekent dit dat u procedures opstelt. Wie controleert de AI-beslissingen? Hoe vaak? Wat gebeurt er bij twijfel? Documenteer dit, want bij een audit moet u kunnen aantonen dat dit geen papieren tijger is.
Stap 6: Train uw medewerkers
Sinds 2 februari 2025 geldt artikel 4 van de AI Act: organisaties moeten zorgen dat medewerkers die met AI werken voldoende opgeleid zijn. Dat hoeft geen tweedaagse opleiding te zijn, maar uw team moet weten:
Voor een KMO van tien medewerkers volstaat een interne opleiding van een halve dag, eventueel aangevuld met korte updates wanneer u nieuwe AI-tools inzet. Documenteer wel dat de opleiding heeft plaatsgevonden en wie eraan deelnam.
Stap 7: Stel een AI-beleid op
Een kort intern AI-beleid lost veel problemen op. Daarin staat:
Een pagina of twee volstaat. Het belangrijkste is dat het beleid bestaat, gekend is en wordt toegepast. Een ondernemer die ChatGPT gebruikt om gevoelige klantcontracten te analyseren zonder duidelijke regels, loopt niet alleen een AI Act-risico, maar ook een GDPR-risico.
Speciale aandacht voor generatieve AI
Generatieve AI verdient een eigen sectie omdat bijna elke KMO er vandaag mee in aanraking komt. ChatGPT, Claude, Gemini en Copilot zitten ingebakken in tools die u dagelijks gebruikt. De AI Act stelt voor deze systemen specifieke regels:

