De EU AI Act is aangenomen en deelt AI-systemen in vier risicocategorieën in. Elk niveau brengt andere verplichtingen mee. Overtredingen kosten tot €35 miljoen of 7% van de wereldwijde omzet.
De EU AI Act deelt elk AI-systeem in op basis van het risico dat het vormt voor fundamentele rechten, veiligheid en democratie. De verplichtingen worden strenger naarmate het risico hoger is.
Sociale scoring door overheden, real-time biometrische surveillance, manipulatieve AI die kwetsbaarheden uitbuit, en emotieherkenning op de werkvloer of in het onderwijs. Deze systemen zijn simpelweg verboden.
AI in HR/recruitment, kredietbeoordeling, onderwijs, zorg, justitie en kritieke infrastructuur. Vereist: conformiteitsbeoordeling, risicobeheersysteem, menselijk toezicht, documentatie, en CE-markering.
Chatbots, deepfakes, emotieherkenning (waar toegestaan). Gebruikers moeten worden geïnformeerd dat ze met AI communiceren. Transparantie is de sleuteleis — geen volledige conformiteitsbeoordeling vereist.
Spamfilters, AI in videogames, voorraadbeheersystemen. Geen wettelijke verplichtingen, maar vrijwillige gedragscodes worden aangemoedigd. De meerderheid van AI-systemen valt in deze categorie.
De AI Act geldt voor iedereen die AI-systemen ontwikkelt, inzet of importeert voor de EU-markt — ongeacht de bedrijfsgrootte.
Als je AI-modellen bouwt of traint die in de EU worden ingezet, ben je een "provider" onder de AI Act. Je draagt de zwaarste verplichtingen: conformiteitsbeoordelingen, technische documentatie, en post-market monitoring.
Zet je AI-systemen in voor HR, klantenservice, kredietbeoordeling of besluitvorming? Dan ben je een "deployer" en moet je menselijk toezicht waarborgen, transparant communiceren, en een fundamenteel rechten-impactbeoordeling uitvoeren.
Importeer je AI-producten van buiten de EU? Je moet verifiëren dat de provider voldoet aan de AI Act en dat CE-markering correct is aangebracht. Aansprakelijkheid kan op jou terechtkomen.
Het MKB krijgt vereenvoudigde verplichtingen en toegang tot AI-regulatory sandboxes. Maar als jouw AI-systeem als hoog-risico wordt geclassificeerd, gelden dezelfde regels als voor grote bedrijven.
Augustus 2026 lijkt ver weg, maar conformiteitsbeoordelingen, documentatie en systeemaanpassingen kosten maanden.
Wij brengen jouw AI-gebruik in kaart, classificeren het risico, en leveren een concreet actieplan.
We brengen alle AI-systemen in jouw organisatie in kaart: van chatbots en recommendation engines tot HR-tools en beslisondersteunende systemen. Per systeem bepalen we de rol (provider, deployer, importeur).
Elk AI-systeem wordt geclassificeerd volgens de vier risiconiveaus van de AI Act. We identificeren welke verplichtingen gelden: van transparantie-eisen tot volledige conformiteitsbeoordelingen en CE-markering.
Je ontvangt een geprioriteerd actieplan: quick wins die je direct kunt implementeren, middellangtermijn-aanpassingen, en strategische aanbevelingen voor AI-governance in jouw organisatie.
Onze risicoclassificatie volgt de officiële AI Act tekst en richtsnoeren van de Europese Commissie.
De officiële verordening met alle definities, risiconiveaus, verplichtingen en handhavingsbepalingen.
Lees de AI Act →Praktische guidance van de Commissie over de interpretatie van verboden praktijken en de definitie van AI-systemen.
Bekijk de richtsnoeren →Het Nederlandse algoritmeregister — voorloper van de AI Act database. Relevante context voor Nederlandse organisaties.
Bekijk het register →De Commissie heeft een Digital Omnibus voorgesteld dat sommige AI Act deadlines met 16 maanden verlengt tot december 2027.
Lees over het Omnibus →Vertel ons over jouw AI-gebruik en we brengen de risicoclassificatie in kaart. Reactie binnen 24 uur.