De EU AI Act, het eerste wettelijke kader ter wereld voor de regulering van AI, gaat gefaseerd van kracht. Hoewel de meeste verplichtingen pas tussen 2026 en 2027 zullen gelden, is de eerste grote deadline nu een feit. Vanaf 2 februari 2025 is het gebruik van bepaalde AI-systemen die als onaanvaardbaar risico worden geclassificeerd, officieel verboden in de EU.
Voor bedrijven die AI inzetten, is naleving niet langer een kwestie van toekomstplanning, maar een onmiddellijke noodzaak. In tegenstelling tot andere verplichtingen onder de AI Act, die afhangen van de rol van een organisatie, geldt dit verbod voor iedereen. Of je nu AI-systemen aanbiedt, distribueert of gewoon gebruikt: als ze onder de verboden categorie vallen, moeten ze vóór 2 februari 2025 worden stopgezet. Anders riskeert je bedrijf ernstige juridische en financiële gevolgen.
Inzicht in de risicogebaseerde aanpak van de AI Act
De AI Act hanteert een risicogebaseerd regelgevingsmodel, waarbij AI-systemen worden ingedeeld in vier niveaus (5 als je GPAI modellen meerekent): minimaal of geen risico, beperkt/laag risico, hoog risico en verboden AI-systemen (ook bekend als onaanvaardbaar risico).
Hoewel AI-toepassingen met een beperkt risico – zoals AI-gestuurde chatbots – slechts aan lichte verplichtingen moeten voldoen, zullen hoog-risico AI-systemen – zoals die in de gezondheidszorg, werving, rechtshandhaving en kritieke infrastructuur – onder strikte wettelijke eisen vallen. Deze verplichtingen treden geleidelijk in werking tussen 2026 en 2027. De volledige tijdslijn kan je hier raadplegen.
De meest dringende regels in de AI Act gelden echter voor AI-systemen met een onaanvaardbaar risico, die vanaf 2 februari 2025 volledig verboden zijn.

De eerste AI Act-regels die van kracht worden
De AI Act verbiedt expliciet bepaalde AI-systemen die een onaanvaardbaar risico vormen voor individuen en de samenleving. De reden achter dit verbod is duidelijk: sommige AI-toepassingen brengen zulke grote risico’s met zich mee voor fundamentele rechten, democratische waarden en persoonlijke vrijheden dat ze onder geen enkele omstandigheid gerechtvaardigd kunnen worden, zelfs niet met extra waarborgen. Het doel van de AI Act is om schadelijke AI-toepassingen te voorkomen voordat ze wijdverspreid raken, in plaats van achteraf de schade te beperken.
De volgende toepassingen van AI-systemen zijn voortaan verboden:
- AI-systemen die subliminale technieken of doelbewust manipulatieve of misleidende technieken gebruiken.
- AI-systemen die gebruikmaken van de kwetsbaarheden van natuurlijke personen of specifieke groepen personen als gevolg van hun leeftijd, handicap of sociale/economische situatie.
- AI-systemen voor de sociale evaluatie of classificatie van natuurlijke personen of groepen personen op basis van hun sociaal gedrag of bekende, afgeleide of voorspelde persoonlijke of persoonlijkheidskenmerken (zoals bij ‘social scoring’-modellen vergelijkbaar met het Chinese sociale kredietsysteem).
- AI-systemen die risicobeoordelingen uitvoeren om te voorspellen of een natuurlijke persoon een strafbaar feit zal plegen, uitsluitend op basis van de profilering van een natuurlijke persoon of op basis van de beoordeling van diens persoonlijkheidseigenschappen en -kenmerken.
- Het gebruik van AI-systemen die databanken voor gezichtsherkenning aanleggen of aanvullen door ongerichte scraping van gezichtsafbeeldingen van internet of CCTV-beelden.
- AI-systemen die emoties proberen af te leiden op de werkplek en in het onderwijs, behalve wanneer het gebruik van het AI-systeem is bedoeld voor medische of veiligheidsoverwegingen.
- AI-systemen die natuurlijke personen individueel categoriseren op basis van biometrische gegevens om hun ras, politieke opvattingen, lidmaatschap van een vakbond, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele gerichtheid af te leiden.
- Het gebruik van systemen voor biometrische identificatie op afstand in real time in openbare ruimten voor rechtshandhavingdoeleinden, behalve in uitzonderlijke, strikt gereguleerde gevallen.
Dit verbod geldt voor alle entiteiten, ongeacht of zij AI-aanbieders, distributeurs of gebruikers zijn. Elke organisatie die actief is binnen de EU moet ervoor zorgen dat zij deze AI-systemen niet op de markt brengt, gebruikt of in stand houdt binnen haar bedrijfsvoering – zelfs als de AI buiten de EU is ontwikkeld.
Wat je binnen je bedrijf nu moet doen
De handhaving van dit verbod is geen verre toekomstmuziek, maar een urgente nalevingsverplichting. Bedrijven moeten onmiddellijk beoordelen of hun AI-systemen in strijd zijn met het verbod.
Stap 1: Voer een AI-inventarisatie uit
Breng alle AI-toepassingen die in je organisatie worden gebruikt in kaart en classificeer ze volgens het risicokader van de AI Act. Dit omvat alle AI-gestuurde besluitvormingssystemen, klantinteractietechnologieën, beveiligingsapplicaties en interne AI-processen.
Stap 2: Identificeer en verwijder de verboden AI-systemen
Als een AI-systeem binnen de verboden categorie valt, moet het onmiddellijk worden stopgezet. Er is geen overgangsperiode of gefaseerde naleving. Bedrijven die hier niet aan voldoen, riskeren zware boetes, die kunnen oplopen tot €35 miljoen of 7% van de wereldwijde omzet.
Stap 3: Zorg voor AI-geletterdheid en compliance-training
De AI Act verplicht bedrijven om ervoor te zorgen dat hun medewerkers voldoende AI-kennis hebben, vooral degenen die AI-systemen beheren of implementeren. Werknemers moeten de juridische en ethische verplichtingen rond AI-gebruik begrijpen. Dit is geen advies, maar een wettelijke vereiste.
Stap 4: Bereid je voor op bredere compliance-verplichtingen
Hoewel de focus nu ligt op verboden AI-systemen, moeten bedrijven zich voorbereiden op de bredere nalevingsverplichtingen voor hoog-risico AI-systemen en generatieve AI-modellen die in de komende jaren van kracht worden. Door nu interne AI-governance structuren op te zetten, blijf je voorop lopen terwijl de regelgeving steeds strenger wordt.
Nogmaals: get started now!
De deadline van 2 februari 2025 is een mijlpaal in de AI-regelgeving binnen de EU. Veel bedrijven denken nog steeds dat de AI Act alleen relevant is voor aanbieders en techbedrijven, maar dat is een misvatting. De wet legt verplichtingen op aan iedere organisatie die AI integreert in haar bedrijfsvoering, waardoor naleving een prioriteit wordt in alle sectoren.
Als je organisatie nog geen AI-risicobeoordeling heeft uitgevoerd, dan is nu het moment om actie te ondernemen. Compliance draait niet alleen om het vermijden van boetes, maar ook om het beschermen van je bedrijf, het versterken van klantvertrouwen en het positioneren als een betrouwbare en verantwoordelijke partner.
Hulp nodig bij het beoordelen van AI-risico’s, het voldoen aan de regelgeving of het navigeren door de complexiteit van de AI Act?
Ons team staat graag voor je klaar. Boek via de link hiernaast een vrijblijvend kennismakingsgesprek of stuur een mailtje naar info@siriuslegal.be