De Europese Unie introduceert de AI Act (Artificial Intelligence Act), ’s werelds eerste uitgebreide wetgeving voor kunstmatige intelligentie. Maar wat houdt deze verordening precies in, en wat betekent het voor jouw organisatie? In deze blog leggen we uit wat de AI Act inhoudt, welke nieuwe regels eraan komen volgens het officiële EU-beleidskader, en hoe je je hier als organisatie goed op voorbereidt.

Wat is de AI Act?

De AI Act is een Europese verordening die het gebruik van kunstmatige intelligentie (AI) reguleert. Het hoofddoel is bij iedere EU-verordening, de werking van de interne markt verbeteren door een uniform rechtskader vast te stellen. Verder voorziet het om AI veilig, transparant en ethisch inzetbaar te maken. Daarbij worden innovaties niet afgeremd, maar juist gestimuleerd binnen duidelijke kaders.

Volgens de Europese Commissie heeft de AI Act drie belangrijke doelen:

  1. AI veilig maken voor mensen en grondrechten beschermen;
  2. Behoefte aan rechtvaardige marktvoorwaarden binnen de EU;
  3. Versnelling van innovatie en acceptatie van betrouwbare AI.

 

Dit zorgt ervoor dat AI geen black box meer is, maar een technologie die je kunt vertrouwen en verantwoorden richting gebruikers, klanten en toezichthouders.

Waarom is de AI Act belangrijk?

AI krijgt een steeds grotere rol in ons dagelijks leven. Denk aan:

  • Chatbots die klantvragen beantwoorden;
  • Slimme systemen die sollicitanten selecteren;
  • Medische innovaties die diagnoses ondersteunen.

 

Maar deze technologie brengt ook mogelijke risico’s met zich mee, zoals discriminatie, manipulatie en verkeerde beslissingen. De AI Act stelt daarom regels om mensenrechten en maatschappelijke waarden te beschermen, terwijl bedrijven de ruimte houden om AI in te zetten voor groei en innovatie.

 

De vier risiconiveaus van AI volgens de AI Act

De wet volgt een risico gebaseerde aanpak. De AI Act maakt onderscheid tussen vier risiconiveaus. Van toepassingen die onaanvaardbare risico’s vormen en verboden worden, tot toepassingen met minimaal of geen risico waarvoor geen aanvullende regelgeving geldt. Hieronder lees je wat dit voor jouw organisatie betekent.

Onaanvaardbaar risico – Volledig verboden AI-toepassingen

AI-systemen die een duidelijk gevaar vormen voor de veiligheid, vrijheid en rechten van mensen worden verboden. De AI Act noemt daarin acht voorbeelden:

  1. Schadelijke AI-toepassingen die manipulatie of misleiding mogelijk maken;
  2. Het uitbuiten van kwetsbaarheden met behulp van AI, bijvoorbeeld op basis van leeftijd, handicap of sociaaleconomische status;
  3. Sociale scores toekennen aan personen op basis van gedrag of persoonlijke kenmerken, zoals in sommige niet-democratische regimes gebeurt;
  4. AI-systemen die risico’s inschatten voor individuele strafbare feiten;
  5. Het massaal verzamelen van beelden van het internet of cameratoezicht (CCTV) om gezichtsherkenningsdatabases te bouwen;
  6. Het inzetten van emotieherkenning op de werkvloer of in het onderwijs;
  7. Biometrische systemen die gevoelige kenmerken zoals ras, religie of politieke overtuiging afleiden; en
  8. Real-time gezichtsherkenning op afstand in openbare ruimtes voor wetshandhavers en politiedoeleinden.

 

Hoog risico – Strikte eisen voor impactvolle toepassingen

AI-toepassingen die een grote impact kunnen hebben op gezondheid, veiligheid of grondrechten, worden als hoog risico ingedeeld. Hieronder valt onder meer:

  • AI in kritieke infrastructuren, zoals transportsystemen
  • AI in het onderwijs, bijvoorbeeld bij examenbeoordeling’;
  • AI in medische producten, zoals robotchirurgie;
  • AI voor werving en selectie, bijvoorbeeld cv-sorteersoftware;
  • AI voor toegang tot essentiële diensten, zoals kredietbeoordeling;
  • AI voor biometrische identificatie of emotieherkenning, bijvoorbeeld om winkeldieven op te sporen;
  • AI voor wetshandhaving, zoals het beoordelen van bewijs;
  • AI in migratie- en grensbeheer, zoals geautomatiseerde visumcontroles; en
  • AI in de rechtspraak en democratische processen, zoals het voorbereiden van rechterlijke uitspraken.
  • AI-toepassingen die als hoog risico worden aangemerkt, zijn onderworpen aan aanvullende maatregelen. Deze maatregelen zijn bedoeld om de drie doelen te waarborgen , enkele voorbeelden hiervan zijn: Risicobeoordelingen en mitigerende maatregelen.
  • Gebruik van kwalitatieve datasets om discriminatie te voorkomen.
  • Loggen van activiteiten voor controleerbaarheid.
  • Uitgebreide documentatie voor toezichthouders.
  • Heldere informatie voor gebruikers en afnemers.
  • Voldoende menselijke controle en toezicht.
  • Hoge eisen aan robuustheid, cyberveiligheid en nauwkeurigheid.

De AI Act stelt aanvullende transparantie-eisen. Gebruikers moeten weten wanneer zij met AI te maken hebben. Dit geldt bijvoorbeeld voor:

Chatbots:

Gebruikers moeten weten dat ze met een AI praten

Generatieve AI:

AI-gegenereerde content moet herkenbaar zijn, zoals deepfakes of AI-gegenereerde nieuwsberichten

Publieke communicatie:

Informatie die het publiek informeert moet zichtbaar als AI-gegenereerd worden gelabeld.

Minimaal of geen risico – Geen extra regels

De meeste AI-toepassingen vallen onder minimaal of geen risico, zoals:

  • AI in videogames; en
  • Spamfilters in e-mailtoepassingen.

 

Voor deze toepassingen gelden geen extra regels, maar betrouwbaarheid blijft belangrijk.

Regels voor generatieve en general-purpose AI

Generatieve AI en general-purpose AI-modellen (zoals grote taalmodellen) vormen een bijzondere categorie. Deze modellen kunnen breed worden ingezet en mogelijk systeemrisico’s veroorzaken. De AI Act stelt daarom aanvullende eisen, waaronder:

  • Transparantie over werking en brondata;
  • Maatregelen om systemische risico’s te beperken; en
  • Respecteren van auteursrechten.

 

De regels voor general-purpose AI worden van kracht in augustus 2025. Het AI Office werkt momenteel aan een gedragscode, die als praktische richtlijn gaat dienen voor aanbieders om te voldoen aan de AI Act.

Volgens het EU-beleidskader wordt extra nadruk gelegd op de volgende punten:

Eén Europese Markt voor AI

De wet harmoniseert regels in alle EU-landen om innovatie en schaalbaarheid te bevorderen.

AI Office

Er komt een Europese toezichthouder die de verordening handhaaft en samenwerking tussen lidstaten stimuleert.

Sandboxes voor Innovatie

Lidstaten worden aangemoedigd om testomgevingen te creëren waar bedrijven nieuwe AI-oplossingen veilig kunnen ontwikkelen en testen.

Internationale Standaarden

De EU werkt actief samen met internationale partners om mondiale normen voor AI te ontwikkelen.

Wat betekent dit voor jouw organisatie?

Als jouw organisatie AI gebruikt of ontwikkelt, moet je actie ondernemen om aan de AI Act te voldoen. Belangrijke stappen zijn:

  1. Categorie bepalen
    Onderzoek in welke risicocategorie jouw AI valt.
  2. Transparantie borgen
    Zorg dat je gebruikers, klanten en toezichthouders kunt uitleggen hoe jouw AI werkt.
  3. Blijven testen en monitoren
    Voer periodieke audits en updates uit om risico’s te beheersen.
  4. Samenwerken met experts
    Technische en juridische expertise is cruciaal om compliant én innovatief te blijven.
Neem contact op!

Meer weten over de impact van de AI Act op jouw organisatie? Neem dan contact op