De EU AI Act is al wet — voldoet uw bedrijf? 

De eerste integrale regulering van kunstmatige intelligentie ter wereld heeft al actieve deadlines. Training in AI-geletterdheid is verplicht sinds februari 2025 (Artikel 4). Hoog-risico AI-systemen moeten in augustus 2026 voldoen. Boetes tot 35 M EUR of 7% van de wereldwijde omzet. Slechts 25% van de organisaties heeft een AI-governanceprogramma geïmplementeerd — en 88% gebruikt al AI.

35M EUR Maximale boete EU AI Act
Aug 2026 Deadline hoog-risico AI
Scroll

Wat onze service omvat

Van inventaris tot gedocumenteerde naleving.

Training in AI-geletterdheid: verplicht programma (Art. 4) voor al het personeel dat AI-systemen gebruikt of toezicht houdt
Inventaris en classificatie van AI-systemen: mapping van alle AI-toepassingen en classificatie per risiconiveau (minimaal, beperkt, hoog, onaanvaardbaar)
Risicobeoordeling: impactanalyse op grondrechten voor hoog-risico systemen conform Bijlage III
Technische documentatie: registratie van trainingsdata, prestatiemetrics, gedetecteerde biases en mitigatiemaatregelen
Voorbereiding op conformiteitsbeoordeling: we bereiden uw organisatie voor op audits door aangemelde instanties
Naleving chatbots en AI-functionaliteiten: transparantie, identificatie van gegenereerde content en gebruikersrechten

Chronologie van de EU AI Act: al actieve deadlines

Weet wat nu geldt en wat komt.

Februari 2025 (AL ACTIEF): AI-geletterdheid verplicht voor al het personeel (Art. 4) en verbod op onaanvaardbare AI-praktijken (subliminale manipulatie, sociale scoring, massale biometrische surveillance). Augustus 2025 (AL ACTIEF): Verplichtingen voor general-purpose AI-modellen (GPAI) — transparantie, technische documentatie, copyright-naleving. Augustus 2026: De hoofddeadline — volledige eisen voor hoog-risico AI-systemen: risicobeheer, datakwaliteit, transparantie, menselijk toezicht, robuustheid. Augustus 2027: Verplichtingen voor gereguleerde producten die AI integreren (machines, medische apparaten, speelgoed).

compliance/eu-ai-act-timeline.yaml
# EU AI Act — Belangrijke deadlines
feb_2025: # AL ACTIEF
- AI-geletterdheid (Art. 4)
- Verboden praktijken
aug_2025: # AL ACTIEF
- GPAI-verplichtingen
aug_2026: # 6 MAANDEN
- AI-systemen met hoog risico
aug_2027:
- Gereguleerde producten + AI
2 Actieve deadlines
Aug 2026 Volgende
35M EUR Max. boete

Executive summary

Wat u moet weten om te handelen.

De EU AI Act heeft al twee actieve deadlines: sinds februari 2025 is training in AI-geletterdheid verplicht (Art. 4) en zijn onaanvaardbare AI-praktijken verboden. Sinds augustus 2025 hebben GPAI-modellen transparantieverplichtingen. Augustus 2026 is de hoofddeadline: hoog-risico AI-systemen moeten voldoen aan volledige eisen voor risicobeheer, datakwaliteit, transparantie en menselijk toezicht.

De boetes zijn de zwaarste in het Europese regelgevingslandschap: tot 35 M EUR of 7% van de wereldwijde omzet (meer dan de AVG). Slechts 25% van de organisaties heeft een AI-governanceprogramma, ondanks dat 88% al AI gebruikt. De markt voor AI-regelgevingsnaleving wordt geschat op 17.000 M EUR in 2030. Niet nu handelen is uzelf blootstellen aan sancties en concurrentievoordeel verliezen.

35M EUR Maximale boete (7% omzet)
6 maanden Tot deadline hoog-risico AI
88% Bedrijven gebruiken al AI

Samenvatting voor CTO / technisch team

Technische vereisten en nalevingsframework.

De EU AI Act eist een continu risicobeheersysteem voor hoog-risico AI: documentatie van de trainingsdataset (herkomst, kwaliteit, biases), prestatie- en fairness-metrics, logging van geautomatiseerde beslissingen, mechanismen voor menselijk toezicht (human-in-the-loop) en robuustheidstests tegen adversarial attacks.

Voor chatbots en AI-functionaliteiten die zichtbaar zijn voor de gebruiker eist de wet duidelijke transparantie: de gebruiker moet weten dat hij met AI interageert, door AI gegenereerde content moet als zodanig worden gemarkeerd (inclusief deepfakes), en er moet een mechanisme zijn om menselijke interventie aan te vragen. GPAI-modellen vereisen volledige technische documentatie inclusief model cards.

Is het voor u?

De EU AI Act treft elke organisatie die AI-systemen gebruikt of ontwikkelt op de Europese markt.

Voor wie

  • Bedrijven die chatbots, virtuele assistenten of generatieve AI gebruiken in klantenservice.
  • Organisaties die AI gebruiken voor HR-beslissingen (selectie, prestatiebeoordelingen).
  • Financiële bedrijven die AI gebruiken voor kredietscoring of fraudedetectie.
  • Elke organisatie die AI gebruikt en verplicht is tot AI-geletterdheid (Art. 4).
  • Softwareleveranciers die AI-modellen integreren in hun producten.
  • Gezondheidsbedrijven die AI gebruiken voor diagnose, triage of behandeling.

Voor wie niet

  • AI-systemen die uitsluitend voor wetenschappelijk onderzoek worden gebruikt (vrijgesteld).
  • Open-source AI met minimaal risico en zonder direct commercieel gebruik.
  • Puur militaire of nationale verdedigings-AI-systemen (buiten het bereik van de EU AI Act).

EU AI Act-nalevingsdiensten

Pakketten afgestemd op elke fase van de verordening.

01

Training in AI-geletterdheid

Al actieve verplichting (Art. 4). Trainingsprogramma aangepast aan de rol van elke medewerker: wat is AI, hoe werkt het, risico's, ethisch gebruik en wettelijke verplichtingen. Format: presentiële workshop of e-learning. Deelnamecertificaat voor nalevingsdocumentatie.

02

Inventaris en risicoclassificatie

Volledige mapping van alle AI-systemen in gebruik (eigen en van derden). Classificatie per risiconiveau volgens Bijlage III: onaanvaardbaar, hoog, beperkt of minimaal. Identificatie van nalevingsgaten en geprioriteerde roadmap.

03

Impactbeoordeling en documentatie

Voor hoog-risico systemen: impactbeoordeling op grondrechten, technische documentatie conform Bijlage IV (trainingsdata, metrics, biases, mitigatiemaatregelen) en voorbereiding van het conformiteitsdossier.

04

Governance en AI-monitoring

Ontwerp en implementatie van een AI-governanceprogramma: intern beleid, AI Risk Registry, AI-ethiekcommissie, goedkeuringsworkflows voor nieuwe systemen en continue monitoring van prestaties en eerlijkheid.

05

Naleving chatbots en AI-functionaliteiten

Specifieke audit van chatbots, virtuele assistenten en generatieve AI-functionaliteiten: transparantie, identificatie van door AI gegenereerde content, mechanisme voor het aanvragen van menselijke interventie en naleving van verplichtingen voor systemen met beperkt risico.

Nalevingsproces

Van inventaris tot gedocumenteerde conformiteit.

01

Inventaris

We brengen alle AI-systemen in uw organisatie in kaart: chatbots, predictieve modellen, HR-tools, scoring, automatiseringen. Inclusief AI van derden (API's van OpenAI, Google, Azure AI) die u gebruikt.

02

Classificatie

We classificeren elk systeem op risiconiveau volgens Bijlage III. We identificeren specifieke verplichtingen: transparantie voor beperkt risico, volledige eisen voor hoog risico, en verificatie dat geen enkel systeem onder verboden praktijken valt.

03

Remediatie

We implementeren de nodige technische en organisatorische maatregelen: technische documentatie, impactbeoordeling, governancebeleid, teamtraining, mechanismen voor menselijk toezicht en logging van beslissingen.

04

Documentatie en monitoring

We bereiden het volledige conformiteitsdossier voor: technische documentatie (Bijlage IV), impactbeoordeling, registratie in de EU-database (voor hoog risico), en continu post-deployment monitoringsysteem.

Risico's die we mitigeren

Van regelgevingsblootstelling naar geverifieerde conformiteit.

Boetes voor niet-naleving (tot 35 M EUR / 7% omzet)

Oplossing:

Volledig nalevingsprogramma: inventaris, classificatie, documentatie en monitoring. Conformiteitsdossier klaar voor regelgevingsinspectie.

Niet-naleving AI-geletterdheid (al actieve verplichting)

Oplossing:

Trainingsprogramma aangepast aan elke rol met deelnamecertificaat. Content bijgewerkt volgens de richtlijnen van het Europese AI-bureau.

Niet-gedocumenteerde hoog-risico AI-systemen

Oplossing:

Uitgebreide inventaris + technische documentatie conform Bijlage IV: trainingsdata, prestatiemetrics, biasanalyse en mitigatiemaatregelen.

Chatbots en generatieve AI zonder transparantie

Oplossing:

Audit van alle AI-interfaces: duidelijke identificatie van AI-interactie, markering van gegenereerde content en mechanisme voor het aanvragen van menselijke interventie.

Echte ervaring in toegepaste AI en naleving

Bij Kiwop ontwikkelen en integreren we al jaren AI-oplossingen voor bedrijven: intelligente chatbots, enterprise RAG, LLM-integratie en automatisering met AI. Deze eerstehandse technische ervaring stelt ons in staat de regulering te begrijpen vanuit het perspectief van de ontwikkelaar — niet alleen van de juridische consultant. We weten wat naleving inhoudt omdat we de systemen bouwen die moeten voldoen.

50+ Geleverde AI-projecten
2 Actieve EU AI Act-deadlines
6 Maanden tot deadline hoog risico
Bedrijven met AI-governance 25%

EU AI Act vs AVG: wat verandert en wat stapelt

De EU AI Act vervangt de AVG niet — het vult die aan.

Als uw organisatie al aan de AVG voldoet, heeft u een basis, maar de EU AI Act voegt specifieke eisen voor AI-systemen toe die de AVG niet dekt: risicoclassificatie, technische modeldocumentatie, evaluatie van algoritmische biases, verplicht menselijk toezicht en AI-specifieke transparantie. De boetes van de EU AI Act zijn hoger dan de AVG: tot 7% van de wereldwijde omzet vs 4% van de AVG. Beide verordeningen zijn gelijktijdig van toepassing — een chatbot die persoonsgegevens verwerkt, moet aan beide voldoen.

4% Max. boete AVG
7% Max. boete EU AI Act
Bedrijven die aan AVG voldoen 60%
Bedrijven die aan EU AI Act voldoen 25%

Veelgestelde vragen

Wat bedrijven vragen over de EU AI Act.

Wat is de EU AI Act en wanneer is deze van toepassing?

De EU AI Act (Verordening 2024/1689) is de eerste integrale AI-regulering ter wereld. Deze is gefaseerd van toepassing: februari 2025 (AI-geletterdheid + verboden praktijken), augustus 2025 (GPAI), augustus 2026 (hoog-risico AI) en augustus 2027 (gereguleerde producten). Van toepassing op elke organisatie die AI levert of gebruikt op de EU-markt.

Heeft mijn bedrijf al actieve verplichtingen?

Ja, sinds februari 2025. Artikel 4 verplicht alle organisaties die AI-systemen gebruiken om AI-geletterdheid van hun personeel te garanderen. Daarnaast mogen verboden AI-praktijken (sociale scoring, subliminale manipulatie, massale biometrische surveillance) niet meer worden gebruikt. Als u ChatGPT, Copilot of welke AI dan ook gebruikt — training is verplicht.

Welke AI-systemen worden als hoog risico beschouwd?

Bijlage III definieert de categorieën: AI in selectie en HR-management (CV-filtering, prestatiebeoordelingen), kredietscoring en verzekeringen, rechtspraak, grenscontrole, kritieke infrastructuur, onderwijs (toelatingen, beoordelingen) en gezondheid (diagnose, triage). Als uw AI beslissingen beïnvloedt die grondrechten van personen raken, is het waarschijnlijk hoog risico.

Hoe zit het met chatbots en generatieve AI?

Chatbots worden geclassificeerd als beperkt risico met transparantieverplichtingen: de gebruiker moet weten dat hij met AI interageert, gegenereerde content moet als zodanig worden gemarkeerd (inclusief deepfakes), en er moet een mechanisme zijn om menselijke interventie aan te vragen. Als de chatbot persoonsgegevens verwerkt, is ook de AVG van toepassing.

Hoe hoog zijn de boetes?

De boetes zijn de zwaarste in het Europese regelgevingslandschap: tot 35 M EUR of 7% van de wereldwijde omzet voor gebruik van verboden praktijken. Voor hoog-risico systemen zonder naleving: tot 15 M EUR of 3% van de omzet. Voor onjuiste informatie: tot 7,5 M EUR of 1%. Voor het mkb worden boetes proportioneel berekend.

Hoeveel kost voorbereiding op naleving?

Training in AI-geletterdheid: vanaf 3.000 EUR (programma aangepast aan de organisatie). Inventaris + classificatie: vanaf 5.000 EUR. Volledig nalevingsprogramma (inventaris + documentatie + governance): vanaf 15.000 EUR. De kosten hangen af van het aantal AI-systemen, complexiteit en organisatiegrootte. Aanzienlijk minder dan een boete van 7% van de omzet.

Heb ik ISO 42001-certificering nodig?

Niet verplicht, maar sterk aanbevolen. ISO 42001 is de internationale standaard voor AI-managementsystemen en is afgestemd op de eisen van de EU AI Act. Het hebben ervan toont due diligence aan tegenover toezichthouders en klanten. We bereiden uw organisatie voor op certificering als onderdeel van het AI-governanceprogramma.

Hoe treft dit bedrijven buiten de EU?

Net als de AVG: de EU AI Act is van toepassing op elke organisatie die AI-systemen levert of gebruikt op de EU-markt, ongeacht het hoofdkantoor. Als uw bedrijf in de VS of Latijns-Amerika is maar klanten of gebruikers heeft in de EU, moet u voldoen. Importeurs en distributeurs hebben ook specifieke verplichtingen.

Wat is het verschil tussen provider en deployer?

De provider is wie het AI-systeem ontwikkelt of laat ontwikkelen (meer verplichtingen: technische documentatie, conformiteit, monitoring). De deployer is wie het in zijn bedrijf gebruikt (verplichtingen rond menselijk toezicht, transparantie, impactbeoordeling). Veel bedrijven zijn deployers van AI van derden (OpenAI, Google, Microsoft) en hebben eigen verplichtingen die niet aan de provider kunnen worden gedelegeerd.

Investering

Voorstel afgestemd op de omvang van uw AI-systemen.

Training in AI-geletterdheid: vanaf 3.000 EUR
Inventaris + risicoclassificatie: vanaf 5.000 EUR
Volledig nalevingsprogramma: vanaf 15.000 EUR
Geen lock-in: opzegging met 30 dagen opzegtermijn

Augustus 2026 is over 6 maanden — AI-training is al verplicht

75% van de organisaties die AI gebruiken hebben geen governanceprogramma. De boetes gaan tot 7% van de wereldwijde omzet. Wacht niet op de inspectie: evalueer nu uw naleving.

Naleving EU AI Act evalueren
Vrijblijvend Antwoord binnen 24u Voorstel op maat
Laatst bijgewerkt: februari 2026

Technische
initiële audit.

AI, beveiliging en prestaties. Diagnose met gefaseerd voorstel.

NDA beschikbaar
Antwoord <24u
Gefaseerd voorstel

Je eerste gesprek is met een Solutions Architect, niet met een verkoper.

Diagnose aanvragen