EU AI Act 2026 voor creators: deadline 2 augustus + 5-stappen checklist
Op 2 augustus 2026 wordt Article 50 van de EU AI Act van kracht. Drie uitzonderingen helpen je vrij van labelplicht — maar deepfakes en AI-tekst over publiek belang vallen er altijd onder. Definities, vergelijkingstabel + 5-stappen checklist voor creators.

Direct antwoord: Op 2 augustus 2026 wordt Article 50 van de EU AI Act volledig van kracht. Drie uitzonderingen vrijstellen de meeste creators van labelplicht (artistieke context, redactionele controle, technische hulpfunctie) — maar deepfakes en AI-tekst over publiek belang vallen er altijd onder. Hieronder vind je een 5-stappen checklist die je in 30 minuten compliant maakt.
⚡ In 30 minuten compliant. Spring naar de 5-stappen checklist verderop, of probeer LinkDash gratis — de AI Page Builder is per default §4-compliant.
Definities: wat zegt de EU AI Act precies?
Kort antwoord: De Verordening (EU) 2024/1689 introduceert vier kerntermen. Hieronder elke definitie in één zin, met bron eronder.
- Aanbieder (provider)
- In één zin: Het bedrijf dat een AI-systeem bouwt en op de EU-markt brengt — denk OpenAI, Midjourney, ElevenLabs.
Bron: Article 3 + 50.2 (machine-leesbare watermerken in output). - Gebruiker (deployer)
- In één zin: De partij die een AI-systeem inzet om content te publiceren — dus jij als creator.
Bron: Article 3 + 50.4 (disclosure bij deepfakes en publiek-belang teksten). - Deepfake
- In één zin: Realistische AI-content die een persoon nabootst en als echt kan worden gezien.
Voluit (Recital 134): kunstmatig gegenereerde beeld-, audio- of video-inhoud die "ten onrechte aan een persoon zou doen geloven dat deze authentiek of waarheidsgetrouw is". - Redactionele controle
- In één zin: Een echt mens leest de AI-output door, past hem aan, en publiceert onder eigen naam.
Bron: Recital 134. Geldt als vrijstellingsgrond voor §4-tekstdisclosure. - Publiek belang
- In één zin: Tekst die de samenleving informeert over zaken die ertoe doen — journalistiek, politiek, gezondheid, veiligheid.
Bron: Article 50.4 + Recital 134 (geen uitputtende definitie).
Wat verandert er per 2 augustus 2026?
Kort antwoord: Article 50 (transparantie-verplichtingen voor aanbieders en gebruikers) wordt volledig van toepassing. Concreet: je moet bekendmaken wanneer content kunstmatig is gegenereerd, in vier specifieke scenario's.
De EU AI Act (Verordening (EU) 2024/1689) is op 1 augustus 2024 in werking getreden, met gefaseerde inwerkingtreding van de individuele bepalingen:
- 2 februari 2025: Verbod op onaanvaardbaar-risico-systemen (in werking)
- 2 augustus 2025: Regels voor general-purpose AI-modellen (in werking)
- 2 augustus 2026: Article 50 transparantie-verplichtingen — jouw deadline als creator
- 2 augustus 2027: Hoge-risico AI-systemen die in producten zijn ingebed
Voor creators is dit cruciaal. Article 50 specifieert wanneer je moet bekendmaken dat content door AI is gegenereerd. De Europese Commissie publiceerde in maart 2026 al de tweede versie van de Code of Practice voor het markeren van AI-content — een vrijwillige naleving-tool die concrete voorbeelden geeft. De definitieve guidelines verschijnen in Q2 2026, dus precies in de drie maanden vóór de deadline.
Welke creator-content valt onder Article 50?
Kort antwoord: Vier scenario's — chatbots (§1), AI-aanbieder-output (§2), emotie- en biometrische herkenning (§3), en deepfakes + publiek-belang teksten (§4). Voor creators zijn vooral §1, §2 en §4 relevant.
§1 — Chatbots en AI-assistenten op je pagina
Heb je een AI-chatbot op je linkdash-pagina (bijvoorbeeld een "Vraag mij wat"-widget die door GPT wordt aangedreven)? Bezoekers moeten worden geïnformeerd dat ze met een AI-systeem praten — tenzij dat overduidelijk is uit de context. In praktijk volstaat een label "Made by AI" of "Powered by AI assistant" bij de widget.
§2 — AI-providers, niet jij maar de tool achter je
Deze paragraaf legt verplichtingen op aan AI-tool-makers (OpenAI, Midjourney, ElevenLabs) om outputs in machine-leesbaar formaat te markeren als AI-gegenereerd. Jij als deployer hebt hier geen directe verplichting, maar het beïnvloedt wel welke tools "compliant" zijn. Tools die geen technische watermerk-implementatie hebben, kunnen vanaf augustus 2026 uit het EU-aanbod verdwijnen.
§4 — Deepfakes en AI-tekst over publiek belang
Hier wordt het concreet voor jou:
- Deepfakes — beeld, audio of video die kunstmatig gegenereerd is en realistisch oogt — moeten altijd gelabeld worden, met één uitzondering: als de content "evident artistiek, creatief, satirisch of fictief" is, dan volstaat een vermelding van het bestaan van de bewerking, op een manier "die het werk niet hindert".
- AI-tekst over publiek belang — als je AI-gegenereerde teksten publiceert "met als doel het publiek te informeren over zaken van publiek belang", moet je dat bekendmaken. Maar: deze verplichting vervalt als de tekst een proces van "menselijke review of redactionele controle" heeft doorlopen, en als een natuurlijk of rechtspersoon redactionele verantwoordelijkheid draagt.
Letterlijk uit Article 50 §4 (officiële tekst): "Deployers of an AI system that generates or manipulates text which is published with the purpose of informing the public on matters of public interest shall disclose that the text has been artificially generated or manipulated. This obligation shall not apply (...) where the AI-generated content has undergone a process of human review or editorial control."
Welke 3 uitzonderingen stellen de meeste creators vrij?
Kort antwoord: Voor de meeste creators bieden de redactionele-review-uitzondering (§4), de artistieke uitzondering (§4) en de technische-assistentie-uitzondering (§2) verlichting. Door je workflow zo in te richten dat één van deze drie van toepassing is, vermijd je vrijwel alle disclosure-plicht.
- Redactionele review-uitzondering (§4). Als jij AI-gegenereerde teksten reviewt, edit en publiceert onder eigen redactionele verantwoordelijkheid, ben je vrijgesteld van de disclosure-plicht. Voor de praktijk: zolang jij "doorleest, aanpast en publiceert" — niet kopieer-plak — voldoe je. Bewaar een audit-trail: ruwe AI-output, jouw bewerking, gepubliceerde versie. Recital 134 bevestigt dat substantiële menselijke review hier essentieel is.
- Artistieke / satirische uitzondering (§4). Maak je deepfakes binnen een evident artistiek of satirisch kader (parodie, kunstproject, satirische clip)? Dan volstaat een lichte vermelding van het bestaan van de bewerking. Een poster met "AI-collage door [naam]" in een hoek is voldoende.
- Technische-assistentie uitzondering (§2). AI-functies die alleen "standaardbewerkingen" uitvoeren of de input "niet substantieel veranderen" zijn vrijgesteld. Voorbeelden: spell-check, kleurcorrectie, automatische ondertiteling op basis van bestaande audio, ruisonderdrukking. Dit zijn assistive functions, geen content-generatie.
Wanneer moet je AI-content labellen en wanneer niet?
Kort antwoord: De vergelijkingstabel hieronder mapt elk creator-content-type op de disclosure-vereisten van Article 50. Onthoud: deepfakes met herkenbare personen vereisen disclosure, technische assistentie nooit, en publiek-belang teksten alleen zonder redactionele review.
| Content-type | Disclosure verplicht? | Uitzondering toepasbaar? |
|---|---|---|
| AI-chatbot op je pagina | Ja (§1) | Alleen als context overduidelijk is (zelden) |
| AI-gegenereerde avatar of profielfoto van jezelf | Ja, deepfake (§4) | Nee — herkenbaarheid van een persoon |
| AI-gegenereerde stockfoto voor een blogpost | Nee, geen deepfake (geen persoon nagebootst) | n.v.t. |
| Volledig AI-geschreven product-omschrijving in je shop | Mogelijk (§4 publiek belang — meestal niet) | Ja, als jij hem reviewt en bewerkt |
| Door AI bewerkte podcast-ondertiteling | Nee (§2 technische assistentie) | n.v.t. |
| Satirische deepfake van een politicus | Vermelding van bestaan bewerking (§4 artistieke uitzondering) | Volledig label niet nodig |
| Spell-check + kleurcorrectie | Nee (§2) | n.v.t. |
| AI-gegenereerd nieuwsartikel zonder review | Ja (§4 publiek belang) | Geen — review-uitzondering vervalt |
Twijfelgevallen: wanneer zit je in een grijs gebied?
Kort antwoord: Vier scenario's zitten tussen verplichte disclosure en vrijstelling. Hieronder hoe je elk geval interpreteert. Vuistregel bij echte twijfel: leg disclosure aan — dat is altijd toegestaan en kost je niets.
1. AI-bewerkt fotoportret van jezelf met cosmetische tweaks
Foto van jezelf met AI-bewerking (huidcorrecties, achtergrond verwijderd, kleur-grading). Is dit een deepfake? Doorgaans niet — als het je eigen gezicht is en de bewerking is cosmetisch (niet structureel veranderend), valt dit eerder onder §2 "standaardbewerking". Maar als de AI je gezicht structureel verandert (andere haarkleur, leeftijd, expressie) zit je in §4-deepfake-territorium. Conservatief: voeg "AI-bewerkt" toe in onderschrift.
2. AI-gegenereerde stockfoto met fictieve personen
Een gegenereerde foto van een fictief persoon (geen bestaand persoon nagebootst) valt niet onder de Recital 134-definitie van deepfake — er wordt niemand misleid. Maar als de foto realistisch oogt en bezoekers zouden kunnen denken dat het een echte persoon is, is een vrijwillige disclosure verstandig. Veel auteurs kiezen voor een onopvallend "AI" tekstlabel in de hoek.
3. Vertaling van eigen tekst via AI naar EN/DE/FR
Je schrijft NL en laat AI vertalen. Strikt genomen is de vertaling AI-gegenereerd, maar: als jij elke vertaling reviewt en publiceert onder eigen naam → §4-redactionele-review-uitzondering greep, geen labelplicht. Als je AI ongezien laat publiceren → strict genomen labelplicht voor publiek-belang-content. Praktisch: doe altijd een korte review-pass zodat de uitzondering geldt.
4. AI-bewerkte voice-clone die niet helemaal realistisch klinkt
Stem-conversie waar het resultaat duidelijk synthetisch klinkt (auto-tune-niveau, robotic) — de kern van de deepfake-definitie is "ten onrechte als echt kunnen worden gezien". Onmiskenbaar synthetische stemmen vallen er buiten. Realistische voice-clones van bestaande personen wél. Als luisteraars in een blinde test zouden geloven dat het de echte persoon is, geldt §4.
5. Newsletter met AI-geschreven samenvatting van actueel nieuws
Newsletter waarvan de redactionele samenvatting door AI is gegenereerd. Is publiek belang van toepassing? Als je actueel nieuws "informerend" doorgeeft, ja. Vervalt de plicht? Alleen als je echt redactionele review doet (niet alleen typo's). Veiligste oplossing voor newsletter-creators: een "Bevat AI-assist"-byline in elke editie, ongeacht onderwerp.
Disclaimer: deze interpretaties zijn gebaseerd op de huidige wettekst (versie 13 juni 2024) en de tweede draft Code of Practice (5 maart 2026). Definitieve guidelines van de EU Commissie volgen in Q2 2026 en kunnen sommige grenzen verfijnen.
Wat moet jouw creator-type concreet regelen vóór 2 augustus?
Kort antwoord: Per creator-archetype zijn er andere accenten. Hieronder vijf scenario's met concrete handelingen die je vandaag al kunt doen.
Voor de vlogger of YouTube Shorts-maker
Je gebruikt waarschijnlijk AI voor automatische ondertiteling, ruisonderdrukking of thumbnail-generatie. Ondertiteling op basis van bestaande audio = §2-uitzondering. Maar AI-gegenereerde thumbnails met fake footage van jezelf of derden = §4-deepfake = labelplicht. Praktische oplossing: voeg een "AI-thumbnail" tekstlabel toe in een hoek, of vermeld het in je videobeschrijving.
Voor de muzikant of producer
AI-mastering en autotune vallen onder §2 (technische assistentie). Maar als je via Suno, Udio of een vergelijkbare tool een vocal-track laat genereren die klinkt als jezelf of een ander, is dat een audio-deepfake en valt onder §4. Disclosure: voldoende vermelding in track-titel of -beschrijving, bijvoorbeeld "[track-naam] (AI-vocal)".
Voor de coach, consultant of B2B-creator
Je publiceert vermoedelijk regelmatig artikelen over je vakgebied. Hier is de redactionele review-uitzondering jouw beste vriend: zolang jij iedere AI-draft doorleest, aanpast en publiceert onder je eigen naam, voldoe je aan de uitzondering. Verzin geen workflow waarin AI ongezien publiceert — dat valt buiten de uitzondering.
Voor de e-commerce of shop-creator
AI-product-omschrijvingen vallen niet onder §4 als ze geen "publiek-belang"-karakter hebben — commerciële teksten zijn dat doorgaans niet. Wel handig om vrijwillige disclosure toe te voegen. Google heeft in zijn eigen guidance aangegeven dat transparantie over AI-gebruik geen ranking-penalty oplevert, en het lezersvertrouwen verhoogt.
Voor de visual artist of designer
De artistieke uitzondering is voor jou centraal: als je AI gebruikt als onderdeel van een artistiek werk, volstaat een vermelding van het bestaan van AI-bewerking — niet meer dan dat. "Created with AI assistance" in de portfoliobeschrijving is voldoende, zolang de werkstijl evident artistiek is.
5-stappen checklist: word AI Act-compliant in 30 minuten
Kort antwoord: Loop deze 5 stappen door, dan ben je per 2 augustus 2026 conform Article 50 zonder extra moeite. Geschatte tijd: 30 minuten voor een gemiddeld creator-profiel.
- Inventariseer welke AI-tools je gebruikt. ChatGPT, Suno, Midjourney, ElevenLabs, Adobe Firefly? Maak een lijst. Per tool: kijk of er een EU-compliance-roadmap is (OpenAI, Anthropic, Google en Microsoft hebben er één per mei 2026).
- Splits je content in 3 buckets: (a) deepfake (verplichte disclosure), (b) gepubliceerde tekst (review-uitzondering mogelijk), (c) technische assistentie (vrijstelling §2).
- Schrijf je workflow op. Hoe review je AI-output? Bewaar de raw + edited versie als audit-trail. Een eenvoudig Notion- of Markdown-doc is genoeg.
- Voeg disclosure-labels toe waar nodig. Tekstlabel "AI-gegenereerd" bij avatars/heroes, korte byline bij artikelen, vermelding in track-titels. Plaatsing: zichtbaar binnen 1 seconde van eerste interactie (Article 50.5-vereiste).
- Test je flow op één post. Open hem mobiel en check: zijn de labels duidelijk binnen 1 seconde? Klaar — je bent compliant.
⚡ Check in 30 seconden of jouw content labelplicht heeft.
De LinkDash AI Page Builder heeft human-in-the-loop ingebouwd — elke AI-suggestie passeert je editor-review voor publicatie. Daardoor val je automatisch onder de §4-redactionele-review-uitzondering. Geen workflow herinrichten, geen extra labels, gewoon werken zoals je gewend bent.
Probeer LinkDash gratis → geen creditcard · 5 minuten setup
Hoe ziet een AI-conforme disclosure er praktisch uit?
Kort antwoord: Drie patronen werken: een inline tekstlabel, een icoon-met-tooltip, of machine-leesbare metadata (alleen voor aanbieders verplicht). Disclosure moet duidelijk zichtbaar zijn vanaf het moment van eerste interactie.
Article 50 §5 stelt dat informatie "duidelijk en herkenbaar" moet zijn, "ten laatste op het moment van eerste interactie of blootstelling". De Code of Practice (versie 2 maart 2026) noemt drie acceptabele patronen:
- Inline tekstlabel — bijvoorbeeld "AI-gegenereerd" of "Made with AI" zichtbaar bij de content. Voor blogposts: in een korte byline. Voor afbeeldingen: een onopvallend tekstlabel in een hoek.
- Iconlabel met tooltip — een klein AI-icoon dat bij hover een omschrijving toont. Compromis tussen zichtbaarheid en visuele rust.
- Machine-leesbare metadata — voor providers verplicht (§2), niet vereist voor jou als deployer. C2PA-metadata is de opkomende standaard die door OpenAI, Adobe en Microsoft wordt geïmplementeerd.
Wat niet volstaat: disclaimers verstopt in een footer, bekendmaking pas op een tweede klik, of vage termen als "deels handgemaakt".
Hoeveel boete kun je krijgen voor een AI Act-overtreding?
Kort antwoord: Voor schendingen van Article 50 zijn de boetes lager dan voor verboden praktijken — maximaal € 15 miljoen of 3% van wereldwijde jaaromzet voor aanbieders. Voor individuele creators is dit theoretisch hoog; in de praktijk richt handhaving zich op grote partijen, niet op micro-influencers.
De boetes onder de AI Act zijn opgesplitst per type schending. Article 50 valt in de middelste categorie (zie Article 99). Voor verboden praktijken (Article 5) lopen boetes op tot 7% van de wereldwijde jaaromzet; voor Article 50 dus aanzienlijk lager. Handhaving zal zich vooral richten op platforms en grote aanbieders — niet op individuele micro-influencers.
In Nederland zijn de Autoriteit Persoonsgegevens en de RDI samen aangewezen als nationale toezichthouder. De handhaving start naar verwachting met klachten en steekproef-audits. Bewaar daarom een eenvoudig audit-trail van je AI-workflow: welke tool je gebruikt, welke review je doet, wat je publiceert.
Hoe LinkDash je hierop voorbereidt
Onze AI Page Builder is gebouwd met human-in-the-loop als kern: elke AI-suggestie passeert je editor-review voordat hij live gaat. Dat brengt het meeste creator-gebruik automatisch onder de redactionele-review-uitzondering van §4.
Voor disclosure-cases die wel een label vereisen (deepfake-avatars, volledig AI-gepubliceerde content), werken we aan een opt-in disclosure-marker in de pagina-editor. Beschikbaar voor 2 augustus 2026, beginnend bij Premium- en Creator Pro-plannen.
Privacy-aspecten van AI-content zijn een aparte horde. Lees onze gids over GDPR voor link-in-bio als je AI gebruikt voor visitor-personalisatie of email-capture.
Disclaimer + bronnen
Deze gids is informatief, geen juridisch advies. Voor specifieke compliance-vragen raadpleeg een gespecialiseerd advocaat. Per 5 maart 2026 publiceerde de Europese Commissie de tweede draft van de Code of Practice; we updaten dit artikel zodra de finale guidelines verschijnen in Q2 2026. Sommige uitzonderingen (vooral artistieke en redactionele) zijn afhankelijk van interpretatie — bij twijfel: leg disclosure aan, want dat is altijd toegestaan.
Belangrijkste primaire bronnen die in deze gids zijn gebruikt:
- Europese Commissie — AI Act overzicht (laatst geüpdatet 27 januari 2026)
- Article 50 — officiële tekst (incl. Recital 132-135)
- Code of Practice on marking AI content
- Article 99 — boetes en sancties
- Autoriteit Persoonsgegevens (Nederlandse toezichthouder)
Veelgestelde vragen
Wat is een deepfake volgens de EU AI Act?
Recital 134 van de Verordening definieert een deepfake als kunstmatig gegenereerde of gemanipuleerde beeld-, audio- of video-inhoud die "ten onrechte aan een persoon zou doen geloven dat deze authentiek of waarheidsgetrouw is". Realistische AI-portretten en gegenereerde voices van bestaande personen vallen er altijd onder. Cartoons en duidelijk gestileerde portretten niet.
Wat is het verschil tussen aanbieder en gebruiker onder Article 50?
Een aanbieder (provider) bouwt en distribueert het AI-systeem (OpenAI, Midjourney). Een gebruiker (deployer) zet het AI-systeem in om output te produceren of publiceren — dat ben jij als creator. §2 raakt aanbieders, §4 raakt gebruikers. Beide rollen kunnen overlappen, maar voor creator-content geldt vooral §4.
Mag ik AI gebruiken voor mijn bio-pagina?
Ja — Article 50 verbiedt geen AI-gebruik, het vereist transparantie wanneer disclosure relevant is. Voor de meeste bio-content (links, korte bio, bio-tekst) val je onder §2 (technische assistentie) of §4 (review-uitzondering). Avatars die jou realistisch nabootsen vereisen wél een label.
Moet ik mijn newsletter labellen als AI-gegenereerd?
Alleen als de tekst "het publiek informeert over kwesties van publiek belang" en je geen redactionele review hebt toegepast. Personal-newsletter content (lifestyle, persoonlijke updates, productupdates) valt doorgaans niet onder publiek belang. Journalistieke nieuwsbrieven die zonder review AI-content publiceren wél.
Geldt Article 50 alleen voor EU-bedrijven of ook voor creators buiten de EU?
Article 50 geldt voor providers en deployers waarvan de output in de EU beschikbaar is — ongeacht waar het bedrijf gevestigd is. Een Amerikaanse creator die in NL/DE/FR/BE volgers bedient en AI-gegenereerde content publiceert, valt onder de regels.
Wat als ik gewoon ChatGPT gebruik om een blogpost te schrijven en hem zelf nalees?
Dan val je onder de redactionele-review-uitzondering van §4. Doorlezen, aanpassen en publiceren onder eigen naam = compliant zonder labelplicht. Belangrijk: jouw review moet substantieel zijn (inhoudelijke aanpassingen, niet alleen typo-fixes), en jij draagt de redactionele verantwoordelijkheid.
Moet ik mijn AI-gegenereerde profielfoto labelen?
Als de foto realistisch oogt en jou (of iemand anders) nabootst, valt het onder §4 deepfake-regel — disclosure verplicht. Cartoons, abstracte avatars of duidelijk gestileerde portretten vallen niet onder de definitie van deepfake. Een korte vermelding "AI-portret" in de bio is voldoende.
Wat is een "Code of Practice" en moet ik die ondertekenen?
De Code of Practice on marking and labelling of AI-generated content is een vrijwillige tool die voorbeelden geeft van compliance-patronen. Voor individuele creators is ondertekenen niet aan de orde — de code richt zich op providers en grote deployers.
Welke AI-tools zijn al "AI Act compliant"?
Per mei 2026 hebben OpenAI, Anthropic, Google en Microsoft compliance-roadmaps gepubliceerd, met C2PA-watermarking als opkomende standaard. Midjourney en open-source modellen lopen achter — check vóór je een tool gebruikt of er een EU-compliance-roadmap is.
Kan ik gestraft worden als de tool die ik gebruik niet compliant is?
Nee — §2-verplichtingen gelden voor providers, niet voor jou als deployer. Maar als de tool geen machine-leesbare markers genereert, kan disclosure handmatig moeilijker worden. Indirect raakt het je workflow.
Geldt de uitzondering voor satire ook voor commerciële content?
Niet automatisch. De artistieke uitzondering vereist dat het werk "evident artistiek, creatief, satirisch of fictief" is. Een satirische advertentie kan eronder vallen, maar een commercieel filmpje met deepfake-elementen normaal niet — daar geldt de volle disclosure-plicht.
Hoe weet ik of mijn AI-tekst onder "publiek belang" valt?
Article 50 §4 zegt: tekst die "het publiek informeert over kwesties van publiek belang". Dat omvat journalistiek, politieke duiding, gezondheidsinformatie, regelgeving-updates. Productomschrijvingen, persoonlijke updates en lifestyle-content vallen er doorgaans buiten — maar als je twijfelt, voeg dan een korte "AI-assist gebruikt"-disclosure toe.
Klaar om je content compliant te maken vóór 2 augustus?
De makkelijkste route is je human-in-the-loop workflow vasthouden. Maak een gratis LinkDash-account aan en bouw je bio-pagina met AI-suggesties die jij reviewt — dan ben je per default compliant. Vragen over een specifieke content-situatie? Lees onze gids over GDPR-aspecten van AI-content.
Andreas
Oprichter van LinkDash
Klaar om te starten?
Maak gratis je eigen link-in-bio pagina met iDEAL, Wero en 100+ templates.
Start gratis