Europa scherpt AI-transparantie verder aan met concrete labelregels voor AI-content
De Europese Unie werkt aan concrete regels om AI-gegenereerde content te verplichten te labelen. Deze verplichting volgt uit transparantieverplichtingen in de AI Act en moet burgers helpen synthetische teksten, beelden, audio en video als zodanig te herkennen om desinformatie en manipulatie tegen te gaan. Grote platforms en ontwikkelaars van AI-systemen krijgen specifieke verantwoordelijkheden om deze transparantie praktisch te waarborgen.
De Europese Commissie heeft de eerste stappen gezet om de verplichtingen rond transparantie van AI-gegenereerde content concreet uit te werken. Dit komt voort uit de transparantieartikelen in de EU Artificial Intelligence Act (AI Act), een kaderwet die gericht is op het veilig, transparant en verantwoord gebruik van kunstmatige intelligentie binnen de EU.
Nieuwe gedragscode voor AI-labeling
Een van de belangrijkste initiatieven is de ontwikkeling van een Code of Practice on marking and labelling of AI-generated content. Dit is een gedragscode die als doel heeft om aanbieders en gebruikers van generatieve AI-systemen te helpen voldoen aan de transparantieverplichtingen uit artikel 50 van de AI Act.
Hoewel deze code in principe vrijwillig is, biedt ze praktische handvatten voor het markeren en detecteerbaar maken van AI-gegenereerde of gemanipuleerde inhoud. In de code wordt onder meer benadrukt dat outputs van AI-systemen zoals tekst, audio, beelden en video’s in machine-readable vorm moeten worden gemarkeerd zodat ze kunnen worden herkend als kunstmatig gegenereerd of gemanipuleerd. Dit moet helpen misleiding, bijvoorbeeld via deepfakes, tegen te gaan.
Transparantieverplichtingen volgens de AI Act
De transparantieartikelen in de AI Act vereisen al dat:
- gebruikers worden geïnformeerd wanneer zij communiceren met een AI-systeem (tenzij dat voor een redelijk geïnformeerde gebruiker duidelijk is);
- AI-generaties of manipulaties, zoals deepfakes of AI-teksten die het publiek informeren over publieke zaken, herkenbaar worden gemaakt.
Dit vormt de juridische basis voor het labelbeleid en legt verplichtingen op aan aanbieders en deployers van AI-systemen om duidelijkheid te scheppen over de aard van gegenereerde content.
Focus op detecteerbaarheid en metadata
Een opvallend onderdeel van de lopende voorstellen is dat alleen een zichtbaar label mogelijk niet volstaat. De plannen benadrukken het belang van technieken zoals onzichtbare watermarking of embedded metadata die het mogelijk maken AI-gegenereerde content te detecteren en te onderscheiden, óók wanneer die gedeeld of opnieuw gepubliceerd wordt.
Daarmee wordt niet alleen de zichtbaarheid voor eindgebruikers bedoeld, maar ook de mogelijkheid voor tools en platforms om automatisch de herkomst en aard van content te bepalen.
Impact op platforms en bedrijven
Grote platforms en aanbieders van generatieve AI-modellen krijgen een centrale rol in de uitvoering van deze transparantieregels. Zij moeten systemen bouwen die herkennen wanneer content door AI is gemaakt en ervoor zorgen dat deze informatie aan eindgebruikers wordt verstrekt: niet alleen visueel, maar ook in de machine-leesbare structuur van bestanden en metadata.
Hoewel de gedragscode voorlopig vrijwillig is, zal deze waarschijnlijk een belangrijke standaard vormen voor toezichthouders bij het beoordelen van naleving van de AI Act-verplichtingen.
Balans tussen transparantie en innovatie
Het verplicht etiketteren van AI-content roept technische en praktische vragen op. Vooral kleinere bedrijven waarschuwen dat het implementeren van geavanceerde detectie- en markeertechnieken kostbaar en complex kan zijn. Tegelijk benadrukt de EU dat transparantie cruciaal is om vertrouwen te behouden in digitale media en om de maatschappelijke impact van synthetische content , zoals desinformatie en manipulatie, beter te beheersen.
Vooruitblik
De transparantie- en labelingverplichtingen uit de AI Act worden vanaf augustus 2026 van kracht. In de aanloop daarnaartoe zal de gedragscode verder worden uitgewerkt en omgezet in praktische standaarden.
Met deze stappen positioneert Europa zich opnieuw als voortrekker in digitale regelgeving. De inzet is duidelijk: burgers moeten kunnen weten wanneer zij kijken naar menselijke creatie en/of wanneer een algoritme aan het werk was.

