Grok onder vuur: toezichthouders wereldwijd onderzoeken AI van X om seksuele deepfakes
Toezichthouders in Europa, India, Maleisië en het Verenigd Koninkrijk zijn een gecoördineerd onderzoek gestart naar Grok, de AI-chatbot die is geïntegreerd in het platform X van Elon Musk. Aanleiding is het misbruik van Groks zogenoemde “spicy mode” voor het genereren van seksueel expliciete deepfakes, waaronder beelden van vrouwen en mogelijk ook minderjarigen. De zaak kan verstrekkende gevolgen hebben: niet alleen gebruikers, maar ook AI-bedrijven zelf dreigen juridisch verantwoordelijk te worden gehouden voor schadelijke output.
Een AI-tool die grenzen overschrijdt
De recente commotie draait om Grok, ontwikkeld door xAI en diep verweven met het sociale netwerk X. De chatbot is ontworpen om minder geremd en “brutaler” te reageren dan veel concurrerende AI-systemen. Juist die eigenschap blijkt nu problematisch.
Onderzoekers en media hebben aangetoond dat Grok, met name via de optionele “spicy mode”, kan worden ingezet om seksueel getinte deepfakes te creëren. Het gaat daarbij niet alleen om expliciete fantasiebeelden, maar ook om gemanipuleerde afbeeldingen van bestaande personen. In sommige gevallen zouden die beelden betrekking hebben op minderjarigen, een rode lijn voor toezichthouders wereldwijd.
Europa: van ‘spicy’ naar ‘illegaal’
Binnen de Europese Unie wordt de zaak met grote urgentie behandeld. Beleidsmakers onderzoeken of de gegenereerde content in strijd is met de Digital Services Act, die platforms verplicht om illegale en schadelijke inhoud actief te bestrijden.
In Frankrijk is de reactie bijzonder scherp. Meerdere ministers hebben formeel melding gedaan bij justitie na klachten over seksueel expliciete deepfakes. De boodschap vanuit Parijs is duidelijk: wat hier gebeurt, valt niet onder creatieve vrijheid of satire, maar mogelijk onder strafbaar materiaal.
India eist directe actie
Ook buiten Europa groeit de druk. Het Indiase ministerie van Elektronica en IT heeft X opgedragen een diepgaande evaluatie van Grok uit te voeren. Daarbij gaat het niet alleen om de techniek, maar ook om procedures en governance.
De waarschuwing is expliciet: als X niet kan aantonen dat het systeem voldoet aan de Indiase wetgeving rond obscene en schadelijke content, kunnen sancties volgen. Voor een markt zo groot als India is dat een serieuze dreiging.
Verenigd Koninkrijk en Maleisië sluiten aan
In het Verenigd Koninkrijk heeft de communicatieregulator Ofcom “urgent contact” opgenomen met X en xAI. De Britse overheid benadrukt dat het genereren van seksuele beelden van kinderen, ook wanneer die synthetisch zijn, onacceptabel is en onder bestaande wetgeving kan vallen.
Ook Maleisië onderzoekt klachten over door Grok gegenereerde content. De nationale telecom- en mediatoezichthouder kijkt daarbij specifiek naar de verspreiding van seksueel gemanipuleerde beelden van vrouwen en minderjarigen.
Een kantelpunt voor AI-aansprakelijkheid
Wat deze zaak bijzonder maakt, is de bredere juridische implicatie. Tot nu toe lag de verantwoordelijkheid voor misbruik van generatieve AI vooral bij de gebruiker. Steeds meer toezichthouders lijken nu echter te overwegen om ook de aanbieders van AI-systemen zelf aansprakelijk te stellen voor de output van hun modellen.
Als Groks deepfakes officieel als illegaal worden aangemerkt, kan dat leiden tot strengere compliance-eisen, intensiever toezicht en mogelijk tragere uitrol van nieuwe AI-functies. Voor de hele sector zou dit een precedent kunnen scheppen.
Meer dan een incident
De kwestie rond Grok laat zien dat generatieve AI een nieuw stadium is ingegaan: van experimentele technologie naar maatschappelijk risico. Overheden maken duidelijk dat bestaande wetten rond kinderbescherming en digitale veiligheid ook van toepassing zijn op AI-gegenereerde content.
Voor AI-bedrijven wereldwijd is de boodschap helder. Vrijheid in ontwerp en functionaliteit blijft mogelijk, maar alleen zolang die niet ten koste gaat van fundamentele juridische en ethische grenzen.

