Elon Musk's AI-chatbot Grok onderzocht vanwege AI-naaktbeelden

dinsdag, 13 januari 2026 (16:03) - FHM

In dit artikel:

De Britse mediawaakhond Ofcom is een officieel onderzoek gestart naar Grok, de AI-chatbot van Elon Musks xAI die geïntegreerd is in het sociale netwerk X. Aanleiding zijn massaal gegenereerde deepfake-naaktbeelden die door gebruikers met de beeldbewerkingsfunctie van Grok zijn gemaakt en gedeeld — vaak foto’s van echte personen zonder toestemming en soms zo expliciet dat Britse wetgevers vermoeden dat ze onder strafbare vormen van seksuele uitbuiting kunnen vallen. Premier Keir Starmer noemde de verspreiding recent “walgelijk en onwettig”.

Ofcom onderzoekt vooral of X heeft voldaan aan zijn verplichtingen onder de Britse Online Safety Act: platformen moeten gebruikers beschermen tegen schadelijke en illegale content. Grok kan niet alleen tekst genereren maar ook afbeeldingen analyseren en bewerken op basis van tekstprompts; die mogelijkheden zijn door sommige gebruikers misbruikt om niet-consensuele seksuele deepfakes te maken. X probeerde beperkingen in te voeren — onder meer door bepaalde beeldfuncties alleen voor betalende gebruikers aan te bieden — maar dat bleek onvoldoende, omdat veel problematische beelden al in grote aantallen waren gemaakt voordat strengere filters werden ingesteld.

De zaak illustreert het spanningsveld rond AI-gegenereerde beelden: de techniek zelf is niet per se illegaal en kent ook creatieve toepassingen (film, kunst, satire), maar kan ernstige schade toebrengen aan privacy, reputatie en emotioneel welzijn wanneer ze voor niet-consensuele seksueel getinte content wordt gebruikt. Regulators zoals Ofcom proberen nu juridische en technische kaders te ontwikkelen om die risico’s te beheersen: striktere wetgeving tegen niet-consensuele deepfakes, duidelijke verantwoordelijkheden voor AI-ontwikkelaars en betere beschermingsmaatregelen voor slachtoffers.

Op de korte termijn zullen AI-bedrijven naar verwachting sterkere filters en toezichtstechnieken implementeren; op de lange termijn zal samenloop van wetgeving, technologie en maatschappelijke normen bepalen hoe acceptabel en veilig het genereren van synthetische beelden blijft. Deepfakes verdwijnen niet, maar moeten volgens toezichthouders en beleidsmakers veel minder schadelijk worden.