Digitale haat bestrijden: binnen de Cyberhate Neutralization Hub

De snelle ontwikkeling van digitale communicatie heeft ongekende mogelijkheden gecreëerd voor informatie-uitwisseling, maar ook nieuwe vormen van grootschalige manipulatie mogelijk gemaakt. Een van de grootste bedreigingen voor de integriteit van online discours is de toenemende verfijning van geautomatiseerd en gecoördineerd onecht gedrag, vaak aangeduid als botactiviteit.

Waar bots vroeger relatief eenvoudig te herkennen waren aan herhalende berichten of afwijkende accountstatistieken, zijn ze door ontwikkelingen in generatieve AI, automatisering en netwerkstrategieën veel geavanceerder geworden. Kwaadwillende actoren kunnen menselijk gedrag nabootsen, narratieven variëren en hybride netwerken inzetten waarin bots worden gecombineerd met gehackte of gecoördineerde menselijke accounts.

Het detecteren van botcontent is daarmee niet langer alleen een technische uitdaging, maar een democratische noodzaak. Gecoördineerde botcampagnes kunnen de zichtbaarheid van schadelijke narratieven kunstmatig vergroten, het publieke debat vervormen, politieke processen beïnvloeden en de verspreiding van haat en desinformatie versnellen.

Botgedrag

Publicatiepatronen en timing zijn belangrijke indicatoren van botgedrag. Methoden zoals entropieanalyse helpen om patronen in datasets zichtbaar te maken. Daarnaast wordt vaak gekeken naar inhoudelijke gelijkenis tussen berichten, bijvoorbeeld via cosine similarity.

Toch maken recente AI-ontwikkelingen het makkelijker om variatie aan te brengen in berichten, waardoor detectie complexer wordt. Traditionele indicatoren, zoals de verhouding tussen volgers en gevolgde accounts, zijn bovendien niet altijd beschikbaar of moeilijk toegankelijk.

Tijdens recente verkiezingen in Nederland zagen we bijvoorbeeld dat ook echte accounts botachtig gedrag vertoonden. Tools maken het mogelijk om accounts te kapen of om met minimale middelen eigen botnetwerken op te zetten. Dit betekent dat detectie niet meer kan steunen op één of twee indicatoren, maar een combinatie van methoden vereist.

Geautomatiseerde detectie

In deze nieuwe fase van de Hub richten we ons op het identificeren van deze geavanceerde praktijken. Waar eerdere versies vooral gebruikmaakten van supervised machine learning op basis van accountdata, zijn we sinds 2025 overgestapt op gedragsanalyse via entropie, een snellere en platformonafhankelijke methode.

Daarnaast zetten we in op:

  • Netwerkanalyses om verspreidingspatronen en gecoördineerde campagnes zichtbaar te maken

  • Unsupervised learning om afwijkingen en mogelijke botindicatoren te detecteren

  • Clustering om gemeenschappen en netwerken te identificeren

  • Verrijking van data met metadata zoals hashtags, URL’s en entiteiten

Impact van botactiviteit

Met deze methoden brengen we het veranderende landschap van botgedrag en online manipulatie in kaart. Dit stelt ons in staat om beleidsmakers te informeren en effectievere beschermingsmaatregelen te ontwikkelen.

De Hub wordt ingezet om informatie-manipulatie op sociale media bloot te leggen, evenals politieke aanvallen en de offline gevolgen van gecoördineerde online campagnes.

Naarmate bottechnologieën zich verder ontwikkelen, moeten ook detectiemethoden meegroeien. Waar dergelijke campagnes vroeger vooral door goed gefinancierde actoren werden uitgevoerd, kunnen tegenwoordig ook kleinere groepen of individuen grootschalige invloed uitoefenen.

Het verbeteren van detectiecapaciteiten is essentieel voor het beschermen van democratische processen en het behouden van vertrouwen in digitale informatieomgevingen.


Previous
Previous

Digitale haat bestrijden: waarom bots ertoe doen

Next
Next

Jugdenschutz.net Report: September, 202