Nieuw onderzoek: generatieve AI helpt daders bij online kindermisbruik
Illustratief.

Nieuw onderzoek: generatieve AI helpt daders bij online kindermisbruik

Een nieuw internationaal onderzoek onder meer dan 20.000 mensen die online zochten naar beeldmateriaal van seksueel kindermisbruik laat zien dat generatieve AI een snel groeiende rol speelt bij het maken en verspreiden van die beelden. Ook blijkt dat een simpele maar goed geplaatste waarschuwing op het scherm sommige daders al aan het twijfelen kan brengen, zo melden kinderrechtenorganisatie Protect Children en de Britse online-toezichthouder Ofcom in een gezamenlijk rapport.

Wat het onderzoek precies laat zien over online misbruik

Protect Children en Ofcom analyseerden de antwoorden van 20.592 personen die op zoek waren naar kindermisbruikmateriaal. De uitkomst is weinig vrolijk, maar wel concreet. Een belangrijk signaal: vroege blootstelling aan porno en misbruikbeelden blijkt een grote risicofactor. Volgens het rapport had 65 procent van de ondervraagden voor hun achttiende porno gezien en 59 procent zelfs al kindermisbruikmateriaal. Veel van hen gaven aan dat hun eerste confrontatie met dit materiaal per ongeluk was, bijvoorbeeld via een link, pop-up of verkeerd zoekresultaat.

Het onderzoek laat ook zien hoe daders zich door het internet bewegen. Ze gebruiken zowel de zogeheten dark web – een afgeschermd deel van het internet dat je niet via normale zoekmachines vindt – als populaire open platforms die iedereen kent. Een derde van de ondervraagden vindt dat het moeilijker is geworden om aan dergelijk materiaal te komen in de afgelopen vijf jaar, 44 procent ziet geen verschil en bijna een kwart denkt juist dat het makkelijker is geworden. Oftewel: de strijd is volop gaande, maar beslist nog niet gewonnen.

Generatieve AI als nieuwe versneller – en wat wél werkt

Een van de meest zorgwekkende punten in het rapport is de rol van generatieve AI, de technologie achter tools die zelf beelden of tekst kunnen maken op basis van een opdracht. 35 procent van de respondenten zegt AI-gegenereerde misbruikbeelden (AI-CSAM) te hebben bekeken of gemaakt. De helft van die groep is zelfs betrokken bij het laten maken of produceren van zulke beelden om er geld aan te verdienen. Generatieve AI verandert het speelveld dus niet alleen technisch, maar ook economisch – op de minst wenselijke manier denkbaar.

Macrofoto van een oplichtende AI-chip op een printplaat, symbool voor on-device kunstmatige intelligentie in moderne smartphones.
Man, wat een creatieve AI plaat.

Er is ook een kleine, maar relevante lichtpuntje: goed ontworpen waarschuwingen in zoekresultaten kunnen gedrag beïnvloeden. 34 procent van de deelnemers herinnert zich een waarschuwingsbericht te hebben gezien tijdens het zoeken naar misbruikmateriaal. Een aanzienlijk deel daarvan zegt dat die boodschap hen aan het denken zette of hun gedrag daadwerkelijk veranderde.

Volgens Nina Vaaranen-Valkonen van Protect Children laat dat zien dat digitale interventies zin hebben: “Ons onderzoek benadrukt concrete mogelijkheden om het risico op grensoverschrijdend gedrag te verkleinen en de online veiligheid van kinderen te vergroten. We roepen op tot urgente actie om waarborgen te versterken, ‘safety-by-design’-principes te implementeren, effectieve moderatie uit te breiden en evidence-based digitale interventies in te zetten die misbruik voorkomen voordat het escaleert,” aldus Vaaranen-Valkonen in het rapport.

Ook vanuit politiek, opsporing en internettoezicht klinkt steun. De Britse minister Jess Phillips noemt het onderzoek in het rapport “een extra instrument om schade online en offline te voorkomen, slachtoffers en overlevenden te ondersteunen en daders achter de tralies te krijgen.” INTERPOL spreekt van “een ongekend inzicht in de psyche, werkwijzen en gedragingen van daders die zich op kinderen richten” en ziet de data als hulpmiddel voor politiediensten wereldwijd. Of in minder diplomatische techtaal: wie platforms bouwt of runt, kan zich nu echt niet meer verschuilen achter “we wisten het niet.”

Reacties

Nog geen reacties. Waarom begin je de discussie niet?

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.