Default
Door Remote - 08 Apr 2026
In het kort
OpenAI heeft zijn ‘Child Safety Blueprint’ gepubliceerd, waarin de seksuele uitbuiting van kinderen op basis van AI wordt aangepakt.
Het raamwerk richt zich op juridische hervormingen, sterkere rapportagecoördinatie en vangrails die in AI-systemen zijn ingebouwd.
Het voorstel is ontwikkeld met inbreng van kinderveiligheidsgroepen, procureurs-generaal en non-profitorganisaties.
Om de opkomst van door AI ondersteunde seksuele uitbuiting van kinderen aan te pakken, publiceerde OpenAI woensdag een beleidsblauwdruk waarin nieuwe veiligheidsmaatregelen worden geschetst die de industrie kan nemen om het gebruik van AI bij het creëren van materiaal over seksueel misbruik van kinderen te beteugelen.
In het raamwerk somt OpenAI juridische, operationele en technische maatregelen op die gericht zijn op het versterken van de bescherming tegen door AI mogelijk gemaakt misbruik en het verbeteren van de coördinatie tussen technologiebedrijven en onderzoekers.
“Seksuele uitbuiting van kinderen is een van de meest urgente uitdagingen van het digitale tijdperk”, schrijft het bedrijf. “AI verandert snel de manier waarop deze schade in de sector ontstaat en hoe deze op grote schaal kan worden aangepakt.”
OpenAI zei dat het voorstel feedback bevat van organisaties die zich bezighouden met kinderbescherming en onlineveiligheid, waaronder het National Center for Missing and Exploited Children en de Attorney General Alliance en zijn AI-taskforce.
“Generatieve AI versnelt de misdaad van online seksuele uitbuiting van kinderen op zeer verontrustende manieren: het verlaagt de barrières, vergroot de schaal en maakt nieuwe vormen van schade mogelijk”, zegt Michelle DeLaune, president en CEO van het National Center for Missing & Exploited Children, in een verklaring. “Maar tegelijkertijd wordt het National Center for Missing & Exploited Children aangemoedigd om bedrijven als OpenAI te zien nadenken over hoe deze tools op een verantwoordere manier kunnen worden ontworpen, met vanaf het begin ingebouwde waarborgen.”
OpenAI zei dat het raamwerk wettelijke normen, sectorrapportagesystemen en technische waarborgen binnen AI-modellen combineert. Het bedrijf zegt dat deze maatregelen tot doel hebben exploitatierisico's eerder te identificeren en de verantwoording op online platforms te verbeteren.
De blauwdruk identificeert actiegebieden, waaronder het bijwerken van wetten om door AI gegenereerd of gewijzigd materiaal over seksueel misbruik van kinderen aan te pakken, het verbeteren van de manier waarop onlineaanbieders misbruiksignalen melden en samenwerken met onderzoekers, en het inbouwen van waarborgen in AI-systemen die zijn ontworpen om misbruik te voorkomen.
“Geen enkele interventie kan deze uitdaging alleen aanpakken”, schreef het bedrijf. “Dit raamwerk brengt juridische, operationele en technische benaderingen samen om risico’s beter te identificeren, reacties te versnellen en verantwoording te ondersteunen, terwijl ervoor wordt gezorgd dat handhavingsautoriteiten sterk blijven naarmate de technologie evolueert.”
De blauwdruk komt omdat voorstanders van kinderveiligheid hun bezorgdheid hebben geuit over het feit dat generatieve AI-systemen die realistische beelden kunnen produceren, kunnen worden gebruikt om gemanipuleerde of synthetische afbeeldingen van minderjarigen te maken. In februari riep UNICEF wereldregeringen op om wetten aan te nemen die door AI gegenereerd kindermisbruikmateriaal strafbaar stellen.
In januari is de Europese Commissie een formeel onderzoek gestart naar de vraag of X, voorheen bekend als Twitter, de digitale regels van de EU heeft overtreden door er niet in te slagen te voorkomen dat het eigen AI-model van het platform, Grok, illegale inhoud genereert, aangezien toezichthouders in het Verenigd Koninkrijk en Australië ook onderzoeken hebben geopend.
OpenAI merkte op dat wetten alleen de plaag van door AI gegenereerd misbruikmateriaal niet zullen stoppen en zei dat sterkere industriestandaarden nodig zullen zijn naarmate AI-systemen capabeler worden.
“Door uitbuitingspogingen eerder te onderbreken, de kwaliteit van de signalen naar de rechtshandhaving te verbeteren en de verantwoordelijkheid in het hele ecosysteem te versterken, heeft dit raamwerk tot doel schade te voorkomen voordat deze zich voordoet en een snellere bescherming van kinderen te helpen garanderen wanneer risico’s zich voordoen”, aldus OpenAI.
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!
OpenAI heeft zijn ‘Child Safety Blueprint’ gepubliceerd, waarin de seksuele uitbuiting van kinderen op basis van AI wordt aangepakt.
Het raamwerk richt zich op juridische hervormingen, sterkere rapportagecoördinatie en vangrails die in AI-systemen zijn ingebouwd.
Het voorstel is ontwikkeld met inbreng van kinderveiligheidsgroepen, procureurs-generaal en non-profitorganisaties.
Om de opkomst van door AI ondersteunde seksuele uitbuiting van kinderen aan te pakken, publiceerde OpenAI woensdag een beleidsblauwdruk waarin nieuwe veiligheidsmaatregelen worden geschetst die de industrie kan nemen om het gebruik van AI bij het creëren van materiaal over seksueel misbruik van kinderen te beteugelen.
In het raamwerk somt OpenAI juridische, operationele en technische maatregelen op die gericht zijn op het versterken van de bescherming tegen door AI mogelijk gemaakt misbruik en het verbeteren van de coördinatie tussen technologiebedrijven en onderzoekers.
“Seksuele uitbuiting van kinderen is een van de meest urgente uitdagingen van het digitale tijdperk”, schrijft het bedrijf. “AI verandert snel de manier waarop deze schade in de sector ontstaat en hoe deze op grote schaal kan worden aangepakt.”
OpenAI zei dat het voorstel feedback bevat van organisaties die zich bezighouden met kinderbescherming en onlineveiligheid, waaronder het National Center for Missing and Exploited Children en de Attorney General Alliance en zijn AI-taskforce.
“Generatieve AI versnelt de misdaad van online seksuele uitbuiting van kinderen op zeer verontrustende manieren: het verlaagt de barrières, vergroot de schaal en maakt nieuwe vormen van schade mogelijk”, zegt Michelle DeLaune, president en CEO van het National Center for Missing & Exploited Children, in een verklaring. “Maar tegelijkertijd wordt het National Center for Missing & Exploited Children aangemoedigd om bedrijven als OpenAI te zien nadenken over hoe deze tools op een verantwoordere manier kunnen worden ontworpen, met vanaf het begin ingebouwde waarborgen.”
OpenAI zei dat het raamwerk wettelijke normen, sectorrapportagesystemen en technische waarborgen binnen AI-modellen combineert. Het bedrijf zegt dat deze maatregelen tot doel hebben exploitatierisico's eerder te identificeren en de verantwoording op online platforms te verbeteren.
De blauwdruk identificeert actiegebieden, waaronder het bijwerken van wetten om door AI gegenereerd of gewijzigd materiaal over seksueel misbruik van kinderen aan te pakken, het verbeteren van de manier waarop onlineaanbieders misbruiksignalen melden en samenwerken met onderzoekers, en het inbouwen van waarborgen in AI-systemen die zijn ontworpen om misbruik te voorkomen.
“Geen enkele interventie kan deze uitdaging alleen aanpakken”, schreef het bedrijf. “Dit raamwerk brengt juridische, operationele en technische benaderingen samen om risico’s beter te identificeren, reacties te versnellen en verantwoording te ondersteunen, terwijl ervoor wordt gezorgd dat handhavingsautoriteiten sterk blijven naarmate de technologie evolueert.”
De blauwdruk komt omdat voorstanders van kinderveiligheid hun bezorgdheid hebben geuit over het feit dat generatieve AI-systemen die realistische beelden kunnen produceren, kunnen worden gebruikt om gemanipuleerde of synthetische afbeeldingen van minderjarigen te maken. In februari riep UNICEF wereldregeringen op om wetten aan te nemen die door AI gegenereerd kindermisbruikmateriaal strafbaar stellen.
In januari is de Europese Commissie een formeel onderzoek gestart naar de vraag of X, voorheen bekend als Twitter, de digitale regels van de EU heeft overtreden door er niet in te slagen te voorkomen dat het eigen AI-model van het platform, Grok, illegale inhoud genereert, aangezien toezichthouders in het Verenigd Koninkrijk en Australië ook onderzoeken hebben geopend.
OpenAI merkte op dat wetten alleen de plaag van door AI gegenereerd misbruikmateriaal niet zullen stoppen en zei dat sterkere industriestandaarden nodig zullen zijn naarmate AI-systemen capabeler worden.
“Door uitbuitingspogingen eerder te onderbreken, de kwaliteit van de signalen naar de rechtshandhaving te verbeteren en de verantwoordelijkheid in het hele ecosysteem te versterken, heeft dit raamwerk tot doel schade te voorkomen voordat deze zich voordoet en een snellere bescherming van kinderen te helpen garanderen wanneer risico’s zich voordoen”, aldus OpenAI.
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!

