Default
Door Remote - 26 Mar 2026
In het kort
Wikipedia verbiedt nu dat redacteuren grote taalmodellen gebruiken om artikelinhoud te genereren of te herschrijven.
Het beleid staat nog steeds beperkte, door AI ondersteunde redactie toe als redacteuren de wijzigingen beoordelen en er geen nieuwe inhoud wordt geïntroduceerd.
De regel weerspiegelt de groeiende bezorgdheid over hallucinaties, verzonnen bronnen en nauwkeurigheid in door AI gegenereerde tekst.
Wikipedia-redacteuren hebben maatregelen genomen om de manier waarop kunstmatige intelligentie op het platform kan worden gebruikt te beperken, in een recente beleidsupdate die het gebruik van grote taalmodellen verbiedt om artikelen te schrijven of te herschrijven.
De nieuwe richtlijn weerspiegelt de groeiende bezorgdheid binnen de Wikipedia-gemeenschap dat door AI gegenereerde tekst in strijd kan zijn met de standaarden van het platform, met name op het gebied van verifieerbaarheid en betrouwbare bronnen.
“Tekst gegenereerd door grote taalmodellen is vaak in strijd met verschillende kernbeleidslijnen van Wikipedia”, luidt de beleidsupdate. “Om deze reden is het gebruik van LLM’s om artikelinhoud te genereren of te herschrijven verboden, behalve de onderstaande uitzonderingen.”
Het beleid staat nog steeds een beperkt gebruik van AI-tools toe, inclusief het voorstellen van basiskopiebewerkingen aan het eigen schrijven van een redacteur, op voorwaarde dat het systeem geen nieuwe informatie introduceert. Redacteuren wordt echter geadviseerd deze suggesties zorgvuldig te beoordelen.
Hoewel het nieuwe beleid geen straffen vermeldt voor het gebruik van door AI gegenereerde inhoud, vormt herhaald misbruik volgens de Wikipedia-richtlijnen rond openbaarmaking een “patroon van verstorende bewerking” en kan dit leiden tot een blokkering of verbod. Wikipedia biedt redacteuren een manier om hun accounts te herstellen na een beroepsprocedure.
“Blokkingen kunnen worden teruggedraaid met instemming van de blokkerende beheerder, een opheffing door andere beheerders in het geval dat de blokkering duidelijk niet te rechtvaardigen was, of (in zeer zeldzame gevallen) in beroep bij de Arbitragecommissie”, aldus Wikipedia.
"De Wikimedia Foundation bepaalt niet het redactionele beleid en de richtlijnen op Wikipedia; vrijwillige redacteuren wel", vertelde een woordvoerder van de Wikimedia Foundation aan Decrypt. "De kracht van Wikipedia was en blijft het mensgerichte, door vrijwilligers aangestuurde model."
Volgens Emily M. Bender, hoogleraar taalkunde aan de Universiteit van Washington, kan het gebruik van taalmodellen in bewerkingstools redelijk zijn, maar kan het lastig zijn om een duidelijke grens te trekken tussen bewerken en het genereren van tekst.
“Een van de dingen die je met een taalmodel kunt doen, is bijvoorbeeld een zeer goede spellingcontrole bouwen”, vertelde Bender aan Decrypt. "Ik denk dat het redelijk is om te zeggen dat het prima is om een spellingcontrole uit te voeren over de bewerkingen. En als je een niveau hoger gaat, een grammaticacontrole, kan dat ook prima zijn."
Bender zei dat de uitdaging komt wanneer systemen verder gaan dan het corrigeren van grammatica en inhoud gaan veranderen of genereren, waarbij hij opmerkt dat grote taalmodellen het soort verantwoordelijkheid missen dat menselijke bijdragers aan collaboratieve kennisprojecten met zich meebrengen.
“Door gebruik te maken van grote taalmodellen om synthetische tekst te produceren, is het een fundamentele eigenschap van deze systemen dat er geen verantwoordelijkheid is, geen verband met wat iemand gelooft of waar iemand achter staat”, zei ze. "Als we spreken, spreken we op basis van wat we geloven en waarvoor we verantwoordelijk zijn, en niet op basis van een objectief waarheidsbegrip. En dat geldt niet voor grote taalmodellen."
Bender zei dat het wijdverbreide gebruik van door AI gegenereerde bewerkingen ook de reputatie van de site zou kunnen beïnvloeden.
“Als mensen in plaats daarvan sluiproutes nemen en iets maken dat op een Wikipedia-bewerking of artikel lijkt en dat daar plaatsen, dan verslechtert dat de algehele waarde en reputatie van de site”, zei ze.
Joseph Reagle, universitair hoofddocent communicatiestudies aan de Northeastern University, die de cultuur en het bestuur van Wikipedia bestudeert, zei dat de reactie van de gemeenschap een weerspiegeling is van al lang bestaande zorgen over nauwkeurigheid en sourcing.
“Wikipedia is op zijn hoede voor door AI gegenereerd proza”, vertelde Reagle aan Decrypt. "Ze nemen de nauwkeurige karakterisering van wat betrouwbare bronnen over een onderwerp zeggen serieus. AI heeft op dat front ernstige beperkingen gekend, zoals 'gehallucineerde' beweringen en verzonnen bronnen."
Reagle zei dat het kernbeleid van Wikipedia ook bepalend is voor de manier waarop redacteuren naar AI-tools kijken, waarbij hij opmerkt dat veel grote taalmodellen zijn getraind op Wikipedia-inhoud. In oktober zei de Wikimedia Foundation dat menselijke bezoeken aan Wikipedia jaar-op-jaar met ongeveer 8% daalden, omdat zoekmachines en chatbots steeds vaker antwoorden rechtstreeks op hun platforms geven, in plaats van gebruikers naar de site te sturen.
In januari kondigde de Wikimedia Foundation overeenkomsten aan met AI-bedrijven, waaronder Microsoft, Google, Amazon en Meta, waardoor ze Wikipedia-materiaal kunnen gebruiken via hun Enterprise-product, een commerciële dienst die is ontworpen voor grootschalig hergebruik van de inhoud ervan.
"Hoewel het gebruik van Wikipedia-inhoud is toegestaan door de licenties van Wikipedia, bestaat er nog steeds enige antipathie onder Wikipedianen over diensten die zich de inhoud van gemeenschappen toe-eigenen en vervolgens ongewenste eisen stellen aan die gemeenschappen om om te gaan met de daaruit voortvloeiende overvloed aan AI-slordig," zei Reagle.
Ondanks het verbod op het gebruik van LLM's staat Wikipedia AI-tools toe om artikelen uit andere taaledities naar het Engels te vertalen, op voorwaarde dat redacteuren de originele tekst verifiëren. Het beleid waarschuwt redacteuren ook om niet alleen te vertrouwen op de schrijfstijl om door AI gegenereerde inhoud te identificeren, maar zich in plaats daarvan te concentreren op de vraag of het materiaal voldoet aan het kernbeleid van Wikipedia en de bewerkingsgeschiedenis van de bijdrager.
“Sommige redacteuren hebben mogelijk vergelijkbare schrijfstijlen als LLM’s”, zegt de update. “Er is meer bewijs nodig dan alleen stilistische of taalkundige tekens om sancties te rechtvaardigen, en het is het beste om te overwegen of de tekst in overeenstemming is met het kerninhoudsbeleid en recente bewerkingen door de betreffende redacteur.”
Noot van de redactie: dit artikel is na publicatie bijgewerkt met commentaar van de Wikipedia Foundation.
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!
Wikipedia verbiedt nu dat redacteuren grote taalmodellen gebruiken om artikelinhoud te genereren of te herschrijven.
Het beleid staat nog steeds beperkte, door AI ondersteunde redactie toe als redacteuren de wijzigingen beoordelen en er geen nieuwe inhoud wordt geïntroduceerd.
De regel weerspiegelt de groeiende bezorgdheid over hallucinaties, verzonnen bronnen en nauwkeurigheid in door AI gegenereerde tekst.
Wikipedia-redacteuren hebben maatregelen genomen om de manier waarop kunstmatige intelligentie op het platform kan worden gebruikt te beperken, in een recente beleidsupdate die het gebruik van grote taalmodellen verbiedt om artikelen te schrijven of te herschrijven.
De nieuwe richtlijn weerspiegelt de groeiende bezorgdheid binnen de Wikipedia-gemeenschap dat door AI gegenereerde tekst in strijd kan zijn met de standaarden van het platform, met name op het gebied van verifieerbaarheid en betrouwbare bronnen.
“Tekst gegenereerd door grote taalmodellen is vaak in strijd met verschillende kernbeleidslijnen van Wikipedia”, luidt de beleidsupdate. “Om deze reden is het gebruik van LLM’s om artikelinhoud te genereren of te herschrijven verboden, behalve de onderstaande uitzonderingen.”
Het beleid staat nog steeds een beperkt gebruik van AI-tools toe, inclusief het voorstellen van basiskopiebewerkingen aan het eigen schrijven van een redacteur, op voorwaarde dat het systeem geen nieuwe informatie introduceert. Redacteuren wordt echter geadviseerd deze suggesties zorgvuldig te beoordelen.
Hoewel het nieuwe beleid geen straffen vermeldt voor het gebruik van door AI gegenereerde inhoud, vormt herhaald misbruik volgens de Wikipedia-richtlijnen rond openbaarmaking een “patroon van verstorende bewerking” en kan dit leiden tot een blokkering of verbod. Wikipedia biedt redacteuren een manier om hun accounts te herstellen na een beroepsprocedure.
“Blokkingen kunnen worden teruggedraaid met instemming van de blokkerende beheerder, een opheffing door andere beheerders in het geval dat de blokkering duidelijk niet te rechtvaardigen was, of (in zeer zeldzame gevallen) in beroep bij de Arbitragecommissie”, aldus Wikipedia.
"De Wikimedia Foundation bepaalt niet het redactionele beleid en de richtlijnen op Wikipedia; vrijwillige redacteuren wel", vertelde een woordvoerder van de Wikimedia Foundation aan Decrypt. "De kracht van Wikipedia was en blijft het mensgerichte, door vrijwilligers aangestuurde model."
Volgens Emily M. Bender, hoogleraar taalkunde aan de Universiteit van Washington, kan het gebruik van taalmodellen in bewerkingstools redelijk zijn, maar kan het lastig zijn om een duidelijke grens te trekken tussen bewerken en het genereren van tekst.
“Een van de dingen die je met een taalmodel kunt doen, is bijvoorbeeld een zeer goede spellingcontrole bouwen”, vertelde Bender aan Decrypt. "Ik denk dat het redelijk is om te zeggen dat het prima is om een spellingcontrole uit te voeren over de bewerkingen. En als je een niveau hoger gaat, een grammaticacontrole, kan dat ook prima zijn."
Bender zei dat de uitdaging komt wanneer systemen verder gaan dan het corrigeren van grammatica en inhoud gaan veranderen of genereren, waarbij hij opmerkt dat grote taalmodellen het soort verantwoordelijkheid missen dat menselijke bijdragers aan collaboratieve kennisprojecten met zich meebrengen.
“Door gebruik te maken van grote taalmodellen om synthetische tekst te produceren, is het een fundamentele eigenschap van deze systemen dat er geen verantwoordelijkheid is, geen verband met wat iemand gelooft of waar iemand achter staat”, zei ze. "Als we spreken, spreken we op basis van wat we geloven en waarvoor we verantwoordelijk zijn, en niet op basis van een objectief waarheidsbegrip. En dat geldt niet voor grote taalmodellen."
Bender zei dat het wijdverbreide gebruik van door AI gegenereerde bewerkingen ook de reputatie van de site zou kunnen beïnvloeden.
“Als mensen in plaats daarvan sluiproutes nemen en iets maken dat op een Wikipedia-bewerking of artikel lijkt en dat daar plaatsen, dan verslechtert dat de algehele waarde en reputatie van de site”, zei ze.
Joseph Reagle, universitair hoofddocent communicatiestudies aan de Northeastern University, die de cultuur en het bestuur van Wikipedia bestudeert, zei dat de reactie van de gemeenschap een weerspiegeling is van al lang bestaande zorgen over nauwkeurigheid en sourcing.
“Wikipedia is op zijn hoede voor door AI gegenereerd proza”, vertelde Reagle aan Decrypt. "Ze nemen de nauwkeurige karakterisering van wat betrouwbare bronnen over een onderwerp zeggen serieus. AI heeft op dat front ernstige beperkingen gekend, zoals 'gehallucineerde' beweringen en verzonnen bronnen."
Reagle zei dat het kernbeleid van Wikipedia ook bepalend is voor de manier waarop redacteuren naar AI-tools kijken, waarbij hij opmerkt dat veel grote taalmodellen zijn getraind op Wikipedia-inhoud. In oktober zei de Wikimedia Foundation dat menselijke bezoeken aan Wikipedia jaar-op-jaar met ongeveer 8% daalden, omdat zoekmachines en chatbots steeds vaker antwoorden rechtstreeks op hun platforms geven, in plaats van gebruikers naar de site te sturen.
In januari kondigde de Wikimedia Foundation overeenkomsten aan met AI-bedrijven, waaronder Microsoft, Google, Amazon en Meta, waardoor ze Wikipedia-materiaal kunnen gebruiken via hun Enterprise-product, een commerciële dienst die is ontworpen voor grootschalig hergebruik van de inhoud ervan.
"Hoewel het gebruik van Wikipedia-inhoud is toegestaan door de licenties van Wikipedia, bestaat er nog steeds enige antipathie onder Wikipedianen over diensten die zich de inhoud van gemeenschappen toe-eigenen en vervolgens ongewenste eisen stellen aan die gemeenschappen om om te gaan met de daaruit voortvloeiende overvloed aan AI-slordig," zei Reagle.
Ondanks het verbod op het gebruik van LLM's staat Wikipedia AI-tools toe om artikelen uit andere taaledities naar het Engels te vertalen, op voorwaarde dat redacteuren de originele tekst verifiëren. Het beleid waarschuwt redacteuren ook om niet alleen te vertrouwen op de schrijfstijl om door AI gegenereerde inhoud te identificeren, maar zich in plaats daarvan te concentreren op de vraag of het materiaal voldoet aan het kernbeleid van Wikipedia en de bewerkingsgeschiedenis van de bijdrager.
“Sommige redacteuren hebben mogelijk vergelijkbare schrijfstijlen als LLM’s”, zegt de update. “Er is meer bewijs nodig dan alleen stilistische of taalkundige tekens om sancties te rechtvaardigen, en het is het beste om te overwegen of de tekst in overeenstemming is met het kerninhoudsbeleid en recente bewerkingen door de betreffende redacteur.”
Noot van de redactie: dit artikel is na publicatie bijgewerkt met commentaar van de Wikipedia Foundation.
Dagelijkse debriefing NieuwsbriefBegin elke dag met de belangrijkste nieuwsverhalen van dit moment, plus originele artikelen, een podcast, video's en meer. Uw e-mail Download het! Download het!

