Icon

November 11, 2025

Duplicate content

Auteur:

Daan Coenen

Iedereen die met SEO bezig is, komt vroeg of laat in aanraking met het begrip duplicate content. Het klinkt technisch, maar in de praktijk draait het om iets heel menselijks: herhaling. Of beter gezegd, onbedoelde herhaling die je zichtbaarheid in Google ondermijnt.

Ik merk dat dit onderwerp vaak onnodig paniek veroorzaakt. Google straft je niet direct af, maar je verliest wel controle. In deze blog leg ik uit wat duplicate content precies is, waarom het ontstaat, en hoe ik het bij Rank Rocket structureel oplos voor klanten.

Wat betekent duplicate content?

Duplicate content is tekst of inhoud die (vrijwel) identiek is op meerdere pagina’s of websites. Dat kan intern zijn (binnen één domein) of extern (tussen verschillende websites). Denk aan dezelfde productomschrijving op drie URL’s, of aan een leverancierstekst die tientallen webshops gebruiken.

Het probleem zit niet in de tekst zelf, maar in de verwarring die het bij Google veroorzaakt. De zoekmachine moet kiezen welke versie de “echte” is. Als je dat niet zelf aanstuurt, kiest Google zélf, en dat is zelden de variant die jij het liefst bovenaan ziet.

Interne en externe varianten

Bij interne duplicate content ligt de oorzaak meestal in je eigen CMS. Een product dat in meerdere categorieën valt, dynamische URL-filters, of een archiefpagina die dezelfde tekst toont als de hoofdpagina.
Bij externe duplicate content gaat het vaak om leveranciers­teksten, persberichten of blogs die worden herplaatst op andere domeinen.

In beide gevallen geldt: als twee pagina’s dezelfde intentie hebben, concurreer je met jezelf. Je verdeelt je autoriteit en verspilt crawlbudget.

Wat doet Google met dubbele inhoud?

Google heeft geen handmatige straf voor duplicate content, maar het algoritme kiest één versie om te indexeren. De rest wordt gefilterd of genegeerd.
In feite bundelt Google signalen (zoals links en interactie) naar wat het beschouwt als de “canonical” versie. Als jij die niet expliciet hebt ingesteld, kan dat betekenen dat een verouderde of irrelevante pagina het wint.

Waarom dit voor mij een kernonderwerp is

Bij Rank Rocket werk ik veel met lokale SEO-projecten, zoals dakdekkerspagina’s per stad. Hier loop je snel tegen duplicate content aan: dezelfde dienst, ander gebied.
Door slim gebruik van LocalBusiness- en Organization-schema’s en kleine tekstuele nuances (zoals lokale voorbeelden en cijfers), houd ik elke pagina uniek zonder dat de inhoud geforceerd aanvoelt.

Ook bij rebrandings speelt duplicate content vaak op. Zo had ik eens een klant die van merk en domein wisselde. De oude merknaam bleef terugkomen in de organisatie-markup en in Google’s kennisvenster. Dat los je niet op met alleen een redirect, daar komt canonical-beheer en gestructureerde data bij kijken.

Hoe ik duplicate content oplos

  1. Audit en detectie
    Ik gebruik Screaming Frog, Sitebulb en Search Console om clusters van dubbele of bijna-gelijke pagina’s te vinden.
  2. Voorkeurs-URL bepalen
    De versie met de hoogste kwaliteit en relevantie wordt de canonical.
  3. Canonical-tag toevoegen
    Via
<link rel="canonical" href="https://www.rankrocket.nl/originele-pagina" />

vertel ik Google expliciet welke URL leidend is.

  1. Redirects en noindex toepassen
    Oude of tijdelijke varianten krijgen een 301-redirect. Filters of testpagina’s: noindex, follow.
  2. Controle en monitoring
    In Search Console check ik of Google mijn canonical ook daadwerkelijk respecteert.

Wanneer kies je voor welke aanpak?

  • Twee pagina’s met exact dezelfde intentie? Redirect.
  • Pagina’s met subtiele verschillen of filteropties? Canonical of noindex.
  • Artikel dat ook elders verschijnt? Cross-domain canonical naar jouw bron.
  • Internationale sites? Gebruik hreflang-sets en laat elke taalversie verwijzen naar de juiste canonical.

Belangrijk: blokkeer nooit met robots.txt als je ook een noindex-tag gebruikt. Dan kan Google de tag niet uitlezen, en blijft de oude versie juist hangen in de index.

De rol van crawlbudget en AI

Duplicate content heeft ook invloed op crawlbudget. Wanneer Googlebot onnodig veel tijd besteedt aan dubbele URL’s, blijft er minder budget over voor nieuwe of belangrijke pagina’s.
Bovendien gebruiken AI-systemen, van Google’s SGE tot ChatGPT-browsing, structured data en canonical-signalen om te bepalen welke bron als betrouwbaar geldt. Wie zijn site technisch op orde heeft, vergroot dus ook zijn zichtbaarheid in AI-zoekresultaten.

Mijn advies

Duplicate content is geen ramp, maar het is wel zonde. Je investeert in content, dus laat die waarde niet verdampen over meerdere URL’s.
Controleer regelmatig je site, gebruik canonical-tags bewust en voorkom dat filters, archieven of vertalingen je index vervuilen.

Unieke inhoud wint altijd. Zelfs bij lokale pagina’s of productvarianten kun je met kleine aanpassingen, een klantvoorbeeld, een lokale review of een specifiek probleem, een uniek signaal afgeven.

SEO is geen strijd tegen Google, maar een samenwerking met logica. En logica zegt: één onderwerp, één pagina, één duidelijke boodschap.

Op zoek naar hulp voor je SEO?

Neem gratis contact op en laten we samen kijken naar je website!

🚀 Gratis SEO scan

Krijg direct inzicht in de SEO kansen voor jou website.

Bedankt!
Er is iets mis gegaan.

Daan Coenen

Ik ben Daan Coenen, SEO-specialist en oprichter van Rank Rocket. Al meer dan zes jaar help ik bedrijven in Nederland en daarbuiten om duurzaam beter vindbaar te worden in Google, met strategie, techniek en content die écht werkt.