Duplicate content dækker over indhold, der er identisk eller så ens, at søgemaskiner opfatter det som den samme tekst på flere webadresser. På dansk kaldes det også duplikeret indhold eller dobbelt indhold. Det kan være hele sider, produktbeskrivelser, kategoritekster eller mindre tekstblokke, som optræder flere steder.
Problemet kan opstå internt på et website, hvis den samme side findes i flere versioner eller under flere adresser. Det kan også være eksternt, når samme eller næsten samme indhold findes på tværs af flere websites.
Begrebet handler altså ikke kun om direkte kopier. Også meget ens formuleringer, gentagne afsnit og næsten identiske sider kan falde ind under duplicate content.
Hvorfor enslydende indhold giver SEO-problemer
Når flere sider har samme eller næsten samme indhold, bliver det sværere for søgemaskiner at vurdere, hvilken side der bedst besvarer en søgning. Det skaber usikkerhed i indekseringen, altså processen hvor søgemaskinen finder, forstår og gemmer sider i sit indeks. Hvis signalerne er uklare, kan den vælge en mindre vigtig side frem for den, du egentlig vil have vist i søgeresultaterne. I nogle tilfælde bliver ingen af siderne stærke nok til at klare sig godt.
Det kan også føre til kanibalisering. Her konkurrerer dine egne sider mod hinanden om de samme søgninger, fordi de ligner hinanden for meget. I stedet for at samle styrken på én tydelig side, bliver relevans, interne links og brugerdata fordelt på flere URL’er. Resultatet er ofte lavere synlighed og mere svingende placeringer.
Samtidig påvirker det dit crawlbudget, som er den tid og de ressourcer søgemaskinen bruger på at gennemgå dit website. Hvis den bruger kræfter på mange næsten identiske sider, kan vigtigere sider blive opdaget eller opdateret senere. Enslydende indhold gør derfor ikke kun valget sværere for søgemaskinerne. Det svækker også de signaler, der ellers skulle hjælpe dine vigtigste sider frem.
Typiske årsager på websites
På mange websites opstår duplicate content uden, at nogen bevidst har kopieret en tekst. Den mest almindelige forklaring er teknisk skabte dubletter, hvor samme side kan vises i flere versioner. Det ses ofte ved URL-parametre til sortering, sporing eller intern søgning, så indholdet ligger på flere adresser. Det samme gælder filtre i webshops, hvor kombinationer af farve, størrelse eller pris skaber mange næsten identiske sider.
En anden typisk kilde er printversioner af artikler og produktsider, som gengiver det samme indhold i et særskilt format. Kategorisider kan også skabe dubletter, især når produkter optræder i flere kategorier, eller når sideinddeling og sortering genererer nye versioner med meget ens tekst. Her er problemet primært teknisk: Indholdet er ikke skrevet to gange, men publiceret på flere adresser.
Derudover findes den redaktionelle type, hvor indhold faktisk kopieres eller genbruges. Et klassisk eksempel er produkttekster, som bruges på tværs af mange produktsider eller kopieres direkte fra producenten. Det samme kan ske med byttesider, lokale landingssider eller korte kategoribeskrivelser, hvor kun få ord ændres. Forskellen er vigtig: Teknisk duplicate content skyldes struktur og opsætning, mens redaktionelle dubletter kommer af selve tekstproduktionen.
Intern duplikering og kopieret indhold fra andre sider
Duplicate content kan opstå både internt på dit eget website og eksternt på tværs af flere domæner. Intern duplikering sker typisk, når samme eller meget lignende tekst findes på flere undersider, kategorier, filtrerede visninger eller produktvarianter. Det gør det sværere for søgemaskiner at vurdere, hvilken side der bør vises i søgeresultaterne, og det kan svække den organiske synlighed.
Ekstern duplikering handler derimod om indhold, som findes på andre websites ud over dit eget. Det kan være kopierede produkttekster, genbrugte artikler eller indhold, der er syndikeret flere steder. Her skal søgemaskinen vælge en version, og det er ikke altid din side, der bliver prioriteret.
Plagiering nævnes ofte i samme sammenhæng, men i SEO er fokus først og fremmest konsekvensen for indeksering, relevans og rangering. Uanset om der er tale om egne gentagelser eller kopieret indhold fra andre sider, kan resultatet være, at de forkerte sider vises, eller at ingen af dem præsterer optimalt.
Sådan finder man problemerne
Det første tegn på duplicate content er ofte, at flere sider konkurrerer om den samme synlighed. Start med en simpel kontrol i søgemaskinen ved at søge på en unik sætning fra teksten i citationstegn. Vises den samme formulering på flere sider, er det et klart signal om dubletter eller meget ens indhold. Brug også en site:-søgning sammen med centrale tekstbidder eller sidetitler for at se, hvilke versioner af indholdet der er indekseret på domænet.
Næste skridt er at crawle sitet med et SEO-værktøj, der kan gennemgå alle URL’er systematisk. Her kan du typisk finde sider med ens titler, metabeskrivelser, overskrifter og meget lav tekstvariation. Det gør det lettere at opdage dubletter på tværs af kategorier, filter-sider, produktsider og paginering.
Supplér med data fra SEO-værktøjer, som viser kanoniske tags, indeksérbare sider og forholdet mellem interne links og URL-parametre. Se især efter flere adresser med næsten identisk indhold, for eksempel versioner med og uden parametre eller varianter skabt af sortering. Når du kombinerer søgeoperatorer, crawling og værktøjsdata, får du et præcist billede af, hvor problemet opstår, og hvilke sider der skal samles, omskrives eller afindekseres.
Løsninger der samler signalerne korrekt
Når flere sider ligner hinanden, handler det ikke kun om at undgå forvirring for søgemaskiner. Målet er at samle autoritet, relevans og indeksering på den rigtige version. Valget af løsning afhænger af, om siderne skal eksistere samtidig, om de har selvstændig værdi, og om brugeren stadig skal kunne besøge dem.
Canonical-tag bruges, når flere versioner skal være tilgængelige, men én side er den foretrukne. Tommelfingerregel: vælg canonical ved produktvarianter, sporingsparametre eller filtreringer, hvor indholdet er meget ens. 301-redirect er det rigtige valg, når en side er erstattet permanent og ikke længere bør stå alene. Tommelfingerregel: brug 301, når du vil sende både brugere og linkværdi videre til én ny eller samlet side.
Noindex passer, når en side må være tilgængelig for brugere, men ikke bør vises i søgeresultaterne. Det kan for eksempel være interne søgeresultater eller tynde filterkombinationer. Tommelfingerregel: brug noindex, når siden har funktionel værdi, men lav SEO-værdi. Indholdskonsolidering er bedst, når flere artikler eller landingssider konkurrerer om samme søgeintention. Her samler du det bedste indhold i én stærkere side og omdirigerer eller udfaser de svage versioner.
Et konkret eksempel er et webshop-produkt med farvefiltre, hvor flere adresser viser næsten samme vare: her er canonical ofte nok. Et andet scenarie er to blogindlæg om samme emne, hvor begge rangerer svagt: saml indholdet i én artikel og brug 301-redirect fra den udfasede side. Så bliver signalerne tydelige, og siden står stærkere.
Fejl mange begår i håndteringen
Et af de største problemer opstår, når flere signaler peger i hver sin retning. Mange sætter både noindex og canonical på samme side uden en klar strategi. Det kan gøre det uklart for søgemaskinerne, om siden skal udelukkes, eller om dens værdi skal samles et andet sted.
En anden klassisk fejl er at lade parameter-sider stå åbne til indeksering. Filtre, sortering og sporingsparametre kan hurtigt skabe mange næsten ens versioner af den samme side. Uden styring ender du med unødigt mange indekserbare sider og svagere signaler.
Forkerte redirects skaber også problemer. Hvis flere dubletter viderestilles i kæder eller til en side, der ikke matcher hensigten, bliver både brugeroplevelse og indeksering dårligere. Nogle forsøger desuden at “løse” duplicate content ved blot at omskrive få linjer. Det giver ofte kun tyndt indhold i stedet for en reel, stærk originalsidestruktur.
Hvornår er duplicate content et reelt problem?
Gentaget indhold er ikke automatisk skadeligt. Det bliver først et SEO-problem, når søgemaskiner har svært ved at vurdere, hvilken side der er den mest relevante version og derfor bør vises i søgeresultaterne.
Det sker typisk, hvis samme eller meget lignende tekst findes på flere webadresser uden tydelige signaler om prioritet. Så kan synlighed, interne signaler og linkværdi blive fordelt på flere sider i stedet for at samle sig ét sted. Resultatet er ofte lavere præcision i indeksering og rangering, ikke nødvendigvis en sanktion.
Spørgsmålet om Google-straf bliver ofte overdrevet. Google straffer som udgangspunkt ikke almindelig gentagelse, der opstår teknisk eller redaktionelt. Problemet opstår især, hvis indhold kopieres eller masseproduceres for at manipulere søgeresultaterne. I de fleste tilfælde handler det derfor mere om uklar prioritering end om en egentlig straf.
Ofte stillede spørgsmål om Duplicate content
Hvad er duplicate content i SEO?
Duplicate content er indhold, som er identisk eller meget ens på flere webadresser. Det kan ligge på samme website eller på tværs af forskellige domæner.
I SEO er problemet, at søgemaskinerne kan få svært ved at afgøre, hvilken version der skal indekseres og vises i søgeresultaterne. Det kan svække synligheden for de berørte sider.
Er duplicate content en Google-straf?
Som udgangspunkt nej. Duplicate content udløser normalt ikke en egentlig straf, hvis det skyldes tekniske forhold eller almindelig genbrug af indhold.
Problemet er i stedet, at Google kan vælge en anden side end den ønskede, eller fordele signalerne mellem flere sider. Sanktioner er især relevante, hvis indhold kopieres eller masseproduceres med et manipulerende formål.
Hvad er forskellen på intern og ekstern duplicate content?
Intern duplicate content er duplikeret indhold på samme website. Det kan for eksempel opstå via filter-URL’er, printversioner, produktvarianter eller flere kategorier med næsten samme tekst.
Ekstern duplicate content er indhold, der findes på flere forskellige websites. Det ses ofte ved kopierede produkttekster, genudgivne artikler eller indhold, der syndikeres flere steder.
Hvordan finder man duplicate content på et website?
En enkel metode er at søge på en unik sætning fra siden i citationstegn i Google. Du kan også bruge en site-søgning for at se, om flere URL’er viser den samme tekst eller meget lignende sidetitler.
Vil du arbejde mere systematisk, bør du crawle sitet med et SEO-værktøj. Her kan du finde dubletter i titler, overskrifter, metabeskrivelser og selve indholdet samt opdage parameter-sider og andre tekniske varianter.
Hvordan løser man duplicate content korrekt?
Løsningen afhænger af, hvorfor dubletterne findes. Hvis flere versioner skal eksistere, men én er den primære, bruger man typisk et canonical-tag. Hvis en side skal erstattes permanent, er en 301-redirect som regel det rigtige valg.
Hvis en side gerne må være tilgængelig for brugere, men ikke bør vises i søgeresultaterne, kan noindex være relevant. I redaktionelle tilfælde er den bedste løsning ofte at samle og forbedre indholdet på én stærk side i stedet for at have flere svage versioner.
Hvornår skal man bruge canonical-tag frem for 301-redirect?
Brug canonical-tag, når flere URL’er fortsat skal kunne tilgås, men du vil fortælle søgemaskinerne, hvilken version der er den foretrukne. Det er typisk relevant ved sporingsparametre, filtrering eller produktvarianter med næsten identisk indhold.
Brug 301-redirect, når en side ikke længere skal eksistere som selvstændig adresse. Her sender du både brugere og søgemaskiner videre til den rigtige side, og signalerne samles mere direkte.
Kan produkttekster skabe duplicate content?
Ja. Det er meget almindeligt, især i webshops. Problemet opstår ofte, når samme producenttekst bruges på mange produkter, eller når identiske beskrivelser går igen på tværs af flere butikker.
Det kan også ske internt, hvis flere produktvarianter eller kategorier har næsten den samme tekst. Unikke og mere specifikke produktbeskrivelser reducerer risikoen betydeligt.
Giver URL-parametre problemer med duplicate content?
Ja, det kan de gøre. URL-parametre til sortering, filtrering, sporing eller intern søgning kan skabe mange forskellige adresser med næsten samme indhold.
Hvis de sider kan indekseres uden styring, får søgemaskinerne flere versioner af den samme side at forholde sig til. Det løses ofte med canonical-tag, noindex eller en mere stram håndtering af, hvilke parameter-URL’er der må indekseres.
Er oversat indhold også duplicate content?
Normalt ikke, hvis indholdet er oversat til et andet sprog. Søgemaskiner opfatter ikke en dansk og en tysk version som duplikeret indhold i klassisk forstand, fordi sproget er forskelligt.
Problemer kan dog opstå, hvis flere sider på samme sprog kun er minimale variationer af hinanden, eller hvis internationale versioner ikke er teknisk markeret korrekt. Her er korrekt opsætning vigtig, så søgemaskinerne forstår forholdet mellem siderne.
Kan duplicate content påvirke indekseringen?
Ja. Når flere sider ligner hinanden meget, kan søgemaskinen vælge at indeksere en anden version end den, du foretrækker. I nogle tilfælde bliver den vigtigste side slet ikke den, der vises i søgeresultaterne.
Derudover kan mange dubletter betyde, at crawlressourcer bruges på mindre vigtige sider. Det kan forsinke opdagelsen og opdateringen af de URL’er, som faktisk bør prioriteres.