Crawl depth

Crawl depth
Henrik Andersen
-
23/03/2026
-

Hvad betyder crawl depth?

Crawl depth beskriver, hvor mange interne linktrin der er fra et valgt startpunkt til en bestemt side på et website. Jo færre trin en side ligger fra for eksempel forsiden eller en vigtig kategoriside, desto lavere er dens crawl depth. Ligger siden langt nede i strukturen, er crawl depth højere.

Begrebet er relevant i SEO, fordi søgemaskiners crawlere typisk finder og prioriterer sider via interne links. Sider med lav crawl depth er ofte lettere at opdage og crawle, mens dybere sider kan blive besøgt sjældnere. Det kan påvirke, hvor effektivt indhold bliver fundet og opdateret i søgemaskinens indeks.

Et nært beslægtet begreb er klikdybde, som handler om, hvor mange klik en bruger skal bruge for at nå en side. De to begreber overlapper ofte, men crawl depth tager udgangspunkt i crawlerens vej gennem interne links.

Informationskort om crawl depth: antal klik fra forsiden til en underside

Hvorfor dybde i sitearkitekturen betyder noget

Jo flere klik en side ligger fra forsiden eller andre stærke indgangssider, desto større er risikoen for, at søgemaskinernes crawlere finder den senere, sjældnere eller slet ikke. Det handler ikke kun om bekvemmelighed i navigationen, men om crawlability: Hvis vigtige sider ligger langt nede i strukturen, bliver de sværere at opdage og genbesøge. Det kan forsinke både crawling og indeksering.

Stor dybde påvirker også et websites crawl budget. Søgemaskiner bruger ikke ubegrænsede ressourcer på hvert site, så når crawlere skal igennem mange niveauer, filtreringssider eller svagt forbundne undersider, kan budgettet blive brugt på mindre vigtige URL’er. Resultatet er, at centrale sider crawles mindre effektivt. Hvis de samtidig har få interne links, bliver signalet om deres betydning svagere.

Et enkelt eksempel er en produktkategori, der kun kan nås via forside → hovedkategori → underkategori → filterside → produktside. Hvis produktsiden også mangler interne links fra relaterede kategorier eller populære sider, kan den blive nedprioriteret i crawlingen. Det kan betyde langsommere indeksering, færre opdateringer i søgeresultaterne og dermed lavere organisk synlighed for både siden og lignende sider.

Klikdybde, intern linkstruktur og indeksering

En side kan være let at finde for brugeren, men stadig blive crawlet sjældnere af søgemaskiner. Klikdybde er antallet af klik fra et udgangspunkt, typisk forsiden, til en given side. Crawl-dybde beskriver derimod, hvor langt søgemaskinens crawler faktisk bevæger sig gennem sitets links. Begreberne overlapper, fordi sider med høj klikdybde ofte også er sværere at nå for crawlere, men de er ikke identiske.

Intern linkstruktur handler om, hvordan sider forbinder til hinanden. Den påvirker både klikdybde, fordeling af intern autoritet og sandsynligheden for, at en side bliver opdaget og indekseret. Indeksering er næste trin: En side skal først kunne findes og crawles, før den kan vurderes til indekset. En lav klikdybde er derfor ofte en fordel, men den garanterer ikke indeksering.

URL-struktur er noget andet. Den beskriver, hvordan adressen er opbygget i mapper og niveauer, men den er ikke i sig selv det samme som dybde. En kort URL kan godt ligge dybt i den interne linkstruktur, og en lang URL kan være tilgængelig med få klik. Sitearkitektur er den brede ramme, som samler hierarki, navigation, interne links og indholdets placering.

Sådan måler du det i praksis

Den mest brugbare måde at vurdere crawl depth på er at crawle sitet med et værktøj, der viser, hvor mange klik der er fra forsiden til den enkelte side. I både Screaming Frog og Sitebulb kan du se sidernes klikniveauer og sortere efter de URL’er, der ligger dybt i strukturen. Som tommelfingerregel bør vigtige sider ikke gemme sig unødigt langt nede. Ligger centrale kategorier, produkter eller informationssider på klikniveau 4, 5 eller mere, er det ofte et tegn på, at den interne struktur kan forbedres.

Se derefter på antallet af interne links til hver side. Sider med få interne henvisninger er typisk sværere for både brugere og søgemaskiner at finde. En side kan godt have et acceptabelt klikniveau, men stadig være svagt understøttet, hvis den kun modtager ganske få interne links. Derfor bør du vurdere klikdybde og intern linkstyrke samlet, ikke hver for sig.

Begge værktøjer hjælper også med at finde orphan pages, altså sider uden interne links fra resten af sitet. De kan i praksis være usynlige for crawlere, selv om de eksisterer i XML-sitemaps eller får trafik fra andre kilder. Når du analyserer data, bør du især lede efter vigtige sider med høj klikdybde, lavt antal interne links og orphan-status. Det er netop de mønstre, der afslører problematiske sider og peger på, hvor navigation, intern linking eller informationsarkitektur skal justeres.

Hvilke sider bør ligge tæt på forsiden?

Prioritér de sider, der skaber mest værdi for både brugere og forretning. Jo vigtigere en side er for synlighed, konverteringer eller omsætning, desto færre klik bør der typisk være fra forsiden. Det gør dem lettere at finde for søgemaskiner og mere tilgængelige for besøgende.

Lad især kategorisider, centrale landingssider og de vigtigste kommercielle sider ligge lavt i strukturen. Har du et udvalg af produkter, bør de mest værdifulde produktsider ikke gemmes væk langt nede i hierarkiet. En kategori for “løbesko” eller en produktside for en topmodel er gode eksempler.

Giv også lav crawl depth til indhold, der understøtter salg eller efterspørgsel. Det kan være en central guide, som besvarer et vigtigt spørgsmål tidligt i kunderejsen. Gennemgå derfor navigation, interne links og brødkrummer, så dine vigtigste sider ligger tæt på forsiden og får tydelig intern prioritet.

Sådan reducerer du unødvendig gennemsøgningsdybde

Vigtige sider bør kunne nås hurtigt fra forside, hovedmenu og andre stærke indgange på sitet. En fladere informationsarkitektur gør det lettere for søgemaskiner at finde og prioritere indholdet. Gennemgå derfor navigationen og flyt centrale kategorier, produkter eller services tættere på de vigtigste menupunkter, når det giver mening. Brødkrummer hjælper også, fordi de skaber en tydelig intern sti tilbage til overordnede sider og samtidig tilfører ekstra interne links mellem niveauerne.

Hub-sider er et effektivt greb, når indholdet er spredt over mange undersider. En god hub samler beslægtede emner, kategorier eller produkttyper og linker videre til de vigtigste destinationssider. Det reducerer antallet af klik fra centrale indgange og gør strukturen lettere at forstå for både brugere og crawlere. Hub-sider fungerer især godt i store informationsuniverser, hvor emner ellers hurtigt bliver begravet dybt i hierarkiet.

Supplér den faste navigation med interne kontekstlinks i brødtekster, introduktioner og relaterede sektioner. De hjælper crawlere med at opdage vigtige sider uden kun at være afhængige af menuen. Link naturligt mellem nært beslægtede sider, og brug præcise ankertekster. Et XML-sitemap understøtter arbejdet ved at fremhæve de sider, du ønsker crawlet, men det kan ikke erstatte en stærk intern linkstruktur. robots.txt spiller også en støttende rolle ved at skærme uvigtige områder, så crawlbudgettet i højere grad bruges på sider, der faktisk skal findes og vurderes.

Typiske fejl og misforståelser

En udbredt misforståelse er, at alle sider med stor crawl depth automatisk er et SEO-problem. Det er ikke tilfældet. Nogle dybe sider, som filtrede kategorier eller ældre arkiver, behøver ikke høj prioritet, hvis de ikke er vigtige landingssider.

En anden fejl er at tro, at et XML-sitemap alene kan rette op på svag intern linkstruktur. Et sitemap kan hjælpe søgemaskiner med at finde URL’er, men det erstatter ikke tydelige interne links, som fordeler autoritet og gør vigtige sider lettere at nå.

Mange overser også orphan pages, altså sider uden interne links. De kan i nogle tilfælde findes via sitemap eller eksterne links, men de er stadig svære at opdage og prioritere korrekt.

Endelig forveksler nogle det at kunne crawles med det at blive indekseret. En side kan godt være teknisk tilgængelig for crawlere uden at blive optaget i indekset, hvis indholdet er tyndt, dubleret eller vurderes som lavt relevant.

Ofte stillede spørgsmål om Crawl depth

Hvad betyder crawl depth i SEO?

Crawl depth er antallet af interne linktrin fra et startpunkt på sitet, ofte forsiden, til en bestemt side. Jo færre trin der er, desto lettere er siden normalt at finde for søgemaskinernes crawlere.

I SEO bruges begrebet til at vurdere, om vigtige sider ligger for dybt i strukturen. Sider med høj crawl depth kan blive crawlet sjældnere og i nogle tilfælde indekseret langsommere.

Hvordan måler man crawl depth på et website?

Den mest praktiske metode er at crawle sitet med værktøjer som Screaming Frog eller Sitebulb. De viser typisk, hvor mange klik eller linkniveauer der er fra startsiden til hver URL.

Når du gennemgår data, bør du især se efter vigtige sider, der ligger på høje niveauer, og kombinere det med antal interne links. En side kan godt ligge relativt tæt på forsiden, men stadig være svagt understøttet internt.

Hvad er forskellen på crawl depth og klikdybde?

Klikdybde beskriver, hvor mange klik en bruger skal bruge for at nå en side. Crawl depth handler om, hvor langt en søgemaskinecrawler skal bevæge sig gennem interne links for at finde den samme side.

I praksis ligner de to begreber ofte hinanden, fordi god navigation og god intern linking hænger sammen. De er dog ikke helt det samme, fordi crawlere kan følge interne links på andre måder end den typiske brugerrejse.

Hvor stor crawl depth er acceptabel?

Der findes ikke én fast grænse, der gælder for alle websites. Som tommelfingerregel bør de vigtigste sider kunne nås med få linktrin, mens mindre vigtige arkiv-, filter- eller støttesider godt kan ligge dybere.

Hvis centrale kategorier, services eller landingssider først ligger på niveau 4, 5 eller længere nede, er det ofte værd at undersøge, om strukturen kan gøres mere direkte. Vurder altid dybden i forhold til sidens betydning for forretning og synlighed.

Påvirker crawl depth indeksering i Google?

Ja, crawl depth kan påvirke indeksering indirekte. Når en side ligger dybt i den interne struktur, kan den være sværere at finde og blive besøgt sjældnere af Googles crawlere.

Det betyder ikke, at dybe sider automatisk ikke bliver indekseret. Men hvis høj dybde samtidig kombineres med få interne links, svagt indhold eller mange tekniske forhindringer, øges risikoen for langsom eller manglende indeksering.

Hvordan reducerer man crawl depth?

Du reducerer crawl depth ved at forkorte vejen til vigtige sider. Det kan gøres ved at forbedre hovednavigationen, oprette hub-sider, tilføje relevante interne links og sikre, at centrale sider ikke kun er gemt væk i dybe underniveauer.

Brødkrummer og relaterede links kan også hjælpe, fordi de skaber flere interne stier til samme indhold. Målet er ikke at gøre hele sitet fladt, men at give de vigtigste sider en tydelig og kort vej gennem strukturen.

Er crawl depth det samme som URL-struktur?

Nej, crawl depth er ikke det samme som URL-struktur. URL-strukturen viser, hvordan adressen er opbygget, mens crawl depth handler om, hvor mange interne linktrin der er til siden.

En side kan godt have en kort og enkel URL, men stadig ligge dybt i sitearkitekturen. Omvendt kan en længere URL være let at nå, hvis den får tydelige interne links fra vigtige sider.

Hvilke sider bør have lav crawl depth?

De vigtigste sider bør ligge tæt på forsiden eller andre stærke indgangssider. Det gælder typisk kategorisider, centrale servicesider, vigtige landingssider og produkter eller indhold, der driver trafik, leads eller salg.

Sider med høj strategisk værdi bør ikke være afhængige af lange klikstier eller svage interne forbindelser. Jo vigtigere siden er, desto mere oplagt er det at holde crawl depth lav.

Hvordan finder jeg sider med for stor crawl depth?

Start med et crawl i et SEO-værktøj og sorter URL’erne efter klikniveau eller dybde. Derefter kan du sammenholde listen med dine vigtigste sider for at se, om noget centralt ligger længere nede, end det burde.

Det er også en god idé at kombinere dybdedata med interne links og orphan pages. Problemet er ofte størst på sider, der både ligger dybt, har få interne links og ikke indgår naturligt i navigationen.

Hvilke værktøjer kan analysere crawl depth?

Screaming Frog og Sitebulb er to af de mest brugte værktøjer til at analysere crawl depth. De kan vise linkniveauer, intern linkstruktur og ofte også hjælpe med at identificere orphan pages.

Derudover kan data fra Google Search Console og andre tekniske SEO-platforme bruges som supplement, men selve dybdemålingen bliver normalt mest konkret i et dedikeret crawler-værktøj.

Copyright 2026 - Pilanto Aps