Server logs

Server logs
Henrik Andersen
-
23/03/2026
-

Hvad er server logs?

Når nogen besøger et website, registrerer serveren automatisk en række oplysninger om det, der sker. Server logs er de logfiler, der gemmer disse hændelser løbende, så man kan se aktivitet over tid.

De kan blandt andet vise forespørgsler til sider og filer, besøg fra brugere og søgemaskiner samt fejl, svartider og andre tekniske hændelser. En logfil fungerer derfor som et historisk spor over, hvordan serveren og websitet bliver brugt.

Formålet er især overvågning, fejlfinding og analyse. Server logs hjælper med at opdage problemer, forstå trafikmønstre og dokumentere, hvad der er sket på serveren i en given periode.

Informationskort med begrebet serverlogge og kort forklaring af serverens logfiler

Hvad indeholder logfiler fra serveren?

En serverlog viser, hvad der er sket på serveren, linje for linje. Hver post rummer typisk et tidspunkt, en IP-adresse, den ønskede sti eller side, en brugeragent og en statuskode fra serveren. Det gør logfiler nyttige, når man vil forstå, hvordan både brugere og søgemaskiners crawlere besøger et website.

Et eksempel kan se sådan ud: [12/Mar/2026:09:14:22 +0100] 203.0.113.45 GET /kategori/teknisk-seo 200. Her viser tidspunktet, præcis hvornår anmodningen kom ind. IP-adressen peger på den enhed eller tjeneste, der kontaktede serveren. GET er typen af forespørgsel, mens stien fortæller, hvilken side eller fil der blev hentet. Statuskoden 200 betyder, at serveren leverede indholdet uden fejl.

Ofte står der også en brugeragent, for eksempel: Googlebot/2.1 eller en almindelig browser. Den fortæller, om besøget kom fra en søgemaskine, en mobiltelefon eller en desktopbrowser. Andre loglinjer kan indeholde 404, hvis en side ikke blev fundet, eller 500, hvis serveren havde en intern fejl. I nogle tilfælde ses også henviser, svartid, filstørrelse og korte fejlmeddelelser, som hjælper med fejlfinding og analyse.

Typer af logge og forskellen på adgangslog og fejllog

En webserver registrerer flere slags hændelser, og hver log har sit eget formål. De vigtigste er typisk adgangslog og fejllog, men i mange miljøer findes også systemlogge og applikationslogge. Tilsammen giver de et mere præcist billede af, hvad der sker på serveren, på websitet og i de bagvedliggende tjenester.

En adgangslog viser de forespørgsler, serveren modtager. Her kan man normalt se tidspunkt, IP-adresse, den ønskede URL, statuskode, metode og ofte brugeragent eller henviser. Den bruges især til at analysere crawl fra søgemaskiner, belastning, populære sider og tekniske mønstre i trafikken. En fejllog har et andet fokus. Den registrerer problemer, advarsler og fejl, for eksempel 500-fejl, timeout, manglende filer, scriptfejl eller fejl i serverkonfigurationen. Hvor adgangsloggen fortæller, hvad der blev anmodet om, fortæller fejlloggen, hvorfor noget gik galt.

Systemlogge ligger et niveau under webserveren og kan vise hændelser i operativsystem, netværk eller tjenester. Applikationslogge kommer fra selve CMS’et, webshoppen eller et andet program og er nyttige, når en fejl opstår i funktionaliteten frem for i serverlaget. I praksis bruges adgangsloggen til mønstre og adfærd, mens fejllog, systemlog og applikationslog bruges til fejlsøgning. Derfor læser man dem ofte sammen, ikke hver for sig.

Sådan bruges de til fejlfinding og overvågning

Logfiler giver et direkte indblik i, hvad der faktisk sker på serveren, når brugere og søgemaskiner besøger sitet. I praksis gør det dem til et af de mest præcise værktøjer til fejlfinding. Hvis mange forespørgsler pludselig ender med 404-fejl, kan du se præcis hvilke adresser der fejler, hvornår problemet opstår, og om det rammer bestemte sider, filer eller henvisninger. Det gør det lettere at rette interne links, genskabe vigtige sider eller opsætte relevante viderestillinger.

Ved mere alvorlige fejl, som 500-fejl, er loggen ofte det første sted, man finder mønstre. Her kan du se, om fejlen opstår i bestemte tidsrum, efter en opdatering eller kun ved bestemte typer forespørgsler. Det hjælper med at afgrænse, om årsagen ligger i serverkonfiguration, kode, database eller belastning. På samme måde kan pludselige problemer med svartid spores ved at sammenholde tidspunkter, ressourcer og antallet af forespørgsler.

Logfiler er også nyttige til løbende overvågning. Usædvanlig trafik, gentagne forsøg på adgang eller markante stigninger i crawlaktivitet kan opdages tidligt, før de udvikler sig til nedbrud eller ydelsesproblemer. Over tid viser loggene, hvordan serveren opfører sig i drift, og om fejl, svartider eller belastning ændrer sig. Det giver et bedre grundlag for både teknisk vedligeholdelse og SEO-arbejde.

Betydning for teknisk SEO og crawlaktivitet

Server logs giver et direkte indblik i, om Googlebot faktisk besøger sitet, og hvilke ressourcer der bliver hentet. Det er værdifuldt i teknisk SEO, fordi man ikke kun ser, hvad der bør kunne crawles, men hvad der reelt bliver anmodet om på serverniveau. Her kan man blandt andet identificere, hvilke sider, filer og sektioner Googlebot bruger tid på, og om vigtige landingssider bliver crawlet regelmæssigt.

Loganalyse kan også bruges til at vurdere, om crawlbudgettet bliver brugt hensigtsmæssigt. Hvis søgemaskinens bot ofte crawler filtrerede sider, parametre, dubletter eller andre lavværdissider, kan det være et tegn på, at crawlaktiviteten ikke er koncentreret om de vigtigste URL’er. Omvendt kan lav eller ujævn crawling af centrale sider pege på interne linkproblemer, svag prioritering eller tekniske barrierer. Logs viser ikke direkte, hvor meget crawlbudget et site har, men de kan dokumentere, hvordan Googlebot fordeler sine besøg i praksis.

Serverstatuskoder er et centralt spor i den vurdering. Mange 404-, 500- eller 503-svar kan hæmme crawling og påvirke indeksering negativt, især hvis fejl rammer vigtige sider. Også gentagne redirects eller uventede 304-svar kan være relevante at undersøge. Logfiler kan derimod ikke alene bevise, om en side bliver indekseret eller rangerer, men de kan tydeligt vise, om Googlebot når frem til siden, hvordan serveren svarer, og om der er tekniske mønstre, der står i vejen for effektiv crawling.

Hvor finder man serverens logfiler, og hvordan læser man dem?

Logfiler ligger som regel på selve serveren eller i et kontrolpanel, men den præcise placering afhænger af webserver, hostingmiljø og den konkrete opsætning. Nogle systemer gemmer adgangslogfiler og fejllogs hver for sig, mens andre samler dem i én løsning eller sender dem videre til et analyseværktøj. Derfor er første skridt altid at afklare, hvor loggene opbevares, og hvilket format de eksporteres i.

Når du har adgang til filerne, kan de åbnes i et tekstværktøj, et regneark eller et loganalyseprogram. Start med at se på de vigtigste felter: tidspunkt, URL, statuskode, brugeragent og IP-adresse. Det giver hurtigt et overblik over, hvilke sider der bliver crawlet, og om serveren svarer korrekt.

For at gøre materialet brugbart bør du filtrere det. Kig for eksempel efter bestemte bots, statuskoder som 200, 301, 404 og 500 eller besøg på særlige URL’er. Læs mønstrene frem for enkelte linjer. Mange gentagne fejl, tunge crawlspor eller uventede besøg på irrelevante sider kan pege på tekniske problemer eller spildt crawlbudget.

Opbevaring, filtrering og værktøjer til analyse

God håndtering af server logs begynder med en klar plan for, hvor længe data skal gemmes, og hvem der må få adgang. Opbevaringsperioden afhænger af formålet: drift, fejlsøgning, sikkerhedsovervågning og SEO kræver ikke altid samme tidshorisont. I praksis fastsættes perioden ofte ud fra forretningsbehov, interne sikkerhedskrav og gældende regler om databeskyttelse. Logrotation er vigtig, så filer ikke vokser ukontrolleret og belaster serverens lager eller ydeevne. Ældre logs kan komprimeres, arkiveres og flyttes til billigere, mere skalerbar lagring.

Filtrering gør analysen mere brugbar. I drift kan man sortere på statuskoder, svartider, fejl og bestemte tjenester. I SEO ser man ofte på søgemaskinecrawlere, crawl-frekvens, besøgte URL’er, responser og spildt crawlbudget. Det er samtidig god praksis at udelukke støj, for eksempel interne kald, kendte helsetjek og irrelevante bots, så datagrundlaget bliver renere.

Valg af værktøjer afhænger af datamængde og behov. Små miljøer kan klare sig med kommandolinjeværktøjer, regneark eller enkle logvisere, mens større organisationer typisk bruger centrale logstyringssystemer, søge- og analyseplatforme, dashboards samt SIEM-løsninger. Til SEO er værktøjer nyttige, når de kan segmentere bottrafik, sammenholde logs med crawl- og indekseringsdata og gøre mønstre synlige over tid.

Ofte stillede spørgsmål om Server logs

Hvad bruges server logs til?

Server logs bruges til at dokumentere, hvad der sker på en server over tid. De er centrale til fejlfinding, driftsovervågning, sikkerhed og analyse af trafik til website, applikationer og filer.

I praksis hjælper de med at finde fejl, opdage usædvanlig aktivitet og forstå, hvordan både brugere og søgemaskiner besøger sitet. Derfor er de vigtige i både drift og teknisk SEO.

Hvilke typer serverlogs findes der?

De mest almindelige typer er adgangslog og fejllog. Adgangsloggen viser forespørgsler til serveren, mens fejlloggen registrerer problemer, advarsler og tekniske fejl.

Dertil kan der også være systemlogge og applikationslogge. De bruges til at følge hændelser i operativsystemet eller i selve CMS’et, webshoppen eller andre programmer, der kører på serveren.

Hvordan læser man server logs?

Man starter typisk med de vigtigste felter i hver loglinje: tidspunkt, IP-adresse, URL eller filsti, metode, statuskode og brugeragent. Det giver et hurtigt billede af, hvem der har sendt forespørgslen, hvad der blev anmodet om, og hvordan serveren svarede.

Det vigtigste er ikke enkelte linjer, men mønstre. Mange 404-fejl, gentagne 500-svar eller hyppige besøg fra bestemte bots kan pege på problemer, der bør undersøges nærmere.

Hvor finder man server logs på en webserver?

Det afhænger af servertypen og hostingmiljøet. Logfiler ligger ofte på selve serveren i mapper til webserveren eller kan tilgås via hostingens kontrolpanel.

I nogle løsninger sendes logs videre til et centralt logsystem eller et analyseværktøj. Hvis du ikke kan finde dem direkte, er næste skridt normalt at tjekke serveropsætningen eller hostingleverandørens dokumentation.

Hvordan kan server logs bruges i teknisk SEO?

Server logs viser, om søgemaskiners crawlere faktisk besøger sitet, og hvilke URL’er de henter. Det gør dem nyttige, når man vil se, om vigtige sider bliver crawlet regelmæssigt, eller om crawlaktiviteten bruges på irrelevante sider, parametre eller dubletter.

De er også værdifulde til at opdage tekniske problemer, som påvirker crawling. Det gælder for eksempel mange 404-fejl, serverfejl, lange svartider eller uhensigtsmæssige redirects, som kan svække crawl og indeksering.

Hvad er forskellen på adgangslog og fejllog?

En adgangslog viser de forespørgsler, serveren modtager. Her ser man typisk tidspunkt, URL, statuskode, metode, IP-adresse og ofte brugeragent.

En fejllog fokuserer på det, der går galt. Den kan blandt andet vise serverfejl, scriptfejl, timeout og problemer i konfigurationen. Kort sagt viser adgangsloggen aktiviteten, mens fejlloggen hjælper med at forklare fejlårsagen.

Kan server logs vise, om Googlebot crawler sitet?

Ja, server logs kan vise, om forespørgsler kommer fra en brugeragent, der identificerer sig som Googlebot. De kan også vise, hvilke sider eller filer der er blevet anmodet om, hvornår det skete, og hvilken statuskode serveren returnerede.

Det er dog vigtigt at skelne mellem registreret crawl og faktisk indeksering. Loggen viser besøg på serverniveau, men den kan ikke alene bekræfte, om siden bagefter blev indekseret eller fik synlighed i søgeresultaterne.

Hvor længe bør man gemme serverlogs?

Det afhænger af formålet og af virksomhedens krav til drift, sikkerhed og databeskyttelse. Nogle gemmer logs i få uger til fejlfinding, mens andre har behov for flere måneders historik til sikkerhedsanalyse eller SEO-arbejde.

Det vigtigste er at have en fast politik for opbevaring, adgang og sletning. Logrotation og arkivering bør indgå, så filerne ikke fylder unødigt eller bliver svære at arbejde med.

Hvilke værktøjer bruges til loganalyse?

Til mindre mængder data kan man bruge tekstværktøjer, kommandolinje, regneark eller enkle logvisere. Det er ofte nok til at søge efter statuskoder, bestemte URL’er eller brugeragenter.

Ved større datamængder bruges typisk centrale logstyringssystemer og analyseplatforme med filtrering, søgning og visualisering. Til SEO er det især nyttigt med værktøjer, der kan segmentere bottrafik og gøre crawlmønstre tydelige over tid.

Copyright 2026 - Pilanto Aps