Cloaking

Cloaking
Henrik Andersen
-
23/03/2026
-

Hvad er cloaking?

I SEO betyder cloaking, at en side viser ét indhold til søgemaskinen og et andet til brugeren. Formålet er typisk at få siden til at rangere bedre på søgninger, uden at den besøgende ser det samme indhold som søgemaskinens crawler.

Metoden bruges til at skjule tekst, søgeord eller hele versioner af en side. Det kan for eksempel ske ved, at søgemaskinen får en optimeret tekst, mens brugeren møder en anden side, et andet budskab eller et mere salgspræget indhold.

Cloaking betragtes som en vildledende praksis, fordi søgemaskine og bruger ikke får den samme oplevelse. Derfor er det i strid med de fleste søgemaskiners retningslinjer og kan føre til tab af placeringer eller fjernelse fra søgeresultatet.

Informationskort om cloaking som vildledende SEO-teknik i søgemaskiner

Sådan fungerer maskering af indhold

Maskering opstår, når en server bevidst leverer forskellige versioner af samme side afhængigt af, hvem der anmoder om den. Systemet vurderer typisk besøget ud fra brugeragent, IP-adresse eller andre tekniske signaler i anmodningen. Hvis anmodningen kommer fra en søgemaskines crawler, kan serveren sende en teksttung version med særlige søgeord, mens almindelige brugere ser en anden side med andet indhold, flere annoncer eller et helt andet emne.

Teknisk sker det i serverlogik, scripts eller mellemsoftware, før siden bliver vist i browseren. Et konkret eksempel er, at serveren læser feltet for brugeragent og genkender kendte crawlere. Derefter returnerer den HTML med ét sæt overskrifter og brødtekst til crawling og senere indeksering, men sender en anden HTML til menneskelige besøgende. Et andet eksempel er IP-baseret levering, hvor anmodninger fra bestemte IP-intervaller, som forbindes med søgemaskiner, får særskilt indhold.

Formålet er ofte at påvirke, hvad søgemaskiner registrerer under crawling, uden at vise det samme til brugerne. Det er netop forskellen i serverrespons, der gør cloaking problematisk: crawlere vurderer én version, mens besøgende møder en anden. Derfor betragtes metoden som vildledende i SEO-sammenhæng.

Hvorfor praksissen bryder søgemaskinernes retningslinjer

Når en side viser ét indhold til søgemaskiner og noget andet til brugeren, bliver søgeresultatet i praksis manipuleret. Det er netop derfor, cloaking betragtes som spam og en klassisk black hat-metode. Søgemaskiner vurderer sider ud fra det materiale, de kan crawle og forstå. Hvis den version ikke svarer til det, mennesker faktisk møder, bliver både vurderingen og rangeringen misvisende.

I Google Search Essentials beskrives det overordnet som et brud på kravet om, at indhold ikke må være vildledende eller designet til at omgå søgesystemernes normale vurdering. Cloaking skjuler den reelle brugeroplevelse og gør det svært for søgemaskinen at afgøre, hvad siden faktisk tilbyder. Det undergraver relevans, fordi en side kan opnå placeringer på et grundlag, som almindelige besøgende aldrig ser.

Praksissen skader også tilliden i økosystemet. Brugere forventer, at en titel, et uddrag og en placering i søgeresultaterne afspejler det indhold, de klikker ind på. Når det ikke sker, svækkes tilliden til både siden og søgemaskinen. Samtidig bliver konkurrencen unfair, fordi sider, der følger reglerne, kan blive fortrængt af sider, der manipulerer signalerne.

Konsekvenser for synlighed og placeringer

Når søgemaskiner registrerer cloaking, kan følgerne være både hurtige og alvorlige. Den mildeste konsekvens er ofte faldende placeringer på enkelte søgeord eller landingssider, men i mere alvorlige tilfælde kan et helt website miste store dele af sin organiske synlighed. Det rammer typisk trafik, leads og omsætning direkte.

Algoritmiske konsekvenser opstår, når søgemaskinens systemer vurderer, at indholdet er manipulerende eller vildledende. Her sker der normalt ikke en direkte besked til ejeren. I stedet kan sider miste relevanssignaler, falde i ranking eller få reduceret deres mulighed for at blive vist bredt i søgeresultaterne. Nogle sider bliver også afindekseret, hvis søgemaskinen ikke længere stoler på det viste indhold.

Manuelle handlinger er mere direkte. Her har en medarbejder hos søgemaskinen vurderet, at websitet bryder retningslinjerne, og der kan komme en tydelig meddelelse i webmasterværktøjet. Konsekvensen kan være alt fra delvis nedgradering til fuld afindeksering. Selv efter rettelser kan genopretning tage tid, fordi tilliden til domænet ofte er svækket.

Cloaking, skjult tekst og sneaky redirects

Flere teknikker forsøger at vise søgemaskiner og brugere forskellige versioner af samme indhold, men de er ikke det samme. Cloaking er den mest direkte form for forskelsbehandling: Søgemaskinen får én version, mens den menneskelige besøgende ser en anden. Et typisk eksempel er en side, der viser søgeordsfyldt tekst til crawlere, men en salgsside eller et helt andet emne til brugeren.

Skjult tekst er snævrere i metode. Her ligger indholdet på selve siden, men gøres usynligt eller svært at se, for eksempel med tekst i samme farve som baggrunden, meget lille skrift eller placering uden for skærmen. Formålet er ofte at presse ekstra søgeord ind uden at påvirke det synlige design. Ved cloaking er forskellen, at versionerne kan være helt forskellige, ikke bare delvist skjulte.

Dørsider er særskilte sider lavet til at rangere på bestemte søgninger og derefter lede brugeren videre til en anden side. De er ikke nødvendigvis cloaking, fordi både søgemaskine og bruger ofte ser den samme tynde mellemside først. Sneaky redirects ligger tættere på cloaking: Brugeren sendes et andet sted hen, end søgemaskinen forventer. Eksempelvis kan Google se en tekstside, mens brugeren straks viderestilles til en annonceside. Kort sagt: skjult tekst skjuler elementer, dørsider omdirigerer via særskilte landingssider, og cloaking handler om forskellige versioner til forskellige modtagere.

Sådan opdager du problemet i praksis

Det første tegn er ofte en forskel mellem det, en almindelig besøgende ser, og det en søgemaskine sandsynligvis får leveret. Start derfor med at sammenligne siden som bruger og som crawler. Se både på den synlige visning i browseren, den færdigrenderede version og den rå kildekode. Hvis overskrifter, brødtekst, links eller strukturerede data ændrer sig markant mellem visningerne, er det et klart faresignal.

Kontrollér derefter, hvordan siden reagerer på forskellige brugeragenter. En legitim tilpasning kan være mindre forskelle til mobil og computer, men indholdets kerne bør være den samme. Hvis en søgemaskine-bot får ekstra tekst, skjulte nøgleord eller andre interne links, mens brugeren ser noget helt andet, peger det mod cloaking. Det gælder også, hvis serveren returnerer forskellig HTML afhængigt af, hvem der anmoder om siden.

Vær også opmærksom på indirekte tegn. Uventede spring mellem cachet indhold, søgeresultatets uddrag og den faktiske landingsside kan afsløre problemet. Det samme kan sider, der kun viser fuldt indhold for bestemte bots, men sender brugere videre, skjuler tekst eller indlæser en anden version efter rendering. Jo flere af disse signaler der optræder samtidig, desto stærkere er mistanken.

Typiske misforståelser og lovlige variationer

Ikke alle forskelle mellem det, brugeren ser, og det, søgemaskinen crawler, er cloaking. Det afgørende er formålet. Hvis variationen skyldes en legitim tilpasning og ikke har til hensigt at manipulere placeringer eller skjule andet indhold for søgemaskiner, er den normalt acceptabel.

Personalisering kan for eksempel være lovlig, når en side viser lokale tilbud, sprogversioner eller anbefalinger ud fra brugerens adfærd. Det samme gælder geolokation, hvis kerneindholdet fortsat er det samme, og siden ikke viser søgemaskiner en optimeret version, som almindelige brugere aldrig møder. Tilpasning til mobil og desktop er også normalt i orden, så længe budskab, emne og væsentligt indhold svarer til hinanden.

A/B-test er en anden gråzone, men den er som udgangspunkt legitim, når forskellige versioner vises tilfældigt til brugere for at teste design, overskrifter eller konvertering. Problemet opstår først, hvis søgemaskiner systematisk får én særlig tekst, mens brugere ser noget væsentligt andet. Kort sagt: Forskelle er acceptable, når de forbedrer oplevelsen uden at bedrage.

Sådan fjerner og forebygger man det

Stop først al forskelsbehandling af brugere og søgemaskiner, så samme indhold, links og metadata vises til begge. Gennemgå derefter sidens kilde, serveropsætning og CMS for at finde årsagen. Se især efter regler i .htaccess, redirects, user-agent-betingelser, JavaScript, plugins og tredjepartskode, som kan udløse skjult eller ændret indhold.

Når fejlen er fundet, skal den fjernes helt frem for at blive lappet midlertidigt. Opdater eller afinstaller udvidelser, ret serverregler, og fjern scripts eller integrationer, der indsætter andet indhold for bestemte besøgende. Test bagefter siden med almindelig browser og søgemaskinens rendering, så du kan bekræfte, at resultatet er ens.

For at forebygge nye brud bør man indføre faste kontroller ved ændringer på sitet. Brug versionsstyring, log ændringer i plugins og temaer, og gennemgå tredjepartskode, før den sættes i drift. Enkle procedurer og regelmæssige tekniske eftersyn reducerer risikoen markant.

Ofte stillede spørgsmål om Cloaking

Hvad er cloaking i SEO?

Cloaking er en metode, hvor en hjemmeside viser ét indhold til søgemaskinens crawler og et andet til almindelige besøgende. Det bruges typisk for at påvirke placeringer i søgeresultaterne uden at vise brugeren det samme indhold.

Det regnes som en vildledende SEO-praksis, fordi søgemaskinen vurderer en anden version af siden end den, brugeren faktisk møder.

Hvorfor er cloaking imod Googles retningslinjer?

Cloaking er imod Googles retningslinjer, fordi det manipulerer den måde, indhold vurderes og rangeres på. Google forventer, at det indhold, der crawles og indekseres, i det væsentlige svarer til det, brugeren ser.

Når søgemaskinen får en kunstigt optimeret version, mens brugeren lander på noget andet, bliver søgeresultatet misvisende. Det betragtes som spam og kan udløse sanktioner.

Hvordan opdager Google cloaking?

Google kan opdage cloaking ved at sammenligne den version, crawleren modtager, med den version, som vises til brugere. Det kan ske automatisk gennem systemer, der analyserer HTML, rendering, redirects og forskelle i indhold.

Derudover kan manuelle gennemgange afsløre problemet, især hvis en side viser usædvanlige forskelle afhængigt af brugeragent, IP-adresse eller andre tekniske signaler.

Hvilke konsekvenser kan cloaking have for en hjemmeside?

Konsekvenserne kan være fald i placeringer, tab af organisk trafik og i alvorlige tilfælde afindeksering af enkelte sider eller hele domænet. Det kan ramme både synlighed, leads og omsætning.

Hvis Google vurderer, at der er tale om et klart brud på retningslinjerne, kan websitet også få en manuel handling. Selv efter oprydning kan det tage tid at genvinde tillid og placeringer.

Er cloaking det samme som skjult tekst?

Nej. Skjult tekst er indhold, der ligger på siden, men gøres usynligt eller svært at se for brugeren. Cloaking er bredere og handler om, at hele eller væsentlige dele af siden ændres alt efter, hvem der besøger den.

Begge metoder kan være i strid med søgemaskinernes regler, men de fungerer teknisk forskelligt.

Hvad er forskellen på cloaking og sneaky redirects?

Cloaking betyder, at søgemaskine og bruger får forskelligt indhold på samme adresse. Sneaky redirects betyder, at brugeren sendes videre til en anden side, end den søgemaskinen forventer eller har vurderet.

De to teknikker minder om hinanden, fordi de vildleder søgemaskinen, men cloaking handler primært om forskellig visning, mens sneaky redirects handler om vildledende viderestilling.

Kan IP-baseret eller brugeragent-baseret indhold være cloaking?

Ja, det kan det være. Hvis serveren bruger IP-adresse eller brugeragent til bevidst at vise søgemaskiner en anden version end den, almindelige brugere ser, er det i praksis cloaking.

Selve den tekniske metode er ikke nødvendigvis ulovlig i sig selv. Det afgørende er, om forskellen bruges legitimt, for eksempel til almindelig enhedstilpasning, eller om den bruges til at vildlede søgemaskiner.

Hvordan tjekker man, om et website bruger cloaking?

Det mest direkte er at sammenligne siden set som almindelig bruger og som crawler. Se på den synlige side, den renderede version og den rå HTML for at finde forskelle i tekst, links, metadata eller redirects.

Man bør også kontrollere serverregler, scripts, plugins og eventuelle betingelser baseret på brugeragent eller IP. Store forskelle mellem de versioner, der leveres, er et tydeligt advarselssignal.

Kan personalisering for brugere forveksles med cloaking?

Ja, det kan den i nogle tilfælde, men personalisering er ikke automatisk cloaking. Hvis en side tilpasser indhold efter sprog, lokation eller tidligere adfærd uden at skjule en særlig SEO-version for søgemaskiner, er det normalt legitimt.

Problemet opstår først, når søgemaskiner systematisk får en anden og mere optimeret version end rigtige brugere. Det er hensigten og forskellens karakter, der afgør vurderingen.

Hvordan fjerner man cloaking fra en hjemmeside?

Fjern først alle regler og scripts, der giver søgemaskiner og brugere forskelligt indhold. Gennemgå serveropsætning, redirects, CMS, plugins og tredjepartskode for betingelser baseret på brugeragent eller IP.

Når ændringerne er lavet, bør siden testes igen i flere visninger for at sikre, at samme kerneindhold leveres til alle. Hvis sitet allerede er ramt af en manuel handling, skal problemet rettes fuldt ud, før der eventuelt anmodes om ny gennemgang.

Copyright 2026 - Pilanto Aps