Hvad er et Sitemap? Og Hvorfor er den Vigtig?

Du har sikkert hørt, du skal have et ordentligt sitemap for at få søgemaskineoptimeringen til at køre helt perfekt, men hvad er et sitemap, og hvorfor er det nyttigt. Det kan du læse mere om her.

Hvad er et sitemap? Et sitemap er grundlæggende et kort over alle dit websites landingssider.Et sitemap kan enten være en fil eller en side på dit site, hvor hele dit site, inklusiv alle undersider, er tilgængeligt gennem URL-adresser

Der findes mange versioner af sitemaps. Det kunne være en XML-fil, hvor du har alle URL’erne og andre data-points, som f.eks. time stamps.

Man kan oprette sit sitemap i et CMS, så sitemappet opdateres automatisk hver gang, man opretter en ny landingsside.

Min metode er atypisk, men det er best practice både overfor sitets hastighed. https://nutimo.dk/page/sitemap

Jeg har skrevet mit sitemap som plain text, hvor jeg har lavet et linjeskift for hver underside.

Plain text sitemap

Hvis du vil lave dit sitemap i plain text, er der visse retningslinjer, du skal overholde.

Du må kun have én URL per linje. Du kan ikke indlejre ekstrainformationer i plain tekst - i modsætning til XML.

Du skal udspecificere hele adressen til dine landingssider, dette er inklusiv adressens http(s).

Hver tekst-fil kan maksimalt indeholde 50,000 URL’er, herefter skal man lave en ny fil som en ny side. Disse tekst-filer må heller ikke overskride 50 MB.

Tekst-filen skal bruge UTF-8-indkodningen. Du finder denne, når du gemmer filen, i “gem som”-dialogboxen.

Filen må ikke indeholde nogen anden information end listen. Dette gælder også headeren og footeren.

Du kan komprimere dit sitemap, men de 50 MB gælder inden komprimeringen.

Du skal altid uploade dit sitemap på et strukturmæssigt niveau lige under din forside. Det betyder med andre ord, at du skal kunne klikke dig hen til sitemap via ét klik, når du befinder dig på forsiden.

Hvorfor bruge et sitemap?

Når denne liste bliver læst af Googles crawler, bliver hele siden indexeret. Google kommer til at kende hele din sides arkitektur.

Det er især vigtigt, hvis du har et stort site med mange landingssider, for Google kan komme til at crawle dine nyeste landingssider eller dine nyeste opdateringer, hvis den ikke kan finde rundt.

Det er også meget vigtigt, hvis du har undersider til nogle af dine sider, som ikke er forbundne med interne links. Det er selvfølgelig en god idé altid at linke dine sider sammen, men hvis ikke det er passende eller naturligt, bør du lade være.

I dette tilfælde går crawleren ikke fra side til side, men skal finde alle ruterne igennem dit site. Det er ikke sikkert, at den finder dem alle.

Hvis din side er ny, eller du har få indgående links, er det også meget vigtigt at have et sitemap. Googles crawlers fungerer ved at følge links fra side til side, men hvis ingen eller få linker til dine undersider, går der længere mellem crawls, og risikoen for at blive overset bliver større.

Godt at vide om sitemaps

Man kan lægge site sitemap op i Google Search Console.

I Google Search Console går du ind under Sitemaps i sidebaren under indeks og indsætter linket til dit sites sitemap.

Et HTML-sitemap er en god ting for både brugeren og søgemaskinerne. De links, du har indsat i HTML, fordeler sitets linkværdi ud over disse. Så det er en god idé at bruge et HTML-sitemap, også selvom du allerede har et XML-sitemap.

Fordelene ved, at du kan gøre dit sitemap dynamisk i XML, er ikke udelukkede i HTML. Du kan også gøre her.

Et XML-sitemap er fordelagtigt, fordi du kan specificere crawlerens brug af denne i rigtig høj grad. Alternativt kan du også lave et RSS-sitemap, hvilket du kun bør benytte dig af, hvis din side allerede har et syndication feed.

Sitemaps for meget store sites

Hvis dit sitemap er for stort til at kunne loades hurtigt, altså hvis det indeholder tusindvis af linjer, kan det være en fordel at oprette en struktur af sitemaps.

Dette ville typisk kun være et problem for store webshops.

Har du eksempelvis er en webshop, der handler med brugskunst, vil der være mange undersider, som ikke har noget med hinanden at gøre.

Du har måske en kategoriside til vaser, én til kopper, én til lamper osv. Her kunne det være fordelagtigt at lave et sitemap udelukkende til kopperne på koppe-kategorisiden, hvis du har 500 undersider med kopper, som er fordelt over 10 undersider.

Således bliver linkværdien til den enkelte kop forsøget, uden websitet struktur lider skade. Din forsides sitemap vil naturligvis have et link til koppe-kategorisidens sitemap.

Koppen kunne være dybt nede på dit site, f.eks. i niveau 6: www.denfiktivebrugskunstwebshop.dk/hjemmet/køkken/service/meget-kendt-designer1/kopper/den-specifikke-kop

Her kunne det være fordelagtigt at have et sitemap på service-niveauet, så koppen ikke ligger som nummer 45.000 på dit sitemap, og derfor ikke nødvendigvis vil blive crawlet.

I dette tilfælde skal man også have et sitemap-indeks. Hvis du skriver dit indeks i XML, skal dette indeks både starte og slutte med et tag, foruden ved og tags for hvert sitemap i indekset.

På denne måde kan man få mere linkværdi til de sider, der ligger meget langt fra forsiden.

Crawl Budget kan begrænse din indeksering

Google har et crawl budget til Googlebot, som afgør, hvor meget og hvor effektivt dit site bliver crawled. Bemærk igen, dette er udelukkende aktuelt for meget store sites.

Crawl budgettet er baseret på en række faktorer:

Først og fremmest Crawl Rate Limit, der igen er en kombination af flere ting:

Crawl health som grundlæggende er, hvor hurtig din server svarer. Hvis dit site bliver meget belastet af trafikken, som Googlebot er en del af, vil du opleve færre crawls. Googlebot nedjusterer, hvor mange informationer den vil hente fra dit site, hvis serveren ikke kan følge med.

Det kan have afgørende betydning for, om alle dine sider vil blive crawled inden næste gang; der skal crawles fra toppen.

Hvis crawleren ikke møder nogen modstand i form af loadhastigheder fra serverens side, vil den sætte frekvens og hastighed op på sine crawls - og dermed nå mange flere sider, inden den starter forfra.

Du kan begrænse, hvor mange sider der skal crawles i Google Search Console. Hvis du hæver begrænsningerne, betyder det ikke nødvendigvis, at din side vil blive crawlet mere.

Crawl demand er den anden faktor, som afgør dit crawl budget. Hvis dit site ikke har tilstrækkelige forespørgsler, vil dit crawl budget falde.

Populære sider vil blive indekseret hurtigere og oftere end sider, som ikke oplever så meget trafik.

Støvede sider - Googlebot foretrækker at have nyt og friskt indhold til indekseringen. Sider, som ikke er blevet opdateret længe, vil derfor blive crawlet med større og større mellemrum gennem tiden.

SIMON ELJÆR NUTIMO

Mit navn er Simon Elkjær

Jeg er Podcaster, YouTuber, Forfatter og Direktør i mit eget marketingfirma. Til dagligt arbejder jeg med Søgemaskineoptimering , Branding, Content Marketing og organisk vækst.

 

Relaterede Blogindlæg