Teknisk SEO För Nybörjare

teknisk seo illustration

En tekniskt väloptimerad webbplats är viktig av två skäl: Det ena är synlighet i sökresultaten och det andra är användarupplevelsen. Dessa faktorer samspelar, eftersom användarsignaler har viss betydelse för rankningen av sökresultaten. Även om teknisk optimering inte på något sätt garanterar topplaceringar vill man som minst eliminera alla potentiella hinder och underlätta för Google att indexera sajten.

Här tittar vi närmare på vad teknisk SEO är, hur du genomför en teknisk SEO-analys och vilka optimeringar som är viktigast att prioritera.

Vad är teknisk SEO och varför är det viktigt?

Teknisk SEO handlar om att optimera den tekniska infrastrukturen på din webbplats för att förbättra synligheten i sökmotorernas sökresultat. Framförallt genom att säkerställa att sökmotorer som Google kan hitta, förstå och indexera ditt innehåll korrekt. Kortfattat fokuserar teknisk SEO på att optimera faktorer som:

Delar av den här terminologin låter kanske inte särskilt nybörjarvänlig, men blir förhoppningsvis mer begriplig strax. Först är det dock viktigt att du har viss förståelse för hur Google och sökroboten Googlebot fungerar.

Hur Googlebot Fungerar

googlebot

Googlebot är Googles automatiserade webbcrawler, som kontinuerligt genomsöker webben för att upptäcka och indexera webbsidor. Det är den primära mekanismen för Google att samla in information om webbsidor för att sedan avgöra vilka sidor som ska visas i sökresultaten. Även andra sökmotorer har motsvarande crawlers, t.ex. Bings Bingbot. LLM:er som ChatGPT fungerar lite annorlunda, men har samma behov av enkel tillgång till webbsidors innehåll.

Så här går processen till på en övergripande nivå:

1. Upptäckt av URL:er (sidor)

För att hitta nya sidor på webben använder Googlebot några olika metoder:

2. Crawl-prioritering

Alla nyupptäckta URL:er placeras i en crawling-kö där Googlebot prioriterar baserat på:

Googlebot undviker att indexera och bearbeta sidor om du uttryckligen inte vill att de ska indexeras. Du kan specificera sådana med filen robots.txt, meta robots-taggar eller X-Robots-Tag. Det kan vara användbart för exempelvis användargenererat innehåll och inloggade funktioner.   

3. Rendering och bearbetning

När Googlebot besöker en sida gör den följande:
Googlebot använder en version av Chromium (headless) för att köra JavaScript-kod och det är en viss fördröjning mellan HTML-crawling och JavaScript-rendering. Det uppstår lätt problem med sidor där det merparten av innehållet genereras dynamiskt med JavaScript.

Faktorer som påverkar crawling

De viktigaste tekniska förutsättningarna för att Googlebot ska kunna crawla effektivt är laddnings- och svarstider, webbplatsens struktur (djup länkstruktur kan försvåra), internlänkning, samt förstås rena fel som trasiga länkar och JavaScript-problem.

Eftersom crawling av en webbplats sker inom ramen för en individuell crawl-budget är det viktigt att det sker så effektivt som möjligt. 

Skapa sitemap.xml och konfigurera robots.txt

Sitemap.xml och robots.txt är enkla men viktiga filer för teknisk SEO eftersom de underlättar för sökmotorer att navigera och indexera (eller i förekommande fall inte indexera) din webbplats korrekt.

Exempel: Skapa sitemap i WordPress

En sitemap.xml är enkelt uttryckt en lista över alla sidor på din webbplats som du vill att sökmotorerna ska indexera. Den fungerar som en karta över webbplatsen, vilket gör det enklare för sökmotorer att förstå hur sidorna hänger ihop och vilka som ska prioriteras.

Om du inte har en helt statisk sajt vill du som regel att sitemap.xml uppdateras och hålls aktuell automatiskt. I WordPress hanteras det enklast med plugins som Yoast

yoast

Yoast SEO (och många liknande plugins) genererar automatiskt en dynamisk sitemap som finns på dinwebbplats.se/sitemap_index.xml. Det skapar separata sitemaps för olika innehållstyper som inlägg, sidor och kategorier.

Andra CMS-plattformar som Shopify, Wix med flera har oftast inbyggda funktioner eller motsvarande tillägg för att generera sitemaps. Du kan även använda verktyg som Screaming Frog för att generera en sitemap manuellt.

Så fungerar robots.txt

Robots.txt är en väldigt simpel textfil som kontrollerar vilka delar av din webbplats sökmotorernas robotar får tillgång till. Denna fil måste placeras i rotmappen på din webbplats (t.ex. https://www.exempel.se/robots.txt) för att sökmotorer ska kunna hitta den.

För att skapa en robots.txt-fil behöver du:

  1. Öppna en textredigerare (som Notepad eller liknande)
  2. Skapa en ny fil och spara den som ”robots.txt” (använd små bokstäver)
  3. Ladda upp filen till webbplatsens rotmapp

Den grundläggande syntaxen för robots.txt inkluderar:

User-agent: [sökrobot]
Disallow: [mapp eller fil]
Allow: [mapp eller fil]

Där:

  • User-agent specificerar vilken sökrobot regeln gäller för. Använd asterisk (*) för alla robotar.
  • Disallow talar om för roboten vilka mappar eller filer den inte ska besöka.
  • Allow ger tillgång till specifika sidor inom en blockerad mapp.

Exempel på en enkel robots.txt-fil:

User-agent: *
Disallow: /privat/
Allow: /privat/offentlig-sida.html

Detta blockerar alla sökmotorer från att besöka mappen ”privat” men tillåter åtkomst till sidan ”offentlig-sida.html” inom den mappen.

Hur du länkar till sitemap i robots.txt

Du kan också lägga in en referens till XML-sitemap i robots.txt-filen för att förenkla för robotar. 

Använd följande format:

Sitemap: https://www.dinwebbplats.se/sitemap.xml

Du kan även lägga till flera sitemaps:

Sitemap: https://www.dinwebbplats.se/sitemap-sidor.xml
Sitemap: https://www.dinwebbplats.se/sitemap-inlagg.xml

Sitemap-direktivet är oberoende av User-agent-linjen och kan placeras var som helst i robots.txt-filen. Tänk på att URL:en måste vara fullständig (absolut, inklusive protokoll och värdnamn) och är skiftlägeskänslig.

Du kan testa robots.txt-filen i Search Console när du är klar. 

Optimera struktur och interna länkar

Navigering och interna länkar kan vara minst lika viktiga som externa länkar. De fungerar som vägledning för både besökare och sökmotorer.

 

sajtstruktur befintligt innehåll

Mest effektiv är en logisk hierarki där innehållet är organiserat i tydliga kategorier och underkategorier som hjälper användare att hitta och Googlebot att indexera.

Tänk på att du aldrig ska ändra URL-struktur för sidor som redan är indexerade och rankar. I så fall är det viktigt att använda 301-redirects

Om du startar från ruta ett är det däremot klokt att redan från start organisera innehållet i huvudkategorier och underkategorier som speglar din verksamhet. Ett typexempel för e-handel är: /produktkategori/produkt/

Håll gärna strukturen enkel med högst tre nivåer i din hierarki (huvudkategorier, underkategorier och enskilda sidor). Alla viktiga sidor bör vara länkade från från huvudmenyn eller andra delar av webbplatsen,

Undvik orphan pages

”Orphan pages” eller föräldralösa sidor är sidor som saknar interna länkar från andra delar av sajten. De kan i undantagsfall hittas av Googlebot, men får ingen styrka från länkar och kan inte hittas alls av användare som inte kan den exakta adressen. Du kan hitta orphans med SEO-verktyg som Screaming Frog, men bäst är tänka på att sidor aldrig bör ”flyta fritt”. 

Använd gärna breadcrumbs

Breadcrumbs eller brödsmulor är en smart navigeringshjälp som visas högst upp på varje sida så att användarna vet var de är i webbplatsens hierarki. Ett typexempel är:

Start > Kategori > Underkategori > Sida

Dessa är inte bara till fördel för användarna, utan också för sökmotorernas genomsökning. De kan också visas på sökresultatsidor via strukturerad data.  

För att få maximal nytta är det dock viktigt att dina brödsmulor är statiska och inte ändrar sig beroende på vilken väg en användare tagit till en viss sida.

Prestanda och Core Web Vitals

core web vitals

Laddningstid har blivit allt viktigare för teknisk SEO, inte minst sedan Google gick ut med att det används som en rankingfaktor. Även om det inte är en avgörande rankingfaktor i sig, ger långa laddtider en usel användarupplevelse.

Google har valt ut specifika mätvärden och kallar dessa Core Web Vitals. 

LCP (Largest Contentful Paint) mäter hur snabbt sidans huvudsakliga innehåll ritas upp i visningsområdet. Det kan vara ett större visuellt element på din sida. LCP ska helst inträffa inom de första 2,5 sekunderna och allt över 4 sekunder anses dåligt.

INP (Interaction to Next Paint) ersatte det tidigare måttet FID (First Input Delay) förra året. INP mäter hur snabbt en webbplats svarar på en användares interaktion, exempelvis ett klick på en knapp. Ett INP under 200 millisekunder är att föredra, medan värden över 500 ms är desto sämre för användaupplevelsen.  Måttet fokuserar på interaktivitet och hur snabbt resultatet visas för användaren efter en interaktion.

CLS (Cumulative Layout Shift) mäter sidans visuella stabilitet och hur mycket layouten förskjuts medan sidan laddas Här ska siffran vara under 0,1 och definitivt under 0,25.

Du kan snabbt få koll på dina värden med verktyget PageSpeed Insights

Lösningar: Cachning och CDN

Caching är en teknik som innebär att kopior av data tillfälligt lagras i statiskt format så att de kan hämtas snabbare. Utan cache måste varje sida laddas från grunden vid varje besök, vilket ökar belastningen på servern och förlänger laddtiderna. Cache-lösningar innehåller funktioner för ”minifiering” av CSS- och JavaScript-filer, samt komprimeringstekniker. 

En annan möjlighet är ett Content Delivery Network (CDN), vilket innebär att  innehåll, framförallt mediafiler, kan hämtas från en extern server istället för att belasta den egna. CDN-nätverket kan vara geografiskt utspritt och leverera innehåll från den server som ligger närmast användaren. Det möjliggör också fler parallella överföringar, vilket ytterligare förbättrar hastigheten.

En cache-lösning bör alltid vara första steget för att snabba upp en webbplats, och om du använder WordPress finns många alternativ (tillägg) som är kostnadsfria. 

 

Mobilanpassning

Google påbörjade en gradvis övergång till ”mobile-first”-indexering för snart tio år sedan. Det innebär att Google använder den mobila versionen av din webbplats för att indexer och rankar innehåll. Övergången är logisk eftersom merparten användare använder mobila enheter idag.

Du som driver en webbplats behöver därför säkerställa att:

  • Mobilversionen har samma innehåll som desktopversionen.
  • Strukturerade data och metadata är konsekvent mellan mobil och desktop.
  • Navigering och länkar fungerar lika bra på mobilversionen.

De allra flesta CMS och tillhörande teman är utvecklade för att hantera alla skärmstorlekar idag, men vid större ändringar är det alltid en bra idé att jämföra mobil- och desktopversionerna.  

Säkerhet: SSL-certifikat

Säkerhet i form av SSL-certifikat så att trafiken går över HTTPS är också i princip obligatoriskt, men inte heller något större bekymmer.

Certifikat kan du enkelt hämta gratis från Let’s Encrypt eller ZeroSSL om det mot förmodan inte är förinstallerat av ditt webbhotell. Vad som kan vara värt att kontrollera är att omdirigeringen från HTTP till HTTPS är tvingande och att du inte har blandat innehåll (HTTP-innehåll på HTTPS-sidor). 

Duplicerat innehåll: canonical och noindex

Duplicerat innehåll är ett vanligt problem som påverkar många webbplatser. För användaren har det kanske mindre betydelse, men det ställer till det för sökmotorer som inte vet vilken version av en sida som ska indexeras och visas i sökresultaten. För Google är det nämligen inte intressant att visa två helt eller till stor del identiska sidor. Lösningarna stavas canonical-taggar och noindex-direktiv.

Hur canonical-taggen fungerar

Canonical-taggen är ett litet stycke HTML-kod som placeras i head-sektionen på en webbsida för att visa sökmotorern vilken URL som är den ursprungliga versionen. Man kan säga att den konsoliderar rankingsignaler till den angivna kanoniska URL:en. Koden ser ut så här:

<link rel="canonical" href="https://www.exempel.se/originalet/" />

Canonical-taggen endast en rekommendation, inte ett direktiv, vilket betyder att Google kan välja att ignorera den i vissa fall, men normalt sett respekteras taggen. 

Det finns ett par varianter av taggen. En självrefererande canonical pekar på samma URL där den är placerad, vilket kan vara en bra försäkring mot oavsiktligt duplicerat innehåll samtidigt som den ger visst skydd för ditt originalinnehåll om någon kopierar din sida.

En extern canonical mot en annan URL, vilket är användbart när din webbplats är tillgänglig med både www och utan www, om du har sidor med URL-parametrar (t.ex. produktvarianter med ’?=storlek’), eller publicerar innehållet på externa plattformar.

När är noindex bättre?

Medan canonical-taggen hjälper sökmotorer att välja rätt version att visa, instruerar noindex-taggen sökmotorer att helt utesluta en sida från sökresultaten. Taggen ser ut så här:

<meta name="robots" content="noindex" />

Använd noindex främst när:

  • Du absolut inte vill att sidan ska visas i sökresultaten
  • Du har sidor med lågt eller inget SEO-värde (tacksidor, inloggningssidor etc.)
  • Du vill att Google fortfarande ska crawla sidan men inte indexera den.

Undvik att kombinera noindex med blockering i robots.txt, eftersom sökmotorer då inte kan se noindex-taggen och sidan förblir indexerad (om den är indexerad sedan tidigare).

Däremot behöver det inte nödvändigtvis vara fel att använda både canonical och noindex tillsammans.

Verktyg för teknisk SEO-analys

Specialiserade SEO-verktyg som Ahrefs och Semrush är bra men alldeles för dyra för de flesta som bara driver en mindre webbplats. 

Men det finns alternativ som hjälper dig att identifiera vanliga problem och förbättringsmöjligheter. Några av de mer självklara verktygen för din tekniska SEO-verktygslåda är:

Google Search Console

Google Search Console, tidigare känt som Webmaster Tools, är kostnadsfritt och ger insikter om hur Google ser din webbplats. Under rubriken ”Indexering” kan du se vilka sidor som har indexerats och varför vissa sidor eventuellt inte indexerats.

Du kan också använda URL-inspektionsverktyget för att detaljgranska enskilda sidor. Dessutom får du tillgång till en hel del intressant information om hur användare hittar till sajten. 

PageSpeed Insights

PageSpeed Insights analyserar användarupplevelsen på både mobila enheter och datorer. Verktyget rapporterar i detalj vad som står ivägen för högre betyg och ger konkreta förslag på åtgärder.

Screaming Frog

Screaming Frog SEO Spider är ett kraftfullt verktyg som kan identifiera många tekniska SEO-problem. Gratisversionen är bland annat begränsad till 500 URL:er och saknar en del inställningsmöjligheter, men är ändå användbart.

Screaming Frog samlar in data om allt från URL-struktur till sidhierarkier och metainnehåll. Du kan också hitta trasiga länkar, omdirigeringar, duplicerat innehåll och brister i metadata. För SEO-migrering är Screaming Frog oumbärligt eftersom det effektivt kartlägger alla URL:er så att du kan implementera redirects. 

Sammanfattning

Det går naturligtvis att gå på djupet med betydligt fler detaljer inom teknisk SEO, men nu har vi åtminstone fått med några av de viktigaste aspekterna av teknisk optimering – från en grundläggande förståelse av sökmotorernas arbetssätt till specifika implementeringar.

Teknisk SEO spelar tveklöst en viktig och i vissa fall helt avgörande roll som komplement till innehållsoptimering. En välstrukturerad webbplats med tydlig hierarki och snabba laddningstider skapar förutsättningar för både användare och sökmotorer att hitta och förstå ditt innehåll.

Sök