Googles egenbyggda signaler, Navboost och RankEmbed i fokus

|

I nyligen offentliggjorda dokument från USA:s justitiedepartement (DOJ) i antitrustfallet mot Google avslöjar nya detaljer om Googles algoritmer och datainsamling. Trots att Google pratar allt mer om AI och maskininlärning, är det tydligt att den klassiska tekniker som med egenbyggda signaler fortfarande utgör grunden.

Är klassiska fasta signaler + maskininlärning = Google 2025?

Ja, det verkar som klassiska egenbyggda signaler (handmade signals) och maskininlärning är Google 2025. I dokumenten varav flera är från 2024 visar det sig att Googles sökalgoritm består av över 100 så kallade “råsignaler”. Dessa kombineras ofta linjärt, med log-skala för att balansera vikten mellan dem. AI och ML används, men alltid tillsammans med klassiska faktorer som länkar, ankartexter, klickdata och dokumentinnehåll.

Enligt en intervju med Hyung-Jin Kim (skaparen av Navboost) och Pandu Nayak (chef för Search) framgår flera centrala delar i Googles nuvarande sökmodell:

  • PageRank – Fortfarande i bruk som en viktig kvalitetsindikator.
  • Navboost – En signal baserad på användarklick aggregerade över 13 månader, filtrerat på enhet och plats.
  • RankEmbed – En AI-signal tränad via LLM:er (t.ex. Gemini) som används i kombination med traditionella signaler.
  • Twiddlers – Omordnar redan utvalda resultat baserat på ytterligare regler i slutskedet.
  • Q* – Googles interna kvalitetsmått på dokument som utrycks Q-star internt.

”Det är bara en stor tabell”, sa Dr. Eric Lehman om Navboost. Den lagrar klick per sökfras och dokument, inte ett ML-system i sig.

Vad är ”Topicality” i Googles ranking och hur används det?

Topicality (eller ”ämnesrelevans”) är Googles sätt att bedöma hur väl ett dokument matchar en sökfråga baserat på innehållets relevans. Den bygger i grunden på de tre ABC-signalerna, Anchors (länkar), Body (innehåll) och Clicks (användarbeteende) och kombineras på ett egenbyggt sätt av ingenjörer. Det innebär att Google manuellt justerar hur mycket varje signal ska väga. Topicality har utvecklats från ett mer traditionellt IR-mått (Information Retrieval) till en mer avancerad, signalbaserad bedömning, men har enligt dokumenten inte förändrats så mycket de senaste fem åren, vilket stämmer överens med vad vi ser. Det är en av krafterna som varit drivande inom Topical authority-ramverket.

Kostnadsfri analys av er SEO

Omsätter ni mer än 10 miljoner erbjuder vi en kostnadsfri audit av er SEO och hur ni bör optimera för i AI-sök. Analysen görs och presenteras av seniora specialister. Vi utmanar gärna er nuvarande strategi.

Klick, länkar och innehåll i Googles ranking enligt DOJ-dokumenten

I en av sidorna i presentationen syns Googles ABC-princip för ranking:

  • A – Anchors (vad andra säger om sidan)
  • B – Body (vad sidan säger om sig själv)
  • C – Clicks (vad användare säger med sitt beteende)

Det stärker hypotesen att klassiska SEO-signaler fortfarande spelar stor roll och är i grunden det vi ser i sökresultaten med.

Maskiner i all ära men Google vill ha kontroll

Google kritiserar i dokumenten Microsofts ”black box”-ML (i t.ex. Bing) och lyfter att deras egna system är ”förståeliga” just för att de bygger på manuellt kodade signaler. När något går fel vet Google varför, eftersom det är deras egna regler.

Det samtidigt som vi som SEO-are ofta är väldigt tveksamma till om många actions som tas verkligen höjer kvalitén.

Så ser stegen ut från spindling till sökresultat hos Google

I en tidigare hemligstämplad presentation visas sökflödet från insamling till färdigt sökresultat (SERP). Flödet från spindling till sökresultat ser ser ut så här hos Google:

  1. Webdata & feeds – Datakällorna gällande strukturerad och ostrukturerade information.
  2. Multiverse – Samlar in data via Googlebot och strukturerade källor.
  3. Datatvätt och normalisering – Tar bort brus och förbereder indexering.
  4. Indexering & Knowledge Graph – Organiserar innehåll semantiskt.
  5. Query Understanding Service – Tolkning av sökfrågor (t.ex. synonymer och entitetsidentifiering).
  6. Superroot + GWS – Rankar och serverar resultat.
  7. Logging Stack – Samlar in data för justering och test.

En tydlig bekräftelse finns nu också på att Google använder deras mänskliga granskare (Search Quality Raters som tar del av SQRG-dokumenten) i träningen av sina kvalitetsmått bland annat för Q*-resultatet.

Vad betyder detta för SEO 2025?

För SEO-specialister ger dessa dokument tillsammans med Google läckan och tidigare DOJ-material en ovanligt tydlig inblick i algoritmerna:

  • SEO är inte dött – traditionella signaler som länkar, klick och innehåll är fortsatt avgörande.
  • ML är ett lager – inte en ersättare – AI används ovanpå, inte istället för klassiska faktorer.
  • Användardata styr mer än någonsin – klick- och dwelltid i Navboost ger starka signaler.

Vi har aldrig fått mer information om algoritmerna än senaste året med Google läckor, rättegångar och buggar. Så det gäller att som SEO-are ta del av det på ett smart sätt och använda de konkreta delarna i de SEO-strategier vi arbetar med.

Få en kostnadsfri audit av er SEO ->

Cred till Brett Tabke på SearchEngineWorld för många intressanta insikter från dokumenten.