Site Quality & SEO post-HCU

|

Under 2023 gick den brittiske SEO experten Mark Williams-cook ut på Linkedin och berättade att han och hans team identifierat en svaghet i Googles system.

De identifierade ett sätt som tillät vem som helst att med kodspråket Protobuf skicka nätverksanrop till Googles interna endpoints och på så sätt extrahera icke offentlig information om systemen.

Efter att ha experimenterat en tid med anropen skickade teamet in buggen till Googles Vulnerability Reward Program vilket ledde till att de belönades av Google med 13337 USD.

Det tog ungefär ett år innan Mark och hans team kunde offentliggöra sina upptäckter. Under den tiden hände en hel del inom SEO sfären.

Den 27 maj 2024 presenterade Rand Fishkin och Mike King data som läckt från Google Search’s Content Warehouse API för allmänheten.

I oktober 2024 tvingades Google avslöja tidigare hemliga detaljer om sina algoritmer i samband med antitrustförhandlingarna med det amerikanska justitiedepartementet.

Trots dessa nya avslöjanden anser jag Marks presentation på Search Norwich från december 2024 som en av de mest intressanta inblickarna i Googles system på senare tid.

Föredraget gav svar på frågor jag har slitit mig i håret över de senaste två åren och en presentation jag anser att alla som arbetar med SEO borde titta på (även detta poddavsnitt där han går lite mer på djupet kring deras tester).

Nedan går jag igenom de centrala bitarna från det han presenterat samt delar mina tankar och reflektioner kring detta.

Obs. I denna artikel refererar jag till SEO-arbete med mina egna affiliate marketing sajter. Detta ska ej förväxlas med arbete med AdRelevance kunders sajter (även om erfarenheterna och insikterna såklart bidrar i arbetet).

Google vs SEO – En katt- och råtta lek

Mark Williams-Cook inleder sitt föredrag med att beskriva hur ett av de primära syftena med Googles löpande uppdateringar av sina system är att motverka konsekvenserna av sökoptimering.

Genom att kontinuerligt justera sina algoritmer att följa nya regler och vikta parametrar på nya sätt avser Google att höja och bevara kvaliten på sina sökresultat.

Målet med Googles sökmotor är att organisera all världens information samt göra den tillgänglig och användbar för alla 

Google har två primära arbetsätt för att uppnå detta i sina sökresultat:

(1) Quality Raters: Google har utvecklat Search Quality Raters Guidelines, ett dokument som deras Search Quality Raters använder för att bedöma sökresultat baserat på principerna för E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness).

(2) Användarbeteende: Under DOJ:s antitrustförhandlingar med Google under 2023-2024 framkom att Google samlar in och analyserar data om hur användare interagerar med sökresultat för att identifiera beteendemönster och förbättra rankningen.

SEO:are å andra sidan har ett annat mål, vilket är att med tillgängliga metoder och verktyg ranka så ofta och så högt upp i sökresultaten som möjligt. Det primära arbetssättet för att effektivt uppnå detta mål är att identifiera det som Mark kallar för ”Metan” (de metoder och arbetssätt fungerar bäst för att just nu för prioriteras i sökresultaten). 

Detta leder till en naturlig konflikt. När metoder som leder till konkurrensfördelar identifieras och utnyttjas så tenderar kvalitén på sökresultaten att försämras. För att råda bot på detta och öka kvalitén på sökresultaten lanserar Google nya uppdateringar varvid katt- och råtta leken fortsätter. 

Helpful Content Update

Under augusti 2022 meddelar Google att de påbörjat utrullningen av något de kallar Helpful Content Update (HCU). Denna uppdatering syftade till att premiera “bra” innehåll på webben och Google beskriver systemet enligt nedan:

Googles automatiserade rankningssystem är utformade för att prioritera hjälpsam och pålitlig information som i första hand skapas för att vara till nytta för människor, snarare än för att förbättra sökresultaten” (källa)

Resultatet av denna HCU uppdatering (och de efterföljande) fick en enorm påverkan på sökresultaten. 

Ett par månader senare, under november 2022, lanserades ChatGPT som snabbt kom att revolutionera innehållsproduktionen på nätet. Nu blev det möjligt att massproducera innehåll av relativt hög kvalitet till en låg kostnad. 

En Large Language Model (LLM) som ChatGPT arbetar med tokens och efterliknar mönster från sitt träningsdata. Den kan kombinera befintlig information på nya sätt men bidrar inte med helt ny eller originell kunskap.

Med det sagt kommer det innehållet en LLM producerat att hålla en hög språklig kvalitet – speciellt vid utvärdering av en annan dator och språkmodell. 

Detta blev snabbt en guldgruva för oseriösa aktörer som ägnade sig åt att skapa spam. ChatGPT markerade ett genombrott inom programmatisk innehållsproduktion genom att ersätta de stelbenta och mekaniska ”content spinning”-metoderna som tidigare dominerade.

Många, inklusive Google, insåg snabbt att detta kunde leda till problem. Som ett svar på detta lanserade Google sin uppföljare till augusti månads HCU – ”December 2022 Helpful Content Update” följt av den senare ”September 2023 Helpful Content Update”. 

Resultatet av dessa uppdateringar blev en kalldusch för många sajtägare (er författare inkluderad).

Vad är så speciellt med HCU? 

Som SEO:are är man van att få benen undansparkade av Googles uppdateringar.

Dessa uppdateringar visade sig dock vara något annat. Sajtägare som ”spelat enligt reglerna” tappade plötsligt upp mot 90% av sin trafik utan att ha gjort något “fel”.

Dessa drastiska förändringar i trafik sågs tidigare primärt i samband med ”straff” till följd av uppenbara försök att manipulera sökresultaten (något många fick erfara i samband med den ökända ”Pingvinen”).   

Legitima aktörer började rapportera om att de utöver att ha tappat många rankingpositioner även blivit av med samtliga av sina Featured snippets, FAQs och People also asked placeringar. 

Några som blev glada i samband med dessa uppdateringar var stora varumärken med starka domäner. De noterade hur de plötsligt börjat ranka bra för i princip alla sökningar de har en någorlunda relevant landningssida för. Detta i sin tur skapade ett incitament att producera halvdant innehåll i skala för att kapitalisera på utvecklingen. 

En personlig favorit som illustrerar detta är när den amerikanska och tech-nyhetssajten The Verge publicerade en satirisk topplista över de bästa skrivmaskinerna på marknaden för att illustrera det absurda i detta. 

Jag gillar framförallt stycket:

And here’s 275 words about printers I asked ChatGPT to write so this post ranks in search because Google thinks you have to pad out articles in order to demonstrate “authority,” but I am telling you to just buy whatever Brother laser printer is on sale and never think about printers again.

Tillbaka till ritborden, dags att jaga ”Metan” 

Google uppmanade, så som de alltid gör, att se till att ens innehåll höll hög kvalitet. Många sajtägare (mig inkluderad) började självrannsaka – vårt innehåll var uppenbarligen inte tillräckligt bra.

Vi började skriva om artiklar, höjde budgeten för våra skribenter, drog fram giljotinen och kapade bort allt innehåll som låg i riskzonen att klassas som lågkvalitativt av Google. 

Återhämtningarna? Få och sällsynta. Det kändes som att vi befann oss på en ny svart-vit spelplan – antingen uppfyller du kraven eller så kommer du inte att ranka. 

”Parasite-SEO” boomen

Här inser vissa SEOare som ägnar sig åt affiliate marknadsföring att den nya metan helt enkelt är att rida på ryggen av stora auktoritära domäner.

Detta gör man genom något som kallas “Parasite SEO”, det är inget nytt fenomen, men fick ett ordentligt uppsving efter HCU.

Det fungerar på så sätt att man helt enkelt köper ett utrymme på en stor auktoritär domän för att sedan fylla denna med samma slags innehåll som slutat fungera på ens egna domän.

Lo and behold – Sekunden det mediokra och annonsfyllda AI-innehållet placerades på en respektabel domän blev det plötsligt väldigt uppskattat av Google. Kanske var det inte innehållet som ej var tillräckligt hjälpsamt ändå?

Nedan kan vi se ett exempel från de svenska sökresultaten som illustrerar detta. I bilden kan vi se hur tt.se hyrt ut en plats på sin subdomän via.tt.se till någon som sedan flyttat sina AI skrivna affiliate artiklar dit (kudos till dig som gjorde detta och hoppas det blev en bra affär) 

Det kom att ta sent in på 2024 innan Google tog ett krafttag kring detta med sin Site Reputation Abuse policy, då var det dock slut på det roliga. 

Fågel Fenix

Några av oss försökte oss på en annan metod för att kringgå effekten av Helpful Content Update vilket var att helt enkelt flytta våra webbplatser till nya domäner.

Uppenbarligen gillade Google innehållet mer när det låg på en helt ny domän än när det låg på ens gamla domän. Tyvärr blev det förr eller senare pannkaka av det hela när rankingen återigen försvann.

I bilden ser ni när jag pekade om en av mina hemsidor i april 2024. Webbplatsen genererade på sin höjd 30 000 SEK i månaden i passiva intäkter så jag var redo att testa det mesta. Orange linje visar den organiska trafik på den ursprungliga domänen, den gröna linjen visar webbplatsens trafik på den nya domänen.   

Varför känns det annorlunda och vad är det egentligen som pågår?
Varför rankar man temporärt bättre med ny domän?
Hatar Google mig?

Introducing “site_quality”

För att återkoppla till Marks presentation kan svaret på ovan frågor sannolikt förklaras av något som kallas Site Quality.

Mark och hans team kunde konstatera att Google sätter ett “sajtbetyg” på subdomänsnivå för alla domäner de inkluderar i sina sökresultat. Mark kallar denna upptäckt för sitt “Pikachu-moment”. 

Vad är Site Quality?

Site Quality är en metod som används av Google för att mäta en webbplats kvalitet baserat på användares interaktioner och preferenser. Begreppet definieras i Googles Site Quality Score-patent (US9031929B1) från 2012 och baseras på förhållandet mellan nedan:

  1. Antalet refererande sökfrågor: Avser unika frågor där webbplatsen direkt nämns eller identifieras, till exempel genom att använda specifika termer eller domännamn i en fråga (t.ex. ”site:example.com”).
  2. Antalet associerade sökfrågor: Utgörs av frågor som resulterar i att en användare klickar på en länk från webbplatsen i sökresultaten, vilket visar ett intresse för webbplatsens resurser. 

Site Quality mäter alltså inte din webbplats kvalité baserat på dess innehåll. Istället används efterfrågan på din webbplats som en proxy för din webbplats kvalitet.

I sin presentation hävdar Mark dessutom att en domäns förekomst i ankartexter används för att beräkna betyget. Även om detta inte explicit nämns i patentet, finns det skäl att tro att det kan stämma – något jag kommer att återkomma till senare. 

Hur används Site Quality?

Enligt patentet är syftet med Site Quality att underlätta processen att rangordna, prioritera och jämföra konkurrerande webbplatser och på så sätt leverera relevanta och högkvalitativa sökresultat.

Hur hanterar Google Site Quality för nya webbplatser? 

För nya webbplatser som saknar historisk data tilldelar Google en Predictive Site Quality Score vilket förklaras i deras patent Predictive Site Quality (US9767157B2). Förenklat går det till enligt nedan: 

(1) Google analyserar högkvalitativa webbplatser för att identifiera vilka fraser och mönster som är typiska.
(2)
En modell byggs baserat på dessa fraser och används som måttstock för att bedöma nya webbplatser.
(3) Den nya webbplatsen jämförs mot mallen och får ett temporärt Predictive Site Quality Score som används i rankningen tills tillräckligt med data finns för att beräkna en Site Quality Score. 

Hur kan Site Quality kopplas till HCU?   

Nedan är de argument och ledtrådar som antyder att Site Quality utgjorde centrala faktorn i Google Helpful Content Update och fortsatt spelar en central roll vid ranking i dagens sökresultat.  

1. SEOare utan varumärke blev största förlorarna

En studie av Tom Kappa på Moz.com visade att de aktörer som påverkas mest negativt i uppdateringarna var aktörer med starka länkprofiler men med svaga varumärken. 

2. Konstaterande av thresholds

Mark och teamet fick ut data för 800 000 domäners Site Quality. När de analyserade domäner som rankar med ”rich results” så som ”Featured snippets” eller ”People Also Asked” kunde de konstaterade att inga domäner med en Site Quality under 0.4 återfanns bland dessa.

Det tycks därmed finnas ett tröskelvärde för när en webbplats är berättigad till dessa typer av rankingpositioner. Det skulle kunna förklara varför webbplatser med bra innehåll plötsligt blev av med sina Featured snippets (och därmed en stor mängd av sin organiska trafik) samt varför få lyckades ta tillbaka dessa positioner genom att arbeta med sitt innehåll.

Här ska det nämnas att vi inte vet exakt vilken typ av sökningar dessa resultat genererats för. Det är möjligt att kraven varierar för sökningar beroende på hur Google valt klassificerat söktermen (en annan upptäkt som kan tas del av i Marks presentation). 

3. Predictive Site Quality motiverar temporär återhämtning

Predictive Site Quality skulle kunna förklara varför jag och andra fick se en temporär återhämtning i sökresultaten när vi bytte domäner på våra webbplaser.

Trots exakt samma innehåll på den gamla och den nya domänen så verkade Google uppskatta innehållet på den nya domänen mer, i exakt fem månader – därefter tycktes det anses precis lika ”dåligt” som innan.

Vad som händer är sannolikt att Googles system under den initiala tiden efter domänbytet jämför mitt innehåll med andra webbplatsers innehåll vilket resulterar i en Predictive Site Quality Score hög nog för att tillåtas ranka högt i sökresultatet

När Predictive Site Quality efter en period ersätts med Site Quality börjar webbplatsen plötsligt att dala ner i avgrunden igen. Här ska det tilläggas att denna webbplats var inom ett YMYL (Your Money Your Life) segment. Ett sådant segment menar Mark i sin presentation ställer högre krav på Site Quality. 

Vad kan vi ta med oss från allt detta?

I linje med Marks resonemang ser jag HCU (fokuserad kring Site Quality) som en reaktiv åtgärd snarare än proaktiv åtgärd från Googles sida. Jag tror att uppdateringen motiverades av två växande problem.

(1) Mer avancerat länkbyggande: Sajtägare blir allt skickligare på att köpa länkar på ett sätt som undviker att trigga Googles SpamBrain, AI-systemet som är utvecklat för att identifiera spamsajter och köpta länkar.

(2) Förbättrade metoder för innehållsgenerering: Teknikerna för “content spinning” har blivit allt mer sofistikerade, vilket gör att även oseriösa nu kan producera stora mängder till synes högkvalitativt innehåll.

Att återgå till varumärken som en central rankingfaktor kan ha varit Googles sätt att hantera vågen av AI-genererat innehåll. Jag tror detta gjordes till följd av att deras system fick svårare att skilja seriösa från oseriösa aktörer när båda producerar högkvalitativt innehåll. Samtidigt ligger det i linje med nedan citat från Googles tidigare VD Eric Schmidt:

”Brands are the solution not the problem… Brands are how you sort out the cesspool.”

Konsekvenserna 

Kritiken som ofta lyfts mot denna strategi är att den riskerar att slå undan benen för mindre, men legitima aktörer med högkvalitativt innehåll. Detta kan skada det digitala ekosystemet genom att minska de ekonomiska incitamenten för små aktörer att dela sin expertis online. I förlängningen lämnas fältet öppet för en ökad dominans av mediokert och AI-genererat innehåll från stora aktörer.

Min upplevelse är att sökresultaten idag är mindre relevanta och hjälpsamma än vad de var för två år sedan. Detta till följd av att nischade landningssidor, ofta försedda av mindre aktörer, ersatts av generiska landningssidor från stora aktörer med svaga koppling till själva sökintentionen. 

Jag tolkar Googles ständiga rekommendation: ”Fokusera på att producera bra och hjälpsamt innehåll” kan direkt översättas till ”Bygg en webbplats vars innehåll är så pass bra att våra användare aktivt att söker efter den”.

Att bygga en sådan sajt sker inte över en natt. Detta medför att det blir svårare nya och mindre aktörer att nyttja SEO som en kostnadseffektiv marknadsföringsstrategi för att på sikt göra just detta – alltså bygga ett brand.  

Sedan jag började arbeta med SEO, någon gång kring 2018, har det som drivit mig varit möjligheten att som underdog slå de stora aktörerna på fingrarna med bättre innehåll bättre matchat för användarnas sökintentioner.

Därav hoppas att jag att pendeln svingar tillbaka och att Google hittar nya sätt att prioritera innehåll i sökresultaten som baserat på dess kvalité snarare än vilken domän det ligger på. 

Med det sagt är det långt från omöjligt att lyckas med SEO idag utan ett starkt varumärke. Jag fortsatte arbeta med mina hemsidor och även om flera av de mest lönsamma projekt aldrig återhämtade sig så driver jag idag mer organisk än vad jag gjorde innan HCU. 

Det beror nog främst på att jag (1) lämnade alla YMYL segment (2) driver ett tiotal sajter parallellt för att undvika att placerar alla ägg i en korg (3) Marks teori om att länkar kan kopplas till Site Quality tycks stämma. 

Anledningen till att jag, likt Mark, tror länkar och ankartexter har betydelse för Site Quality (eller som påverkande faktor i de processer detta reglerar) är att flera av mina sajter idag erhåller featured snippets i sökresultaten trots att de helt saknar brandtrafik.  

Nedan kommer några tips till dig som tappat trafik i samband Google uppdateringar de senaste åren, upplever att ditt SEO-arbete sker i motvind eller som bara vill anpassa din SEO strategi för den nya ”metan”. 

Att klaga hjälper lite, nedan hjälper mycket:

Utgå från “Brand-sök” som central rankingfaktor

Arbeta strategiskt med digital PR och traditionella marknadsföringskanaler för att öka er varumärkeskännedom och stärka er position i sökresultaten. Mät och följ upp era framsteg genom att använda verktyg som Google Keyword Planner för att identifiera en baseline för hur många som söker på ert varumärke. Sätt sedan tydliga mål och arbeta aktivt med både digitala och traditionella marknadsföringsinsatser för att öka denna siffra.

Undersök om din webbplats riskerar att befinna sig under tröskelvärdet 0.4 för Site Quality. Har ni mycket innehåll som rankar men inga trots att ni optimerar för featured snippets tycks ni aldrig få någon? I så fall kan det vara en indikator på att ni just nu befinner er under tröskelvärdet, då kan det vara klokt att fokusera era resurser på varumärkesbyggande aktiviteter som får fler att söka efter er.

Nedan kommer några tips på sätt ni kan öka er brand awareness och brandsök: 

Digital PR: Detta är hetare än någonsin och ett legitimt sätt att generera både brand mentions och backlinks. För inspiration kan ni kolla in min kollega Hektors framgångsrika PR kampanj där han tillsammans med Gymkompaniet sammanställde Sveriges mest populära gym vilket ledde till en hel del omnämningar och länkar till kunden. Är det få som söker efter din sajt eller ditt brand kommer länkar vara extra viktigt. 

Länkköp: Har ni ej tid, resurser eller fantasin för PR kampanjer? Att köpa länkar är fortsatt en effektiv strategi. Gör det på ett smart sätt, med måtta och kontinuerligt över tid. Se till att länkarna kommer från domäner med mycket trafik som har en nära koppling till era verksamhetsområden och/eller produkter. 

Paid Search & Paid Social: Med Paid Social och SEM är målet främst att driva konvertering, men det bidrar också till att stärka er varumärkeskännedom. Genom att annonsera på strategiskt valda plattformar kan ni både nå nya kunder och bli mer synliga för er målgrupp. På sikt leder detta till ökat intresse för ert varumärke och fler brandsökningar i sökmotorerna.

Epostmarknadsföring: Sitter ni på epostadresser till gamla kunder? Se till att nyttja dessa för att skicka ut information och nyheter. Ett konkret tips här är att ligga steget före, skicka information om kommande kampanjperiod och lanseringar för att få mottagaren att googla efter er i ett senare skede.  

Displayannonsering: Använd displayannonsering för att synas brett i kostnadseffektiva kanaler som skapar stor exponering. För varumärken med begränsad kännedom kan detta vara ett effektivt sätt att öka synligheten och få fler att söka efter er på Google. 

Sociala-medie närvaro: Se till att sätta upp profiler på de mest populära tjänsterna, annonsera, interagera och dela information. Se till att synas och höras med syfte att vara “top of mind” nästa gång användare vänder sig till Google för information om ett av era ämnesområden. 

Fokusera på Topical Authority

Hos AdRelevance betonar vi ofta betydelsen av Topical Authority, och få personer i Sverige har troligen lyft fram begreppet lika frekvent de senaste två åren som min kollega Pontus Vippelius. Vi ser Topical Authority som en avgörande framgångsfaktor inom SEO, av flera skäl:

En central komponent i Googles Site Quality-patent: Även om det inte nämns uttryckligen, verkar Topical Authority spela en nyckelroll i Googles Site Quality-patent, då det starkt relaterar till hur associerade sökfrågor behandlas och används som kvalitetsindikator.

Överlägsen effekt genom strukturerad innehållsstrategi: Vi har gång på gång sett att strategiska satsningar baserade på modeller som Pillar Cluster Content Model ger exponentiella resultat och överträffar de resultat som uppnås med mer osammanhängande eller ”spretiga” innehållsstrategier.

Lycka till så ses vi SERPen 

Kontakta gärna mig, Pontus eller Hektor på Linkedin om du vill bolla tankar kring ämnet eller SEO i allmänhet!